View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
ColdWarGuy
30-11-2023, 08:10
Ad ora i fatti dicono che la 3070 ancora con i suoi 8gb permette il 4k con dlss tranne in 2-3 giochi.
Ad ora i giochi UE5 consumano meno vram dei giochi UE4.
E che quindi la 4070 ti con i suoi 12 gb è lontana dall essere inutilizzabile per via della vram.
Poi se tra 3 anni lo sarà vedremo. Ad ora, nemmeno la 3070 è a quel punto e sono passati 3 anni.
E chi ha mai parlato di "inutilizzabile" ?
Permettere di utilizzare un gioco è un conto, sfruttare al meglio la GPU è un altro, i giochi che utilizzano parecchia VRAM per le texture sono una realtà, così come le "mod" hi-def per games relativamente datati.
Gli 8GB della 3070 sono stati giustamente causa di lamento alla sua uscita ed i giochi recenti in parecchi casi ne hanno dimostrato la fondatezza.
Ribadisco che la 1070 aveva già 8GB 6 anni fa, per di più con un MSRP sotto i 400 USD.
Per fare un esempio TLOU con gli update è sicuramente giocabile con 3070 ma le texture sono mooolto più soft a parità di settaggi rispetto l'uscita, quando con la stessa andavi in crash di continuo.
IL DLSS non ha la stessa resa in tutti i games, se vogliamo fare un esempio di due estremi su AW2 fa miracoli mentre con Dead Space remake introduce un drastico calo di nitidezza già in quality.
A mio parere i 12GB per la 4070 Ti sono in rapporto ancora peggio visto il livello di dettaglio delle texture a cui siamo arrivati ultimamente, se poi consideriamo il suo prezzo proprio non c'è giustificazione, penso sia impossibile definirla una scheda equilibrata nel suo insieme.
Vedere poi offrire in seguito una 4060 Ti a 16GB suona come uno scherno per chi ha tirato fuori il millino per la 4070 Ti.
Ora voglio capire qual'è la tua tesi, forse che i 12GB per la suddetta o gli 8GB per la 3070 sono stati un'ottima scelta ?
Si ma non é che una 2080ti con 11gb faccia dei miracoli rispetto la 3070... I limiti sono quelli e con AAA recenti senza DLSS non vai da nessuna parte.
Con l'arrivo di Blackwell rendetevi conto che le 3070 diventeranno chippini entry level da target x50 e 8gb rimangono comunque bilanciati per quel target.
Per il resto con le gddr7 e la tripla densità dovrebbe esserci molto più margine sul taglio di memoria, un 128bit potrebbe montare 8/12gb e un 192bit 12/18gb, oltre a una bw più dignitosa dato il clock di 30-36gbps.
Inviato dal mio M2012K11AG utilizzando Tapatalk
ColdWarGuy
30-11-2023, 09:03
Si ma non é che una 2080ti con 11gb faccia dei miracoli rispetto la 3070... I limiti sono quelli e con AAA recenti senza DLSS non vai da nessuna parte.
Con l'arrivo di Blackwell rendetevi conto che le 3070 diventeranno chippini entry level da target x50 e 8gb rimangono comunque bilanciati per quel target.
Per il resto con le gddr7 e la tripla densità dovrebbe esserci molto più margine sul taglio di memoria, un 128bit potrebbe montare 8/12gb e un 192bit 12/18gb, oltre a una bw più dignitosa dato il clock di 30-36gbps.
Inviato dal mio M2012K11AG utilizzando Tapatalk
Di nuovo : 12GB 4070 Ti e 8GB 3070 ottima scelta ?
Rispondere Sì / No.
PConly92
30-11-2023, 09:21
magari sarò complottista ma per me nvidia ha fatto apposta a non mettere più vram sulle 4000 per non renderle troppo longeve. tra dlss3 e fg una 4070ti con 16 gb te la potevi tenere ALMENO fino al 2027 IMHO.
vediamo gta6... per me sarà un bagno di sangue per le schede 8/12 gb.
Di nuovo : 12GB 4070 Ti e 8GB 3070 ottima scelta ?
Rispondere Sì / No.
Ti vedi come una persona che è un lavoratore affidabile?
Ti vedi come una persona originale, che ha nuove idee?
Sei rilassato?
Gestisci bene lo stress?
Litighi con gli altri?
Sei una persona puntuale e affidabile?
Sai come usare in maniera efficace il tuo tempo?
Hai riflettuto sulla razza umana?
Si o no ?
SI O NO ?
CHI SONO IO ????? :muro:
(semi-cit.)
:asd:
ColdWarGuy
30-11-2023, 09:33
magari sarò complottista ma per me nvidia ha fatto apposta a non mettere più vram sulle 4000 per non renderle troppo longeve. tra dlss3 e fg una 4070ti con 16 gb te la potevi tenere ALMENO fino al 2027 IMHO.
vediamo gta6... per me sarà un bagno di sangue per le schede 8/12 gb.
Pensa che doveva essere la 4080 ...
Cutter90
30-11-2023, 10:30
E chi ha mai parlato di "inutilizzabile" ?
Permettere di utilizzare un gioco è un conto, sfruttare al meglio la GPU è un altro, i giochi che utilizzano parecchia VRAM per le texture sono una realtà, così come le "mod" hi-def per games relativamente datati.
Gli 8GB della 3070 sono stati giustamente causa di lamento alla sua uscita ed i giochi recenti in parecchi casi ne hanno dimostrato la fondatezza.
Ma parecchi dove? Mi mostri degli esempi, tranne tlou in cui la 3070 fa fatica CAUSA VRAM in 1440p? Perchè sevcondo me non hai ben chiara questa cosa. I casi sono rarissimi, si parla di 2-3 altrochè parecchi...
Ribadisco che la 1070 aveva già 8GB 6 anni fa, per di più con un MSRP sotto i 400 USD.
Ma cosa c'entra. Il costo mica lo fa la vram, anzi, impatta pochissimo
Per fare un esempio TLOU con gli update è sicuramente giocabile con 3070 ma le texture sono mooolto più soft a parità di settaggi rispetto l'uscita, quando con la stessa andavi in crash di continuo.
IL DLSS non ha la stessa resa in tutti i games, se vogliamo fare un esempio di due estremi su AW2 fa miracoli mentre con Dead Space remake introduce un drastico calo di nitidezza già in quality.
Ah ma che abbia la stessa resa o meno cambia poco. La 3070 attualmente non è più una scheda per il 4k come poteva essere alla sua uscira, ma non a causa della vram....
A mio parere i 12GB per la 4070 Ti sono in rapporto ancora peggio visto il livello di dettaglio delle texture a cui siamo arrivati ultimamente, se poi consideriamo il suo prezzo proprio non c'è giustificazione, penso sia impossibile definirla una scheda equilibrata nel suo insieme.
Scusa, ma ti sie perso il mio messaggio di prima? DF ha analizzato i giochi UE5 e per ora usano MENO vram rispetto a quelli UE4, nonostante Nanite rende la texture superiori non di poco.....
Vedere poi offrire in seguito una 4060 Ti a 16GB suona come uno scherno per chi ha tirato fuori il millino per la 4070 Ti.
Ora voglio capire qual'è la tua tesi, forse che i 12GB per la suddetta o gli 8GB per la 3070 sono stati un'ottima scelta ?
Gli 8 gb per la 3070 e i 12 per la 4070 ti sono stata una scelta consona per il loro target. Ora, se tutte le schede avessero 24 gb sarebbe meglio, ma nvidia evidentemente non aveva voglia di "sprecare" risorse. Ha ritenuto che la scheda murasse prima della vram. E finora i risultati sono con la sua linea di pensiero.
https://www.youtube.com/watch?v=ffffBtg2hIk
3079 vs 2080 ti in 4k, che ripeto non essere il suo target attuale, quindi è uno sceraio di utilizzo che avvantaggia la 2080 ti. Vanno uguali ;)
https://www.youtube.com/watch?v=Dc52a9Yu1i0
Altri giochi, stesso risultato, con la 3070 che fa meglio in alcuni scenari, addirittura, in altri fa peggio
ColdWarGuy
30-11-2023, 11:06
Gli 8 gb per la 3070 e i 12 per la 4070 ti sono stata una scelta consona per il loro target. Ora, se tutte le schede avessero 24 gb sarebbe meglio, ma nvidia evidentemente non aveva voglia di "sprecare" risorse. Ha ritenuto che la scheda murasse prima della vram. E finora i risultati sono con la sua linea di pensiero.
https://www.youtube.com/watch?v=ffffBtg2hIk
3079 vs 2080 ti in 4k, che ripeto non essere il suo target attuale, quindi è uno sceraio di utilizzo che avvantaggia la 2080 ti. Vanno uguali ;)
https://www.youtube.com/watch?v=Dc52a9Yu1i0
Altri giochi, stesso risultato, con la 3070 che fa meglio in alcuni scenari, addirittura, in altri fa peggio
Probabilmente non ci intendiamo sui termini :
non è una questione di FPS ma bensì di trovarsi a dover rinunciare al massimo dettaglio delle texture per limiti di VRAM, in situazioni dove la GPU regge dignitosamente la risoluzione selezionata.
Iperbole dei 24GB a parte, con la 3070 sarebbero bastati 12GB e con la 4070 Ti 16GB per conferire tutt'altra longevità sotto questo aspetto.
Cutter90
30-11-2023, 11:18
Probabilmente non ci intendiamo sui termini :
non è una questione di FPS ma bensì di trovarsi a dover rinunciare al massimo dettaglio delle texture per limiti di VRAM, in situazioni dove la GPU regge dignitosamente la risoluzione selezionata.
Iperbole dei 24GB a parte, con la 3070 sarebbero bastati 12GB e con la 4070 Ti 16GB per conferire tutt'altra longevità sotto questo aspetto.
Cosa che come dimostrato dai video non succede. I giochi nei video hanno le texture la massimo.... come dimostrato dalla ram di 11 gb della 2080 ti la longevità sarebbe stata la stessa....
mikael84
30-11-2023, 11:27
Ribadisco che la 1070 aveva già 8GB 6 anni fa, per di più con un MSRP sotto i 400 USD.
La 4070 non è una x70, è x70 solo commerciale. La 1070 era una x70. Quindi si porta dietro tutti i suoi limiti di chip inferiore.
Avesse avuto il 256 bit, avrebbe avuto 16gb per la doppia densità, quindi il progresso c'è stato, ma frenato dal bus di fascia inferiore.
TSMC vs samsung, ha brutalizzato le fasce.
Ti do una buona notizia, potrebbe esserci 12gb, anche sulle nuove, senza tripla densità o 256vit su quei chip.:p
Si ma non é che una 2080ti con 11gb faccia dei miracoli rispetto la 3070... I limiti sono quelli e con AAA recenti senza DLSS non vai da nessuna parte.
Con l'arrivo di Blackwell rendetevi conto che le 3070 diventeranno chippini entry level da target x50 e 8gb rimangono comunque bilanciati per quel target.
Per il resto con le gddr7 e la tripla densità dovrebbe esserci molto più margine sul taglio di memoria, un 128bit potrebbe montare 8/12gb e un 192bit 12/18gb, oltre a una bw più dignitosa dato il clock di 30-36gbps.
Inviato dal mio M2012K11AG utilizzando Tapatalk
Micron a 36 gb/s, ci arriverà con le Rubin 6000, al momento è data per 32gb/s. E non mi stupirei se partisse pure a meno. Cmq qua siamo ok.
Discorso tripla densità, è un discorso più complesso, sicuramente la vedremmo con le 6000, ma con le 5000, è ancora disponibile nelle due varianti. Infatti la 5090 viene indicata a 24gb, quindi in doppia densità.
C'è la seria possibilità, che venga utilizzata la doppia pure per i chip inferiori.
Il rischio di 5070 a 12gb è alto, salvo non utilizzino un 256bit, mentre quasi sicuramente vedremmo la 6070 a 18gb/36gb/s.
StylezZz`
30-11-2023, 11:38
Cosa che come dimostrato dai video non succede. I giochi nei video hanno le texture la massimo....
Il problema si verifica principalmente con il raytracing che si mangia tantissima VRAM, e nel video che hai postato ha testato solo in raster. Nvidia mi ha venduto una gpu che sarebbe perfettamente in grado di gestire i giochi a 1440p+DLSS+RT, ma che purtroppo è frenata.
Spiderman per esempio ho dovuto abbassare le textures per stare dentro gli 8GB, altrimenti avevo dei freeze durante gli spostamenti in città, oltre alle textures degli edifici che si caricavano in ritardo.
Questo è un test fatto da Maury con la A770 16GB vs 3070, non credo ci sia altro da aggiungere:
SPIDERMAN MILES MORALES
https://i.postimg.cc/ry4M8Sry/SPIDERMAN.png (https://postimages.org/)
LA 770 si sta avvicinando sempre di più alla 3070, il salto con questi ultimi driver è stato netto, in SPIDERMAN la 3070 viene tallonata in 2K e battuta in 4K, la VRAM occupata già in 2K è di 10 gb, che sale oltre con i 4K. I medi sono nettamente a favore di ARC che ai fatti permette un'esperienza più fluida
Cutter90
30-11-2023, 11:41
Il problema si verifica principalmente con il raytracing che si mangia tantissima VRAM, e nel video che hai postato ha testato solo in raster. Nvidia mi ha venduto una gpu che sarebbe perfettamente in grado di gestire i giochi a 1440p+DLSS+RT, ma che purtroppo è frenata.
Spiderman per esempio ho dovuto abbassare le textures per stare dentro gli 8GB, altrimenti avevo dei freeze durante gli spostamenti in città, oltre alle tetxures degli edifici caricati in ritardo.
Questo è un test fatto da Maury con la A770, non credo ci sia altro da aggiungere:
Nell'altro video i test sono anche con RT + DLSS.....
cmq la VRam è un argomento che ciclicamente salta fuori. Ma al momento io vedo zero problemi dovuti a quest'ultima o quasi.
magari sarò complottista ma per me nvidia ha fatto apposta a non mettere più vram sulle 4000 per non renderle troppo longeve. tra dlss3 e fg una 4070ti con 16 gb te la potevi tenere ALMENO fino al 2027 IMHO.
vediamo gta6... per me sarà un bagno di sangue per le schede 8/12 gb.Morirebbe con la stessa obsolescenza di una 3090 con 24gb...
Alla fine 4070ti ha prestazioni migliori di una 3080ti, mantenendo la stessa vram e l'aggiunta del dlss3, il problema grosso é che é prezzata allo stesso modo...
Anche la 4080, ha un deciso salto di prestazioni da 3080 ma costa anche il 50% in più.
Se andiamo a guardare unicamente al performance/price i miglioramenti li vediamo con 4080 vs 3090 e 4090 vs 3090ti, solo che la 4080 dovrebbe confrontarsi con 3080 come fascia di prezzo...
Nella fascia media si salva a pelo la 4070 giusto perché rispetto la 3080 fa comunque risparmiare 200€ e offre +2g di vram e dlss3 ma é un contentino...
Al di sotto si stende un velo pietoso...
Tutte queste pippe sulla vram sinceramente non le capisco, il problema grosso a mio parere é e rimane il costo di questi chip, che alla fine non porta miglioramenti sul performance/price.
Con super vedremo come le prezzeranno ma sinceramente per chi ha già una GPU più o meno decente gli conviene aspettare direttamente Blackwell.
Al prossimo giro un salto di nodo del genere se lo sognano quindi per forza di cose devono mettere mano sull'architettura, e se le vendite delle 4000 sono andate sotto rispetto ai loro presupposti é forse possibile che vedremo un labile miglioramento, altrimenti continueranno con questo trand.
Inviato dal mio M2012K11AG utilizzando Tapatalk
mikael84
30-11-2023, 11:44
Probabilmente non ci intendiamo sui termini :
non è una questione di FPS ma bensì di trovarsi a dover rinunciare al massimo dettaglio delle texture per limiti di VRAM, in situazioni dove la GPU regge dignitosamente la risoluzione selezionata.
Iperbole dei 24GB a parte, con la 3070 sarebbero bastati 12GB e con la 4070 Ti 16GB per conferire tutt'altra longevità sotto questo aspetto.
Purtroppo 12gb non potevi metterli, o 8 o 16. Sulla 3070, il gb stava ad 11,8$, e le 3080-ti, erano costrette a mettere 10-12, in quanto sulle gddr6x non c'era la doppia densità.
La 3060 invece ha 12gb, in quanto, ha un 192bit, come la 4070, solo che in singola densità, sarebbe uscita con soli 6gb, ed nvidia ha ritenuto davvero misero quel taglio.
Questo valeva anche per la 3070ti, non essendoci la doppia densità, doveva uscire con 8gb per forza.
L'unico modo, era stamparle con 192bit, ma dovevi rinunciare a tot prestazioni.
Ti saresti trovato una 3070 con perf da 3060ti e 12gb.
La 4070ti, invece usa una sku inferiore, ma tiene testa grazie al maestoso clock dei 5nm. Purtroppo c'è stato un salto pazzesco di nodo, ed i chip minori, hanno recuperato una fascia.:)
fraussantin
30-11-2023, 11:46
Comunque 4090 FE di nuovo esaurite, durate due giorni.Visto , non ê un buon segno visto che non sono manco eol
StylezZz`
30-11-2023, 11:57
Nell'altro video i test sono anche con RT + DLSS.....
cmq la VRam è un argomento che ciclicamente salta fuori. Ma al momento io vedo zero problemi dovuti a quest'ultima o quasi.
Tu vedi zero problemi basandoti su qualche video che mostra alcuni spezzoni di qualche minuto postati da utubers sconosciuti (''GPU TESTER'' :rolleyes:), io ho una 3070, la utilizzo ogni giorno, e se permetti di problemi ne vedo eccome!
mikael84
30-11-2023, 12:34
Cmq se nvidia non soddisfa, ci sono anche le AMD. Ok perdono in RT massivo, e non hanno l'ecosistema nvidia, ma sono schede solidissime.
A 500 c'è la 7800xt con 16gb e la 7900 a 800 con 20gb e performance grezze di assoluto livello.
Le 4070-ti, se prese per RT, danno performance mediamente superiori alle AMD, ma non certo per 5-6 anni. Sono schede che coprono il biennio, e per quello vengono speculate e proiettate.
Sta all'utente pesare le specifiche e valutare.
Ora cmq, a gennaio debutteranno le super, e qualche novità ci sarà, per chi vuole i 16gb, ci sarà la 4080 cut, con magari calo delle 7900. Quindi più scelta.
Chiaro che da GA102, ritrovarsi il RT anche inferiore a volte, perdere il DLAA (quasi tutto), DLSS, PT manco a parlarne, che con compromessi fai girare su GA102, AMD non è proprio una scelta valida, ma sotto, da 3070-3060ti o schede più vecchie, assolutamente si.
fraussantin
30-11-2023, 12:50
Cmq se nvidia non soddisfa, ci sono anche le AMD. Ok perdono in RT massivo, e non hanno l'ecosistema nvidia, ma sono schede solidissime.
A 500 c'è la 7800xt con 16gb e la 7900 a 800 con 20gb e performance grezze di assoluto livello.
Le 4070-ti, se prese per RT, danno performance mediamente superiori alle AMD, ma non certo per 5-6 anni. Sono schede che coprono il biennio, e per quello vengono speculate e proiettate.
Sta all'utente pesare le specifiche e valutare.
Ora cmq, a gennaio debutteranno le super, e qualche novità ci sarà, per chi vuole i 16gb, ci sarà la 4080 cut, con magari calo delle 7900. Quindi più scelta.
Chiaro che da GA102, ritrovarsi il RT anche inferiore a volte, perdere il DLAA (quasi tutto), DLSS, PT manco a parlarne, che con compromessi fai girare su GA102, AMD non è proprio una scelta valida, ma sotto, da 3070-3060ti o schede più vecchie, assolutamente si.Sia amd che nvidia sulla fascia media sono fatte per darti motivo di cambiare alla prossima gen.
Nvidia ti tiene corto con le ram , amd ti tiene corto con rt ( anzi giá è al limite imho)
Poi nessuno obbliga al cambio , ma certamente i motivi non mancheranno .
Sulla fascia alta nvidia da tutto , ad un prezzo disumano , ma sa già che sono schede per inscimmiati che cambieranno cmq con il mostro successivo , quindi di fatto sanno fare bene il loro lavoro.
AMD nella fascia media è anche meno interessante delle 6000.
Attualmente 6700/6700xt sono molto più appetibili della 7600 con prezzi simili, stessa cosa per 6800 e 7700xt.
La 7800xt può essere interessante ma alla fine da quello che vedo su trovaprezzi differisce di 50€ dalla 4070, che come chip personalmente lo preferirei nonostante abbia meno vram.
fraussantin
30-11-2023, 13:07
https://videocardz.com/newz/nvidia-geforce-rtx-4090d-for-china-to-feature-ad102-250-gpu
O alla fine un altro ad102 è uscito:D certo non è quello che ci si aspettava in salsa 4080ti 320/20gb a 1199$:stordita: forse a quel prezzo ci da AD103 su 4080 super
e chi l'avrebbe mai prevista una situazione di questo genere, tutto sto casino per piazzare AD102 con limite di 4800 TOPS, quindi avranno una gpu più veloce di 4080 super.Sempre se l'america non "rincara la dose" cambiando i parametri.
Cmq con la 4090 a 1850 euro e la 4080 super a 1450 ( immagino) non vedo spazio per una 4080ti 20 giga.
Come la piazzi? A 1650 si mangia entrambe le schede.
mikael84
30-11-2023, 13:10
Sia amd che nvidia sulla fascia media sono fatte per darti motivo di cambiare alla prossima gen.
Nvidia ti tiene corto con le ram , amd ti tiene corto con rt ( anzi giá è al limite imho)
Poi nessuno obbliga al cambio , ma certamente i motivi non mancheranno .
Sulla fascia alta nvidia da tutto , ad un prezzo disumano , ma sa già che sono schede per inscimmiati che cambieranno cmq con il mostro successivo , quindi di fatto sanno fare bene il loro lavoro.
La media, ovviamente si porta dietro delle limitazioni. la 4070, è eccellente per il 1440p, ed offre tutto, dal FG, al DLAA/DLSS/DLDSR. Un pò cara, si, ma ha veramente tutto.
La concorrenza costa qualcosa in meno, ma ti offre la ram ed il raster di quest'ultima.
La 4070ti, è anch'essa eccellente, è la scheda che ti permette con FG, di godere abbastanza bene del PT, ma per quel che costa, un bus più ampio, sarebbe stato giusto.
La concorrenza, offre un raster un tantino migliore, 20gb, ma è troppo dietro in RT/PT.
Faccio un esempio banale, non mi da mai noie sulla ram, anche in 4k, però ad esempio, avendo speso 900 euro, mi sentirei in imbarazzo, essere escluso dal PT, dal DLSS3.5 RR e tutte le novità come CB o AW2.
Per 4-500 euro ok, per 900 no.
4080 e 4090 per l'enthusiast sono le soluzioni migliori, indubbiamente, soldi a parte.:p
Semmai, il problema sta nella fascia bassa, visto che il target minimo decente di nvidia è 600 euro, sotto è spazzatura.
mikael84
30-11-2023, 13:15
https://videocardz.com/newz/nvidia-geforce-rtx-4090d-for-china-to-feature-ad102-250-gpu
O alla fine un altro ad102 è uscito:D certo non è quello che ci si aspettava in salsa 4080ti 320/20gb a 1199$:stordita: forse a quel prezzo ci da AD103 su 4080 super
e chi l'avrebbe mai prevista una situazione di questo genere, tutto sto casino per piazzare AD102 con limite di 4800 TOPS, quindi in CINA avranno una gpu più veloce di 4080 super, ma che rientra nei limiti imposti.
Comunque alla vram non ci rinunciano per quei calcoli serve, e per montarne 24 serviva per forza ad102, stanno girando le 3080 20gb.
https://videocardz.com/newz/former-cryptomining-gpus-are-now-being-repurposed-to-make-geforce-rtx-3080-20gb-and-rx-580-16gb-cards
Ma era tutta strategia, guarda caso, il valore fissato sta al pelo sulla 4090 (che fa 5280TPP). Bastava solo farla clockare 2-300 mhz in meno.
Una 14848 cuda nel valore TPP ci rientra.
Inoltre in cina, stavano prendendo le 7900 per la ram più che altro. Ecco che ci mette una pezza. Di conseguenza la vince sempre lui.
fraussantin
30-11-2023, 13:19
Erano dei ragionamenti fatti agli albori appena uscite le 4000.
Si pensava potesse uscire una 4080ti su ad102 (più avanti) allo stesso prezzo della 4080 (1199$) giusto per migliorare l'offerta, visto che la 4080 è sempre stata mal posizionata.
Non è andata così purtroppo, quella scheda ormai è la 4080 super su AD103, dobbiamo solo scoprire il prezzo.:D
p.s se l'america metterà altri paletti faranno uno spezzatino di AD102 alla fineSecondo me +100 su tutte ci sta alla grande con le super.
Vedremo.
fraussantin
30-11-2023, 13:33
La doveva blindare con il clock.
Insomma, 14848cc una sorta di 4080ti potenziata con 24gb, la farà stare a pelo del TPP in modo che anche in caso di overclocking starà sempre sotto o forse lo disabiliterà proprio?
Un genio del male:DMa li hai a che fare con gente che dissalda e risalda robe.
Dei limiti sai cosa gli frega.
Che poi penso che ai termini di legge conti la potenza nominale .
In ogn caso adesso smaltirà gli scarti a buon prezzo in cina
mikael84
30-11-2023, 13:46
La doveva blindare con il clock.
Insomma, 14848cc una sorta di 4080ti potenziata con 24gb, la farà stare a pelo del TPP in modo che anche in caso di overclocking starà sempre sotto o forse lo disabiliterà proprio?
Un genio del male:D
Quello ovviamente è un'altra presa in giro, in quanto il TPP è tarato sul base boost. A 3ghz, avresti un TPP del 20% superiore. L'unica che non può toccare quel valore è la 4080 super, ma si stanno rendendo conto che quel chip non può abbattere i limiti di ram, salvo non crearle appositamente col clamshell.
Mi sembra una situazione all'italiana. :sofico:
AD102 dev'essere bannato e basta, altrimenti è tutto inutile.
fraussantin
30-11-2023, 13:49
Ah beh certo, il modo lo trovano prima di subito:D
Serve solo a lui per pararsi le chiappe ed essere nel giusto cosi da poter vendere il prodotto tranquillamente.https://www.hwupgrade.it/news/mercato/nvidia-i-produttori-di-chip-statunitensi-distanti-almeno-10-anni-dall-indipendenza-dalla-filiera-cinese_122252.html
Ah detto che " Siamo un'azienda creata per fare affari "
Quello se ne sbatte anche della sicurezza del suo paese.
Gli basta fare soldi .
Ma almeno stasse zitto .
ColdWarGuy
30-11-2023, 18:42
Cosa che come dimostrato dai video non succede. I giochi nei video hanno le texture la massimo.... come dimostrato dalla ram di 11 gb della 2080 ti la longevità sarebbe stata la stessa....
Sei troppo perentorio, quel video per ovvi motivi non riporta il comportamento di tutti i games esistenti, ma se vuoi sostenere che il size della VRAM non influenzia l'utilizzo delle texture sei ovviamente libero di farlo.
Come se libero di credere che non sia vero quello che dico e cioè che con la 3070, a casa mia, succede.
La 4070 non è una x70, è x70 solo commerciale. La 1070 era una x70. Quindi si porta dietro tutti i suoi limiti di chip inferiore.
Avesse avuto il 256 bit, avrebbe avuto 16gb per la doppia densità, quindi il progresso c'è stato, ma frenato dal bus di fascia inferiore.
TSMC vs samsung, ha brutalizzato le fasce.
Ti do una buona notizia, potrebbe esserci 12gb, anche sulle nuove, senza tripla densità o 256vit su quei chip.:p
-snip
Ascolta, se hai notizie riservate che comprovano ciò comunicamele in PM, così pianifico subito l'acquisto di altro :D
Il problema si verifica principalmente con il raytracing che si mangia tantissima VRAM, e nel video che hai postato ha testato solo in raster. Nvidia mi ha venduto una gpu che sarebbe perfettamente in grado di gestire i giochi a 1440p+DLSS+RT, ma che purtroppo è frenata.
Spiderman per esempio ho dovuto abbassare le textures per stare dentro gli 8GB, altrimenti avevo dei freeze durante gli spostamenti in città, oltre alle textures degli edifici che si caricavano in ritardo.
Questo è un test fatto da Maury con la A770 16GB vs 3070, non credo ci sia altro da aggiungere:
Grazie StylezZz, finalmente qualcuno che ha capito di cosa sto parlando, probabilmente aiuta il fatto che hai la mia stessa scheda e non il mattone da 24GB.
Nell'altro video i test sono anche con RT + DLSS.....
cmq la VRam è un argomento che ciclicamente salta fuori. Ma al momento io vedo zero problemi dovuti a quest'ultima o quasi.
Toglietemi una curiosità : lavorate per il merketing NVIDIA e/o possedete una corposa quota azionaria verde ?
Questo spiegherebbe il livello di deniel su tutte le connotazioni negative delle schede in discussione.
Purtroppo 12gb non potevi metterli, o 8 o 16. Sulla 3070, il gb stava ad 11,8$, e le 3080-ti, erano costrette a mettere 10-12, in quanto sulle gddr6x non c'era la doppia densità.
La 3060 invece ha 12gb, in quanto, ha un 192bit, come la 4070, solo che in singola densità, sarebbe uscita con soli 6gb, ed nvidia ha ritenuto davvero misero quel taglio.
Questo valeva anche per la 3070ti, non essendoci la doppia densità, doveva uscire con 8gb per forza.
L'unico modo, era stamparle con 192bit, ma dovevi rinunciare a tot prestazioni.
Ti saresti trovato una 3070 con perf da 3060ti e 12gb.
La 4070ti, invece usa una sku inferiore, ma tiene testa grazie al maestoso clock dei 5nm. Purtroppo c'è stato un salto pazzesco di nodo, ed i chip minori, hanno recuperato una fascia.:)
Grazie per la spiegazione delle architetture dei bus dei chip, è comunque evidente che i lavori fatti a tavolino dal marketing per mettere in piedi il catalogo più efficiente, per loro, castrano vergognosamente i prodotti al fine di risparmiare poche decine di dollari.
Quando poi penso alla 4080 da 12GB ... sono senza vergogna.
-
snip
Tutte queste pippe sulla vram sinceramente non le capisco, il problema grosso a mio parere é e rimane il costo di questi chip, che alla fine non porta miglioramenti sul performance/price.
Non c'è molto da capire quando compare il messaggio che non c'è spazio in VRAM per le texture o il gioco va in crash appena osi salire con i settaggi delle stesse.
Cmq se nvidia non soddisfa, ci sono anche le AMD. Ok perdono in RT massivo, e non hanno l'ecosistema nvidia, ma sono schede solidissime.
A 500 c'è la 7800xt con 16gb e la 7900 a 800 con 20gb e performance grezze di assoluto livello.
Le 4070-ti, se prese per RT, danno performance mediamente superiori alle AMD, ma non certo per 5-6 anni. Sono schede che coprono il biennio, e per quello vengono speculate e proiettate.
Sta all'utente pesare le specifiche e valutare.
Ora cmq, a gennaio debutteranno le super, e qualche novità ci sarà, per chi vuole i 16gb, ci sarà la 4080 cut, con magari calo delle 7900. Quindi più scelta.
Chiaro che da GA102, ritrovarsi il RT anche inferiore a volte, perdere il DLAA (quasi tutto), DLSS, PT manco a parlarne, che con compromessi fai girare su GA102, AMD non è proprio una scelta valida, ma sotto, da 3070-3060ti o schede più vecchie, assolutamente si.
A proposito di AMD :
"The ban on NVIDIA's GeForce RTX 4090 as a part of the new US policies might be a blessing in disguise for AMD in the Chinese market. Ever since the ban a few weeks ago, the AMD Radeon graphics cards which include the RX 7900 XTX & 7900 XT are seeing a surge in demand which is great news for the red team."
AMD Radeon RX 7900 XTX & 7900 XT GPUs Face Shortages In China As Demand Surges After RTX 4090 Ban (https://wccftech.com/amd-radeon-rx-7900-xtx-7900-xt-gpu-shortages-china-demand-surges-after-rtx-4090-ban/)
Tu vedi zero problemi basandoti su qualche video che mostra alcuni spezzoni di qualche minuto postati da utubers sconosciuti (''GPU TESTER'' :rolleyes:), io ho una 3070, la utilizzo ogni giorno, e se permetti di problemi ne vedo eccome!
+1
Sia amd che nvidia sulla fascia media sono fatte per darti motivo di cambiare alla prossima gen.
Nvidia ti tiene corto con le ram , amd ti tiene corto con rt ( anzi giá è al limite imho)
Poi nessuno obbliga al cambio , ma certamente i motivi non mancheranno .
Sulla fascia alta nvidia da tutto , ad un prezzo disumano , ma sa già che sono schede per inscimmiati che cambieranno cmq con il mostro successivo , quindi di fatto sanno fare bene il loro lavoro.
Ottima disanima, quoto tutto ... purtroppo :(
Quello ovviamente è un'altra presa in giro, in quanto il TPP è tarato sul base boost. A 3ghz, avresti un TPP del 20% superiore. L'unica che non può toccare quel valore è la 4080 super, ma si stanno rendendo conto che quel chip non può abbattere i limiti di ram, salvo non crearle appositamente col clamshell.
Mi sembra una situazione all'italiana. :sofico:
AD102 dev'essere bannato e basta, altrimenti è tutto inutile.
Bravo, hai colto perfettamente il punto, sotterfugi degni della peggior tradizione italica, d'altra parte abbiamo capito che pur di far soldi venderebbero le madri.
https://www.hwupgrade.it/news/mercato/nvidia-i-produttori-di-chip-statunitensi-distanti-almeno-10-anni-dall-indipendenza-dalla-filiera-cinese_122252.html
Ah detto che " Siamo un'azienda creata per fare affari "
Quello se ne sbatte anche della sicurezza del suo paese.
Gli basta fare soldi .
Ma almeno stasse zitto .
Attenzione che lui è nato a Taiwan :D
Comunque concordo, la condotta nei confronti della sicurezza nazionale degli USA è palesemente scorretta e non è detto che ad un certo punto non paghi il conto.
marbasso
30-11-2023, 19:31
Secondo me se tu avessi preso al day1 il mattone da 24gb non saresti qua a lamentarti ogni 3 per 2 di JHH e della vram, ti saresti goduto la vga, vantandone i pregi che sono più dei difetti e avresti vissuto sereno fino alla prox gen spammando fg e pt dove previsto. :)
ColdWarGuy
30-11-2023, 19:36
Ma ho problemi io dal mio pc ho vedo 12 (dodici) post uno dietro l'altro?:stordita:
A tua differenza io non sto attaccato tutto il giorno al forum, terminati gli impegni leggo e posto le risposte.
Qualche problema a riguardo ?
marbasso
30-11-2023, 19:38
Ma ho problemi io dal mio pc ho vedo 12 (dodici) post uno dietro l'altro?:stordita:
Quoto, allora non sono il solo a pensarlo, nvidia produce anche LATERIZI non lo sapevi?
https://i.ibb.co/G2dD1f9/18111428.jpg (https://ibb.co/4TFLDw2)
LOL
Mattone bannato in cina perchè troppo op.
ColdWarGuy
30-11-2023, 19:41
Ma ho problemi io dal mio pc ho vedo 12 (dodici) post uno dietro l'altro?:stordita:
Quoto, allora non sono il solo a pensarlo, nvidia produce anche LATERIZI non lo sapevi?
https://i.ibb.co/G2dD1f9/18111428.jpg (https://ibb.co/4TFLDw2)
A questo punto devo dare ragione a quelli dei threads AMD, che di fronte alla imbarazzante pretesa tua e di un altro possessore del mattone di andare di la a fare i "professorini" vi hanno preso a pesci in faccia a malo modo.
Altro fatto che mi fa pensare che agite nei forums a scopo commerciale e questo è vietato.
ColdWarGuy
30-11-2023, 19:42
Mi sa che scrivi più tu di me sul forum, vado a periodi, basta vedere il numero di messaggi che non è di certo a quadrupla cifra in 7 anni.
Ma vabbè sei bravissimo anche in matematica vedo, moltiplica 365x7 e fai la proporzione con i mess totali 2800, vedrai che medione LOL
Tu sei il clone di chi ?
Confessa.
ColdWarGuy
30-11-2023, 19:47
NVIDIA CEO Jensen Huang Believes That The US Needs “Decades” For Chip Supply Chain Independence (https://wccftech.com/nvidia-ceo-jensen-huang-believes-us-needs-decades-chip-supply-chain-independence/)
"NVIDIA's CEO Believes Cramping Global Supply Chain Into a Single Country Is "Challenging" Yet Achievable"
Cutter90
30-11-2023, 20:14
Sei troppo perentorio, quel video per ovvi motivi non riporta il comportamento di tutti i games esistenti, ma se vuoi sostenere che il size della VRAM non influenzia l'utilizzo delle texture sei ovviamente libero di farlo.
Come se libero di credere che non sia vero quello che dico e cioè che con la 3070, a casa mia, succede.
Io vedo prove a favore della mia tesi. Zero a favore della tua. Tutto qui :)
Tlou al d1 faceva crashare la 3070 per la vram. Errore poi corretto del team. E ora è ok. E parliamo del gioco peggiore per la vram. Io ho visto le analisi di DF. Perché dovrei credere a te che non porti prove a riguardo?
Cutter90
30-11-2023, 20:16
A questo punto devo dare ragione a quelli dei threads AMD, che di fronte alla imbarazzante pretesa tua e di un altro possessore del mattone di andare di la a fare i "professorini" vi hanno preso a pesci in faccia a malo modo.
Altro fatto che mi fa pensare che agite nei forums a scopo commerciale e questo è vietato.
Per quanto mi riguarda odio la disinformazione e chi mette in giro falsità condizionando poi chi viene a vedere cosa comprare perché non ne capisce.
Di là abbiamo smesso di rispondere perché si lotta contro i mulini a vento. Altroché pesci in faccia, lol
StylezZz`
30-11-2023, 20:33
Io vedo prove a favore della mia tesi. Zero a favore della tua. Tutto qui :)
Prove a tuo favore dove? Pure io ho la 3070 e posso confermare quanto scritto da ColdWarGuy, ti ho anche postato i test fatti da Maury dove si vede chiaramente che le prende pure dalla A770 16GB quando gli 8GB si saturano, e con raytracing attivo succede spesso, in alcuni giochi l'impatto prestazionale è minimo, in altri pesa parecchio.
Tu invece pretendi di dare lezioni a noi che siamo possessori della scheda e che la conosciamo meglio di te dato che la USIAMO, e non ci limitiamo a guardare dei video su youtube.
mikael84
30-11-2023, 20:58
Sei troppo perentorio, quel video per ovvi motivi non riporta il comportamento di tutti i games esistenti, ma se vuoi sostenere che il size della VRAM non influenzia l'utilizzo delle texture sei ovviamente libero di farlo.
Come se libero di credere che non sia vero quello che dico e cioè che con la 3070, a casa mia, succede.
Sulla ram, spesso si fa molto terrorismo, ma confermo la tua tesi, 8gb con molti giochi da problemi, se non correttamente settati. Con 10gb, è già un altro mondo, anche se solo 2gb in più, ma qualche gioco ti può dare noie, come RE4, HL. Inoltre molti stanno sempre a memoria occupata, e può capitare che il frame possa crollare in qualche scena. Si contano sulle dita ma ci sono.
Con 8gb sarebbe ben più tragico.
12 ora vanno benissimo, ma pure io, ora come ora, valuterei solo i 16, almeno come upgrade serio.:)
A tua differenza io non sto attaccato tutto il giorno al forum, terminati gli impegni leggo e posto le risposte.
Qualche problema a riguardo ?
Puoi quotare tutte le persone che vuoi, ma devi usare il multiquote, come faccio io. Tastino affianco al quote.:)
Un mod, potrebbe anche decidere una sospensione, quindi in futuro fai così.;)
Ale55andr0
30-11-2023, 21:14
Attenzione che lui è nato a Taiwan :D
Comunque concordo, la condotta nei confronti della sicurezza nazionale degli USA è palesemente scorretta e non è detto che ad un certo punto non paghi il conto.
A maggior ragione allora :read: visto che a Taiwan sta sul cazzo la Cina e viceversa...
cmq ColdWarGuy is the new Ale55andr0 pre-7900XT :O
Sinceramente con la 3060ti il muro lo vedo nelle prestazioni del chip, la vram mi sembra abbastanza bilanciata per questo target di prestazioni o quanto meno non ho mai avuto crash o messaggi di vram insufficiente.
Forse più la 3080 10gb deve un po' smanettare con i settings, dato che rispetto una 3060ti ha più del 50% di prestazioni in più e alzando i dettagli non é detto che i soli +2gb di vram siano sufficienti, in questo la 4070 rimane più bilanciata.
Per il resto i giochi sono scalabili, non é che su un chippino come 3060ti/3070 che hanno prestazioni da top gamma di 5 anni fa puoi pretendere di maxare tutto su giochi recenti e con tanto di RT.
Per fortuna anche i motori sono abbastanza scalabili, anche Alan Wake 2 non ha grossi problemi a girare persino su degli handheld come Ally/Go con una modestissima 780M senza manco vram dedicata...
Inviato dal mio M2012K11AG utilizzando Tapatalk
ColdWarGuy
30-11-2023, 22:50
Sulla ram, spesso si fa molto terrorismo, ma confermo la tua tesi, 8gb con molti giochi da problemi, se non correttamente settati. Con 10gb, è già un altro mondo, anche se solo 2gb in più, ma qualche gioco ti può dare noie, come RE4, HL. Inoltre molti stanno sempre a memoria occupata, e può capitare che il frame possa crollare in qualche scena. Si contano sulle dita ma ci sono.
Con 8gb sarebbe ben più tragico.
12 ora vanno benissimo, ma pure io, ora come ora, valuterei solo i 16, almeno come upgrade serio.:)
Ho anche io la stessa impressione, per la 3070 basterebbero probabilmente un paio di GB in più, ma tant'è, ho comunque deciso che il prossimo acquisto avrà di sicuro 16GB di dotazione, a costo di aspettare un tot.
Se le super costeranno quanto temo, prenderò probabilmente una AMD.
Curiosità : a quando risale l'acquisto della tua 3080 e quanto la avevi pagata ?
Puoi quotare tutte le persone che vuoi, ma devi usare il multiquote, come faccio io. Tastino affianco al quote.:)
Un mod, potrebbe anche decidere una sospensione, quindi in futuro fai così.;)
Onestamente non ci avevo pensato, grazie del suggerimento, userò il metodo suggerito.
raga ho una 3080ti e mettendo un gioco tutto al massimo con tutte le impostazioni Nvidia anche maxate faccio 45fps circa nei momenti meno concitati, la risoluzione però del mio monitor è wqhd 3440x1440 165hz, se avessi avuto un monitor più piccolo/classico avrebbe gestito meglio la scheda il tutto oppure la risoluzione non influisce così tanto? grazie per le delucidazioni non sono esperto :/ chiedo quì cosi poi valuto l'eventuale update grazie :)
ColdWarGuy
30-11-2023, 23:15
A maggior ragione allora :read: visto che a Taiwan sta sul cazzo la Cina e viceversa...
cmq ColdWarGuy is the new Ale55andr0 pre-7900XT :O
Se le super, come temo, saranno affari solo per chi le vende, finirà che prenderò anche io una 7900 :D , sempre che non vengano tutte razziate dai cinesi nel frattempo...:(
Sinceramente con la 3060ti il muro lo vedo nelle prestazioni del chip, la vram mi sembra abbastanza bilanciata per questo target di prestazioni o quanto meno non ho mai avuto crash o messaggi di vram insufficiente.
Forse più la 3080 10gb deve un po' smanettare con i settings, dato che rispetto una 3060ti ha più del 50% di prestazioni in più e alzando i dettagli non é detto che i soli +2gb di vram siano sufficienti, in questo la 4070 rimane più bilanciata.
Per il resto i giochi sono scalabili, non é che su un chippino come 3060ti/3070 che hanno prestazioni da top gamma di 5 anni fa puoi pretendere di maxare tutto su giochi recenti e con tanto di RT.
Per fortuna anche i motori sono abbastanza scalabili, anche Alan Wake 2 non ha grossi problemi a girare persino su degli handheld come Ally/Go con una modestissima 780M senza manco vram dedicata...
Inviato dal mio M2012K11AG utilizzando Tapatalk
Dobbiamo ringraziare gli upscaler, con AW2 il DLSS fa miracoli, in altri casi meno ma sicuramente è l'unico modo per giocare oltre i 2K con queste schede.
Io della mia sono più che soddisfatto (a parte quel paio di GB mancanti :D ) e penso che a suo tempo sia stata una grande x70.
Specifico però che con alcuni generi di giochi sono di bocca buona e mi accontento anche di giocare a 20-30 FPS, basta dire che spesso mi cimento con altri due PC meno dotati, uno con la 1080 e l'altro con una 6650 e non manco di divertirmi.
Se parliamo invece di FPS mi piace spingere verso il limite del MAG274, ma li è facile perchè sono titoli decisamente efficientie comunque il dettaglio grafico è secondario.
StylezZz`
30-11-2023, 23:19
Per il resto i giochi sono scalabili, non é che su un chippino come 3060ti/3070 che hanno prestazioni da top gamma di 5 anni fa puoi pretendere di maxare tutto su giochi recenti e con tanto di RT
Non c'e bisogno di scomodare giochi recenti come Alan Wake 2, ti basta prendere Spiderman o Doom Eternal, giochi che la 3070 si mangia maxati con RT senza problemi, ma che purtroppo saturano gli 8GB, quantitativo che può andare ancora bene in raster, ma non con RT attivo. Fin quando si scalano le textures da Ultra a High non è un problema, ma su Medium iniziano a girare le OO.
raga ho una 3080ti e mettendo un gioco tutto al massimo con tutte le impostazioni Nvidia anche maxate faccio 45fps circa nei momenti meno concitati, la risoluzione però del mio monitor è wqhd 3440x1440 165hz, se avessi avuto un monitor più piccolo/classico avrebbe gestito meglio la scheda il tutto oppure la risoluzione non influisce così tanto? grazie per le delucidazioni non sono esperto :/ chiedo quì cosi poi valuto l'eventuale update grazie :)
Sei OT ma si ovvio, la risoluzione cambia le performance e il consumo di vram (e wqhd pesa più anche del classico qhd per quanto non arrivi al 4K che è tremendamente più pesante). Con nvidia in ogni caso hai il dlss che il più delle volte è ottimo, già a DLSS quality alleggerisci la situazione
Sei OT ma si ovvio, la risoluzione cambia le performance e il consumo di vram (e wqhd pesa più anche del classico qhd per quanto non arrivi al 4K che è tremendamente più pesante). Con nvidia in ogni caso hai il dlss che il più delle volte è ottimo, già a DLSS quality alleggerisci la situazione
Il dlss è un opzione che trovo sui giochi o nel pannello nvidia tipo? Scusami sono inesperto totalmente
mikael84
01-12-2023, 00:23
Sinceramente con la 3060ti il muro lo vedo nelle prestazioni del chip, la vram mi sembra abbastanza bilanciata per questo target di prestazioni o quanto meno non ho mai avuto crash o messaggi di vram insufficiente.
Beh, 1440p 21:9 con una 3060ti, è chiaro che sei palesemente limitato dalla GPU.
Sul bilanciamento, si, per il biennio, ha portato le perf della 2080 super (in thread è superiore) su una fascia x60, quindi, si, è ben bilanciato.
Forse più la 3080 10gb deve un po' smanettare con i settings, dato che rispetto una 3060ti ha più del 50% di prestazioni in più e alzando i dettagli non é detto che i soli +2gb di vram siano sufficienti, in questo la 4070 rimane più bilanciata.
Per il resto i giochi sono scalabili, non é che su un chippino come 3060ti/3070 che hanno prestazioni da top gamma di 5 anni fa puoi pretendere di maxare tutto su giochi recenti e con tanto di RT.
Per fortuna anche i motori sono abbastanza scalabili, anche Alan Wake 2 non ha grossi problemi a girare persino su degli handheld come Ally/Go con una modestissima 780M senza manco vram dedicata...
Inviato dal mio M2012K11AG utilizzando Tapatalk
Diciamo che la 3080, come la 4070, si può permettere alta giocabilità in 1440p, ed anche di abilitare spesso il DLAA, però alla fine torniamo li. Partendo da un 1440p, oltre al setting, RT, la 10gb ha meno rogne lato ram, molte meno, provate su di me.
Con la 3060ti, a pari res, devi combattere anche con la vram, che ti può compromettere la giocabilità, se non settata a puntino.
Infatti, io con Ampere, strizzavo l'occhio per la 3080 12, proprio per questo fatto.:)
Ho anche io la stessa impressione, per la 3070 basterebbero probabilmente un paio di GB in più, ma tant'è, ho comunque deciso che il prossimo acquisto avrà di sicuro 16GB di dotazione, a costo di aspettare un tot.
Se le super costeranno quanto temo, prenderò probabilmente una AMD.
Io con le super, non voglio montare la testa a nessuno, cerco di essere pessimista, per non illudere nessuno, ne tanto meno me. Di certo possiamo ipotizzare che costeranno meno delle GPU che sostituiscono.:)
Curiosità : a quando risale l'acquisto della tua 3080 e quanto la avevi pagata ?
Onestamente non ci avevo pensato, grazie del suggerimento, userò il metodo suggerito.
650 usata (praticamente nuova) da un utente affermato. Durante il mining sono stato fermo, non ho ceduto. E parlo da ex utente di sli-cross.
Il punto forte è stato il monitor 1440p g-sync.:)
amon.akira
01-12-2023, 00:40
Non c'e bisogno di scomodare giochi recenti come Alan Wake 2, ti basta prendere Spiderman o Doom Eternal, giochi che la 3070 si mangia maxati con RT senza problemi, ma che purtroppo saturano gli 8GB, quantitativo che può andare ancora bene in raster, ma non con RT attivo. Fin quando si scalano le textures da Ultra a High non è un problema, ma su Medium iniziano a girare le OO.
doom eternal non ti fa proprio mettere le texture su ultra-incubo, a me dava proprio il msg di stop con la 3060ti 8gb nonostante ero ok con gli fps perchè quel motore è leggero e ne fai tanti, averne di piu fa sempre comodo e lo capisco ancor piu su schede costose.
fraussantin
01-12-2023, 06:34
Il punto forte è stato il monitor 1440p g-sync.:)
Io ti faccio un altra quest , il monitor quanto l hai pagato e quando?
Perche io ne ho venduto uno identico un anno fa xD e ho faticato nonostante sia un ottimo monitor
OrazioOC
01-12-2023, 09:29
https://videocardz.com/newz/nvidia-geforce-rtx-3060-not-going-anywhere-cheaper-models-already-on-their-way
Cheaper ma neanche più di tanto, al cambio attuale la RTX 3060 dell'articolo viene 267 dollari, tanto vale preferire la rx 7600 che va' generalmente meglio oppure aggiungere qualcosa e prendere una 4060/3060 ti o 6700 xt. :rolleyes:
Nvidia nelle fasce sub 500 dollari prosegue con i suoi prodotti cringe per rapporto prezzo/prestazioni. :doh:
Corro a comprare una 6600.
Mi ricorda il periodo del phisix quando alcuni aggiungevano alla principale schede muletto per gestirlo.
https://videocardz.com/newz/up-to-3x-fps-boost-nvidia-and-amd-frame-generation-technologies-can-work-together-in-games-like-cyberpunk-2077
Io ancora lo faccio ! :D
ARC A770 + GT 1030
Ma anche se fosse 4070ti super a 899$ con 16gb di vram e quella potenza su ad103, sarà sempre meglio dell' attuale 4070ti per 100$ in più, ed è pure meglio della 4080 vanilla a livello di posizionamento del prezzo.
appena si nasa che la 5070 avrà di nuovo 12gb, mi butterò su quella
Ale55andr0
01-12-2023, 11:10
Se le super, come temo, saranno affari solo per chi le vende, finirà che prenderò anche io una 7900 :D
massì, 800 sono spicci :fagiano:
mikael84
01-12-2023, 11:30
Io ti faccio un altra quest , il monitor quanto l hai pagato e quando?
Perche io ne ho venduto uno identico un anno fa xD e ho faticato nonostante sia un ottimo monitor
Non ricordo di preciso, tanti anni fa. E' da tempo che voglio cambiarlo infatti.
Cmq, beh, ora costano molto poco, e con freesync compatibile vai bene lo stesso. Certo col modulino, hai piena compatibilità, ed un range migliore, ma sei pure legato ad un marchio, e con la sola DP.
Probabilmente me lo terrò, e non lo venderò.
Bisognerà proprio lasciar perdere a quel punto.
Una 5070 a 12gb non si può vedere, la 4070 attuale va bene, già la 4070ti non mi piace con 12gb e quel prezzo, ma ormai ci mette una pezza con la 4070ti super.
Se non ci saranno i chip da 3gb ed il bus per la top sarà max di 384bit il rischio di riavere i 12gb su 192 bit c'è.
Nel migliore dei casi con più densità, le schede avranno un botto di ram
192bit/18gb
256/ 24gb
Tutto dipende da micron, i 24gb sull'ammiraglia ci sono dal 2020 (3090) dopo 5 anni è plausibile avere lo stesso quantitativo su fascia alta (x80) e la top che si eleva a 36gb.
la 4070 l'avevo presa per coprire tot mesi fino a fine primavera sperando uscirà stalker2 (che ieri hanno confermato per marzo), ma non per tenerla a lungo
Quanta differenza c’è tra una 3080ti ed una 4070?
mikael84
01-12-2023, 12:50
Serie 5 e tripla densità è ancora un problema, micron ha avuto la doppia, dopo 2 anni, la prima ad adottarla è stata la 3090ti.
Attualmente micron propone sia la doppia che l'eventuale tripla (in roadmap la da per certa nel 2026 e con il picco massimo previsto di BW 36 gb/s).
Per ora si parla di 5090 con 24 gb, quindi è in doppia. Senza tripla, i bus avranno lo stesso quantitativo di ram, ma non di BW.
Quindi una ipotetica 5070, si ritroverebbe con 12gb e 768gb/s (anche qua piccola postilla, Micron non ha mai raggiunto le BW proiettate, infatti le g5x dovevano uscire da 13 a 16, e sono uscite a 10, le g6x da 21 a 19).
Le altre ipotesi, sono l'uso della tripla, solo su alcuni chip, che magari debuttano dopo, e li si potrebbe andare a 18, oppure l'allargamento del bus a 256bit e 16gb, ma difficilmente vedremmo una x70 con 1,024tb/s di banda.
I chip saranno pensati di base per le work, ed adattati al gaming.
Quanta differenza c’è tra una 3080ti ed una 4070?
https://www.techpowerup.com/review/nvidia-geforce-rtx-4070-founders-edition/32.html
https://www.hwupgrade.it/articoli/skvideo/6513/nvidia-geforce-rtx-4070-la-migliore-della-nuova-generazione-finora-recensione_index.html
fraussantin
01-12-2023, 12:53
Non ricordo di preciso, tanti anni fa. E' da tempo che voglio cambiarlo infatti.
Cmq, beh, ora costano molto poco, e con freesync compatibile vai bene lo stesso. Certo col modulino, hai piena compatibilità, ed un range migliore, ma sei pure legato ad un marchio, e con la sola DP.
Probabilmente me lo terrò, e non lo venderò.Riguardo il range freestnc non ci capisco niente.
Il mio è fino a 144 , e quindi da 145 a 160 dovrebbe dare tearing , ma di fatto fino a 159 non lo da.
Se lo metto a 160 allora si vedo le righe orizzontali ma sotto no.
O è un errore di specifiche o hanno aggiornato il sw .
mikael84
01-12-2023, 13:00
Riguardo il range freestnc non ci capisco niente.
Il mio è fino a 144 , e quindi da 145 a 160 dovrebbe dare tearing , ma di fatto fino a 159 non lo da.
Se lo metto a 160 allora si vedo le righe orizzontali ma sotto no.
O è un errore di specifiche o hanno aggiornato il sw .
Il tuo dovrebbe essere un g-sync compatibile da 48 a 144hz con DP. Diverso dal modulino che non ha questi limiti.
Bisogna anche vedere se il supporto è ottimale come quello col modulino.
FrancoBit
01-12-2023, 13:08
Il tuo dovrebbe essere un g-sync compatibile da 48 a 144hz con DP. Diverso dal modulino che non ha questi limiti.
Bisogna anche vedere se il supporto è ottimale come quello col modulino.
Ecco interessante sta cosa, sto per piazzare al pc2 un lg27GP850. A sto punto mi conviene cappare a 144hz?
fraussantin
01-12-2023, 13:09
Il tuo dovrebbe essere un g-sync compatibile da 48 a 144hz con DP. Diverso dal modulino che non ha questi limiti.
Bisogna anche vedere se il supporto è ottimale come quello col modulino.Come detto tearing non ne vedo se non sfondando il limite del refrash.
Di fatto non vedo tearing neppure sotto i 48 , e non so perche.
Non ho mai approfondito sta cosa perche se una cosa funziona meglio non pensarci xD.
Però è strano.
A meno che il tearing sia veramente impercettibile da non notarlo , ma è strano perche a 160 e suoeriori lo vedo benissimo.
fraussantin
01-12-2023, 13:11
Ecco interessante sta cosa, sto per piazzare al pc2 un lg27GP850. A sto punto mi conviene cappare a 144hz?Conviene provare .
Io lo avevo cappato a 144 proprio perche pensavo che di piu non potesse syncare , ma di fatto fino a 159 non da problemi.
amon.akira
01-12-2023, 13:37
Conviene provare .
Io lo avevo cappato a 144 proprio perche pensavo che di piu non potesse syncare , ma di fatto fino a 159 non da problemi.
non vedo il problema del perchè dovrebbe avere un range verso l alto inferiore ai tuoi hz, puoi controllarlo con CRU fai edit e vedi il range limit v-rate
se ti dice 48-160 è normale che vedi tutto ok fino a quel punto
FrancoBit
01-12-2023, 13:43
Conviene provare .
Io lo avevo cappato a 144 proprio perche pensavo che di piu non potesse syncare , ma di fatto fino a 159 non da problemi.
non vedo il problema del perchè dovrebbe avere un range verso l alto inferiore ai tuoi hz, puoi controllarlo con CRU fai edit e vedi il range limit v-rate
se ti dice 48-160 è normale che vedi tutto ok fino a quel punto
Thanks ragazzi, appena arriva la scrivania nuova piazzo anche la 2a postazione e faccio un po' di prove
fraussantin
01-12-2023, 13:48
non vedo il problema del perchè dovrebbe avere un range verso l alto inferiore ai tuoi hz, puoi controllarlo con CRU fai edit e vedi il range limit v-rate
se ti dice 48-160 è normale che vedi tutto ok fino a quel punto
Grazie!
https://i.postimg.cc/RFGZtfnq/screenshot-602.jpg da quel che vedo è un 48 160 il che spiega tutto. prob sotto i 48 LFC .
c'è da chiedersi perchè sia LG che Nvidia lo spaccino per un 48-144
FrancoBit
01-12-2023, 13:57
Grazie!
https://i.postimg.cc/RFGZtfnq/screenshot-602.jpg da quel che vedo è un 48 160 il che spiega tutto. prob sotto i 48 LFC .
c'è da chiedersi perchè sia LG che Nvidia lo spaccino per un 48-144
Credo che di "targa" siano pannelli 144hz, però overclockati di fabbrica per arrivare a 160hz
amon.akira
01-12-2023, 13:58
Credo che di "targa" siano pannelli 144hz, però overclockati di fabbrica per arrivare a 160hz
esatto
mikael84
01-12-2023, 13:59
Ecco interessante sta cosa, sto per piazzare al pc2 un lg27GP850. A sto punto mi conviene cappare a 144hz?
Io lo cappo li.:)
Cmq dai un'occhiata con cru, per il tuo pannello,
Come detto tearing non ne vedo se non sfondando il limite del refrash.
Di fatto non vedo tearing neppure sotto i 48 , e non so perche.
Non ho mai approfondito sta cosa perche se una cosa funziona meglio non pensarci xD.
Però è strano.
A meno che il tearing sia veramente impercettibile da non notarlo , ma è strano perche a 160 e suoeriori lo vedo benissimo.
Perchè sotto i 48 si attiva LFC (low frame compensation)
Cmq come suggerito da amon, usa cru, probabile che sia un pannello occato.:)
fraussantin
01-12-2023, 14:03
Credo che di "targa" siano pannelli 144hz, però overclockati di fabbrica per arrivare a 160hz
si quello si , ma anche altri che hanno il pannello a 144 ( tutti i nano ips da 34 sono 144+OC tanto li fa lg e basta i pannelli sono quelli ) , ma con overclock segnavano 180 o 160 .
mi sa che hanno fatto una revisione hw o forse SW.
cmq meglio così
fraussantin
01-12-2023, 14:15
Io lo cappo li.:)
Cmq dai un'occhiata con cru, per il tuo pannello,
Perchè sotto i 48 si attiva LFC (low frame compensation)
Cmq come suggerito da amon, usa cru, probabile che sia un pannello occato.:)So sono ovviamente tutti overclokkati.
Quei pannelli nascono a 144.
https://www.techpowerup.com/review/nvidia-geforce-rtx-4070-founders-edition/32.html
https://www.hwupgrade.it/articoli/skvideo/6513/nvidia-geforce-rtx-4070-la-migliore-della-nuova-generazione-finora-recensione_index.html
Grazie mille intanto :) io avendo una 3080ti per l’appunto dovrei avere il dlss 2 giusto? Nel caso da dove si attiva? Direttamente nei giochi o c’è qualche impostazione nel pannello nvidia diciamo? Scusami sono molto ignorante in materia 😆😆 inoltre il mio attuale alimentatore modulare corsair da 750w basterà qualora mi decidessi a passare ad una 4080/4090 o sono aumentanti anche i consumi? Grazie mille ☺️
FrancoBit
01-12-2023, 14:25
Grazie mille intanto :) io avendo una 3080ti per l’appunto dovrei avere il dlss 2 giusto? Nel caso da dove si attiva? Direttamente nei giochi o c’è qualche impostazione nel pannello nvidia diciamo? Scusami sono molto ignorante in materia 😆😆 inoltre il mio attuale alimentatore modulare corsair da 750w basterà qualora mi decidessi a passare ad una 4080/4090 o sono aumentanti anche i consumi? Grazie mille ☺️
DLSS lo attivi dalle impostazioni grafiche del gioco, appunto se il gioco in questione se lo supporta. La tua ha DLSS2 e 3.5, ma SENZA frame generator.
Per l'alimentatore penso che per una 4080 dovresti starci, ovviamente se non è troppo vecchio. Per una 4090 forse sarebbe meglio qualcosa di più spinto, ma personalmente sono uno di quelli che tende sempre a sovradimensionare un po' l'alimentazione per ragioni mie di sicurezza e manìa...
DLSS lo attivi dalle impostazioni grafiche del gioco, appunto se il gioco in questione se lo supporta. La tua ha DLSS2 e 3.5, ma SENZA frame generator.
Per l'alimentatore penso che per una 4080 dovresti starci, ovviamente se non è troppo vecchio. Per una 4090 forse sarebbe meglio qualcosa di più spinto, ma personalmente sono uno di quelli che tende sempre a sovradimensionare un po' l'alimentazione per ragioni mie di sicurezza e manìa...
ok grazie chiarissimo :) ieri un gioco ( fortnite lo gioco con mia figlia), maxato con tutte le opzione Nvidia attive al max ha fatto faticare la mia configurazione da 3000 euro lol ma ho un monitor wqhd da 3440x1440, facendo una media di 45fps circa nei momenti meno concitati ahah su una risoluzione inferiore avrei avuto miglior giocabilità di molto? ho soli 16 gb di ram avrei migliorato la situazione con 32 o quelli non influiscono? ultima cosa come ali ho un Corsair CX750F RGB Alimentatore ATX Interamente Modulare 80 Plus Bronze, 750 W
grazie :)
mikael84
01-12-2023, 15:17
So sono ovviamente tutti overclokkati.
Quei pannelli nascono a 144.
Come ti stai trovando con quel pannello, se non sbaglio avevi il mio stesso pannello, ma la versione dopo da 165.
Volevo pensionarlo pure io.
Grazie mille intanto :) io avendo una 3080ti per l’appunto dovrei avere il dlss 2 giusto? Nel caso da dove si attiva? Direttamente nei giochi o c’è qualche impostazione nel pannello nvidia diciamo? Scusami sono molto ignorante in materia inoltre il mio attuale alimentatore modulare corsair da 750w basterà qualora mi decidessi a passare ad una 4080/4090 o sono aumentanti anche i consumi? Grazie mille ☺️
Come ti ha risposto Francobit. Sino alla 4080 non ci sono problemi (tra l'altro consuma meno della tua). Bisogna vedere anche la CPU che hai, la 4080 è esosa da tirare per bene.:)
marbasso
01-12-2023, 15:19
Ali da 750w, 3080ti, 16gb RAM....configurazione da 3000 euro....bo va be
Che mobo e cpu hai per chiudere il cerchio fornite.
fraussantin
01-12-2023, 15:40
Come ti stai trovando con quel pannello, se non sbaglio avevi il mio stesso pannello, ma la versione dopo da 165.
Volevo pensionarlo pure io.
Come ti ha risposto Francobit. Sino alla 4080 non ci sono problemi (tra l'altro consuma meno della tua). Bisogna vedere anche la CPU che hai, la 4080 è esosa da tirare per bene.:)Non ci vedo quasi nessuna differenza dal predator che avevo , se non una maggiore fluidità , ma leggera.
Il ghosting è minore.
Per il resto il fs se implementato bene è uguale al gsync.
Riguardo all'hdr , su questi monitor non è un granché.
Ma a me da fastidio la luce forzata , quindi non lo userei cmq.
mikael84
01-12-2023, 15:47
Non ci vedo quasi nessuna differenza dal predator che avevo , se non una maggiore fluidità , ma leggera.
Il ghosting è minore.
Per il resto il fs se implementato bene è uguale al gsync.
Riguardo all'hdr , su questi monitor non è un granché.
Ma a me da fastidio la luce forzata , quindi non lo userei cmq.
Ok, ma intendevo dal predator, è un salto che consiglieresti? Io parto dal pannello che avevi tu pressappoco, solo a 144 (ma qua ci stiamo larghi).. :)
fraussantin
01-12-2023, 15:57
Ok, ma intendevo dal predator, è un salto che consiglieresti? Io parto dal pannello che avevi tu pressappoco, solo a 144 (ma qua ci stiamo larghi).. :)A questo punto aspetterei un oled allo stesso prezzo
@mikael84 grazie :) quanti watt mi consigli e quale 4090 a questo punto prenderei il top se possibilmente bianca grazie ho la configurazione tutta chiara :D
Da uno che dice: "The more you buy, the more you save" cosa ti aspetti?
Purtroppo ci tengono al guinzanglio, chi cerca le performance RT/PT e dlss/fg in fascia alta/top la strada è solo una che se ne dica, quindi 4080/4090 e li ci smeni tanti soldi ma hai pure tantissime soddisfazioni e zero compromessi.
Quindi lo fai al D1 e te ne dimentichi per i restanti due anni, via il dente via il dolore.
Già in RT ibrido in fascia alta rispetto alle 7900 le differenze sono già belle grosse (togliendo dalle medie i soliti fc6, resident evil leggeri che abbasano le medie) in PT non se ne parla.
Sotto 4080 diventa critica e ci sono dei pesanti compromessi da digerire.
Una cosa sensata è stata scritta, che gli 8gb della 3070 al giorno d'oggi sono limitanti in certe situazioni e questo non lo metto in dubbio, pur non avendo quella scheda personalmente, ma vedo nei giochi citati grande occupazione di vram, quindi credo che gli utenti abbiano ragione nel dire che c'e bisogno di settings personalizzati, altrimenti non si lamenterebbero.
Una 4070ti con 12gb a 900 euro non mi farebbe star tranquillo.
infatti una 4080 light permetterebbe un buon/ottimo 4k ma soprattutto un 2k che durerebbe vari anni senza morire in PT
una 5070 con 12 (che sicuramente farebbe qualche fps in più della 4070tiS) ho paura che sia corta già nel 2025
Il problema per quanto mi riguarda della serie 5000 non sono i 12gb di ram, avanzano in 2k e non serve di più, ma è ciò che questo comporta (il bus ridotto) a farmi storcere il naso.
In realtà il bus ridotto comporta i 12gb, ma il senso è chiaro
mikael84
01-12-2023, 17:12
@mikael84 grazie :) quanti watt mi consigli e quale 4090 a questo punto prenderei il top se possibilmente bianca grazie ho la configurazione tutta chiara :D
Basterebbe un 850, ma meglio un buon 1000 di qualità. C'è anche chi la utilizza con un 750, pure io ce la farei stare, ma non te lo consiglio.
Ti conviene chiedere nel thread relativo alle 4090, magari ti consigliano qualche modello in particolare.
Per il colore del dissi, guarda qua, c'è la lista.:)
https://www.techpowerup.com/gpu-specs/geforce-rtx-4090.c3889
Il problema per quanto mi riguarda della serie 5000 non sono i 12gb di ram, avanzano in 2k e non serve di più, ma è ciò che questo comporta (il bus ridotto) a farmi storcere il naso.
In realtà il bus ridotto comporta i 12gb, ma il senso è chiaro
Ancora è da verificare il bus, è un'ipotesi basata sulla doppia densità, data dalle spec. della 5090 a 24gb.
La banda però, aumenterebbe notevolmente, se riusciranno realmente a presentarsi con le 32 gb/s, il 192bit, salirebbe a 768gb/s, che equivarrebbe al bus da 256bit con le 24 attuali, quindi over 4080.
Quindi qua ci sarà un sostanziale aumento (poi magari anzichè 32, si fermano a 28-30, micron si è quasi sempre fatta trovare sotto le attese inizialmente).
L'altra specifica delle g7 è la tripla densità, ovvero 18gb su un 192bit, ma al momento la 5090 viene speculata in doppia (altrimenti sarebbe da 36gb) e la stessa micron, specifica entrambe le modalità sulla roadmap, mentre solo nel 2026, pare affermarsi del tutto.
Anche con le g6x ci ha messo quasi 2 anni a portarla, e lo ha fatto con la 3090ti.
Basterebbe un 850, ma meglio un buon 1000 di qualità. C'è anche chi la utilizza con un 750, pure io ce la farei stare, ma non te lo consiglio.
Ti conviene chiedere nel thread relativo alle 4090, magari ti consigliano qualche modello in particolare.
Per il colore del dissi, guarda qua, c'è la lista.:)
https://www.techpowerup.com/gpu-specs/geforce-rtx-4090.c3889
grazie mille :) magari miglioro anche a giocare con la scusa e mia figlia è più contenta ahah
FrancoBit
01-12-2023, 17:31
grazie mille :) magari miglioro anche a giocare con la scusa e mia figlia è più contenta ahahOcchio come ti diceva prima Mickael che se la CPU non rulla rischi di avere collo o comunque di non sfruttare una bestia come la 4090
Inviato dal mio M2101K9G utilizzando Tapatalk
Occhio come ti diceva prima Mickael che se la CPU non rulla rischi di avere collo o comunque di non sfruttare una bestia come la 4090
Inviato dal mio M2101K9G utilizzando Tapatalk
si grazie :) ne approfitto e cambio tutto a questo punto ora devo solo capire cosa comprare ahahah
fraussantin
01-12-2023, 18:07
si grazie :) ne approfitto e cambio tutto a questo punto ora devo solo capire cosa comprare ahahahUn 7800 3d dovrebbe fare il suo e consumare il giusto e sarà aggiornabile facilmente per 2 gen . .
Se prendi intel devi valutare una psu con le palle.
Considera anche che le 4090 si fondevano abbastanza bene quindi pensa ad un ali con il connettore dedicato già di suo nel caso decidessi di alzargli il tdp.
ColdWarGuy
01-12-2023, 18:21
Diciamo che la 3080, come la 4070, si può permettere alta giocabilità in 1440p, ed anche di abilitare spesso il DLAA, però alla fine torniamo li. Partendo da un 1440p, oltre al setting, RT, la 10gb ha meno rogne lato ram, molte meno, provate su di me.
Con la 3060ti, a pari res, devi combattere anche con la vram, che ti può compromettere la giocabilità, se non settata a puntino.
Confermo in pieno, è esattamente quello che mi succede sempre più spesso con la 3070, anche 2 miseri GB in più avrebbero fatto la differenza, ma pace e amen, quando l'ho presa ero consapevole del rischio di incorrere in questo.
650 usata (praticamente nuova) da un utente affermato. Durante il mining sono stato fermo, non ho ceduto. E parlo da ex utente di sli-cross.
Il punto forte è stato il monitor 1440p g-sync.:)
Possiamo dire che hai fatto l'affare ed ora puoi tranquillamente skippare le 4000 senza alcun problema. Recentemente ho preso anche io un monitor G-Sync "puro" (prima possedevo solo FreeSync), la resa si nota anche quando non hai problemi fi FPS.
doom eternal non ti fa proprio mettere le texture su ultra-incubo, a me dava proprio il msg di stop con la 3060ti 8gb nonostante ero ok con gli fps perchè quel motore è leggero e ne fai tanti, averne di piu fa sempre comodo e lo capisco ancor piu su schede costose.
IL motore di DOOM è qualcosa di miracoloso, rispetto a quello che gestisce a video produce una quantità di frame al secondo impressionante anche con schede non recenti, ad esempio la 1080.
Ma come dicevi, puoi spingere tutto al massimo tranne le texture, dove giustamente rifiuta il settaggio, a differenza di TLOU che lo accetta comunque con la "barra" della memoria che sborda ma poi il game diventa la festa degli scatti e va prima o poi in crash.
ColdWarGuy
01-12-2023, 18:36
massì, 800 sono spicci :fagiano:
Se i cinesi stanno effettivamento predando le 7900 mi sa che a breve a 800 me la scordo, sto giocando sul filo del rasoio :D
Non ricordo di preciso, tanti anni fa. E' da tempo che voglio cambiarlo infatti.
Cmq, beh, ora costano molto poco, e con freesync compatibile vai bene lo stesso. Certo col modulino, hai piena compatibilità, ed un range migliore, ma sei pure legato ad un marchio, e con la sola DP.
Probabilmente me lo terrò, e non lo venderò.
Ho provato parecchi monitor (l'ultimo preso con il BF su Amazon è il MAG274QRF-QD) e per quello che è la mia esperienza da amante degli FPS frenetici con Nvidia il monitor con G-Sync è un'altra cosa rispetto al modo compatibilità con il Freesync, io consiglio di pensarci prima dell'acquisto.
Serie 5 e tripla densità è ancora un problema, micron ha avuto la doppia, dopo 2 anni, la prima ad adottarla è stata la 3090ti.
Attualmente micron propone sia la doppia che l'eventuale tripla (in roadmap la da per certa nel 2026 e con il picco massimo previsto di BW 36 gb/s).
Per ora si parla di 5090 con 24 gb, quindi è in doppia. Senza tripla, i bus avranno lo stesso quantitativo di ram, ma non di BW.
Quindi una ipotetica 5070, si ritroverebbe con 12gb e 768gb/s
-snip
Ma sarà una vera 70 oppure una 60 truccata da ...:D
amon.akira
01-12-2023, 18:51
Se i cinesi stanno effettivamento predando le 7900 mi sa che a breve a 800 me la scordo, sto giocando sul filo del rasoio :D
Ho provato parecchi monitor (l'ultimo preso con il BF su Amazon è il MAG274QRF-QD) e per quello che è la mia esperienza da amante degli FPS frenetici con Nvidia il monitor con G-Sync è un'altra cosa rispetto al modo compatibilità con il Freesync, io consiglio di pensarci prima dell'acquisto.
Ma sarà una vera 70 oppure una 60 truccata da ...:D
qui ne aveva in surplus quindi ha rinominato, li se il pp o altre new tech non gli danno abbastanza margine, dovrà tornare ai vecchi tagli, quello che è sicuro, è che ti darà le giuste % di upgrade per farti ingolosire, nulla di piu nulla di meno
ColdWarGuy
01-12-2023, 19:32
Si peccato che i gsync "PURI" con il modulo abbiano altri costi, io lo avevo il pg279q con modulo l'ho cambiato solo perchè IPS, ed i neri facevano pietà.
Ma per il resto una spanna sopra a sti finti monitor da 450 euro.
Era un pannello della auoptronics che condivideva pire l'acer e altri brand.
Quelli sono g-sync compatibili, come il MAG274QRF-QD, IL TOP sono i gsync ultimate che garantiscono anche HDR spinto e altre cose.
Sei un tipo TOP only.
fraussantin
01-12-2023, 20:01
Si peccato che i gsync "PURI" con il modulo abbiano altri costi, io lo avevo il pg279q con modulo l'ho cambiato solo perchè IPS, ed i neri facevano pietà.
Ma per il resto una spanna sopra a sti finti monitor da 450 euro.
Era un pannello della auoptronics che condivideva pire l'acer e altri brand.
Quelli sono g-sync compatibili, come il MAG274QRF-QD, IL TOP sono i gsync ultimate che garantiscono anche HDR spinto e altre cose.Ma guarda il problema principale del freesync è che amd non aveva messo dei paletti sulla qualità della funzione e ogni monitor faceva come gli pare.
Il modulino di nvidia ti garantiva il funzionamento alla perfezione senza sbattimenti.
Ma adesso con il gsync compatibile che ti garantisce una certa qualità di funzionamento non cambia nulla.
Ma pure se pigli un monitor non certificato ( senza mazzetta) che è bene non hai problemi. ( Credo quasi tutti ormai)
E almeno uno si lascia la porta aperta alle schede rosse sia mai che amd su svegli prima o poi :asd:
Ps si auo è di acer credo.
Ma guarda anche l'ips lg ha i neri giallognoli e gli angoli chiari .
L'ips è cosí .
Però stanca meno la vista. E ha una gamma colori completa
Basta non accendere l'hdr senno diventa una cineseria senza contegno :asd:
ColdWarGuy
01-12-2023, 21:53
Ma guarda il problema principale del freesync è che amd non aveva messo dei paletti sulla qualità della funzione e ogni monitor faceva come gli pare.
Il modulino di nvidia ti garantiva il funzionamento alla perfezione senza sbattimenti.
Ma adesso con il gsync compatibile che ti garantisce una certa qualità di funzionamento non cambia nulla.
Ma pure se pigli un monitor non certificato ( senza mazzetta) che è bene non hai problemi. ( Credo quasi tutti ormai)
E almeno uno si lascia la porta aperta alle schede rosse sia mai che amd su svegli prima o poi :asd:
Ps si auo è di acer credo.
Ma guarda anche l'ips lg ha i neri giallognoli e gli angoli chiari .
L'ips è cosí .
Però stanca meno la vista. E ha una gamma colori completa
Basta non accendere l'hdr senno diventa una cineseria senza contegno :asd:
Quoto in toto e posso riportare la mia esperienza con i seguenti monitor :
MI 34 curved (3440x1440, 144Hz) :
ottimo rapporto di contrasto (oltre 5000 sul mio esemplare, buono per giocare con games tipo Dead Space al buio), cromaticamente decente out of the box, blurr presente come tutti VA ma parecchio sotto alla media come entità, Freesync che lavora decentemente con AMD mentre con NVIDIA non entusiasma, menu scomodo e stringato ma con tutto quello che serve.
E' un ottimo tutto fare io ci lavoro e ci gioco, preso nuovo a prezzo d'affare su Amazon in offerta a 350 euro, ora costa parecchio di più.
MSI G27CQ4 (2440x1440, 165 Hz) :
sempre ottimo rapporto di contrasto, simile al MI34, cromaticamente vivace, blurr marcato (molto superiore al MI 34), anche qui Freesync che lavora decentemente con AMD mentre con NVIDIA non entusiasma, buon menu di controllo.
Consigliato a chi cerca un monitor per giocare al buoio giochi dark, evitare come la peste se si è allergici al blurr.
MSI MAG274QRF-QD :
rapporto di contrasto in linea per un buon pannello IPS (1100 nel mio esemplare), cromaticamente eccessivo fuori dalla scatola ma diventa equilibrato con 5 minuti di lavoro con il colorimetro, iper luminoso, iper colorato, iper fluido/reattivo con NVIDIA in G-SYNC, buono il menu di controllo, possibilità di controllo / aggiornarlo con applicazione tramite porta USB.
Preso in offerta su Amazon a 350 euro per giocare a FPS veloci e strategici colorati, ma lo uso anche per lavoro.
Come tutti gli IPS sconsigliato per giocare al buio anche se va detto che ha alcune funzionalità che lo rendono digeribile con qualche compromesso (vedi funzione "Night Vsion"); sotto questo aspetto è sicuramente migliore dell'LG 27GP850, che al confronto sembra la "via lattea".
LG 42C34 (4K 120 Hz):
contrasto infinito e tempi di risposta pixels da oled, LAG totale effettivo molto basso, colori ben controllabili, vero HDR, fluidissimo sia in G-Sync che Freesync, comodo menu diretto dedicato per controllo parametri modalità game, discreta leggibilità del testo quindi utilizzabile anche in modo desktop.
Difetti : coating che tende al gloss (ma non gloss) bisogna stare attenti a dove lo si piazza.
Avevo provato in precedenza sia un Panasonic 42LZ980, che mi aveva deluso sotto parecchi aspetti, questo è tutt'altra cosa, sia un Asus da 27" 2K, bello per il gaming ma orribile con il testo e decisamente costoso sia per size che risoluzione.
In realtà stavo aspettando gli Oled 32 da 4K, ma quelli che usciranno l'anno prossimo costeranno una sassata (es Asus PG32UCDM : 1500 USD).
Lo uso sia per multimedia (montaggio video) che gaming ad una distanza di circa 80cm, se cercate la combinazione di neri assoluti, pannello veloce, vero HDR, ottima fluidità in G-Sync e digerite un 42 alla distanza sopracitata questo può fare per voi.
Importante : i meccanismi di limitazione della luminosità so disabilitabili da service menu, con un telecomando apposito che costa 9-10 euro su Amazon
Sono monitor parecchio differenti tra di loro, dovessi scegliere uno fra tutti terrei il MI 34", tuttofare con buon equilibrio sia per lavoro che gioco.
Kostanz77
02-12-2023, 00:20
LG 42C34 (4K 120 Hz):
contrasto infinito e tempi di risposta pixels da oled, LAG totale effettivo molto basso, colori ben controllabili, vero HDR, fluidissimo sia in G-Sync che Freesync, comodo menu diretto dedicato per controllo parametri modalità game, discreta leggibilità del testo quindi utilizzabile anche in modo desktop.
Difetti : coating che tende al gloss (ma non gloss) bisogna stare attenti a dove lo si piazza.
Lo uso sia per multimedia (montaggio video) che gaming ad una distanza di circa 80cm, se cercate la combinazione di neri assoluti, pannello veloce, vero HDR, ottima fluidità in G-Sync e digerite un 42 alla distanza sopracitata questo può fare per voi.
Importante : i meccanismi di limitazione della luminosità so disabilitabili da service menu, con un telecomando apposito che costa 9-10 euro su Amazon
Sono monitor parecchio differenti tra di loro, dovessi scegliere uno fra tutti terrei il MI 34", tuttofare con buon equilibrio sia per lavoro che gioco.
Io ho optato per questa soluzione prendendo un C3 da 42 pollici e sono molto soddisfatto del comportamento di questo pannello oled
Inviato dal mio iPhone utilizzando Tapatalk Pro
ColdWarGuy
02-12-2023, 08:12
Io ho optato per questa soluzione prendendo un C3 da 42 pollici e sono molto soddisfatto del comportamento di questo pannello oled
Inviato dal mio iPhone utilizzando Tapatalk Pro
Molto soddisfatto anche io, più lo uso e più mi piace e non è il mio primo oled, ho da tempo un 65" in sala (ovviamente mai usato in modo desktop :fagiano:), quindi sono già assuefatto alle meraviglie di questa tecnologia.
Mi sono deciso a prendere il C3 42 dopo che ho provato il C2 di un amico attaccato alla mio PC da gioco, la fluidità a bassi FPS mi ha conquistato all'istante, ovviamente insieme al resto.
Giocare al buio games come Dead Space remake è un esperienza mistica, anche con i 45-50 FPS della 3070 con il suddetto settato al MAX con RTAO in 4K e DLSS quality sembrano almeno 100.
Per gli amanti del nero profondo l'Oled è il passaggio obbligato, ma chiunque se ne innamora se li vede all'opera con i video HDR ad alta risoluzione e la gamma Cx di LG con i suoi 42 è una vera manna con le sue funzionalità da gaming ( e la qualità di immagine, ovviamente).
ColdWarGuy
02-12-2023, 09:09
Il PG32UCDM sarà il mio prossimo monitor sempre se la prossima top di gamma spingerà come si deve, 4k 240hz così da pensionare sia il C2 42" sia il 1440p 240hz.
Il C2 lo riciclerò come tv per la cucina al massimo,
-snip
Sei arrivato puntuale con la tu boria, probabilmente non te ne accorgi ma ti stai tingendo di ridicolo oltre ogni limite.
Cutter90
02-12-2023, 10:03
Il PG32UCDM sarà il mio prossimo monitor sempre se la prossima top di gamma spingerà come si deve, 4k 240hz così da pensionare sia il C2 42" sia il 1440p 240hz.
Il C2 lo riciclerò come tv per la cucina al massimo, non è roba da uso desktop quel padellone, mi vien difficile solo usare word/excel figuriamoci il resto.
Unico monitor a far tutto, 32" 16:9 4k 240hz HDR la pace dei sensi, senza compromessi.
Se non fosse che ha la dp 1.4, quindi con 4k 240hz l'hdr a 10 bit verrà compresso.
Che geni, io prenderò sto monitor solo se faranno la rev 2.0 con la dp 2.1 che dovrebbe esserci sulle 5000, infatti è un bene che non sia uscito, sicuramente correggeranno il tiro.
La 4000 sono nate vecchie sotto questo punto di vista con quella dp 1.4 ridicola dell'era di NOE, la 4090 nel c2 (ma anche la 4080) è sempre cappata a 120 frame quando potrebbero fare di più in tantissimi titoli, ormai 4k con Dlss Q e FG i 120 fps si raggiungono come nulla, tranne in PT, ma anche in AW2 le botte over 100 fps le da con dlss/fg.
Diciamo che andare sopra i 120 fps ritengo serva solo a scopi competitivi ad alti livelli/esport. E non certo perchè si veda la differenza di fuidità (io ho un 120 e un 240, differenze prossime allo zero), ma per il discorso input lag.
MA esport e 4k sono un controsenso alla fine dato che in quei giochi conviene di molto abbassare i dettagli. Cioè, avere il graficone in un fps competitivo è solo controproducente per l'uso da esport.
Per quello che alla fine il Dp 2.0 serve poco o nulla secondo me
Il PG32UCDM sarà il mio prossimo monitor sempre se la prossima top di gamma spingerà come si deve, 4k 240hz così da pensionare sia il C2 42" sia il 1440p 240hz.
Il C2 lo riciclerò come tv per la cucina al massimo, non è roba da uso desktop quel padellone, mi vien difficile solo usare word/excel figuriamoci il resto.
Unico monitor a far tutto, 32" 16:9 4k 240hz HDR la pace dei sensi, senza compromessi.
Se non fosse che ha la dp 1.4, quindi con 4k 240hz l'hdr a 10 bit verrà compresso.
Che geni, io prenderò sto monitor solo se faranno la rev 2.0 con la dp 2.1 che dovrebbe esserci sulle 5000, infatti è un bene che non sia uscito, sicuramente correggeranno il tiro.
La 4000 sono nate vecchie sotto questo punto di vista con quella dp 1.4 ridicola dell'era di NOE, la 4090 nel c2 (ma anche la 4080) è sempre cappata a 120 frame quando potrebbero fare di più in tantissimi titoli, ormai 4k con Dlss Q e FG i 120 fps si raggiungono come nulla, tranne in PT, ma anche in AW2 le botte over 100 fps le da con dlss/fg.
Delle Ada l'unica con un senso è sempre stata solo la 4090, poi lato connessioni non capisco il problema. Io piloto da 2 anni il monitor in firma a 144/160hz con G-Sync in 4k senza problemi. Cosa dovrebbe cambiare con la DP2.1?
ColdWarGuy
02-12-2023, 10:25
Diciamo che andare sopra i 120 fps ritengo serva solo a scopi competitivi ad alti livelli/esport. E non certo perchè si veda la differenza di fuidità (io ho un 120 e un 240, differenze prossime allo zero), ma per il discorso input lag.
MA esport e 4k sono un controsenso alla fine dato che in quei giochi conviene di molto abbassare i dettagli. Cioè, avere il graficone in un fps competitivo è solo controproducente per l'uso da esport.
Per quello che alla fine il Dp 2.0 serve poco o nulla secondo me
Parole sante.
marbasso
02-12-2023, 10:45
Si perchè ora viene certificato, io ricordo con i primi Pg278q Tn 1440p g-sync nel 2015 (per poi uscire con la versione ips con pixel in overclock a 165hz (pg279q)) le differenze con la concorrenza con il freesync non erano poche, almeno con gpu nvidia.
La differenza di costo però era esorbitante si passava dagli 850 euro per la versione g-sync iPS ai 500 -550 euro della versione freesync sempre IPS (mg279q) molti con gpu nvidia se la tentarono ai tempi.
Ora con il gsync compatibile si è messa una pezza, però ci sono dei modelli che si aggangiano molto tardi, il mio odyssey g27 ha un range di 60- 240 hz secondo nvidia, ma se apro Cru mi da 80-240hz, ma qui la colpa è di samsung, il fatto è che anche in monitor tipo il G9 (mi sa devo controllare bene) con risoluzioni alte si hanno questi range assurdi.
Fortunatamente viene spinto da una gpu che fa over 100 fps di 0.1% low (LOL) in 2560x1440 e DLSS Q + FG quindi il problema non si pone, il mio vecchio pg279q workava dai 30 ai 165hz senza perder un colpo.
E comunque sotto agli 80 fps mi faceva cagxre ugualmente, percepivo che i frame non erano abbastanza, venivo dai vecchi benq xl2420z 1080p 120hz e cappavo i frame.
Me ne sono pentito amaramente di averlo venduto (benissimo) me lo sarei dovuto tenere stretto, sono sempre più rari e costosi.
Mi sa che abbiamo lo stesso monitor ma non sapevo di questa cagata di range sul gsync...:doh: L'ho anche aggiornato all' ultimo firmware perchè c'era qualcosa da risolvere e menomale per ora per il resto va bene.
Cmq calcolavo che per prendere la top di gamma ada in due anni di ampere bastava mettere da parte neanche 3 euro al giorno.
Per la prossima top, se vogliamo considerare una esorbitante cifra di 3k basterebbe mettere da parte neanche 5 euro al giorno, quanto un pacchetto di sigarette, ma neanche.
Vista così non è un' impresa difficile per chi non ha vizi di sorta e non ha le mani bucate se ha la passione per il pc.
Tanto alla fine i prezzi saliranno sempre è inutile aspettare e sperare in regali o protestare aggrappandosi ad ogni cavillo.
Cutter90
02-12-2023, 11:10
Si perchè ora viene certificato, io ricordo con i primi Pg278q Tn 1440p g-sync nel 2015 (per poi uscire con la versione ips con pixel in overclock a 165hz (pg279q)) le differenze con la concorrenza con il freesync non erano poche, almeno con gpu nvidia.
La differenza di costo però era esorbitante si passava dagli 850 euro per la versione g-sync iPS ai 500 -550 euro della versione freesync sempre IPS (mg279q) molti con gpu nvidia se la tentarono ai tempi.
Ora con il gsync compatibile si è messa una pezza, però ci sono dei modelli che si aggangiano molto tardi, il mio odyssey g27 ha un range di 60- 240 hz secondo nvidia, ma se apro Cru mi da 80-240hz, ma qui la colpa è di samsung, il fatto è che anche in monitor tipo il G9 (mi sa devo controllare bene) con risoluzioni alte si hanno questi range assurdi.
Fortunatamente viene spinto da una gpu che fa over 100 fps di 0.1% low (LOL) in 2560x1440 e DLSS Q + FG quindi il problema non si pone, il mio vecchio pg279q workava dai 30 ai 165hz senza perder un colpo.
E comunque sotto agli 80 fps mi faceva cagxre ugualmente, percepivo che i frame non erano abbastanza, venivo dai vecchi benq xl2420z 1080p 120hz e cappavo i frame.
Me ne sono pentito amaramente di averlo venduto (benissimo) me lo sarei dovuto tenere stretto, sono sempre più rari e costosi.
Beh, ma se tu acquisti un monitor a 240 hz non è certo per farlo andare a 60 fps. Andrai sempre da 150 in su, altrimenti significa aver sbagliato l'acquisto.
Davo per scontato che tutti i gsync compatibili fossero da 48 in su, ma tant'è....
PS: occhio che "HDR spinto" su gsync ultimate significa zero. Il g3 ha il gsync compatibile ma ha l'hdr migliore sul mercato a quasi attualmente
fraussantin
02-12-2023, 11:27
Beh, ma se tu acquisti un monitor a 240 hz non è certo per farlo andare a 60 fps. Andrai sempre da 150 in su, altrimenti significa aver sbagliato l'acquisto.
Davo per scontato che tutti i gsync compatibili fossero da 48 in su, ma tant'è....
PS: occhio che "HDR spinto" su gsync ultimate significa zero. Il g3 ha il gsync compatibile ma ha l'hdr migliore sul mercato a quasi attualmenteBeh puo capitare il gioco rognoso che va a 60.
The quarry è uno che mi va a 60 con la 3080 e non ci posso far niente.
Poi essendo un film pace.
Io trovo invece assurdo che i produttori di monitor dopo un decennio ancora non abbiano standardizzato il sync facendolo funzionare in ogni situazione come riusciva a fare un modulino sovrapprezzato.
marbasso
02-12-2023, 13:16
Secondo nvidia dalla lista compatibilità il 27" è 60-240hz mentre il 32'' è 80-240hz, se apro CRU sul 27" mi da 80-240hz, quindi vedo più attendibile la seconda.
Il monitor è carino, un buon SDR, bei neri, veloce, la curva da immersività.
Comunque con 13900k e 4090 a 2560x1440p gli 80hz di range sono l'ultimo dei problemi LOL
Nel senso che sforni fps a iosa ;)
Si si non mi lamento, cmq uso sempre il dldsr con dlss fg rr quando disponibili.
Ormai in raster perdi qualità a livello di effetti, ma è stato detto 1000 volte ormai.
Ma guarda il problema principale del freesync è che amd non aveva messo dei paletti sulla qualità della funzione e ogni monitor faceva come gli pare.
Il modulino di nvidia ti garantiva il funzionamento alla perfezione senza sbattimenti.
Ma adesso con il gsync compatibile che ti garantisce una certa qualità di funzionamento non cambia nulla.
Ma pure se pigli un monitor non certificato ( senza mazzetta) che è bene non hai problemi. ( Credo quasi tutti ormai)
E almeno uno si lascia la porta aperta alle schede rosse sia mai che amd su svegli prima o poi :asd:
Ps si auo è di acer credo.
Ma guarda anche l'ips lg ha i neri giallognoli e gli angoli chiari .
L'ips è cosí .
Però stanca meno la vista. E ha una gamma colori completa
Basta non accendere l'hdr senno diventa una cineseria senza contegno :asd:
Confermo, avendo prima Nvidia ed ora Intel 0 problemi con Adaptive sync sul monitor in firma, sia con una che con l'altra.
Ormai ha senso spendere di più per il modulo G-sync solo per casi particolari.
Concordo inoltre sul fatto che i neri facciano abbastanza pietà: con "finto" hdr spento sono accettabili, se lo si accende invece il nero tende a diventare violetto, ma con gli IPS non penso ci sia da fare molto.
Un leggero miglioramento si ha con la modalità hdri, in pratica regola luminosità e temperatura colore in base alla luce dell'ambiente, che a me personalmente stanca molto meno la vista rispetto a tenere acceso sto hdr 400 in modalità standard.
Il vecchio monitor era comunque un TN con modulo G-sync, e il miglioramento in termini di resa cromatica l'ho visto, per adaptive sync nessuna differenza invece.
Poi per carità, ci sono monitor da tutti i prezzi ed un motivo c'è eh, però pagare il plus del G-sync per essere vincolato a schede Nvidia quando ormai con Freesync posso montare schede verdi rosse o blu, ecco forse meglio valutare bene.
Cutter90
02-12-2023, 13:19
Beh puo capitare il gioco rognoso che va a 60.
The quarry è uno che mi va a 60 con la 3080 e non ci posso far niente.
Poi essendo un film pace.
Io trovo invece assurdo che i produttori di monitor dopo un decennio ancora non abbiano standardizzato il sync facendolo funzionare in ogni situazione come riusciva a fare un modulino sovrapprezzato.
Beh il modulino qualcosa evidentemente faceva in più. Certo, è una cavolata che il gsync/vrr e compagnia abbiano un range di funzionamento. Non ne caspico il motivo effettivamente
Cutter90
02-12-2023, 13:20
Ovvio, infatti è "un non problema" non prendo un 240hz per andare col freno a mano tirato,
Se prendo un 240hz 1440p ho sia cpu potente che gpu abbastanza spinta, però è un dato di fatto che tende ad aggangiarsi tardi rispetto ad altri modelli g sync compatibili, che stanno sui 48 mediamente.
Infatti, è una certificazione che ti dice che hai tot di resa riferendosi a vari parametri non solo HDR, ma non significa che sul mercato non ci siano modelli migliori a livello di luminosità come in questo caso con il g3 che è tanta roba a livello HDR
P.s piuttosto quando puoi (o se magari lo hai già fatto) guarda sul tuo G9 su CRU quanto ti da e se hai l'ultimo firmware.
Grazie
Quando ho un attimo ci guardo volentieri ma... dove si vede in cru sta cosa?
fraussantin
02-12-2023, 13:28
Beh il modulino qualcosa evidentemente faceva in più. Certo, è una cavolata che il gsync/vrr e compagnia abbiano un range di funzionamento. Non ne caspico il motivo effettivamenteProb è un limite dell'hw che si occupa di sincronizzare.
Ma parliamo di una tecnologia ormai presente da anni sul mercato , libera da royalty , e che richiede potenza di calcolo bassissima , che si decidessero a farli tutti uguali e basta insomma.
Almeno quelli "da gaming" che costano a partire da " una fucilata"
Almeno quelli "da gaming" che costano a partire da " una fucilata"
E con ancora la retroilluminazione "edge" aggiungerei :sofico:
marbasso
02-12-2023, 13:53
Scarica e apri CRU, una volta aperto clicca su Edit in alto ti si aprirà una finestra sotto la voce "range limits" leggi l'intervallo Vrate.
@marbasso se puoi fallo anche tu, abbiamo lo stesso monitor, tu quando lo hai preso? Io da poco è la versione 2023, potrebbero esserci differenze magari.
Il firmware installato è l'ultimo guardando il sito samsung, è arrivato già con quello installato.
Il mio l'ho preso il 05/01/2022 ed l'ho aggiornato all' ultimo firmware da qualche mese.
Ecco come si presenta cru:
https://i.postimg.cc/wTX6wTn6/Screenshot-141.png
Cioè sia il freesync che il gsync ha quel range inutile da 80>?
mikael84
02-12-2023, 15:39
Possiamo dire che hai fatto l'affare ed ora puoi tranquillamente skippare le 4000 senza alcun problema. Recentemente ho preso anche io un monitor G-Sync "puro" (prima possedevo solo FreeSync), la resa si nota anche quando non hai problemi fi FPS.
Ne avevo cambiati svariati (anche 21:9), ma sempre qualche problemino, sino a quando mi sono rotto e puntato tutto sul modulino. Da allora pace dei sensi. Uno degli acquisti migliori di sempre.
Unica pecca, la sola DP, e sei legato al marchio.:)
Ora penso siano migliorati, vedo che tutti li usano senza problemi, ma parliamo di anni fa.
[/QUOTE]
Se i cinesi stanno effettivamento predando le 7900 mi sa che a breve a 800 me la scordo, sto giocando sul filo del rasoio :D
Ma sarà una vera 70 oppure una 60 truccata da ...:D
Per quanto stia sul campo da anni, JHH è in grado ancora di sorprendermi.:p
Immagino una sku con 10240 cc per la 5070ti@3,1 e un chip che si allinei il più possibile alla 4080 per la 5070, considerando che la 4070super, sarà già fascia 4070ti.
Il fatto che si parli di BL105 anzichè 105, pare far capire che le x70, saranno sempre più relegate alla fascia medio-bassa.
qui ne aveva in surplus quindi ha rinominato, li se il pp o altre new tech non gli danno abbastanza margine, dovrà tornare ai vecchi tagli, quello che è sicuro, è che ti darà le giuste % di upgrade per farti ingolosire, nulla di piu nulla di meno
Servirà rivedere la microarchitettura di base, con i 3nm non ci sarà il clock a salvare le chiappe. In proporzione dovremmo vedere chip a 4,1ghz.:p
Ma guarda il problema principale del freesync è che amd non aveva messo dei paletti sulla qualità della funzione e ogni monitor faceva come gli pare.
Il modulino di nvidia ti garantiva il funzionamento alla perfezione senza sbattimenti.
Ma adesso con il gsync compatibile che ti garantisce una certa qualità di funzionamento non cambia nulla.
Ma pure se pigli un monitor non certificato ( senza mazzetta) che è bene non hai problemi. ( Credo quasi tutti ormai)
E almeno uno si lascia la porta aperta alle schede rosse sia mai che amd su svegli prima o poi :asd:
Ps si auo è di acer credo.
Ma guarda anche l'ips lg ha i neri giallognoli e gli angoli chiari .
L'ips è cosí .
Però stanca meno la vista. E ha una gamma colori completa
Basta non accendere l'hdr senno diventa una cineseria senza contegno :asd:
L'IPS di acer è un AHVA, il mio praticamente, il VA è AMVA.
Per gli HZ, accade come gli altri componenti, i pannelli migliori in fascia alta, e via a scendere con hz minori.
Quando c'erano i crossover, alcuni si occavano a 120hz.
fraussantin
02-12-2023, 16:38
cuttone
iSi i freesync 1 erano problematici , pochi andavano bene con le nvidia quando aprirono al fs.
E pure con le amd non è che fossero rose e fiori.
Ora i certificati sono ok , ma anche molti non certificati vanno bene.
fraussantin
02-12-2023, 17:41
Si, sopra gli 80 hai sincronia, nel nostro caso è così, fin quando abbiamo gpu potenti ce ne possiamo strafregrare.
Per dire il C2 oled che ho è 4k 120hz e mi pare di ricordare sia 40-120hz (vado a memoria)
Quelli odierni con il modulo (G-sync) i "PURI" sono full range, 1-240, 1-360 esempio..
Come scrivevo ieri monitor tipo il pg279q del 2015 con il modulo avevano range 30-165hz, per dire che in quasi 10 anni sono ancora validissimi.Spe calma io sotto i 48 dovrei vedere tearing?
Non mi pare di averne mai visto , però houna fluidità pietosa.
LFC da quando interviene?
E sopratutto c'è un test affidabile per provare?
Ho provato ufo test ma ho qualche dubbio che interferisca il vstnc di windows
Cutter90
02-12-2023, 17:55
Spe calma io sotto i 48 dovrei vedere tearing?
Non mi pare di averne mai visto , però houna fluidità pietosa.
LFC da quando interviene?
E sopratutto c'è un test affidabile per provare?
Ho provato ufo test ma ho qualche dubbio che interferisca il vstnc di windows
No, sotto i 48 dovresti vedere scatti più che tearing
Cutter90
02-12-2023, 17:58
Uguale al mio 80-240hz.
È un macello nvidia dice che il 27" è 60-240hz ed il 32" 80-240hz, tft central nella review idem, scrive anche che i 32" hanno più problemi a livello di LFC questo testando con g-sync pendulum, ma la review è datata 2020, quindi non so come si sia evoluta la cosa.
Insomma, l'ho dovuto acquistare per sapere la verità e confrontandolo con il tuo si conferma essere così.
A me non appare scritto, quelle caselle sono vuote per il G9 Neo. E nel g3 si inventa dei valori 24-120 che non è possibile. Secondo me cru ha qualcosa che non va
fraussantin
02-12-2023, 18:28
No, sotto i 48 dovresti vedere scatti più che tearingSi infatti scatta pietosamente
Nel tuo caso sotto i 48 entra LFC per compensare.
Se ipotesi scendi sui 30 fa due cicli e refresha il monitor a 60hz.
Prima usavo G sync pendulum, è da un bel pò che non faccio sti test.
Ah giusto me l'ero scordato del pendolo , quasi quasi provo domani
ColdWarGuy
03-12-2023, 14:22
"Never-released GeForce RTX 3080 20GB and Radeon RX 580 16GB now available in China Chinese companies are making new cards from used hardware"
Former cryptomining GPUs are now being repurposed to make GeForce RTX 3080 20GB and RX 580 16GB cards (https://videocardz.com/newz/former-cryptomining-gpus-are-now-being-repurposed-to-make-geforce-rtx-3080-20gb-and-rx-580-16gb-cards)
OrazioOC
03-12-2023, 16:33
"Never-released GeForce RTX 3080 20GB and Radeon RX 580 16GB now available in China Chinese companies are making new cards from used hardware"
Former cryptomining GPUs are now being repurposed to make GeForce RTX 3080 20GB and RX 580 16GB cards (https://videocardz.com/newz/former-cryptomining-gpus-are-now-being-repurposed-to-make-geforce-rtx-3080-20gb-and-rx-580-16gb-cards)
La 3080 20gb è interessante, risolverebbe 1 dei 3 problemi che attanaglia la 3080 10 gb nell'ormai 2024, la poca vram. :asd:
Gli altri due problemi sono il tdp troppo alto paragonato a quello della 4070 e la mancanza dell'fg.
Per il resto se arrivasse per vie traverse sui 500 euro, altro che 4060 ti 16gb. :asd:
mikael84
03-12-2023, 16:46
La 3080 20gb è interessante, risolverebbe 1 dei 3 problemi che attanaglia la 3080 10 gb nell'ormai 2024, la poca vram. :asd:
Gli altri due problemi sono il tdp troppo alto paragonato a quello della 4070 e la mancanza dell'fg.
Per il resto se arrivasse per vie traverse sui 500 euro, altro che 4060 ti 16gb. :asd:
In cina, c'era già da due anni, una 3080 da 20, anzi, era una ibrida 3080/3080ti, die da 3080ti e bus da 3080 (320).
fraussantin
03-12-2023, 17:16
Se lisa donasse la FG a tutti sarebbe una grand cosa !!
FG è frame generation èè ;) :asd:
marbasso
03-12-2023, 18:31
RX580? Polaris ancora sta in giro.
OrazioOC
03-12-2023, 18:37
RX580? Polaris ancora sta in giro.
https://ibb.co/fHJwqck
Scherzi a parte, schede veramente arcaiche, hanno sola molta vram e basta. :rolleyes:
Per giocare sono veramente dei fossili, anche la sola assenza dei mesh shaders le sta tagliando fuori dall'avviare i giochi.
Lei e le gtx 1000 ormai sono fermaporte. :rolleyes:
mikael84
03-12-2023, 18:59
https://ibb.co/fHJwqck
Scherzi a parte, schede veramente arcaiche, hanno sola molta vram e basta. :rolleyes:
Per giocare sono veramente dei fossili, anche la sola assenza dei mesh shaders le sta tagliando fuori dall'avviare i giochi.
Lei e le gtx 1000 ormai sono fermaporte. :rolleyes:
Tra qualche mese compiono 8 anni. E' come se ai tempi di kepler, ci si lamentava che le 6600gt stessero perdendo colpi, o le geferce 2, tagliate da crysis.:p :asd:
https://ibb.co/fHJwqck
Scherzi a parte, schede veramente arcaiche, hanno sola molta vram e basta. :rolleyes:
Per giocare sono veramente dei fossili, anche la sola assenza dei mesh shaders le sta tagliando fuori dall'avviare i giochi.
Lei e le gtx 1000 ormai sono fermaporte. :rolleyes:
Per ora solo Alan Wake 2 e c'è il fix per disattivare il mesh:
https://www.nexusmods.com/alanwake2/mods/14
Comunque si, sono schede di diverse gen fa, è normale che oggi faticano.
Maxwell non ha neanche FP16 e anche l'FSR non sempre scala decentemente.
Diciamo che sono ottime per un muletto, per tirare su giochi non troppo impegnativi o senza alzare troppo i dettagli.
amon.akira
03-12-2023, 20:16
Per ora solo Alan Wake 2 e c'è il fix per disattivare il mesh:
https://www.nexusmods.com/alanwake2/mods/14
Comunque si, sono schede di diverse gen fa, è normale che oggi faticano.
Maxwell non ha neanche FP16 e anche l'FSR non sempre scala decentemente.
Diciamo che sono ottime per un muletto, per tirare su giochi non troppo impegnativi o senza alzare troppo i dettagli.
I commenti a quella mod dicono che nn funzia
ColdWarGuy
03-12-2023, 20:23
La 3080 20gb è interessante, risolverebbe 1 dei 3 problemi che attanaglia la 3080 10 gb nell'ormai 2024, la poca vram. :asd:
Gli altri due problemi sono il tdp troppo alto paragonato a quello della 4070 e la mancanza dell'fg.
Per il resto se arrivasse per vie traverse sui 500 euro, altro che 4060 ti 16gb. :asd:
Considera però che sono chip "stagionati" da migliaia di ore di mining che subiscono un ulteriore stress con lo smontaggio da vecchia scheda ed il montaggio su nuova, con un processo che è tutto meno che controllato.
fraussantin
03-12-2023, 21:08
Per ora solo Alan Wake 2 e c'è il fix per disattivare il mesh:
https://www.nexusmods.com/alanwake2/mods/14
Comunque si, sono schede di diverse gen fa, è normale che oggi faticano.
Maxwell non ha neanche FP16 e anche l'FSR non sempre scala decentemente.
Diciamo che sono ottime per un muletto, per tirare su giochi non troppo impegnativi o senza alzare troppo i dettagli.
con la 3080 AW2 ha un framerate ridicolo cmq lo setti . l'unica e medio con dlss prestazioni rt off +reshade per la nitidezza
Considera però che sono chip "stagionati" da migliaia di ore di mining che subiscono un ulteriore stress con lo smontaggio da vecchia scheda ed il montaggio su nuova, con un processo che è tutto meno che controllato.
Posso immaginare le saldature di quei bga reworkati due volte, con le temperature che si raggiungono in gaming durano da Natale a santo Stefano per restare in tema! :rolleyes:
Cutter90
03-12-2023, 21:30
con la 3080 AW2 ha un framerate ridicolo cmq lo setti . l'unica e medio con dlss prestazioni rt off +reshade per la nitidezza
Quanti fps fai in 4k senza rt con dlss quality?
con la 3080 AW2 ha un framerate ridicolo cmq lo setti . l'unica e medio con dlss prestazioni rt off +reshade per la nitidezza
Mi pareva girasse meglio dopo le prime due patch rispetto all'uscita.
Io ad AW2 ci gioco sulla scheda in firma a 1440p+ FSR quality +20% nitidezza a preset alto senza RT con fps che oscillano da un minimo di 40 negli esterni a 90 nelle parti interne come la metro a New York ecc.
fraussantin
03-12-2023, 21:33
Quanti fps fai in 4k senza rt con dlss quality?
3440x1440 senza rt dlss qualiti 50-65 fps nell'area con la tipa nera
3440x1440 senza rt dlss qualiti 50-65 fps nell'area con la tipa nera
Intendi all'inizio quando devi scendere verso il lago?
Cutter90
03-12-2023, 21:41
3440x1440 senza rt dlss qualiti 50-65 fps nell'area con la tipa nera
Beh abbastanza buono pet la verità.
Ha una bella scalabilità, ottimizzato molto bene.
Beh abbastanza buono pet la verità
Concordo, 3440x1440 è abbastanza impegnativa come risoluzione pur non essendo un 4K ed AW2 è piuttosto tosto come engine, specialmente nel bosco con tutta la vegetazione da renderizzare.
fraussantin
03-12-2023, 21:58
Intendi all'inizio quando devi scendere verso il lago?
si esatto
Slater91
04-12-2023, 10:15
Sei arrivato puntuale con la tu boria, probabilmente non te ne accorgi ma ti stai tingendo di ridicolo oltre ogni limite.
È incredibile come tu ogni volta te la prenda sul personale pur non citandoti.
È una tv che da qui a cambiarla compierà 3 anni e forse anche più, al posto di venderlo lo destinerò per altri utilizzi, cosa c'è di strano.
Poi sono io il ridicolo? Tu che ogni 2x3 spari disinformazione a nastro (gsync "puro" quando la maggior parte sono g sync compatibili) o il LAG incontenibile del FG (che non hai provato nemmeno) e ripeti a pappagallo senza avere una tua linea di pensiero, anche scadendo sul personale, accusandomi senza alcuna prova di esseere un clone solo dopo averlo letto in un altro 3d.
Oggi non lo hai ripetuto che le 4000 sono care, che grazie a Dio i soldi li hai ma non le compri per protesta come hai fatto con il grana padano?
La boria è solo tua, io non scrivo ogni 2x3 ho i soldi, ho parecchi zeri sul conto, ma sono più furbo di voi e le 4000 sono una fregatura.
Cinque giorni a tutt'e due.
Ai ai guai per giacco:
https://www.dday.it/redazione/47730/gli-usa-sgridano-nvidia-non-permetteremo-alla-cina-di-comprare-le-vostre-schede-punto
fraussantin
04-12-2023, 16:57
https://i.postimg.cc/9FyG5J4y/screenshot-609.jpg
se vado su confronta mi sale il prezzo si oltre 100 euro . si prepara alle super mi sa
mikael84
04-12-2023, 17:02
se vado su confronta mi sale il prezzo si oltre 100 euro . si prepara alle super mi sa
A me da sempre 1829, in compenso vedo per la prima volta esaurita la 4050... pardon 4060ti.
fraussantin
04-12-2023, 17:04
A me da sempre 1829, in compenso vedo per la prima volta esaurita la 4050... pardon 4060ti.
prova a fare confronta in basso , a me tempo fa dava lo stesso importo
mikael84
04-12-2023, 17:06
Ecco qua.
https://i.postimg.cc/bNqDvrqL/confronta.png
fraussantin
04-12-2023, 17:14
Boh allora forse era un bug momentaneo
Edit si lo vedo corretto anchr io adesso
Ai ai guai per giacco:
https://www.dday.it/redazione/47730/gli-usa-sgridano-nvidia-non-permetteremo-alla-cina-di-comprare-le-vostre-schede-punto
Si non l'ha presa molto bene "la Gina" ma nVidia vende e non è certo una onlus. Finchè rispettano la legge continueranno a vendere a chi gli pare. Gli bloccano un prodotto ? Perfetto, ne creano uno nuovo e intanto vendono quello. Bloccano anche quello, sotto con un altro ancora con altro nome e altre caratteristiche ancora. Senza contare che la Cina continuerà ad acquistare "per vie traverse"...comunque.
Del resto non riescono ad impedire il traffico d'armi a livello mondiale, figurarsi le schede video ! :doh:
Che poi sono tutte operazioni di facciata per come la penso io, i soldi non puzzano, mai, per italianizzare un antico detto latino ....
fraussantin
05-12-2023, 13:19
Si non l'ha presa molto bene "la Gina" ma nVidia vende e non è certo una onlus. Finchè rispettano la legge continueranno a vendere a chi gli pare. Gli bloccano un prodotto ? Perfetto, ne creano uno nuovo e intanto vendono quello. Bloccano anche quello, sotto con un altro ancora con altro nome e altre caratteristiche ancora. Senza contare che la Cina continuerà ad acquistare "per vie traverse"...comunque.
Del resto non riescono ad impedire il traffico d'armi a livello mondiale, figurarsi le schede video ! :doh:
Che poi sono tutte operazioni di facciata per come la penso io, i soldi non puzzano, mai, per italianizzare un antico detto latino ....
Allo stato attuale delle cose le schede video vengono considerate come un rischio per la sicurezza degli stati uniti .
Quindi se vogliono possono limitare parecchio l'export.
Il punto è che nvidia è anche un colosso in borsa e un azienda americana quindi non possono trattarla come una huawei a caso.
Perche senno potrei anche dire che giacchetta sta scherzando con il fuoco 🔥🔥🔥
Per gestire un 4k diciamo sui 100fps la 4080 super gliela farà?
marbasso
05-12-2023, 18:55
Nuovi driver nvidia 546.29
Nuovi driver nvidia 546.29
Grazie della info, speriamo migliorino le disastrose prestazioni in spiderman col dlss..
Per gestire un 4k diciamo sui 100fps la 4080 super gliela farà?
Assolutamente si, con una 4070 ed una tv a 120hz i 100/120 fps sono diventati uno standard per me... è una con la potenza bruta di tre volte una ps5 senza considerare il DLSS, figurati una 4080! ovviamente se parliamo di un gioco come Alan Wake 2 o il brutto port di The Last Of Us fai meglio a guardare ad una 4090... ma per la maggior parte dei giochi una 4080 avrà ben pochi compromessi...
fraussantin
05-12-2023, 19:43
Per gestire un 4k diciamo sui 100fps la 4080 super gliela farà?Mah , mi sono in po informato e sui giochi normali si , ma quando si inizia a parlare di path tracyng , e UE5 le cose iniziano ad essere un po tirate.
Certo se c'è FG allora meglio.
MorrisADsl
05-12-2023, 20:58
Hotfix 546.31 disponibili.
mikael84
05-12-2023, 21:05
Ai ai guai per giacco:
https://www.dday.it/redazione/47730/gli-usa-sgridano-nvidia-non-permetteremo-alla-cina-di-comprare-le-vostre-schede-punto
Si non l'ha presa molto bene "la Gina" ma nVidia vende e non è certo una onlus. Finchè rispettano la legge continueranno a vendere a chi gli pare. Gli bloccano un prodotto ? Perfetto, ne creano uno nuovo e intanto vendono quello. Bloccano anche quello, sotto con un altro ancora con altro nome e altre caratteristiche ancora. Senza contare che la Cina continuerà ad acquistare "per vie traverse"...comunque.
Del resto non riescono ad impedire il traffico d'armi a livello mondiale, figurarsi le schede video ! :doh:
Che poi sono tutte operazioni di facciata per come la penso io, i soldi non puzzano, mai, per italianizzare un antico detto latino ....
Se il limite imposto è di 4800TPP, lui fa bene a cercare un'alternativa. La 4090 è sui 5280TPP, valore tra l'altro calcolato sul boost base di 2520, a stock o in OC, si arriva oltre il 20%.
Basterebbe bloccare il clock a 2250 circa e lo bypassi, oppure anche una 14848 cuda ci rientrerebbe.
Mi sembra una legge all'italiana.
Assolutamente si, con una 4070 ed una tv a 120hz i 100/120 fps sono diventati uno standard per me... è una con la potenza bruta di tre volte una ps5 senza considerare il DLSS, figurati una 4080! ovviamente se parliamo di un gioco come Alan Wake 2 o il brutto port di The Last Of Us fai meglio a guardare ad una 4090... ma per la maggior parte dei giochi una 4080 avrà ben pochi compromessi...
il teorico della 4070 sulla ps5, è 2x non 3. 1142 thread vs 2208, in gaming possiamo anche inquadrarla come una scheda da una 20ina di TF. Nvidia ha un sistema diverso dalle AMD.;)
il teorico della 4070 sulla ps5, è 2x non 3. 1142 thread vs 2208, in gaming possiamo anche inquadrarla come una scheda da una 20ina di TF. Nvidia ha un sistema diverso dalle AMD.;)
Si tratta di una scheda da 29,15 TFLOPS; la PS5 arriva a 10, e non sto includendo il DLSS... Ho la PS5 collegata alla stessa TV del PC. In qualsiasi gioco, le prestazioni della 4070, dire che sono solo tre volte quelle della PS5, mi sembra generoso. La PS5 usa filtri e trucchi per mascherare il 4K che non raggiunge mai davvero. Se si tiene conto del DLSS e del frame gen, siamo nell'ordine dei 5x per la 4070. Nei video su YouTube non ci si rende conto dei compromessi grafici della PS5 perché si dà la colpa alla compressione del video. Una 3060 disintegra la PS5 di molto. La PS5 punta a stento ai 30 fps col ray tracing base, non path tracing. Una 2060 sarebbe il paragone ideale. Per farla breve, parliamo di un hardware rimasto al 2019, ovvero quando hanno progettato la console.
mikael84
06-12-2023, 00:33
Si tratta di una scheda da 29,15 TFLOPS; la PS5 arriva a 10, e non sto includendo il DLSS... Ho la PS5 collegata alla stessa TV del PC. In qualsiasi gioco, le prestazioni della 4070, dire che sono solo tre volte quelle della PS5, mi sembra generoso. La PS5 usa filtri e trucchi per mascherare il 4K che non raggiunge mai davvero. Se si tiene conto del DLSS e del frame gen, siamo nell'ordine dei 5x per la 4070. Nei video su YouTube non ci si rende conto dei compromessi grafici della PS5 perché si dà la colpa alla compressione del video.
Ni, la 4070 ha 29,15tf nei due datapath fp32, ma questo vale nel compute, e neppure più di tanto. La GPU è formata da 2 partizioni da 2944 fp32, l'altra da fp+int condivisa, ma ha una struttura SMT48.
Quindi la 4070 produce mediamente una 20ina di TF in gaming. E' un sistema diverso da AMD, non a caso la 4070 va quanto o peggio di una 7800xt che ha 20tf (il parametro di AMD). Quindi è 2x.
Per esempio, una 7900xtx si aggira sui 30-32tf. Quella è 3x la 6600 della ps5.:)
Una 3060 disintegra la PS5 di molto. La PS5 punta a stento ai 30 fps col ray tracing base, non path tracing. Una 2060 sarebbe il paragone ideale. Per farla breve, parliamo di un hardware rimasto al 2019, ovvero quando hanno progettato la console.
Si, in RT è nettamente superiore la 3060. In CB, anche la 2060 è superiore.
Escludendo il RT, la PS5 ha comunque una configurazione simil 6700 sia lato core che clock e un bus a 256bit invece che 160bit, considerando anche il diverso ambiente software con api apposite, in genere dovrebbe garantire un dettaglio grafico migliore di 6600/3060, più vicina a 3060ti/6700xt.
Con il RT ovviamente la resa é inferiore, dovremmo essere ai livelli di una 3050 più o meno, ma in genere le console usano solo alcuni effetti.
La GPU di Xbox Series X già é molto più pompata avendo 3328 unità anche se clockata più bassa.
Inviato dal mio M2012K11AG utilizzando Tapatalk
Cutter90
06-12-2023, 09:31
Escludendo il RT, la PS5 ha comunque una configurazione simil 6700 sia lato core che clock e un bus a 256bit invece che 160bit, considerando anche il diverso ambiente software con api apposite, in genere dovrebbe garantire un dettaglio grafico migliore di 6600/3060, più vicina a 3060ti/6700xt.
Con il RT ovviamente la resa é inferiore, dovremmo essere ai livelli di una 3050 più o meno, ma in genere le console usano solo alcuni effetti.
La GPU di Xbox Series X già é molto più pompata avendo 3328 unità anche se clockata più bassa.
Inviato dal mio M2012K11AG utilizzando Tapatalk
Le console, a secondo di quanto il gioco viene ben ottimizzato, dalla 2070 super alla 2080 super secondo le tantissime analisi di DF
OrazioOC
06-12-2023, 09:43
https://videocardz.com/newz/nvidia-preparing-geforce-rtx-3050-with-6gb-vram-8gb-model-to-be-phased-out
Speriamo abbia almeno 75w di tdp in modo da non aver bisogno di connettori ausiliari. :rolleyes:
marbasso
06-12-2023, 10:14
Hotfix 546.31 disponibili.
Si va be vaxxanculo a NVIDIA, ho installato ieri notte i driver e c'è già il fix. Ma manco per idea...aspetto i prox...tanto ho visto cosa correggono e non sembra interessarmi.
OrazioOC
06-12-2023, 10:32
Si va be vaxxanculo a NVIDIA, ho installato ieri notte i driver e c'è già il fix. Ma manco per idea...aspetto i prox...tanto ho visto cosa correggono e non sembra interessarmi.
Ma aggiornali che ti costa? 5 min+riavvio del pc? :asd:
Vabbe hanno bisogno della certificazione, di solito gli hotfix anticipano alcuni fix che arriveranno con la prossima release.
É da considerare come driver beta.
Inviato dal mio M2012K11AG utilizzando Tapatalk
marbasso
06-12-2023, 10:40
Ma aggiornali che ti costa? 5 min+riavvio del pc? :asd:
A meno che non ci siano bug gravi preferisco sempre mettere whql.
Poi uso sempre ddu quindi vado ben oltre i 5m.
Mi urta aver installato ieri notte e stamattina trovo l' hotfix...ma non è un problema leggendo la hotfix list.
OrazioOC
06-12-2023, 11:23
A meno che non ci siano bug gravi preferisco sempre mettere whql.
Poi uso sempre ddu quindi vado ben oltre i 5m.
Mi urta aver installato ieri notte e stamattina trovo l' hotfix...ma non è un problema leggendo la hotfix list.
La certificazione whql lascia il tempo che trova nei driver nvidia, onestamente se mi porta benefici tangibili un driver senza certificazione whql lo metto su comunque.
Tanto la certificazione whql è quasi più un tributo a microsoft per la certificazione piuttosto che un indicatore di mera stabilità di quel driver. :)
marbasso
06-12-2023, 12:17
La certificazione whql lascia il tempo che trova nei driver nvidia, onestamente se mi porta benefici tangibili un driver senza certificazione whql lo metto su comunque.
Tanto la certificazione whql è quasi più un tributo a microsoft per la certificazione piuttosto che un indicatore di mera stabilità di quel driver. :)
Spesso faccio qualche bench e se mi da un buon punteggio sai che con driver hotfix non ti viene riconosciuto?
Mi è successo una volta e son rimasto deluso, so che per molti è una cazzata però c'è chi ci tiene, alla fine anche questo è un passatempo alla pari di un game, serio!!
Ti manca la 4080 o la 4070?
Spesso faccio qualche bench e se mi da un buon punteggio sai che con driver hotfix non ti viene riconosciuto?
Mi è successo una volta e son rimasto deluso, so che per molti è una cazzata però c'è chi ci tiene, alla fine anche questo è un passatempo alla pari di un game, serio!!
Ti manca la 4080 o la 4070?Non ricordo bene, però se non sbaglio succedeva anche con il ramo vulkan:
https://developer.nvidia.com/vulkan-driver
Inviato dal mio M2012K11AG utilizzando Tapatalk
fraussantin
06-12-2023, 12:57
Spesso faccio qualche bench e se mi da un buon punteggio sai che con driver hotfix non ti viene riconosciuto?
Mi è successo una volta e son rimasto deluso, so che per molti è una cazzata però c'è chi ci tiene, alla fine anche questo è un passatempo alla pari di un game, serio!!
Ti manca la 4080 o la 4070?Si non essendo certificati potrebbero pensare che siano modificati in qualche modo per truccare il valore.
Ci sta.
Cmq se non si hanno problemi gli hotfix si possono anche evitare.
marbasso
06-12-2023, 17:21
Va che grafichina robocop:
https://i.postimg.cc/k4dhf8mQ/Screenshot-139.png
https://i.postimg.cc/qMtSBpjC/Screenshot-140.png
A meno che non ci siano bug gravi preferisco sempre mettere whql.
Poi uso sempre ddu quindi vado ben oltre i 5m.
Mi urta aver installato ieri notte e stamattina trovo l' hotfix...ma non è un problema leggendo la hotfix list.
C'è ancora la paranoia di DDU? Io non lo uso più dal 2010 credo :D
marbasso
06-12-2023, 19:22
C'è ancora la paranoia di DDU? Io non lo uso più dal 2010 credo :D
Ma no, intendevo che allunga un pò i tempi utilizzarlo.
Io lo uso solo al cambio di GPU, se no installazione pulita al cambio di major release e via.
fraussantin
06-12-2023, 19:39
Ddu solo se cambio scheda o se ci sono problemi.
Senno gfe e saluti.
Troppe paranoie.
StylezZz`
06-12-2023, 20:17
Ogni tanto provo qualche scheda video diversa (anche AMD) sulla mia config, MAI usato DDU, sempre disinstallato tutto da pannello di controllo, zero problemi. Questo tool andrebbe usato solo in casi specifici.
OrazioOC
07-12-2023, 11:06
https://videocardz.com/newz/nvidia-geforce-rtx-4090d-reportedly-has-no-oc-support-and-lower-tdp-of-425w
La riduzione del tdp di 25w fa tenerezza, ma Jensen crede che sia furbo lui o scemi gli altri? :rolleyes:
StylezZz`
07-12-2023, 11:10
Dragon? Io direi più *Dumb Edition.
mikael84
07-12-2023, 11:59
https://videocardz.com/newz/nvidia-geforce-rtx-4090d-reportedly-has-no-oc-support-and-lower-tdp-of-425w
La riduzione del tdp di 25w fa tenerezza, ma Jensen crede che sia furbo lui o scemi gli altri? :rolleyes:
Se non raggiunge i 4800TPP si può commerciare. La 4090 stock li supera appena.
Semmai, sembra una legge all'italiana. Già una eventuale 14848cc si fermerebbe a 4700.
fraussantin
07-12-2023, 13:18
https://videocardz.com/newz/nvidia-geforce-rtx-4090d-reportedly-has-no-oc-support-and-lower-tdp-of-425w
La riduzione del tdp di 25w fa tenerezza, ma Jensen crede che sia furbo lui o scemi gli altri? :rolleyes:Sta semplicemente sfidando il governo americano.
Se le sommi alle dichiarazioni dei giorni scorsi con " siamo un azienda che ha come obbiettivo fare affari " secondo me ci sarà da ridere.
Se Biden gli spara un bel ban totale all'esport in asia inizio a ridere oggi e finisco tra un anno.
Cutter90
07-12-2023, 13:25
Sta semplicemente sfidando il governo americano.
Se le sommi alle dichiarazioni dei giorni scorsi con " siamo un azienda che ha come obbiettivo fare affari " secondo me ci sarà da ridere.
Se Biden gli spara un bel ban totale all'esport in asia inizio a ridere oggi e finisco tra un anno.
Tra l'altro stiamo assistendo al paradosso del sistema occidentale. Libertà totale... poi però a chi vendi lo decido io Stato se mi gira. In sostanza niente di diverso da quello che sono paesi ben più "dittatoriali"
fraussantin
07-12-2023, 13:46
Tra l'altro stiamo assistendo al paradosso del sistema occidentale. Libertà totale... poi però a chi vendi lo decido io Stato se mi gira. In sostanza niente di diverso da quello che sono paesi ben più "dittatoriali"Ma guarda lungi da me difendere lo stato americano che mi fa ca@re a prescindere.
Se ritengono un pericolo per la sicurezza il progresso tecnologico ( o quanto meno la velocità con il quale si evolve) di uno stato nemico , come azienda americana dovrebbe quanto meno mettere da parte il portafogli e seguire il suo stato.
Poi se l'ia sarà una bolla o sarà il futuro non sta jh deciderlo.
Ma quanto meno ha il dovere morale di fare l'interesse del suo stato.
Poi per carità parliamo di uno stato dove aziende che producono armi le vendono a mezzo mondo , quindi anche stati nemici , quindi ... Però il fatto che ci sono "peggiori" non rende jhh "buono".
mikael84
07-12-2023, 13:56
Sta semplicemente sfidando il governo americano.
Se le sommi alle dichiarazioni dei giorni scorsi con " siamo un azienda che ha come obbiettivo fare affari " secondo me ci sarà da ridere.
Se Biden gli spara un bel ban totale all'esport in asia inizio a ridere oggi e finisco tra un anno.
In parte si, ma il ban doveva essere riservato a tutto AD102, invece hanno messo un limite un pelo sotto la 4090, e lui può tranquillamente commercializzare una versione che rispecchi i requisiti.
Tralasciando che i requisiti vengono tarati sul boost base, che è già una fesseria.
Io la reputo la classica legge all'italiana.
fraussantin
07-12-2023, 14:01
In parte si, ma il ban doveva essere riservato a tutto AD102, invece hanno messo un limite un pelo sotto la 4090, e lui può tranquillamente commercializzare una versione che rispecchi i requisiti.
Tralasciando che i requisiti vengono tarati sul boost base, che è già una fesseria.
Io la reputo la classica legge all'italiana.
Si si , quello si , hanno messo un metro di limite , senza misurare i bene i chip.
Ma prob chi ha fatto la legge manco ci capisce di ste cose.
In parte si, ma il ban doveva essere riservato a tutto AD102, invece hanno messo un limite un pelo sotto la 4090, e lui può tranquillamente commercializzare una versione che rispecchi i requisiti.
Tralasciando che i requisiti vengono tarati sul boost base, che è già una fesseria.
Io la reputo la classica legge all'italiana.
e fa benissimo
Cutter90
07-12-2023, 14:28
Ma guarda lungi da me difendere lo stato americano che mi fa ca@re a prescindere.
Se ritengono un pericolo per la sicurezza il progresso tecnologico ( o quanto meno la velocità con il quale si evolve) di uno stato nemico , come azienda americana dovrebbe quanto meno mettere da parte il portafogli e seguire il suo stato.
Poi se l'ia sarà una bolla o sarà il futuro non sta jh deciderlo.
Ma quanto meno ha il dovere morale di fare l'interesse del suo stato.
Poi per carità parliamo di uno stato dove aziende che producono armi le vendono a mezzo mondo , quindi anche stati nemici , quindi ... Però il fatto che ci sono "peggiori" non rende jhh "buono".
Eh ma come puoi fare il tuo interesse solo quando ti fa comodo? Questo è il punto. GLI USA hanno il debito pagato dalla Cina. Poi però non vendono le cose alla Cina. E' l'incoerenza più incredibile di sempre
OrazioOC
07-12-2023, 18:32
In parte si, ma il ban doveva essere riservato a tutto AD102, invece hanno messo un limite un pelo sotto la 4090, e lui può tranquillamente commercializzare una versione che rispecchi i requisiti.
Tralasciando che i requisiti vengono tarati sul boost base, che è già una fesseria.
Io la reputo la classica legge all'italiana.
Mi unisco al coro, ad102 va' semplicemente bannato, anche perchè ora pure le rtx da lavoro hanno un'altra sku fantasma. :rolleyes:
https://videocardz.com/newz/nvidia-rtx-5880-ada-workstation-gpu-spotted-new-sku-for-china
marbasso
07-12-2023, 18:33
In parte si, ma il ban doveva essere riservato a tutto AD102, invece hanno messo un limite un pelo sotto la 4090, e lui può tranquillamente commercializzare una versione che rispecchi i requisiti.
Tralasciando che i requisiti vengono tarati sul boost base, che è già una fesseria.
Io la reputo la classica legge all'italiana.
Dovrà pur mangiare :D
https://videocardz.com/newz/nvidia-preparing-geforce-rtx-3050-with-6gb-vram-8gb-model-to-be-phased-out
Speriamo abbia almeno 75w di tdp in modo da non aver bisogno di connettori ausiliari. :rolleyes:
Il leak è comunque impreciso. Se il chip è lo stesso della nuova 3050 Mobile 6 GB allora usa tutti i 2560 cores di GA107, non 2048
I cinesi hanno basato il leak sulla vecchia versione della 3050 Mobile, quella da 4 GB.
C'è stato appunto un refresh recente perfettamente in linea con questa nuova versione desktop (6 GB, 96-bit, 168 GB/s di larghezza di banda di memoria)
Se tagliassero (inutilmente) anche i CUDA Cores diventerebbe una 3040 di fatto
OrazioOC
07-12-2023, 18:59
Il leak è comunque impreciso. Se il chip è lo stesso della nuova 3050 Mobile 6 GB allora usa tutti i 2560 cores di GA107, non 2048
I cinesi hanno basato il leak sulla vecchia versione della 3050 Mobile, quella da 4 GB.
C'è stato appunto un refresh recente perfettamente in linea con questa nuova versione desktop (6 GB, 96-bit, 168 GB/s di larghezza di banda di memoria)
Se tagliassero (inutilmente) anche i CUDA Cores diventerebbe una 3040 di fatto
Infatti de facto anche solo con la riduzione del bus a 96 bit perderebbe quasi 60 gb/s nella bandwith e questo inciderebbe già di suo di un buon 15% di performance (basta vedere quanto perde la 3060 8gb vs 12gb a parità di clock e cuda cores).
Questa comunque è una scheda che esce per togliere di mezzo definitivamente turing che ancora vendicchia con la gtx 1630/50, ma sono schede anacronistiche(la 1650 è in giro da maggio 2019), senza raytracing, con poca vram, senza dlss ecc...
Almeno sta 3050 6gb se la piazzassero a 160 euro spedita sarebbe un upgrade netto rispetto a loro, anche se mi aspetto performance raster da 1660 liscia(la 3050 8gb in raster performa come una 1660 ti/super, neanche arriva alla 2060 6gb).
Chiaro che se costasse 200 euro addios, a 220 spedita ci trovi la rx 6600 che porta in dote il 90% delle performance raster della 3060 12gb, quindi ben più performante sia della 3050 6gb che 8gb. :rolleyes:
Infatti de facto anche solo con la riduzione del bus a 96 bit perderebbe quasi 60 gb/s nella bandwith e questo inciderebbe già di suo di un buon 15% di performance (basta vedere quanto perde la 3060 8gb vs 12gb a parità di clock e cuda cores).
Questa comunque è una scheda che esce per togliere di mezzo definitivamente turing che ancora vendicchia con la gtx 1630/50, ma sono schede anacronistiche(la 1650 è in giro da maggio 2019), senza raytracing, con poca vram, senza dlss ecc...
Almeno sta 3050 6gb se la piazzassero a 160 euro spedita sarebbe un upgrade netto rispetto a loro, anche se mi aspetto performance raster da 1660 liscia(la 3050 8gb in raster performa come una 1660 ti/super, neanche arriva alla 2060 6gb).
Chiaro che se costasse 200 euro addios, a 220 spedita ci trovi la rx 6600 che porta in dote il 90% delle performance raster della 3060 12gb, quindi ben più performante sia della 3050 6gb che 8gb. :rolleyes:
A me serve una scheda che non abbia bisogno di alimentazione per il mio vetusto PC che uso per lavorare con i video e un gaming proprio basilare...
Se questa davvero consuma 70W sarebbe comunque un upgrade clamoroso rispetto alla mia attuale 1050 Ti che ormai ha 6 anni....
OrazioOC
07-12-2023, 19:59
A me serve una scheda che non abbia bisogno di alimentazione per il mio vetusto PC che uso per lavorare con i video e un gaming proprio basilare...
Se questa davvero consuma 70W sarebbe comunque un upgrade clamoroso rispetto alla mia attuale 1050 Ti che ormai ha 6 anni....
Ti direi di si, nel senso che oltre a costar meno della 3050 8gb, questa versione da 6gb dovrebbe pure consumare meno.
L'alternativa senza connettore ausiliario è la gtx 1650 ma è comunque un po' poco rispetto alla tua, oppure tocca guardare l'rtx a2000, ma a volte chiedono più di 400 euro. :rolleyes:
Quindi si, nel tuo caso aspetta questa a gennaio. :)
Ti direi di si, nel senso che oltre a costar meno della 3050 8gb, questa versione da 6gb dovrebbe pure consumare meno.
L'alternativa senza connettore ausiliario è la gtx 1650 ma è comunque un po' poco rispetto alla tua, oppure tocca guardare l'rtx a2000, ma a volte chiedono più di 400 euro. :rolleyes:
Quindi si, nel tuo caso aspetta questa a gennaio. :)
Ho guardato l'A2000 per mesi ma oltre al prezzo spesso esagerato, si trovano quasi solo usate (e non mi fido).
In più essendo particolarmente "spinta" ho letto più volte in giro che è particolarmente rumorosa rispetto a una scheda consumer.
La 1650 non l'ho mai presa in considerazione perché la differenza di performance rispetto alla 1050 Ti era troppo poca...
OrazioOC
07-12-2023, 20:21
Ho guardato l'A2000 per mesi ma oltre al prezzo spesso esagerato, si trovano quasi solo usate (e non mi fido).
In più essendo particolarmente "spinta" ho letto più volte in giro che è particolarmente rumorosa rispetto a una scheda consumer.
La 1650 non l'ho mai presa in considerazione perché la differenza di performance rispetto alla 1050 Ti era troppo poca...
Una alternativa potrebbe essere prendere l'rtx 3050 con ad107(le riconosci perchè hanno il connettore 6 pin) e darci un po' giù di undervolt(recuperi tranquillamente 30w e partendo da 115w max di tdp arriveresti sugli 80w circa a pieno carico).
Non sarebbe male, ma comunque sempre di un 6 pin avrai bisogno.
Una alternativa potrebbe essere prendere l'rtx 3050 con ad107(le riconosci perchè hanno il connettore 6 pin) e darci un po' giù di undervolt(recuperi tranquillamente 30w e partendo da 115w max di tdp arriveresti sugli 80w circa a pieno carico).
Non sarebbe male, ma comunque sempre di un 6 pin avrai bisogno.
Grazie del suggerimento! ;)
Iceman69
08-12-2023, 13:49
Eh ma come puoi fare il tuo interesse solo quando ti fa comodo? Questo è il punto. GLI USA hanno il debito pagato dalla Cina. Poi però non vendono le cose alla Cina. E' l'incoerenza più incredibile di sempre
Sì, ma mica perché sono dei buoni samaritani, i cinesi hanno comprato i titoli americani per tenere la loro valuta sottovalutata rispetto al dollaro e vendere più prodotti, una sorta di dumping di stato. Se li vendono il renminbi si rivaluta e i loro prodotti costano il doppio e col cavolo e continuano a vendere come prima.
fraussantin
08-12-2023, 14:11
Eh ma come puoi fare il tuo interesse solo quando ti fa comodo? Questo è il punto. GLI USA hanno il debito pagato dalla Cina. Poi però non vendono le cose alla Cina. E' l'incoerenza più incredibile di sempreGli usa e la cina sono avversari politici e economici , anche se inevitabilmente collaborano e hanno interesse a mantenere attivi scambi economici fra loro.
Lo scopo della politica è mantenere questo equilibrio a loro favore.
mikael84
08-12-2023, 17:26
Si si , quello si , hanno messo un metro di limite , senza misurare i bene i chip.
Ma prob chi ha fatto la legge manco ci capisce di ste cose.
Beh non penso, anzi, sembra l'opposto, ovvero far credere di mettere i blocchi e restrizioni, quando in realtà non ci sono, visto che il limite è pelo sotto la 4090, tra l'altro valore ricavato via base boost, che è il valore primario.
Mi unisco al coro, ad102 va' semplicemente bannato, anche perchè ora pure le rtx da lavoro hanno un'altra sku fantasma. :rolleyes:
https://videocardz.com/newz/nvidia-rtx-5880-ada-workstation-gpu-spotted-new-sku-for-china
Si, ma è dall'inizio che vado a dire che è una legge all'italiana. Metti un limite (o fai finta di volerlo mettere) a pelo sulla 4090. E' naturale che JHH, cerchi tutte le scorciatoie, con AD102, leggermente modificato per rientrare.
Tradotto, è quasi tutta fuffa.
Ora JHH, inevitabilmente produrrà meno 4090, visto che molti chip del wafer dovrà rivederli per queste soluzioni.
Dovrà pur mangiare :D
Esattamente:p
e fa benissimo
Molto benissimo :D
OrazioOC
09-12-2023, 13:02
Infatti de facto anche solo con la riduzione del bus a 96 bit perderebbe quasi 60 gb/s nella bandwith e questo inciderebbe già di suo di un buon 15% di performance (basta vedere quanto perde la 3060 8gb vs 12gb a parità di clock e cuda cores).
Questa comunque è una scheda che esce per togliere di mezzo definitivamente turing che ancora vendicchia con la gtx 1630/50, ma sono schede anacronistiche(la 1650 è in giro da maggio 2019), senza raytracing, con poca vram, senza dlss ecc...
Almeno sta 3050 6gb se la piazzassero a 160 euro spedita sarebbe un upgrade netto rispetto a loro, anche se mi aspetto performance raster da 1660 liscia(la 3050 8gb in raster performa come una 1660 ti/super, neanche arriva alla 2060 6gb).
Chiaro che se costasse 200 euro addios, a 220 spedita ci trovi la rx 6600 che porta in dote il 90% delle performance raster della 3060 12gb, quindi ben più performante sia della 3050 6gb che 8gb. :rolleyes:
https://videocardz.com/newz/rumored-geforce-rtx-3050-6gb-to-target-179-189-usd-price-point
Qui è facile che siano 190/200 euro per avere una simil 1660 6gb gddr5...
A me non convince al 100% questo avatar a livello tecnico, buono ma non da strapparsi i capelli.
Il Rt da quello che ho potuto provare a livello di riflessi è un placebo, non appena la geometria esce fuori dall'inquadratura il riflesso sparisce, quindi parliamo di screen space reflection.
Almeno l'ssr dovrebbe usare tutta la scena, e non dei soggetti prerenderizzati con meno dettagli come sembrerebbe con l'RT vero in Deliver Us Mars, dove il riflesso della povera Katie ha un taglio di capelli differente :D
https://i.postimg.cc/p9yW9vJH/Deliver-Us-Mars-Win64-Shipping-2023-12-09-14-43-48-889.jpg (https://postimg.cc/p9yW9vJH)
mikael84
09-12-2023, 15:20
A me non convince al 100% questo avatar a livello tecnico, buono ma non da strapparsi i capelli.
Il Rt da quello che ho potuto provare a livello di riflessi è un placebo, non appena la geometria esce fuori dall'inquadratura il riflesso sparisce, quindi parliamo di screen space reflection.
Sulle ombre e sulla GI pare buono, ma non ai livelli dei più evoluti.
L' acqua non mi piace sia per quanto riguarda la fisica, sia per la risoluzione/dettaglio della stessa.
La vegetazione è buona, dinamica molto viva , nel complesso si vede bene, ma se si scende nei particolari l'erba e il fogliame ha un effetto "posterizzato"
In 4k più upscaler si vede bene, ma già in qhd su di un 27" si perde parecchio, quindi meglio giocarlo in 4k Upscaler ultra quality 77%/Quality 66%+FG
Inoltre lo trovo inoltre ingiustificatamente pesante, i 60fps in 4k con una 4090 (al netto di fg e upscaler)
https://www.techpowerup.com/review/avatar-fop-performance-benchmark/5.html
Comunque scala bene, tra 4080 e 4090 si arriva al +35% in 4k, tra 4080 e 3080 ci passa +65% in qhd di perf grezze senza fg, anche su cbase.
https://www.computerbase.de/2023-12/avatar-frontiers-of-pandora-benchmark-test/3/
Anche qui la 4090 è su un altro livello rispetto alla 7900xtx, con frame gen e fsr +50% qhd e +66% in 4k.
https://www.pcgameshardware.de/Avatar-Frontiers-of-Pandora-Spiel-73347/Specials/Avatar-Frontiers-of-Pandora-Snowdrop-Tech-Benchmarks-Test-1435474/3/
Alcune limitazioni ci sono, quella che descrivi tu, è una sorta di culling, in quanto AMD non riesce a gestirlo bene, ed è ottimizzato per lei.
In compenso l'impatto visivo, io lo trovo straordinario, renderizza davvero tanto a schermo. Con un Oled dev'essere straordinario.
FG invece buono, ma bisogna campionare il FSR per avere frame molto alti. Dal 2.2 in poi è migliorato molto.
Per il momento ho fatto una prova blanda e l'impatto al momento c'è.
https://videocardz.com/newz/rumored-geforce-rtx-3050-6gb-to-target-179-189-usd-price-point
Qui è facile che siano 190/200 euro per avere una simil 1660 6gb gddr5...
Sono 768 thread, gli stessi della 1660ti, ma ovviamente è tagliata dalla banda, dalle rop's e dalla geometria.
OrazioOC
09-12-2023, 15:25
Sono 768 thread, gli stessi della 1660ti, ma ovviamente è tagliata dalla banda, dalle rop's e dalla geometria.
Ergo inizio a pensare che viaggi pure di meno della mia vecchia 1660 6gb gddr5 del 2019. :rolleyes:
La salva il dlss e il fatto che non richiederà connettori ausiliari, ma tolto quello che miseria di scheda...:doh:
mikael84
09-12-2023, 15:39
Ergo inizio a pensare che viaggi pure di meno della mia vecchia 1660 6gb gddr5 del 2019. :rolleyes:
La salva il dlss e il fatto che non richiederà connettori ausiliari, ma tolto quello che miseria di scheda...:doh:
Dipende dalle memorie che metteranno, se mettono le 18, vai a 216, ma se mettono memorie vecchie, relative a quella serie, le perf, saranno più da 1650 super o a cavallo.
Al momento, con le 16 gb/s, si ritroverebbe la stessa banda della 1660 g5, ma a livello di stadi moltiplicatori è identica alla 1650 super. L'unica differenza qualche thread in favore alla 3050 6gb.
amon.akira
09-12-2023, 16:08
Almeno l'ssr dovrebbe usare tutta la scena, e non dei soggetti prerenderizzati con meno dettagli come sembrerebbe con l'RT vero in Deliver Us Mars, dove il riflesso della povera Katie ha un taglio di capelli differente :D
https://i.postimg.cc/p9yW9vJH/Deliver-Us-Mars-Win64-Shipping-2023-12-09-14-43-48-889.jpg (https://postimg.cc/p9yW9vJH)
metti grooms su no
A me non convince al 100% questo avatar a livello tecnico, buono ma non da strapparsi i capelli.
Il Rt da quello che ho potuto provare a livello di riflessi è un placebo, non appena la geometria esce fuori dall'inquadratura il riflesso sparisce, quindi parliamo di screen space reflection.
Sulle ombre e sulla GI pare buono, ma non ai livelli dei più evoluti.
L' acqua non mi piace sia per quanto riguarda la fisica, sia per la risoluzione/dettaglio della stessa.
La vegetazione è buona, dinamica molto viva , nel complesso si vede bene, ma se si scende nei particolari l'erba e il fogliame ha un effetto "posterizzato"
In 4k più upscaler si vede bene, ma già in qhd su di un 27" si perde parecchio, quindi meglio giocarlo in 4k Upscaler ultra quality 77%/Quality 66%+FG
Inoltre lo trovo inoltre ingiustificatamente pesante, i 60fps in 4k con una 4090 (al netto di fg e upscaler)
https://www.techpowerup.com/review/avatar-fop-performance-benchmark/5.html
Comunque scala bene, tra 4080 e 4090 si arriva al +35% in 4k, tra 4080 e 3080 ci passa +65% in qhd di perf grezze senza fg, anche su cbase.
https://www.computerbase.de/2023-12/avatar-frontiers-of-pandora-benchmark-test/3/
Anche qui la 4090 è su un altro livello rispetto alla 7900xtx, con frame gen e fsr +50% qhd e +66% in 4k.
https://www.pcgameshardware.de/Avatar-Frontiers-of-Pandora-Spiel-73347/Specials/Avatar-Frontiers-of-Pandora-Snowdrop-Tech-Benchmarks-Test-1435474/3/
un gioco amd dove le amd fanno cagare?
Cutter90
09-12-2023, 17:04
A me non convince al 100% questo avatar a livello tecnico, buono ma non da strapparsi i capelli.
Il Rt da quello che ho potuto provare a livello di riflessi è un placebo, non appena la geometria esce fuori dall'inquadratura il riflesso sparisce, quindi parliamo di screen space reflection.
Sulle ombre e sulla GI pare buono, ma non ai livelli dei più evoluti.
L' acqua non mi piace sia per quanto riguarda la fisica, sia per la risoluzione/dettaglio della stessa.
La vegetazione è buona, dinamica molto viva , nel complesso si vede bene, ma se si scende nei particolari l'erba e il fogliame ha un effetto "posterizzato"
In 4k più upscaler si vede bene, ma già in qhd su di un 27" si perde parecchio, quindi meglio giocarlo in 4k Upscaler ultra quality 77%/Quality 66%+FG
Inoltre lo trovo inoltre ingiustificatamente pesante, i 60fps in 4k con una 4090 (al netto di fg e upscaler)
https://www.techpowerup.com/review/avatar-fop-performance-benchmark/5.html
Comunque scala bene, tra 4080 e 4090 si arriva al +35% in 4k, tra 4080 e 3080 ci passa +65% in qhd di perf grezze senza fg, anche su cbase.
https://www.computerbase.de/2023-12/avatar-frontiers-of-pandora-benchmark-test/3/
Anche qui la 4090 è su un altro livello rispetto alla 7900xtx, con frame gen e fsr +50% qhd e +66% in 4k.
https://www.pcgameshardware.de/Avatar-Frontiers-of-Pandora-Spiel-73347/Specials/Avatar-Frontiers-of-Pandora-Snowdrop-Tech-Benchmarks-Test-1435474/3/
L'analisi di DF parla di un grandissimo gioco livello tecnico e da quello che vedo è così. LA RTGI è tanta roba e sono pochi i giochi in cui la si usa ovunque. Hanno "risparmiato" sui riflessi che in RT non sono completi come appunto hai detto giustamente tu.
Certo è che a dettaglio massimo parliamo di 60 fps in 4k con FG attivo per la 4090 e 45 fps con 7900 xtx.
Metto sotto altro intanto che con qualche patch me lo portano un po' più su. Ma semnbra meritare molto.
metti grooms su no
Così funziona, grazie per il suggerimento ;)
Ergo inizio a pensare che viaggi pure di meno della mia vecchia 1660 6gb gddr5 del 2019. :rolleyes:
La salva il dlss e il fatto che non richiederà connettori ausiliari, ma tolto quello che miseria di scheda...:doh:
Ripeto, il leak non è proprio precisissimo...
Qui a destra ci sono le specifiche della versione "Mobile", non vedo perché la versione desktop dovrebbe essere diversa, se non per il fatto che ovviamente il clock sarà limitato a 1470 Mhz per limitare i consumi a 70W contro i 95W di questa per laptop (che pare arrivi a 1950 Mhz)
https://i.ibb.co/6gB4Bzs/RTX-3050-6-GB-Laptop.jpg
mikael84
09-12-2023, 20:49
L'analisi di DF parla di un grandissimo gioco livello tecnico e da quello che vedo è così. LA RTGI è tanta roba e sono pochi i giochi in cui la si usa ovunque. Hanno "risparmiato" sui riflessi che in RT non sono completi come appunto hai detto giustamente tu.
Certo è che a dettaglio massimo parliamo di 60 fps in 4k con FG attivo per la 4090 e 45 fps con 7900 xtx.
Metto sotto altro intanto che con qualche patch me lo portano un po' più su. Ma semnbra meritare molto.
Questo gioco ha una modalità da abilitare, un ultra setting che pare mandare in crisi una 4090 a 60fps, in 4k performance 1080p.
"The Unobtanium graphics settings, which can be unlocked by entering "-unlockmaxsettings" in the Add Launch Arguments menu in the Ubisoft Connect client, push the settings beyond ultra, with better quality ray tracing, shadow and reflection resolution, and more. These settings are so demanding that even an RTX 4090 GPU barely manages to run the game at slightly above 60 frames per second at 4K with DLSS Performance Mode, which upscales the image from 1080p resolution, as showcased in a new video shared by Compusemble."
https://wccftech.com/avatar-frontiers-of-pandora-unobtainium-settings-rtx-4090-knees/
https://www.youtube.com/watch?v=jUDUgkhhjLg&ab_channel=Compusemble
Cutter90
09-12-2023, 22:12
Questo gioco ha una modalità da abilitare, un ultra setting che pare mandare in crisi una 4090 a 60fps, in 4k performance 1080p.
"The Unobtanium graphics settings, which can be unlocked by entering "-unlockmaxsettings" in the Add Launch Arguments menu in the Ubisoft Connect client, push the settings beyond ultra, with better quality ray tracing, shadow and reflection resolution, and more. These settings are so demanding that even an RTX 4090 GPU barely manages to run the game at slightly above 60 frames per second at 4K with DLSS Performance Mode, which upscales the image from 1080p resolution, as showcased in a new video shared by Compusemble."
https://wccftech.com/avatar-frontiers-of-pandora-unobtainium-settings-rtx-4090-knees/
https://www.youtube.com/watch?v=jUDUgkhhjLg&ab_channel=Compusemble
Si si Esatto. Intendevo proprio usando quella
OrazioOC
10-12-2023, 08:36
Ripeto, il leak non è proprio precisissimo...
Qui a destra ci sono le specifiche della versione "Mobile", non vedo perché la versione desktop dovrebbe essere diversa, se non per il fatto che ovviamente il clock sarà limitato a 1470 Mhz per limitare i consumi a 70W contro i 95W di questa per laptop (che pare arrivi a 1950 Mhz)
Loro partono dal presupposto che sia una rtx 3050 mobile max Q che però porta in dote 96 bit di bus al posto di 64 bit.
https://www.techpowerup.com/gpu-specs/geforce-rtx-3050-max-q.c3972
Sul bus sono ormai tutti sicuri che sia 96 bit(ga107 non consente di andare oltre i 128 bit di bus, a meno che non si riutilizzi ga106 ma è piuttosto improbabile).
Il dubbio sta sul numero di cc/smt, 2048/16 smt o 2560/20 smt, anche io propenderei perchè ne abbia 2560 cc, anche perchè non sarebbe una 3050 ma una 3040 se ne avesse 2048/16 smt.:rolleyes:
Comunque a prescindere, il prezzo è alto, 179 dollari qui diventano 190/200 euro, le rtx 3050 8gb più basiche tipo le monofan palit/gainward le trovi a 220 euro spedite e vanno meglio in tutto, idem le rx 6600.
Consumano di più, ma con un po' di undervolt neanche così tanto e hanno più performance/vram. :O
fraussantin
10-12-2023, 09:35
https://videocardz.com/newz/maxsun-launches-geforce-rtx-4070-with-five-fans?fbclid=IwAR2NRrz-aaFJq66yIB43icUmWCf7QKgfYX87DNqLxoNYvGYJAX4aObQqwFI
Ogni tanto esce fuori qualche cinesata senza senso :asd:
Ma poi perche su una 4070?
Avrei capito una 4090
OrazioOC
10-12-2023, 09:48
https://videocardz.com/newz/maxsun-launches-geforce-rtx-4070-with-five-fans?fbclid=IwAR2NRrz-aaFJq66yIB43icUmWCf7QKgfYX87DNqLxoNYvGYJAX4aObQqwFI
Ogni tanto esce fuori qualche cinesata senza senso :asd:
Ma poi perche su una 4070?
Avrei capito una 4090
Ormai ste schede hanno più ventole che gb di vram, ma va' bene così. :asd:
ColdWarGuy
10-12-2023, 11:28
Alcune limitazioni ci sono, quella che descrivi tu, è una sorta di culling, in quanto AMD non riesce a gestirlo bene, ed è ottimizzato per lei.
In compenso l'impatto visivo, io lo trovo straordinario, renderizza davvero tanto a schermo. Con un Oled dev'essere straordinario.
Ti basi sui video di YT o l'hai visto "dal vero" ?
Io sono prevenuto riguardo al franchising, che considero "per bambini", di primo acchito sembra l'avventura dei puffi nella foresta da un miliardo di foglie, pesante sotto ogni punto di vista, a partire dal portafoglio.
Personalmente non mi "attizza", lo vedo come un techdemo da 100 euro e visto il sistem DRM che c'è dietro tale rimarrà per sempre.
Comunque si conferma che i 16GB sono ormai un must :
https://tpucdn.com/review/avatar-fop-performance-benchmark/images/vram.png
fraussantin
10-12-2023, 12:05
Ti basi sui video di YT o l'hai visto "dal vero" ?
Io sono prevenuto riguardo al franchising, che considero "per bambini", di primo acchito sembra l'avventura dei puffi nella foresta da un miliardo di foglie, pesante sotto ogni punto di vista, a partire dal portafoglio.
Personalmente non mi "attizza", lo vedo come un techdemo da 100 euro e visto il sistem DRM che c'è dietro tale rimarrà per sempre.
Comunque si conferma che i 16GB sono ormai un must :
https://tpucdn.com/review/avatar-fop-performance-benchmark/images/vram.pngInzeppare texture a caso è l'unica cosa che puo fare amd per limitare alcune schede verdi .
Se alla prossima gen nvidia dovesse adottare x2 Vram su tutta la fascia che si inventa?
mikael84
10-12-2023, 12:06
Loro partono dal presupposto che sia una rtx 3050 mobile max Q che però porta in dote 96 bit di bus al posto di 64 bit.
https://www.techpowerup.com/gpu-specs/geforce-rtx-3050-max-q.c3972
Sul bus sono ormai tutti sicuri che sia 96 bit(ga107 non consente di andare oltre i 128 bit di bus, a meno che non si riutilizzi ga106 ma è piuttosto improbabile).
Il dubbio sta sul numero di cc/smt, 2048/16 smt o 2560/20 smt, anche io propenderei perchè ne abbia 2560 cc, anche perchè non sarebbe una 3050 ma una 3040 se ne avesse 2048/16 smt.:rolleyes:
Pignoleria ON:
SM o SMs (Streaming Multiprocessors).:p
Ti basi sui video di YT o l'hai visto "dal vero" ?
Io sono prevenuto riguardo al franchising, che considero "per bambini", di primo acchito sembra l'avventura dei puffi nella foresta da un miliardo di foglie, pesante sotto ogni punto di vista, a partire dal portafoglio.
Personalmente non mi "attizza", lo vedo come un techdemo da 100 euro e visto il sistem DRM che c'è dietro tale rimarrà per sempre.
Comunque si conferma che i 16GB sono ormai un must :
Ce l'ho io. Più che il gioco in se, mi interessava l'impatto grafico e il FG.:)
Cutter90
10-12-2023, 12:15
Ti basi sui video di YT o l'hai visto "dal vero" ?
Io sono prevenuto riguardo al franchising, che considero "per bambini", di primo acchito sembra l'avventura dei puffi nella foresta da un miliardo di foglie, pesante sotto ogni punto di vista, a partire dal portafoglio.
Personalmente non mi "attizza", lo vedo come un techdemo da 100 euro e visto il sistem DRM che c'è dietro tale rimarrà per sempre.
Comunque si conferma che i 16GB sono ormai un must :
https://tpucdn.com/review/avatar-fop-performance-benchmark/images/vram.png
Costa come un gioco normale... qual è il problema?
Techdemo anche no c'è tantissimo da giocare.
Ancora con sta storia della vram. In 4k dlss quality fa 30-40 fps una 3070 da 8 gb....
Dall analisi di tecnopowerup la 3070 da 8 gb va come una 2080 ti da 11 gb in 1440p, quindi nessun problema con la Vram ancora una volta.
La 4070 ti dà 12 gb va quasi come un 7900 xtx da 20 gb. Quindi la vram in questo gioco già ora al d1 non è un problema.
ColdWarGuy
10-12-2023, 13:00
Costa come un gioco normale... qual è il problema?
Techdemo anche no c'è tantissimo da giocare.
Ancora con sta storia della vram. In 4k dlss quality fa 30-40 fps una 3070 da 8 gb....
Dall analisi di tecnopowerup la 3070 da 8 gb va come una 2080 ti da 11 gb in 1440p, quindi nessun problema con la Vram ancora una volta.
La 4070 ti dà 12 gb va quasi come un 7900 xtx da 20 gb. Quindi la vram in questo gioco già ora al d1 non è un problema.
https://i.postimg.cc/rmV7KKcL/puffi.png
Riguardo alla VRAM, non guardare solo gli FPS medi, considera che se non hai margine ai cambi di scena il gioco stuttera non poco, ma visto che hai la 4090 posso anche capire che tu non lo sappia.
ColdWarGuy
10-12-2023, 13:01
Ce l'ho io. Più che il gioco in se, mi interessava l'impatto grafico e il FG.:)
Ah, ecco :D
ColdWarGuy
10-12-2023, 13:07
Senza upscaling in 4K la 4090 = 53.5 FPS, la 7900 XTX = 34 FPS, lasciamo stare il resto, spero non faccia "tendenza" ...
https://tpucdn.com/review/avatar-fop-performance-benchmark/images/min-fps-3840-2160.png
OrazioOC
10-12-2023, 13:14
Senza upscaling in 4K la 4090 = 53.5 FPS, la 7900 XTX = 34 FPS, lasciamo stare il resto, spero non faccia "tendenza" ...
Giochi che sono sempre più techdemo per far contenti chi ha 2k di gpu nel case. :rolleyes:
Neanche AW2 mi sta soddisfando troppo in termini di rese, bella grafica ma a 1080p senza dlss/fsr on in fhd non basta una scheda da 350 euro come la 3060 ti per maxarlo con un avg di 60 fps...
Cutter90
10-12-2023, 13:20
https://i.postimg.cc/rmV7KKcL/puffi.png
Riguardo alla VRAM, non guardare solo gli FPS medi, considera che se non hai margine ai cambi di scena il gioco stuttera non poco, ma visto che hai la 4090 posso anche capire che tu non lo sappia.
Ma sei serio? Quella è la ultimate edition. L edizione normale costa come tutte le altre. Ma lol.
Si, oltre ai medi ho visto amche video su tubo e gira come sui medi. Stutter non ne ho visti.
Non è che se ho la 4090 non mi informo eh :)
amon.akira
10-12-2023, 13:31
perchè compri 2volte il season pass? la ultimate già ha tutto e di piu, dovresti fare liscia+season
ColdWarGuy
10-12-2023, 14:00
perchè compri 2volte il season pass? la ultimate già ha tutto e di piu, dovresti fare liscia+season
Guarda che non compro nulla :D, il carrello si presenta così come lo vedi appena clicchi sul link dell'oste :
https://store.ubisoft.com/it/cart?ucid=UWB-ID_151373
fraussantin
10-12-2023, 14:19
Guarda che non compro nulla :D, il carrello si presenta così come lo vedi appena clicchi sul link dell'oste :
https://store.ubisoft.com/it/cart?ucid=UWB-ID_151373https://i.postimg.cc/tsF5PgWY/Screenshot-2023-12-10-15-18-07-66-40deb401b9ffe8e1df2f1cc5ba480b12.jpg (https://postimg.cc/tsF5PgWY)
Non vi fate fregare dall'oste
Cmq a sto giro conviene il plus e via davvero.
Cazz pagate sti soldi per sta roba.
ColdWarGuy
10-12-2023, 14:48
-snip
Cmq a sto giro conviene il plus e via davvero.
Cazz pagate sti soldi per sta roba.
Intendi "Ubisoft+" ?
amon.akira
10-12-2023, 14:57
Guarda che non compro nulla :D, il carrello si presenta così come lo vedi appena clicchi sul link dell'oste :
https://store.ubisoft.com/it/cart?ucid=UWB-ID_151373
a me va bene, se metto solo la ultimate trovo solo quella nel carrello, ovviamente l errore è che ti fa mettere cose che non dovrebbero, tipo puoi comprare la ultimate+gold+liscia, mentre steam di blocca se fai cosi.
fraussantin
10-12-2023, 15:33
Intendi "Ubisoft+" ?Si quello
ColdWarGuy
10-12-2023, 15:43
a me va bene, se metto solo la ultimate trovo solo quella nel carrello, ovviamente l errore è che ti fa mettere cose che non dovrebbero, tipo puoi comprare la ultimate+gold+liscia, mentre steam di blocca se fai cosi.
Boh, io ho seguito un percorso differente e mi sono ritrovato con lo screen che ho postato, meglio così comunque.
@Mikael : sta i vedendo il game con l'account Ubisoft+ ?
A me non sembra proprio abbiano fatto un gioco pro-AMD nonostante sia sponsorizzato, ne nei medi ne nei minimi. Però hanno fatto un gioco bello pesante quello si
https://tpucdn.com/review/avatar-fop-performance-benchmark/images/performance-2560-1440.png
https://tpucdn.com/review/avatar-fop-performance-benchmark/images/min-fps-2560-1440.png
fraussantin
11-12-2023, 14:46
A me non sembra proprio abbiano fatto un gioco pro-AMD nonostante sia sponsorizzato, ne nei medi ne nei minimi. Però hanno fatto un gioco bello pesante quello si
https://tpucdn.com/review/avatar-fop-performance-benchmark/images/performance-2560-1440.png
https://tpucdn.com/review/avatar-fop-performance-benchmark/images/min-fps-2560-1440.pngLa vram limita in 4k in genere.
I problemi maggiori ci sono per le 3000 con 8 e 10 giga immagino .
Detto questo ovviamente si può sempre cambiare setting , ma visivamente non capisco come possa richiedere tutta quella vram se non perche gestita male
La vram limita in 4k in genere.
I problemi maggiori ci sono per le 3000 con 8 e 10 giga immagino .
Detto questo ovviamente si può sempre cambiare setting , ma visivamente non capisco come possa richiedere tutta quella vram se non perche gestita male
il 4K di norma non ci faccio caso non sono interessato.
sul QHD però io guardo i minimi non la VRAM ''ALLOCATA'', da nessuna parte sta scritto che se allochi più VRAM allora avendone meno hai problemi.
se poi uno mi dice che i test di techpowerup non rispecchiano quel che prova ok, ma intanto in QHD nei medi e nei minimi per loro una 3080 sta là con la 4070 quindi già tra 10 e 12 sembra non esserci reale differenza. Ed entrambe stanno davanti alla 6900XT che avrebbe più potenza in raster (e 16GB) quindi pare pure tendente al verde come gioco.
Cutter90
11-12-2023, 14:57
La vram limita in 4k in genere.
I problemi maggiori ci sono per le 3000 con 8 e 10 giga immagino .
Detto questo ovviamente si può sempre cambiare setting , ma visivamente non capisco come possa richiedere tutta quella vram se non perche gestita male
Onestamente io lo vedo equilibrato lato Vram. Le texture con la modalità Unobtain sono elevata qualità, quindi un consumo modesto di vram ci sta tutto. Ma ci sono giochi che ne consumano molta di più in maniera molto più ingiustificata: da cod, a tlou fino a RE..... lì si che la vram usata ha zero senso.
Tra l'altro ho visto che hanno aggiunbto l Path Tracing a..... cod!! :eek:
Il gioco gira in RT da quei test, quindi è normale (facendo un esempio) che la 3080 ne abbia più di una 6900xt
ah può darsi, ho dato per scontato fosse un RT ''consolaro'' alla far cry 6 dove AMD non perde da NVIDIA. Forse qui ha qualcosa di più e dipende da quello. ma in ogni caso non sembra un gioco ''pro-AMD'' ecco
Ma quanta ram di sistema hanno usato nel test? Mi chiedo come giri per chi ha ancora 16 GB di ram e una scheda da 8-10. Non che sia un enorme problema aggiornare la ram di sistema, era solo per non escludere le varie casistiche.
fraussantin
13-12-2023, 19:35
Comunque le 4090 Founder's latitano da diverse settimane, a parte quel "timido" drop durato 2 giorni, il nulla.
Ora con la 4090 D dovrà spartire AD102 tra questa e la liscia, a livello di logica usciranno meno 4090.Penso che a quel prezzo nvidia non possa neppure droppartene troppe.
Senno i partner si incazzerebbero.
Le 4080 invecd sono bella care e non vanno quasi mai out
OrazioOC
13-12-2023, 19:37
Penso che a quel prezzo nvidia non possa neppure droppartene troppe.
Senno i partner si incazzerebbero.
Le 4080 invecd sono bella care e non vanno quasi mai out
Vabbe' tra poco le braghe le dovranno calare, la 4080 super è dietro l'angolo. :rolleyes:
Comunque ragazzi, si vive meglio facendo finta che ad102 non esista. :asd:
fraussantin
13-12-2023, 19:43
Comunque ragazzi, si vive meglio facendo finta che ad102 non esista. :asd:
Magari , ho ceduto alla scimmia e ho fatto il colpaccio di natale contribuendo all'esaurimento della 4090 di lunedí
OrazioOC
13-12-2023, 19:46
Magari , ho ceduto alla scimmia e ho fatto il colpaccio di natale contribuendo all'esaurimento della 4090 di lunedí
Ah di, il 5900x farà gli straordinari. :asd:
fraussantin
13-12-2023, 19:58
Ah di, il 5900x farà gli straordinari. :asd:E per un bel po.
Poi vedremo l'8800 3d cosa fará quando sarà comprabile.
Per adesso me la godo cosí.
fraussantin
13-12-2023, 20:15
La FE? Complimenti e congratulazioni è stupenda!
La scimmia è dura da combattere, comunque dopo più di un anno allo stesso prezzo non ha tantissimo senso, certo la scheda è una bomba ma fossi stato in te mi sarei tenuto la 3080.
Se non altro fai più del doppio dei fps rispetto alla 3080, senza FG.
Sono schede da day one ;)
Lo so bene e difatti dovevo prenderla un anno fa , ma dovevo metabolizzare il prezzo non leggero.
Vedremo poi quanto mi durerá.
La 3080 mi comiciava a stringere su diversi giochi , l'ideale sarebbe stata la 4080 , ma sono 1350 euro per una scheda cmq precisa.
Tra le mie 1000 indecisioni e cambi di idee l ho vista in drop e vaffanculo si vive una volta sola.
mikael84
13-12-2023, 21:22
La FE? Complimenti e congratulazioni è stupenda!
La scimmia è dura da combattere, comunque dopo più di un anno allo stesso prezzo non ha tantissimo senso, certo la scheda è una bomba ma fossi stato in te mi sarei tenuto la 3080.
Se non altro fai più del doppio dei fps rispetto alla 3080, senza FG.
Sono schede da day one ;)
Insomma... sistema sbilanciato al momento.
Con una CPU serie 5, sta sul + 51%.
https://tpucdn.com/review/nvidia-geforce-rtx-4090-founders-edition/images/relative-performance_2560-1440.png
Certo, poi lui ha un 21:9, un pò di gap lo recupera, poi tra PT e FG prende il largo, ma a livello di scaling puro, è abbastanza limitato.
Per un pannello simile, con una bestia di quel calibro, servirebbe un 7800x3d almeno.
Spesso sarà o CPU limited o CAP limited, ma ha sempre il DLDSR.
fraussantin
13-12-2023, 22:17
Insomma... sistema sbilanciato al momento.
Con una CPU serie 5, sta sul + 51%.
https://tpucdn.com/review/nvidia-geforce-rtx-4090-founders-edition/images/relative-performance_2560-1440.png
Certo, poi lui ha un 21:9, un pò di gap lo recupera, poi tra PT e FG prende il largo, ma a livello di scaling puro, è abbastanza limitato.
Per un pannello simile, con una bestia di quel calibro, servirebbe un 7800x3d almeno.
Spesso sarà o CPU limited o CAP limited, ma ha sempre il DLDSR.Poi la cpu la cambierò prima o poi , e i giochi mattonazza non mancheranno nel frattempo.
Stessa situazione di quando presi la 2070 col 4690 in 1080p.
Poi con il 2k e il 3700 me la sono ritrovata.
ColdWarGuy
13-12-2023, 23:16
Lo so bene e difatti dovevo prenderla un anno fa , ma dovevo metabolizzare il prezzo non leggero.
Vedremo poi quanto mi durerá.
La 3080 mi comiciava a stringere su diversi giochi , l'ideale sarebbe stata la 4080 , ma sono 1350 euro per una scheda cmq precisa.
Tra le mie 1000 indecisioni e cambi di idee l ho vista in drop e vaffanculo si vive una volta sola.
In drop a quanto ?
fraussantin
13-12-2023, 23:17
In drop a quanto ?Il prezzo di listino 1840
ColdWarGuy
13-12-2023, 23:28
Il prezzo di listino 1840
Quindi alla fine hai ceduto al canto delle sirene dopo un anno di "resistenza", ora l'importante è sfruttarla :)
Che risoluzione ha il tuo monitor ?
OrazioOC
14-12-2023, 08:20
Insomma... sistema sbilanciato al momento.
Con una CPU serie 5, sta sul + 51%.
https://tpucdn.com/review/nvidia-geforce-rtx-4090-founders-edition/images/relative-performance_2560-1440.png
Certo, poi lui ha un 21:9, un pò di gap lo recupera, poi tra PT e FG prende il largo, ma a livello di scaling puro, è abbastanza limitato.
Per un pannello simile, con una bestia di quel calibro, servirebbe un 7800x3d almeno.
Spesso sarà o CPU limited o CAP limited, ma ha sempre il DLDSR.
Mah guarda, gli basterebbe vendere il 5900x(e almeno 220/250 euro dovrebbe farli) e metterci un 50/70 euro per recuperare il 5800x3d e già avrebbe un sistema ben più bilanciato.
Inoltre amd sembra che stia per lanciare il 5700x3d, che è la stessa cpu con 3/400 mhz in meno(e quindi costerà meno) ergo per me ha modo di sfruttare al 90/95% la 4090 senza rivoluzionare il pc. :)
fraussantin
14-12-2023, 08:21
Mah guarda, gli basterebbe vendere il 5900x(e almeno 220/250 euro dovrebbe farli) e metterci un 50/70 euro per recuperare il 5800x3d e già avrebbe un sistema ben più bilanciato.
Inoltre amd sembra che stia per lanciare il 5700x3d, che è la stessa cpu con 3/400 mhz in meno(e quindi costerà meno) ergo per me ha modo di sfruttare al 90/95% la 4090 senza rivoluzionare il pc. :)Potrebbe anche essere una scappatoia quella.
Vediamo come va prima di fasciarsi la testa
OrazioOC
14-12-2023, 08:33
Potrebbe anche essere una scappatoia quella.
Vediamo come va prima di fasciarsi la testa
Tanto prima o poi al 5900x la pasta termica andrà cambiata, tanto vale cambiare proprio la cpu no? :asd:
Insomma... sistema sbilanciato al momento.
Con una CPU serie 5, sta sul + 51%.
https://tpucdn.com/review/nvidia-geforce-rtx-4090-founders-edition/images/relative-performance_2560-1440.png
Certo, poi lui ha un 21:9, un pò di gap lo recupera, poi tra PT e FG prende il largo, ma a livello di scaling puro, è abbastanza limitato.
Per un pannello simile, con una bestia di quel calibro, servirebbe un 7800x3d almeno.
Spesso sarà o CPU limited o CAP limited, ma ha sempre il DLDSR.
Comunque anche a te zio mike consiglio quando uscirà tra 1/2 mesi il 5700x3d di saltare sul carro delle cpu con cache 3d, sembra ma fa tanto.
Su un sistema dotato di r5 3600+3070 2 mesi fa ho fatto un upgrade ad un 5800x3d e la 3070 è rinata(questo in fhd a 165 hz in giochi dove la cpu incide tanto).
Ma 3070:fhd=3080:1440p, ergo anche per te un cambio di cpu ti darebbe quel boost che farebbe sembrare la 3080 qualcosa in più di quello che è ora. :)
Cutter90
14-12-2023, 09:17
Insomma... sistema sbilanciato al momento.
Con una CPU serie 5, sta sul + 51%.
https://tpucdn.com/review/nvidia-geforce-rtx-4090-founders-edition/images/relative-performance_2560-1440.png
Certo, poi lui ha un 21:9, un pò di gap lo recupera, poi tra PT e FG prende il largo, ma a livello di scaling puro, è abbastanza limitato.
Per un pannello simile, con una bestia di quel calibro, servirebbe un 7800x3d almeno.
Spesso sarà o CPU limited o CAP limited, ma ha sempre il DLDSR.
Assolutamente d'accordo. Io che ho cambiato dall 11900K al 7800 x3d ho visto un salto molto più deciso di quello che mi aspettavo. Anche se varia tantissimo da gioco a gioco.
ColdWarGuy
14-12-2023, 09:22
-snip
Su un sistema dotato di r5 3600+3070 2 mesi fa ho fatto un upgrade ad un 5800x3d e la 3070 è rinata(questo in fhd a 165 hz in giochi dove la cpu incide tanto).
Con mainboard datate, come immagino fosse quella in questione, conviene provare prima anche un semplice 5600 perchè intervengono altri fattori limitanti legati al chipset e meccanismi come il Resizable Bar funzionano di cacca.
Con questo non dico che il 5800x3d sia inutile ma su vecchie piattaforme non rende come dovrebbe, i numeri che vediamo sulle varie testate sono tutti ottenuti su schede x570, che sono ben altra cosa rispetto ad un x370, cosa che so, purtroppo, bene da possessore di un sistema con Asus CH4.
albero77
14-12-2023, 09:23
Il 5800x3d va molto bene con la 4090 in 4k più upscaler
https://www.youtube.com/@QuBitGaming/videos
Sto tizio aveva un 5900x cambiato per disperazione da quando ha messo la 4090.
Non sono particolarmente d'accordo parlando di risoluzione 4k
https://www.youtube.com/watch?v=4Dw6sLcEp_Y&ab_channel=TerraNigma
e ancora
https://www.youtube.com/watch?v=z1exuvWZuks&ab_channel=TerraNigma
https://www.youtube.com/watch?v=V4fFD0AEpY4&t=505s&ab_channel=TerraNigma
Ovviamente molto dipende dal gioco testato e non ho dubbi che ci siano giochi in cui il 7800x3d vada meglio, ma da qui a cambiare l'intera piattaforma per giochi che magari nemmeno interessano...
OrazioOC
14-12-2023, 09:41
Con mainboard datate, come immagino fosse quella in questione, conviene provare prima anche un semplice 5600 perchè intervengono altri fattori limitanti legati al chipset e meccanismi come il Resizable Bar funzionano di cacca.
Con questo non dico che il 5800x3d sia inutile ma su vecchie piattaforme non rende come dovrebbe, i numeri che vediamo sulle varie testate sono tutti ottenuti su schede x570, che sono ben altra cosa rispetto ad un x370, cosa che so, purtroppo, bene da possessore di un sistema con Asus CH4.
Siamo un po' ot, la mobo è una msi b450 tomahawk max, che è una buona mobo intermedia.
Il 5800x3d non è più esoso di una qualsiasi cpu con tdp di 105w come potrebbe essere un 5800x liscio, la particolarità che rende pericolosa per la mobo la versione x3d, è il fatto che lavori a 90 °c a prescindere dal dissipatore che c'è sopra.
Ma anche qui, un po' di undervolt e via(-50mv o anche -100mv se non si è troppo esigenti con le performance pure a livello sintetico).
A -100mv in stress test sta sotto gli 80 °c con un arctic freezer da 35 euro, performando in game comunque meglio di una qualsiasi altra cpu am4 e allineandosi più sui livelli dei 7600x/13600k, mica poco. :)
fraussantin
14-12-2023, 09:47
Tanto prima o poi al 5900x la pasta termica andrà cambiata, tanto vale cambiare proprio la cpu no? :asd:
Comunque anche a te zio mike consiglio quando uscirà tra 1/2 mesi il 5700x3d di saltare sul carro delle cpu con cache 3d, sembra ma fa tanto.
Su un sistema dotato di r5 3600+3070 2 mesi fa ho fatto un upgrade ad un 5800x3d e la 3070 è rinata(questo in fhd a 165 hz in giochi dove la cpu incide tanto).
Ma 3070:fhd=3080:1440p, ergo anche per te un cambio di cpu ti darebbe quel boost che farebbe sembrare la 3080 qualcosa in più di quello che è ora. :)La pasta l'ho cambiata 20 giorni fa col cambio case.
Nessun problema so benissimi i limiti del 5900 , come ho detto presto o tardi diventerá un 8800 3d k o 78003d chissà .
Magari un 58003d se versmente necessario.
Per adesso penso di potermi godere i nuovi tripla a in rt senza nessun compromesso e direi che lo scopo mio è quello.
Cmq ringrazio tutti per i consigli .
Cutter90
14-12-2023, 09:47
Non sono particolarmente d'accordo parlando di risoluzione 4k
https://www.youtube.com/watch?v=4Dw6sLcEp_Y&ab_channel=TerraNigma
e ancora
https://www.youtube.com/watch?v=z1exuvWZuks&ab_channel=TerraNigma
https://www.youtube.com/watch?v=V4fFD0AEpY4&t=505s&ab_channel=TerraNigma
Ovviamente molto dipende dal gioco testato e non ho dubbi che ci siano giochi in cui il 7800x3d vada meglio, ma da qui a cambiare l'intera piattaforma per giochi che magari nemmeno interessano...
Dipende molto da gioco a gioco. In 4k nell'ordine dei 80-100 fps se ne guadagnano anche 15-25 che non sono proprio pochi. Per lo meno dall 11900k al 7800 x3d.
Bisogna capire anche quali giochi si è interessati
fraussantin
14-12-2023, 09:57
Ragazzi non sono il primo arrivato so bene i limiti della cpu e la scelta fatta .
A suo tempo gli darò quello che si merita.
Se il 4800 fen fosse costato 1000 euro avrei preso quella .
A 1350 ripeto non vale i soldi .
Cutter90
14-12-2023, 10:09
La pasta l'ho cambiata 20 giorni fa col cambio case.
Nessun problema so benissimi i limiti del 5900 , come ho detto presto o tardi diventerá un 8800 3d k o 78003d chissà .
Magari un 58003d se versmente necessario.
Per adesso penso di potermi godere i nuovi tripla a in rt senza nessun compromesso e direi che lo scopo mio è quello.
Cmq ringrazio tutti per i consigli .
Come detto con la tua CPU i compromessi li avrai eccome. Soprattutto nei giochi con RT e soprattutto se non giochi in 4k nativo.
Per la cifra, si la 4090 a 1800 è meglio di una 4080 a 1350.
Certo, per sfruttarla bene e non limitarla devi però cambiare cpu.
Quindi di fatto la userai come una 4080, se non meno in alcuni titoli più cpu intensive.
Se ti va bene nessun problema :)
ColdWarGuy
14-12-2023, 10:19
Siamo un po' ot, la mobo è una msi b450 tomahawk max, che è una buona mobo intermedia.
Il 5800x3d non è più esoso di una qualsiasi cpu con tdp di 105w come potrebbe essere un 5800x liscio, la particolarità che rende pericolosa per la mobo la versione x3d, è il fatto che lavori a 90 °c a prescindere dalla cpu che c'è sopra.
Ma anche qui, un po' di undervolt e via(-50mv o anche -100mv se non si è troppo esigenti con le performance pure a livello sintetico).
A -100mv in stress test sta sotto gli 80 °c con un arctic freezer da 35 euro, performando in game comunque meglio di una qualsiasi altra cpu am4 e allineandosi più sui livelli dei 7600x/13600k, mica poco. :)
E' sempre la vecchia piattaforma PCIe 2.0/3.0, non è una questione di consumi ma di banda aggregata del sistema, io credo che sei ben lontano dalla resa generale di un configurazione qualsiasi basata su 13600K e comunque, ripeto, la Resizable Bar la devi quasi sempre disabilitare, cosa non da poco per parecchi games in 1080p.
Già le schede 3000 meritavano piattaforme aggiornate, ma se dovessi mai prendere un 4090 la farei "atterrare" come minimo su Z690 o x670.
Bisogna essere consci che certi acquisti poi scatenano spirali incontrollabili :D
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.