View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
fraussantin
20-09-2022, 21:33
La 4080 12, mi fa ribrezzo, sai che guardo il lato tecnico, ed una GPU a die da x60 a 899$ è inaccettabile.
p
La 4080 12 è una. 4070 , che. Infatti va come una 3080ti ( in raster)
Ps
I prodijeek cosa hanno detto al prezzo , sono svenuti :asd:
Devo andare a cercarmi il video ..
La 4080 12 è una. 4070 , che. Infatti va come una 3080ti ( in raster)
si poi bisogna vedere nella realtà quanto va.... solito discorso... quest'anno non si vedranno 3080 fino a 3090ti svendute come successe per la 2080ti....
Io ancora non ho capito quanto vanno in raster rispetto la precedente gen.
Durante la presentazione mi è sembrato di capire 2x (+100%), che è tantissimo rispetto al solito +30%, e x3/x4 con il DLSS 3 / RayTracing
Però adesso mi è venuto il dubbio, vedendo questa slide:
https://www.hwupgrade.it/articoli/6381/geforce-rtx-4090-gaming-performance.jpg
I primi due titoli, vanno circa il doppio con la 4080, e Cyberpunk il quadruplo per via dell'RT.
Ma.. i primi due titoli sono con il DLSS 3 attivo, in modalità performance tra l'altro, o almeno così mi sembra di capire dalle scritte minuscole sotto la slide. :O
Amarezza.
Che poi a Plague Tale è tutto tranne che un gioco pesante sul piano tecnico. Il secondo capitolo non farà differenza visto che l'engine è il medesimo.
Con aggiunta di RT e DLSS (3) :D
https://www.dsogaming.com/videotrailer-news/new-a-plague-tale-requiem-pc-trailer-shows-off-dlss-and-ray-tracing/
L'impatto grafico è niente male
mikael84
20-09-2022, 21:48
Is the new roito :O
...però è molto meglio del mio di roito, onesto :asd:
La scheda è valida, ma non certo a quel prezzo. La 3070 per quel PP roito non era certo male, salvo la ram. una 2080ti praticamente.
La 4080 12 è una. 4070 , che. Infatti va come una 3080ti ( in raster)
Ps
I prodijeek cosa hanno detto al prezzo , sono svenuti :asd:
Devo andare a cercarmi il video ..
Seriamente guardate quei canali li...:p
Cmq, con RT e DLSS 3 non ha neppure senso paragonarla ad Ampere.:)
A Maggior ragione che guardi le prestazioni\costo non dovresti essere contento per una fascia medio bassa che partirà da 600 euro...
A te interessa la "fascia", a me interessano le prestazioni/costo.
Se come da te indicato una 4060 avrà prestazioni da 3080 e costerà 600€, io vedo:
4060 (600€) = 3080 (719€ al lancio)
Senza considerare che una 4060 consumerà molto meno di una 3080.
Perchè dovrei essere triste?
Dipende che scheda grafica che ha ora. Magari li conviene.
Onestamente non capisco cosa c'entri la VGA in possesso, se il rapporto prestazioni/costo aumenta, aumenta.
Se ho speso 719€ per una 3080 e ho prestazioni "100", ora (a distanza di due anni) spendo 800€ e che prestazioni ho?
Se sono maggiori di "100", tipo "130-140" (e a me servono) ho un guadagno tra generazioni e non vedo tutti questi problemi.
devAngnew
20-09-2022, 21:53
Costano troppo è non certo per costi di PP, in quanto GA102 ed AD104 hanno gli stessi costi, ma AD104 ha rese quasi 3 volte tanto. in un wafer può fare 3 volte le 4080 rispetto le 3080. Direi che il margine lo fa...:muro:
Mike non voglio di certo difendere Nvidia con questi prezzi, e x80 camuffate, ma nella tua equazione devi anche considerari i costi di ricerca e sviluppo. :)
P.s: la 4090 non supporta nemmeno lo SLI :stordita: :doh:
mikael84
20-09-2022, 21:57
A te interessa la "fascia", a me interessano le prestazioni/costo.
Se come da te indicato una 4060 avrà prestazioni da 3080 e costerà 600€, io vedo:
4060 (600€) = 3080 (719€ al lancio)
Senza considerare che una 4060 consumerà molto meno di una 3080.
Perchè dovrei essere triste?
Onestamente non capisco cosa c'entri la VGA in possesso, se il rapporto prestazioni/costo aumenta, aumenta.
Se ho speso 719€ per una 3080 e ho prestazioni "100", ora (a distanza di due anni) spendo 800€ e che prestazioni ho?
Se sono maggiori di "100", tipo "130-140" (e a me servono) ho un guadagno tra generazioni e non vedo tutti questi problemi.
Nei giochi vecchi la 4060 sarà una 3070-ti ma con RT maggiore e DLSS3, quindi in alcuni titoli dovresti andare nettamente meglio
Mike non voglio di certo difendere Nvidia con questi prezzi, e x80 camuffate, ma nella tua equazione devi anche considerari i costi di ricerca e sviluppo. :)
P.s: la 4090 non supporta nemmeno lo SLI :stordita: :doh:
Si chiaro, come sempre ad ogni gen, per quello neppure l'ho messo in conto.:)
Riguardo la 4090, l'avevo detto che faceva la porcata, verrai che verrà messa solo sulla 4090ti, per fare in modo che loro si orientino per forza su quella, e forse metterà anche 48gb.
devAngnew
20-09-2022, 21:57
A te interessa la "fascia", a me interessano le prestazioni/costo.
Se come da te indicato una 4060 avrà prestazioni da 3080 e costerà 600€, io vedo:
4060 (600€) = 3080 (719€ al lancio)
Senza considerare che una 4060 consumerà molto meno di una 3080.
Perchè dovrei essere triste?
cut
Perchè prima dell'era RTX con quei soldi avevi una gpu top di gamma ;)
P.s: la 4090 non supporta nemmeno lo SLI :stordita: :doh:
sul serio vi serve fare uno sli di 4090? :fagiano:
devAngnew
20-09-2022, 21:59
Nei giochi vecchi la 4060 sarà una 3070-ti ma con RT maggiore e DLSS3, quindi in alcuni titoli dovresti andare nettamente meglio
Si chiaro, come sempre ad ogni gen, per quello neppure lo messo in conto.:)
Si, però son incavolato lo stesso :muro:
mikael84
20-09-2022, 22:00
sul serio vi serve fare uno sli di 4090? :fagiano:
Per i pro nvlink serve eccome, ma ovviamente come avevo pensato fa la carognata di metterlo sulla 4090ti più avanti, per costringere i pro a prendere quella.:)
devAngnew
20-09-2022, 22:00
sul serio vi serve fare uno sli di 4090? :fagiano:
In 3D rendering la vram non basta mai :sofico: (non scherzo )
Thunder-74
20-09-2022, 22:02
https://i.gyazo.com/4657115df9dcb7668f2081a19d1df49a.png
questa l'avevate vista?
Da questa slide emerge una cosa interessante. Che i titoli mostrati anche alla presentazione (quelli di destra no RT e RT ), sono quelli che beneficeranno del dlss3 e difatti tanto guadagno, mentre quelli di sinistra , no dlss3 , non hanno tutto sto guadagno pazzesco . Sarò curioso di leggere le review su un parco titoli più ampio, prima di valutare l acquisto di una 4080/16.
Comunque in RT, queste 4000 fanno le fiamme
Inviato dal mio iPhone X utilizzando Tapatalk
In 3D rendering la vram non basta mai :sofico: (non scherzo )
Ah, ecco, ok.
Per i miei carichi semplicemente i task sono divisi tra le schede e non vado mai OoM.
Effettivamente dovrei provare a vedere come si comportano 2 schede con nvlink e vedere se ho benifici ( https://developer.download.nvidia.com/video/gputechconf/gtc/2019/presentation/s9426-using-tensor-swapping-and-nvlink-to-overcome-gpu-memory-limits-with-tensorflow.pdf )
Perchè prima dell'era RTX con quei soldi avevi una gpu top di gamma ;)
(per il momento) Nessuno ti obbliga a utilizzare RTX ;)
Top di gamma per qualità o per prestazioni?
Se è per prestazioni, è l'idea di avere un top di gamma che ti fa dire "ah.. soldi ben spesi", oppure come riesci realmente a giocare?
Con quei soldi avevi si il top di gamma, ma ora le stesse prestazioni le hai con una non top di gamma che costa meno della vecchia top di gamma.
Ma dobbiamo esser tristi perchè gli costa (molto) meno produrla e ce la fanno pagare di più (in proporzione) e il chip è piccolo/tagliato.
Secondo me si valuta troppo alla successiva "rivendita" della scheda (quando usciranno le varie S/TI/S TI/SS TI...) più che alle effettive prestazioni/costo.
devAngnew
20-09-2022, 22:07
Io ancora non ho capito quanto vanno in raster rispetto la precedente gen.
Durante la presentazione mi è sembrato di capire 2x (+100%), che è tantissimo rispetto al solito +30%, e x3/x4 con il DLSS 3 / RayTracing
Però adesso mi è venuto il dubbio, vedendo questa slide:
https://www.hwupgrade.it/articoli/6381/geforce-rtx-4090-gaming-performance.jpg
I primi due titoli, vanno circa il doppio con la 4080, e Cyberpunk il quadruplo per via dell'RT.
Ma.. i primi due titoli sono con il DLSS 3 attivo, in modalità performance tra l'altro, o almeno così mi sembra di capire dalle scritte minuscole sotto la slide. :O
Amarezza.
Da quello che ho potuto intuire in Cyberpunk (titolo rt intensivo) hai quell'incremento grazie all'RT overdrive delle rtx 4000 .
mikael84
20-09-2022, 22:10
Si, però son incavolato lo stesso :muro:
Che poi paradossalmente la 4090 costa come la 3090, ma il die è salito da 80 a 225$, quindi la 4090 costa di più a lui.
Con i 3nm si parla di wafer a 30k, li cominceranno i cxzzi:)
Da questa slide emerge una cosa interessante. Che i titoli mostrati anche alla presentazione (quelli di destra no RT e RT ), sono quelli che beneficeranno del dlss3 e difatti tanto guadagno, mentre quelli di sinistra , no dlss3 , non hanno tutto sto guadagno pazzesco . Sarò curioso di leggere le review su un parco titoli più ampio, prima di valutare l acquisto di una 4080/16.
Comunque in RT, queste 4000 fanno le fiamme
Inviato dal mio iPhone X utilizzando Tapatalk
Ricalca i calcoli che avevo fatto io.
4070 (solo che ora si chiama 4080 12) =3090/ti + RT e DLSS3
Ti ricordi l'equazione flops. Direi azzeccatissima.
Da questa slide emerge una cosa interessante. Che i titoli mostrati anche alla presentazione (quelli di destra no RT e RT ), sono quelli che beneficeranno del dlss3 e difatti tanto guadagno, mentre quelli di sinistra , no dlss3 , non hanno tutto sto guadagno pazzesco . Sarò curioso di leggere le review su un parco titoli più ampio, prima di valutare l acquisto di una 4080/16.
Comunque in RT, queste 4000 fanno le fiamme
Inviato dal mio iPhone X utilizzando Tapatalk
In realtà temo che quelli a sinistra hanno il DLSS 3 attivo :muro:
StylezZz`
20-09-2022, 22:13
A te interessa la "fascia", a me interessano le prestazioni/costo.
Se come da te indicato una 4060 avrà prestazioni da 3080 e costerà 600€, io vedo:
4060 (600€) = 3080 (719€ al lancio)
Senza considerare che una 4060 consumerà molto meno di una 3080.
Perchè dovrei essere triste?
Dovresti esserlo eccome.
Ti ricordo i tempi (non molto tempo fa) in cui una '60 andava quanto una '70/'80 della precedente gen, alla metà del prezzo.
Non si dovrebbe giustificare il prezzo (alto) facendo il confronto prestazionale con la 3080, sono schede di due gen diverse, di fascia diversa...altrimenti che facciamo? La prossima gen nel 2024 giustificheremo il prezzo della 5060 a 700 o addirittura 800 euro perchè va quanto una 4080? Ma che ragionamento è?
NVIDIA RTX Direct Illumination (RTXDI) fornisce a ogni insegna al neon, lampione, faro delle auto, cartellone LED e TV un'accurata illuminazione e ombre con ray-tracing, insieme a oggetti bagnati, pareti, auto in transito e pedoni con un'illuminazione colorata accurata;
Il Ray-traced indirect lighting e i riflessi ray-tracing ora rimbalzano più volte, rispetto al singolo rimbalzo della soluzione precedente. Il risultato è un'illuminazione globale, riflessi e autoriflessi ancora più accurati, realistici e coinvolgenti
I riflessi ray-tracing sono ora resi alla massima risoluzione, migliorando ulteriormente la loro qualità
L'illuminazione migliorata e maggiormente basata sulla fisica elimina la necessità di qualsiasi altra tecnica di occlusione.
Gigibian
20-09-2022, 22:14
Appena preso una 3090 a 799 :O
fraussantin
20-09-2022, 22:16
La
Seriamente guardate quei canali li...:p
Cmq, con RT e DLSS 3 non ha neppure senso paragonarla ad Ampere.:)
Che in rt e dlss saranno una bomba non lo nego , ma a 1500 euro che diventano 1800 facili vorrei averci una bomba a 360 gradi su tutto e non solo su alcuni giochi.
Si sta parlado di cifre folli e senza speculazioni di scalper o gente simile.
devAngnew
20-09-2022, 22:18
(per il momento) Nessuno ti obbliga a utilizzare RTX ;)
Top di gamma per qualità o per prestazioni?
Se è per prestazioni, è l'idea di avere un top di gamma che ti fa dire "ah.. soldi ben spesi", oppure come riesci realmente a giocare?
Con quei soldi avevi si il top di gamma, ma ora le stesse prestazioni le hai con una non top di gamma che costa meno della vecchia top di gamma.
Ma dobbiamo esser tristi perchè gli costa (molto) meno produrla e ce la fanno pagare di più (in proporzione) e il chip è piccolo/tagliato.
Secondo me si valuta troppo alla successiva "rivendita" della scheda (quando usciranno le varie S/TI/S TI/SS TI...) più che alle effettive prestazioni/costo.
Appunto con quei soldi, non hai più la nuova top di gamma come era una volta questo è il discorso. :)
Thunder-74
20-09-2022, 22:19
Che poi paradossalmente la 4080 costa come la 3090, ma il die è salito da 80 a 225$, quindi la 4090 costa di più a lui.
Con i 3nm si parla di wafer a 30k, li cominceranno i cxzzi:)
Ricalca i calcoli che avevo fatto io.
4070 (solo che ora si chiama 4080 12) =3090/ti + RT e DLSS3
Ti ricordi l'equazione flops. Direi azzeccatissima.
Esatto, a questo punto, correggimi se sbaglio, la 4080/16 andrà un 30x100 in più su titoli raster rispetto ad una 3090.
Vedo ad esempio la 4090 andare un 75x100 in più sul resident evil.
Inviato dal mio iPhone X utilizzando Tapatalk
cmq su videocardz ci sono le press di quasi tutti i produttori, nessuno menziona ne dimensioni ne prezzi ( solo zotac con la trinity che dice prezzo msrp)....
Dovresti esserlo eccome.
Ti ricordo i tempi (non molto tempo fa) in cui una '60 andava quanto una '70/'80 della precedente gen, alla metà del prezzo.
Non si dovrebbe giustificare il prezzo (alto) facendo il confronto prestazionale con la 3080, sono schede di due gen diverse, di fascia diversa...altrimenti che facciamo? La prossima gen nel 2024 giustificheremo il prezzo della 5060 a 700 o addirittura 800 euro perchè va quanto una 4080? Ma che ragionamento è?
5060 a 700€ e qual è il problema?
prenderò sempre quella del costo che posso permettermi, che sia 5050 o 5030 e che mi garantirà comunque + prestazioni rispetto allo stesso costo della serie 40xx.
prova a non soffermarti sul nome/modello, guarda solo prestazioni/costo. il rapporto è aumentato o no? se si, c'è guadagno.
prima con 600€ facevi 100fps, ora fai 130fps ma cosa non va bene?
mikael84
20-09-2022, 22:36
Che in rt e dlss saranno una bomba non lo nego , ma a 1500 euro che diventano 1800 facili vorrei averci una bomba a 360 gradi su tutto e non solo su alcuni giochi.
Si sta parlado di cifre folli e senza speculazioni di scalper o gente simile.
Prezzi veramente folli, il pizzo da pagare sono i tensor e dlss3.
La 4090 invece è veramente innovativa a MSRP da 3090.
Esatto, a questo punto, correggimi se sbaglio, la 4080/16 andrà un 30x100 in più su titoli raster rispetto ad una 3090.
Vedo ad esempio la 4090 andare un 75x100 in più sul resident evil.
Inviato dal mio iPhone X utilizzando Tapatalk
Si, ma già se guardiamo il time spy, la 4090 faceva 20k vs 11,5 della 3090ti che è circa il 73%, considerando anche il clock di 3ghz non stock.
Ora con la 4080 16 vs 4080 12, devi fare un rapporto simil 3060ti vs 3070ti.
Tenendo presente che la 3090ti va il 25% in più la 3080, quindi da quel punto di vista, i calcoli erano giustissimi.:)
amon.akira
20-09-2022, 22:41
Da questa slide emerge una cosa interessante. Che i titoli mostrati anche alla presentazione (quelli di destra no RT e RT ), sono quelli che beneficeranno del dlss3 e difatti tanto guadagno, mentre quelli di sinistra , no dlss3 , non hanno tutto sto guadagno pazzesco . Sarò curioso di leggere le review su un parco titoli più ampio, prima di valutare l acquisto di una 4080/16.
Comunque in RT, queste 4000 fanno le fiamme
Inviato dal mio iPhone X utilizzando Tapatalk
si evince anche un evidente cpu limit su certi 4080 16 vs 4090...tra l altro l ha evidenziato anche jhh
Secondo voi performance in Vr con visori top di gamma? So che non ve ne frega nulla ma a me interessano ste schede solo per questo :D
Appunto con quei soldi, non hai più la nuova top di gamma come era una volta questo è il discorso. :)
Stiamo parlando di VGA... cosa cambia avere una top di gamma o no?
Solo l'ego e il sapere di non aver un non top di gamma?
Da quello che ho potuto intuire in Cyberpunk (titolo rt intensivo) hai quell'incremento grazie all'RT overdrive delle rtx 4000 .
Si ma faceva assolutamente pena con la generazione attuale, che per giocarci a 1440p non bastava la 3090ti.
caccapupu91
20-09-2022, 22:49
tanta roba a sto giro anche in lato rtx, quel dlss 3 potrebbe fare i miracoli in cpu bound altro che cpu da 250w D: imho in america è un affare, qua no :asd:
comunque un tempo si ottimizzavano meno le schede della scorsa gen, adesso si aggiungono pezzi di hardware :asd:
attendo volentieri le schede per i povery :Prrr:
StylezZz`
20-09-2022, 23:00
Si ma faceva assolutamente pena con la generazione attuale, che per giocarci a 1440p non bastava la 3090ti.
Certo se si mette tutto a bomba...io con la 3070 uso i settaggi ottimizzati di DF lasciando solo i riflessi rt (che sono quelli che fanno davvero la differenza) e a 1440p+dlss quality vola.
devAngnew
20-09-2022, 23:02
Si ma faceva assolutamente pena con la generazione attuale, che per giocarci a 1440p non bastava la 3090ti.
Non lo sò, non ho il gioco e/o una RTX però lessi di molta gente a cui il gioco girava una favola con DLSS, ora leggo il contrario. Sarà un caso ? :sofico:
:stordita:
https://i.imgur.com/iiAzXH5.jpeg
I soliti artefatti :fagiano:
Il vantaggio del DLSS3 sono tutti per i "frame inventati" dalla nuova architettura siamo a 120 FPS.
Iceman69
20-09-2022, 23:02
Prezzi veramente folli, il pizzo da pagare sono i tensor e dlss3.
La 4090 invece è veramente innovativa a MSRP da 3090.
Secondo me la 4090 è l'unica che vale la pena a sto giro ...
Certo se si mette tutto a bomba...io con la 3070 uso i settaggi ottimizzati di DF lasciando solo i riflessi rt (che sono quelli che fanno davvero la differenza) e a 1440p+dlss quality vola.
Senza le ombre è come non avere RT. Con un mix decente di opzioni e dlss quality stai a 35-40fps.
StylezZz`
20-09-2022, 23:10
Senza le ombre è come non avere RT. Con un mix decente di opzioni e dlss quality stai a 35-40fps.
Mah, le ombre rt le ho provate insieme alle luci, ma sinceramente non ho trovato tutta questa differenza, i riflessi sono l'unico settaggio che ho trovato degno di essere attivato, soprattutto quando nel gioco è notte e si gira per night city.
mikael84
21-09-2022, 00:07
Non lo sò, non ho il gioco e/o una RTX però lessi di molta gente a cui il gioco girava una favola con DLSS, ora leggo il contrario. Sarà un caso ? :sofico:
:stordita:
I soliti artefatti :fagiano:
Il vantaggio del DLSS3 sono tutti per i "frame inventati" dalla nuova architettura siamo a 120 FPS.
Il DLSS spesso fa miracoli, come eliminare lo shimmering, dando l'illusione di un'immagine superiore in tutto e per tutto, e l'occhio questo vede.
La matrice però esegue i calcoli in FP16 non in FP32, quindi l'immagine finale avrà sempre qualche compromesso.:)
Secondo me la 4090 è l'unica che vale la pena a sto giro ...
Si, a livello perf/prezzo, rispetto ad Ampere, è l'unica che paradossalmente ha un vero senso. Le altre sono pizzo DLSS3
amon.akira
21-09-2022, 00:47
mike ma si è capito se le int sono scorporate?
mikael84
21-09-2022, 01:14
mike ma si è capito se le int sono scorporate?
Non è stata rilasciata la microarchitettura, ma è impensabile viste le prestazioni.
In compenso ha aumentato i tensor a 512 OPS contro i 256 di Ampere.
Kopite a livello di micro non ci ha capito nulla, come le rop's.
amon.akira
21-09-2022, 01:42
Non è stata rilasciata la microarchitettura, ma è impensabile viste le prestazioni.
In compenso ha aumentato i tensor a 512 OPS contro i 256 di Ampere.
Kopite a livello di micro non ci ha capito nulla, come le rop's.
sono perplesso solo sul dlss3 (generazione frame)
diciamo che escludendo lui su per esempio titoli che non lo usano o in caso si decidesse di bypassarlo in favore dell image quality (sembra si porti dietro artefatti al momento, sarebbe da vedere in quality mode)...
...si ha questa situazione, dove effettivamente un bel salto lo si ha solo con la 4090
c'è da dire che sicuramente gli ubisoft valhalla e division2 magari sono cpulimited
https://uploads.disquscdn.com/images/2fbbb8c97983f84bc311a38d9d7e44616fda057f9c099a606eb0fd2d0963e84b.png
mikael84
21-09-2022, 02:07
sono perplesso solo sul dlss3 (generazione frame)
diciamo che escludendo lui su per esempio titoli che non lo usano o in caso si decidesse di bypassarlo in favore dell image quality (sembra si porti dietro artefatti al momento, sarebbe da vedere in quality mode)...
...si ha questa situazione, dove effettivamente un bel salto lo si ha solo con la 4090
c'è da dire che sicuramente gli ubisoft valhalla e division2 magari sono cpulimited
https://uploads.disquscdn.com/images/2fbbb8c97983f84bc311a38d9d7e44616fda057f9c099a606eb0fd2d0963e84b.png
Non ci vedo nulla di strano, sono i giochi peggiori per la micro nvidia.
La 4080 16 vs 12, risulta come una 3060ti vs 3070ti, ed i risultati sono quelli. E' un chippetto e paga.
Lo scaling sulla 4090 c'è, quindi non proprio CPU limit.
Per AC ci vorrebbe lo scheduler hardware, nvidia lo ha ancora software.
RE village, mostra uno scalling bello alto.
Anche il bus va calcolato per le perf, finali.
A livello di DLSS, considera che tutto questo boost è FP16, non si può avere la stessa qualità FP32, ma sicuramente lo miglioreranno.
Nvidia ha giocato tutto qua alla fine. DLSS fp16 ratio, ed RT core con DMM, BVH potenziato e più efficiente, soprattutto in certe zone difficili da calcolare come erba, foglie etc.:)
amon.akira
21-09-2022, 02:26
certo c'è da dire che cmq lascia aperte porte a settings raytracing belli spinti con quel 3x/4x
il mio piano B era la 4080 16gb...ma a quel prezzo conviene la 4090 paradossalmente
ora capisco lo sticky T.I. or TIE? era la 4080 al prezzo della TI :asd:
mikael84
21-09-2022, 02:38
certo c'è da dire che cmq lascia aperte porte a settings raytracing belli spinti con quel 3x/4x
il mio piano B era la 4080 16gb...ma a quel prezzo conviene la 4090 paradossalmente
ora capisco lo sticky T.I. or TIE? era la 4080 al prezzo della TI :asd:
Ampere con DLSS 3 però è bello incasinato, ormai AC è bello passato.:p
Il bello è che con la 4080 16, ti sta quasi disabilitando un GPC su un 380mm2.
Quando per battuta ponevo la TI come AD103 full a 1199, beh mi ha superato mettendo lo scarto. Quello che nel wafer gli è uscito male e doveva buttare.:p
amon.akira
21-09-2022, 02:57
Ampere con DLSS 3 però è bello incasinato
intendevo solo su 4000, esempio cyberpunk con l rt "overdrive"
caccapupu91
21-09-2022, 03:45
da reddit su un video cinese official reseller rog
TUF 2.3kg
STRIX 2.5kg
Chances di vedere in futuro una 4060 che vada pressapoco come una 3080 ma consumando meno di 200w?
fraussantin
21-09-2022, 06:28
Chances di vedere in futuro una 4060 che vada pressapoco come una 3080 ma consumando meno di 200w?Seguendo quelle barrette , manco la 4070 andrà come la 3080.
Aspettiamo le recensioni che è meglio
Thunder-74
21-09-2022, 06:37
sono perplesso solo sul dlss3 (generazione frame)
diciamo che escludendo lui su per esempio titoli che non lo usano o in caso si decidesse di bypassarlo in favore dell image quality (sembra si porti dietro artefatti al momento, sarebbe da vedere in quality mode)...
...si ha questa situazione, dove effettivamente un bel salto lo si ha solo con la 4090
c'è da dire che sicuramente gli ubisoft valhalla e division2 magari sono cpulimited
cut..
esatto, alla fine ho timore che il vero salto lo si ha con la 4090...
intanto beccatevi sto furbo :doh:
FURBACCHIONE CINESONE (https://twitter.com/i/status/1572272657760153600)
Comunque se guardate la pagina ufficiale news nVidia, tutto puntato sul DLSS3.... LINK (https://www.nvidia.com/en-us/geforce/news/)
Seguendo quelle barrette , manco la 4070 andrà come la 3080.
Aspettiamo le recensioni che è meglio
Dici?
Ad occhio e croce se la 4080 base (fake 4070) e' allineata tra 3090 liscia e ti, speravo che una 4060 piu o meno ai livelli di una 3080 ci arrivasse.
fraussantin
21-09-2022, 06:46
Dici?
Ad occhio e croce se la 4080 base (fake 4070) e' allineata tra 3090 liscia e ti, speravo che una 4060 piu o meno ai livelli di una 3080 ci arrivasse.Sarà per forza di cose sul chip più piccolo. Non credo che riescano a tagliare ancora questi 104
Mi aspetto 4070 e 4060 sul 106. E quindi un bel salto in meno.
Però prima voglio vedere dei test seri fatti a modo.
Sonpazzo
21-09-2022, 06:50
esatto, alla fine ho timore che il vero salto lo si ha con la 4090...
intanto beccatevi sto furbo :doh:
FURBACCHIONE CINESONE (https://twitter.com/i/status/1572272657760153600)
Comunque se guardate la pagina ufficiale news nVidia, tutto puntato sul DLSS3.... LINK (https://www.nvidia.com/en-us/geforce/news/)
https://twitter.com/i/status/1572343355249655811
:asd:
Sarà per forza di cose sul chip più piccolo. Non credo che riescano a tagliare ancora questi 104
Mi aspetto 4070 e 4060 sul 106. E quindi un bel salto in meno.
Però prima voglio vedere dei test seri fatti a modo.
E che fanno, millantano il 2/4x per la 4090 e 4080, e poi il 4070 sara' un bump minore dalla 3070? Mi pare strano.
Se millantano gains simili per le flagship come 2/4x, mi aspetterei almeno un +60% almeno gen su gen per le altre, il che significherebbe per un eventuale 4060 arrivare a prestazioni simil 3080 (e anche piu veloce in situazioni con RT e DLSS).
fraussantin
21-09-2022, 06:56
E che fanno, millantano il 2/4x per la 4090 e 4080, e poi il 4070 sara' un bump minore dalla 3070? Mi pare strano.
Se millantano gains simili per le flagship come 2/4x, mi aspetterei almeno un +60% almeno gen su gen per le altre, il che significherebbe per un eventuale 4060 arrivare a prestazioni simil 3080 (che pero' mi aspetto che batta in situazioni con RT e DLSS)."millanteranno" anche li 4x ... Ci mancherebbe
Ma poi voglio vedere le barrette e nelle recensioni.
Cmq davvero aspettiamo test reali.
Per adesso vantano 2/4x con dlss 3.0 vs dlss 2.0.
Hanno messo dei grafici comparativi senza senso.
Bisogna aspettare le review indipendenti.
Beh, se un ipotetica 4060 andasse molto piu veloce di una 3080 con DLSS/RTX ON e poco meno senza secondo me sarebbe un compromesso molto accettabile (dipende dal prezzo e dai consumi di questo compromesso).
Comunque piu ci penso e piu credo che chi si prende una 3070/3080/3090 ora bella scontata fara' un affare d'oro, simile a chi si prendeva le 980ti a 300 circa quando rilasciarono Pascal e poi scopri' che un affare simile non si sarebbe visto per anni..
sertopica
21-09-2022, 06:59
esatto, alla fine ho timore che il vero salto lo si ha con la 4090...
intanto beccatevi sto furbo :doh:
FURBACCHIONE CINESONE (https://twitter.com/i/status/1572272657760153600)
Comunque se guardate la pagina ufficiale news nVidia, tutto puntato sul DLSS3.... LINK (https://www.nvidia.com/en-us/geforce/news/)
Al massimo si rompe il tavolo. :asd: :asd:
Comunque vista parte del keynote, e lette le pagine precedenti, come da previsione prezzi piu' alti, non poteva andare altrimenti. Mi sembra che la 4090 sia l'unica da prendere in considerazione, vuoi vedere che mo' pure 16GB diventeranno stretti? :D
Senza considerare anche il gap enorme fra 4080 e 4090 in materia di stream processors...
Giovamas
21-09-2022, 07:01
Secondo me la 4090 è l'unica che vale la pena a sto giro ...
esatto quoto
fraussantin
21-09-2022, 07:08
Concordo sul fatto che la 4090 sia l'acquisto migliore.
Anche perche si parla cmq di cifre folli
Almeno si piglia una scheda veranente al top
Thunder-74
21-09-2022, 07:11
Vedo millantare troppo le prestazioni solo alla luce di RT e DLSS3.
Non vorrei che si stia buttando fumo negli occhi per poi avere delle prestazioni non all'altezza nel resto delle situazioni , dove non c'è DLSS3 e RT.
Perché sinceramente un +30% di una 4080/16 su una 3090 al prezzo di 1500 euro, anche no.
Veramente la 4090 diventa l'unica vera scelta per chi proviene da 3080/3090, però mecoj.ni... 2k per la FE, vuol dire 2,2k di custom.... "rifiuto l'offerta e vado avanti..."
Sarà per forza di cose sul chip più piccolo. Non credo che riescano a tagliare ancora questi 104
Mi aspetto 4070 e 4060 sul 106. E quindi un bel salto in meno.
Però prima voglio vedere dei test seri fatti a modo.Non credo, perché la 4080 12gb é un full ad104 con GDDR6X, possono tranquillamente ricavarci un cut per la 4070.
La 4060 sicuramente sarà sul 106, e credo non faranno proprio la 4060ti, comunque mi sa che conviene tenere d'occhio anche le rosse...
Inviato dal mio M2012K11AG utilizzando Tapatalk
craesilo
21-09-2022, 07:20
che la 4090 sia l'unica con un senso (per chi caga soldi) lo si era capito 1 secondo dopo l'annuncio :asd:
Giovamas
21-09-2022, 07:33
"millanteranno" anche li 4x ... Ci mancherebbe
Ma poi voglio vedere le barrette e nelle recensioni.
Cmq davvero aspettiamo test reali.
io prima di prendere qualunque decisione aspetto le recensioni come giustamente sottolinei reali e l'opinione di Mike :)
Goofy Goober
21-09-2022, 07:46
con la 4090, per chi è a liquido, il problema diventa dover mettersi almeno 1 altro termosifone dedicato solo a freddare il pc, o direttamente un waterchiller rumorosissimo.
2022, la riscossa delle waterstation. :stordita:
Dovresti esserlo eccome.
Ti ricordo i tempi (non molto tempo fa) in cui una '60 andava quanto una '70/'80 della precedente gen, alla metà del prezzo.
Non si dovrebbe giustificare il prezzo (alto) facendo il confronto prestazionale con la 3080, sono schede di due gen diverse, di fascia diversa...altrimenti che facciamo? La prossima gen nel 2024 giustificheremo il prezzo della 5060 a 700 o addirittura 800 euro perchè va quanto una 4080? Ma che ragionamento è?
Sbagli a ragionare cosi, i prezzi da sempre aumentano, l'inflazione cresce, il costo generale della vita cresce. Pretendere SEMPRE di avere la fascia media a 400 euro NON è sostenibile da nessuna compagnia. Poi sognare è gratis, certo, ma deve rimanere un sogno non una lamentela continua altrimenti poi ti iniziamo a chiamare IL PIANGINA. :read:
Cutter90
21-09-2022, 07:59
Va beh, ma se il dlss 3 dovgesse essere davvero così portentoso, non sarebbe normale che la serie 2 e 3 vengano messe da parte (solo per il 3 però eh) vista magari la mancanza di potenza hardware adeguata?
Goofy Goober
21-09-2022, 08:01
Sbagli a ragionare cosi, i prezzi da sempre aumentano
not true, non per tutto e non tutti gli ambiti.
con le gpu, come altra roba di elettronica che oggi si credono di vender oro, quando sempre silicio e stagno sono, hanno pompato e gonfiato i prezzi all'inverosimile dopo anni di evoluzioni che semplicemente rimpiazzavano il vecchio andando un po' meglio.
il vecchio non valeva più un kaiser (perchè non più performante nel presente) e l'attuale novità performava il giusto costando il giusto.
raccontarsi che va tutto bene perchè c'è l'inflazione (che ora c'è e galoppa) vuol dire riempirsi gli occhi con abbondanti fette di salumi guardando cosa accadeva anni addietro. 10 o poco più anni, mica mezzo secolo o più :stordita:
Va beh, ma se il dlss 3 dovgesse essere davvero così portentoso, non sarebbe normale che la serie 2 e 3 vengano messe da parte (solo per il 3 però eh) vista magari la mancanza di potenza hardware adeguata?
Sicuramente, un pò come successo con Pascal vs Turing potendo sfruttare il DLSS.
Poi va beh grazie AMD pure Maxwell può sfruttare l'FSR ma è un altro discorso.
Personalmente incrocio le dita su AMD, per contrastare il DLSS 3.0 potrebbe andare di potenza raster bruta, sperando che alzi le performance anche in RT.
sertopica
21-09-2022, 08:06
O per chi sta con mamma e papà :asd:
Ogni riferimento a persone o fatti e' puramente casuale. :stordita:
Sonpazzo
21-09-2022, 08:15
Ma non vi sembra sbagliato concentrare l'evento e successive discussioni sul dlss? Cioè chissenefrega di una tecnica furba per far vedere potenze farlocche? Mi sembra lo stile delle televendite
Goofy Goober
21-09-2022, 08:20
Ma non vi sembra sbagliato concentrare l'evento e successive discussioni sul dlss? Cioè chissenefrega di una tecnica furba per far vedere potenze farlocche? Mi sembra lo stile delle televendite
Bisogna aspettare le review.
Ciò non toglie che lo stile delle televendite a tanti possa far schifo, a me ad esempio lo fa :D
ninja750
21-09-2022, 08:21
Quindi una 4060 costerà 600 euro con prestazioni da 3080? Wow
Chances di vedere in futuro una 4060 che vada pressapoco come una 3080 ma consumando meno di 200w?
secondo me una 4050 in 200w rinominata 4060ti a 699$ la vedremo di sicuro, con perf 3070ti/3080 quindi quanto una 6800 che puoi comprare anche oggi :p
Da questa slide emerge una cosa interessante. Che i titoli mostrati anche alla presentazione (quelli di destra no RT e RT ), sono quelli che beneficeranno del dlss3 e difatti tanto guadagno, mentre quelli di sinistra , no dlss3 , non hanno tutto sto guadagno pazzesco . Sarò curioso di leggere le review su un parco titoli più ampio, prima di valutare l acquisto di una 4080/16.
Ma non vi sembra sbagliato concentrare l'evento e successive discussioni sul dlss? Cioè chissenefrega di una tecnica furba per far vedere potenze farlocche? Mi sembra lo stile delle televendite
sì, ma ci sta che al lancio per inscimmiare la gente mostri sempre il tuo best case scenario con i giochi che prenderanno più perf dalla nuova architettura e dalle nuove soluzioni vedi il 3.0
in raster si rischia veramente di vedere uscire male le 4080PE povery edition che già dalle loro slide in alcuni giochi è sotto ampere
OvErClOck82
21-09-2022, 08:21
Ma non vi sembra sbagliato concentrare l'evento e successive discussioni sul dlss? Cioè chissenefrega di una tecnica furba per far vedere potenze farlocche? Mi sembra lo stile delle televendite
lo è
piperprinx
21-09-2022, 08:22
Domanda: con il connettore unico a sto giro non avremo piu' differenze di watt tra schede a 2 e 3 pin come per le 3090?
Bloodline Limit
21-09-2022, 08:23
OT
entro in scivolata... ho la possibilità di prendere una 3080ti a 800€, usata ma perfettamente funzionante, piglio o passo? :stordita: :stordita:
/OT
Ed ecco dove sta l'altra furbata di Nvidia, due anni fa eravamo tutti a dire che la 3090 non valeva il prezzo rispetto alla 3080, ora con un'abile rimodulazione delle fasce la 4090 a 2000 euro diventa il best buy.
scorpion73
21-09-2022, 08:28
Condivido chi afferma che l'unica scheda sensata è la 4090, visto che le cifre sono folli per tutti i modelli.
Spendere 1500 euro per poi trovarsi una scheda che fra sei mesi è superata di brutto (perché in mezzo ci entrano molti altri modelli) anche no.
E' vero che c'è un gap di 500€ fra le due schede, ma in confronto al divario tecnico questa differenza è piccola, le 4080 sono completamente fuori mercato a quelle cifre.
Se devo spendere cifre folli lo faccio sul top di gamma, ma siccome mi sono rotto di spendere 2k per una scheda grafica, almeno al momento passo la mano e resto sulla sponda...
Jeetkundo
21-09-2022, 08:30
AMD costerà meno, vero? :D :D
Inviato dal mio LYA-L09 utilizzando Tapatalk
Thunder-74
21-09-2022, 08:31
La butto là ... io dico che il DLSS3 solo per ADA è una trovata bella e buona per spingere le 4000. Con il tempo vedremo la retrocompatibilità stile Gsync senza modulo :mc:
fraussantin
21-09-2022, 08:36
La butto là ... io dico che il DLSS3 solo per ADA è una trovata bella e buona per spingere le 4000. Con il tempo vedremo la retrocompatibilità stile Gsync senza modulo :mc:Le prestazioni però senza un hw specifico crollerebbero. Un po come rt.
Penso più che amd svilupperà una roba free , sicuramente di qualita inferiore , tipo quela delle tv per capirsi , ma usufruibile da tutti. Che poi male non farebbe è..
not true, non per tutto e non tutti gli ambiti.
con le gpu, come altra roba di elettronica che oggi si credono di vender oro, quando sempre silicio e stagno sono, hanno pompato e gonfiato i prezzi all'inverosimile dopo anni di evoluzioni che semplicemente rimpiazzavano il vecchio andando un po' meglio.
il vecchio non valeva più un kaiser (perchè non più performante nel presente) e l'attuale novità performava il giusto costando il giusto.
raccontarsi che va tutto bene perchè c'è l'inflazione (che ora c'è e galoppa) vuol dire riempirsi gli occhi con abbondanti fette di salumi guardando cosa accadeva anni addietro. 10 o poco più anni, mica mezzo secolo o più :stordita:
Il mio discorso era OVVIAMENTE riferito alle schede video, poi chiaramente ci sarebbero mille cose da dire sulla situazione attuale.. ma sicuramente non sono uno di quelli che si racconta che: ''va' tutto bene''
Ma di sicuro non c'è un disastro come pensi, ci sono alcuni settori e alcune categorie più colpite ma come in ogni cosa c'è chi va male e chi va bene è un dato di fatto altrimenti saremmo già tornati all'era della pietra non pensi?
Boh vabbè comunque stiamo parlando di schede video, oggetti di cui NESSUNO ha un bisogno essenziale per vivere. Fanno parte del superfluo e come tali vanno viste. (questa è l'unica realtà oggettiva.)
Goofy Goober
21-09-2022, 08:40
Il mio discorso era OVVIAMENTE riferito alle schede video, poi chiaramente ci sarebbero mille cose da dire sulla situazione attuale.. ma sicuramente non sono uno di quelli che si racconta che: ''va' tutto bene''
Ma di sicuro non c'è un disastro come pensi, ci sono alcuni settori e alcune categorie più colpite ma come in ogni cosa c'è chi va male e chi va bene è un dato di fatto altrimenti saremmo già tornati all'era della pietra non pensi?
Boh vabbè comunque stiamo parlando di schede video, oggetti di cui NESSUNO ha un bisogno essenziale per vivere. Fanno parte del superfluo e come tali vanno viste. (questa è l'unica realtà oggettiva.)
Guarda che per me il disastro schede video non è mica rapprensentato dalle 40XX
Per me tutto lo schifo è iniziato all'epoca della 680GTX e della prima Titan, oggi stanno semplicemente proseguendo nella stessa strada.
Stessa cosa, se fai caso, capitò ad altri oggetti di mero valore consumistico passeggero, come i cellulari.
E del prezzo che hanno oggi, a parte guardalo e analizzarlo per quel che, mi interessa poco, le schede le ho sempre comprate quando avevano il prezzo di mio interesse e mi era necessario per qualcosa averle. Non sono mai stato appassionato abbastanza da comprarle solo perchè esistevano :D
La realtà oggettiva è che siamo pieni di superfluo ma finchè non ti bombarbano e devi scappare a gambe levate tanti non ne fanno a meno, e se ne lamentano quando proprio sono agli sgoccioli. Le gpu sono solo 1 delle milioni di cose. :fagiano:
Ale55andr0
21-09-2022, 08:40
Certo se si mette tutto a bomba...io con la 3070 uso i settaggi ottimizzati di DF lasciando solo i riflessi rt (che sono quelli che fanno davvero la differenza) e a 1440p+dlss quality vola.
Per me CP2077 in DLSS rispetto la nativa non si può semplicemente vedere: più seghettato, flickering e vaselinato, e il fatto che continuino a puntare so sto upscale del piffero mi fa solo salire la bile, vuol dire che i giochi saranno sempre peggio ottimizzati che tanto con l'algoritmo "magico" girano (vedendosi una merda, per quanto MI riguarda). Come fate non notare il degrado, le scalette e i tremolii io non lo capirò MAI ma buon per voi, io sono condannato.
Il DLSS spesso fa miracoli, come eliminare lo shimmering, dando l'illusione di un'immagine superiore in tutto e per tutto, e l'occhio questo vede.
ecco, io invece vedo tutto il resto che NON fa e di quell'illusione (perchè questo è) ne faccio molto volentieri a meno se devo beccarmi il flickering e le scalette.
Guarda che per me il disastro schede video non è mica rapprensentato dalle 40XX
Per me tutto lo schifo è iniziato all'epoca della 680GTX e della prima Titan, oggi stanno semplicemente proseguendo nella stessa strada.
Stessa cosa, se fai caso, capitò ad altri oggetti di mero valore consumistico passeggero, come i cellulari.
E del prezzo che hanno oggi, a parte guardalo e analizzarlo per quel che, mi interessa poco, le schede le ho sempre comprate quando avevano il prezzo di mio interesse e mi era necessario per qualcosa averle. Non sono mai stato appassionato abbastanza da comprarle solo perchè esistevano :D
La realtà oggettiva è che siamo pieni di superfluo ma finchè non ti bombarbano e devi scappare a gambe levate tanti non ne fanno a meno, e se ne lamentano quando proprio sono agli sgoccioli. Le gpu sono solo 1 delle milioni di cose. :fagiano:
Ottimo vedo che ci siamo capiti al volo ;) :D
Ale55andr0
21-09-2022, 08:50
Senza le ombre è come non avere RT. Con un mix decente di opzioni e dlss quality stai a 35-40fps.
pensa te che a me le ombre rt non piacciono rispetto a quelle molto più nette e definite in raster :asd:
Sono i riflessi RT che fanno LA differenza in CP2077 imho
Mah, le ombre rt le ho provate insieme alle luci, ma sinceramente non ho trovato tutta questa differenza, i riflessi sono l'unico settaggio che ho trovato degno di essere attivato, soprattutto quando nel gioco è notte e si gira per night city.
this
Cutter90
21-09-2022, 08:54
Per me CP2077 in DLSS rispetto la nativa non si può semplicemente vedere: più seghettato, flickering e vaselinato, e il fatto che continuino a puntare so sto upscale del piffero mi fa solo salire la bile, vuol dire che i giochi saranno sempre peggio ottimizzati che tanto con l'algoritmo "magico" girano (vedendosi una merda, per quanto MI riguarda). Come fate non notare il degrado, le scalette e i tremolii io non lo capirò MAI ma buon per voi, io sono condannato.
ecco, io invece vedo tutto il resto che NON fa e di quell'illusione (perchè questo è) ne faccio molto volentieri a meno se devo beccarmi il flickering e le scalette.
Non c'è alcuna illusione. Il dlss rende davvero migliore l'immagine. Il flickering c'è solo in alcuni giochi, ed è spesso assolutamente trascurabile se paragonato al boost di perfromance e di qualità visiva. Nei giochi con il TAA il dlls la migliora per davvero l'immagine. Non c'è alcuna illusione. In 4k poi il dlss è ancora più fondamentale
Le ombre in rt sono reali, quelli in raster no. Poi può non valerne la pena e su questo sono d'accordo.
Quello che fa davvero la differenza in rt, oltre ai riflessi è la Global Illumination, tipo su metro o anche lo stesso cp 2077. Lì fa davvero la differenza, ripeto
Ma non vi sembra sbagliato concentrare l'evento e successive discussioni sul dlss? Cioè chissenefrega di una tecnica furba per far vedere potenze farlocche? Mi sembra lo stile delle televendite
Quando ha mostrato la scheda verso l'inizio della conferenza...prova a togliere la scheda e mettici un set di pentole, un imperdibile nuovo strumento per il fitness o la cucina e guarda se non ci stanno perfettamente.
Incredibile siore e siori, solo per oggi ma a partire da domani un incredibile sconto! Potrete avere la 4090 per solo 2000 euri invece che 3000. Ma non è finita qui...in omaggio avrete anche il DLSS 3 per poter mandare Cyberpunk ad un framerate decente!!
Ale55andr0
21-09-2022, 08:58
Per adesso vantano 2/4x con dlss 3.0 vs dlss 2.0.
Hanno messo dei grafici comparativi senza senso.
Bisogna aspettare le review indipendenti.
"in performance mode dove possibile" scritto piccolo piccolo :O
Va beh, ma se il dlss 3 dovgesse essere davvero così portentoso, non sarebbe normale che la serie 2 e 3 vengano messe da parte (solo per il 3 però eh) vista magari la mancanza di potenza hardware adeguata?
se dovesse essere portentoso coi medesimi artefatti/degrado del 2.0 per me di portentoso avrebbe solo il potere da televendita di giacchetta
ninja750
21-09-2022, 09:00
Per me CP2077 in DLSS rispetto la nativa non si può semplicemente vedere: più seghettato, flickering e vaselinato, e il fatto che continuino a puntare so sto upscale del piffero mi fa solo salire la bile, vuol dire che i giochi saranno sempre peggio ottimizzati che tanto con l'algoritmo "magico" girano (vedendosi una merda, per quanto MI riguarda). Come fate non notare il degrado, le scalette e i tremolii io non lo capirò MAI ma buon per voi, io sono condannato.
se togliamo il dlss dalla presentazione (modalità performance ricordiamo, comparazioni visive non ne abbiamo viste) di JHH cosa rimane di queste 4000? una 12gb che in qualche loro stessa slide va pure meno di ampere, e che quindi in raster andrà sì più forte ma forse non così tanto più forte per via dei clock che, ripetiamo, sono un pochino deludenti per essere su sto nuovo processo 4N? la 4080 full è la prima che permette un salto significativo, ma lo fa per 1.500€
se amd conferma la sua forza in raster come 6000 vs 3000 e se continuerà a sviluppare FSR (ricordiamo com'era all'inizio) rischia veramente di divorarsi queste 4080 senza cominciare a scomodare consumi o altro
la 4090 può fare categoria a parte, come detto è una nuova fascia insieme alla 4080 full
se adesso vuole prendere per i fondelli e fare sborsare 699$ per una 4070 e chiamarla media, e 599$ per una 4060 e chiamarla bassa, va da se che qualcosa non quadra
centra sempre nulla ma ricordo che il msrp di una ps5 è 449€
davide155
21-09-2022, 09:03
Non c'è alcuna illusione. Il dlss rende davvero migliore l'immagine. Il flickering c'è solo in alcuni giochi, ed è spesso assolutamente trascurabile se paragonato al boost di perfromance e di qualità visiva. Nei giochi con il TAA il dlls la migliora per davvero l'immagine. Non c'è alcuna illusione. In 4k poi il dlss è ancora più fondamentale
Le ombre in rt sono reali, quelli in raster no. Poi può non valerne la pena e su questo sono d'accordo.
Quello che fa davvero la differenza in rt, oltre ai riflessi è la Global Illumination, tipo su metro o anche lo stesso cp 2077. Lì fa davvero la differenza, ripetoSe andate sul sito geforce spiegano tutte le features introdotte con ada lovelace, e sono davvero tante. Compresa una nuova global illumination rtx. Di carne al fuoco ce n'è parecchia.
Peccato per i 2mila euro della 4090, davvero troppi anche per me, soprattutto con un parco giochi di novità pari a zero. L'ue5 lo vedremo se va bene nel 2023 inoltrato, a parte a plague tale, che come gioco non mi attira per niente. Senza contare la 4070.....ehhmm 4080 a 1500...
Se con le ampere avevano giocato di astuzia, con ada hanno fatto ALL-IN in modo da tagliare fuori tutti i bagarini e mettere le mani pure sul loro profitto.
Ale55andr0
21-09-2022, 09:03
Non c'è alcuna illusione. Il dlss rende davvero migliore l'immagine. Il flickering c'è solo in alcuni giochi, ed è spesso assolutamente trascurabile se paragonato al boost di perfromance e di qualità visiva. Nei giochi con il TAA il dlls la migliora per davvero l'immagine. Non c'è alcuna illusione. In 4k poi il dlss è ancora più fondamentale
Le ombre in rt sono reali, quelli in raster no. Poi può non valerne la pena e su questo sono d'accordo.
Quello che fa davvero la differenza in rt, oltre ai riflessi è la Global Illumination, tipo su metro o anche lo stesso cp 2077. Lì fa davvero la differenza, ripeto
Se io ho più scalette e tremolii che in nativa (basta guardare mentre ci si avvicina a una scalinata inizia tutto a flickerare, o vedere i lunotti termici delle auto, tutti seghettati, ed esempio la Porsche di Silverhand) o effetti ghosting vari, io NON vedo un'immagine migliore ma peggiore. Il dettaglio finto dello pseudo-sharpen applicato dal DLSS per me non è dettaglio, è una "equalizzazione" dell'immagine, come il tunz tunz di chi usa il loudness negli impianti audio che alza di 5/6db bassi e alti: una roba finta e NON fedele. Ma quello non introduce altri disturbi almeno e ti da solo la parte "positiva"...
davide155
21-09-2022, 09:05
La butto là ... io dico che il DLSS3 solo per ADA è una trovata bella e buona per spingere le 4000. Con il tempo vedremo la retrocompatibilità stile Gsync senza modulo :mc:Occhio che il gsync compatibile senza modulo non ha le stesse caratteristiche del gsync con modulo. La differenza c'è ed è evidente. E parlo da possessore di monitor gsync nativo.
ArchibaldJr
21-09-2022, 09:12
OT
entro in scivolata... ho la possibilità di prendere una 3080ti a 800€, usata ma perfettamente funzionante, piglio o passo? :stordita: :stordita:
/OT
Prendi prendi io l ho acquistata un mese fa qui sul forum e la uso in 4k 144hz e va una cannonata
Fin OT
Cutter90
21-09-2022, 09:13
Se io ho più scalette e tremolii che in nativa (basta guardare mentr eci si avvicina a una scalinata inizia tutto a flickerare o vedere i lunotti termici delle auto, tutti seghettati, ed esempio la Porsche di Silverhand) o effetti ghosting vari, io NON vedo un'immagine migliore ma peggiore. Il dettaglio finto dello pseudo-sharpen applicato dal DLSS per me non è dettaglio, è una "equalizzazione" dell'immagine, come il tunz tunz di chi usa il loudness negli impianti audio che alza di 5/6db bassi e alti: una roba finta e NON fedele. Ma quello non introduce altri disturbi almeno e ti da solo la parte "positiva"...
Ma le cose che dici tu le vedi solo in alcuni giochi e solo in situazioni particolari. In god of war tutto questo che dici tu non c'è assolutamente. Non è che se in un fermo immagine su una foglia vede del flickering allora il dlss fa schifo e non si usa. Nel 99% del resto del gioco ti dà 20 fps e ti migliora l'immagine. Come fai a non usarlo solo per quella foglia? Cioè, boh
Cutter90
21-09-2022, 09:13
Occhio che il gsync compatibile senza modulo non ha le stesse caratteristiche del gsync con modulo. La differenza c'è ed è evidente. E parlo da possessore di monitor gsync nativo.
La differenza non c'è su come lavora ma da che fps parte a lavorare. Perchè il compatibile e con il modula lavora uguali eh
davide155
21-09-2022, 09:19
La differenza non c'è su come lavora ma da che fps parte a lavorare. Perchè il compatibile e con il modula lavora uguali ehSi, soprattutto da che fps inizia e come.
Nel gsync compatibile hai tearing a manetta sotto un certo numero di fps. Col modulo anche a 20fps non hai tearing o stuttering.
Se ritrovo un articolo dove spiegava bene le differenze a video lo rilinko.
Cutter90
21-09-2022, 09:20
Si, soprattutto da che fps inizia e come.
Nel gsync compatibile hai tearing a manetta sotto un certo numero di fps. Col modulo anche a 20fps non hai tearing o stuttering.
Se ritrovo un articolo dove spiegava bene le differenze a video lo rilinko.
Si si, ma appunto. Il gsync compatibile inizia da 40-48 fps mi pare. L'ultimate, quello con il modulo da 10 o giù di lì. Ma se uno gioca sopra i 40 fps è una differenza, l'unica, irrilevante
FrancoBit
21-09-2022, 09:26
La fonte è quella che è, però la notizia è comunque da considerare:
https://multiplayer.it/notizie/dlss-3-solo-in-parte-esclusiva-rtx-40-parzialmente-supportato-rtx-20-30.html
Il dlss3.0 sarà "in parte" supportato anche dalle serie 2000 e 3000
Qui riportata diversamente:
https://wccftech.com/dlss-3-games-will-also-offer-dlss-2-reflex-for-previous-rtx-series-nvidia-confirms/
craesilo
21-09-2022, 09:27
Ed ecco dove sta l'altra furbata di Nvidia, due anni fa eravamo tutti a dire che la 3090 non valeva il prezzo rispetto alla 3080, ora con un'abile rimodulazione delle fasce la 4090 a 2000 euro diventa il best buy.
solo in ambito gaming
StylezZz`
21-09-2022, 09:27
Sbagli a ragionare cosi, i prezzi da sempre aumentano, l'inflazione cresce, il costo generale della vita cresce. Pretendere SEMPRE di avere la fascia media a 400 euro NON è sostenibile da nessuna compagnia. Poi sognare è gratis, certo, ma deve rimanere un sogno non una lamentela continua altrimenti poi ti iniziamo a chiamare IL PIANGINA. :read:
Vatti a guardare l'andamento dei prezzi delle schede video dal 2012 a oggi, e poi dimmi se è sbagliato ragionare così.
Comunque la mia era solo una risposta ad un commento, non una lamentela, e come giustamente hai fatto notare non sono beni di prima necessità, per cui non ho problemi ad aspettare e acquistarli al prezzo che io ritengo accettabile.
Per me CP2077 in DLSS rispetto la nativa non si può semplicemente vedere: più seghettato, flickering e vaselinato, e il fatto che continuino a puntare so sto upscale del piffero mi fa solo salire la bile, vuol dire che i giochi saranno sempre peggio ottimizzati che tanto con l'algoritmo "magico" girano (vedendosi una merda, per quanto MI riguarda). Come fate non notare il degrado, le scalette e i tremolii io non lo capirò MAI ma buon per voi, io sono condannato
Ma io queste ''scalette'' non le vedo, anzi, vedo i contorni morbidi come se fosse attivo il TAA ma meno ''impastato'', più nitido.
ninja750
21-09-2022, 09:30
Si, però io mi riferisco a quello che riporta lui:
TU102 16 TF ovvero 4608@ 1770mhz.
GA102 40 TF ovvero 10752@1860
AD102 90 TF ovvero 16340@ 2750.
A meno che lui non intenda il chip completo, ma sarebbe @2450 così.
continuo a non capire da dove hai preso quei 2750
MetalAxe79
21-09-2022, 09:34
che la 4090 sia l'unica con un senso (per chi caga soldi) lo si era capito 1 secondo dopo l'annuncio :asd:Esatto... Per chi caga soldi... Farci fuori più di uno stipendio per una scheda per giocare (questo è l'uso che ne farei) mi pare una spesa esagerata. A questo punto spero che AMD tiri fuori delle buone schede a prezzo più umano (qualcosa di buono sotto i 1000)
Inviato dal mio Mi 9T utilizzando Tapatalk
razor820
21-09-2022, 09:34
Io generalmente cambio gpu più per sfizio che per bisogno.
Ma mi son posto la recente domanda, ma il dls 3.0 con accoppiata rtx a cosa mi servirebbe? Per far girare cb2077 o dying light? Perché da mesi o anni giochi non ne vedo e non se ne vedono all orizzonte.
Ma il tdp di ste gpu qual è?
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
Beh dai lo supporterà STALKER 2 che esce nel duemilacredici.
devAngnew
21-09-2022, 09:41
La fonte è quella che è, però la notizia è comunque da considerare:
https://multiplayer.it/notizie/dlss-3-solo-in-parte-esclusiva-rtx-40-parzialmente-supportato-rtx-20-30.html
Il dlss3.0 sarà "in parte" supportato anche dalle serie 2000 e 3000
Qui riportata diversamente:
https://wccftech.com/dlss-3-games-will-also-offer-dlss-2-reflex-for-previous-rtx-series-nvidia-confirms/
Secondo me il DLSS3 = non è altro che il DLSS2 + reflex +"frame inventato gpu" rtx 4000 (passatemi il termine) per raggiungere dove possibile i 120fps :D
Quando scopri che ai i magazzini pieni di schede overpriced e ti sbattono in faccia le nuove
https://i.imgur.com/EPC6NQJl.png
ma poi ti dicono il prezzo e i tuoi magazzini come per magia si rivalutano
https://i.imgur.com/OH7i3XMl.png
:D :D
mikael84
21-09-2022, 09:58
continuo a non capire da dove hai preso quei 2750
Se leggi bene c'è scritto. 2750 l'avevo riportato in base allo stock 4090, invece è sulla top. 90 sono quelli della TI in pratica.
Però tu continui a parlare di clock bassi e deludenti. Guarda che quei 2500, 2600 sono in boost base non in boost effettivo, ovvero quelli a 0,87v.
Il boost effettivo sarà sui 2700 2800.
Per fare il paragone, il boost base della 3080 è 1710, qua siamo a 2500 2600.
mikael84
21-09-2022, 10:05
Per me CP2077 in DLSS rispetto la nativa non si può semplicemente vedere: più seghettato, flickering e vaselinato, e il fatto che continuino a puntare so sto upscale del piffero mi fa solo salire la bile, vuol dire che i giochi saranno sempre peggio ottimizzati che tanto con l'algoritmo "magico" girano (vedendosi una merda, per quanto MI riguarda). Come fate non notare il degrado, le scalette e i tremolii io non lo capirò MAI ma buon per voi, io sono condannato.
ecco, io invece vedo tutto il resto che NON fa e di quell'illusione (perchè questo è) ne faccio molto volentieri a meno se devo beccarmi il flickering e le scalette.
La matrice lavora in FP16 non in FP32, è naturale avere un minimo di degrado.
Anche AMD quando Pascal non supportata gli fp16, imbottiva alcune zone di fp16, es doom, fc5. Una volta battuta da turing con le native, sparita quella tecnica.:D
Quando scopri che ai i magazzini pieni di schede overpriced e ti sbattono in faccia le nuove
...
ma poi ti dicono il prezzo e i tuoi magazzini come per magia si rivalutano
...
:D :D
Io faccio solo presente che, da questa mattina, su subito non si trovano più RTX 3080 sotto i 750/800€ usate :fagiano:
Prima ho visto anche qualche annuncio a 600€... tutti spariti magicamente dopo il keynote di ieri.
amon.akira
21-09-2022, 10:07
Se leggi bene c'è scritto. 2750 l'avevo riportato in base allo stock 4090, invece è sulla top. 90 sono quelli della TI in pratica.
Però tu continui a parlare di clock bassi e deludenti. Guarda che quei 2500, 2600 sono in boost base non in boost effettivo, ovvero quelli a 0,87v.
Il boost effettivo sarà sui 2700 2800.
Per fare il paragone, il boost base della 3080 è 1710, qua siamo a 2500 2600.
Boost Clock (GHz)
4090 2.52
4080 16gb 2.51
4080 12gb 2.61
quindi si la 4090 finirà verso i 2750
Ale55andr0
21-09-2022, 10:08
OT
entro in scivolata... ho la possibilità di prendere una 3080ti a 800€, usata ma perfettamente funzionante, piglio o passo? :stordita: :stordita:
/OT
se con abbondante garanzia residua piglia, senno' quasi la prendi nuova con poco più....
davide155
21-09-2022, 10:09
Io faccio solo presente che, da questa mattina, su subito non si trovano più RTX 3080 sotto i 750/800€ usate :fagiano:
Prima ho visto anche qualche annuncio a 600€... tutti spariti magicamente dopo il keynote di ieri.Eh tu vedrai. Con quei prezzi da bagno di sangue. La gente mica ha soldi a palate.
Si prospetta un inverno da 500 euro a bolletta di luce ed altri 500 di gas.
Se uno deve upgradare per forza va di ampere usata. E va nel chiulo a giacchetta.
Soprattutto alla luce dei prezzi sul sito nvidia italia. C'è poco da fare.
E ribadisco, per fortuna ci sono i magazzini pirni di ampere!
Altrimenti chi veniva da pascal toccava spendere uno stipendio per avere una 4060.....ehmmm 4070.
craesilo
21-09-2022, 10:12
facendo un recappone (cit.)
3050 lammerda
3060 lammerda
3060ti ok
3070 lammerda
3070ti lammerda
3080 10gb lammerda
3080 12gb ok
3080ti lammerda
3090 ok non per gioco
3090ti lammerda
4080 12gb lammerda
4080 16gb ok se caghi soldi
4090 ok non per gioco
Ale55andr0
21-09-2022, 10:12
se amd conferma la sua forza in raster come 6000 vs 3000 e se continuerà a sviluppare FSR (ricordiamo com'era all'inizio) rischia veramente di divorarsi queste 4080 senza cominciare a scomodare consumi o altro
AMD però si sta nvidizzando/intellizzando coi prezzi, anzi la cosa è già avvenuta....
devAngnew
21-09-2022, 10:12
Io faccio solo presente che, da questa mattina, su subito non si trovano più RTX 3080 sotto i 750/800€ usate :fagiano:
Prima ho visto anche qualche annuncio a 600€... tutti spariti magicamente dopo il keynote di ieri.
Ieri ho visto su subito e non sono dello stesso avviso, 3080 anche a 1100 €.
Cmq vista la situazione è probabile ora trovare 3080 nuove a prezzo consigliato. :)
Ad ogni modo anche se la rtx 4090 è il vero salto avremo imho prezzi su strada ben superiori a 2000 €. Per me è scaffale, ma tanto loro hanno deciso di puntare al cloud. :fagiano:
devAngnew
21-09-2022, 10:13
AMD però si sta nvidizzando/intellizzando coi prezzi, anzi la cosa è già avvenuta....
Il mercato funziona solo se ci sono molti player non come è adesso dove abbiamo a stendo tre player. :stordita:
Ale55andr0
21-09-2022, 10:15
Ma le cose che dici tu le vedi solo in alcuni giochi e solo in situazioni particolari. In god of war tutto questo che dici tu non c'è assolutamente. Non è che se in un fermo immagine su una foglia vede del flickering allora il dlss fa schifo e non si usa. Nel 99% del resto del gioco ti dà 20 fps e ti migliora l'immagine. Come fai a non usarlo solo per quella foglia? Cioè, boh
io difetti gratuiti NON devo vederli e basta che vuol dire solo giochi e situazioni? Lo spacciate (parlo in generale non tu) come algoritmo miracoloso? Bene, allora NON devono esistere i se e i ma a parte il fatto hhe in un open world quelle situazioni sono un continuo altro che situazioni particolari. Non è un singolo elemento, ma uno strafottio di modeli geometrici di una CITTA' (scalinate, recinzioni, reti, parti delle auto, del pavimento etc). Poi ripeto, se a voi sta bene, buon per voi. A me no. Del DLSS ed FSR penso solo tutto lo schifo possibile e immaginabile e il fatto che ci abbiamo fatto l'INTERA presentazione basando su quello le tabelle ti incremento prestazinale (per giunta in modalità performance, orrore) lo trovo patetico
AMD però si sta nvidizzando/intellizzando coi prezzi, anzi la cosa è già avvenuta....
Se la gente apre il portafoglio per X perche' devono vendere a molto meno?
Goofy Goober
21-09-2022, 10:18
Io generalmente cambio gpu più per sfizio che per bisogno.
Ma mi son posto la recente domanda, ma il dls 3.0 con accoppiata rtx a cosa mi servirebbe? Per far girare cb2077 o dying light? Perché da mesi o anni giochi non ne vedo e non se ne vedono all orizzonte.
a rigiocare quello che già c'è ora con più fps, che domande :asd:
ah, e se percaso a qualcuno non interessano nemmeno i giochi più "blasonati" in termini tecnici, perchè magari hanno gameplay non affini ai gusti, allora ha ancora più senso comprarle :D
Ale55andr0
21-09-2022, 10:21
Se la gente apre il portafoglio per X perche' devono vendere a molto meno?
1) Perchè oggettivamente sono inferiori a oggi, almeno lato RT, e PARECCHIO e non ho alcun elemento per pensare che si porteranno in pari con le 4000 da quel punto di vista. Il parco di titoli nuovi si sposta su quello, una gpu next gen l'acquisti per il raster? No perchè per quello oggi persino IL ROITO che ho in firma basta tranquillamente, specialmente se fosse spinto da un cpu vera e non da un cesso a pedali
2) Forse ti sfugge che hanno una porzione di mercato miserabile rispetto a nvidia. La gente la convinci a passare da te per simpatia se vai uguale e costi uguale? Lato brand NON possono competere con nvida, punto.
Ale55andr0
21-09-2022, 10:24
Vatti a guardare l'andamento dei prezzi delle schede video dal 2012 a oggi, e poi dimmi se è sbagliato ragionare così.
Comunque la mia era solo una risposta ad un commento, non una lamentela, e come giustamente hai fatto notare non sono beni di prima necessità, per cui non ho problemi ad aspettare e acquistarli al prezzo che io ritengo accettabile.
Ma io queste ''scalette'' non le vedo, anzi, vedo i contorni morbidi come se fosse attivo il TAA ma meno ''impastato'', più nitido.
quando avrò un buco di tempo posterò qualche immagine, ho stra da fare (anche se non si direbbe da quanto posto, lo so :asd:)
Cutter90
21-09-2022, 10:25
io difetti gratuiti NON devo vederli e basta che vuol dire solo giochi e situazioni? Lo spacciate (parlo in generale non tu) come algoritmo miracoloso? Bene, allora NON devono esistere i se e i ma a parte il fatto hhe in un open world quelle situazioni sono un continuo altro che situazioni particolari. Non è un singolo elemento, ma uno strafottio di modeli geometrici di una CITTA' (scalinate, recinzioni, reti, parti delle auto, del pavimento etc). Poi ripeto, se a voi sta bene, buon per voi. A me no. Del DLSS ed FSR penso solo tutto lo schifo possibile e immaginabile e il fatto che ci abbiamo fatto l'INTERA presentazione basando su quello le tabelle ti incremento prestazinale (per giunta in modalità performance, orrore) lo trovo patetico
Se ma ho capito, ma che discorsi sono? Tutte le cose NON sono perfette e vanno pesate come vantaggi svantaggi. Se in un gioco hai un miglioramento dell'immagine, 20 fps in più, ma poi una ringjuiera che becchi 2 volte in 50 ore di gioco flickera cosa fai non lo usi? Scelta tua. Ma solo perchè PER TE è più pensante quella ringhiera di quei vantaggi OGGETTIVI non puoi assolutamente dire che il dlss sia porcheria. Ma mai nella vita.
Ma parli di cp 2077? No perchè io tutti sti problemi che tu dici non li vedo assolutamente. ok, è un po' che non gioco. Mi dici dove li vedi? Hai un video?
amon.akira
21-09-2022, 10:25
io difetti gratuiti NON devo vederli e basta che vuol dire solo giochi e situazioni? Lo spacciate (parlo in generale non tu) come algoritmo miracoloso? Bene, allora NON devono esistere i se e i ma a parte il fatto hhe in un open world quelle situazioni sono un continuo altro che situazioni particolari. Non è un singolo elemento, ma uno strafottio di modeli geometrici di una CITTA' (scalinate, recinzioni, reti, parti delle auto, del pavimento etc). Poi ripeto, se a voi sta bene, buon per voi. A me no. Del DLSS ed FSR penso solo tutto lo schifo possibile e immaginabile e il fatto che ci abbiamo fatto l'INTERA presentazione basando su quello le tabelle ti incremento prestazinale (per giunta in modalità performance, orrore) lo trovo patetico
si ma l alternativa è mettere il raytracing off? poi si che nitida merda...se hai potenza metti dlss off dove da fastidio...esempi
gow l ho fatto senza perchè c era potenza
control lo metti on a prescindere perchè migliora
cyberpunk lo metti perchè non puoi toglierlo per mancata potenza
uno spiderman se ho potenza lo farei con dlaa
Ale55andr0
21-09-2022, 10:27
La matrice lavora in FP16 non in FP32, è naturale avere un minimo di degrado.
Anche AMD quando Pascal non supportata gli fp16, imbottiva alcune zone di fp16, es doom, fc5. Una volta battuta da turing con le native, sparita quella tecnica.:D
Non mi interessa di chi fa cosa, ma del risultato, che sia AMD o nVidia se devo criticare non ho problema alcuno :). Sono mesi che chiamo la mia scheda roito e sono mesi che dico che AMD in RT è un chiodo, figurati se ho preferenze o simpatie :asd:
Se ma ho capito, ma che discorsi sono? Tutte le cose NON sono perfette e vanno pesate come vantaggi svantaggi?
Bene, ai miei occhi il DLSS fa cagare a spruzzo e preferisco senza se devo pesare le cose, ma non nettamente, di più. Gli altri ripeto, se sono contenti e non vedono le porcherie continue che vedo io, solo di guadagnato per loro, si godano la resa felici e contenti alla faccia mia ;)
si ma l alternativa è mettere il raytracing off? poi si che nitida merda...se hai potenza metti dlss off dove da fastidio...esempi
gow l ho fatto senza perchè c era potenza
control lo metti on a prescindere perchè migliora
cyberpunk lo metti perchè non puoi toglierlo per mancata potenza
uno spiderman se ho potenza lo farei con dlaa
Guarda che da mo che non c'è più il TAA violento in nativa in CP 2077. Senza DLSS è una SPADA, definto e con contorni NETTI e SMUSSATI. Prova il DLDblabla 4k e il DLSS 4k qualità, il primo riduce ammerda il secondo, sotto ogni punto di vista, definizione inclusa
ninja750
21-09-2022, 10:29
Però tu continui a parlare di clock bassi e deludenti. Guarda che quei 2500, 2600 sono in boost base non in boost effettivo, ovvero quelli a 0,87v.
Il boost effettivo sarà sui 2700 2800.
detto che le frequenze non definiscono un'architettura, come già scritto 2700 non sono lontani da quello che ottiene AMD sul 7 da due anni, su questo 4 ci si aspettava decisamente di più visto che lui parla apertamente di QUASI 3ghz in overlock
vedremo pari nodo che frequenze avrà la concorrenza, se i rumors sono veri (tutto da prendere con le pinze) siamo a +1000
albero77
21-09-2022, 10:31
Eh tu vedrai. Con quei prezzi da bagno di sangue. La gente mica ha soldi a palate.
Si prospetta un inverno da 500 euro a bolletta di luce ed altri 500 di gas.
Se uno deve upgradare per forza va di ampere usata. E va nel chiulo a giacchetta.
Soprattutto alla luce dei prezzi sul sito nvidia italia. C'è poco da fare.
E ribadisco, per fortuna ci sono i magazzini pirni di ampere!
Altrimenti chi veniva da pascal toccava spendere uno stipendio per avere una 4060.....ehmmm 4070.
Beh se prendo una 4090 non userò gas per riscaldarmi, è comunque un risparmio:Prrr:
narniagreen
21-09-2022, 10:31
Pensa che c'è chi ha fatto la raccolta di queste perle e me le riporta, mi immolo io per loro, così adesso puoi cambiare account e cancellare questo post senza bannare nessuno...
Però non mollare, Jensen ha bisogno di te in questo momento come non mai :D
"Ci ho preso" cit.
Ps. ti risparmio quelle sulle caratteristiche tecniche, dove "ci ho preso x2" semicit.
Io parlavo a livello prestazionale, dei prezzi mai parlato. Cmq per me se le può dare sui denti conoscendo il valore dei chippetti.
La 4060 non costerà mai 549$, andrà come una 3070 o poco più.
Anche AMD metterà quella fascia sulle 300 e qualcosa.
4080 12, probabile 699, essendo una x80 (di nome, è una x60)
Il fix è doveroso
Se ci sarà veramente la 4080 da 12gb, avrà un chippino di circa 300mm2, ma mantenendo il nome 4080, partirà quasi sicuramente da 699$.
La più grande fregatura potrebbe essere questa.
Rispetto a GA102, di cui la 3080 è un chip danneggiato e recuperato, i costi per die sarebbero uguali, circa 80$ (questo senza rigonfiamenti, ma al netto del wafer, o meglio quanto verrebbe a JHH).
Essendo però un chippetto da 300mm2, nel singolo wafer può ricavare quasi 3 volte le GPU per via delle rese superiori.
Quindi qua i costi, non aumentano, anzi.
L'unico chip che ha un'aumento significativo in costi di PP è AD102 con + 140$, rispetto GA102 ed anche le stesse rese (anche se samsung aveva più die danneggiati). Questi sono prezzi a lui, non gonfiati.
Non c'è un reale motivo per avere costi esagerati nelle fasce.:)
Cambio e iva saranno un bel problema, minimo 850.:muro:
Ok che sarà un chip superiore alla 3090 però...
Voi quanto spazio avete nel case? Io ho massimo 330 cm e ho appena visto che le 4090 sono dei mostri di lunghezza. Mi sa che mi tocca cercare un altro case, non so nemmeno se esistono di quelle dimensioni.
Eppure il mio è pure bello spazioso. :cry:
Ale55andr0
21-09-2022, 10:33
Io faccio solo presente che, da questa mattina, su subito non si trovano più RTX 3080 sotto i 750/800€ usate :fagiano:
Prima ho visto anche qualche annuncio a 600€... tutti spariti magicamente dopo il keynote di ieri.
Gli restano cmq in groppa, come a me la 70. Solo un IDIOTA gliele comprerebbe sopra quel valore
ninja750
21-09-2022, 10:34
Se in un gioco hai un miglioramento dell'immagine, 20 fps in più, ma poi una ringjuiera che becchi 2 volte in 50 ore di gioco flickera cosa fai non lo usi? Scelta tua. Ma solo perchè PER TE è più pensante quella ringhiera di quei vantaggi OGGETTIVI non puoi assolutamente dire che il dlss sia porcheria. Ma mai nella vita.
eppure quando confrontiamo nativa vs FSR 2.0 vs DLSS 2.0 ci mettiamo a zoomare 40x i fotogrammi in cerca di minimi artefatti per decretare che una delle due soluzioni sia più porcheria dell'altra rispetto alla nativa
zoom 40x in un fotogramma in movimento. mentre giochi manco te ne accorgi
in questa presentazione abbiamo visto tutto incentrato su questo DLSS 3.0 e molto poco su raytracing "nativo" e quasi nulla su raster
albero77
21-09-2022, 10:36
Voi quanto spazio avete nel case? Io ho massimo 330 cm e ho appena visto che le 4090 sono dei mostri di lunghezza. Mi sa che mi tocca cercare un altro case, non so nemmeno se esistono di quelle dimensioni.
Eppure il mio è pure bello spazioso. :cry:
Benvenuto nel club:asd:
Ma stai tranquillo che pure a 2k e oltre sarà difficile da prendere....scegli con calma.
Ale55andr0
21-09-2022, 10:40
detto che le frequenze non definiscono un'architettura, come già scritto 2700 non sono lontani da quello che ottiene AMD sul 7 da due anni, su questo 4 ci si aspettava decisamente di più visto che lui parla apertamente di QUASI 3ghz in overlock
vedremo pari nodo che frequenze avrà la concorrenza, se i rumors sono veri (tutto da prendere con le pinze) siamo a +1000
Scordi che la 4090 ha una mattonella, 2.5 di boost "tranquillo" non è per nulla male, anzi vuol dire che c'è margine realisticamente boosteranno a 2.7 che per quel mattone spaventoso da 18k cuda è un gran risultato...
Ale55andr0
21-09-2022, 10:42
riprendo parzialmente il quote di prima che mi era sfuggita una frase:
"Se in un gioco hai un miglioramento dell'immagine, 20 fps in più, ma poi una ringjuiera che becchi 2 volte in 50 ore di gioco flickera cosa fai non lo usi?"
forse non son stato chiaro, è un CONTINUO di flickering e scalette, non ogni 2 ore, ma come lo devo dire? lunotti, pavimenti, scale, ringhiere in una città sono elementi continui non ogni tanto :asd:
Benvenuto nel club:asd:
Ma stai tranquillo che pure a 2k e oltre sarà difficile da prendere....scegli con calma.
Ma che palle, mi tocca smontare tutto. :cry:
Voi quanto spazio avete nel case? Io ho massimo 330 cm e ho appena visto che le 4090 sono dei mostri di lunghezza. Mi sa che mi tocca cercare un altro case, non so nemmeno se esistono di quelle dimensioni.
Eppure il mio è pure bello spazioso. :cry:
Che sarà mai. Vai di dremel e fai un bel "buco per la velocità" (cit.). Così la ventola posteriore della 3090 pesca aria direttamente dal frontale del case :D
facendo un recappone (cit.)
3050 lammerda
3060 lammerda
3060ti ok
3070 lammerda
3070ti lammerda
3080 10gb lammerda
3080 12gb ok
3080ti lammerda
3090 ok non per gioco
3090ti lammerda
4080 12gb lammerda
4080 16gb ok se caghi soldi
4090 ok non per gioco
Sei sicuro ? Io credo che almeno la metà delle schede che definisci lammerda, siano ancora ottime..
E comunque…
https://multiplayer.it/notizie/dlss-3-solo-in-parte-esclusiva-rtx-40-parzialmente-supportato-rtx-20-30.html
Sonpazzo
21-09-2022, 10:46
Io faccio solo presente che, da questa mattina, su subito non si trovano più RTX 3080 sotto i 750/800€ usate :fagiano:
Prima ho visto anche qualche annuncio a 600€... tutti spariti magicamente dopo il keynote di ieri.
dal sito nvidia la 3080fe costa 759 nuova
Sonpazzo
21-09-2022, 10:49
Voi quanto spazio avete nel case? Io ho massimo 330 cm e ho appena visto che le 4090 sono dei mostri di lunghezza. Mi sa che mi tocca cercare un altro case, non so nemmeno se esistono di quelle dimensioni.
Eppure il mio è pure bello spazioso. :cry:
40 cm nel mini atx/itxin firma
Cutter90
21-09-2022, 10:49
riprendo parzialmente il quote di prima che mi era sfuggita una frase:
"Se in un gioco hai un miglioramento dell'immagine, 20 fps in più, ma poi una ringjuiera che becchi 2 volte in 50 ore di gioco flickera cosa fai non lo usi?"
forse non son stato chiaro, è un CONTINUO di flickering e scalette, non ogni 2 ore, ma come lo devo dire? lunotti, pavimenti, scale, ringhiere in una città sono elementi continui non ogni tanto :asd:
Bene, tu dici questo ma posso non crederti? Posso, serenamente eh
Vorrei vedere un video di supporto a quello che dici in cui in cp 2077 si vede esattamente quello che ti dici.
craesilo
21-09-2022, 10:50
Sei sicuro ? Io credo che almeno la metà delle schede che definisci lammerda, siano ancora ottime..
ovviamente intendo prezzo/prestazioni ad oggi e non suppongo sia una verità assoluta.....per me non ha senso spendere poco di più o poco di meno se hai un riferimento in una data fascia di prezzo
dal sito nvidia la 3080fe costa 759 nuova
Qui non si parla degli unicorni, ma delle schede disponibili.
Con il mio post volevo solo far notare come, oltre ai negozianti, anche chi ha messo in vendita l'usato si è adeguato subito. E ci credo, se vendi una 3080 a 600€, dopo ci vuole il doppio per comprare una 4070 rimarchiata 4080. :rolleyes:
mikael84
21-09-2022, 10:52
detto che le frequenze non definiscono un'architettura, come già scritto 2700 non sono lontani da quello che ottiene AMD sul 7 da due anni, su questo 4 ci si aspettava decisamente di più visto che lui parla apertamente di QUASI 3ghz in overlock
vedremo pari nodo che frequenze avrà la concorrenza, se i rumors sono veri (tutto da prendere con le pinze) siamo a +1000
Beh che centra, sono microarchitetture diverse. Ci sta che una possa clockare di più, soprattutto visto i lavori elettrici di clock gatting di AMD.
Anche polaris boostava a 1300 ed nvidia a 1800.:)
Da 1710 a 2600 sono il 52% di clock a 0,87v, ti pare piccolo il salto.
AMD con il suo circuito, ancora rivisto andrà sicuramente sopra.
albero77
21-09-2022, 10:52
40 cm nel mini atx/itxin firma
Ha ben poco di mini quel case:D
Ha ben poco di mini quel case:D
Concordo. :)
amon.akira
21-09-2022, 10:56
Guarda che da mo che non c'è più il TAA violento in nativa in CP 2077. Senza DLSS è una SPADA, definto e con contorni NETTI e SMUSSATI. Prova il DLDblabla 4k e il DLSS 4k qualità, il primo riduce ammerda il secondo, sotto ogni punto di vista, definizione inclusa
non hai capito cosa volevo dire, cyberpunk senza dlss lo giochi per forza senza raytracing e tra senza dlss ma senza raytracing e con dlss e rt, di gran lunga meglio la seconda..non hai alternative se non aspettare la 5090
mikael84
21-09-2022, 10:58
Boost Clock (GHz)
4090 2.52
4080 16gb 2.51
4080 12gb 2.61
quindi si la 4090 finirà verso i 2750
Si mediamente sarà così. :)
Gigibian
21-09-2022, 11:00
Io ho preso una 3070 Zotac AMP holo a 489 usata con 2 anni di garanzia su ebay.
Nel frattempo vado avanti con questa poi aspetto al varco le rosse.
solo a me vedere una 4080 12GB da 285W che va come una 3080 12GB da 300W sembra un EPIC fail grosso come una casa???
40 cm nel mini atx/itxin firma
Sei di poco sopra al limite. Ora non mi resta che trovare un full tower con una baia sata per HDD come il mio che abbia abbastanza spazio. :muro:
Goofy Goober
21-09-2022, 11:09
Voi quanto spazio avete nel case? Io ho massimo 330 cm e ho appena visto che le 4090 sono dei mostri di lunghezza. Mi sa che mi tocca cercare un altro case, non so nemmeno se esistono di quelle dimensioni.
Eppure il mio è pure bello spazioso. :cry:
in realtà il pcb sembra minuscolo, dalle immagini di quelle a liquido...
magari prima o poi qualcuno con dissipatore più compatto potrebbe apparire, per le 30XX fu così.
mettendole a bagno invece problemi dimensionali non ce ne saranno, anche se mi vien da chiedere che impianto sovradimensionato servirà per freddarle senza far più rumore di un dissipatore ad aria.
in realtà il pcb sembra minuscolo, dalle immagini di quelle a liquido...
magari prima o poi qualcuno con dissipatore più compatto potrebbe apparire, per le 30XX fu così.
mettendole a bagno invece problemi dimensionali non ce ne saranno, anche se mi vien da chiedere che impianto sovradimensionato servirà per freddarle senza far più rumore di un dissipatore ad aria.
L'unica strada per avere una 4090 in un vero case mITX è il liquido con impianto custom o non c'è verso :cry:
La 4090 non entrerà mai in un ncase m1, un dan a4, un lian li q58, un Phanteks Evolv Shift 2, un CM NR200P, un Louqe e via discorrendo. :cry: :cry: :cry:
Senza contare che serve un ali 1000W SFX Platinum per una conf al top.
mikael84
21-09-2022, 11:14
Io ho preso una 3070 Zotac AMP holo a 489 usata con 2 anni di garanzia su ebay.
Nel frattempo vado avanti con questa poi aspetto al varco le rosse.
solo a me vedere una 4080 12GB da 285W che va come una 3080 12GB da 300W sembra un EPIC fail grosso come una casa???
Il fail è tutto commerciale, perchè vedere una GPU da 300mm2 taglia x60, andare quanto una 3090ti o poco meno, superarla in RT ed umiliarla con i tensor core è un buon risultato.
E' un chip che ha il 140% in meno delle ALU del chippone, come la 2060 aveva il 140%, ecco di cosa stiamo parlando.:p
Fai finta che ti stanno vendendo una 4060 a 899$, miracolo architetturale, e la più grossa presa in giro della storia nvidia commerciale e di strozzinaggio.:)
Che gli rimane pure sullo scaffale.
Gigibian
21-09-2022, 11:19
Il fail è tutto commerciale, perchè vedere una GPU da 300mm2 taglia x60, andare quanto una 3090ti o poco meno, superarla in RT ed umiliarla con i tensor core è un buon risultato.
E' un chip che ha il 140% in meno delle ALU del chippone, come la 2060 aveva il 140%, ecco di cosa stiamo parlando.:p
Fai finta che ti stanno vendendo una 4060 a 899$, miracolo architetturale, e la più grossa presa in giro della storia nvidia commerciale e di strozzinaggio.:)
Che gli rimane pure sullo scaffale.
Assolutamente!
Volevo epurare dall'equazione il costo.
la 4080 12 nelle slide di NVIDIA stessa (Oste, com'è il vino?) con DLSS attivo ma senza DLSS3 va un 15% meno della 3090TI. Quindi possiamo dire che va quanto una 3080 12GB (forse anche qualcosa meno)
A prescindere dal prezzo commerciale, vedere che 2 schede di 2 generazioni differenti, vanno UGUALE risparmiando solo 25W di TDP (che è meno del 10%) è assolutamente ridicolo da un punto di vista tecnico.
Quella scheda non doveva uscire proprio.
Se si chiamava 4060 doveva consumare massimo 200W... non 285W...
Goofy Goober
21-09-2022, 11:23
Assolutamente!
Volevo epurare dall'equazione il costo.
la 4080 12 nelle slide di NVIDIA stessa (Oste, com'è il vino?) con DLSS attivo ma senza DLSS3 va un 15% meno della 3090TI. Quindi possiamo dire che va quanto una 3080 12GB (forse anche qualcosa meno)
A prescindere dal prezzo commerciale, vedere che 2 schede di 2 generazioni differenti, vanno UGUALE risparmiando solo 25W di TDP (che è meno del 10%) è assolutamente ridicolo da un punto di vista tecnico.
Quella scheda non doveva uscire proprio.
Se si chiamava 4060 doveva consumare massimo 200W... non 285W...
Comunque mi chiedo se i tester avranno l'onesta intellettuale di fare tanti bei raffronti senza usare nessun artificio come il DLSS per confrontare le prestazioni "vere" delle gpu.
Sonpazzo
21-09-2022, 11:24
Ha ben poco di mini quel case:D
no è fatto bene,è diverso :) 40x35x23. praticamente ci sta una scheda madre atx e una vga enorme.
Sarò strano io ma a me questa presentazione, e queste schede, lasciano piuttosto freddo, c'è puzza di fregatura da ogni angolazione.
Le prestazioni ci sono di sicuro ma non è dato sapere quanto, si parla solo di DLSS.
Prezzi fuori dal mondo, dimensioni e consumi notevoli, poi il valzer del taglio e cuci, 12 giga di ram (irricevibili) ecc.
Giacchetta ha impacchettato il tutto neanche fossimo a febbraio 2021, è cambiato tutto.
Vediamo se Lisa mette del pepe al sedere a JHH e cosa saranno le future, e certamente devastate, 4070 (che era la 4080 12...)..e 4060TI. :rolleyes:
Gigibian
21-09-2022, 11:28
Comunque mi chiedo se i tester avranno l'onesta intellettuale di fare tanti bei raffronti senza usare nessun artificio come il DLSS per confrontare le prestazioni "vere" delle gpu.
Esatto!
La cosa che lascia allibiti è che la stessa NVIDIA nella sua slide ha dichiarato che nei giochi attuali la 4080 12 va un 15% meno della 3090TI...e CON DLSS Abilitato! con cui la serie 4000 dovrebbe guadagnare molto ! (leggere la didascalia in piccolo).
Sarei curioso di vedere la 4080 12 SENZA DLSS in RTX e RASTER vs una 3080 12...vai a vedere che va nettamente di meno...e consuma uguale.
l'epic fail più grande della storia se fosse così!
mikael84
21-09-2022, 11:34
Assolutamente!
Volevo epurare dall'equazione il costo.
la 4080 12 nelle slide di NVIDIA stessa (Oste, com'è il vino?) con DLSS attivo ma senza DLSS3 va un 15% meno della 3090TI. Quindi possiamo dire che va quanto una 3080 12GB (forse anche qualcosa meno)
A prescindere dal prezzo commerciale, vedere che 2 schede di 2 generazioni differenti, vanno UGUALE risparmiando solo 25W di TDP (che è meno del 10%) è assolutamente ridicolo da un punto di vista tecnico.
Quella scheda non doveva uscire proprio.
Se si chiamava 4060 doveva consumare massimo 200W... non 285W...
Non è proprio una 3080 12 però, ci sono 3 giochi, di cui uno è pari alla 3090ti da 450 watt, l'altro a -5 e l'altro ancora a -11.
Ipotetica media - 4%, la 3080 12 sta al 20% in meno.:)
https://i.postimg.cc/KjSXThZ2/4080.png
https://uploads.disquscdn.com/images/2fbbb8c97983f84bc311a38d9d7e44616fda057f9c099a606eb0fd2d0963e84b.png
no è fatto bene,è diverso :) 40x35x23. praticamente ci sta una scheda madre atx e una vga enorme.
Sono oltre 32L di volume. Non è un case SFF (small form factor).
Per dare un'idea, il mio Ncase M1 è circa 13L di volume e ci entra una 3090 bestemmiando un po'. ;)
Diciamo che il tuo è un case un po' più compatto del solito :p
Goofy Goober
21-09-2022, 11:40
Esatto!
La cosa che lascia allibiti è che la stessa NVIDIA nella sua slide ha dichiarato che nei giochi attuali la 4080 12 va un 15% meno della 3090TI...e CON DLSS Abilitato! con cui la serie 4000 dovrebbe guadagnare molto ! (leggere la didascalia in piccolo).
Sarei curioso di vedere la 4080 12 SENZA DLSS in RTX e RASTER vs una 3080 12...vai a vedere che va nettamente di meno...e consuma uguale.
l'epic fail più grande della storia se fosse così!
quando usciranno i test se qualcuno trova siti dove si focalizzano sui raffronti in potenza pura senza ne il "vecchio" o "nuovo" DLSS, è importante che i dati si riportino per bene qui.
ho come il sentore che tante pagliacciate sulle prestazioni artificiose mostrate nel keynote tenteranno di proiettarle verso chi fa divulgazione con ricatti e roba simile.
pratiche comuni in casa Nvidia.
mikael84
21-09-2022, 11:45
Chiaro che poi è l'oste,:p ma se con DLSS3, ho un 2x su flight simulator, non ha senso solo il paragone raster, fare il paragone puro e crudo con Ampere
Nvidia ha investito un botto di transistor sui tensor core e nuovi RT, vedi CP, dvoe la 4060 ehmm 4080 12gb umilia ampere.
Anche questo va calcolato nell'equazione.
https://www.hardwareluxx.de/images/cdn02/uploads/2022/Sep/tough_server_r8/geforce-rtx-4080-gaming-performance_1920px.jpg
Comunque mi chiedo se i tester avranno l'onesta intellettuale di fare tanti bei raffronti senza usare nessun artificio come il DLSS per confrontare le prestazioni "vere" delle gpu.
Hai ragione a metà
Il DLSS serve per giocare in RT con framerate decenti. Non voglio vederlo usato in altri casi pero'.
albero77
21-09-2022, 11:50
no è fatto bene,è diverso :) 40x35x23. praticamente ci sta una scheda madre atx e una vga enorme.
Meglio il mini air a questo punto:sofico:
ninja750
21-09-2022, 11:52
Chiaro che poi è l'oste,:p ma se con DLSS3, ho un 2x su flight simulator, non ha senso solo il paragone raster, fare il paragone puro e crudo con Ampere
Nvidia ha investito un botto di transistor sui tensor core e nuovi RT, vedi CP, dvoe la 4060 ehmm 4080 12gb umilia ampere.
Anche questo va calcolato nell'equazione.
https://www.hardwareluxx.de/images/cdn02/uploads/2022/Sep/tough_server_r8/geforce-rtx-4080-gaming-performance_1920px.jpg
e se questo DLSS lo spostiamo da performance a ultra quality, queste barre % come cambieranno?
OvErClOck82
21-09-2022, 11:52
Hai ragione a metà
Il DLSS serve per giocare in RT con framerate decenti. Non voglio vederlo usato in altri casi pero'.
e quindi pensi che non faranno test con dlss 3.0 in ultra performance mode senza RT vs le 3000 senza dlss con RT attivo a 8k ? :D
amoredipipa
21-09-2022, 11:58
Ma quindi da una 4090 in raster puro bisogna attendersi un +75% dalla 3090 ?
mikael84
21-09-2022, 12:00
e se questo DLSS lo spostiamo da performance a ultra quality, queste barre % come cambieranno?
Quindi DLSS 3 = DLSS2 performance. Ottimo.
Quindi in CP, metti DLSS performance è guadagni il 2,5x, nemmeno se lo metti in performance senza RT guadagni quel tanto.:p
zanflank
21-09-2022, 12:03
Esatto!
La cosa che lascia allibiti è che la stessa NVIDIA nella sua slide ha dichiarato che nei giochi attuali la 4080 12 va un 15% meno della 3090TI...e CON DLSS Abilitato! con cui la serie 4000 dovrebbe guadagnare molto ! (leggere la didascalia in piccolo).
Sarei curioso di vedere la 4080 12 SENZA DLSS in RTX e RASTER vs una 3080 12...vai a vedere che va nettamente di meno...e consuma uguale.
l'epic fail più grande della storia se fosse così!
Tolto una parte di prestazioni perse (calcolate da mickael) direi che hai ragione.
Il salto migliore mai visto fra x80 e x80 in pratica. (ironia)
https://www.hwupgrade.it/articoli/6381/geforce-rtx-40-vs-30.jpg
Quindi DLSS 3 = DLSS2 performance. Ottimo.
Quindi in CP, metti DLSS performance è guadagni il 2,5x, nemmeno se lo metti in performance senza RT guadagni quel tanto.:p
Ma il DLSS performance fa schifo come qualità di immagine.
L'unico dlss decente è il quality.
mircocatta
21-09-2022, 12:09
e se questo DLSS lo spostiamo da performance a ultra quality, queste barre % come cambieranno?
Ma soprattutto: se disabilitiamo il frame generator, quanto ancora cambiano? Cazzo serve creare fake frame? Solo per avere un numero nei bench più alto?
https://i.imgur.com/9eG2rBnl.png
ecco come fare a mettere una 3090 nel case. :O
Goofy Goober
21-09-2022, 12:11
Hai ragione a metà
Il DLSS serve per giocare in RT con framerate decenti. Non voglio vederlo usato in altri casi pero'.
Non comprendo (per mio limite), perchè deve essere necessario? Perchè non possono fare una scheda che fa girare tutto e bene senza DLSS?
Volere framerate decenti senza artifizi intermedi di scaling, è impossibile?
devAngnew
21-09-2022, 12:12
Ma soprattutto: se disabilitiamo il frame generator, quanto ancora cambiano? Cazzo serve creare fake frame? Solo per avere un numero nei bench più alto?
E' tutto da vedere con gpu alla mano, loro dicono che con reflex riducono il lag introdotto dai fake frame, vedremo.
mikael84
21-09-2022, 12:12
Ma il DLSS performance fa schifo come qualità di immagine.
L'unico dlss decente è il quality.
Appunto, ma ninja750, ha detto che il DLSS3 equivale a mettere performance. Ed ecco come prende quel 2x o 2,5x.
Che poi, mettendo performance, lui sicuramente avrà constatato che con il DLSS della 6800 ha queste variazioni di frame.:asd:
in realtà il pcb sembra minuscolo, dalle immagini di quelle a liquido...
magari prima o poi qualcuno con dissipatore più compatto potrebbe apparire, per le 30XX fu così.
mettendole a bagno invece problemi dimensionali non ce ne saranno, anche se mi vien da chiedere che impianto sovradimensionato servirà per freddarle senza far più rumore di un dissipatore ad aria.
Aspetto infatti le dimensioni delle altre case, per ora si conosce solo ASUS e sono totalmente folli. La mia 3090 è relativamente contenuta come dimensioni, poco più grande della Aorus 1080Ti che avevo prima.
Spero di trovare qualche modello più misurato che abbia dimensioni più contenute. Il case lo volevo cambiare comunque ma spero di poterlo fare più in là, anche perché voglio un case con almeno una baia hotswap.
Gli AIB se ne guardano bene dal comunicare i prezzi, conosciamo quelli delle Fe, sicuramente inferiori.
https://i.imgur.com/9eG2rBnl.png
ecco come fare a mettere una 3090 nel case. :O
Beh, per chi ha un pc desktop che non va spostato è la soluzione migliore.
si liquida la GPU e la CPU e poi si attacca il tutto al termosifone della stanza.
Peccato solo che non si possano più minate ETH o il riscaldamento lo si sarebbe potuto pagare in ETH quest'inverno :asd:
Beh, per chi ha un pc desktop che non va spostato è la soluzione migliore.
si liquida la GPU e la CPU e poi si attacca il tutto al termosifone della stanza.
Peccato solo che non si possano più minate ETH o il riscaldamento lo si sarebbe potuto pagare in ETH quest'inverno :asd:
Già peccato, ma comunque piuttosto che mettere un cesso di cubo da 36cm nel case è l'unico modo.
Thunder-74
21-09-2022, 12:39
L'ingegnere NVIDIA afferma che DLSS 3 su GPU RTX precedenti potrebbe teoricamente accadere, anticipa le notizie di I/O RTX
DLSS 3 si basa sull'acceleratore di flusso ottico, che è stato notevolmente migliorato in Ada rispetto ad Ampere: è sia più veloce che di qualità superiore.
L'OFA esiste nelle GPU sin da Turing. Tuttavia, è significativamente più veloce e di qualità superiore in Ada e ci affidiamo per DLSS3. I clienti di [RTX 2000 e 3000] riterrebbero che DLSS 3 è lento, ha una cattiva qualità dell'immagine e non aumenta gli FPS.
Detto questo, Catanzaro ha lasciato una porta aperta a NVIDIA DLSS 3 potenzialmente compatibile con le GeForce RTX serie 2000 e 3000 in futuro, anche se ha sottolineato che non avrebbe prodotto gli stessi vantaggi visti con le nuove schede grafiche. Ricordiamo che i giochi DLSS 3 continueranno a fornire il supporto DLSS 2 + Reflex per i possessori di GeForce RTX 2000 e 3000
Bryan Catanzaro è stato persino così gentile da verificare con un altro team NVIDIA lo stato del progetto RTX I/O , di cui non sentivamo parlare da un po'. Ha riferito che le persone interessate all'I/O RTX dovrebbero rimanere sintonizzate poiché "sono successe cose interessanti" e NVIDIA non vede l'ora di condividere di più con il pubblico..
fonte (https://wccftech.com/nvidia-engineer-says-dlss-3-on-older-rtx-gpus-could-theoretically-happen-teases-rtx-i-o-news/)
fraussantin
21-09-2022, 12:39
Ma il DLSS performance fa schifo come qualità di immagine.
L'unico dlss decente è il quality.Dipende dai giochi e dalla risoluzione in questione ma in genere anche la via di mezzo | buona
Non comprendo (per mio limite), perchè deve essere necessario? Perchè non possono fare una scheda che fa girare tutto e bene senza DLSS?
Volere framerate decenti senza artifizi intermedi di scaling, è impossibile?
Oggi si, è impossibile, tranne in quei game dove l'RT è solo un layer minuscolo.
Forse con la 5090.
L'ingegnere NVIDIA afferma che DLSS 3 su GPU RTX precedenti potrebbe teoricamente accadere, anticipa le notizie di I/O RTX
[I]DLSS 3 si basa sull'acceleratore di flusso ottico, che è stato notevolmente migliorato in Ada rispetto ad Ampere: è sia più veloce che di qualità superiore.
L'OFA esiste nelle GPU sin da Turing. Tuttavia, è significativamente più veloce e di qualità superiore in Ada e ci affidiamo per DLSS3. I clienti di [RTX 2000 e 3000] riterrebbero che DLSS 3 è lento, ha una cattiva qualità dell'immagine e non aumenta gli FPS.
(cut)
Ecco!
Non ci avevo visto così storto allora. Sarà un DLSS 2.5 ma potrebbe bastare per certi giochi.
Cutter90
21-09-2022, 12:43
Non comprendo (per mio limite), perchè deve essere necessario? Perchè non possono fare una scheda che fa girare tutto e bene senza DLSS?
Volere framerate decenti senza artifizi intermedi di scaling, è impossibile?
Eh, allora poi... il RT è un mattone enorme. il dlss è nato per cercare di diminuirne l'impatto sulle performance.
I clienti di [RTX 2000 e 3000] riterrebbero che DLSS 3 è lento, ha una cattiva qualità dell'immagine e non aumenta gli FPS.
Detto questo, Catanzaro ha lasciato una porta aperta a NVIDIA DLSS 3 potenzialmente compatibile con le GeForce RTX serie 2000 e 3000 in futuro, anche se ha sottolineato che non avrebbe prodotto gli stessi vantaggi visti con le nuove schede grafiche.
Non ci voleva un genio per immaginarlo. E' esattamente quello che ho cercato di far capire con i miei post ieri :)
aldo87mi
21-09-2022, 12:47
i problemi con queste nuove schede sono due:
-richiedono 3 cavi PCIe a 8 pin (persino la 4080)
-occupano ben 3 slots (!)
io non li ho nemmeno 3 cavi disponibili a 8 pin nel mio alimentatore. Né tantomeno 3 slots di spazio sulla mia scheda madre.
Obbligheranno tanta gente a cambiare scheda madre, alimentatore e case anche solo per comprare la 4080 :doh:
https://i.postimg.cc/g2qDWKvz/4rtx.jpg (https://postimg.cc/4YytvVLq)
https://i.postimg.cc/q7JGMCL8/alimentazione4rtx.jpg (https://postimg.cc/RWYtgh2F)
Per la 3080 e la 3080ti bastavano solo 2 cavi PCIe a 8 pin e 2 slots di spazio occupato :(
3 cavi separati?
ne bastano 2 di cui 1 sdoppiato
poi mica la vorrai collegare su un tecnoware
la 4090 dovrebbe entrare in un nr200p che trovi a buon mercato, tanto l'aria la pesca dal fondo
per la lunghezza idem
Iceman69
21-09-2022, 12:54
Si sa già quando usciranno le prime prove della 4090?
il 12 iniziano le vendite, immagino che qualche giorno prima scadrà l'NDA...
Thunder-74
21-09-2022, 12:58
NDA fino alla vendita, altrimenti si scoprono gli altarini del 2-4X :fagiano:
fraussantin
21-09-2022, 12:58
Si sa già quando usciranno le prime prove della 4090?
il 12 iniziano le vendite, immagino che qualche giorno prima scadrà l'NDA...Non ci scommetterei troppo .
Visto il prezzo meglio non far crollare la scimmia prima della vendita.
Cutter90
21-09-2022, 13:01
La mia 3090 è una triplo slot con 3 cavi da 8 pin. La 4090 mi sembra sarà uguale, quindi epr me zero differenze. Anzi, mi aspettavo di usare anche il quarto cavo, epr cui l'avevo predisposto già :D
Ah ma la 4090 reference è 304 mm, allora mi ci sta nel case.
Sono quelle custom ASUS che sono delle mattonelle enormi.
Goofy Goober
21-09-2022, 13:08
Eh, allora poi... il RT è un mattone enorme. il dlss è nato per cercare di diminuirne l'impatto sulle performance.
Ma RT non è da considerare come mero effetto grafico "on-off"?
Non è ancora un nuovo motore grafico, o un nuovo set di librerie per lo sviluppo, che senza l'adeguato supporto hardware nemmeno si avvia. :fagiano:
A me di dover valutare una nuova serie di gpu per l'algoritmo (che sempre è on-off) creato per attenutare gli effetti nocivi di un altro affetto "on-off", fa abbastanza sorridere, in senso bonario sia chiaro :D
Cutter90
21-09-2022, 13:14
Ma RT non è da considerare come mero effetto grafico "on-off"?
Non è ancora un nuovo motore grafico, o un nuovo set di librerie per lo sviluppo, che senza l'adeguato supporto hardware nemmeno si avvia. :fagiano:
A me di dover valutare una nuova serie di gpu per l'algoritmo (che sempre è on-off) creato per attenutare gli effetti nocivi di un altro affetto "on-off", fa abbastanza sorridere, in senso bonario sia chiaro :D
Mmm non sono sicuro di comprendere. Il RT è un effetto on-off che porta via una marea di risorse ma che graficamente restituisce un miglioramento enorme in vari ambiti, come ombre, riflessi e illuminazione in generale (non stiamo parlando di settare le ombre su alto, invece che a medio, per dire) Per calcolare l'illuminazione in tempo reali, invece che prerenderizzarla richiede una potenza di calcolo smisurata, con conseguente abbassamento di fps.
per cercare di mitigare questa perdita con il dlss si ha la possibilità grazie all'ia di mantenere la stessa qualità (migliorarla in alcuni casi, o peggiorarlo di pochissimo in altri) e di guadagnare parte di quei frame persi.
Questo è circa quello che succede. Ora, dove stanno le tue perplessità?
Ale55andr0
21-09-2022, 13:19
Voi quanto spazio avete nel case? Io ho massimo 330 cm e ho appena visto che le 4090 sono dei mostri di lunghezza. Mi sa che mi tocca cercare un altro case, non so nemmeno se esistono di quelle dimensioni.
Eppure il mio è pure bello spazioso. :cry:
Proprio a tal riguardo ho chiesto a mio cugino che si è inscimmiato e la prenderà: "ma ti ci entra?"
"No problem, ho un Fractal lungo tipo 65cm"..in effetti la sua 3080ti FE pare sparire li dentro XD
https://i.imgur.com/96tgKm6.jpeg
Ale55andr0
21-09-2022, 13:23
Bene, tu dici questo ma posso non crederti? Posso, serenamente eh
Vorrei vedere un video di supporto a quello che dici in cui in cp 2077 si vede esattamente quello che ti dici.
Non mi credere che mi frega? sai non è che mi pagano per dirlo, avendo per giunta una nvidia nel case :asd:
No, i video con la sola compressione mascherano un botto, faccio qualche screen in caso appena ho tempo, prima/dopo (nativa/dlss qualità), posto che il flickering non si vede su statica ovviamente, ma posso far vedere le seghettature
Goofy Goober
21-09-2022, 13:26
Mmm non sono sicuro di comprendere. Il RT è un effetto on-off che porta via una marea di risorse ma che graficamente restituisce un miglioramento enorme in vari ambiti, come ombre, riflessi e illuminazione in generale (non stiamo parlando di settare le ombre su alto, invece che a medio, per dire) Per calcolare l'illuminazione in tempo reali, invece che prerenderizzarla richiede una potenza di calcolo smisurata, con conseguente abbassamento di fps.
per cercare di mitigare questa perdita con il dlss si ha la possibilità grazie all'ia di mantenere la stessa qualità (migliorarla in alcuni casi, o peggiorarlo di pochissimo in altri) e di guadagnare parte di quei frame persi.
Questo è circa quello che succede. Ora, dove stanno le tue perplessità?
Personalmente i giochi (sfortunatamente tutti generi non di mio gradimento, quindi giocati per poco tempo) dove ho sperimentato ad oggi RT con una RTX, non mi hanno stravolto l'esperienza a causa di questo effetto (che quindi può restare su off).
Vedere che il focus su una nuova intera generazione di schede arrivate è finito su un algoritmo di scaling atto a mitigare proprio la pesantezza di tal effetto grafico (il quale finchè resterà un aggiunta a titoli già esistenti, e non il fondamento di un gioco imprescindibile da esso, potrà esser comunque trattato come un effetto grafico qualunque) a prescindere dall'impatto che ha sull'immagine a video, dato che sul gameplay di impatto non ne potrà avere (altrimenti sarebbe un fondamento del titolo), è sicuramente causa di ulteriore perplessità.
Oltre ciò, Nvidia lavora per mitigare la "pesantezza" di un effetto/set di funzioni tramite non un hardware che lo digerisce in scioltezza, ma tramite un compromesso elaborativo che finisce ad esser il focus dell'ottimizzazione del nuovo hardware venduto, in questo caso a carissimo prezzo per giunta.
Probabilmente potrei dire di esser perplesso proprio dal ray tracing e da ciò che sta portando nel mondo del gaming e relativo hardware.
:fagiano:
Cutter90
21-09-2022, 13:27
Non mi credere che mi frega? sai non è che mi pagano per dirlo :asd:
No, i video con la sola compresisone mascherano un botto, faccio qualche screen in caso appena ho tempo, prima/dopo (nativa/dlss qualità), posto che il flickering non si vede su statica ovviamente, posso far vedere le seghettature
Non è mica per me che lo devi fare. Ma perchè uno che legge potrebbe capire che il dlss è una porcheria, cosa che non è. Quindi quando si dicono le cose, mi pare giusto dimostrarle, soprattutto in un forum tecnico.
Se lo fai con GE la compressione è minima e non maschera nulla.
Ecco. Così magari vado nel tuo stesso luogo per fare un paragone anche io
FrancoBit
21-09-2022, 13:29
Che personalmente i giochi (sfortunatamente tutti generi non di mio gradimento, quindi giocati per poco tempo) dove ho sperimentato ad oggi RT con una RTX, non mi hanno stravolto l'esperienza a causa di questo effetto (che quindi può restare su off), e vedere che il focus su una nuova intera generazione di schede arrivate è finito su un algoritmo di scaling atto a mitigare proprio tal effetto grafico, che finchè resterà un aggiunta a titoli già esistenti (e non il fondamento di un gioco imprescindibile da esso) potrà esser comunque trattato come un effetto grafico qualunque, a prescindere dall'impatto che ha sull'immagine, dato che sul gameplay di impatto non ne potrà avere (altrimenti sarebbe un fondamento del titolo).
Questa è la mia perplessità, Nvidia lavora per mitigare la "pesantezza" di un effetto/set di funzioni tramite non un hardware che lo digerisce in scioltezza, ma tramite un compromesso elaborativo che finisce ad esser il focus dell'ottimizzazione del nuovo hardware venduto, in questo caso a carissimo prezzo per giunta.
Probabilmente potrei dire di esser perlplesso proprio dal ray tracing e da ciò che sta portando nel mondo del gaming e relativo hardware.
:fagiano:
Sono abbastanza d'accordo con te, poi di certo non è un effetto che vale tutta questa spesa.
NDA fino alla vendita, altrimenti si scoprono gli altarini del 2-4X :fagiano:
Mi sembra ovvio che senza DLSS non ci sara' nessun 2x nelle recensioni vere.
ninja750
21-09-2022, 13:35
Quindi DLSS 3 = DLSS2 performance. Ottimo.
Quindi in CP, metti DLSS performance è guadagni il 2,5x, nemmeno se lo metti in performance senza RT guadagni quel tanto.:p
Appunto, ma ninja750, ha detto che il DLSS3 equivale a mettere performance. Ed ecco come prende quel 2x o 2,5x.
Che poi, mettendo performance, lui sicuramente avrà constatato che con il DLSS della 6800 ha queste variazioni di frame.:asd:
non hai capito quello che ho scritto. ho scritto che se avessero scelto DLSS quality in quelle slide, gli indicatori 2x 3x non sarebbero stati così a sfavore di ampere, e aggiungo ora, avessero usato lo stesso DLSS (2.0) per entrambe le schede ancora meno, invece c'è chiaramente scritto che dove possibile è attivo il frame generation, quindi solo sulle 4000
di fatto quella comparativa a prima vista tra schede attuale gen, e futura gen, sono invece una comparativa tra DLSS 2.0 vs 3.0
di queste loro comparative abbiamo tra l'altro solo le barrette sulle performance, e nessuna immagine di confronto qualitativo sul risultato finale tra 2.0 vs 3.0, che mi pare aspetto abbastanza importante visto che tutti ce lo immaginiamo a pari qualità senza nemmeno mezzo artefatto introdotto
l'ultima tua frasetta faccio finta di non averla letta
Gigibian
21-09-2022, 13:36
Tolto una parte di prestazioni perse (calcolate da mickael) direi che hai ragione.
Il salto migliore mai visto fra x80 e x80 in pratica. (ironia)
https://www.hwupgrade.it/articoli/6381/geforce-rtx-40-vs-30.jpg
Assolutamente scandaloso.
Ma soprattutto: se disabilitiamo il frame generator, quanto ancora cambiano? Cazzo serve creare fake frame? Solo per avere un numero nei bench più alto?
Non comprendo (per mio limite), perchè deve essere necessario? Perchè non possono fare una scheda che fa girare tutto e bene senza DLSS?
Volere framerate decenti senza artifizi intermedi di scaling, è impossibile?
Per quello c'è AMD :O
+120% unit e +50% perf/Watt.
Per le marchette nvidia docet.
L'ingegnere NVIDIA afferma che DLSS 3 su GPU RTX precedenti potrebbe teoricamente accadere, anticipa le notizie di I/O RTX
DLSS 3 si basa sull'acceleratore di flusso ottico, che è stato notevolmente migliorato in Ada rispetto ad Ampere: è sia più veloce che di qualità superiore.
L'OFA esiste nelle GPU sin da Turing. Tuttavia, è significativamente più veloce e di qualità superiore in Ada e ci affidiamo per DLSS3. I clienti di [RTX 2000 e 3000] riterrebbero che DLSS 3 è lento, ha una cattiva qualità dell'immagine e non aumenta gli FPS.
Detto questo, Catanzaro ha lasciato una porta aperta a NVIDIA DLSS 3 potenzialmente compatibile con le GeForce RTX serie 2000 e 3000 in futuro, anche se ha sottolineato che non avrebbe prodotto gli stessi vantaggi visti con le nuove schede grafiche. Ricordiamo che i giochi DLSS 3 continueranno a fornire il supporto DLSS 2 + Reflex per i possessori di GeForce RTX 2000 e 3000
Bryan Catanzaro è stato persino così gentile da verificare con un altro team NVIDIA lo stato del progetto RTX I/O , di cui non sentivamo parlare da un po'. Ha riferito che le persone interessate all'I/O RTX dovrebbero rimanere sintonizzate poiché "sono successe cose interessanti" e NVIDIA non vede l'ora di condividere di più con il pubblico..
fonte (https://wccftech.com/nvidia-engineer-says-dlss-3-on-older-rtx-gpus-could-theoretically-happen-teases-rtx-i-o-news/)
Storia rivista e già vista. L'hardware c'è é solo questione SW.
Fate decidere agli utenti se lo ritengono validono meno su ampere il dlss3. Ridicoli again
Cutter90
21-09-2022, 13:38
Personalmente i giochi (sfortunatamente tutti generi non di mio gradimento, quindi giocati per poco tempo) dove ho sperimentato ad oggi RT con una RTX, non mi hanno stravolto l'esperienza a causa di questo effetto (che quindi può restare su off).
Vedere che il focus su una nuova intera generazione di schede arrivate è finito su un algoritmo di scaling atto a mitigare proprio la pesantezza di tal effetto grafico (il quale finchè resterà un aggiunta a titoli già esistenti, e non il fondamento di un gioco imprescindibile da esso, potrà esser comunque trattato come un effetto grafico qualunque) a prescindere dall'impatto che ha sull'immagine a video, dato che sul gameplay di impatto non ne potrà avere (altrimenti sarebbe un fondamento del titolo), è sicuramente causa di ulteriore perplessità.
Oltre ciò, Nvidia lavora per mitigare la "pesantezza" di un effetto/set di funzioni tramite non un hardware che lo digerisce in scioltezza, ma tramite un compromesso elaborativo che finisce ad esser il focus dell'ottimizzazione del nuovo hardware venduto, in questo caso a carissimo prezzo per giunta.
Probabilmente potrei dire di esser perlplesso proprio dal ray tracing e da ciò che sta portando nel mondo del gaming e relativo hardware.
:fagiano:
Ci sono titoli, come cp 2077 o metro in cui il RT è davvero fantastico e tra attivarle e non farlo la differenza è enorme. E' proprio per il fatto che sia cosi pensante che la sua diffusione è poca. Se nessuno lo attiva, perchè la gpu non ce la fa, perchè mai gli sviluppatori dovrebbero implementarlo? Quindi, più si trova un modo di renderlo attivabile, più la diffusione sarà alta. Ecco il dlss dove interviene. AL netto che, lo ripeto, il dlss alle volte non è un compromesso di nessun tipo e aiuta tanto anche nei titoli non RT.
Vi faccio un esempio: io gioco ad assetto corsa competizione, titolo che se maxato in 4k risulta davvero pesante. Con la 3090 faccio dai 70 ai 100 fpss senza il dlss. Essendo un racing, l'ideale sarebbe averlo fisso a 120 fps per me. Come recupero tutti quei frame che Mancano? Dlss bilanciato e con una perdita grafica minima (in acc nei replay si vedono le scie) arrivo ad avere tra i 110 e i 120 fps sempre.
L' alternativa qual'era per arrivare a quei frame? Calare la risoluzione almeno intorno al 1440p anche meno, e calare i vari effetti pesanti come le ombre o la draw distance di auto e dettagli stessi.
Quale delle due è la scelta giusta? Ho fatto tanti test e non c'è paragone. DLSS bilanciato. Tutta la vita.
Gigibian
21-09-2022, 13:40
non hai capito quello che ho scritto. ho scritto che se avessero scelto DLSS quality in quelle slide, gli indicatori 2x 3x non sarebbero stati così a sfavore di ampere, e aggiungo ora, avessero usato lo stesso DLSS (2.0) per entrambe le schede ancora meno, invece c'è chiaramente scritto che dove possibile è attivo il frame generation, quindi solo sulle 4000
di fatto quella comparativa a prima vista tra schede attuale gen, e futura gen, sono invece una comparativa tra DLSS 2.0 vs 3.0
di queste loro comparative abbiamo tra l'altro solo le barrette sulle performance, e nessuna immagine di confronto qualitativo sul risultato finale tra 2.0 vs 3.0, che mi pare aspetto abbastanza importante visto che tutti ce lo immaginiamo a pari qualità senza nemmeno mezzo artefatto introdotto
l'ultima tua frasetta faccio finta di non averla letta
Come non quotare, tutto corretto e condivisibile.
Mi sa che Mikael ha frainteso
Ale55andr0
21-09-2022, 13:46
Per San Tommaso (alla fine lo scazzo per sti cinque minuti me lo sono preso dai, ho finito con le traumatiche vicende in posta di sta mattinata e ho pure sbagliato data sulla raccomandata di disdetta a fregafone :doh: )
Ora non so se rende bene ma...prima, DLSS "qualità" 4k. Non so se si capisce ma le linee sono tipo "cancellate" (o più scure?), in game in movimento è tutto tremolio e aliasing, su statica viene reso così come vedi:
https://i.imgur.com/LLFW3pd.jpg
Dopo, 4K "nativo" (DLSS off e forzato il 4K) addirittura zoommando. Come vedi sono praticamente perfette, neanche UN minimo fastidio.
https://i.imgur.com/Au2Pcm7.jpg
Questa roba è un continuo su reti, recinti, scalinate che, ripeto, sono OVUNQUE a NC :read: , come pure sulle "linee" che separano le mattonelle le une dalle altre sulle pavimentazioni, o le linee "decorative" sulla Arasaka Tower (è a Corpo Plaza ). Questo con DLSS "qualità" (:rotfl:) 4k...senza, tutto è magnificamente definito, pulito, smussato non c'è colpo d'occhio che tradisca il render sempre in 4k ma in downsampling (peccato vada al rallenty ma vabè, colpa del roito :O :asd:)
Se non mi credi, amen non ho ALCUN motivo di indorare o viceversa spalare merda su una cosa che possiedo avendo speso 700 euro di scheda, non avendola in regalo
E qui chiudo il mega OT ;)
L'unica strada per avere una 4090 in un vero case mITX è il liquido con impianto custom o non c'è verso :cry:
La 4090 non entrerà mai in un ncase m1, un dan a4, un lian li q58, un Phanteks Evolv Shift 2, un CM NR200P, un Louqe e via discorrendo. :cry: :cry: :cry:
Senza contare che serve un ali 1000W SFX Platinum per una conf al top.
Se le dimensioni riportate su Techpowerup sono veritiere, la 4090FE entra giusto giusto nel NR200P.
Sono molto deluso da questa nuova generazione.
L'unica scheda che vale la pena comprare considerando il rapporto prezzo-prestazioni è la 4090.
La 4090 alla fine costa quanto la 3090 (Nvidia non ha nessuna responsabilità sul cambio sfavorevole), ma il problema sono le prestazioni pure.
Personalmente non gradisco tecnologie come DLSS et similia perché è un barare: se una scheda non regge i 4k si abbassa la risoluzione punto.
Vedere Cyberpunk a 4k + RT girare a 20fps per me è uno scandalo :muro:
Se spendo 2k per una GPU voglio la potenza in rasterizzazione e non accrocchi vari per tirare a campare.
Qualcuno mi potrò dire: "Dissattivi l'RT e vivi felice".
Io gli rispondo: "Col cappero che disattivo l'RT su una GPU da 2k".
Il problema è proprio questo: le 4000 si aspettavano per innovazione tecnologica soprattutto nel RT.
Che mi compro a fare una RTX a 2k se non posso sfruttare a pieno l'RT?
Cmq le cose che mi hanno colpito sono la tecnologia per "rimasterizzare" i vecchi giochi (impressionante la demo con Morrowind) e il fatto di poter mettere una pezza nei giochi cpu limited (cosa che in questo 3d non si è filato nessuno :doh: ).
Attendo le recensioni per un giudizio definitivo, ma se per giocare a 4k + RT 60fps dovrò attivare il DLSS, per me sarà scaffale.
Hai provato con le ultime versioni di DLSS sostituendo il file nella cartella del gioco? Per curiosità che versione sta usando il gioco adesso?
Ale55andr0
21-09-2022, 13:55
non hai capito cosa volevo dire, cyberpunk senza dlss lo giochi per forza senza raytracing e tra senza dlss ma senza raytracing e con dlss e rt, di gran lunga meglio la seconda..non hai alternative se non aspettare la 5090
Basta spegnere l'RT dell'illuminazione e lasciarlo sui riflessi e trovare un equilibrio su altri parametri (ombre e nuvole volumetriche fra minimo e massimo non si vede nulla di diverso ai miei occhi per dire, cosè come su precisione colore media invece che alta...), poi dipende da come uno preferisce: io a 40frame gioco senza lagnarmi, non sono quello col counter dei ms nell'occhio fra un frame e l'altro....se mi dessi 30 stabilissimi e una immagine definita da Dio o 60 rock solid con gli zighi gli zaghi e i flickering io preferisco sempre la prima perchè non gioco a uno sparatutto competitivo e perchè sono INSOFFERENTE verso ogni minima spigolatura nell'immagine, mi manda proprio in BESTIA.
Cmq il problema GROSSO di sto gioco NON risolto nemmeno con la 1.6 è che dopo un paio di load save ravvicinati o entrate/uscite dalla mappa/inventario inizia a rallentare a schifo e per risolvere o lo riavvii o bestemmi :doh:
mikael84
21-09-2022, 13:55
non hai capito quello che ho scritto. ho scritto che se avessero scelto DLSS quality in quelle slide, gli indicatori 2x 3x non sarebbero stati così a sfavore di ampere, e aggiungo ora, avessero usato lo stesso DLSS (2.0) per entrambe le schede ancora meno, invece c'è chiaramente scritto che dove possibile è attivo il frame generation, quindi solo sulle 4000
di fatto quella comparativa a prima vista tra schede attuale gen, e futura gen, sono invece una comparativa tra DLSS 2.0 vs 3.0
di queste loro comparative abbiamo tra l'altro solo le barrette sulle performance, e nessuna immagine di confronto qualitativo sul risultato finale tra 2.0 vs 3.0, che mi pare aspetto abbastanza importante visto che tutti ce lo immaginiamo a pari qualità senza nemmeno mezzo artefatto introdotto
l'ultima tua frasetta faccio finta di non averla letta
Se usano DLSS2, lo scarto sarà classico, non cambia nulla, neppure su turing.
Con il DLSS3 bisogna valutare e vedere come è settato e se ha altre opzioni di scalling, ma bene o male sarà sempre un boost.;)
fraussantin
21-09-2022, 13:57
Cmq se il dlss 3 potra funzionare su ampere lo sapremo.
non sarà di certo jhh a fermare i modder.
Ale55andr0
21-09-2022, 13:58
Hai provato con le ultime versioni di DLSS sostituendo il file nella cartella del gioco? Per curiosità che versione sta usando il gioco adesso?
1.6. E si, provato, cambia nulla a modificare il file del DLSS. Red dead redemption 2 idem: più aliasing in DLSS che in nativa....L'unico gioco in cui lo trovo meglio implementato (dal punto di vista dell'aliasing) è Horizon Zero dawn, dove smussa bene, va detto.... però.... è meno definito in termini di dettaglio fine rispetto la nativa che cmq "regge bene" sul fronte scalette. Devo provare con Death Stranding ma non credo sia un gioco che faccia per me....:stordita:
Thunder-74
21-09-2022, 14:00
Mi sembra ovvio che senza DLSS non ci sara' nessun 2x nelle recensioni vere.
Ma infatti non era indubbio il fatto che ste schede non fanno 2x in raster senza dlss, lo stiamo scrivendo dal lancio. La faccina era per porre in evidenza la cattiva fede di nVidia a voler tirare fino alla vendita senza rece .
Comunque a me la scimmia è calata di brutto per i prezzi, anche perché non si può fare un lancio, grafici, pagine ufficiali del prodotto , dove si evidenzia solo il dlss3.
Mi sembra un bacino sulla nuca in attesa di sentire la presenza. Non so se mi sono spiegato :D
Inviato dal mio iPhone X utilizzando Tapatalk
Ale55andr0
21-09-2022, 14:05
e se questo DLSS lo spostiamo da performance a ultra quality, queste barre % come cambieranno?
https://i.imgur.com/5soU2eu.jpg
:D
zanflank
21-09-2022, 14:09
Non trovo online, forse ho cercato male io, quando dovrebbe scadere l'NDA per le review della 4090?
devAngnew
21-09-2022, 14:10
L'ingegnere NVIDIA afferma che DLSS 3 su GPU RTX precedenti potrebbe teoricamente accadere, anticipa le notizie di I/O RTX
DLSS 3 si basa sull'acceleratore di flusso ottico, che è stato notevolmente migliorato in Ada rispetto ad Ampere: è sia più veloce che di qualità superiore.
L'OFA esiste nelle GPU sin da Turing. Tuttavia, è significativamente più veloce e di qualità superiore in Ada e ci affidiamo per DLSS3. I clienti di [RTX 2000 e 3000] riterrebbero che DLSS 3 è lento, ha una cattiva qualità dell'immagine e non aumenta gli FPS.
Detto questo, Catanzaro ha lasciato una porta aperta a NVIDIA DLSS 3 potenzialmente compatibile con le GeForce RTX serie 2000 e 3000 in futuro, anche se ha sottolineato che non avrebbe prodotto gli stessi vantaggi visti con le nuove schede grafiche. Ricordiamo che i giochi DLSS 3 continueranno a fornire il supporto DLSS 2 + Reflex per i possessori di GeForce RTX 2000 e 3000
Bryan Catanzaro è stato persino così gentile da verificare con un altro team NVIDIA lo stato del progetto RTX I/O , di cui non sentivamo parlare da un po'. Ha riferito che le persone interessate all'I/O RTX dovrebbero rimanere sintonizzate poiché "sono successe cose interessanti" e NVIDIA non vede l'ora di condividere di più con il pubblico..
fonte (https://wccftech.com/nvidia-engineer-says-dlss-3-on-older-rtx-gpus-could-theoretically-happen-teases-rtx-i-o-news/)
Adesso negano che OFA è presente solo sulle 4000... :doh: . Va a finire che il driver controlla l'architettura se diversa da rtx 4000 imparte il comando dormi per 1 secondo... :sofico: Vado a leggere il paper di ampere-
Turing e vediamo.
Ale55andr0
21-09-2022, 14:11
Non comprendo (per mio limite), perchè deve essere necessario? Perchè non possono fare una scheda che fa girare tutto e bene senza DLSS?
Volere framerate decenti senza artifizi intermedi di scaling, è impossibile?
perchè allo stato attuale l'RT è talmente un macigno che senza questi "artefatti" (:Prrr: :Prrr: :Prrr: ) come il DLSS al 4k maxato con RT "figo" non ci arrivi a frame decenti. Serve un mostro. La 4090 lo è, sono sicuro infatti che SENZA DLSS il 40k 60fps rock solid con RT Folle su CP2077 lo regge....point is: 2000 euro di gpu... :mc:
Se invece vuoi i 144Hz IN NATIVA RT maxato...non basta nemmeno la 4090, devi usare il trucchetto....
Ale55andr0
21-09-2022, 14:18
Non è mica per me che lo devi fare. Ma perchè uno che legge potrebbe capire che il dlss è una porcheria, cosa che non è. Quindi quando si dicono le cose, mi pare giusto dimostrarle, soprattutto in un forum tecnico.
Se lo fai con GE la compressione è minima e non maschera nulla.
Ecco. Così magari vado nel tuo stesso luogo per fare un paragone anche io
be, beh, beh, ma per me lo è, proprio quello sostengo! :asd:. Insomma ormai mi conoscete:
3070 = roito
DLSS = ma anche no (senza ma anche...)
Credo sia ormai chiaro a tutti, sono quasi un meme vivente in merito a ste due cose :D
Goofy Goober
21-09-2022, 14:29
Ci sono titoli, come cp 2077 o metro in cui il RT è davvero fantastico e tra attivarle e non farlo la differenza è enorme. E' proprio per il fatto che sia cosi pensante che la sua diffusione è poca. Se nessuno lo attiva, perchè la gpu non ce la fa, perchè mai gli sviluppatori dovrebbero implementarlo? Quindi, più si trova un modo di renderlo attivabile, più la diffusione sarà alta. Ecco il dlss dove interviene. AL netto che, lo ripeto, il dlss alle volte non è un compromesso di nessun tipo e aiuta tanto anche nei titoli non RT.
A 2077 ci ho giocato, non tutto perchè perchè i first person non mi piacciono più di tanto e in generale il gameplay di quel gioco non mi ha coinvolto molto, però ecco a me evidentemente manca vedere questa enorme differenza.
L'immagine è si diversa tra on e off, ma giocando non mi ha mai lasciato una volta che sia una a bocca aperta. In 2077 lo hanno fatto molto più i modelli poligonali dei personaggi principali per dire, nel complesso tutto il gioco è ottimo come resa visiva, e l'attivazione di RT non me lo ha elavato in nessun paradiso della grafica come invece pare aver fatto per altri. Da qui la perplessità.
Con il DLSS ci ho smanettato un po', sempre in 2077, e ho sempre visto ben evidente il degrado dell'immagine.
Molto meno se mi mettevo a giocare sul 65" a distanza elevata (3,50mt dal pannello), ma direi che è normalissimo rispetto a stare a 50cm dallo schermo del pc).
Vi faccio un esempio: io gioco ad assetto corsa competizione, titolo che se maxato in 4k risulta davvero pesante. Con la 3090 faccio dai 70 ai 100 fpss senza il dlss. Essendo un racing, l'ideale sarebbe averlo fisso a 120 fps per me. Come recupero tutti quei frame che Mancano? Dlss bilanciato e con una perdita grafica minima (in acc nei replay si vedono le scie) arrivo ad avere tra i 110 e i 120 fps sempre.
Ma di fatto non è come non giocar in 4k ma in un limbo di altro tipo non ben definibile (ossia risoluzione costantemente variabile dell'algoritmo)?
Per cui non si fa prima a rinunciare ad una risoluzione eccessiva prima di utilizzare algoritmi di scaling dinamico?
Non è polemica, solo curiosità. Ho sempre creduto che le tecniche di dinamismo su risoluzione e dettagli video sarebbero state relegate al mondo console laddove la fatica dell'hardware entra in gioco ben prima di preoccuparsi del 4K, ancor oggi escluso da una gran fetta del mercato che macina comunque grandi numeri (segno che non è certo la risoluzione la carota da inseguire).
StylezZz`
21-09-2022, 14:30
Spiderman Remastered con DLSS 3
https://www.youtube.com/watch?v=zzbc_fODYso
Solito trailer dell'oste con i numerini in alto senza specificare scheda, risoluzione e impostazione usata, e soprattutto senza un confronto con DLSS 2.
3 cavi separati?
ne bastano 2 di cui 1 sdoppiato
poi mica la vorrai collegare su un tecnoware
la 4090 dovrebbe entrare in un nr200p che trovi a buon mercato, tanto l'aria la pesca dal fondo
per la lunghezza idem
Confermo e concordo, hai menzionato il mio case, dove probabilmente ci infilerò una 4080 16gb in futuro con un 750w platinum e una cpu che richiede 90w dovrei starci alla grande...
FrancoBit
21-09-2022, 14:46
Comunque mai come quest'anno sarà importante verificare quante più recensioni possibile per farsi un'idea, soprattutto per eesser certi di dare un valore al denaro che è necessario per comprare queste schede. A sto giro "non fidarsi è meglio" e non è un buon segnale da parte del brand Nvidia
sertopica
21-09-2022, 14:48
Spiderman Remastered con DLSS 3
https://www.youtube.com/watch?v=zzbc_fODYso
Solito trailer dell'oste con i numerini in alto senza specificare scheda, risoluzione e impostazione usata, e soprattutto senza un confronto con DLSS 2.
Vabbe' ma e' normale, sono slide/video promozionali e le barrette di huang vanno prese per quello che sono, servono a farti sbavare e comprare. Poi semmai sopraggiunge si spera la ragione e si attendono test seri e accurati. :D
PS: alessandro ha ragione, per quanto al dlss non si possa rinunciare in questi titoli, ti becchi sfarfallii a non finire su parecchie superfici attivandolo, che alla fine rovinano la qualita' dell'immagine. Danno parecchio fastidio anche a me.
Per San Tommaso (alla fine lo scazzo per sti cinque minuti me lo sono preso dai, ho finito con le traumatiche vicende in posta di sta mattinata e ho pure sbagliato data sulla raccomandata di disdetta a fregafone :doh: )
Ora non so se rende bene ma...prima, DLSS "qualità" 4k. Non so se si capisce ma le linee sono tipo "cancellate" (o più scure?), in game in movimento è tutto tremolio e aliasing, su statica viene reso così come vedi:
https://i.imgur.com/LLFW3pd.jpg
Dopo, 4K "nativo" (DLSS off e forzato il 4K) addirittura zoommando. Come vedi sono praticamente perfette, neanche UN minimo fastidio.
https://i.imgur.com/Au2Pcm7.jpg
Questa roba è un continuo su reti, recinti, scalinate che, ripeto, sono OVUNQUE a NC :read: , come pure sulle "linee" che separano le mattonelle le une dalle altre sulle pavimentazioni, o le linee "decorative" sulla Arasaka Tower (è a Corpo Plaza ). Questo con DLSS "qualità" (:rotfl:) 4k...senza, tutto è magnificamente definito, pulito, smussato non c'è colpo d'occhio che tradisca il render sempre in 4k ma in downsampling (peccato vada al rallenty ma vabè, colpa del roito :O :asd:)
Se non mi credi, amen non ho ALCUN motivo di indorare o viceversa spalare merda su una cosa che possiedo avendo speso 700 euro di scheda, non avendola in regalo
E qui chiudo il mega OT ;)
In questo caso possiamo dire, il Trucco c'è e si vede. :mc: :D :read:
Thunder-74
21-09-2022, 14:53
Comunque mai come quest'anno sarà importante verificare quante più recensioni possibile per farsi un'idea, soprattutto per eesser certi di dare un valore al denaro che è necessario per comprare queste schede. A sto giro "non fidarsi è meglio" e non è un buon segnale da parte del brand Nvidia
Sembriamo gemelli separati alla nascita. Peso le medesime cose ;)
Inviato dal mio iPhone X utilizzando Tapatalk
Comunque mai come quest'anno sarà importante verificare quante più recensioni possibile per farsi un'idea, soprattutto per eesser certi di dare un valore al denaro che è necessario per comprare queste schede. A sto giro "non fidarsi è meglio" e non è un buon segnale da parte del brand Nvidia
Se sei cosi in dubbio l'unica vera soluzione, è comprarla in uno dei siti dove fare il reso è veloce e indolore (capisci ammè) e poi dopo che hai testato di persona se non soddisfa si fa il reso.. ;)
Cutter90
21-09-2022, 14:55
Per San Tommaso (alla fine lo scazzo per sti cinque minuti me lo sono preso dai, ho finito con le traumatiche vicende in posta di sta mattinata e ho pure sbagliato data sulla raccomandata di disdetta a fregafone :doh: )
Ora non so se rende bene ma...prima, DLSS "qualità" 4k. Non so se si capisce ma le linee sono tipo "cancellate" (o più scure?), in game in movimento è tutto tremolio e aliasing, su statica viene reso così come vedi:
https://i.imgur.com/LLFW3pd.jpg
Dopo, 4K "nativo" (DLSS off e forzato il 4K) addirittura zoommando. Come vedi sono praticamente perfette, neanche UN minimo fastidio.
https://i.imgur.com/Au2Pcm7.jpg
Questa roba è un continuo su reti, recinti, scalinate che, ripeto, sono OVUNQUE a NC :read: , come pure sulle "linee" che separano le mattonelle le une dalle altre sulle pavimentazioni, o le linee "decorative" sulla Arasaka Tower (è a Corpo Plaza ). Questo con DLSS "qualità" (:rotfl:) 4k...senza, tutto è magnificamente definito, pulito, smussato non c'è colpo d'occhio che tradisca il render sempre in 4k ma in downsampling (peccato vada al rallenty ma vabè, colpa del roito :O :asd:)
Se non mi credi, amen non ho ALCUN motivo di indorare o viceversa spalare merda su una cosa che possiedo avendo speso 700 euro di scheda, non avendola in regalo
E qui chiudo il mega OT ;)
Scusa, ma questo sarebbe il confronto? Due foto con zoom enormemente diversi? Ma lol. Guarda che le foto vanno fatte nello stesso punto, con lo stesso zoom. Così grazie tante che è diverso.
Non riesci a farlo bene? Sono serio. Voglio vedere veramente se ci sono quelle cose che dici tu.
Tra l'altro perchè è tutto blurrato? Mica userai il Motion blur?
FrancoBit
21-09-2022, 14:56
Se sei cosi in dubbio l'unica vera soluzione, è comprarla in uno dei siti dove fare il reso è veloce e indolore (capisci ammè) e poi dopo che hai testato di persona se non soddisfa si fa il reso.. ;)
Vero, io comunque avevo già deciso a priori di saltare questa gen o comunque non cambiare almeno fino a fine 2023. La mia 3080 è ancora troppo giovane e più che sufficiente per i miei standard al momento
sertopica
21-09-2022, 14:59
Scusa, ma questo sarebbe il confronto? Due foto con zoom enormemente diversi? Ma lol. Guarda che le foto vanno fatte nello stesso punto, con lo stesso zoom. Così grazie tante che è diverso.
Non riesci a farlo bene? Sono serio. Voglio vedere veramente se ci sono quelle cose che dici tu.
Tra l'altro perchè è tutto blurrato? Mica userai il Motion blur?
Ma dai che e' st'arrampicata sugli specchi? :asd: :asd:
Quella roba ce l'ho anche io e sparisce solo senza DLSS. Muovi la telecamera e quelle linee flickerano e spariscono a seconda dell'angolo di visuale, e cio' succede in molti altri casi. Il DLSS fa un buon lavoro ma non e' perfetto.
Kostanz77
21-09-2022, 14:59
Vero, io comunque avevo già deciso a priori di saltare questa gen o comunque non cambiare almeno fino a fine 2023. La mia 3080 è ancora troppo giovane e più che sufficiente per i miei standard al momento
Si vede che stai invecchiando e diventando più saggio :-)
Inviato dal mio iPhone utilizzando Tapatalk Pro
FrancoBit
21-09-2022, 15:00
Si vede che stai invecchiando e diventando più saggio :-)
Inviato dal mio iPhone utilizzando Tapatalk Pro
ehehehehe dopo una certa è tutta saggezza :oink:
Cutter90
21-09-2022, 15:00
A 2077 ci ho giocato, non tutto perchè perchè i first person non mi piacciono più di tanto e in generale il gameplay di quel gioco non mi ha coinvolto molto, però ecco a me evidentemente manca vedere questa enorme differenza.
L'immagine è si diversa tra on e off, ma giocando non mi ha mai lasciato una volta che sia una a bocca aperta. In 2077 lo hanno fatto molto più i modelli poligonali dei personaggi principali per dire, nel complesso tutto il gioco è ottimo come resa visiva, e l'attivazione di RT non me lo ha elavato in nessun paradiso della grafica come invece pare aver fatto per altri. Da qui la perplessità.
Con il DLSS ci ho smanettato un po', sempre in 2077, e ho sempre visto ben evidente il degrado dell'immagine.
Molto meno se mi mettevo a giocare sul 65" a distanza elevata (3,50mt dal pannello), ma direi che è normalissimo rispetto a stare a 50cm dallo schermo del pc).
Ma di fatto non è come non giocar in 4k ma in un limbo di altro tipo non ben definibile (ossia risoluzione costantemente variabile dell'algoritmo)?
Per cui non si fa prima a rinunciare ad una risoluzione eccessiva prima di utilizzare algoritmi di scaling dinamico?
Non è polemica, solo curiosità. Ho sempre creduto che le tecniche di dinamismo su risoluzione e dettagli video sarebbero state relegate al mondo console laddove la fatica dell'hardware entra in gioco ben prima di preoccuparsi del 4K, ancor oggi escluso da una gran fetta del mercato che macina comunque grandi numeri (segno che non è certo la risoluzione la carota da inseguire).
La risoluzione non è affatto dinamica, ma ben definita, parlo di quella interna di rendering. E come ti ho detto, per arrivare a quei frame bisogna fare compromessi molto, ma molto, ma molto maggiori che trovare qualche scia ogni tanto. Le soluzione di upscaling come il checkerborder su console, sono lontane anni luce dalla qualità del dlss.
Su cp 2077 se non metti su "folle" non hai la GI in rt, quindi occhio, perchè la differenza grande è lì.
Cutter90
21-09-2022, 15:02
Ma dai che e' st'arrampicata sugli specchi? :asd: :asd:
Quella roba ce l'ho anche io e sparisce solo senza DLSS. Muovi la telecamera e quelle linee flickerano e spariscono a seconda dell'angolo di visuale, e cio' succede in molti altri casi. Il DLSS fa un buon lavoro ma non e' perfetto.
Ma quale arrampicata scusa?
Bene. Allora riusciamo a fare un confronto decente? No perchè così non è un confronto sensato.
Badate che non dico che non ci siano. MA nel caso ci siano, da verificare, sono una cosa ininfluente se lo si paragona con gli altri vantaggi.
Thunder-74
21-09-2022, 15:09
Secondo me, per fare un confronto decente , bisogna prendere un gioco decente
Scusate è stato più forte di me :fagiano:
Inviato dal mio iPhone X utilizzando Tapatalk
sertopica
21-09-2022, 15:09
Ma quale arrampicata scusa?
Bene. Allora riusciamo a fare un confronto decente? No perchè così non è un confronto sensato.
Badate che non dico che non ci siano. MA nel caso ci siano, da verificare, sono una cosa ininfluente se lo si paragona con gli altri vantaggi.
Il fatto che tu dica che si tratti di due foto diverse che non mostrano il problema? Per me lo hanno illustrato molto bene, al di la' del fatto che non siano uguali. Ad ogni modo per notare il tutto ancora meglio sarebbe opportuno avere dei video di confronto, perche' e li' che saltano fuori i limiti dell'upscaling, ovvero in movimento.
Comunque da come se ne parla il DLSS 3 andra' proprio a risolvere questo tipo di artefatti, sono molto curioso di vedere se effettivamente ci riuscira'.
Secondo me, per fare un confronto decente , bisogna prendere un gioco decente
Scusate è stato più forte di me :fagiano:
Inviato dal mio iPhone X utilizzando Tapatalk
L'abbiamo capito da due anni che non ti piace. :asd: :asd:
mikael84
21-09-2022, 15:11
Comunque mai come quest'anno sarà importante verificare quante più recensioni possibile per farsi un'idea, soprattutto per eesser certi di dare un valore al denaro che è necessario per comprare queste schede. A sto giro "non fidarsi è meglio" e non è un buon segnale da parte del brand Nvidia
Ma infatti non era indubbio il fatto che ste schede non fanno 2x in raster senza dlss, lo stiamo scrivendo dal lancio. La faccina era per porre in evidenza la cattiva fede di nVidia a voler tirare fino alla vendita senza rece .
Comunque a me la scimmia è calata di brutto per i prezzi, anche perché non si può fare un lancio, grafici, pagine ufficiali del prodotto , dove si evidenzia solo il dlss3.
Mi sembra un bacino sulla nuca in attesa di sentire la presenza. Non so se mi sono spiegato :D
Inviato dal mio iPhone X utilizzando Tapatalk
Comportamento squallido, sia marchettaro che di tagli GPU, chi ha ampere fa benissimo a tenersela.
L'unica GPU seria, anche per costi è la 4090, le altre sono squallide, quindi prendila e passami la 3080.:sofico:
Lo dicevo che questo con il clock elevato era pericoloso.
Ale55andr0
21-09-2022, 15:15
Con il DLSS ci ho smanettato un po', sempre in 2077, e ho sempre visto ben evidente il degrado dell'immagine.
a quindi non sono il solo eretico :p
mikael84
21-09-2022, 15:16
Vero, io comunque avevo già deciso a priori di saltare questa gen o comunque non cambiare almeno fino a fine 2023. La mia 3080 è ancora troppo giovane e più che sufficiente per i miei standard al momento
Tienila, in questa gen, vale solo la 4090, il resto è da scartare.;)
Andy1111
21-09-2022, 15:18
Comportamento squallido, sia marchettaro che di tagli GPU, chi ha ampere fa benissimo a tenersela.
L'unica GPU seria, anche per costi è la 4090, le altre sono squallide, quindi prendila e passami la 3080.:sofico:
Lo dicevo che questo con il clock elevato era pericoloso.
A giacchetta servono i vostri soldi senno le azioni non salgono più :D
134,20 USD
-78,25 (-36,83%)ultimo anno
scherzo non ti offendere , visto l'andazzo mi tengo stretto la mia 6900 XT , che anche dall'altra parte non mi aspetto regali
amon.akira
21-09-2022, 15:21
Basta spegnere l'RT dell'illuminazione e lasciarlo sui riflessi e trovare un equilibrio su altri parametri (ombre e nuvole volumetriche fra minimo e massimo non si vede nulla di diverso ai miei occhi per dire, cosè come su precisione colore media invece che alta...), poi dipende da come uno preferisce: io a 40frame gioco senza lagnarmi, non sono quello col counter dei ms nell'occhio fra un frame e l'altro....se mi dessi 30 stabilissimi e una immagine definita da Dio o 60 rock solid con gli zighi gli zaghi e i flickering io preferisco sempre la prima perchè non gioco a uno sparatutto competitivo e perchè sono INSOFFERENTE verso ogni minima spigolatura nell'immagine, mi manda proprio in BESTIA.
Cmq il problema GROSSO di sto gioco NON risolto nemmeno con la 1.6 è che dopo un paio di load save ravvicinati o entrate/uscite dalla mappa/inventario inizia a rallentare a schifo e per risolvere o lo riavvii o bestemmi :doh:
ok l importante è che abbiamo capito il disaccordo, per te vince abbassare dettagli tra cui quello piu importante ovvero la gi rt in favore della nativa.
cambia il peso che diamo ai dettagli, dove tu non vedi nulla io vedo n abisso...e dove a te sanguinano gli occhi per me è accettabile in quality mode.
però ripeto in control e deathstranding (specialmente in movimento) conviene a prescindere il dlss :)
Sonpazzo
21-09-2022, 15:22
Tienila, in questa gen, vale solo la 4090, il resto è da scartare.;)
no dai:) le 3090ti costano come una 4080 ed è ovvio preferire quest'ultime
Ale55andr0
21-09-2022, 15:23
Scusa, ma questo sarebbe il confronto? Due foto con zoom enormemente diversi? Ma lol. Guarda che le foto vanno fatte nello stesso punto, con lo stesso zoom. Così grazie tante che è diverso.
Non riesci a farlo bene? Sono serio. Voglio vedere veramente se ci sono quelle cose che dici tu.
Tra l'altro perchè è tutto blurrato? Mica userai il Motion blur?
perchè ho scordato di togliere il dof dalla modalità foto :p cmq il blur maschera a limite mica rende più nitide le scalette :D. No, la macchina la devo evocare ogni volta e va in un punto diverso, dovrei fare manovre etc posto che mi sono piazzato più o meno nella stessa strada, e lo zoom era proprio per MOSTRARE la differenza laddove minimi difetti nella nativa sarebbero saltati all'occhio, lo zoom si fa per notarli, non per mascherarli...e invece, pulitissimo in nativa anche messo in condizione "critica". Ma ripeto, in statica non rende come dico uguale, in movimento fa più schifo.... Altro scazzo non me lo prendo. Ti piace il DLSS? Bien, Tiettelo! :D. A me fa caghare (te lo dico pure in Fiorentino anche se sono del sud :O) e pure a qualcun altro mi par di capire. Finita li' :)
craesilo
21-09-2022, 15:25
il dlss lo devo ancora provare xò a sentire burke quello quality è ottimo
mikael84
21-09-2022, 15:25
A giacchetta servono i vostri soldi senno le azioni non salgono più :D
134,20 USD
-78,25 (-36,83%)ultimo anno
scherzo non ti offendere , visto l'andazzo mi tengo stretto la mia 6900 XT , che anche dall'altra parte non mi aspetto regali
Offendersi per cosa...:p
Toglimi pure dall'equazione, gli darò i soldi che gli ho dato per Ampere:asd: , magari finanzierò Lisa, o aiuterò un altro utente a prendersi la 4090, comprando la sua.
Non accetterò mai di comprare una 4060/70 a 1100 euro, perchè rimarchiata 80.:)
Sonpazzo
21-09-2022, 15:26
ok l importante è che abbiamo capito il disaccordo, per te vince abbassare dettagli tra cui quello piu importante ovvero la gi rt in favore della nativa.
cambia il peso che diamo ai dettagli, dove tu non vedi nulla io vedo n abbisso...e dove a te sanguinano gli occhi per me è accettabile in quality mode.
però ripeto in control e deathstranding (specialmente in movimento) conviene a prescindere il dlss :)
avevo provato con dlss quality mode ed era meglio la 3200x1800 senza dlss su monitor 4k
il dlss lo devo ancora provare xò a sentire burke quello quality è ottimo
Va bene anche bilanciato :)
Ale55andr0
21-09-2022, 15:27
Ma dai che e' st'arrampicata sugli specchi? :asd: :asd:
Quella roba ce l'ho anche io e sparisce solo senza DLSS. Muovi la telecamera e quelle linee flickerano e spariscono a seconda dell'angolo di visuale, e cio' succede in molti altri casi. Il DLSS fa un buon lavoro ma non e' perfetto.
A pure te, e siamo tre eretici :asd:.
avevo provato con dlss quality mode ed era meglio la 3200x1800 senza dlss su monitor 4k
Miii, quattro, il malcontento anti DLSS "megliodellanativauncaxxoh" avanza :sofico:
mikael84
21-09-2022, 15:30
no dai:) le 3090ti costano come una 4080 ed è ovvio preferire quest'ultime
Ma se devi spendere 15000 euro, a sto punto fai il super salto e prendi la x90.:)
Sai è successo varie volte che dopo qualche mese lanciasse la TI, allo stesso prezzo della x80 liscia, è ben capace di sostituirla e fare uno shrink verso il basso, soprattutto quando finito l'effetto wow delle barrette, la gente senza mining gliele lascia li.:)
Cutter90
21-09-2022, 15:33
perchè ho scordato di togliere il dof dalla modalità foto :p cmq il blur maschera a limite mica rende più nitide le scalette :D. No, la macchina la devo evocare ogni volta e va in un punto diverso, dovrei fare manovre etc posto che mi sono piazzato più o meno nella stessa strada, e lo zoom era proprio per MOSTRARE la differenza laddove minimi difetti nella nativa sarebbero saltati all'occhio, lo zoom si fa per notarli, non per mascherarli...e invece, pulitissimo in nativa anche messo in condizione "critica". Ma ripeto, in statica non rende come dico uguale, in movimento fa più schifo.... Altro scazzo non me lo prendo. Ti piace il DLSS? Bien, Tiettelo! :D. A me fa caghare (te lo dico pure in Fiorentino anche se sono del sud :O) e pure a qualcun altro mi par di capire. Finita li' :)
Oggi, siccome mi hai incuriosito, visto che a cp 2077 non ci gioco dal d1 o quasi, lo rispolvero per vedere tutte ste cose
PS: guarda che stai parlando avendo verificato 1 gioco in cui c'è il dlss. E se fosse implementato così così solo lì? Ci hai pensato?
Oggi, siccome mi hai incuriosito, visto che a cp 2077 non ci gioco dal d1 o quasi, lo rispolvero per vedere tutte ste cose
PS: guarda che stai parlando avendo verificato 1 gioco in cui c'è il dlss. E se fosse implementato così così solo lì? Ci hai pensato?
Con il nuovo aggiornamento cp77 è diventato veramente godibile a mio parere.
Appunto, ma ninja750, ha detto che il DLSS3 equivale a mettere performance. Ed ecco come prende quel 2x o 2,5x.
Che poi, mettendo performance, lui sicuramente avrà constatato che con il DLSS della 6800 ha queste variazioni di frame.:asd:
:D
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.