PDA

View Full Version : GeForce RTX 4090 recensione: la nuova scheda video NVIDIA fa impallidire persino la RTX 3090 Ti


Redazione di Hardware Upg
11-10-2022, 15:00
Link all'Articolo: https://www.hwupgrade.it/articoli/skvideo/6391/geforce-rtx-4090-recensione-la-nuova-scheda-video-nvidia-fa-impallidire-persino-la-rtx-3090-ti_index.html

Abbiamo provato la GeForce RTX 4090, la prima scheda video della generazione RTX 4000 di NVIDIA. La nuova architettura Ada Lovelace alza nuovamente l'asticella delle prestazioni in modo marcato, facendo mangiare la polvere persino alle top di gamma di generazione precedente, RTX 3090 Ti inclusa. NVIDIA riesce a compiere il salto a consumi invariati rispetto alla 3090 Ti, ma il prezzo non è basso: si parte da 2000 euro.

Click sul link per visualizzare l'articolo.

maxsona
11-10-2022, 15:15
GPU per i comuni mortali? :confused: :confused:

aldo87mi
11-10-2022, 15:19
Che bestia potentissima! :cool: :cool:

Da comprare subito. I 2000 eur li vale tutti

demon77
11-10-2022, 15:27
Che bestia potentissima! :cool: :cool:

Da comprare subito. I 2000 eur li vale tutti

Perchè tu pensi di:

1- trovarla
2- pagarla il prezzo di listino

Ci sta.
Quando vai portami un unicorno già che sei li. :ciapet:

demon77
11-10-2022, 15:28
GPU per i comuni mortali? :confused: :confused:

Come sempre nei prossimi mesi.
Che poi dipenderà tantissimo cosa intendi per "comuni mortali" visto che mi aspetto come in precedenza scarsissima disponibilità e prezzi assurdi.

magic carpet
11-10-2022, 15:30
Scusate, ma i benchmark in overclock?

Manolo De Agostini
11-10-2022, 15:34
Scusate, ma i benchmark in overclock?

Il ritorno è limitato, pochi fps, c'erano già troppi grafici. Ho scritto una riga nel testo circa le prestazioni.

narniagreen
11-10-2022, 15:41
cmq impressionato dal performance watt, meglio di quanto mi aspettassi, il dlss3 però non mi convince, ottime performance ma bassa qualità per ora.

Il vero problema rimane il prezzo, nessun incremento perf/cost e le dimensioni, troppo grossa.

agonauta78
11-10-2022, 15:41
Una scheda che scaldera' gli inverni più freddi potevate aggiungerlo

nickname88
11-10-2022, 15:43
Si si tutti a ridere adesso !

Peccato che le 4080 ( compresa la 16GB ) sia pensantemente castrate e queste performance sono solo fumo negli occhi. :read:

GA103 avrà quasi la metà dei cores !

Manolo De Agostini
11-10-2022, 15:46
Una scheda che scaldera' gli inverni più freddi potevate aggiungerlo

In realtà non è così... ho più volte messo la mano sul dissipatore senza scottarmi o provare calore eccessivo durante i test. E ti assicuro che di schede molto calorose ne ho viste passare un bel po', ma non è questo il caso.

aldo87mi
11-10-2022, 15:47
Per la redazione di hwupgrade:

Avreste dovuto fare anche i benchmark sui giochi a 8K. Con una bestia come la rtx 4090 era praticamente d'obbligo pubblicarli, dato che come minimo questo mostro divino li macina tutti a 60 fps a 7680x4320p :cool: :cool:

FrancoBit
11-10-2022, 15:48
In realtà non è così... ho più volte messo la mano sul dissipatore senza scottarmi o provare calore eccessivo durante i test. E ti assicuro che di schede molto calorose ne ho viste passare un bel po', ma non è questo il caso.

Si infatti le temperature sono ottime rispetto alla scorsa generazione, soprattutto le FE. Oltretutto questo dato rende meno appetibili le custom, che oltre ad essere enormi, hanno una pessima estetica leddosa non degna di un prodotto da 2.500€

narniagreen
11-10-2022, 15:48
In realtà non è così... ho più volte messo la mano sul dissipatore senza scottarmi o provare calore eccessivo durante i test. E ti assicuro che di schede molto calorose ne ho viste passare un bel po', ma non è questo il caso.

Sempre se riesci a metterla in un case, ci credo che è fresca, è grossa come due schede video messe insieme :sofico:

nickname88
11-10-2022, 15:49
https://www.hwupgrade.it/articoli/6391/4090-downclock.png

Di quanto è calato l'assorbimento con queste frequenze ?
Si può sapere ?

Manolo De Agostini
11-10-2022, 15:49
Sempre se riesci a metterla in un case, ci credo che è fresca, è grossa come due schede video messe insieme :sofico:

E non hai visto le custom.... :D :D :D

Manolo De Agostini
11-10-2022, 15:50
Per la redazione di hwupgrade:

Avreste dovuto fare anche i benchmark sui giochi a 8K. Con una bestia come la rtx 4090 era praticamente d'obbligo pubblicarli, dato che come minimo questo mostro divino li macina tutti a 60 fps a 7680x4320p :cool: :cool:

Si può fare tutto nella vita, ma che sia importante farlo è un altro paio di maniche. ;)

nickname88
11-10-2022, 15:50
Sempre se riesci a metterla in un case, ci credo che è fresca, è grossa come due schede video messe insieme :sofico:Probabilmente ti sei perso l'ultima serie, ma Ampere è esattamente così. :rolleyes:

3 slot è il nuovo standard già da quasi 2 anni per le High End.
La mia 3080 Asus è triple slot così come moltre altre custom e figurati la 3090Ti.

narniagreen
11-10-2022, 15:50
E non hai visto le custom.... :D :D :D

Per quello che sta gen di schede, fanno numeroni ma poi a conti fatti, chi se la compra?
2500€ e dimensioni quasi infattibili con case tradizionali.

Bah, è impressionante tecnicamente in positivo, quanto in negativo per la fattibilità.

pity91
11-10-2022, 15:51
Per la redazione di hwupgrade:

Avreste dovuto fare anche i benchmark sui giochi a 8K. Con una bestia come la rtx 4090 era praticamente d'obbligo pubblicarli, dato che come minimo questo mostro divino li macina tutti a 60 fps a 7680x4320p :cool: :cool:

a 8K ma perchè? a malepena c'è un 4K :mbe:

narniagreen
11-10-2022, 15:53
E di che ti preoccupi? Le x80 sono da straccioni.

Noi che siamo veri uomini (tu sicuramente, ho solo da imparare maestro) sganciamo i 2000 sacchi per la x90 e si f*****o i poveri :cool:

sembra davvero di vedere l'ultima Ferrari prodotta, e poi tutti a comprare il mezzo SUV di turno :D

Manolo De Agostini
11-10-2022, 15:55
Per quello che sta gen di schede, fanno numeroni ma poi a conti fatti, chi se la compra?
2500€ e dimensioni quasi infattibili con case tradizionali.

Bah, è impressionante tecnicamente in positivo, quanto in negativo per la fattibilità.

Le comprano e le usano, fidati. Così come c'è avvenuto per la 3090 e 3090 Ti. Ragazzi, è una scheda di punta con un target che sta bene finanziariamente (il mercato ce l'ha). Non è per noi poveracci. Però è sicuramente bello vedere dove si spinge il progresso tecnologico.

nickname88
11-10-2022, 15:55
E di che ti preoccupi? Le x80 sono da straccioni.

Noi che siamo veri uomini (tu sicuramente, ho solo da imparare maestro) sganciamo i 2000 sacchi per la x90 e si f*****o i poveri :cool:
Si per poi trovarsi anche 450W che sono tutt'altro che comodi da gestire acusticamente.
E siccome noi veri uomini l'udito ce l'abbiamo buono ...... non va bene

aldo87mi
11-10-2022, 15:56
a 8K ma perchè? a malepena c'è un 4K :mbe:

Beh no, c'è gente che ha i TV 8k in casa. E comunque il target economico della rtx 4090 si rivolge a quella gente che non bada a spese. Se ho 2000 euro per comprare solo una scheda video, ho sicuramente anche 10000 eur per comprare solo un TV 8k. I benchmark 8k per la rtx 4090 andavano fatti. È proprio il campo di questo mostro potentissimo

Manolo De Agostini
11-10-2022, 15:56
Di quanto è calato l'assorbimento con queste frequenze ?
Si può sapere ?

Non l'ho preso il dato, non mi pareva così importante (non almeno come il dimezzare il PT), ma nei prossimi giorni ho una custom da provare e posso rimettere la FE sul banchetto e darti il numero se t'interessa.

Manolo De Agostini
11-10-2022, 16:10
Io ho due 8k e volevo questa gpu per giocarci sopra questi schermi!

Prestamene uno che non ce l'abbiamo :p

pity91
11-10-2022, 16:10
Beh no, c'è gente che ha i TV 8k in casa. E comunque il target economico della rtx 4090 si rivolge a quella gente che non bada a spese. Se ho 2000 euro per comprare solo una scheda video, ho sicuramente anche 10000 eur per comprare solo un TV 8k. I benchmark 8k per la rtx 4090 andavano fatti. È proprio il campo di questo mostro potentissimo

gia prendo la 4090 per poi collegarla ad una TV :doh:
il PC lo usi con un Monitor dai mica è una Xbox

demon77
11-10-2022, 16:15
gia prendo la 4090 per poi collegarla ad una TV :doh:
il PC lo usi con un Monitor dai mica è una Xbox

mah... direi che oggi giorno le differenze sono nulle.
Se vuoi giocare usando un bella TV gigante direi che rischia di essere una esperienza di gran lunga migliore che con il monitor.

OvErClOck82
11-10-2022, 16:17
gia prendo la 4090 per poi collegarla ad una TV :doh:
il PC lo usi con un Monitor dai mica è una Xbox

Già, che schifo i 55'' oled, nammerda proprio :D

mikael84
11-10-2022, 16:46
Si può fare tutto nella vita, ma che sia importante farlo è un altro paio di maniche. ;)

Manolo, scusa la domanda. Viene riportato che la 4090 avrebbe 72mb di l2, questo significherebbe perdere 3 canali di memoria. Sono 8mb x 32bit.
Sai se nvidia per evitare questo ha effettivamente tagliato le cache da 16 x 6 (64bit x 6) a 12x6 e non calato il bus? E' la prima volta che viene fatta questa cosa. Grazie.:)

Lithios
11-10-2022, 16:49
Mi riservo il tempo di far uscire anche le RTX 4080 e l'offerta AMD e poi decido cosa prendere.

Mi terrei volentieri la mia RX 5700XT, che con il QHD semplice mi viaggiava alla grande. Ma poi mi son preso il Samsung Odissey G9 a 5120 x 1440, che comporta la stessa potenza di elaborazione di un 4K in pratica, e le prestazioni son precipitate a picco... mi serve VGA nuova e pure in fretta :muro:

ningen
11-10-2022, 16:51
La mia reazione sbigottita al prezzo è stata la stessa sbigottita dalle prestazioni mostruose.
Sicuramente non è una scheda per tutti, però il salto di prestazioni è veramente abissale.
A questo punto quanto andranno le 4080 e le altre per noi comuni mortali? E sopratutto quanto spareranno con i prezzi di quest'ultime?

narniagreen
11-10-2022, 17:14
+50% perf/watt sulla 6950XT, per quanto dichiarato da AMD, ad AMD le basta una scheda da 350watt (-100watt) per pareggiare questa 4090 almeno in Raster
https://tpucdn.com/review/nvidia-geforce-rtx-4090-founders-edition/images/energy-efficiency.png
Vedremo se AMD avrà spinto in RT anche lei o no, minimo minimo devono fare 2x su rdna2

OvErClOck82
11-10-2022, 17:16
La mia reazione sbigottita al prezzo è stata la stessa sbigottita dalle prestazioni mostruose.
Sicuramente non è una scheda per tutti, però il salto di prestazioni è veramente abissale.
A questo punto quanto andranno le 4080 e le altre per noi comuni mortali? E sopratutto quanto spareranno con i prezzi di quest'ultime?

mah insomma, ci sono stati salti più grandi tra generazione e generazione in realtà

prestazioni in senso assoluto fotoniche ma considerando tutto (prezzo compreso) non è che sia questo miracolo

frankie
11-10-2022, 17:37
my 2c: ma le vecchie schede di cui dovrebbero esserci i magazzini pieni, perchè non scendono di prezzo?
Ah, la concorrenza.

Vul
11-10-2022, 17:38
Finalmente una scheda che ribadisce che il gaming e' roba per noi con i soldi, altrimenti ci sono le scatolette.

totalblackuot75
11-10-2022, 17:41
pertanto se si vuole il meglio lo si deve pagare, e caro.

È sempre stato cosi e lo sarà sempre, vedrete che la serie 5xxx offrirà il doppio delle prestazioni 🤣😂

narniagreen
11-10-2022, 17:44
my 2c: ma le vecchie schede di cui dovrebbero esserci i magazzini pieni, perchè non scendono di prezzo?
Ah, la concorrenza.

Perchè devono scendere di prezzo se quelle nuove costano di più?

E' morto il progresso.

ningen
11-10-2022, 17:53
mah insomma, ci sono stati salti più grandi tra generazione e generazione in realtà

prestazioni in senso assoluto fotoniche ma considerando tutto (prezzo compreso) non è che sia questo miracolo

Magari sarà anche vero, ma considerando che questa 4090 tecnicamente sarebbe la sostituta della 3090 e che su questa, stando alla recensione, fa un +69% in raster e un +85% con il raytracing possiamo dire che non sarà un miracolo ma sicuramente sono risultati notevoli.
Poi si, costa troppo e in pochi potranno permettersela, ma le prestazioni rispetto alla precedente gen ci sono.

Tuvok-LuR-
11-10-2022, 17:56
Perchè tu pensi di:

1- trovarla
2- pagarla il prezzo di listino

Ci sta.
Quando vai portami un unicorno già che sei li. :ciapet:

si trova gia' e a molto meno dei 2000 di listino ;)

supertigrotto
11-10-2022, 17:59
Rate da 24 mesi e passa la paura..... aspetta,ci vuole anche il resto del PC!
Ok PC completo e rate a 60 mesi.....

Telstar
11-10-2022, 18:24
arrampicata di specchi finale per giustificare i prezzi da strozzini praticati in europa, anche no grazie.

demon77
11-10-2022, 18:30
si trova gia' e a molto meno dei 2000 di listino ;)

Mi pare molto strano. Troppo direi. Link? (x curiosità eh.. non ho certo in programma un acquisto del genere)

demon77
11-10-2022, 18:31
Rate da 24 mesi e passa la paura..... aspetta,ci vuole anche il resto del PC!
Ok PC completo e rate a 60 mesi.....

:D :D
siiii finanziamento! Ottima idea!
così 4000 euro di spesa diventano alla fine delle rate 6000 :stordita:

Bigmax65
11-10-2022, 19:07
Fanno impallidire pure i consumi e il prezzo (^___^)

nickname88
11-10-2022, 19:46
Tutto a liquido nick! Una bella waterstation e passa la paura.Troppo scomoda da gestire, i tempi dell'adolescenza sono passati.

nickname88
11-10-2022, 19:52
mah... direi che oggi giorno le differenze sono nulle.
Se vuoi giocare usando un bella TV gigante direi che rischia di essere una esperienza di gran lunga migliore che con il monitor.
L'unico motivo per cui questi anni c'è un alta considerazione dei TV è per via della qualità offerta che i montors nemmeno si avvicinano, oltre che questi ultimi sono anche pesantemente sovraprezzati.

Un LG C2 strupra tutti i monitors esistente, tranne forse la serie Neo di Samsung ( che è comunque chiaramente inferiore ) o gli ultimi OLED ultra-wide tutti schifosamente 1440p.

Già, che schifo i 55'' oled, nammerda proprio :DFantastici ma si vede quando giochi agli FPS che con M+K è molto scomodo giocare col TV.

nickname88
11-10-2022, 19:57
Magari sarà anche vero, ma considerando che questa 4090 tecnicamente sarebbe la sostituta della 3090 e che su questa, stando alla recensione, fa un +69% in raster e un +85% con il raytracing possiamo dire che non sarà un miracolo ma sicuramente sono risultati notevoli.
Poi si, costa troppo e in pochi potranno permettersela, ma le prestazioni rispetto alla precedente gen ci sono.Si peccato che questo varrà solo per la 4090, perchè dalla 4080 in giù i distacchi saranno ridicoli. :read:

Finalmente una scheda che ribadisce che il gaming e' roba per noi con i soldi, altrimenti ci sono le scatolette.
E anche con i "soRdi" ( ossia quelli che non ci sentono ) :read:
Una triple slot per 450W .... compratela, aspettate la primavera e saprete di cosa parlo.

Tassifar
11-10-2022, 19:59
arrampicata di specchi finale per giustificare i prezzi da strozzini praticati in europa, anche no grazie.

Purtroppo non è colpa di Nvidia se l'Europa attua delle politiche economiche scellerate andando verso il "suicidio economico"

k0nt3
11-10-2022, 20:14
Risultati impressionanti, ma la 4090 è un prodotto chimera, le schede che vendono tanto sono altre ed è lì che si giocherà la partita.

Tra l'altro i rumors dell'ultima ora dicono che domani AMD svelerà dei dettagli su RDNA 3 :sofico: speriamo sia vero! Si tratta di un leaker abbastanza affidabile (Kepler)

Purtroppo non è colpa di Nvidia se l'Europa attua delle politiche economiche scellerate andando verso il "suicidio economico"
Cosa ci fa un candidato premio nobel per l'economia in un forum come questo? :huh:

nickname88
11-10-2022, 20:43
Risultati impressionanti, ma la 4090 è un prodotto chimera, le schede che vendono tanto sono altre ed è lì che si giocherà la partita.
Sulle vendite NVidia ha vinto a prescindere.
Quando uscirà AMD, Nvidia avrà già un vantaggio nel mercato.

Tassifar
11-10-2022, 20:58
Risultati impressionanti, ma la 4090 è un prodotto chimera, le schede che vendono tanto sono altre ed è lì che si giocherà la partita.

Tra l'altro i rumors dell'ultima ora dicono che domani AMD svelerà dei dettagli su RDNA 3 :sofico: speriamo sia vero! Si tratta di un leaker abbastanza affidabile (Kepler)


Cosa ci fa un candidato premio nobel per l'economia in un forum come questo? :huh:

Non serve avere un nobel in economia per vedere l'attuale situazione economica

Tassifar
11-10-2022, 21:04
Comunque, tornando in tema, prestazioni notevoli e incrementi prestazionali che non si vedevano da tempo tra una serie e l'altra. Quello che mi preoccupa sarà il prezzo della fascia media x60 e medio-alta x70

k0nt3
11-10-2022, 21:32
Sulle vendite NVidia ha vinto a prescindere.
Quando uscirà AMD, Nvidia avrà già un vantaggio nel mercato.
Non ne sono ancora certo, ma pare che il 3 novembre sia la data del lancio per AMD, non soltanto l'annuncio di rdna3. Domani ne sapremo di più a quanto pare, ma se così fosse il vantaggio non è molto.
Non serve avere un nobel in economia per vedere l'attuale situazione economica
Vedere la situazione è un conto, sapere come migliorarla è un altro paio di maniche.

carloUba
11-10-2022, 21:47
Non vedo commenti di Jimmy.
Sono triste

batou83
11-10-2022, 21:50
Una vga assurda per un uso daily con i suoi 450 e passa watt, va bene giusto qualche oretta nel weekend... :rolleyes:

obogsic
11-10-2022, 23:16
ok, tutto molto bello quanto inaccessibile per tantissimi.
Mi metto in attesa, in modalità barbone, della 4050/4060 che per le mie tasche sono già abbastanza :D :D :D

marchigiano
11-10-2022, 23:56
Già, che schifo i 55'' oled, nammerda proprio :D

non hanno tempi di risposta alti per il gaming?

al135
12-10-2022, 00:23
non hanno tempi di risposta alti per il gaming?

tutto il contrario, da diversi anni ormai

marchigiano
12-10-2022, 00:46
tutto il contrario, da diversi anni ormai

cioè mi dici che un tv odierno ha tempi di risposta inferiori a un monitor gaming? :eek:

sono rimasto indietro come le pal.. di un cane :D

Manolo De Agostini
12-10-2022, 05:24
Mi sono dimenticato di chiedere, se fosse possibile, test su red dead redemption 2 e grand theft auto 5. Lo so che non sono molto richiesti ormai ma io provo.

Ed anche su mount e blade 2 bannerlord :)

Uno c'è, l'ho testato nel capitolo su DLSS (2) e FSR1/2

https://www.hwupgrade.it/articoli/6391/rdr2_up.png

pheasant_killer
12-10-2022, 07:24
Mi sono dimenticato di chiedere, se fosse possibile, test su red dead redemption 2 e grand theft auto 5. Lo so che non sono molto richiesti ormai ma io provo.

Ed anche su mount e blade 2 bannerlord :)

Ma quelli se li magna a colazione annichiletor!!

Alekx
12-10-2022, 09:04
E Daje comprateVe sta scheda........

P.S.
Acquisto 3090Ti oramai obsoleta a 250€ + SS :D :D

ninja750
12-10-2022, 09:18
+50% perf/watt sulla 6950XT, per quanto dichiarato da AMD, ad AMD le basta una scheda da 350watt (-100watt) per pareggiare questa 4090 almeno in Raster

e se anche AMD facesse una scheda da 450w? :eek:

:sofico:

pity91
12-10-2022, 09:33
Già, che schifo i 55'' oled, nammerda proprio :D

bene allora prendilo con sta bomba di 4090
comunque sempre meglio un Samsung Odissey G9 che un TV Oled tutta la vita

narniagreen
12-10-2022, 09:34
e se anche AMD facesse una scheda da 450w? :eek:

:sofico:

Enermax ha spoilerato la 7950XT da 420watt e la 7900XT da 330, tanto basta per competere con ADA, la 4090 sarà in mezzo a due fuochi, la 4080 16GB sta sotto alla 7900XT, probabile uscirà una 4080ti per competere.

Direi che AMD cascherà in piedi, bisogna solo vedere RT come sarà.

pheasant_killer
12-10-2022, 09:48
Enermax ha spoilerato la 7950XT da 420watt e la 7900XT da 330, tanto basta per competere con ADA, la 4090 sarà in mezzo a due fuochi, la 4080 16GB sta sotto alla 7900XT, probabile uscirà una 4080ti per competere.

Direi che AMD cascherà in piedi, bisogna solo vedere RT come sarà.

Non ho molte speranze in merito ma vedremo. quel briccone di huang un paio di sculacciate se le merita

TecnoWorld8
12-10-2022, 10:01
Leggo spesso, anche su siti internazionali, il processo produttivo della 4090 citato come 4N, richiamato come se fosse un 5nm.

Innanzitutto, esso dovrebbe essere citato come "N4" (citando dal sito di TSMC), ma soprattutto, la stessa fab, lo considera a tutti gli effetti come a 4nm. Cito dal sito:

"In addition, TSMC plans to launch 4nm (N4) technology, an enhanced version of N5 technology. N4 provides further enhancement in performance, power and density for the next wave of N5 products. The development of N4 technology is on schedule with good progress, and volume production is expected to start in 2022."

In altri termini, è quello che un tempo veniva chiamato "sub-note" o "half node" e da sempre rappresenta un chiaro miglioramento rispetto al nodo "più grande" ed un buon passo verso il nodo "più piccolo".

Manolo De Agostini
12-10-2022, 10:14
Leggo spesso, anche su siti internazionali, il processo produttivo della 4090 citato come 4N, richiamato come se fosse un 5nm.

Innanzitutto, esso dovrebbe essere citato come "N4" (citando dal sito di TSMC), ma soprattutto, la stessa fab, lo considera a tutti gli effetti come a 4nm. Cito dal sito:

"In addition, TSMC plans to launch 4nm (N4) technology, an enhanced version of N5 technology. N4 provides further enhancement in performance, power and density for the next wave of N5 products. The development of N4 technology is on schedule with good progress, and volume production is expected to start in 2022."

In altri termini, è quello che un tempo veniva chiamato "sub-note" o "half node" e da sempre rappresenta un chiaro miglioramento rispetto al nodo "più grande" ed un buon passo verso il nodo "più piccolo".

4N e N4 non sono la stessa cosa. 4N è un nodo a 5 nm ottimizzato per NVIDIA. Non so come, non so in cosa, ma così ce l'hanno venduta. Non ci hanno detto N4, che comunque è un miglioramento dell'N5, come hai ben detto tu. Non sappiamo al momento altro, per cui rimango a quello che è stato comunicato.

pheasant_killer
12-10-2022, 10:22
Manolo, scusa la domanda. Viene riportato che la 4090 avrebbe 72mb di l2, questo significherebbe perdere 3 canali di memoria. Sono 8mb x 32bit.
Sai se nvidia per evitare questo ha effettivamente tagliato le cache da 16 x 6 (64bit x 6) a 12x6 e non calato il bus? E' la prima volta che viene fatta questa cosa. Grazie.:)

Ciao Manolo, grazie per l'articolo prima di tutto.

Una risposta a questa doverosa domanda da parte di mikael? Grazie. :)

Manolo De Agostini
12-10-2022, 10:54
Ciao Manolo, grazie per l'articolo prima di tutto.

Una risposta a questa doverosa domanda da parte di mikael? Grazie. :)

Non l'avevo visto :( AD102 ha 12 controller a 32 bit e un totale di 98,3 MB di cache L2, che sulla RTX 4090 scendono a 73,7 per l'esattezza. Di conseguenza presumo l'ultima opzione.

nickname88
12-10-2022, 11:13
cioè mi dici che un tv odierno ha tempi di risposta inferiori a un monitor gaming? :eek:

sono rimasto indietro come le pal.. di un cane :D
Il medioevo è finito da un pezzo, è da oltre un decennio che i TV High End hanno elevate frequenze di aggiornamento e latenza prossima allo zero, con anche funzionalità integrate per ridurlo ulteriormente.

Un OLED poi ha anche un response time inferiore a qualunque LCD al mondo.

Oltre al fatto che solitamente hanno anche il modulo Gsync integrato assieme al supporto Freesync, rigorosamente all'ultima versione Premium e Ultimate.

E come se non bastasse costano meno dei monitors da gioco, un LG C2 da 42" ad esempio si riesce anche a trovare appena sotto i 1000€ ...... ed è anche utilizzabile come smartTV.

TecnoWorld8
12-10-2022, 11:20
4N e N4 non sono la stessa cosa. 4N è un nodo a 5 nm ottimizzato per NVIDIA. Non so come, non so in cosa, ma così ce l'hanno venduta. Non ci hanno detto N4, che comunque è un miglioramento dell'N5, come hai ben detto tu. Non sappiamo al momento altro, per cui rimango a quello che è stato comunicato.

Ti ringrazio per la risposta. Detta così (e se dunque il processo fosse un 5nm) mi parrebbe allora una mossa di marketing da parte di nVidia e mi spiacerebbe molto se così fosse.

Spero invece che sia un misunderstanding iniziale - da parte della stessa nVidia - e si tratti invece del suddetto N4.

L'efficienza mostrata dalla GPU sembra testimoniare un processo sicuramente molto raffinato. Bisognerà vedere AMD come si comporterà, con il processo a 5nm "base".

argez
12-10-2022, 11:29
Il medioevo è finito da un pezzo, è da oltre un decennio che i TV High End hanno elevate frequenze di aggiornamento e latenza prossima allo zero, con anche funzionalità integrate per ridurlo ulteriormente.

Un OLED poi ha anche un response time inferiore a qualunque LCD al mondo.

Oltre al fatto che solitamente hanno anche il modulo Gsync integrato assieme al supporto Freesync, rigorosamente all'ultima versione Premium e Ultimate.

E come se non bastasse costano meno dei monitors da gioco, un LG C2 da 42" ad esempio si riesce anche a trovare appena sotto i 1000€ ...... ed è anche utilizzabile come smartTV.

E' una tv scusa...forse intendevi dire che è utilizzabile come monitor?

Manolo De Agostini
12-10-2022, 11:29
Si poi l'ho visto :) grazie. Intanto ho sentito che in 8k questa scheda scala di più. Peccato che non potete provarlo :D

L'anno scorso passò un 8K in redazione proprio nel periodo della 3090 e riuscì a provarla a quella risoluzione. Dai, cercherò di averne uno per un ulteriore test... (che scassac... che siete, ovviamente sto scherzando :D :D )

Manolo De Agostini
12-10-2022, 11:31
Ti ringrazio per la risposta. Detta così (e se dunque il processo fosse un 5nm) mi parrebbe allora una mossa di marketing da parte di nVidia e mi spiacerebbe molto se così fosse.

Spero invece che sia un misunderstanding iniziale - da parte della stessa nVidia - e si tratti invece del suddetto N4.

L'efficienza mostrata dalla GPU sembra testimoniare un processo sicuramente molto raffinato. Bisognerà vedere AMD come si comporterà, con il processo a 5nm "base".

Direi di non focalizzarci troppo su N4, 4N o via discorrendo... ormai i processi hanno nomi più di marketing che reali. L'importante sono le prestazioni finali e il rapporto con i consumi.

nickname88
12-10-2022, 11:34
E' una tv scusa...forse intendevi dire che è utilizzabile come monitor?No
Intendevo dire che la usi principalmente come monitor da gioco
E quando finisci la puoi usare anche come smartTV per BR e film in streaming.

Un dispositivo OLED, HDR, 120Hz con Gsync di certo non è realizzato specificativamente per vedere i films.

L'HDR è una tecnologia maggiormente sfruttata dai videogiochi.
Il VRR e 120Hz di certo non sono sfruttabili dai films ma dai videogiochi.
Idem i tempi di latenza.

TecnoWorld8
12-10-2022, 11:36
Direi di non focalizzarci troppo su N4, 4N o via discorrendo... ormai i processi hanno nomi più di marketing che reali. L'importante sono le prestazioni finali e il rapporto con i consumi.

Essendo un informatico ed appassionato di tecnologia in quanto tale, non sono del tutto d'accordo. Ci mancherebbe, concordo sul fatto che sia importante il risultato, ma apprezzo anche sapere nel dettaglio come esso venga prodotto. Sarebbe altrimenti un po' come dire che non importa il movimento di un orologio, ma solo che esso segni l'ora corretta.

argez
12-10-2022, 11:45
Commentando le schede, ottime prestazioni, finalmente almeno per i giochi odierni giocabili in 4k. Prezzi e consumi non pervenuti, da cestinare qualsiasi cosa sopra la 3070(non TI).

Ale55andr0
12-10-2022, 11:53
Si si tutti a ridere adesso !

Peccato che le 4080 ( compresa la 16GB ) sia pensantemente castrate e queste performance sono solo fumo negli occhi. :read:

GA103 avrà quasi la metà dei cores !

by chi era felice della 12gb a 899 :stordita:

Ale55andr0
12-10-2022, 11:56
Beh no, c'è gente che ha i TV 8k in casa. E comunque il target economico della rtx 4090 si rivolge a quella gente che non bada a spese. Se ho 2000 euro per comprare solo una scheda video, ho sicuramente anche 10000 eur per comprare solo un TV 8k. I benchmark 8k per la rtx 4090 andavano fatti. È proprio il campo di questo mostro potentissimo

1) non affatto vero che chi spende 2000 per la gpu ne può spendere 10mila per la TV, c'è chi mette qualcosina da parte per uno-due anni e si compra la gpu dei sogni per passione.

2) 8k per cosa? vedergli fare 35 frame in nativa? In cp2077 4k rt maxato ne fa una cinquantina eh....a meno che tu intenda in fake 8k+fake frame in mezzo che poi è meglio del 16k nativo + SSAA 8x ovviamente


pertanto se si vuole il meglio lo si deve pagare, e caro.

È sempre stato cosi e lo sarà sempre, vedrete che la serie 5xxx offrirà il doppio delle prestazioni ����

te credo 2nm tsmc, saranno tipo il doppio dei cuda a 4ghz...insomma la 4090 è già un roito a pensarci su :D


e se anche AMD facesse una scheda da 450w? :eek:

:sofico:

se andasse tanto quanto e costasse qualcosa meno ovviamente avrebbe una logica

argez
12-10-2022, 12:07
No
Intendevo dire che la usi principalmente come monitor da gioco
E quando finisci la puoi usare anche come smartTV per BR e film in streaming.

Un dispositivo OLED, HDR, 120Hz con Gsync di certo non è realizzato specificativamente per vedere i films.
L'HDR è una tecnologia maggiormente sfruttata dai videogiochi e il VRR e 120Hz di certo non sono sfruttabili dai films ma dai videogiochi.
idem i tempi di latenza.

Ah per me puoi farci quello che ti pare ma è una tv, non certo commercializzata come monitor da gaming. Che lo faccia in maniera egregia dal punto di vista tecnico non lo metto in dubbio. Smettiamo di far passare le opinioni personali per fatti.

dav1deser
12-10-2022, 12:29
Rispetto alla RTX 3090 "non Ti", il balzo è impressionante: +77%, mentre se andiamo a prendere come riferimento la RTX 2080 Ti, la top di gamma della serie 2000, abbiamo un balzo prestazionale del 172%, quasi due volte di più.

Occhio con le percentuali. +100% vuol dire che va 2 volte più veloce, + 200% va 3 volte più veloce. Quindi nel tuo caso va "quasi 3 volte di più" non 2.
Quando ho letto quella frase ho subito pensato "hmmm, questo articolo non è scritto da Corsini vero". Non è per offendere o altro, ma solo per stimolare a fare più attenzione a certi "dettagli" che sono un po' più che semplici dettagli...

Se prendiamo invece come riferimento la RTX 2080 Ti, dotata di unità RT core di prima generazione, il balzo è di 2-3 volte a seconda della prova. La media dei cinque test vede un balzo del 236% dalla 2080 Ti alla 4090, il che dà la dimensione dei miglioramenti che l'architettura NVIDIA ha compiuto sul fronte del ray tracing dalla fine del 2018 a oggi.

Come sopra, +236% vuol dire che è tra le 3 e le 4 volte più veloce, quindi il 2-3 volte di cui parli stona (ma in questo caso può essere frutto di media e arrotondamento, se tipo 3.6 volte lo consideri 3 volte, allora la media può superare il 3 ma rimanere nel range 2-3).

In realtà non è così... ho più volte messo la mano sul dissipatore senza scottarmi o provare calore eccessivo durante i test. E ti assicuro che di schede molto calorose ne ho viste passare un bel po', ma non è questo il caso.

Il commento che hai quotato parlava di "scheda che scalda", e per quanto ben raffreddata, una scheda che consuma 450W, nell'ambiente immetterà 450W di calore, quindi scalderà 450W (tanto per una scheda video), non lontana da certe stufette elettriche.

Di contro puoi avere una scheda che consuma 50W, ma raffreddata malissimo, che a toccarla ti scotti. La scheda consuma poco, scalda (l'ambiente) poco, ma si scalda tanto.

Zappz
12-10-2022, 13:01
Ah per me puoi farci quello che ti pare ma è una tv, non certo commercializzata come monitor da gaming. Che lo faccia in maniera egregia dal punto di vista tecnico non lo metto in dubbio. Smettiamo di far passare le opinioni personali per fatti.

A livello di qualità di immagine la tv è nettamente superiore, i monitor hanno il vantaggio di avere tagli più piccoli e tanti hz.

Manolo De Agostini
12-10-2022, 13:08
Occhio con le percentuali. +100% vuol dire che va 2 volte più veloce, + 200% va 3 volte più veloce. Quindi nel tuo caso va "quasi 3 volte di più" non 2.
Quando ho letto quella frase ho subito pensato "hmmm, questo articolo non è scritto da Corsini vero". Non è per offendere o altro, ma solo per stimolare a fare più attenzione a certi "dettagli" che sono un po' più che semplici dettagli...
Come sopra, +236% vuol dire che è tra le 3 e le 4 volte più veloce, quindi il 2-3 volte di cui parli stona (ma in questo caso può essere frutto di media e arrotondamento, se tipo 3.6 volte lo consideri 3 volte, allora la media può superare il 3 ma rimanere nel range 2-3).


Ciao, può essere che nella fretta abbia seccato a scrivere il rapporto, in effetti in altre parti l'avevo scritto corretto. Ti ringrazio per la segnalazione, sistemo. Per il resto, ho capito quello intendi, semplicemente non pensavo intendesse quello.

mikael84
12-10-2022, 13:14
4N e N4 non sono la stessa cosa. 4N è un nodo a 5 nm ottimizzato per NVIDIA. Non so come, non so in cosa, ma così ce l'hanno venduta. Non ci hanno detto N4, che comunque è un miglioramento dell'N5, come hai ben detto tu. Non sappiamo al momento altro, per cui rimango a quello che è stato comunicato.

Ti confermo che il 4n è un 5nm ottimizzato per nvidia. Lo stesso usato per Hopper.

Non l'avevo visto :( AD102 ha 12 controller a 32 bit e un totale di 98,3 MB di cache L2, che sulla RTX 4090 scendono a 73,7 per l'esattezza. Di conseguenza presumo l'ultima opzione.

Ti ringrazio, mai successa sta cosa.:)
Si chiaramente, essendo da 12,288 x 6 nello specifico.

dav1deser
12-10-2022, 14:35
L'anno scorso passò un 8K in redazione proprio nel periodo della 3090 e riuscì a provarla a quella risoluzione. Dai, cercherò di averne uno per un ulteriore test... (che scassac... che siete, ovviamente sto scherzando :D :D )

Non puoi usare il VSR o analoga tecnologia Nvidia?

LucaZar
12-10-2022, 14:42
Prestazioni davvero sbalorditive, ottenute senza aumentare temperature (però a fronte di un dissipatore ancora più grosso) e con dei consumi che, per quanto di fascia alta, non segnano dei nuovi record.

Mi sembra cambiata la politica di NVIDIA: se non ricordo male, storicamente presentava per prima la sua fascia "enthusiast" (quella con suffisso 80 per intenderci) per poi rilasciare le versioni Titan/Ti/90 in un secondo momento. Qui si parte subito col botto (ci sarà sempre spazio per la Ti in un prossimo futuro), ma sarebbe interessante sapere come si comporterà la vera erede della 3080, ossia la 4080 16...

Sono molto incuriosito dalla nuova architettura AMD per capire se e come sarà in grado di vedersela con NVIDIA, mentre la questione del DLSS 3 la trovo, al pari di tutte le tecnologie proprietarie, destinata ad un binario morto.

A chi scriveva che la 4090 si trova già, e ad un prezzo inferiore rispetto al listino, suggerirei di fare qualche click in più, perché ad oggi non sono acquistabili nonostante la presunta disponibilità...

Infine dico la mia sul TV in luogo del monitor: OLED bellissimi ecc ecc ma mettersi un 42" a 50 cm dal naso non è propriamente rilassante. Il taglio tipico di un 4K da giocatore PC è tra i 27 e i 32" e qui ci si accontenta di HDR da pena e tecnologia IPS (per ora).

marchigiano
12-10-2022, 15:08
E Daje comprateVe sta scheda........

P.S.
Acquisto 3090Ti oramai obsoleta a 250€ + SS :D :D

infatti... 250 ragionevole

Il medioevo è finito da un pezzo, è da oltre un decennio che i TV High End hanno elevate frequenze di aggiornamento e latenza prossima allo zero, con anche funzionalità integrate per ridurlo ulteriormente.

Un OLED poi ha anche un response time inferiore a qualunque LCD al mondo.

Oltre al fatto che solitamente hanno anche il modulo Gsync integrato assieme al supporto Freesync, rigorosamente all'ultima versione Premium e Ultimate.

E come se non bastasse costano meno dei monitors da gioco, un LG C2 da 42" ad esempio si riesce anche a trovare appena sotto i 1000€ ...... ed è anche utilizzabile come smartTV.

si vede che sto con notebook haswell... :D tra poco li lancio dalla finestra

(che scassac... che siete, ovviamente sto scherzando :D :D )

:D :D :D :D :D

Il commento che hai quotato parlava di "scheda che scalda", e per quanto ben raffreddata, una scheda che consuma 450W, nell'ambiente immetterà 450W di calore, quindi scalderà 450W (tanto per una scheda video), non lontana da certe stufette elettriche.

Di contro puoi avere una scheda che consuma 50W, ma raffreddata malissimo, che a toccarla ti scotti. La scheda consuma poco, scalda (l'ambiente) poco, ma si scalda tanto.

esatto, una stanza ben isolata può far a meno del riscaldamento in inverno quando si gioca con un pc simile (tra tutto sarà 1KW). d'estate sarà un inferno, ci vorrà un climatizzatore

Manolo De Agostini
12-10-2022, 15:14
Non puoi usare il VSR o analoga tecnologia Nvidia?

C'è il DSR per NVIDIA, ma volevo ricreare un'esperienza "nativa", se possibile.

ThePunisher
12-10-2022, 15:15
Sparita dal sito NVIDIA 1 minuto dopo che è apparsa e anche se sono riuscito a clickare "ACQUISTA" non succedeva nulla, quindi il 100% dello stock è stato comprato da bot. Un altro ridicolo e vergognoso paper launch.

dav1deser
12-10-2022, 15:16
C'è il DSR per NVIDIA, ma volevo ricreare un'esperienza "nativa", se possibile.

Capito, sicuramente farlo in nativo è più affidabile, però se fosse possibile si potrebbe fare anche un confronto fra nativo e virtuale così da vedere se nasce qualche differenza. Se non dovessero essercene, usare il DSR potrebbe essere una buona soluzione in assenza di monitor adeguati ai test che si vogliono effettuare.

Manolo De Agostini
12-10-2022, 15:18
Capito, sicuramente farlo in nativo è più affidabile, però se fosse possibile si potrebbe fare anche un confronto fra nativo e virtuale così da vedere se nasce qualche differenza. Se non dovessero essercene, usare il DSR potrebbe essere una buona soluzione in assenza di monitor adeguati ai test che si vogliono effettuare.

Domani devo provare una custom, smanetto un po' e vedo se vale la pena scriverci qualcosa :)

jepessen
12-10-2022, 15:26
In pratica al momento e' utile solamente in due tipologie di persone:


I fanatici delle simulazioni (di volo, d'auto etc), che possono beneficiare di un apprezzabile aumento di qualita' e prestazioni nelle configurazioni multi monitor per incrementare il FOV. In genere questa gente (quanto mi piacerebbe farne parte) spendono gia' un sacco di soldi per le postazioni, fra volanti, cloche, agganci multimonitor, poltrone e via dicendo, per cui potrebbe rientrare nel loro budget.
Professionisti che utilizzano la GPU nel loro lavoro, quindi chi sfrutta programmi accelerati GPGPU, chi fa rendering, chi fa CAD spinto (per esempio con Solidowks puoi fare il progetto e le simulazioni FEM accelerate). In quei casi si riprenderebbero presto dall'investimento, data l'efficienza maggiorata del 50%, che non e' poco.


Per tutti gli altri si, ci sono notevoli miglioramenti, ma che all'atto pratico non fanno la differenza (veramente, solo qualche pazzo che dice "noooo a 100Hz i giochi sono ingiocabili, minimo 200Hz!!!!!)...

jepessen
12-10-2022, 15:28
1) non affatto vero che chi spende 2000 per la gpu ne può spendere 10mila per la TV, c'è chi mette qualcosina da parte per uno-due anni e si compra la gpu dei sogni per passione.

Si ok ma della GPU dei sogni non te ne fai niente se non hai un TV/Monitor all'altezza (anche piu' di uno), scusa....

pity91
12-10-2022, 15:35
3 monitor da 27" FullHd li gestisci sui vari Sim con una 3060 senza problemi giusto per fare un esempio.

demon77
12-10-2022, 15:35
Domani devo provare una custom, smanetto un po' e vedo se vale la pena scriverci qualcosa :)

Ciao.
Me ne reagli una?

Così, a cazzo. Per simpatia. :)








oh, magari funziona.. se non provi non puoi saperlo.

Sealea
12-10-2022, 16:03
un balzo prestazionale del genere io non lo ricordo.. paurosa.

ThePunisher
12-10-2022, 16:18
Qualcuno è riuscito a prenderla sul forum mi dicono.

In che thread lo dicono?

majinbu7
12-10-2022, 16:31
Lasciando stare i prezzi ormai fuori controllo da almeno 2 anni a questa parte....ma quello che più mi lascia perplesso è il rapporto performance/watt...cioè prendendo come esempio una 2070 che in game stava sui 190 watt per avere una vga della generazione successiva con consumo simile (rimanendo in casa nvidia) bisogna andare su una 3060 che ha le medesime prestazioni in game , indi per cui il cambio non avrebbe senso.......vedremo con questa serie 4000 ma ho poca fiducia che ci siano dei grossi passi avanti....cioè vga sempre più performanti ma che consumano sempre di più....non mi sembra un gran progresso tecnologico .

Zappz
12-10-2022, 16:33
In pratica al momento e' utile solamente in due tipologie di persone:


I fanatici delle simulazioni (di volo, d'auto etc), che possono beneficiare di un apprezzabile aumento di qualita' e prestazioni nelle configurazioni multi monitor per incrementare il FOV. In genere questa gente (quanto mi piacerebbe farne parte) spendono gia' un sacco di soldi per le postazioni, fra volanti, cloche, agganci multimonitor, poltrone e via dicendo, per cui potrebbe rientrare nel loro budget.
Professionisti che utilizzano la GPU nel loro lavoro, quindi chi sfrutta programmi accelerati GPGPU, chi fa rendering, chi fa CAD spinto (per esempio con Solidowks puoi fare il progetto e le simulazioni FEM accelerate). In quei casi si riprenderebbero presto dall'investimento, data l'efficienza maggiorata del 50%, che non e' poco.


Per tutti gli altri si, ci sono notevoli miglioramenti, ma che all'atto pratico non fanno la differenza (veramente, solo qualche pazzo che dice "noooo a 100Hz i giochi sono ingiocabili, minimo 200Hz!!!!!)...

In DCS world i 24gb sono quasi indispensabili.

TecnoWorld8
12-10-2022, 16:44
In pratica al momento e' utile solamente in due tipologie di persone:


I fanatici delle simulazioni (di volo, d'auto etc), che possono beneficiare di un apprezzabile aumento di qualita' e prestazioni nelle configurazioni multi monitor per incrementare il FOV. In genere questa gente (quanto mi piacerebbe farne parte) spendono gia' un sacco di soldi per le postazioni, fra volanti, cloche, agganci multimonitor, poltrone e via dicendo, per cui potrebbe rientrare nel loro budget.
Professionisti che utilizzano la GPU nel loro lavoro, quindi chi sfrutta programmi accelerati GPGPU, chi fa rendering, chi fa CAD spinto (per esempio con Solidowks puoi fare il progetto e le simulazioni FEM accelerate). In quei casi si riprenderebbero presto dall'investimento, data l'efficienza maggiorata del 50%, che non e' poco.


Per tutti gli altri si, ci sono notevoli miglioramenti, ma che all'atto pratico non fanno la differenza (veramente, solo qualche pazzo che dice "noooo a 100Hz i giochi sono ingiocabili, minimo 200Hz!!!!!)...

Questo è il tipico commento che sento all'uscita di ogni top gamma hardware da...boh, 20 anni a questa parte, forse più. Ovviamente non ha senso fare upgrade ad ogni serie, ma tra comprare un top gamma ogni 3 gen e comprare media gamma ogni 1-2, la differenza di costo è poca o nulla, ma la differenza di godimento subito e longevità poi è enorme.

nickname88
12-10-2022, 16:44
un balzo prestazionale del genere io non lo ricordo.. paurosa.Ricordi male !

Pascal e Ampere han dato lo stesso boost, la differenza è che loro lo han dato anche con il resto dei modelli o quasi.

Questa gen invece questa mostruosità la vedi ora con la 4090 e con nessun altra, la 4080 fa pietà !

TecnoWorld8
12-10-2022, 16:45
un balzo prestazionale del genere io non lo ricordo.. paurosa.

La mia scheda attuale (in firma) fece qualcosa di simile.

Nui_Mg
12-10-2022, 16:56
@M.De.Agostini:

"Con Ada Lovelace abbiamo l'ottava generazione dell'encoder che implementa il supporto all'encoding AV1. La precedente generazione Ampere supportava la codifica AV1, ma non la decodifica"


I due termini evidenziati vanno scambiati.

Nui_Mg
12-10-2022, 16:57
comunque sempre meglio un Samsung Odissey G9 che un TV Oled tutta la vita
Per un discorso di qualità immagine?

nickname88
12-10-2022, 16:58
Per un discorso di qualità immagine?

Perchè il G9 è un monitor da scrivania e l'altro un TV

pity91
12-10-2022, 17:40
Perchè il G9 è un monitor da scrivania e l'altro un TV

esatto

Gameonline
12-10-2022, 17:53
Tutti a parlare e scrivere di ste 4090, e intanto in tempo zero la scheda sul sito nvidia è sparita, soldout stile periodo covid o di una manciata di schede messe in vendita.

ThePunisher
12-10-2022, 17:55
Tutti a parlare e scrivere di ste 4090, e intanto in tempo zero la scheda sul sito nvidia è sparita, soldout stile periodo covid o di una manciata di schede messe in vendita.

Già e al tempo diedero la colpa alle crypto e al covid. Ora in 2 minuti sparite uguale.

Pandemio
12-10-2022, 18:19
E pensare che la 3090 ti era già un mostro di potenza ...come una Ferrari stradale e poi arriva lei ...una F1 !
Che dire ...non c'è nulla da dire un balzo in avanti quasi inconcepibile .

StylezZz`
12-10-2022, 18:21
Già e al tempo diedero la colpa alle crypto e al covid. Ora in 2 minuti sparite uguale.

Su altri lidi ci stanno le custom a 1950 euro che sono ordinabili.

ThePunisher
12-10-2022, 18:22
Su altri lidi ci stanno le custom a 1950 euro che sono ordinabili.

Dove, se posso?

marchigiano
12-10-2022, 18:22
Questa gen invece questa mostruosità la vedi ora con la 4090 e con nessun altra, la 4080 fa pietà !

ma non faranno vie di mezzo?

ThePunisher
12-10-2022, 18:28
ma non faranno vie di mezzo?

Probabilmente la 4080 Ti quando nessuno se la aspetterà.

StylezZz`
12-10-2022, 18:30
Dove, se posso?

LDLC.

ThePunisher
12-10-2022, 18:31
LDLC.

Niente disponibile.

StylezZz`
12-10-2022, 18:59
Niente disponibile.

KFA2 e Gainward sono rimaste ordinabili per un bel po'.

Gameonline
12-10-2022, 20:55
Nvidia probabilmente in Italia e in diverse regioni d’Europa sta replicando lo stesso giochino fatto durante il 2020/metà 2022 insieme agli aib, falsa la percezione scarsità immettendo/falsando la percezione dando l’idea di scarsa quantità sul mercato delle 4090 per mantenere il prezzo alto e piazzare le tonnellate di rtx 3000 in magazzino. Non cadete nel in questo tranello commerciale, portate pazienza e in poche settimane/ 1-2 mesi con la congiuntura economica competitors e soldi già pagati a TSMC in anticipo, cala le braghe (Rtx 3000 o 4000 del caso).

ThePunisher
12-10-2022, 21:15
KFA2 e Gainward sono rimaste ordinabili per un bel po'.

Anche ora la.Gainward Phantom che costa meno della FE la danno disponibile in 5 giorni.

pheasant_killer
12-10-2022, 21:28
Gomblotto? :asd:

Guarda che ha perfettamente ragione.

Ah si tu sei quello che ha detto che se non gli compriamo le schede nvidia fallisce. Triplo :asd: :asd: :asd: carpiato. Sei un trolletto simpatico. :)


:rotfl:

Bscity
12-10-2022, 22:01
Vabbè và un pò di più della mia 1080, niente di che !

tuttodigitale
12-10-2022, 22:45
In realtà non è così... ho più volte messo la mano sul dissipatore senza scottarmi o provare calore eccessivo durante i test. E ti assicuro che di schede molto calorose ne ho viste passare un bel po', ma non è questo il caso.

per quello basta vedere solo il consumo...il fatto che sia "freddo" indica solo che lo scambio è più efficiente (quindi pure meglio come condizionatore :O ). Detto questo l'assorbimento elettrico è in linea con le schede top di gamma della passata generazione, nulla di nuovo.
Resta il fatto che è di gran lunga la scheda più efficiente....il tallone di achille delle schede nvidia della passata generazione.

Notturnia
12-10-2022, 22:46
a parte il costo pare un mostro su tutti i fronti..
troppo costa per pensarci ma un salto mica da ridere.. bel colpo

tuttodigitale
12-10-2022, 22:54
E pensare che la 3090 ti era già un mostro di potenza ...come una Ferrari stradale e poi arriva lei ...una F1 !
Che dire ...non c'è nulla da dire un balzo in avanti quasi inconcepibile .

sarà ma il balzo in avanti degli ultimi anni, soprattutto considerando il prezzo (anche di listino) non mi sembra per niente entusiasmante. Forse sono l'unico a pensarla in questo modo, ma 2000 euro per una scheda da gioco mi sembrano eccessivi.

Fra poco scopriremo che la fascia mainstream sono schede da 1000 euro....:rolleyes:

TecnoWorld8
12-10-2022, 23:02
Questo avviene per una serie di fattori. Sicuramente l'evoluzione media dell'hw è più lenta e difficoltosa rispetto ad anni fa, ma le stesse esigenze medie non spingono come avveniva un tempo.....

tuttodigitale
12-10-2022, 23:22
Questo avviene per una serie di fattori. Sicuramente l'evoluzione media dell'hw è più lenta e difficoltosa rispetto ad anni fa, ma le stesse esigenze medie non spingono come avveniva un tempo.....

questo è chiaro, ma è anche vero che oggi una console sembra molto più performante per il prezzo rispetto a quanto appariva qualche anno fa.

una scheda da 200 euro umiliavano letteralmente console uscite da meno di un anno. Non è il caso oggi.

Ripeto tenendo conto degli andamenti dei prezzi, (e negli ultimi anni, volenti o non, è stata AMD ad alzare il rapporto prestazioni/prezzo anche se solo teorico a causa del mining) non vedo grossi miglioramenti tenendo conto che sono passati 2 anni dal debutto della 6900XT da 1000 euro...

75% di prestazioni in più al doppio del prezzo dopo 24 mesi, non lo definirei incredibile....

Poi detto tra noi, il prezzo troppo alto per una soluzione consumer serve anche per dare un senso alle 3000, se come sembra sono da smaltire....

Ale55andr0
13-10-2022, 00:46
Ricordi male !

Pascal e Ampere han dato lo stesso boost, la differenza è che loro lo han dato anche con il resto dei modelli o quasi.

Questa gen invece questa mostruosità la vedi ora con la 4090 e con nessun altra, la 4080 fa pietà !



dicevi? :asd:

:eek::eek: :eek: :eek: :eek: :read:

Mamma mia la gen Ampere UMILIATA !
E' da buttare praticamente.

:read:
Un TDP che torna sotto i 300W finalmente !
La compro !


Questa storia che la 4080 in realtà sia la 4070 l'hai decisa tu adesso ?
E' la stessa storia della 3080-10G e della 3080-12G dove non cambiano solo i GB di VRAM ma anche i cores e le frequenze.


Inoltre il nome non ha importanza, va il doppio della 3080 ! .... ad un prezzo simile ! :read:
Perchè io la 3080 10GB quanto l'ho pagata secondo te ? :asd:

Ti ricordo che il listino è 100$ in più e l'euro oggi è SOTTO il dollaro, non come nel 2020 ( bei tempi ), è il prezzo che dobbiamo pagare per aver voluto aiutare l'Ucraina, qualcuno se ne faccia una ragione, non sarà nulla più come prima.

Tutta sta pagliacciata perchè la 4080-12G costa troppo per essere una pseudo 4070 ?
Sta logica della xx70 che deve costare 500 dollari altrimenti non vale la pena è un pensiero oramai fantasioso, tutto costa di più ! E' ora di aprire gli occhi.

L'unica regola è che la 70 costa meno della 80, la 60 meno della 70 e così via.
Quì la 4080-16G, quella "vera" come la chiamate voi costa 1200, quindi a quanto dovevano metterla questa speudo 4070 ?

StylezZz`
13-10-2022, 01:20
dicevi? :asd:

Va be dai alla fine è rinsavito, in quel momento era sotto l'effetto ipnotico di giacchetta e non voleva sentire ragione.

Manolo De Agostini
13-10-2022, 05:32
@M.De.Agostini:

"Con Ada Lovelace abbiamo l'ottava generazione dell'encoder che implementa il supporto all'encoding AV1. La precedente generazione Ampere supportava la codifica AV1, ma non la decodifica"


I due termini evidenziati vanno scambiati.

Si vero, sistemato grazie!

Alekx
13-10-2022, 09:13
questo è chiaro, ma è anche vero che oggi una console sembra molto più performante per il prezzo rispetto a quanto appariva qualche anno fa.

una scheda da 200 euro umiliavano letteralmente console uscite da meno di un anno. Non è il caso oggi.

Ripeto tenendo conto degli andamenti dei prezzi, (e negli ultimi anni, volenti o non, è stata AMD ad alzare il rapporto prestazioni/prezzo anche se solo teorico a causa del mining) non vedo grossi miglioramenti tenendo conto che sono passati 2 anni dal debutto della 6900XT da 1000 euro...

75% di prestazioni in più al doppio del prezzo dopo 24 mesi, non lo definirei incredibile....

Poi detto tra noi, il prezzo troppo alto per una soluzione consumer serve anche per dare un senso alle 3000, se come sembra sono da smaltire....


Il problema e' che nei giochi della console le impostazioni grafiche sono quelle e basta al contrario del PC su cui la gente abilita le opzioni piu' disperate per poi lamentarsi che il gioco va lento su una scheda di questo prezzo.

Ancora oggi con una scheda da 300 euro umili le console a livello grafico calcolando che, se non erro, attualmente dovrebbero avere ancora processori grafici piu' vicini alle RX580 che alla serie 6000.

Detto questo ieri ho visto in vendita su un noto shop la 4090 al modico prezzo
di 2.500€ + SS.

jepessen
13-10-2022, 09:15
Questo è il tipico commento che sento all'uscita di ogni top gamma hardware da...boh, 20 anni a questa parte, forse più. Ovviamente non ha senso fare upgrade ad ogni serie, ma tra comprare un top gamma ogni 3 gen e comprare media gamma ogni 1-2, la differenza di costo è poca o nulla, ma la differenza di godimento subito e longevità poi è enorme.

Perche' evidentemente e' cosi'... Nel momento in cui esce una nuova generazione di schede video c'e' solo una minima parte di gente che ne ha effettivamente bisogno, che sono in genere quelli che necessitano in un modo o nell'altro della maggiore potenza computazionale possibile, oltre al fatto di avere il budget per potersela permettere. In un qualsiasi istante X i giochi esistenti tendono a girare bene sulla fascia media del mercato alle massime impostazioni grafiche, perche' non puoi spendere milioni e milioni di euro su un gioco per poi farlo girare bene solo sulle macchine piu' potenti, semplicemente escluderesti una notevole fetta di mercato. Quindi nel momento in cui le superschede escono semplicemente non vengono e non verranno sfruttate per molto tempo ancora al pieno delle loro potenzialita'. E quando quella potenza sara' necessaria per far giocare decentemente la maggior parte dei giochi allora significhera' che sara' una potenza disponibile nella gamma media, e quindi sara' in genere uscita la top di gamma successiva.

argez
13-10-2022, 09:26
sarà ma il balzo in avanti degli ultimi anni, soprattutto considerando il prezzo (anche di listino) non mi sembra per niente entusiasmante. Forse sono l'unico a pensarla in questo modo, ma 2000 euro per una scheda da gioco mi sembrano eccessivi.

Fra poco scopriremo che la fascia mainstream sono schede da 1000 euro....:rolleyes:

Ma infatti conosco molte persone che sono ripassate al mondo console visti i prezzi dell'hw pc...per me nvidia si sta dando una zappatina sui piedi continuando ad aumentare i prezzi a ogni generazione manco fosse un iphone.

narniagreen
13-10-2022, 09:35
dicevi? :asd:

:asd: :asd: :asd:

pity91
13-10-2022, 11:15
Il problema e' che nei giochi della console le impostazioni grafiche sono quelle e basta al contrario del PC su cui la gente abilita le opzioni piu' disperate per poi lamentarsi che il gioco va lento su una scheda di questo prezzo.

Ancora oggi con una scheda da 300 euro umili le console a livello grafico calcolando che, se non erro, attualmente dovrebbero avere ancora processori grafici piu' vicini alle RX580 che alla serie 6000.

Detto questo ieri ho visto in vendita su un noto shop la 4090 al modico prezzo
di 2.500€ + SS.

la GPU è bastata su RDNA 1
la CPU 8 core derivata dai Ryzen

Vul
13-10-2022, 12:24
Non mi entusiasma affatto questa gpu.

Mettiamo caso che costi e consumi la meta':

45/50% piu veloce in 4k della 3090ti. Non male, un discreto gap generazionale, onesto a 800 euro.

1440p o 4k la scheda non basta se vuoi giocare maxato a 1440p e 144hz non e' neanche granche' rispetto alle gen precedenti. Non granche' a 800 euro.

Ora, aggiungiamo pero' prezzi assurdi, dimensioni assurde, consumi assurdi, necessita' di comprare un ali nuovo e questa scheda non ha alcun senso.

Grandissima delusione, eppure qui mi sembra che si fa vedere DLSS 3 appositamente esclusivo Lovelace e un po' di RT e la gente si mette a 90 per comprare questo immenso bidone tecnologico da 450watt.

al135
13-10-2022, 12:33
Non mi entusiasma affatto questa gpu.

Mettiamo caso che costi e consumi la meta':

45/50% piu veloce in 4k della 3090ti. Non male, un discreto gap generazionale, onesto a 800 euro.

1440p o 4k la scheda non basta se vuoi giocare maxato a 1440p e 144hz non e' neanche granche' rispetto alle gen precedenti. Non granche' a 800 euro.

Ora, aggiungiamo pero' prezzi assurdi, dimensioni assurde, consumi assurdi, necessita' di comprare una gpu nuova e questa scheda non ha alcun senso.

Grandissima delusione, eppure qui mi sembra che si fa vedere DLSS 3 appositamente esclusivo Lovelace e un po' di RT e la gente si mette a 90 per comprare questo immenso bidone tecnologico da 450watt.


Mi sa che hai letto le comparative tra la serie 2000 e la 3000

Vul
13-10-2022, 14:18
Mi sa che hai letto le comparative tra la serie 2000 e la 3000

E dove?

Va al 18% piu veloce a 1080p di una 3090ti, il 47% a 4k.

https://tpucdn.com/review/nvidia-geforce-rtx-4090-founders-edition/images/average-fps_3840-2160.png

Spesso e volentieri sta dietro alle gpu vecchie a 1440p, esempio:

https://tpucdn.com/review/nvidia-geforce-rtx-4090-founders-edition/images/battlefield-5-2560-1440.png

https://tpucdn.com/review/nvidia-geforce-rtx-4090-founders-edition/images/borderlands-3-2560-1440.png

https://tpucdn.com/review/nvidia-geforce-rtx-4090-founders-edition/images/far-cry-6-2560-1440.png

A me questa gpu sembra tutt'altro che chissa' che: Nvidia ha preso e creato un chip enorme, aumentato la roba di ML per dire che DLSS 3 e' ancora piu fantastico (non rendendolo nemmeno retroattivo come e' solito loro), ma a livello di calcoli questa 4090 non sarebbe stata un granche' di upgrade per una 3090ti, specie considerando i consumi e dimensioni astronomiche.

Parliamo di 2000 euro e passa considerando alimentatore per andare piu lento di gpu vecchie a 1440p in meta' dei giochi e spendendo una roba come 50 centesimi l'ora di corrente per giocare...ah beh...

Fortuna che ci sono persone che si mettono in fila a 90 a prendere questi bidoni che Nvidia rifila, altrimenti le loro annate da 35/40% di profitto sul fatturato come le tiravano fuori.

fenice19
13-10-2022, 16:48
comincia la ballata dei prezzi siamo sui 3000 euro

nickname88
13-10-2022, 16:58
Va be dai alla fine è rinsavito, in quel momento era sotto l'effetto ipnotico di giacchetta e non voleva sentire ragione.

Quale effetto ipnotico, erano commenti sulla prima slide rilasciata.




Ti ricordo che il listino è 100$ in più e l'euro oggi è SOTTO il dollaro, non come nel 2020 ( bei tempi ), è il prezzo che dobbiamo pagare per aver voluto aiutare l'Ucraina, qualcuno se ne faccia una ragione, non sarà nulla più come prima.
dicevi? :asd:

Il commento sul sovreprezzo generale è corretto.
I nuovi riferimenti di prezzi saranno più alti da adesso in poi per buona parte dei prodotti e anche dell'hardware a parità di specifiche.
Se speri che AMD esca fuori con una mossa in stile 4870 aspetta e spera.

77new77
13-10-2022, 17:44
Ma che senso ha fare un lancio tanto schifoso? Anche questa volta nessuna scheda disponibile... Ridicoli...

finalmaxgear
13-10-2022, 18:42
Perchè tu pensi di:

Entro a gamba tesa:D

1- trovarla
2- pagarla il prezzo di listino

Ci sta.
Quando vai portami un unicorno già che sei li. :ciapet:

1 - Trovata
2 - Pagata prezzo di listino(1929€)

L'unicorno non c'era sennò te lo portava:ciapet: :read: :Prrr:

finalmaxgear
13-10-2022, 18:42
Perchè tu pensi di:

1- trovarla
2- pagarla il prezzo di listino

Ci sta.
Quando vai portami un unicorno già che sei li. :ciapet:

Entro a gamba tesa:D

1 - Trovata
2 - Pagata prezzo di listino(1929€)

L'unicorno non c'era sennò te lo portava:ciapet: :read: :Prrr:

PS

Il problema è che ora devo cambiare tutto il resto:cry:

77new77
13-10-2022, 18:49
@final

beh complimenti e auguri sinceri... a me era arrivata alle 3 di notte email da parte di nvidia, alle 4:30 me ne ero accorto ma dal sito la dava già esaurita... :rolleyes: :rolleyes: :rolleyes:

finalmaxgear
13-10-2022, 18:56
@final

beh complimenti e auguri sinceri... a me era arrivata alle 3 di notte email da parte di nvidia, alle 4:30 me ne ero accorto ma dal sito la dava già esaurita... :rolleyes: :rolleyes: :rolleyes:

Grazie! Io l'ho presa da LDLC, e non è la founder, ma ancora devo averla, è in pre-order limitato della Gainward.

77new77
13-10-2022, 19:06
grazie mille provo anche io .... :D

77new77
13-10-2022, 19:19
ancora grazie... l ho presa anche io....

finalmaxgear
13-10-2022, 20:06
ancora grazie... l ho presa anche io....

Ma figurati!

Ti chiedo solo una cortesia, avvisami anche tramite PM se ricevi una qualsivoglia comunicazione, tipo che te l'anno spedita, o che cancellano l'ordine(spero di no) ecc, qualunque cosa, io farò lo stesso, anzi, ti mando un PM ora così ti salvo nei messaggi, sennò poi vatti a ricordare

TecnoWorld8
14-10-2022, 10:56
Sul cambiare la config... secondo me sei cpu limited, ma relativamente e solo in casi estremi. Anzi se non cerchi i 100+ fps a 4k secondo me puoi provare ad abbassare di un 20% il power limit di 4090 e probabilmente hai un bilanciamento perfetto per ora che i titoli non sono ancora così demanding (2077 escluso). Avrai possibilità di upgradare il resto es. Tra 1.5 anni con next gen così da tirare il collo per bene a 4090 quando (sperabilmente) usciranno titoli degni...

demon77
14-10-2022, 11:05
Entro a gamba tesa:D

1 - Trovata
2 - Pagata prezzo di listino(1929€)

L'unicorno non c'era sennò te lo portava:ciapet: :read: :Prrr:

PS

Il problema è che ora devo cambiare tutto il resto:cry:

Se davvero tu hai fatto questo lo prendo come un ottimo segnale.
Magari (dico magari) non assisteremo alla follia avvenuta con le 3xxx

Per l'unicorno fa niente.. mi arrangio. :D

77new77
14-10-2022, 11:19
si Demon sul sito la danno in arrivo e ora anche altri modelli.... quello che è successo con la serie 30 è stato vomitevole...

ThePunisher
14-10-2022, 11:23
si Demon sul sito la danno in arrivo e ora anche altri modelli.... quello che è successo con la serie 30 è stato vomitevole...

E anche a ottimi prezzi.

demon77
14-10-2022, 11:34
si Demon sul sito la danno in arrivo e ora anche altri modelli.... quello che è successo con la serie 30 è stato vomitevole...

E anche a ottimi prezzi.

Queste sono davvero ottime notizie.. confesso di essere partito di pessimismo cosmico.

Molto bene.. mi auguro quindi di poter mettere su la (rimandatissima) nuova build il prossimo anno con una bella 4060. :cool:

StylezZz`
14-10-2022, 12:32
Si ma l'avessero fatto all'epoca con le RTX 3000 questo sistema quando ne avevamo davvero bisogno, lo fanno adesso con le gpu da 2000 euro, grazie arc a770 :doh:

Tuvok-LuR-
14-10-2022, 14:43
spedita poco fa la Manli reference presa da Techberry, pagata 1790 (ne avevano una trentina martedi).

ripeto, ce ne sono a camionate di queste schede, passata la fase iniziale coi colli di bottiglia negli approvvigionamenti per farle arrivare agli shop, non ci saranno problemi, fra qualche settimana trovate le reference sui 1700 e le OC ai consueti 100-300 extra

rattopazzo
14-10-2022, 14:48
Inaspettati i consumi relativamente contenuti, una scheda con prestazioni del genere pensavo che avrebbe consumato oltre i 600W
certo 450W sono sempre tanti, anche se chi compra queste schede dubito che abbia problemi per pagare le bollette anche di questi tempi in cui i prezzi dell'energia elettrica sono schizzati alle stelle.

ThePunisher
14-10-2022, 15:29
spedita poco fa la Manli reference presa da Techberry, pagata 1790 (ne avevano una trentina martedi).

ripeto, ce ne sono a camionate di queste schede, passata la fase iniziale coi colli di bottiglia negli approvvigionamenti per farle arrivare agli shop, non ci saranno problemi, fra qualche settimana trovate le reference sui 1700 e le OC ai consueti 100-300 extra

E' ancora disponibile anche se a 1899. Grazie di avercelo detto solo ora. :rolleyes:

77new77
14-10-2022, 16:29
spedita poco fa la Manli reference presa da Techberry, pagata 1790

ottimooooo :D

Tuvok-LuR-
14-10-2022, 16:34
E' ancora disponibile anche se a 1899. Grazie di avercelo detto solo ora. :rolleyes:

era su trovaprezzi lol

finalmaxgear
14-10-2022, 17:31
Sul cambiare la config... secondo me sei cpu limited, ma relativamente e solo in casi estremi. Anzi se non cerchi i 100+ fps a 4k secondo me puoi provare ad abbassare di un 20% il power limit di 4090 e probabilmente hai un bilanciamento perfetto per ora che i titoli non sono ancora così demanding (2077 escluso). Avrai possibilità di upgradare il resto es. Tra 1.5 anni con next gen così da tirare il collo per bene a 4090 quando (sperabilmente) usciranno titoli degni...

Secondo te/voi se passo al dito nel C*** il 5800X3D dovrei migliorare abbastanza o sbaglio?!

TecnoWorld8
14-10-2022, 17:54
Sicuramente diminuisce moltissimo il collo di bottiglia alle alte risoluzioni, nonostante la frequenza non esaltante che raggiunge quella CPU. Mediamente in game vedo che eguaglia e talora batte le 7900x. Tra l'altro è la CPU che rende maggiormente longeva la configurazione basata su am4. è ancora parecchio cara soprattutto considerato che è un architettura ormai sul viale del tramonto. Se costasse 300 euro probabilmente sarebbe la miglior CPU gaming come rapporto prestazioni/prezzo. Già ora a poco oltre 400 euro ci si avvicina molto.

finalmaxgear
14-10-2022, 18:02
Sicuramente diminuisce moltissimo il collo di bottiglia alle alte risoluzioni, nonostante la frequenza non esaltante che raggiunge quella CPU. Mediamente in game vedo che eguaglia e talora batte le 7900x. Tra l'altro è la CPU che rende maggiormente longeva la configurazione basata su am4. è ancora parecchio cara soprattutto considerato che è un architettura ormai sul viale del tramonto. Se costasse 300 euro probabilmente sarebbe la miglior CPU gaming come rapporto prestazioni/prezzo. Già ora a poco oltre 400 euro ci si avvicina molto.

Ma almeno passo 1.5 anni stando più largo, per il prezzo, non è un problema, sennò non prendevo la 4090, l'importante è che ci sto bene per ora, avevo visto pure io i vari bench ma una conferma ulteriore o il semplice punto di vista di altri male non fa.

TecnoWorld8
14-10-2022, 18:08
Beh, se il costo non è un problema, attenderei allora di vedere come si comportano gli Intel 13th. Magari, vendendo tutto e comprando nuovi componenti, ti trovi a prendere un 13900k con una differenza di 500€ rispetto a prendere il 5800x3D lasciando il resto immutato.

A me personalmente viene il nervoso perché la config in firma (CPU, MOBO e RAM) ho dovuto comprarli poco più di un anno fa perché il mio precedente sistema si è fuso, altrimenti era mia intenzione attendere questa GEN per rifare tutto il PC.

finalmaxgear
14-10-2022, 18:12
Beh, se il costo non è un problema, attenderei allora di vedere come si comportano gli Intel 13th. Magari, vendendo tutto e comprando nuovi componenti, ti trovi a prendere un 13900k con una differenza di 500€ rispetto a prendere il 5800x3D lasciando il resto immutato.

A me personalmente viene il nervoso perché la config in firma (CPU, MOBO e RAM) ho dovuto comprarli poco più di un anno fa perché il mio precedente sistema si è fuso, altrimenti era mia intenzione attendere questa GEN per rifare tutto il PC.

Mi dispiace per il sistema precedente, peccato davvero...

Io sinceramente a sto giro non voglio cambiare tutto, solo la cpu, e poi tra 1.5 anni lo faccio da zero.

TecnoWorld8
14-10-2022, 18:42
Mi dispiace per il sistema precedente, peccato davvero...

Io sinceramente a sto giro non voglio cambiare tutto, solo la cpu, e poi tra 1.5 anni lo faccio da zero.

grazie, era un bellissimo sistema tra l'altro...i5820k che girava a 4.4Ghz daily, con 16GB quad channel a 3000Mhz. Poteva tranquillamente tirare botta fino ad ora accoppiato con la 1080ti e mi avrebbe consentito di fare il salto con tutto il sistema...diciamo che sono molto soddisfatto del 5600x, ma appunto temo che limiti abbastanza la 4090. Poi, ripeto, se non si vogliono fare 120fps a 4k è un problema molto relativo nei giochi di oggi :D

Gameonline
14-10-2022, 19:09
Ops, nvidia ha cancellato la 4080 da 12gb :D
Tempo un paio di mesi e spunta fuori la 4070, o la 70 ti

Gameonline
14-10-2022, 19:32
Spero che cambi anche il prezzo oltre alla nomenclatura

le_mie_parole
14-10-2022, 19:36
non capisco questo entusiasmo .. voglio dire, è chiaro che il merito dell'incremento delle performance non è dell'architettura ma del processo produttivo, direi un buon 95/5%, infatti hanno quasi raddoppiato i transistor e il numero dei vari cores, la qual cosa avrebbe permesso le stesse performance anche alla vecchia architettura, come al solito si spacciano meriti di altri per meriti di nvidia, che a mio parere ha fatto il minimo sindacale facendo ingrassare il chip e non certo migliorando le performance tramite un netto miglioramento dell'architettura, nel corso degli anni avete perso l'obbiettività e ogni volta è sempre peggio....

77new77
14-10-2022, 19:37
ma scusate la domanda da pseudo-ignorante, in 4k incide davvero tanto la cpu? io ho una 5800x e non vorrei cambiarla...

le_mie_parole
14-10-2022, 19:43
.. quasi triplicato i transistor, sti azzi che va di più la scheda, cmq sia se loro o amd tirano fuori una scheda per il full hd che sta nell'intorno dei 120W tdp e che non costa più di 200 euro, offrendo performance adeguate (60fps su tutti i titoli) allora aggiorno, altrimenti mi tengo la mia 580

TecnoWorld8
14-10-2022, 19:47
ma scusate la domanda da pseudo-ignorante, in 4k incide davvero tanto la cpu? io ho una 5800x e non vorrei cambiarla...

più è potente la scheda, più sposti su l'asticella della res per il bottleneck. Pensa come se ci fossero due soglie, una è della GPU, una della CPU. Quando sposti in su la prima, sposti su anche la seconda, indipendentemente dalla risoluzione.

E' ovvio che la risoluzione maggiore ha come effetto quello di spingere giù la soglia della GPU (e quindi non ti accorgi di quella della CPU perché è più in alto), ma se la 4090 divora i titoli attuali a 4k, spingendoli potenzialmente a 120+ fps se non avesse limiti da parte della CPU, ecco che allora ritrovi la soglia della CPU.

Spero di essermi spiegato. Immaginalo graficamente.

77new77
15-10-2022, 07:52
più è potente la scheda, più sposti su l'asticella della res per il bottleneck..

chiarissimo... grazie :)

ThePunisher
15-10-2022, 09:28
Interessante notare come l'upgade di PCI-E non serva a niente:
- https://www.techpowerup.com/review/nvidia-geforce-rtx-4090-pci-express-scaling/

TecnoWorld8
15-10-2022, 09:37
Interessante notare come l'upgade di PCI-E non serva a niente:
- https://www.techpowerup.com/review/nvidia-geforce-rtx-4090-pci-express-scaling/


Dipende dal carico, Exodus presenta enormi differenze a tutte le res e credo che per certi giochi futuri implementare pci-e 5 avrebbe giovato.

Ale55andr0
15-10-2022, 10:56
Quale effetto ipnotico, erano commenti sulla prima slide rilasciata.





Il commento sul sovreprezzo generale è corretto.
I nuovi riferimenti di prezzi saranno più alti da adesso in poi per buona parte dei prodotti e anche dell'hardware a parità di specifiche.
Se speri che AMD esca fuori con una mossa in stile 4870 aspetta e spera.

io non aspetto nulla, e non devo comprare nulla tutt'alpiù che mi è saltata la turbina della 120d, ergo ho altri mazzi cui pensare :asd: :stordita:
Ma se un roito è un roito o un sovrapprezzo un sovrapprezzo, lo dico, e se AMD farà uguale dirò uguale.

Ale55andr0
15-10-2022, 11:06
Spero sia vero almeno non si lamentano più la gente della nomenclatura :asd:

a 1100 era ed è sovraprezza, anche la chiamassero 4090 per povery ediscion, o 4060 ultra de luxe. Non ci si lamentava del nome in se' ma del nome in funzione del fatto che era per prezzarla da schifo. Cambiando nome non risolvo NULLA :asd:

più è potente la scheda, più sposti su l'asticella della res per il bottleneck. Pensa come se ci fossero due soglie, una è della GPU, una della CPU. Quando sposti in su la prima, sposti su anche la seconda, indipendentemente dalla risoluzione.

E' ovvio che la risoluzione maggiore ha come effetto quello di spingere giù la soglia della GPU (e quindi non ti accorgi di quella della CPU perché è più in alto), ma se la 4090 divora i titoli attuali a 4k, spingendoli potenzialmente a 120+ fps se non avesse limiti da parte della CPU, ecco che allora ritrovi la soglia della CPU.

Spero di essermi spiegato. Immaginalo graficamente.

120 frame nei mattoni raytracing maxati (CP2077), non li vedi nemmeno se metti due 4090 assieme...a meno che non si parli di fake frame e dlss in performance-schifoabbestiah-mode

La potenza non è stata, non è e non sarà MAI troppa.

A 4k cmq quanto volete la freni un 5800? dai su....

nickname88
15-10-2022, 13:04
io non aspetto nulla, e non devo comprare nulla tutt'alpiù che mi è saltata la turbina della 120d, ergo ho altri mazzi cui pensare :asd: :stordita:
Ma se un roito è un roito o un sovrapprezzo un sovrapprezzo, lo dico, e se AMD farà uguale dirò uguale.
Il sovraprezzo lo decide la condizione del mercato.
Ossia i competitors.

Se AMD dovesse tirare ipoteticamente parlando una scheda che è meno prestante ma costa di più, allora quella Nvidia sarebbe "sottoprezzata".

I bei tempi pre-pandemia sono andati, idem quelli in cui l'euro valeva ancora qualcosa.

TecnoWorld8
15-10-2022, 13:49
a 1100 era ed è sovraprezza, anche la chiamassero 4090 per povery ediscion, o 4060 ultra de luxe. Non ci si lamentava del nome in se' ma del nome in funzione del fatto che era per prezzarla da schifo. Cambiando nome non risolvo NULLA :asd:



120 frame nei mattoni raytracing maxati (CP2077), non li vedi nemmeno se metti due 4090 assieme...a meno che non si parli di fake frame e dlss in performance-schifoabbestiah-mode

La potenza non è stata, non è e non sarà MAI troppa.

A 4k cmq quanto volete la freni un 5800? dai su....

La penso come te sulla potenza :mc: chiaramente con i prezzi di oggi non mi butto più a comprare il top ad ogni uscita (come facevo prima), perché 1) non ne avrei disponibilità e 2) non ne ho oggettivamente l'esigenza, ma non ho mai compreso chi dice cose tipo "a cosa serve tutta questa potenza?". Magari oggi sarà sovrabbondante, ma non lo sarà plausibilmente tra 1 o 2 anni. E di solito ci sono due strade: acquistare una top e tenerla per un po', magari 4-5 anni (io la 1080ti l'ho da agosto 2017 e mi fa ancora 60fps in quasi tutto a 2.5k con dettagli alti o massimi) o comprare sempre prodotti di gamma media e cambiarli ogni anno. Credo che il costo sia simile, ma vuoi mettere avere i prodotti top? Sono tutt'altra cosa per molti aspetti.

TecnoWorld8
15-10-2022, 14:32
ma ci mancherebbe, assolutamente, se per te la priorità era superare i 60fps a 4k, ci sta. Il problema appunto è l'opposto di quello che molti dicono, cioè che alla fine anche la stessa 4090....tra magari un anno o forse due....farà 60fps, al massimo, nei giochi più pesanti.

C'è chi ama DLSS, c'è chi non l'ama (io tendo ad essere scettico nei confronti di frame creati non sulla base del rendering, ma non ho nulla contro chi invece lo apprezza). Lo potrei/potrò considerare solo per rendere giocabile un gioco che andrebbe a (parecchio) meno di 60fps, cosa che spero non capiterà per molti anni con una scheda del genere.

Ale55andr0
15-10-2022, 21:45
ma ci mancherebbe, assolutamente, se per te la priorità era superare i 60fps a 4k, ci sta. Il problema appunto è l'opposto di quello che molti dicono, cioè che alla fine anche la stessa 4090....tra magari un anno o forse due....farà 60fps, al massimo, nei giochi più pesanti.

C'è chi ama DLSS, c'è chi non l'ama (io tendo ad essere scettico nei confronti di frame creati non sulla base del rendering, ma non ho nulla contro chi invece lo apprezza). Lo potrei/potrò considerare solo per rendere giocabile un gioco che andrebbe a (parecchio) meno di 60fps, cosa che spero non capiterà per molti anni con una scheda del genere.


https://www.treccani.it/vocabolario/eufemismo/

Ale55andr0
15-10-2022, 21:46
Boh con i giochi di 2 anni fa con la 3090 faccio ancora lo stesso dato che non gioco a tutti i tripla a nuovi ma di solito a giochi un po più leggeri. Anche se chissà come sarà gta 6 come pesantezza :)

GTA6 esce su ps 5 e su series x, lo fai girare con la 4090 spenta per 3/4

TecnoWorld8
15-10-2022, 22:24
https://www.treccani.it/vocabolario/eufemismo/

:D beh, credo che DLSS sia ottimo per chi ha un hw che fatica molto e non vuole spendere in upgrade. Lì ha senso che il sw "venga in aiuto" all'hw.

Ma su una scheda da 2000+ €, se devo usare un trick sw allora c'è qualcosa che non quadra.

nickname88
16-10-2022, 11:34
:D beh, credo che DLSS sia ottimo per chi ha un hw che fatica molto e non vuole spendere in upgrade. Lì ha senso che il sw "venga in aiuto" all'hw.

Ma su una scheda da 2000+ €, se devo usare un trick sw allora c'è qualcosa che non quadra.
Se hai un monitor/TV 8K, puoi usare il DLSS ed hai comunque una qualità migliore rispetto ad un 4K nativo o un 4K downscalato su pannello 8K.

O magari per ottenere frame rate elevati senza rinunciare ai dettagli, come 120/144fps.
O ancora peggio titoli particolarmente pesanti.

Avere una top di gamma non significa che le performance saranno sufficienti per far girare tutti i videogiochi, anzi ..... anche una attuale 3090 ci vuole poco a trovare titoli capaci di farla arrancare in 4K anche solamente per tenere un banalissimo frame rate di 60fps appena.

gigioracing
16-10-2022, 11:54
ci girara Crysis remasterd in 8K ?? altrimenti non la prendo :D

TecnoWorld8
16-10-2022, 12:13
Se hai un monitor/TV 8K, puoi usare il DLSS ed hai comunque una qualità migliore rispetto ad un 4K nativo o un 4K downscalato su pannello 8K.

O magari per ottenere frame rate elevati senza rinunciare ai dettagli, come 120/144fps.
O ancora peggio titoli particolarmente pesanti.

Avere una top di gamma non significa che le performance saranno sufficienti per far girare tutti i videogiochi, anzi ..... anche una attuale 3090 ci vuole poco a trovare titoli capaci di farla arrancare in 4K anche solamente per tenere un banalissimo frame rate di 60fps appena.

Vero. Ma è esattamente quello che volevo dire: top di gamma di gen precedenti o casi estremi (8k per me lo è e lo sarà a lungo). Poco senso, per me, se invece già si fanno es. 60 fps e se ne vogliono 100. Preferisco 60 fps con frame reali piuttosto che 100 con frame interpolati da ai. Mio gusto personale ovviamente.

Sealea
17-10-2022, 07:11
Ricordi male !

Pascal e Ampere han dato lo stesso boost, la differenza è che loro lo han dato anche con il resto dei modelli o quasi.

Questa gen invece questa mostruosità la vedi ora con la 4090 e con nessun altra, la 4080 fa pietà !
ma quando mai :eek:

La mia scheda attuale (in firma) fece qualcosa di simile.

io ai tempi avevo una 980ti e non feci il balzo perché non mi pareva molto motivato.. in 4k non ci giocavo con la 980Ti così come non lo facevo con la 1080Ti (4k esempio, si è diffuso più in la)

TecnoWorld8
17-10-2022, 07:58
Si parla di agosto 2017 quindi oltre 5 anni fa. In ogni caso devi fare riferimento all'incremento relativo di una generazione rispetto alla precedente, non solo al risultato assoluto dei fps ad una data risoluzione. In tal senso, si era trattato di un aumento 60-70% rispetto alla scheda che avevi tu. Qualcosa che, invece, per le generazioni successive fu assolutamente impossibile da raggiungere. La 2080ti, senza considerare RT, si posizionava appena al 20% o poco più sopra la 1080ti e la 3080ti un 30% sopra la 2080ti (cerca 40% se consideriamo la 3090ti, uscita però oltre un anno successivamente). Praticamente in due generazioni hanno fatto il balzo che ora la 4090 consente di fare rispetto alla 3090ti.

Comunque io, ancora oggi, con la 1080ti riesco a giocare ad ogni titolo alla risoluzione di 2.5k attorno ai 60fps rinunciando veramente poco (spesso nulla) dal punto di vista delle impostazioni.

Zappz
17-10-2022, 10:37
:D beh, credo che DLSS sia ottimo per chi ha un hw che fatica molto e non vuole spendere in upgrade. Lì ha senso che il sw "venga in aiuto" all'hw.

Ma su una scheda da 2000+ €, se devo usare un trick sw allora c'è qualcosa che non quadra.

Cyberpunk è graficamente migliore con il dlss rispetto alla grafica nativa.

TecnoWorld8
17-10-2022, 11:15
Credo si stia verificando quello che moltissimi anni fa (davvero tanti, ben prima dell'arrivo del FHD) sostenevo.

Se ci pensate, la risoluzione dei TV a tubo catodico degli anni 90 e inizio 2000 era ben inferiore a quella dei monitor della stessa epoca, eppure le trasmissioni TV avevano molte meno scalettature e pixellizzazioni.

Il fatto è dovuto proprio alla resa complessiva, che secondo me in qualche modo DLSS riproduce. L'impressione, all'occhio umano, è di qualità talora migliore, anche se invece si tratta di una perdita di dettaglio, ma di miglior armonia delle transizioni tra diversi oggetti sulla scena (non saprei come definirla altrimenti con termini più tecnici).

Zappz
17-10-2022, 11:33
Dove sarebbe questa perdita di dettaglio?

TecnoWorld8
17-10-2022, 11:45
se l'immagine è renderizzata ad una risoluzione inferiore, non esiste algoritmo in grado di generare informazione. Esiste invece la possibilità di ingannare l'occhio al fine di far apparire un più alto (o uguale) dettaglio con l'inserimento, per esempio, di bordi meno scalettati tra gli oggetti. Mi riferivo a questo. Non so se sia stato fatto uno studio delle immagini che dici essere migliori a livello di dettaglio "zoom-in", che so, restringendo l'analisi ad un quadrato di 512x512 pixel in due immagini (una renderizzata, l'altra con DLSS).

dav1deser
17-10-2022, 11:55
se l'immagine è renderizzata ad una risoluzione inferiore, non esiste algoritmo in grado di generare informazione. Esiste invece la possibilità di ingannare l'occhio al fine di far apparire un più alto (o uguale) dettaglio con l'inserimento, per esempio, di bordi meno scalettati tra gli oggetti. Mi riferivo a questo. Non so se sia stato fatto uno studio delle immagini che dici essere migliori a livello di dettaglio "zoom-in", che so, restringendo l'analisi ad un quadrato di 512x512 pixel in due immagini (una renderizzata, l'altra con DLSS).

L'intelligenza artificiale può generare dettaglio dove non c'è.
Se scrivo "mela" una IA può creare un'immagine di una mela, anche ad alta risoluzione, partendo da un'informazione di una manciata di bit. Non conosco i dettagli di funzionamento del dlss, ma più o meno credo faccia qualcosa di simile, si aspetta che l'immagine contenga certi dettagli, e quindi li crea, oppure vede che in più frame c'è qualcosa che somiglia molto a una scritta (anche se poco dettagliata) e quindi la fa diventare una scritta molto dettagliata.

TecnoWorld8
17-10-2022, 12:16
c'è ancora troppa "leggenda" su come funzionano queste AI generative. Sì, possono creare, ma solo sulla base di qualcosa. Che quel qualcosa sia un enorme DB, da cui può attingere mescolando in modi sempre più ottimali, sicuramente riesce ad "ingannare" l'essere umano. Ovviamente è possibile anche inserire variabili caotiche in modo tale che oltre che "copiare" ci aggiunga del "rumore" e della varianza pseudo casuale. Ma il dettaglio NON potrà mai essere superiore, a meno che non ci si accontenti di dettaglio comunque diverso da quello che sarebbe stato.

DLSS è incredibilmente complesso e guarda a N variabili. Sicuramente di base ha modelli ad alta risoluzione dello stesso game, da paragonare a quelli a bassa res e sviluppare una matrice di transizione da A a B. Quindi in questo caso l'obiettivo è B e non qualcosa oltre a B (già da questo, non potrebbe creare più dettaglio, ma minore o al massimo uguale a B). Inoltre la v3 guarda ai vettori di movimento per "prevedere" dove "vanno" i singoli oggetti presenti sulla scena e interpolare con frames creati da zero, ma sulla base dei precedenti (in quanto a risoluzione), dunque di nuovo non può inserire dettaglio.

Resta la percezione umana, che può percepire maggior dettaglio sulla base di altri fattori (es. minor scalettatura, come ha mostrato da anni l'AA) e più graduale passaggi cromatici. E questo probabilmente gli algoritmi possono farlo.

dav1deser
17-10-2022, 12:32
c'è ancora troppa "leggenda" su come funzionano queste AI generative. Sì, possono creare, ma solo sulla base di qualcosa. Che quel qualcosa sia un enorme DB, da cui può attingere mescolando in modi sempre più ottimali, sicuramente riesce ad "ingannare" l'essere umano. Ovviamente è possibile anche inserire variabili caotiche in modo tale che oltre che "copiare" ci aggiunga del "rumore" e della varianza pseudo casuale. Ma il dettaglio NON potrà mai essere superiore, a meno che non ci si accontenti di dettaglio comunque diverso da quello che sarebbe stato.

DLSS è incredibilmente complesso e guarda a N variabili. Sicuramente di base ha modelli ad alta risoluzione dello stesso game, da paragonare a quelli a bassa res e sviluppare una matrice di transizione da A a B. Quindi in questo caso l'obiettivo è B e non qualcosa oltre a B (già da questo, non potrebbe creare più dettaglio, ma minore o al massimo uguale a B). Inoltre la v3 guarda ai vettori di movimento per "prevedere" dove "vanno" i singoli oggetti presenti sulla scena e interpolare con frames creati da zero, ma sulla base dei precedenti (in quanto a risoluzione), dunque di nuovo non può inserire dettaglio.

Resta la percezione umana, che può percepire maggior dettaglio sulla base di altri fattori (es. minor scalettatura, come ha mostrato da anni l'AA) e più graduale passaggi cromatici. E questo probabilmente gli algoritmi possono farlo.

Che non generi qualcosa completamente da zero è ovvio. E' una simulazione di un cervello dopotutto, non si può immaginare qualcosa senza fare riferimento a qualcosa che già si conosce. Ma il punto è che se l'algoritmo è allenato con immagini dei modelli del gioco a risoluzione maggiore di quella a cui stai giocando tu, puoi avere un risultato migliore del rendering nativo perchè il DLSS parte comunque da qualcosa a risoluzione maggiore.

TecnoWorld8
17-10-2022, 12:43
no, aspetta. Il discorso per esempio è: tu giochi a 4K con DLSS attivo, lui renderizza a 2.5k e ha come obiettivo immagini a 4K. Quindi sono d'accordo possa essere meglio di un 2.5k nativo, anzi sicuramente lo è (a meno di artifatti introdotti), ma non migliore di un 4K. A meno che il modello sia addirittura un 8K e poi faccia downsampling, ma dubito sia così.

fabietto76
17-10-2022, 14:14
Per quello che posso aver visto io su HZD (1440p), dove dicono che il dlss sia implementato alla grande e migliori la qualità nativa, si mangia in realtà un bel pò di dettagli e appiattisce l'immagine in maniera impressionante.
Non vorrei che tanta gente facesse "confusione" andando ad analizzare la qualità dell'immagine concentrandosi solo sull'anti-aliasing .. ok bello ho i bordi meno seghettati ma se mi fa perdere tutti i dettagli non è un gran risultato eh

Zappz
17-10-2022, 14:37
Da gioco a gioco cambia in maniera radicale, in cyberpunk è meglio il dlss della nativa, ma per esempio in red dead è uno schifo...

In cyberpunk a 4k il dlss su qualità è impressionante.

nickname88
17-10-2022, 16:25
ma quando mai :eek:


Ma dove siete stati negli ultimi anni ?
Avete la memoria così corta ?


PASCAL vs 9xx series
Aggiungi un altra manciata di margine per via dei drivers e avevi oltre un +70% da 980 a 1080.

https://tpucdn.com/review/nvidia-geforce-gtx-1080/images/perfrel_2560_1440.png


AMPERE vs TURING
Stessa cosa da 2080 liscia a 3080 liscia, circa 70%.
Quindi di che stiamo parlando ?

https://tpucdn.com/review/nvidia-geforce-rtx-3080-founders-edition/images/relative-performance_3840-2160.png

StylezZz`
17-10-2022, 17:08
Comunque Pascal rimane il top come salto prestazionale su tutta la linea (dalla 1060 alla 1080 Ti), Ampere non offre lo stesso con le schede sotto la 3080, per esempio la 3070 pur giocandosela con la 2080 Ti, non riesce a staccarla come ha fatto la 1070 rispetto la 980 Ti. La 3060 ancora peggio, se la gioca con la 2070, mentre la 1060 spesso superava anche la 980.

TecnoWorld8
17-10-2022, 17:50
Ma anche 2080ti non fece un grande salto da 1080ti. La selling proposition fu il rtx.

Ale55andr0
17-10-2022, 18:43
Da gioco a gioco cambia in maniera radicale, in cyberpunk è meglio il dlss della nativa, ma per esempio in red dead è uno schifo...

In cyberpunk a 4k il dlss su qualità è impressionante.

il CP2077 il DLSS 4k "quality" e più seghettato e flickera rispetto la nativa, detto e mostrato pure con immagini a confronto qui sul forum

Zappz
17-10-2022, 19:22
il CP2077 il DLSS 4k "quality" e più seghettato e flickera rispetto la nativa, detto e mostrato pure con immagini a confronto qui sul forum

Solo con le basse risoluzioni, non in 4k.

giovanni69
17-10-2022, 19:38
Ma anche 2080ti non fece un grande salto da 1080ti. La selling proposition fu il rtx.

:mano:

nickname88
17-10-2022, 19:46
Ma anche 2080ti non fece un grande salto da 1080ti. La selling proposition fu il rtx.

la series 20 non aveva il salto di nodo, di fatto era realizzata con un PP che non era altro che un refresh e che non ha manco portato grandi benefici, quindi era lecito attendersi un salto molto mite.

Ale55andr0
17-10-2022, 19:51
Solo con le basse risoluzioni, non in 4k.

le immagini in 4k dlss quality vs 4k nativo le ho belle che postate...ci ho fatto +300 ore in CP2077 con la mia 3070, ergo lo dico con cognizione, ovviamente parlando per i MIEI occhi, gli altri vedano cio' che vedono i loro :).

nickname88
17-10-2022, 19:58
le immagini in 4k dlss quality vs 4k nativo le ho belle che postate...ci ho fatto +300 ore in CP2077 con la mia 3070, ergo lo dico con cognizione, ovviamente parlando per i MIEI occhi, gli altri vedano cio' che vedono i loro :).Giochi in 4K con una 3070 ? :mbe:
Con 192bit e 8GB ?

Zappz
17-10-2022, 20:08
Giochi in 4K con una 3070 ? :mbe:
Con 192bit e 8GB ?

Pure senza dlss :D

nickname88
17-10-2022, 20:15
Pure senza dlss :D
Ma infatti, io con una 3080 cloccata in 4K senza DLSS in diverse aree i 60fps li vedo solo solo di picco e devo pure usare scalare i dettagli non di poco.

StylezZz`
17-10-2022, 20:28
Giochi in 4K con una 3070 ? :mbe:
Con 192bit e 8GB ?

256bit*

*aLe
17-10-2022, 20:29
Che bestia potentissima! :cool: :cool:
Da comprare subito. I 2000 eur li vale tuttiMa nei 2000 euro mi regalano anche una stanza in più da attaccare alla casa per poterla ospitare, viste le dimensioni, o quella va comprata a parte?

Perché se ci fosse la stanza extra compresa, 2000 euro sarebbero anche un buon prezzo...

Sealea
18-10-2022, 06:47
Ma dove siete stati negli ultimi anni ?
Avete la memoria così corta ?


PASCAL vs 9xx series
Aggiungi un altra manciata di margine per via dei drivers e avevi oltre un +70% da 980 a 1080.

https://tpuc440.png


AMPERE vs TURING
Stessa cosa da 2080 liscia a 3080 liscia, circa 70%.
Quindi di che stiamo parlando ?

https://tpucdn.com/ance_3840-2160.png


sto avendo difficoltà ad estrarre il 70% di cui parli da quei grafici

Solo con le basse risoluzioni, non in 4k.
anch'io sono d'accordo con gli altri. in 1440p giocavo senza dlss perché impastava e piallava (quality)

al3x_.1992
18-10-2022, 13:03
commento in linea generica ...a mio parere ottima scheda(ottimizzata bene) per giocare in 4k...per risoluzioni 1440p e 1080p ha il classico aumento prestazionale che c'è stata con le generazioni precedenti lasciando da parte dlss etc

Vul
18-10-2022, 13:12
Comunque Pascal rimane il top come salto prestazionale su tutta la linea (dalla 1060 alla 1080 Ti), Ampere non offre lo stesso con le schede sotto la 3080, per esempio la 3070 pur giocandosela con la 2080 Ti, non riesce a staccarla come ha fatto la 1070 rispetto la 980 Ti. La 3060 ancora peggio, se la gioca con la 2070, mentre la 1060 spesso superava anche la 980.

Attenzione, Pascal e' uscito di fabbrica clockato molto alto, mentre Maxwell e' uscito di fabbrica con ampi margini di OC (le 980ti arrivavano anche a 1500mhz, frequenza alle quale superavano anche le 1080 lisce).

Maxwell imho e' stata l'ultima grande architettura Nvidia. Il salto prestazionale a pari processo produttivo e' stato immenso rispetto alla serie pecedente.

wolverine
19-10-2022, 13:04
Io ho due 8k e volevo questa gpu per giocarci sopra questi schermi!

Adesso dove trovo dei test 8k per decidere? Madonna che ansia, penso che non dormirò stanotte :cry:

Sempre al TOP il Dottore :D :eek:

nickname88
19-10-2022, 13:50
sto avendo difficoltà ad estrarre il 70% di cui parli da quei grafici

Per passare da 60 a 100 ( su entrambi i grafici ) indica un incremento del 68% ( a cui andrebbe aggiunto pure qualcosa per via dei driver più maturi )

GTX 980 vs GTX 1080
RTX 2080 vs RTX 3080


Tu cosa facevi la sottrazione ? 60 - 100 ? :asd:
Non era difficile, usa la calcolatrice la prossima volta.

nickname88
19-10-2022, 21:07
Anche io sarei tentato dall'8k ma aspetto monitor grossi e con micro led :)
Fra 10 anni :asd:

gigioracing
19-10-2022, 23:13
Io sto giocando ancora in Full accadi quindi per la serie 4000 posso aspettare comodamente anche fra un anno quando ci saranno schede da meno di 2000€

futu|2e
20-10-2022, 09:11
Tra l'altro stavo guardando per curiosità il resto del comparto tecnico di amd,
processori e sopratutto schede madri a prezzi fuori di melone. Così è un
mercato inaccessibile e sta diventando roba per ricchi.

majinbu7
20-10-2022, 10:35
sto avendo difficoltà ad estrarre il 70% di cui parli da quei grafici


Beh dai...non è proprio il 70% ma c'è comunque molto vicino con il 66,66666%

Zappz
20-10-2022, 10:48
Tra l'altro stavo guardando per curiosità il resto del comparto tecnico di amd,
processori e sopratutto schede madri a prezzi fuori di melone. Così è un
mercato inaccessibile e sta diventando roba per ricchi.

In realtà sono gli euro che abbiamo in tasca che non valgono più un cazzo...

Se non sbaglio, in dollari, la 4090 ha un prezzo di lancio più basso rispetto alla 3090.

nickname88
20-10-2022, 12:44
Tra l'altro stavo guardando per curiosità il resto del comparto tecnico di amd,
processori e sopratutto schede madri a prezzi fuori di melone. Così è un
mercato inaccessibile e sta diventando roba per ricchi.
Succede che l'euro perda di valore, se si continua a svendere il cul0 agli americani per salvare l'ucraina :asd:
Non ti puoi lamentare, libertà o condizionatore ? E ALLORA !

TecnoWorld8
21-10-2022, 00:37
Segnalo anche qui il video unbox della mia Manli:

https://youtu.be/p9cckxBsXZM

La scheda con le livelle :D

Sealea
21-10-2022, 13:33
Beh dai...non è proprio il 70% ma c'è comunque molto vicino con il 66,66666%

ma non ho capito il calcolo che fate, non ho detto che è sbagliato

nickname88
21-10-2022, 15:01
Beh dai...non è proprio il 70% ma c'è comunque molto vicino con il 66,66666%
A cui va aggiunta ancora qualcosina perchè quelle reviews sono del day one, a livello drivers ovviamente avranno recuperato ulteriormente margine.

Quindi sarebbe anche oltre il 70% che lui accusa di non vedere. :read: