PDA

View Full Version : GeForce RTX 4080 e 4070, nuove indiscrezioni: questi punteggi fanno volare


Redazione di Hardware Upg
30-07-2022, 08:01
Link alla notizia: https://www.hwupgrade.it/news/skvideo/geforce-rtx-4080-e-4070-nuove-indiscrezioni-questi-punteggi-fanno-volare_109051.html

Secondo nuove indiscrezioni, le GeForce RTX 4080 e RTX 4070 sarebbero in grado di raggiungere punteggi davvero elevanti in 3DMark TimeSpy Extreme. La 4080 sarebbe il 70% più veloce della 3080, mentre la 4070 supererebbe del 50% la 3070. Ma è tutto da prendere con le pinze...

Click sul link per visualizzare la notizia.

euscar
30-07-2022, 08:30
Se le indiscrezioni fossero vere, sembrerebbero schede promettenti.
Però il consumo rimane ancora alto ...
adesso manca all'appello una bella 4060Ti con prestazioni 50% superiori alla 3060Ti e consumi che si attestino sui 150 W :O

Gringo [ITF]
30-07-2022, 09:30
Quindi riassumendo:
Questo è il mese dei Tweet, prossimo mese i vari TOP YOUTUBER USA ne avranno una alla settimana per tipo, poi ci sarà l'inferno Youtubers in cui forse stavolta anche Saddy ne avrà una, con a seguire l'attivazione della Profittevolezza nel produrre DogeCoin con quest'ultima, utile dopo il crollo di ETH passando al POS.... mentre bitcoin risale.
.... o cazzo le vendono alte.... Corriamo a comperarle o restiamo senza....

Storia già vista......

zforever
30-07-2022, 09:36
E' ora che i giornalisti si posizionino nettamente contro il consumo esagerato di queste schede.
Siamo in una situazione energetica ed ecologica precaria e si dovrebbe recensire negativamente delle schede (TOP) per videogiochi con un consumo maggiore di 250W

Gringo [ITF]
30-07-2022, 10:01
E' ora che i giornalisti si posizionino nettamente contro il consumo esagerato di queste schede.
Siamo in una situazione energetica ed ecologica precaria e si dovrebbe recensire negativamente delle schede (TOP) per videogiochi con un consumo maggiore di 250W
Vallo a dire ai produttori, anche che HWUpgrade dicesse che schifo di scheda consuma il doppio ma ti da 15fps in più in torneo su fortnite.....

WOW.... 15fps in più..... VENDUTA

Serve altro tipo di mossa, un poco come è avvenuto con l'USB-C sui cellulari....
Impongo ai produttori per l'uso HOME che non possa essere usato nien't'altro che il prossimo commettore PCI-Europeo da massimo 350W e obblighi a metterne massimo UNO per alimentatore.
Dopo la gente farà quel che vuole lo stesso ma come produttore al mondo fai la figura di merda, non per nulla apple passa anche lei all'USB-C.

A quel punto la gara sarà chi è più veloce con un massimo di 350W, dove ora la prossima scheda avrà ben 850W di picco e la variante Kingpin dovrebbe consumare 1450w solo che lei con 3 Connettori PCI-E.... in pratica un FORNO per battere il primato di FPS su 3D Bench.

BIGGlive360
30-07-2022, 11:11
ma ammesso che davvero vadano il 70% in più delle precedenti, mi fa strano che non ne facciano due generazioni tipo serie 4000 che va il 30% in più e fra un anno serie 5000 col restante 40% (che sarebbe 30% rispetto alle 4000)... poi sarò malizioso io oppure sono diventati generosi loro... :p
P.S. così avrebbero anche migliori rese sulle prime e tempo per affinare il processo e spremere un po' di più le seconde, o migliorare i consumi che sono esosi, o ancora, più tempo per sviluppare la serie successiva

Gello
30-07-2022, 11:48
Qcuno s'e' scordato le pilloline stamani.

StylezZz`
30-07-2022, 11:58
Ricordo il lancio di Ampere a settembre 2020 nella cucina di Jensen...queste invece le presenterà direttamente dalla centrale elettrica vicino casa sua.

silvanotrevi
30-07-2022, 12:19
peccato per la rtx 4070, poteva essere un'ottima scheda e una soluzione ideale per gran parte dei videogiocatori ad un prezzo ragionevole di fascia media e anche su 1440p/2160p. E invece con quella Vram ridicola di 10Gb e bus a 160 bits, Nvidia l'ha relegata a scheda da Full HD e niente di più :(

l'ingordigia per il denaro porta a questo purtroppo, con la conseguenza di spingere molti videogiocatori a comprare obbligatoriamente almeno una rtx 4080 per poter giocare bene da 1440p in su titoli impegnativi ad Ultra per i prossimi anni :doh:

Notturnia
30-07-2022, 12:25
10 gb non bastano per un 1440p ?..
wow..

StylezZz`
30-07-2022, 12:31
E invece con quella Vram ridicola di 10Gb e bus a 160 bits, Nvidia l'ha relegata a scheda da Full HD e niente di più :(

Full HD? Magari!!!! È già tanto se andrà bene a 720p :asd:

Ahi ahi...

Gello
30-07-2022, 12:32
10 gb non bastano per un 1440p ?..
wow..

La sezione news (ma non solo) di Hwup regala sempre chicche di un certo livello :)

silvanotrevi
30-07-2022, 12:34
10 gb non bastano per un 1440p ?..
wow..

qui stiamo parlando di chi compra una scheda a minimo 600 eur e vuole tenerla almeno per altri 3-4 anni prima di cambiarla. Fatti una domanda: secondo te nel 2026 basteranno 10GB di Vram per giocare ad Ultra tutti i giochi AAA a 1440p/2160p?

Ale55andr0
30-07-2022, 12:44
se vero la 4070 è una presa per il culo rispetto la 80. Esattamente come ora se non peggio

Dark_Wolf
30-07-2022, 12:46
Bisogna accettare anche che al momento sono schede che servono per tamponare i limiti 4k delle precedenti schede, una 4080 al momento è fondamentalmente inutile per giocare bene, al massimo con una tiratura limitata abbasserà poco prima dell'uscita le 3080 per farle risalire rapidamente una volta finite le 4080

Notturnia
30-07-2022, 13:55
qui stiamo parlando di chi compra una scheda a minimo 600 eur e vuole tenerla almeno per altri 3-4 anni prima di cambiarla. Fatti una domanda: secondo te nel 2026 basteranno 10GB di Vram per giocare ad Ultra tutti i giochi AAA a 1440p/2160p?

e cosa avrebbe a che fare con la ram questo ?

la ram immagazzina i dati da lavorare..

se dobbiamo lavorare un frame da 2 milioni di pixel (un 1440p appunto) con una profondità colore di 16 bit serve immagazzinare dati per 2 milioni x 16 bit = 32 milioni di bit = 32 Mbit di informazioni per un frame
quindi con 10 Gbit di ram posso immagazzinare 312 frame
diciamo 200 frame e lasciare 3 gb per lavorare i dati di cui sopra..
ovvero almeno 2 secondi di immagini sono stoccate a 100 Fps

a che frequenza devo giocare ? 300 fps ?

non so.. ma mi sfugge avere più di 10 gb per giocare a 100 fps (che credo sia fluido..)

semmai la GPU riuscirà a gestire un carico di 100 fps a 1.440p ? perchè la memoria non credo sia un problema

Pandemio
30-07-2022, 15:48
Nel 2026 ti basta anche la 3080, verso dcembre la trovi a 600 euro! Ma poi secondo te ti vendono la 4070 che va come una 3090 a 600 euro?
In che film avete visto ste notizie?

giuvahhh
30-07-2022, 16:45
poi ste discussioni sul consumo...se uno puo permettersi sta scheda allora si puo permettere anche il relativo pc che la tira con bolletta a seguito.

AceGranger
30-07-2022, 17:37
E' ora che i giornalisti si posizionino nettamente contro il consumo esagerato di queste schede.
Siamo in una situazione energetica ed ecologica precaria e si dovrebbe recensire negativamente delle schede (TOP) per videogiochi con un consumo maggiore di 250W

sono per videogiochi se tu le usi per videogiochi, sono per lavoro se le usi per lavorare; si è sempre fatto ma è gia da 2 generazioni che nVidia ha ufficializzato la cosa e fianco dei driver Game Ready fornisce i driver Studio.

https://www.nvidia.com/it-it/studio/

megamitch
30-07-2022, 17:38
10 gb non bastano per un 1440p ?..
wow..

il mio computer ha 8GB di ram in totale :)

Fos
30-07-2022, 17:49
e cosa avrebbe a che fare con la ram questo ?

la ram immagazzina i dati da lavorare..

se dobbiamo lavorare un frame da 2 milioni di pixel (un 1440p appunto) con una profondità colore di 16 bit serve immagazzinare dati per 2 milioni x 16 bit = 32 milioni di bit = 32 Mbit di informazioni per un frame
quindi con 10 Gbit di ram posso immagazzinare 312 frame
diciamo 200 frame e lasciare 3 gb per lavorare i dati di cui sopra..
ovvero almeno 2 secondi di immagini sono stoccate a 100 Fps

a che frequenza devo giocare ? 300 fps ?

non so.. ma mi sfugge avere più di 10 gb per giocare a 100 fps (che credo sia fluido..)

semmai la GPU riuscirà a gestire un carico di 100 fps a 1.440p ? perchè la memoria non credo sia un problemaNon sono neanche conti parziali...
Tutti sperimentano il raddoppio comodo della VRAM allocata/occupata da 60fps a 144...?
Gli asset non contano niente?

paolo cavallo
30-07-2022, 18:26
Best of the Best !!

StylezZz`
30-07-2022, 20:10
poi ste discussioni sul consumo...se uno puo permettersi sta scheda allora si puo permettere anche il relativo pc che la tira con bolletta a seguito.

Il problema non è solo la bolletta, ma anche il calore e la dissipazione...e di vedere la fascia media con 300W e dissipatori che saranno dei mattoni, anche no grazie.

yuribian
30-07-2022, 20:17
la 4070 con soli 10 GB di memoria video è ridicola. Spero i videogiocatori non la comprino perché è una grande presa per il culo, castrata completamente su 1080p e non oltre. Già ora la mia 3070 fa fatica a gestire alcuni titoli in 4k con opzioni grafiche impostate al massimo e Afterburner individua come collo di bottiglia proprio la memoria video: ad esempio FC6 è praticamente ingiocabile con le high res textures pack a meno di avere almeno una scheda video da 12 GB, meglio se da 16 GB. Stessa cosa RDR 2, solo grazie al DLSS è giocabile benino in 4k spinto al massimo. Altro gioco che mi ha dato filo da torcere è Martha is Dead, succhia un casino di memoria video: con la Radeon RX 6700 XT di mio cugino gira egregiamente in 4k, con la mia 3070 arranca e si impalla, riesco a giocarlo bene solo fino a QHD e il collo di bottiglia è anche qui la memoria video, Afterburner mi indica saturazione totale. Per me la 4070 da 10 GB è scaffale, preferirò una scheda di AMD di fascia simile con almeno 16GB di memoria. Non mi piace il comportamento di Nvidia al riguardo

Gello
30-07-2022, 20:38
Genio chi compra le x70 per il 4k cmq

euscar
30-07-2022, 21:01
Il problema non è solo la bolletta, ma anche il calore e la dissipazione...e di vedere la fascia media con 300W e dissipatori che saranno dei mattoni, anche no grazie.

Quoto.
Le GPU per la fascia media dovrebbero avere consumi sotto i 200W, meglio ancora se si assestano sui 150/180W.

In ogni caso io rimmarrò per moltissimo tempo ancorato al FHD e dico no grazie a qualunque scheda che costi più di 350 euro e consumi più di 180W :O

StylezZz`
30-07-2022, 21:51
la 4070 con soli 10 GB di memoria video è ridicola. Spero i videogiocatori non la comprino perché è una grande presa per il culo, castrata completamente su 1080p e non oltre. Già ora la mia 3070 fa fatica a gestire alcuni titoli in 4k con opzioni grafiche impostate al massimo e Afterburner individua come collo di bottiglia proprio la memoria video: ad esempio FC6 è praticamente ingiocabile con le high res textures pack a meno di avere almeno una scheda video da 12 GB, meglio se da 16 GB. Stessa cosa RDR 2, solo grazie al DLSS è giocabile benino in 4k spinto al massimo. Altro gioco che mi ha dato filo da torcere è Martha is Dead, succhia un casino di memoria video: con la Radeon RX 6700 XT di mio cugino gira egregiamente in 4k, con la mia 3070 arranca e si impalla, riesco a giocarlo bene solo fino a QHD e il collo di bottiglia è anche qui la memoria video, Afterburner mi indica saturazione totale. Per me la 4070 da 10 GB è scaffale, preferirò una scheda di AMD di fascia simile con almeno 16GB di memoria. Non mi piace il comportamento di Nvidia al riguardo

silvano silvano...tanti saluti alla 6700 XT di tuo cugggino :asd:

Quoto.
Le GPU per la fascia media dovrebbero avere consumi sotto i 200W, meglio ancora se si assestano sui 150/180W.

In ogni caso io rimmarrò per moltissimo tempo ancorato al FHD e dico no grazie a qualunque scheda che costi più di 350 euro e consumi più di 180W :O

Beh, spero che questo trend finisca il prima possibile, o la mia prossima scheda sarà di fascia bassa :rolleyes:

TRF83
31-07-2022, 09:08
e cosa avrebbe a che fare con la ram questo ?

la ram immagazzina i dati da lavorare..

se dobbiamo lavorare un frame da 2 milioni di pixel (un 1440p appunto) con una profondità colore di 16 bit serve immagazzinare dati per 2 milioni x 16 bit = 32 milioni di bit = 32 Mbit di informazioni per un frame
quindi con 10 Gbit di ram posso immagazzinare 312 frame
diciamo 200 frame e lasciare 3 gb per lavorare i dati di cui sopra..
ovvero almeno 2 secondi di immagini sono stoccate a 100 Fps

a che frequenza devo giocare ? 300 fps ?

non so.. ma mi sfugge avere più di 10 gb per giocare a 100 fps (che credo sia fluido..)

semmai la GPU riuscirà a gestire un carico di 100 fps a 1.440p ? perchè la memoria non credo sia un problema

Notturna, scusa, ma hai scritto parecchie imprecisioni.
Innanzitutto, 2560x1440 sono 3.69milioni di pixel, non 2. Partiamo con un errore di più dell'80% sui calcoli..
Fai poi conti con 16bit di profondità di colore, ma tendenzialmente si lavora a 32 (non siamo più nel 1995, dai ;) ), altro 50%.
Poi consideri 10Gbit invece di 10GB (10Gbit sono 1.25GB, introduciamo un altro errore dell'800%..)
Ma soprattutto, i conti che fai sono errati logicamente. Sorvolando sugli errori di bit e pixel, il calcolo della memoria video per il frame buffer, ci sta (logicamente parlando), ma il resto non ha senso.
Per avere 100fps, non mi serve immagazzinare 100frame buffer...ne salvo due (quello da visualizzare e quello su cui elaborare il frame da mostrare dopo, classico double buffering).
Il problema sono gli asset e quelli sono belli grandi. Le texture in alta risoluzione, per esempio. O i modelli ultra dettagliati. Con l'UE5 e Nanite (che si tiene in memoria sempre l'asset con LOD0 - il massimo - calcolando gli altri LOD "on the fly") la memoria si saturerà al volo. Guarda la demo di Matrix, per esempio, quanta VRAM occupa. La 4070 con 10GB sarà potenzialmente un bel problema con questi nuovi motori, nonostante il resizebar e directstorage.
Ma sicuro uscirà una 4070Ti o Super con più VRAM (12? 16? 20? Si vedrà), quindi, disponibilità e prezzi a parte, per la soluzione ottimale basterà aspettare un pochino

Vic Mackey
31-07-2022, 13:34
Io ho ancora una Rx480 8gb, con un i5 3400 ghz, per un futuro upgrade, dato che mi interessa solo il full hd o al massimo qhd, cosa mi consigliereste?

Portocala
31-07-2022, 16:41
secondo te nel 2026 basteranno 10GB di Vram per giocare ad Ultra tutti i giochi AAA a 1440p/2160p?
Hai paura di scendere a High? Che motivo cè di tenere ultra?

Notturnia
31-07-2022, 17:22
Notturna, scusa, ma hai scritto parecchie imprecisioni.
Innanzitutto, 2560x1440 sono 3.69milioni di pixel, non 2. Partiamo con un errore di più dell'80% sui calcoli..
Fai poi conti con 16bit di profondità di colore, ma tendenzialmente si lavora a 32 (non siamo più nel 1995, dai ;) ), altro 50%.
Poi consideri 10Gbit invece di 10GB (10Gbit sono 1.25GB, introduciamo un altro errore dell'800%..)
Ma soprattutto, i conti che fai sono errati logicamente. Sorvolando sugli errori di bit e pixel, il calcolo della memoria video per il frame buffer, ci sta (logicamente parlando), ma il resto non ha senso.
Per avere 100fps, non mi serve immagazzinare 100frame buffer...ne salvo due (quello da visualizzare e quello su cui elaborare il frame da mostrare dopo, classico double buffering).
Il problema sono gli asset e quelli sono belli grandi. Le texture in alta risoluzione, per esempio. O i modelli ultra dettagliati. Con l'UE5 e Nanite (che si tiene in memoria sempre l'asset con LOD0 - il massimo - calcolando gli altri LOD "on the fly") la memoria si saturerà al volo. Guarda la demo di Matrix, per esempio, quanta VRAM occupa. La 4070 con 10GB sarà potenzialmente un bel problema con questi nuovi motori, nonostante il resizebar e directstorage.
Ma sicuro uscirà una 4070Ti o Super con più VRAM (12? 16? 20? Si vedrà), quindi, disponibilità e prezzi a parte, per la soluzione ottimale basterà aspettare un pochino

vero.. 4 Mpixel :-D
mi era sfuggita perchè pensavo ancora al Fhd.. sorry

ma se il problema è solo stoccare le texture si puo' sempre usare la ram di sistema e la connessione pcie come si fa anche adesso..

se poi non basta la 4070 c'è la 4080 e la 4090 in caso.. ma 10 GB non mi sembrano pochi per giocare..

PistaPoci
01-08-2022, 10:12
Ricordatevi pero che questi calcoli sono stati fatti a penna su un foglio di carta , senza calcolare l aumento di cache , l impatto reale del nuovo processo produttivo e/o i miglioramenti architetturali , quindi nella realtà potremo avere risultati anche piu bassi , oppure piu alti . questi conti della serva hanno poco valore.

Fos
01-08-2022, 22:27
vero.. 4 Mpixel :-D
mi era sfuggita perchè pensavo ancora al Fhd.. sorry

ma se il problema è solo stoccare le texture si puo' sempre usare la ram di sistema e la connessione pcie come si fa anche adesso..

se poi non basta la 4070 c'è la 4080 e la 4090 in caso.. ma 10 GB non mi sembrano pochi per giocare..Ti ha spiegato uno dei perché i conti che facevi non hanno senso.
Stocchi nella RAM? Ecchedè, il filmino delle vacanze?
Secondo te la banda della VRAM serve solo al frame buffer?

10GB non ti sembrano pochi per quale motivo? Così, a naso...

Notturnia
02-08-2022, 00:21
Ti ha spiegato uno dei perché i conti che facevi non hanno senso.
Stocchi nella RAM? Ecchedè, il filmino delle vacanze?
Secondo te la banda della VRAM serve solo al frame buffer?

10GB non ti sembrano pochi per quale motivo? Così, a naso...

si a naso visto che già oggi grazie al bus le schede video sfruttano anche la ram del pc per lavorare

se poi 10 gb sono pochi allora siamo presi malaccio ma immagino che tutti debbano giocare a risoluzioni elevatissime con il massimo dei dettagli e a non meno di 200 hz..

ma in condizioni normali credo che siano più che sufficienti

ho una banale rtx2060 e con 8 gb di vram riesco a vivere lo stesso giocando su un 32" a 2560x1440 senza soffrire per cui pensavo che 2 evoluzioni dopo, un gradino superiore e 2 Gb in più non fossero poca cosa per giocare

nel mio caso la rtx prende in prestito 16 gb di memoria condivisa dal pc

quindi si.. a naso non mi pareva male

cronos1990
02-08-2022, 06:18
si a naso visto che già oggi grazie al bus le schede video sfruttano anche la ram del pc per lavorare

se poi 10 gb sono pochi allora siamo presi malaccio ma immagino che tutti debbano giocare a risoluzioni elevatissime con il massimo dei dettagli e a non meno di 200 hz..

ma in condizioni normali credo che siano più che sufficienti

ho una banale rtx2060 e con 8 gb di vram riesco a vivere lo stesso giocando su un 32" a 2560x1440 senza soffrire per cui pensavo che 2 evoluzioni dopo, un gradino superiore e 2 Gb in più non fossero poca cosa per giocare

nel mio caso la rtx prende in prestito 16 gb di memoria condivisa dal pc

quindi si.. a naso non mi pareva maleBeh, al netto dei commenti come al solito estremi che si leggono dipende, ma tendenzialmente il peso delle texture (che sono la discriminante per il quantitativo di vRAM necessaria) è diventato sempre più elevato col passare degli anni, in relazione se vogliamo anche e soprattutto all'evoluzione delle console e di conseguenza i giochi prodotti.

Tanto per dare un'idea di fondo (dati approssimativi, ma giusto per dare l'idea), all'epoca delle Nvidia 1xxx/2xxx un gioco in 4K aveva texture che arrivavano a pesare su 6-7 GB. Nel periodo di uscita delle nuove console e delle 3xxx si sono iniziati a vedere giochi che in 4K avevano texture che pesavano 10-12 GB. Questo come valori di punta.

Per capirci, con le 3xxx Nvidia aveva buttato sul mercato schede che erano "borderline" come quantitativo di vRAM se volevi giocare in 4K, tant'è che sorsero molti dubbi in merito. AMD fu più generosa dotando le sue schede di fascia medio/alta di un quantitativo maggiore.
Questo però al netto del fatto che ho letto di molte lamentele su potenziali problemi per poca vRAM, ma nel concreto non ho mai letto nulla a riguardo... fermo restando che però non mi sono più informato nello specifico in merito.


Ora: sulla carta la 4070 è una GPU studiata probabilmente per il 1440p, non certo per il 4K che invece è il "campo di lavoro" della 4080/4090. Questo vuol dire che rispetto al 4K sulla carta usi texture che pesano la metà. Considerato che i giochi sono progettati sulla base delle console, che hanno complessivi 16 GB condivisa (per cui dubito fortemente che per i prossimi 4-5 anni vedremo giochi che hanno bisogno di più di 10-12 GB di texture), Nvidia a mio avviso ha fatto lo stesso ragionamento pragmatico che fece sulle 3xxx: ovvero che quel quantitativo di vRAM è sufficiente anche per il 4K, o se non lo è sfora di talmente poco che a livello puro di prestazioni incide nulla, anche considerando che la velocità di lettura/scrittura è tale da azzerare eventuali problemi.
Poi chiaramente il tutto va valutato alla prova dei fatti: perchè come al solito è facile parlare da dietro una scrivania e fare i conti della serva, ma alla fine quello che conta sono i risultati sul campo.

L'unica cosa che mi sento di dire con una certa sicurezza è che, per la 4070, 10GB li reputo più che sufficienti visto la sua eventuale allocazione di mercato, ovvero per chi punta al FullHD/1440p. Per il 4K potrebbero essere pochi, ma si andrebbe oltre il campo d'utilizzo definito per tale scheda. Questo senza poi dimenticare che dipende da gioco a gioco, perchè dipende da come sono realizzate le suddette texture.

Notturnia
02-08-2022, 08:50
Beh, al netto dei commenti come al solito estremi che si leggono dipende, ma tendenzialmente il peso delle texture (che sono la discriminante per il quantitativo di vRAM necessaria) è diventato sempre più elevato col passare degli anni, in relazione se vogliamo anche e soprattutto all'evoluzione delle console e di conseguenza i giochi prodotti.

Tanto per dare un'idea di fondo (dati approssimativi, ma giusto per dare l'idea), all'epoca delle Nvidia 1xxx/2xxx un gioco in 4K aveva texture che arrivavano a pesare su 6-7 GB. Nel periodo di uscita delle nuove console e delle 3xxx si sono iniziati a vedere giochi che in 4K avevano texture che pesavano 10-12 GB. Questo come valori di punta.

Per capirci, con le 3xxx Nvidia aveva buttato sul mercato schede che erano "borderline" come quantitativo di vRAM se volevi giocare in 4K, tant'è che sorsero molti dubbi in merito. AMD fu più generosa dotando le sue schede di fascia medio/alta di un quantitativo maggiore.
Questo però al netto del fatto che ho letto di molte lamentele su potenziali problemi per poca vRAM, ma nel concreto non ho mai letto nulla a riguardo... fermo restando che però non mi sono più informato nello specifico in merito.


Ora: sulla carta la 4070 è una GPU studiata probabilmente per il 1440p, non certo per il 4K che invece è il "campo di lavoro" della 4080/4090. Questo vuol dire che rispetto al 4K sulla carta usi texture che pesano la metà. Considerato che i giochi sono progettati sulla base delle console, che hanno complessivi 16 GB condivisa (per cui dubito fortemente che per i prossimi 4-5 anni vedremo giochi che hanno bisogno di più di 10-12 GB di texture), Nvidia a mio avviso ha fatto lo stesso ragionamento pragmatico che fece sulle 3xxx: ovvero che quel quantitativo di vRAM è sufficiente anche per il 4K, o se non lo è sfora di talmente poco che a livello puro di prestazioni incide nulla, anche considerando che la velocità di lettura/scrittura è tale da azzerare eventuali problemi.
Poi chiaramente il tutto va valutato alla prova dei fatti: perchè come al solito è facile parlare da dietro una scrivania e fare i conti della serva, ma alla fine quello che conta sono i risultati sul campo.

L'unica cosa che mi sento di dire con una certa sicurezza è che, per la 4070, 10GB li reputo più che sufficienti visto la sua eventuale allocazione di mercato, ovvero per chi punta al FullHD/1440p. Per il 4K potrebbero essere pochi, ma si andrebbe oltre il campo d'utilizzo definito per tale scheda. Questo senza poi dimenticare che dipende da gioco a gioco, perchè dipende da come sono realizzate le suddette texture.

grazie per la tua disamina attenta e gentile
era più o meno il mio pensiero a naso perchè spesso ho "gestione risorse" aperto quando gioco per vedere se excel ha finito le elaborazioni e mi capita di guardare i numeri .. spesso vedo che degli 8 gb della rtx ne sono usati 3-5 e collateralmente ne sta già usando altri della ram di sistema.. vedo che il lavorare in condivisione con la ram del pc è una cosa comune alle schede video per cui ho pensato che 10 gb + 16 di ram fossero sufficienti per un 1440p.. 4k non ci gioco per cui non mi sono posto il problema non essendo un top di gamma la 4070 :D

grazie ad ogni modo della spiegazione

Fos
09-08-2022, 11:38
grazie per la tua disamina attenta e gentile
era più o meno il mio pensiero a naso... (cut)
grazie ad ogni modo della spiegazioneNon hai capito che quando serve davvero la condivisione e i fps contano 0.1...

Se la VRAM deve essere a disposizione per gli asset (quindi quasi sempre), la quantità di RAM non può sopperire, e la ridicola banda del BUS PCIe dovrebbe consoigliartelo. Ma il problema non sarebbe manco quello, almeno in uno scenario tipico da gioco... e senza considerare l'overhead che creerebbe un flusso simile nel BUS, che non è fatto per fare da cache L3 alla VRAM della GPU, per farla semplice.

Poi insisti col frame rate che non conta una cippa. Ti è stato spiegato il perché e il per come, e non solo di quello, eppure insisti con le tue idee teoriche.

Gli asset sono la cosa che occupa più VRAM, in primis le texture e relative normal map. Quella quantità verrà occupata anche se giochi a 1080p. La risoluzione non è l'unica determinante, anzi, dovresti aver capito che in caso di asset pesanti diventa secondaria.

Frame buffer, frame rate, condivisione con la RAM, sono cose terze in confronto al secondario di sopra.

Si parlava di FarCry-6, un caso che dimostra bene cosa non dovrebbe mancare quando serve...

https://tpucdn.com/review/far-cry-6-benchmark-test-performance/images/vram.png

Col RT attivo e le texture HD 8GB non ti bastano nemmeno a 1080p.
Guarda la differenza che fa la risoluzione, da 1080p a 1440p l'occupazione cresce meno dell'8%.

Lì se non basta stuttera e basta, per essere ripetitivo...
Ma poi, anche non sapendolo, hai mai visto consigliare la quantità della VRAM a seconda della RAM? Non è un caso, eh...

Beh, al netto dei commenti come al solito estremi che si leggono...I commenti estremi sono i vostri, altroché...

Mi spieghi quanto dovrebbe influire la velocità di lettura/scrittura nel caso in cui il garage non basti? Perché le texture a 4K sono il doppio?

La differenza di solito si vede anche a 1080p, e spesso si confonde la risoluzione delle texture (4096x4096) con quella dello schermo.


Su Forza Horizon 5 con 8Gb l'ultima tacca la eviti anche a 1440p, e il discorso sul pragmatismo di Nvidia è partigiano.

Più che pragmatismo è opportunismo, il BUS e/o canali dedicati allo stesso non permettono di scegliere a piacere come se niente fosse.

La 3060 liscia con 12GB, "grazie" alla quantità deve essere più scarsa del solito quando paragonata alla 2060 liscia e la 3060 Ti.
Cioè, come se la VRAM no costasse nnlla e il BUS non creasse scomodi inbuti.

La 3060 Ti è già bella che limitata dalla quantità, figuriamoci la 3070 Ti o meno, e sopra con soli 2GB in più. Per altro, le successive con 12GB le hanno fatte per l'8K?

Eccoli i nodi che tornano a quelli che sono anni che parlano di 8GB più che sufficienti, adesso cercano di scioglierli con altre razzate, che magari si tirano dietro qualche sfortunato che gli d retta...

Eh, sì, i commenti estremi sono soliti farli gli altri, voi invogliate solo a scegliere la scheda sbagliata... :fagiano: