View Full Version : GeForce RTX 3080 20GB e RTX 3070 16GB non usciranno? Nvidia le avrebbe cancellate
Redazione di Hardware Upg
22-10-2020, 05:02
Link alla notizia: https://www.hwupgrade.it/news/skvideo/geforce-rtx-3080-20gb-e-rtx-3070-16gb-non-usciranno-nvidia-le-avrebbe-cancellate_92948.html
Secondo voci di corridoio, la GeForce RTX 3080 20GB e la GeForce RTX 3070 16GB, schede di cui si vociferava l'arrivo a dicembre, sarebbero state cancellate. Nessun cambio di programma invece per la RTX 3060 Ti, di cui dovremmo sapere qualcosa a metà novembre.
Click sul link per visualizzare la notizia.
NickNaylor
22-10-2020, 05:15
dato che fanno uscire la nuova linea di chip ogni 2 anni potrebbero aver scelto di tenersi questo asso nella manica per rinvigorire le vendite dopo 1 anno di commercializzazione.
Sento puzza di versione Super...
tuttodigitale
22-10-2020, 06:52
dato che fanno uscire la nuova linea di chip ogni 2 anni potrebbero aver scelto di tenersi questo asso nella manica per rinvigorire le vendite dopo 1 anno di commercializzazione.
OMG, adesso l'obsolescenza programmata è diventato asso nella manica :D
HAhahahah che avevo detto io un mese fa? Che non sarebbero uscite e che questo Inverno uscirà la RTX 3060 liscia.
La Super sarà il refresh dopo un anno dall'uscita e tra 2 anni uscirà la nuova RTX 40xx.
La cosa importante è che si dessero una decisa mossa nel far trovare in vendita le 3000 visto che questo non è modo di fare un lancio di un nuovo prodotto. Cioè... aivoglia tu ad avercele presentate prima di AMD se poi non si trovano in commercio...
OMG, adesso l'obsolescenza programmata è dirventato asso nella manica :D
In effetti, basta non comprarle e l'obsolescenza programmata Nvidia se la mette nel fiocco...
The RTX 3080 20GB might have been scrapped due to low GDDR6X yield issues, one source claims. The reason behind RTX 3070 16GB cancellation is unknown
Solo a me sembra ovvio che non puoi far uscire una 3070 da 16 GB se la scheda di livello superiore è ferma a 10 GB ?
HAhahahah che avevo detto io un mese fa? Che non sarebbero uscite e che questo Inverno uscirà la RTX 3060 liscia.
La Super sarà il refresh dopo un anno dall'uscita e tra 2 anni uscirà la nuova RTX 40xx.
La cosa importante è che si dessero una decisa mossa nel far trovare in vendita le 3000 visto che questo non è modo di fare un lancio di un nuovo prodotto. Cioè... aivoglia tu ad avercele presentate prima di AMD se poi non si trovano in commercio...
Si, ma se è un lancio sulla carta, ma poi la gente compra sulla carta e si mette ad aspettare, alla fine hanno ottenuto quanto volevano, vendendo ugualmente, pur non avendo il prodotto disponibile, e sottraendo quote ad AMD.
Animatrix79
22-10-2020, 08:09
Ora come ora convine ormai aspettare la serie 4000.
E' passato troppo tempo e quando effettivamente arriveranno sul mercato saranno già vecchie. Big Navi le farà a pezzi!
coschizza
22-10-2020, 08:11
Ora come ora convine ormai aspettare la serie 4000.
E' passato troppo tempo e quando effettivamente arriveranno sul mercato saranno già vecchie. Big Navi le farà a pezzi!
messa cosi perche comprare Big Navi se fra 1 anno è prevista RDNA3? se aspetti la serie 4000 dovresti aspettare anche le nuove amd che saranno fuori nello stesso periordo
"E' passato troppo tempo" è passato 1 mese UN MESE, perche pensi che le schede amd non le dovrai aspettare mesi per averle? sarà la stessa cosa
NickNaylor
22-10-2020, 08:17
OMG, adesso l'obsolescenza programmata è diventato asso nella manica :D
anche se il confine è sottile questa non si può definire obsolescenza programmata, questo concetto si basa sul pianificare la vita utile di un bene arbitrariamente, non di pianificare un piano di rilascio della tecnologia per il futuro.
per rendere l'idea della differenza un esempio clamoroso di obsolescenza programmata è stato quello messo in atto dalla ue nel settore auto con le classi di inquinamento euro, misura creata ad hoc per sostenere l'industria, cioè le classi altro non sono che l'anno di immatricolazione e indipendentemente dall'efficienza che può avere un veicolo l'auto è condannata a rimanere in quella categoria anche se dovesse rispettare gli ulteriori inasprimenti della normative antinquinamento o se vi fossero applicate delle modifiche per adeguarlo ad esse, una legge fatta per sopperire a un quarto di secolo con zero innovazioni insomma.
Si, ma se è un lancio sulla carta, ma poi la gente compra sulla carta e si mette ad aspettare, alla fine hanno ottenuto quanto volevano, vendendo ugualmente, pur non avendo il prodotto disponibile, e sottraendo quote ad AMD.
Le uniche persone che comprano sulla carta sono le stesse che hanno un telefono mela, il resto di certo non ha venduto la sua RTX 20xx pensando di prendere la 30xx al day-one.
"Nvidia non ha mai confermato tale indiscrezione"
sempre pensata questa cosa, non ho mai letto nulla di ufficiale in tal proposito, solo fantesie di qualche utente.
per adesso non c'é traccia neanche della 3070 standard che comunque appena arriverà nei negozi costerà 200Euro piu' del prezzo annunciato
nickname88
22-10-2020, 09:20
Ora come ora convine ormai aspettare la serie 4000.
E' passato troppo tempo e quando effettivamente arriveranno sul mercato saranno già vecchie. Big Navi le farà a pezzi!
Si certo, tardare di 3 mesi su 2 anni di vita le rende obsolete.
Big Navi le farà a pezzi ? Lo vedremo a fine Novembre e anche la top di gamma dicono sia in quantità limitata.
HwWizzard
22-10-2020, 09:22
Commenti e articoli inutili. Le recensioni della 3090 hanno ampiamente dimostrato che i 24Gb non danno alcun vantaggio tangibile a nessuna risoluzione. Quindi o AMD ha creato un'architettura che effettivamente si avvantaggia dai 16Gb oppure sara solo una mossa di marketing pagata dall'utente finale. nVidia puo benissimo fare a meno di mettere 16-20Gb che non cambia nulla, al massimo la versione super potrebbe uscire con freq maggiorate visto l'affinamento del PP (o passaggio a 7nm TSMC) ma sempre con lo stesso quantitativo di memoria.
Ora più che mai giudicheremo ciò che effettivamente arriva sul mercato, nemmeno annunciato e provato dai recensori.
Mai stato un buon periodo l'acquisto sotto Natale, ma ora ti fa' passare davvero la voglia.
Gringo [ITF]
22-10-2020, 10:27
Non escono semplicemente perché tanto non sarebbero in vendita, inutile perderci tempo, siamo tutti che attendiamo AMD per una scheda reale e non YutubeVirtuale, dopo i V-Tubers, abbiamo anche le V-RTX ..... GRAZIE NVIDIA PER AVERCI ILLUSI TUTTI !!!
Scheda a partire da €URO... A PARTIRE DA VAFF*****O NVIDIA ! ALTRO CHE !
Per chi non lo sapesse su nVidia lo store Italiano non è nemmeno predisposto, ci sta Francese Tedesco Spagnolo ma l'Italiano non c'è, quindi per gli Italiani la Founder non è acquistabile. (Ok in tutti gli store è esaurita, ma se ne arrivassero UN MILIONE di botto noi non potrebbo acquistarla ma verremmo reindirizzati su Drako e Co. quindi la pia illusione di spendere sotto i 1000€ e vana.
Nvidia sta facendo carte false per rendere la commercializzazione di questa serie un disastro.
Ora più che mai giudicheremo ciò che effettivamente arriva sul mercato, nemmeno annunciato e provato dai recensori.
Mai stato un buon periodo l'acquisto sotto Natale, ma ora ti fa' passare davvero la voglia.
il problema é che scarseggiano pure le 2070 super e le 2060 super inspiegabilmente costano piu' delle 2070 lisce.
Io che volevo assemblarmi un pc per fine anno mi ritrovo a dovere prendere un 3700X perché tanto l'alternativa zen3 non arriverà prima di marzo e lato gpu le alternative sono le 2070 a 400euro, le 2060 Super a 440Euro e qualche rarissima 2070 super a oltre 500 che avrebbe dovuto essere il prezzo delle nuove 3070 :doh:
demonsmaycry84
22-10-2020, 17:32
io scommetto che fino a che non avranno smaltito i magazzini delle 2xxx non vedremo un bel nulla..non gli corre dietro nessuno al massimo la gente aspetta.
laqualunque
22-10-2020, 18:39
Notizia scontata, se hanno messo "solo" 10 o 8 GB è perchè sanno che sono sufficenti per la stragrande maggioranza dei giochi attualmente sul mercato. Purtroppo la situazione non è rosea, probabilmente la disponibilità tarderà più del solito a causa della pandemia (e di conseguenza l'assestamento dei prezzi), di conseguenza versioni con quantitativi di RAM superiori non vedrebbero comunque la luce prima di fine 2021 (e cioè fino a quando non utilizzeranno il processo produttivo di TSMC per fare le Super). E poi parliamoci chiaro, io vedo più inutili i 16GB della 6900XT, mi ricordano gli 11 della 1080ti
Perché vedi i 16Gb PIÙ inutili nella 6900xt di cui non si sa ancora nulla?
laqualunque
22-10-2020, 20:14
Perché vedi i 16Gb PIÙ inutili nella 6900xt di cui non si sa ancora nulla?
Perchè personalmente avrei preferito meno Vram, tipo 12GB, per limare ulteriormente i prezzi e rendere la scheda ancora più competitiva nei confronti delle soluzioni Nvidia
Perchè personalmente avrei preferito meno Vram, tipo 12GB, per limare ulteriormente i prezzi e rendere la scheda ancora più competitiva nei confronti delle soluzioni Nvidia
Beh, io mi riferivo al fatto che hai detto che sono più inutili nelle AMD che nelle nVidia. Ovvio che aumentando il quantitativo di RAM nVidia aumenterà il prezzo rispetto ai modelli con quantitativo più basso.
Quindi è semmai vero il contrario, perché nVidia non alzi i prezzi non deve mettere lei la RAM aggiuntiva.
Tra le altre cose, ci si aspetta che AMD faccia uscire il miglior modello possibile, con più RAM se è utile, per fare concorrenza a nVidia e si spera che i prezzi siano accettabili per poterle comprare, non certo per fare abbassare i prezzi a nVidia. Anzi, personalmente, se nVidia abbasserà i prezzi solo per la concorrenza di AMD, dopo averli fatti salire alle stelle con la serie 2000 e, evidentemente, averli mantenuti ancora alti con la serie 3000, mi sembra un'ulteriore motivazione per scegliere AMD.
laqualunque
22-10-2020, 21:50
Beh, io mi riferivo al fatto che hai detto che sono più inutili nelle AMD che nelle nVidia.
Vero, errore mio :p , ho messo un "più" di troppo che ha cambiato il senso del discorso. Quello che intendo è che trovo inutile mettere un quantitativo alto di Vram nelle schede gaming, perchè ad oggi difficilmente sarebbero in grado di saturare 16, 20 o 24GB di memoria (forse la 3080 10GB in rari scenari). Ovviamente parlo da videogiocatore, non da streamer o da content creator. Secondo me inoltre Nvidia non ha mai pensato di rilasciare la 3080 e la 3070 con un quantitativo di memoria più alto, le attuali gpu sono già parecchio spremute coì come sono (almeno fino al cambio di processo produttivo). Poi ben venga se AMD riesce a mantenere prezzi concorrenziali con maggior Vram (che però non significa maggiori prestazioni), ma vista la situazione attuale dove Nvidia ha ancora una grossa parte di mercato, avrei puntato su meno memoria per avere prezzi iper aggressivi (spero di essere smentito sui prezzi ;) ). Chiaro che tutto il discorso vale a meno che AMD necessiti di quel quantitativo di Vram perchè utilizzate in modo diverso rispetto a Nvidia
Ad oggi ti compri una RTX-3080 per usarla qualche mese? Poi ci sono già eccezioni all'inutilità odierna, figurarsi a domani e dopo che usciranno console col doppio di GDDR di quelle odierne.
Che dici, è prevedibile l'aumento della VRAM occupata dagli asset a venire? Hai voglia!
Ormai la questione è ricorrente: A che serve più VRAM di quella necessaria oggi? Se la scheda non è un granché la VRAM è sprecata... Lo storico dice che, ad esempio, chi ha preso una GTX-960 o GTX-1050 con 4GB è stato più longevo nei requisiti minimi e ha potuto giocare con texture più risolute, che tra l'altro pesano ben poco, cosa che rende strana la connessione con la potenza.
Ti risulta, o ho sbagliato qualcosa? :)
cronos1990
23-10-2020, 09:00
Ad oggi ti compri una RTX-3080 per usarla qualche mese? Poi ci sono già eccezioni all'inutilità odierna, figurarsi a domani e dopo che usciranno console col doppio di GDDR di quelle odierne.
Che dici, è prevedibile l'aumento della VRAM occupata dagli asset a venire? Hai voglia!
Ormai la questione è ricorrente: A che serve più VRAM di quella necessaria oggi? Se la scheda non è un granché la VRAM è sprecata... Lo storico dice che, ad esempio, chi ha preso una GTX-960 o GTX-1050 con 4GB è stato più longevo nei requisiti minimi e ha potuto giocare con texture più risolute, che tra l'altro pesano ben poco, cosa che rende strana la connessione con la potenza.
Ti risulta, o ho sbagliato qualcosa? :)Dipende dalla risoluzione. Maggiore quella cui giochi, più pesanti sono le texture e di conseguenza più vRAM ti serve.
Il fatto è che, ad oggi, la risoluzione più alta fattibile (il 4K) non richiede neanche lontanamente 16GB. Se non erro già gli 11GB della 2080Ti in 4K non sono mai stati saturati, o se lo facevano era proprio al limite e in casi estremamente particolari. Nvidia ha tirato fuori una scheda da 10GB perchè sa che quel quantitativo è sufficiente, o per lo meno è sufficiente nel 99% dei casi.
Tant'è che la 3090, che ha 24GB, è stata (guarda un pò) commercializzata per l'8K.
nickname88
23-10-2020, 09:57
Notizia scontata, se hanno messo "solo" 10 o 8 GB è perchè sanno che sono sufficenti per la stragrande maggioranza dei giochi attualmente sul mercato. Purtroppo la situazione non è rosea, probabilmente la disponibilità tarderà più del solito a causa della pandemia (e di conseguenza l'assestamento dei prezzi), di conseguenza versioni con quantitativi di RAM superiori non vedrebbero comunque la luce prima di fine 2021 (e cioè fino a quando non utilizzeranno il processo produttivo di TSMC per fare le Super). E poi parliamoci chiaro, io vedo più inutili i 16GB della 6900XT, mi ricordano gli 11 della 1080tiPerchè chi ti dice che TSMC sarà in grado di produrne molti ? Quasi tutti si servono di TSMC già a parte Apple, non so quanti slots ha ancora disponibili TSMC ammesso che la storia sia vera.
E la 6900XT dai rumors dicono già che sarà disponibile in quantità limitata, figurati un chip ancora più grosso.
Dipende dalla risoluzione. Maggiore quella cui giochi, più pesanti sono le texture e di conseguenza più vRAM ti serve.
Il fatto è che, ad oggi, la risoluzione più alta fattibile (il 4K) non richiede neanche lontanamente 16GB. Se non erro già gli 11GB della 2080Ti in 4K non sono mai stati saturati, o se lo facevano era proprio al limite e in casi estremamente particolari. Nvidia ha tirato fuori una scheda da 10GB perchè sa che quel quantitativo è sufficiente, o per lo meno è sufficiente nel 99% dei casi.
Tant'è che la 3090, che ha 24GB, è stata (guarda un pò) commercializzata per l'8K.Dipende anche dalla risoluzione, e manco per la parte maggiore, perché se usi asset che occupano 1GB a 16 non ci arrivi manco a 32K. Per caso non sai che le texture (in tutte le varianti) sono quello che prende il grosso? Beh, sarebbe opportuno informarsi, prima di andare a dire agli altri che la VRAM della 3080 basterà finché respira. Il collegamento che fai quasi automaticamente con l'aumento del peso delle texture con la risoluzione: Non ha senso. Se le texture occupano 8GB, lo faranno anche a 720p. Non sai proprio di cosa parli...
Sei semplicemente di parte, o magari se domani esce un gioco che con le texture maxate occupa 12GB anche a 1440p risarcisci chi si è fidato di te? Non lo farebbe Nvidia, figurati tu...
Come dicevo, ne ho visti di tipi che consigliavano 960/1050 DA 2GB perché di più non servivano o non sarebbero state tirate dalla scheda, quando se ha VRAM suffuciente non cambia quasi nulla nel peso, puoi giocare con texrure migliori nel mentre, aumentare la longevità con i requisiti minimi, e venderla pure meglio al cambio. Sai, siccome hai saltato... Hai un po' di esperienza e obiettività per capire cosa dimostra quello di sopra? Manco l'attenuante del "non era mai successo" avresti, tanto per capirci. :fagiano:
Nvidia ha limitato la VRAM perché costa cara e dà più rogne del solito (GDDR6-X), dopo chi gli va dietro per dargli retta e/o perché si fida contro la razionalità... Non fa testo!
Il pacco HD di Marvel's Avengers satura la VRAM di una RTX-2800Ti. Dici che i 10GB della 3080 basteranno perché conviene, o ti basi sempre su quello che vorresti fosse vero insieme a Nvidia? (che sa bene quanto non lo sia...)
Questo ora, quando si e no che si trovano da comprare, figurarsi domani con in giro console che daranno stimoli per aumentare la qualità/dimensione degli asset, oltre che con la naturale evoluzione che si avrebbe comunque su PC.
Ancora: Nel caso non bastasse pagheresti tu? Hai mai visto come cambiano i dati quando questi dovranno essere garantiti? (il giorno con...)
Dopo, se uno cambia scheda ogni 6 mesi non chiede se basterà un domani, potrà fregarsene del valore inferiore sul mercato qualora i 10GB fossero un limite evidente, quindi non dovrebbe manco rietrare tra le persone a cui dare consigli... :O
nickname88
25-10-2020, 22:30
Il pacco HD di Marvel's Avengers satura la VRAM di una RTX-2800Ti. Dici che i 10GB della 3080 basteranno perché conviene, o ti basi sempre su quello che vorresti fosse vero insieme a Nvidia? (che sa bene quanto non lo sia...)
Mi sà che non è l'unico a non saper di cosa parla.
La VRAM viene usata come cache, il quantitativo occupato di VRAM non equivale a quello necessario.
Marvel Avengers satura la VRAM della 2080Ti ? Quindi immagino che su una 2080 Super che ne ha appena 8 dovrebbe girare da schifo e swappare sull'HDD ogni volta ... ma qualcosa mi dice che invece non è così e infatti non arriva a saturare nemmeno quelli che ha. :rolleyes:
Mi sà che non è l'unico a non saper di cosa parla.
La VRAM viene usata come cache, il quantitativo occupato di VRAM non equivale a quello necessario.
Marvel Avengers satura la VRAM della 2080Ti ? Quindi immagino che su una 2080 Super che ne ha appena 8 dovrebbe girare da schifo e swappare sull'HDD ogni volta ... ma qualcosa mi dice che invece non è così e infatti non arriva a saturare nemmeno quelli che ha. :rolleyes:
https://www.dsogaming.com/pc-performance-analyses/marvels-avengers-pc-performance-analysis/
Speaking of 4K, we did notice some VRAM limitations when using the game’s HD Texture Pack. On Ultra Settings/Ultra Textures, our performance went downhill in the following scene. As you can see, our RTX2080Ti was used to its fullest and pushed 17fps. :fagiano:
La VRAM può essere allocata senza essere usata, e di solito questo avviene per prevenire singhiozzi quando questa servirà e/o per evitare di ricaricarci la stessa roba. (quindi fa comodo lo stesso)
Ora, visto che quì sei l'unico a sapere di cosa si parla (il pacco HD l'avevi capito?), mi spieghi cosa accade quando quella VRAM serve in tempo reale? e quando non basta per il presente, non fa forse da collo come in quel caso? Sarebbe la prima volta che succede una cosa simile? No, perché da come la metti (senza il può) sembra che si deve allocare per forza più VRAM di quella necessaria, e questa è una gran razzata.
Niente, non ce la fate proprio a fare un discorso obiettivo, eh...? :rolleyes:
cronos1990
26-10-2020, 07:24
Dipende
[cut...]
Io sarei di parte? E sentiamo, per chi patteggerei? Sono curioso :asd: Già partiamo male, il tono del tuo messaggio mi piace molto poco.
Tutto bello il tuo discorso, peccato che si scontra con la realtà del fatto che non esistono gli scenari da te ipotizzati. Sebbene sia vero il fatto che puoi creare anche una texture a 640x480 che occupa 16GB di vRAM (al netto che sarebbe una cosa inutile), resta il fatto che cose del genere non avvengono. Ah, chiarisco: ho fatto un'iperbole.
In primis perchè non servirebbe a nulla aumentare la densità dell'immagine caricando enormemente di più l'hardware e ottenendo all'atto pratico una differenza che il giocatore potrebbe al massimo vedere col lanternino. Certo, magari a te scoccia non avere texture più rifinite che vedi a malapena, ma di sicuro chi produce giochi questi conti li fa (perchè si tratta anche di costi, e non spendono soldi a vuoto per dimostrare che i 10GB della tua 3080 non bastano).
Ma soprattutto a te sfugge il fatto che i giochi vengono tarati sulle console. Le nuove future console avranno a disposizione un complessivo di 16 GB di RAM che, a differenza dei PC, sono condivise con tutto il sistema. Ciò vuol dire che togliendo quella necessaria per far girare il SO, tutti i servizi accessori della console e ovviamente il gioco stesso, difficilmente sfori quei famosi 10GB. E se li sfori, di quanto?
Questo non tenendo conto la situazione di transizione, dove convivono le console della generazione uscente. E Nvidia certi conti li ha fatti, preparando eventualmente le schede della futura generazione con quantitativi di vRAM superiori.
Che poi Nvidia abbia (ovviamente) giocato anche al risparmio è ovvio, siamo su un complessivo di vRAM che comunque è al limite per il 4K e non lascia molti spazi di manovra; non mi stupirei che hanno anche fatto indagini di mercato per prevedere quanti di coloro che prenderanno la 3080 la usano in 4K.
Per stare sicuri ma contenendo al contempo i costi poteva piazzare 12GB. Certo non 16 o 20 che sono del tutto inutili. D'altro canto ho lasciato intendere già nel primo messaggio che siamo comunque in una situazione limite, ma se io sono di parte (e ripeto: parte di chi?) tu sei fazioso, oltre che arrogante. Lo sottolineo, casomai non ti fosse chiaro, c'è modo e modo di rispondere.
Tu mi citi un esempio ben specifico, Marvel's Avenger. Ma al netto che ho detto io stesso che ci possono essere casi particolari in cui si sfora quel quantitativo (dimmi: quanti giochi sforano quel quantitativo?), secondo te di quanto sfora quel gioco? E soprattutto: di quanto "peggiorano" le prestazioni del gioco? Perchè andrebbe valutato anche questo.
Tra l'altro mi citi il pacchetto HD delle texture, quindi desumo che stiamo anche parlando di una cosa opzionale.
Il resto del messaggio è senza senso. Non sono il centro assistenza Nvidia tale per cui mi devo prendere colpe di chissà quale tipo, non ho mai consigliato l'acquisto di una 3080 e di sicuro non compro Nvidia a prescindere (e non ti starò a dire che scheda possiedo per dimostrare chissà quale tesi a riguardo, non ho bisogno di scendere a questi livelli).
Poi fai tanto il precisino e mi porti esempi del tutto fuori contesto e privi di parametri a supporto. Cosa centra il discorso delle schede da 2GB (quantitativo peraltro inadeguato da almeno 5 anni per il FullHD) lo sai solo tu, tra l'altro decontestualizzate da chi la possiede e che utilizzo ne fa. Che poi chi prende una 1050 tendenzialmente ha scarso interesse per i videogiochi.
Niente, non ce la fate proprio a fare un discorso obiettivo, eh...? :rolleyes:Magari io non sarò obiettivo (e anche questo sarei curioso di sapere da dove nasce), di sicuro non sono uno sbruffone.
Se devi venire a riportare sul forum le tue verità assolute con aria di superiorità, allora gentilmente (questo è sarcasmo) evita del tutto di scrivere. Come detto c'è modo e modo di rispondere.
Ma soprattutto evita di accusarmi di essere di parte o non obiettivo solo perchè il mio pensiero non è perfettamente identico al tuo.
nickname88
26-10-2020, 08:55
https://www.dsogaming.com/pc-performance-analyses/marvels-avengers-pc-performance-analysis/
Si è così limitante che non han mostrato screens riguardanti la Vega con l'HD Pack come confronto.
Ha fatto tutti i confronti con altre VGA e poi con l'HD ha mostrato solo 3 screen del gioco solo con la 2080Ti ?
Inoltre sbaglio o a parte quel sito non c'è nient'altro che fa confronti con questo HD Pack ? Nemmeno un video, ma pensa un po'.
...Veramente sono partito in modo tutt'altro che arrogante, se no avresti dovuto notarlo prima, no?
Poi tu hai cominciato un discorso strano sulla risoluzione delle texture legata a quella di rendering, che avrebbe senso giusto per dire che ad una risoluzione maggiore si notano di più texture inferiori, visto che verrebbero stirate o stirate meglio.
L'esempio iperbolico non cambia la situazione, non c'è un'unica texture nel gioco, e se cerchi il dettaglio si possono notare texture dichiarate per il 4K (o semplicemente 4Kx4K) anche in Full-HD.
Non capisco perché il riferimento alle console debba deporre a tuo favore: La qualità degli asset verrà almeno raddoppiata, e la memoria condivisa aumenta in tutti i sensi la quantità di quella riservata agli asset.
Un test l'ho postato, e ripeto che quel comportamento rilevato è quello prevedibile quando la VRAM viene saturata. Il frame rate passa da 30 a 17 ed è molto più instabile, in buona sostanza. La 3080 ha anche 1GB in meno, visto che ti piacciono i dettagli...
Mi spieghi come fai a dire che siccome ora non servono (o servono poco), non dovrebbero servire anche domani?
Ma poi ti attachi anche al fatto che quelle non sono texture incluse nel gioco? E quindi...? Perché dovrebbero far scaricare più di 30GB di roba che per ora serve a ben pochi? Allora non è obbligatorio manco maxare il parametro delle texture, no? Fanno parte del gioco o no? Sembri rassegnato agli asset da console... poi consideri opzionale scaricare un pacco dedicato al PC?
Manco fosse una Mod, cosa che comunque rientra tra le utilità nell'avere più VRAM su PC.
Uno dovrebbe prendere una scheda top partendo con dei limiti? Oh, intendiamoci, liberissimi di farlo, però non mi pare proprio il caso di dire che non servono, non credi? Quello mi ha fatto stranire, dopo che credevo di aver fatto un discorso obiettivo con domande utili, al quale m'è parso che tu abbia risposto con sufficienza, o comunque con poca cognizione, visto che prima parlavi come se ne sapessi di più e dopo rispondevi un po' alla meglio.
Susa, eh, ma qua non si parla di filosofia teoretica... Le opinioni sono tali fino ad un certo punto (andrebbero anche espresse come tali...) e, in un sito come questo, qualcuno potrebbe prenderle per fatti.
Quella del risarcimento era la mia iperbole, OK? Nvidia non garantisce nulla, e troppi parlano per partigianeria, per sentito dire o perché non sanno.
Perché non rileggi sopra per capire quale senso ha citare una 960/1050? Sarò anche arrogante e tu non sarai uno sbruffone, ma pensare che dopo tutto il discorso di sopra io possa fare un esempio a razzo come quello che credi... Riprova, che non ci fai una bella figura a non capire il contesto. :)
La partigianeria, volontaria o meno, la considero probabile quando qualcuno sembra non voler capire. Cioè, per te io prendo riferimenti assurdi e faccio esempi strampalati, però tu sei obiettivo...
Si è così limitante che non han mostrato screens riguardanti la Vega con l'HD Pack come confronto.
Ha fatto tutti i confronti con altre VGA e poi con l'HD ha mostrato solo 3 screen del gioco solo con la 2080Ti ?
Inoltre sbaglio o a parte quel sito non c'è nient'altro che fa confronti con questo HD Pack ? Nemmeno un video, ma pensa un po'.Quel pacco non è ancora scaricabile ufficialmente, per questo ci sono pochi test alternativi o privati.
Dici che hanno postato razzate dimostrabili come tali da chiunque? :fagiano:
Il discorso in generale lo salti...? Vabbè, fai conto che abbia risposto come ho chiuso sopra. :)
Edit: Vedere i 12GB di VRAM consigliati per Godfall maxato. Gioco pubblicizzato da AMD presente anche su PS5. Toccava fare gli indovini per prevedere...?
Tranne XBox-X, che in pratica è l'unica delle ormai precedenti a toccare i 4K, le altre hanno circa 5GB disponibili per i giochi. Bastano 6GB ad una risoluzione superiore con texure superiori? Se erano superiori per via di HD Pack a parte, conta qualcosa?
Ci mancherebbe che AMD non spingesse per valorizzare le proprie schede, no? Texture migliori non danno fastidio a nessuno, male che va abbassi...
XSX ha 10GB di memoria pensata per il buffer GPU (560GB/s di banda). Già sarebbe strano credere di essere in avanzo con le dimensioni della console migliore, considerando che tendenzialemtne lì non si spreca niente, figurarsi con texture più risolute.
Quindi, la cosa anomala è pensare che 10GB basteranno, altroché...
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.