View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™
Windtears
07-06-2023, 12:18
Ah, quindi amd è peggio... buono a sapersi :sofico:
In realtà non mi stupirebbe se invece il gioco fosse lo stesso, soltanto che le vecchie panda di amd non tirano quanto le vecchie tedesche e giapponesi di nvidia :)
6800 e 6700 mi sembra siano invecchiate molto meglio rispetto a 3060-70 visti i limiti di vram, colpa dei giochi non ottimizzati per carità, ma sappiamo che è sempre così con le non esclusive pc.
StylezZz`
07-06-2023, 12:35
6800 e 6700 mi sembra siano invecchiate molto meglio rispetto a 3060-70 visti i limiti di vram, colpa dei giochi non ottimizzati per carità, ma sappiamo che è sempre così con le non esclusive pc.
I giochi non ottimizzati (TLOU, Hogwarts Legacy, RE4 etc..) sono stati aggiornati, e adesso girano bene anche con le 3060Ti/3070 8GB.
Gyammy85
07-06-2023, 21:01
Ah, quindi amd è peggio... buono a sapersi :sofico:
In realtà non mi stupirebbe se invece il gioco fosse lo stesso, soltanto che le vecchie panda di amd non tirano quanto le vecchie tedesche e giapponesi di nvidia :)
Si si certo, hai colto il concetto
I giochi non ottimizzati (TLOU, Hogwarts Legacy, RE4 etc..) sono stati aggiornati, e adesso girano bene anche con le 3060Ti/3070 8GB.
Quindi la 4060ti da 16 può anche non uscire, buono a sapersi
StylezZz`
07-06-2023, 21:22
Quindi la 4060ti da 16 può anche non uscire, buono a sapersi
Potrà servire per i prossimi porting male ottimizzati, almeno permetterà di giocarli al lancio senza troppi problemi...chi ha 8GB invece dovrà aspettare le patch.
6800 e 6700 mi sembra siano invecchiate molto meglio rispetto a 3060-70 visti i limiti di vram, colpa dei giochi non ottimizzati per carità, ma sappiamo che è sempre così con le non esclusive pc.
Parlo di mercato, non di prestazioni.
Si si certo, hai colto il concetto
C'è un solo concetto, ed è quello di un aumento generalizzato dei prezzi. Non so cosa porta a convincersi di presunte grosse differenze, se non la lentezza di amd a riempire la gamma.
ninja750
08-06-2023, 08:08
la lentezza di amd a riempire la gamma.
nuove panda per sostituire vecchie panda? non capisco il masochismo
quando ci sono già in vendita mercedes e bmw dall'altra parte
Gyammy85
08-06-2023, 08:26
Potrà servire per i prossimi porting male ottimizzati, almeno permetterà di giocarli al lancio senza troppi problemi...chi ha 8GB invece dovrà aspettare le patch.
Ok ma per quanto ancora i giochi dovranno occupare max 7 giga?
Cutter90
08-06-2023, 09:03
Ok ma per quanto ancora i giochi dovranno occupare max 7 giga?
Fino a che non ci sarà un salto grafico che renderà davvero necessario aumentare i gb di vram necessari.
in 1080p/1440p 8 gb con le grafiche attuali sono più che sufficienti.
Gyammy85
08-06-2023, 09:13
Fino a che non ci sarà un salto grafico che renderà davvero necessario aumentare i gb di vram necessari.
in 1080p/1440p 8 gb con le grafiche attuali sono più che sufficienti.
Il salto grafico lo fai con texture più risolute, non è che prima fai il salto e poi metti le texture
Cutter90
08-06-2023, 09:53
Il salto grafico lo fai con texture più risolute, non è che prima fai il salto e poi metti le texture
Ok, quando lo vedrò allora saranno giustificati. Finora le "texture più risolute" non ci sono, quindi i giochi che consumano più di 8 gb significa solo una mala ottimizzazione ingiustificata
Gyammy85
08-06-2023, 09:57
Ok, quando lo vedrò allora saranno giustificati. Finora le "texture più risolute" non ci sono, quindi i giochi che consumano più di 8 gb significa solo una mala ottimizzazione ingiustificata
Non diventa mala ottimizzazione solo perché non passa dall'omniverse, è meglio allocare tutta la memoria per non avere colli di bottiglia col sistema, col sam attivo io ho in molti casi 8-9 giga occupati, con texture al massimo naturalmente
Cutter90
08-06-2023, 10:14
Non diventa mala ottimizzazione solo perché non passa dall'omniverse, è meglio allocare tutta la memoria per non avere colli di bottiglia col sistema, col sam attivo io ho in molti casi 8-9 giga occupati, con texture al massimo naturalmente
Bisogna sempre stare attenti alla vram allocata e quella davvero necessaria, che sono due valori diversi.
In ogni caso Gli sviluppatori si devono basare sulle schede grafiche che ci sono disponibili e dovrebbero programmare ottimizzando le performance in base ai target. Su una 3070 ha 8 gb di vram devono ottimizzare perchè in 1440p giri bene con 8 gb di vram (ed è fattibilissimo).
Non è che loro sviluppano giochi con 14 gb di vram richiesti (senza motivo) e poi le schede grafiche si devono adattare. Negativo....
ninja750
08-06-2023, 10:24
più di 8gb non servono, ma serve il RT
ironia no?
Gyammy85
08-06-2023, 10:27
Bisogna sempre stare attenti alla vram allocata e quella davvero necessaria, che sono due valori diversi.
In ogni caso Gli sviluppatori si devono basare sulle schede grafiche che ci sono disponibili e dovrebbero programmare ottimizzando le performance in base ai target. Su una 3070 ha 8 gb di vram devono ottimizzare perchè in 1440p giri bene con 8 gb di vram (ed è fattibilissimo).
Non è che loro sviluppano giochi con 14 gb di vram richiesti (senza motivo) e poi le schede grafiche si devono adattare. Negativo....
Si negli ultimi vent'anni si è seguita questa regola aurea, i poveri sviluppatori devono per forza di cose seguire il disciplinare, perché se la più venduta vende di più perché il gioco x gira bene per quella precisa scheda che vende di più perché il gioco è stato sviluppato per quella precisa scheda bene, se no partono i fischi
Gyammy85
08-06-2023, 10:33
https://videocardz.com/newz/alleged-amd-zen5-cpu-with-8-cores-has-been-spotted-on-distributed-computing-platforms
Ok c'è scritto 7900 GRE ma ci sono pure 16 GB, è una nuova scheda
StylezZz`
08-06-2023, 10:49
più di 8gb non servono, ma serve il RT
ironia no?
Chi ha detto che serve il RT? Sei liberissimo di disattivarlo dalle impostazioni se non ti interessa o se la tua 6800 non lo gestisce decentemente, ma riesci comunque a giocare bene in raster (su CP77 hai anche FSR2 che è una delle migliori implementazioni)...a differenza di porting usciti rotti (guardacaso quasi tutte esclusive AMD) che di nextgen hanno ben poco, ma mi obbligano ad acquistare una gpu con più VRAM per giocarli al dayone altrimenti mi crashano/stutterano etc...poi però dopo le patch girano anche sulla 1060 3GB, ironia si.
Ale55andr0
08-06-2023, 11:32
Chi ha detto che serve il RT? Sei liberissimo di disattivarlo dalle impostazioni se non ti interessa o se la tua 6800 non lo gestisce decentemente.
come tu sei libero di abbassare di una tacca le texture :cool: e di abbassare pure l'RT che tanto la 3070 non è bona manco per quello :Prrr: (si scherza...ma anche no :D)
ninja750
08-06-2023, 11:42
Chi ha detto che serve il RT? Sei liberissimo di disattivarlo dalle impostazioni se non ti interessa o se la tua 6800 non lo gestisce decentemente, ma riesci comunque a giocare bene in raster (su CP77 hai anche FSR2 che è una delle migliori implementazioni)...a differenza di porting usciti rotti (guardacaso quasi tutte esclusive AMD) che di nextgen hanno ben poco, ma mi obbligano ad acquistare una gpu con più VRAM per giocarli al dayone altrimenti mi crashano/stutterano etc...poi però dopo le patch girano anche sulla 1060 3GB, ironia si.
visto che nel forum in generale si parla da tempo di necessità di miglioramenti qualitativi di quello che vediamo a video e che il RT è diventato parte integrante di ogni discorso nel quale ormai se non c'è sembra che non si possa più giocare, allo stesso modo altri miglioramenti qualitativi si possono ottenere slimitando questa convenzione di CAP 8gb creato dagli sviluppatori e non solo che porterebbe ad ottenere altrettanti insindacabili aumenti qualitativi di quello che vediamo a video
di fronte a questa affermazione ci troviamo di fronte a due scenari:
1) il RT va bene così, gli 8gb devono bastare per tutti e sono gli sviluppatori che (all'infinito?) dovranno adattare il loro software per stare negli 8gb
2) gli sviluppatori dovrebbero cominciare ad usare massivamente più vram visto che tutti e due i marchi propongono tagli 10 12 16 20 24 e rendere abilitabile/disabilitabile nelle impostazioni le texture ultra qualità, e dovrebbero lavorare sul rendere più leggero l'impatto prestazionale dell'abilitazione del RT magari facendo più ottimizzazioni anche sul secondo competitor che seppur vende molte meno schede ha un parco installato non trascurabile
alethebest90
08-06-2023, 11:46
io posso solo dire la mia esperienza, in 2/3 giochi da me testati con le stesse impostazioni, passando da rx6600xt a rx6700xt ho notato utilizzi diversi della Vram
evidentemente ad alcuni giochi non fa cosi tanto schifo avere piu ram a disposizione :D
Cutter90
08-06-2023, 11:47
visto che nel forum in generale si parla da tempo di necessità di miglioramenti qualitativi di quello che vediamo a video e che il RT è diventato parte integrante di ogni discorso nel quale ormai se non c'è sembra che non si possa più giocare, allo stesso modo altri miglioramenti qualitativi si possono ottenere slimitando questa convenzione di CAP 8gb creato dagli sviluppatori e non solo che porterebbe ad ottenere altrettanti insindacabili aumenti qualitativi di quello che vediamo a video
di fronte a questa affermazione ci troviamo di fronte a due scenari:
1) il RT va bene così, gli 8gb devono bastare per tutti e sono gli sviluppatori che (all'infinito?) dovranno adattare il loro software per stare negli 8gb
2) gli sviluppatori dovrebbero cominciare ad usare massivamente più vram visto che tutti e due i marchi propongono tagli 10 12 16 20 24 e rendere abilitabile/disabilitabile nelle impostazioni le texture ultra qualità, e dovrebbero lavorare sul rendere più leggero l'impatto prestazionale dell'abilitazione del RT magari facendo più ottimizzazioni anche sul secondo competitor che seppur vende molte meno schede ha un parco installato non trascurabile
Io penso che la faccenda sia molto semplice. Gli sviluppatori vogliono usare più degli 8 gb? Mi metti un preset Ultra, superiore a quello di oggi, che ne usa chessò, 11. Poi il preset ad alto, che corrisponde all'ultra di oggi come qualità, che ne consumi 8. così a scalare.
Fine. Semplicissimo.
Invece il trend è usare sempre la stessa qualità di texture, am consumare più vram. Eh no bimbi belli. Facile così :)
ninja750
08-06-2023, 11:52
Io penso che la faccenda sia molto semplice. Gli sviluppatori vogliono usare più degli 8 gb? Mi metti un preset Ultra, superiore a quello di oggi, che ne usa chessò, 11. Poi il preset ad alto, che corrisponde all'ultra di oggi come qualità, che ne consumi 8. così a scalare.
Fine. Semplicissimo.
esatto, come un qualunque setting
Invece il trend è usare sempre la stessa qualità di texture, am consumare più vram. Eh no bimbi belli. Facile così :)
se consumano più vram per forza sono migliori o meno compresse dir si voglia
che poi non capisco perchè se ne continua a fare un discorso amd vs nvidia quando pure quelli con 1080ti 2080ti 3080/10/12 4060ti/16 4070 4070ti 4080 4090 beneficerebbero di texture migliori e finalmente potrebbero usare meglio ciò per cui hanno pagato
Cutter90
08-06-2023, 11:53
esatto, come un qualunque setting
se consumano più vram per forza sono migliori o meno compresse dir si voglia
che poi non capisco perchè se ne continua a fare un discorso amd vs nvidia quando pure quelli con 1080ti 2080ti 3080/10/12 4060ti/16 4070 4070ti 4080 4090 beneficerebbero di texture migliori
Non è vero. Oppure è vero e non si vede affatto. E allora è inutile
ninja750
08-06-2023, 11:58
Non è vero. Oppure è vero e non si vede affatto. E allora è inutile
beh la differenza c'è
https://i.ytimg.com/vi/ZDIXSpmtPNg/maxresdefault.jpg
Cutter90
08-06-2023, 12:08
beh la differenza c'è
https://i.ytimg.com/vi/ZDIXSpmtPNg/maxresdefault.jpg
Non ho capito. Sarebbe?
StylezZz`
08-06-2023, 12:43
come tu sei libero di abbassare di una tacca le texture :cool:
in realtà anche abbassando le texture l'utilizzo rimaneva inspiegabilmente elevato e la qualità ovviamente era penosa, adesso invece anche sparandole su ultra in 4k con una 7600 (:rolleyes:) non ci sono problemi su giochi come Hogwarts Legacy:
https://i.imgur.com/w7TI5Ux.jpg
e di abbassare pure l'RT che tanto la 3070 non è bona manco per quello :Prrr: (si scherza...ma anche no :D)
non mi cambia nulla se imposto l'RT su alto/medio invece che ultra...almeno io mi sto godendo la mia 3070 pagata a prezzo msrp, tu invece continui ad aspettare invano la gpu dei tuoi sogni :Prrr: (si scherza...:D )
visto che nel forum in generale si parla da tempo di necessità di miglioramenti qualitativi di quello che vediamo a video e che il RT è diventato parte integrante di ogni discorso nel quale ormai se non c'è sembra che non si possa più giocare, allo stesso modo altri miglioramenti qualitativi si possono ottenere slimitando questa convenzione di CAP 8gb creato dagli sviluppatori e non solo che porterebbe ad ottenere altrettanti insindacabili aumenti qualitativi di quello che vediamo a video
di fronte a questa affermazione ci troviamo di fronte a due scenari:
1) il RT va bene così, gli 8gb devono bastare per tutti e sono gli sviluppatori che (all'infinito?) dovranno adattare il loro software per stare negli 8gb
2) gli sviluppatori dovrebbero cominciare ad usare massivamente più vram visto che tutti e due i marchi propongono tagli 10 12 16 20 24 e rendere abilitabile/disabilitabile nelle impostazioni le texture ultra qualità, e dovrebbero lavorare sul rendere più leggero l'impatto prestazionale dell'abilitazione del RT magari facendo più ottimizzazioni anche sul secondo competitor che seppur vende molte meno schede ha un parco installato non trascurabile
I discorsi sul RT ''se non c'è sembra che non si possa più giocare'' non mi riguardano, anche perchè come ti ho già fatto notare, chi non ha una scheda capace di farlo girare decentemente (o perchè non gli interessa) può benissimo disattivarlo e via, nessuno gli obbliga ad acquistare una RTX.
Riguardo gli 8GB invece dipende tutto dall'ottimizzazione, perchè io posso comunque maxare tutto (la gpu me lo consente) andando oltre la VRAM e usare anche la RAM, quindi gli sviluppatori non hanno limiti qualitativi da questo punto di vista su PC, devono solo ottimizzare la gestione e lo scambio tra la memoria video e quella di sistema...poi andrebbero considerati anche i numeri delle gpu più diffuse che hanno 6GB/8GB (o meno), e 1080p è la risoluzione più utilizzata, quindi il fatto che nvidia/amd/intel propongano schede nuove con più memoria lascia il tempo che trova, altrimenti possono vendere i giochi solo a questi ultimi, e non credo gli convenga.
Ale55andr0
08-06-2023, 12:49
Riguardo gli 8GB invece dipende tutto dall'ottimizzazione, perchè io posso comunque maxare tutto (la gpu me lo consente) andando oltre la VRAM e usare anche la RAM, quindi gli sviluppatori non hanno limiti qualitativi da questo punto di vista su PC, devono solo ottimizzare la gestione e lo scambio tra la memoria video e quella di sistema...poi andrebbero considerati anche i numeri delle gpu più diffuse che hanno 6GB/8GB (o meno), e 1080p è la risoluzione più utilizzata, quindi il fatto che nvidia/amd/intel propongano schede nuove con più memoria lascia il tempo che trova, altrimenti possono vendere i giochi solo a questi ultimi, e non credo gli convenga.
quindi restiamo vita natural durante limitati a 8gb perchè è tutta questione id ottimizzazione (usando gli asset di PS 4 pro per altri 10 anni). Ottimo :O
La ram di sistema non sarà mai veloce come quella della gpu
Cutter90
08-06-2023, 13:12
quindi restiamo vita natural durante limitati a 8gb perchè è tutta questione id ottimizzazione (usando gli asset di PS 4 pro per altri 10 anni). Ottimo :O
La ram di sistema non sarà mai veloce come quella della gpu
No e la spiegazione l'ho data qualche post sopra
fraussantin
08-06-2023, 13:18
Fino a che non ci sarà un salto grafico che renderà davvero necessario aumentare i gb di vram necessari.
in 1080p/1440p 8 gb con le grafiche attuali sono più che sufficienti.Fino a quando gli sviluppatori avranno voglia di farli bastare.
Quando decideranno che non è più necessario rientrare in 8 giga , anche se ingiustificatamente non basteranno più.
Cutter90
08-06-2023, 13:26
Fino a quando gli sviluppatori avranno voglia di farli bastare.
Quando decideranno che non è più necessario rientrare in 8 giga , anche se ingiustificatamente non basteranno più.
Tristemente d'accordo
StylezZz`
08-06-2023, 13:45
quindi restiamo vita natural durante limitati a 8gb perchè è tutta questione id ottimizzazione (usando gli asset di PS 4 pro per altri 10 anni). Ottimo :O
La ram di sistema non sarà mai veloce come quella della gpu
Non c'è nessun limite, se fanno uscire un gioco su PC devono tenere conto della maggioranza dei sistemi utilizzati che è appunto composta da gpu con 6GB-8GB etc...poi sarò io a scalare i settaggi in base alla mia config, e anche se sforo la VRAM di qualche gb non deve assolutamente crashare/stutterare di brutto, questo è come dovrebbe essere:
GTX 1060 3GB - The Last of Us - After the Updates! (https://www.youtube.com/watch?v=8s60BYOxcMQ)
ninja750
08-06-2023, 13:56
andrebbero considerati anche i numeri delle gpu più diffuse che hanno 6GB/8GB (o meno), e 1080p è la risoluzione più utilizzata, quindi il fatto che nvidia/amd/intel propongano schede nuove con più memoria lascia il tempo che trova, altrimenti possono vendere i giochi solo a questi ultimi, e non credo gli convenga.
stesso ragionamento applicabile al RT, lo possono attivare in pochi eppure si sta spingendo tutto in quella direzione
Cutter90
08-06-2023, 13:58
stesso ragionamento applicabile al RT, lo possono attivare in pochi eppure si sta spingendo tutto in quella direzione
Eh? Le ragioni sono ben diverse. Il RT si spinge perchè è la "novità" tecnologica. La vram si spinge perchè le sh non vogliono sbattersi a programmare decentemente o la sping AMD perchè non sa che altro fare.
Mi pare che non sia proprio la stessa cosa
OrazioOC
08-06-2023, 14:08
https://videocardz.com/newz/amd-radeon-rx-7900-xt-is-now-available-for-799-eur-in-germany-24-below-msrp
A 800 euro spedita avrebbe un value mica da ridere, sta "schedina" qui con due tweak in raster ne ha quasi quanto una 4080...
nessuno29
08-06-2023, 14:28
https://videocardz.com/newz/amd-radeon-rx-7900-xt-is-now-available-for-799-eur-in-germany-24-below-msrp
A 800 euro spedita avrebbe un value mica da ridere, sta "schedina" qui con due tweak in raster ne ha quasi quanto una 4080...
Fosse uscita subito a sto prezzo si evitavano kg di letame addosso e ne vendevano qualcuna piuttosto che 0.
RoUge.boh
08-06-2023, 14:32
Fosse uscita subito a sto prezzo si evitavano kg di letame addosso e ne vendevano qualcuna piuttosto che 0.
QUOTISSIMO
StylezZz`
08-06-2023, 15:06
stesso ragionamento applicabile al RT, lo possono attivare in pochi eppure si sta spingendo tutto in quella direzione
Ok lo possono attivare in pochi, ma tutti possono comunque giocare in raster, nessuno sta obbligando nessuno ad acquistare una scheda nuova...a differenza dei giochi rotti (per fortuna poi vengono fixati) che mi obbligano a possedere una gpu con almeno 16GB perchè altrimenti mi crashano/stutterano :rolleyes:
TnS|Supremo
08-06-2023, 15:21
In ogni caso comprare oggi una vga da 8gb, se si ha intenzione di tenerla svariati anni, non mi sembra un ottimo investimento.
ninja750
08-06-2023, 15:24
Eh? Le ragioni sono ben diverse. Il RT si spinge perchè è la "novità" tecnologica. La vram si spinge perchè le sh non vogliono sbattersi a programmare decentemente o la sping AMD perchè non sa che altro fare.
Mi pare che non sia proprio la stessa cosa
ripeto: perchè tirare in ballo AMD quando ho riportato un elenco di 10 vga nvidia che potrebbero trarre egualmente beneficio (gratis e senza esborso fps) qualitativo? si parla di rt e vram non amd e nvidia
Alodesign
08-06-2023, 15:31
Fosse uscita subito a sto prezzo si evitavano kg di letame addosso e ne vendevano qualcuna piuttosto che 0.
Vedo anche la prima xtx sotto i 1000€.
StylezZz`
08-06-2023, 15:47
In ogni caso comprare oggi una vga da 8gb, se si ha intenzione di tenerla svariati anni, non mi sembra un ottimo investimento.
senza dubbio, soprattutto se parliamo di cifre sopra i 400€.
Nel 2012 ho acquistato una GTX 670 (una classe 70, mica pizza e fichi :D ) ed ero indeciso perchè c'era versione da 2gb e quella da 4gb.
Alla fine ho optato per la 2gb perchè "tanto non ci sono giochi che beneficiano davvero della vram in più e se ci sono è perchè sono ottimizzati male". :rolleyes:
Tre anni dopo, nel 2015, è uscita la prima scheda video con 8gb di ram, la R9 390. Da quella data sono passati 8 anni e siamo ancora qui a ripetere le stesse cose che sentivo nel 2012.
Ottimizzando il sw, 8gb di vram possono bastare? Credo proprio di si.
Ci sono giochi ottimizzati con i piedi che richiedono più di 8gb di vram senza che a questo corrisponda un effettivo aumento del livello di dettaglio grafico? Altrettanto vero.
Se non si sale con le specifiche dell'hardware, tra 8 anni la grafica sarà la stessa di oggi? Inevitabile direi.
Perciò non capisco dove stia lo scandalo. La potenza di calcolo dell'hardware è salita e sale in continuazione e gli 8gb di ram possono diventare un fattore limitante soprattutto per le texture ad alta qualità, che sono il primo elemento (prima di RT o qualsiasi altro effetto) che impattano sulla presentazione dell'aspetto grafico di un gioco.
Continuare a ripetere che gli 8gb sono sufficienti e che se non bastano vuol dire che è colpa delle SH cattive che non ottimizzano, equivale a dire che non vogliamo ci sia progresso e tanto valeva restare con le schede da 2gb perchè tanto "bastava ottimizzare".
Visto poi l'andamento dei prezzi che ci vengono richiesti per l'acquisto, direi che cominciare a pretendere anche noi un qualcosa in più, sia assolutamente lecito e sacrosanto.
StylezZz`
08-06-2023, 20:36
Nel 2012 ho acquistato una GTX 670 (una classe 70, mica pizza e fichi :D ) ed ero indeciso perchè c'era versione da 2gb e quella da 4gb.
Alla fine ho optato per la 2gb perchè "tanto non ci sono giochi che beneficiano davvero della vram in più e se ci sono è perchè sono ottimizzati male". :rolleyes:
Tre anni dopo, nel 2015, è uscita la prima scheda video con 8gb di ram, la R9 390. Da quella data sono passati 8 anni e siamo ancora qui a ripetere le stesse cose che sentivo nel 2012
Io invece nel 2013 una 770 2GB, cambiata nel 2018 perchè ormai la scheda non mi offriva più un framerate decente a dettagli medi..indovina come se la passava la versione da 4GB? Uguale, e all'epoca ho risparmiato 100€. Vedrai che la stessa cosa succederà con la 4060 Ti 8GB e 16GB.
Perciò non capisco dove stia lo scandalo. La potenza di calcolo dell'hardware è salita e sale in continuazione e gli 8gb di ram possono diventare un fattore limitante soprattutto per le texture ad alta qualità, che sono il primo elemento (prima di RT o qualsiasi altro effetto) che impattano sulla presentazione dell'aspetto grafico di un gioco.
Continuare a ripetere che gli 8gb sono sufficienti e che se non bastano vuol dire che è colpa delle SH cattive che non ottimizzano, equivale a dire che non vogliamo ci sia progresso e tanto valeva restare con le schede da 2gb perchè tanto "bastava ottimizzare"
Evidentemente non hai seguito tutto il discorso, qui non si critica il progresso dei giochi che è sacrosanto, qui si criticano giochi fatti uscire in condizioni disastrose (che di ''nextgen'' hanno ben poco)...non confondiamo il progresso con la pessima ottimizzazione.
Visto poi l'andamento dei prezzi che ci vengono richiesti per l'acquisto, direi che cominciare a pretendere anche noi un qualcosa in più, sia assolutamente lecito e sacrosanto.
Certo, ed è altrettanto sacrosanto pretendere che i giochi escano in condizioni decenti, che abbiano la possibilità di essere scalati in base al proprio hw...oppure che facciamo, ci prendiamo tutti una cpu 24core e una scheda video con 24GB di VRAM per giocare bene? Non mi sembra che le console attuali siano tutta questa potenza, la PS5 ha un 8core e 16GB condivisi con il sistema, tu dici che un PC con una gpu da 8GB e 32GB di RAM non sia sufficiente?
dominator84
09-06-2023, 08:40
Nel 2012 ho acquistato una GTX 670 (una classe 70, mica pizza e fichi :D ) ed ero indeciso perchè c'era versione da 2gb e quella da 4gb.
Alla fine ho optato per la 2gb perchè "tanto non ci sono giochi che beneficiano davvero della vram in più e se ci sono è perchè sono ottimizzati male". :rolleyes:
Tre anni dopo, nel 2015, è uscita la prima scheda video con 8gb di ram, la R9 390. Da quella data sono passati 8 anni e siamo ancora qui a ripetere le stesse cose che sentivo nel 2012.
Ottimizzando il sw, 8gb di vram possono bastare? Credo proprio di si.
Ci sono giochi ottimizzati con i piedi che richiedono più di 8gb di vram senza che a questo corrisponda un effettivo aumento del livello di dettaglio grafico? Altrettanto vero.
Se non si sale con le specifiche dell'hardware, tra 8 anni la grafica sarà la stessa di oggi? Inevitabile direi.
Perciò non capisco dove stia lo scandalo. La potenza di calcolo dell'hardware è salita e sale in continuazione e gli 8gb di ram possono diventare un fattore limitante soprattutto per le texture ad alta qualità, che sono il primo elemento (prima di RT o qualsiasi altro effetto) che impattano sulla presentazione dell'aspetto grafico di un gioco.
Continuare a ripetere che gli 8gb sono sufficienti e che se non bastano vuol dire che è colpa delle SH cattive che non ottimizzano, equivale a dire che non vogliamo ci sia progresso e tanto valeva restare con le schede da 2gb perchè tanto "bastava ottimizzare".
Visto poi l'andamento dei prezzi che ci vengono richiesti per l'acquisto, direi che cominciare a pretendere anche noi un qualcosa in più, sia assolutamente lecito e sacrosanto.
sli di 680 presente, e di 780, e cross di 7950 :)
il fatto è che dalla scorsa gen, con la 3060 ti e la 3070 proponevano soluzioni adatte anche al 4k, per poi vedere nei test come la 3070 cadeva
oggi ripropongono gli algoritmi maxwell (750 presente) e ti rifilano di tutto sotto i 10gb
giochi, porting e cross gen - come fatto presente dal portoghese - son sviluppati sulla base delle console che utilizzano una gpu simile alla 6700xt, infatti in alcuni test PC questa è risultata andare meglio di una 6800 e 6900...
stesso discorso vale per amd che ha proposto non solo gli 8gb ma anche il 4x
Gyammy85
09-06-2023, 10:55
Ma se nvidia sulla 3070 avesse messo 12 giga e sulla 3080 16 giga ecc..., staremmo qui a dire che 8 giga bastano per tutto, o diremmo che se uno è povero si arrangia, noi siamo enthusiastz?
Poi ci sono molti screenshot in giro dove si vede chiaro che le texture sono più blurrate in determinati giochi rispetto alle vga con più di 8 giga
sli di 680 presente, e di 780, e cross di 7950 :)
il fatto è che dalla scorsa gen, con la 3060 ti e la 3070 proponevano soluzioni adatte anche al 4k, per poi vedere nei test come la 3070 cadeva
oggi ripropongono gli algoritmi maxwell (750 presente) e ti rifilano di tutto sotto i 10gb
giochi, porting e cross gen - come fatto presente dal portoghese - son sviluppati sulla base delle console che utilizzano una gpu simile alla 6700xt, infatti in alcuni test PC questa è risultata andare meglio di una 6800 e 6900...
stesso discorso vale per amd che ha proposto non solo gli 8gb ma anche il 4x
Hai il link di questi test?
bronzodiriace
09-06-2023, 13:10
Beh vedere Re4 remake che potrebbe sforare i 12gb di memoria video fa storcere la bocca considerate le texture non proprio iper definite.
Inviato dal mio MAR-LX1A utilizzando Tapatalk
StylezZz`
09-06-2023, 16:09
Ma se nvidia sulla 3070 avesse messo 12 giga e sulla 3080 16 giga ecc..., staremmo qui a dire che 8 giga bastano per tutto, o diremmo che se uno è povero si arrangia, noi siamo enthusiastz?
Poi ci sono molti screenshot in giro dove si vede chiaro che le texture sono più blurrate in determinati giochi rispetto alle vga con più di 8 giga
No, si direbbe che 12GB non bastano (lo fanno già con la 4070).
Le texture blurrate li avevo su TLOU al lancio prima degli aggiornamenti.
Beh vedere Re4 remake che potrebbe sforare i 12gb di memoria video fa storcere la bocca considerate le texture non proprio iper definite
Io vedevo 11GB nel menu delle impostazioni, ma l'ho finito senza problemi.
dominator84
09-06-2023, 16:23
Ma se nvidia sulla 3070 avesse messo 12 giga e sulla 3080 16 giga ecc..., staremmo qui a dire che 8 giga bastano per tutto, o diremmo che se uno è povero si arrangia, noi siamo enthusiastz?
Poi ci sono molti screenshot in giro dove si vede chiaro che le texture sono più blurrate in determinati giochi rispetto alle vga con più di 8 giga
nessuno si sarebbe filato 4080, 4070 e 4060... ops 4050
hanno dato il via ad un escalation che è stata pedissequamente osservata dai sudditi, felici di pagare algoritmi e falsi fasci di luce, lasciando da parte la potenza bruta
in fondo c'è chi ha dato via la 3090 con 24gb di ram, per prendersi una next gen con la metà
Ale55andr0
09-06-2023, 17:33
https://videocardz.com/newz/amd-radeon-rx-7900-xt-is-now-available-for-799-eur-in-germany-24-below-msrp
A 800 euro spedita avrebbe un value mica da ridere, sta "schedina" qui con due tweak in raster ne ha quasi quanto una 4080...
A 800 spedita resta la sostituta di una 6800XT. Piazzala a 700 POI possiamo ragionarci su, perchè in raster va poco più di una 6900 di oltre 2 anni fa...che caxx di evoluzione è?
Perciò non capisco dove stia lo scandalo. La potenza di calcolo dell'hardware è salita e sale in continuazione e gli 8gb di ram possono diventare un fattore limitante soprattutto per le texture ad alta qualità, che sono il primo elemento (prima di RT o qualsiasi altro effetto) che impattano sulla presentazione dell'aspetto grafico di un gioco.
Continuare a ripetere che gli 8gb sono sufficienti e che se non bastano vuol dire che è colpa delle SH cattive che non ottimizzano, equivale a dire che non vogliamo ci sia progresso e tanto valeva restare con le schede da 2gb perchè tanto "bastava ottimizzare".
.
so fucking THIS :O
OrazioOC
09-06-2023, 18:08
A 800 spedita resta la sostituta di una 6800XT. Piazzala a 700 POI possiamo ragionarci su, perchè in raster va poco più di una 6900 di oltre 2 anni fa...che caxx di evoluzione è?
E' una gpu migliore a 360° della 6900/50 xt, ha 4gb di vram in più, ha performance generalmente superiori in raster(alla fine della fiera quel 15% di performance in più ce l'ha) per non parlare di come demolisca rdna 2 in raytracing(almeno questa ai livelli di 3090/4070 in raytracing ci arriva).
A 800 euro meglio questa di una 4070 ti nel 90% dei tasks...
Troubled PC Ports Revisited - Forspoken, Returnal, Callisto Protocol, Dead Space - Are They Fixed?
https://youtu.be/7UwKKHmPzhg
Ale55andr0
09-06-2023, 18:41
E' una gpu migliore a 360° della 6900/50 xt, ha 4gb di vram in più, ha performance generalmente superiori in raster(alla fine della fiera quel 15% di performance in più ce l'ha) per non parlare di come demolisca rdna 2 in raytracing(almeno questa ai livelli di 3090/4070 in raytracing ci arriva).
A 800 euro meglio questa di una 4070 ti nel 90% dei tasks...
il passaggio da 16 a 20gb non ha alcun miglioramento percepibile "su strada". Migliore? grazie al mazzo è uscita ora ci mancava pure fosse peggio, il punto è che lo è di poco, ad un botto. Demolisce rdna 2 in RT? non equipara nemmeno una 3080ti la XT in RT "spinto". Il fatto che sia meno peggio della 70ti è altro discorso, resta il cut subito sotto del chip full, cioè la 6800XT in chiave 7000.... In nessun universo parallelo è a accettabile a 850 cucuzze e fra parentesi tu qui a 800 spedita non la trovi manco a piangere (e non sposterebbe di una virgola il discorso di sopra)
LurenZ87
09-06-2023, 18:53
Più che altro la domanda che mi faccio da quando ho aggiornato il pc è questa... Ma a parte Cyberpunk, quale altro gioco ha un'implementazione del Ray Tracing degna di questo nome? Perchè da quello che vedo i riflessi e le ombre che vedo si facevano tranquillamente (e in molti casi anche meglio) con le classiche cube maps e god rays, inoltre è la fiera dell'unto su superfici e personaggi... quindi tutto sta smania per il Ray Tracing davvero non la capisco :stordita: . Stessa cosa per le impostazioni Ultra che sono completamente inutili (ma questo da una vita).
Cutter90
09-06-2023, 19:07
Più che altro la domanda che mi faccio da quando ho aggiornato il pc è questa... Ma a parte Cyberpunk, quale altro gioco ha un'implementazione del Ray Tracing degna di questo nome? Perchè da quello che vedo i riflessi e le ombre che vedo si facevano tranquillamente (e in molti casi anche meglio) con le classiche cube maps e god rays, inoltre è la fiera dell'unto su superfici e personaggi... quindi tutto sta smania per il Ray Tracing davvero non la capisco :stordita: . Stessa cosa per le impostazioni Ultra che sono completamente inutili (ma questo da una vita).
Metro Exodus, Control Daying Light 2 i primi che mi vengono in mente.
E no, i riflessi e le ombre in te.po reale non era assolutamente possibile farle in questo modo con il cube map e god rays.
Poi, ti do una notizia. Le superfici bagnate riflettono e non poco. Che poi il bagnato dia improvvisamente ovunque è un altro discorso.Ma se piove è giusta che una strada diventi riflettente ad esempio...
LurenZ87
09-06-2023, 19:27
Metro Exodus, Control Daying Light 2 i primi che mi vengono in mente.
E no, i riflessi e le ombre in te.po reale non era assolutamente possibile farle in questo modo con il cube map e god rays.
Poi, ti do una notizia. Le superfici bagnate riflettono e non poco. Che poi il bagnato dia improvvisamente ovunque è un altro discorso.Ma se piove è giusta che una strada diventi riflettente ad esempio...
Ah beh, se queste sono le implementazioni "degne di nota" siamo messi proprio male, ma male male. E no, a me non interessa che sia o fatti in tempo reale o meno, ma che siano fatti bene e che facciano veramente la differenza rispetto alle tecniche classiche, perché allo stato attuale la differenza non giustifica il crollo prestazionale. Per la questione "unto" è semplice, se devi simulare l'effetto del bagnato su un personaggio ad esempio, devi farlo in maniera corretta, non che sembra che abbia fatto un bagno dentro una vasca di olio...
Inviato dal mio Pixel 7 utilizzando Tapatalk
Cutter90
09-06-2023, 19:33
Ah beh, se queste sono le implementazioni "degne di nota" siamo messi proprio male, ma male male. E no, a me non interessa che sia o fatti in tempo reale o meno, ma che siano fatti bene e che facciano veramente la differenza rispetto alle tecniche classiche, perché allo stato attuale la differenza non giustifica il crollo prestazionale. Per la questione "unto" è semplice, se devi simulare l'effetto del bagnato su un personaggio ad esempio, devi farlo in maniera corretta, non che sembra che abbia fatto un bagno dentro una vasca di olio...
Inviato dal mio Pixel 7 utilizzando Tapatalk
Non penso che tu sappia semplicemente cosa guardare quando si parla di RT. Poi sulla pesantezza, d accordissimo. Ma è roba impensabile fino a 6 anni fa.
Metro cambia tantissimo tra rt e raster.
Non so dove hai visto i personaggi unti.
LurenZ87
09-06-2023, 19:35
Non penso che tu sappia semplicemente cosa guardare quando si parla di RT. Poi sulla pesantezza, d accordissimo. Ma è roba impensabile fino a 6 anni fa.
Metro cambia tantissimo tra rt e raster.
Non so dove hai visto i personaggi unti.Ah beh scusa, basta che lo sai tu. Dai torna sull'altro thread su.
Inviato dal mio Pixel 7 utilizzando Tapatalk
Cutter90
09-06-2023, 19:38
Ah beh scusa, basta che lo sai tu. Dai torna sull'altro thread su.
Inviato dal mio Pixel 7 utilizzando Tapatalk
Ehmmm io lo so Li hai provati i giochi da me menzionati in rt? Le hai viste le differenze? Sai cosa comporta calcolate in tempo reale la luce, i riflessi e le ombre?
Se si allora alzo le mani che ti dico che ti sta sbagliando.
LurenZ87
09-06-2023, 19:43
Ehmmm io lo so Li hai provati i giochi da me menzionati in rt? Le hai viste le differenze? Sai cosa comporta calcolate in tempo reale la luce, i riflessi e le ombre?
Se si allora alzo le mani che ti dico che ti sta sbagliando.
Beh mi sembra di averlo già detto cosa ne penso o sbaglio, quindi si presume che i titoli che hai menzionato li abbia...
Inviato dal mio Pixel 7 utilizzando Tapatalk
Alodesign
09-06-2023, 21:29
L'RT che dovrebbe portare a un realismo visivo è a mio avviso, ancora implementato male.
Cutter90
09-06-2023, 22:59
L'RT che dovrebbe portare a un realismo visivo è a mio avviso, ancora implementato male.
Più che male è implementato poco
Ale55andr0
10-06-2023, 08:10
Non penso che tu sappia semplicemente cosa guardare quando si parla di RT.
Il problema per te sono sempre gli altri:
"non sanno cosa guardare"
"non sai nulla, si vede che non ne capisci tecnicamente"
"non hai mai provato quindi non puoi dire"
(tutte tue citazioni che dicono molto)
poi se tocca a te, come successo di recente parlando di CPU se si toccano i tuoi marchi preferiti "eh ma non c'è bisogno di provare" e ma "è risaputo che" :mc:
ma :rotfl:
sul fatto che guidando sulla strada bagnata nel mondo REALE secondo te ci sono gli specchi come quelli sparati in faccia da un videogame penso non ci sia nemmeno nulla da aggiungere
Alodesign
10-06-2023, 08:25
Più che male è implementato poco
No è implementato male.
Guardando delle immagini random di giochi con RT attivo e cercando immagini simili reali (o anche solo guardandosi in giro) capirai che manca ancora qualcosa.
Cutter90
10-06-2023, 09:19
No è implementato male.
Guardando delle immagini random di giochi con RT attivo e cercando immagini simili reali (o anche solo guardandosi in giro) capirai che manca ancora qualcosa.
beh ma che manchi ancora qualcosa non vuol dire sia implementato male. Ma che è implementato in modo parziale. E la ragione è anche semplice: le performance e le risorse che dovrebbero impiegare le sh. Ma rispetto a non averlo, anche al livello in cui siamo, c'è una bella differenza.
In CP2077 poi è molto molto vicina la sua implementazione al reale. Ma siamo solo agli inizi, purtroppo.
beh ma che manchi ancora qualcosa non vuol dire sia implementato male. Ma che è implementato in modo parziale. E la ragione è anche semplice: le performance e le risorse che dovrebbero impiegare le sh. Ma rispetto a non averlo, anche al livello in cui siamo, c'è una bella differenza.
In CP2077 poi è molto molto vicina la sua implementazione al reale. Ma siamo solo agli inizi, purtroppo.
Infatti, e se tanto mi da tanto Phantom Liberty spezzerà le gambine al 95% delle config "Masterrace". E speriamo che maxarlo voglia veramente dire Ethusiast. Speriamo in texture in 4k native con la decompressione di nVidia, e nel AI-Denoise e in un miglioramento ancora maggiore del RT, e della IA degli NPC con le nuove chicche di nVidia. Insomma speriamo che i CDPR facciano un gioco per pc e non la solita merda multipiattaforma, e speriamo che sia tecnicamente l'apocalisse dei bsod per chi non sa fare OC, così si fanno una console e vivono sereni.
Ale55andr0
10-06-2023, 15:48
Infatti, e se tanto mi da tanto Phantom Liberty spezzerà le gambine al 95% delle config "Masterrace". E speriamo che maxarlo voglia veramente dire Ethusiast. Speriamo in texture in 4k native con la decompressione di nVidia, e nel AI-Denoise e in un miglioramento ancora maggiore del RT, e della IA degli NPC con le nuove chicche di nVidia. Insomma speriamo che i CDPR facciano un gioco per pc e non la solita merda multipiattaforma, e speriamo che sia tecnicamente l'apocalisse dei bsod per chi non sa fare OC, così si fanno una console e vivono sereni.
non avrebbe alcun senso, è lo stesso engine e lo stesso gioco, non puoi creare discontinuità visiva con un DLC rispetto la campagna base di un OW
Alodesign
10-06-2023, 17:50
beh ma che manchi ancora qualcosa non vuol dire sia implementato male. Ma che è implementato in modo parziale. E la ragione è anche semplice: le performance e le risorse che dovrebbero impiegare le sh. Ma rispetto a non averlo, anche al livello in cui siamo, c'è una bella differenza.
In CP2077 poi è molto molto vicina la sua implementazione al reale. Ma siamo solo agli inizi, purtroppo.
Ci sono alcuni effetti di luce sparati a cavolo che nella realtà puoi avere
nessuno29
10-06-2023, 18:10
Infatti, e se tanto mi da tanto Phantom Liberty spezzerà le gambine al 95% delle config "Masterrace". E speriamo che maxarlo voglia veramente dire Ethusiast. Speriamo in texture in 4k native con la decompressione di nVidia, e nel AI-Denoise e in un miglioramento ancora maggiore del RT, e della IA degli NPC con le nuove chicche di nVidia. Insomma speriamo che i CDPR facciano un gioco per pc e non la solita merda multipiattaforma, e speriamo che sia tecnicamente l'apocalisse dei bsod per chi non sa fare OC, così si fanno una console e vivono sereni.
Ma è un gioco cdpr o Nvidia?
Gyammy85
10-06-2023, 18:40
Ma è un gioco cdpr o Nvidia?
Diciamo che è la stessa cosa, sono praticamente dentro l'omniverse
bronzodiriace
10-06-2023, 19:02
Diciamo che è la stessa cosa, sono praticamente dentro l'omniverse😂
Inviato dal mio MAR-LX1A utilizzando Tapatalk
dominator84
11-06-2023, 08:16
Infatti, e se tanto mi da tanto Phantom Liberty spezzerà le gambine al 95% delle config "Masterrace". E speriamo che maxarlo voglia veramente dire Ethusiast. Speriamo in texture in 4k native con la decompressione di nVidia, e nel AI-Denoise e in un miglioramento ancora maggiore del RT, e della IA degli NPC con le nuove chicche di nVidia. Insomma speriamo che i CDPR facciano un gioco per pc e non la solita merda multipiattaforma, e speriamo che sia tecnicamente l'apocalisse dei bsod per chi non sa fare OC, così si fanno una console e vivono sereni.
ma in pratica è già quello che sta accadendo, solo che siamo ancora ai prototipi software e hardware
se facessero na roba simile, vorrebbe dire che a 720p potrebbe girare tranquillamente sulla carrozzina della buon anima di mia nonna, potrebbero risorgere i potato pc e tornare a fare i nostri lan party pure con i pc al neon
Comunque "texture 4k", non significa nulla, sappiatelo.
A meno che non intendiate letteralmente una texture composta da immagini di risoluzione 4k e non capisco quale sarebbe questo grande vantaggio, ogni texture avra' un suo quantitativo preciso di risoluzione necessaria in base a dove viene usata e alle sue dimensioni renderizzata.
ninja750
12-06-2023, 09:02
Speriamo in texture in 4k native con la decompressione di nVidia
e ma due pagine dietro si diceva che 8gb devono bastare per tutti fino al 2035 circa
Gyammy85
12-06-2023, 09:19
e ma due pagine dietro si diceva che 8gb devono bastare per tutti fino al 2035 circa
Era già tutto previsto in roadmap cit
giochi, porting e cross gen - come fatto presente dal portoghese - son sviluppati sulla base delle console che utilizzano una gpu simile alla 6700xt, infatti in alcuni test PC questa è risultata andare meglio di una 6800 e 6900...Ma quando mai. PS5 non arriva alle prestazioni grezze della 6600xt, e se deve spingere sul processore per raggiungere i 60fps, si avvicina alla 6600 liscia.
Con un motore multi come UE-4, non di rado fa fatica a raggiungere la 2060 liscia, a volte una 3050 regge i 1440p quando PS5 va a 1080p.
Sarà per quello che il consolaro DF si sofferma con la lente sullo stuttering, del resto con quel motore meglio non parlarne.
Infatti, con FF-VII hanno cominciato a sputarci sopra da twitter per via dello stutter, però non s'è detto che su PC con la 6700xt reggi i 4K nativi, mentre su PS5 a 60fps renderizza a 1512p.
Esclusiva temporanea, dove con la 6700xt ti puoi permettere solo il doppio in densità, altro che 6900...
poi se tocca a te, come successo di recente parlando di CPU se si toccano i tuoi marchi preferiti "eh ma non c'è bisogno di provare" e ma "è risaputo che" :mc:Eh, sì, lì può anche andare a gusti, al massimo fa 5-10 fps se guarda da 80 a 90fps bloccati, quando va male, perché se no CP-2077 col PT è un ottimo test pei processori... :O
a differenza dei giochi rotti (per fortuna poi vengono fixati) che mi obbligano a possedere una gpu con almeno 16GB perchè altrimenti mi crashano/stutterano :rolleyes:Con 12GB quei problemi non c'erano, altro che almeno 16GB.
Sembra la solita tecnica di esagerare per minimizzare, contemplata almeno dall'antica Grecia...
Io invece nel 2013 una 770 2GB, cambiata nel 2018 perchè ormai la scheda non mi offriva più un framerate decente a dettagli medi..indovina come se la passava la versione da 4GB? Uguale, e all'epoca ho risparmiato 100€. Vedrai che la stessa cosa succederà con la 4060 Ti 8GB e 16GB.Con la 770 da 4Gb avresti potuto giocare a medio con le texture di qualità superiore.
È grottesco, tocca ripetere ad interim la stessa cosa, è evidente che si vuol far finta di non capire.
Veramente vuoi continuare a sostenere che con la 770 da 2GB hai sempre avuto VRAM a sufficienza? Non è così.
Per inciso, visto che si parla di texture come se si stesse parlando di texturizzazione in toto:
La VRAM viene occupata da tutto ciò che gira attorno alle texture, quindi normal map, parallax mapping, mipmaps in generale ecc...
Non si parla solo dell'immagine che viene "avvolta" attorno ai modelli/oggetti.
Tutto il contorno evolve. Giochi parsimoniosi sulla VRAM, nonostante abbiano texture decenti, spesso risparmiano proprio nel "secodario" suddetto.
Gyammy85
13-06-2023, 11:16
La storia della vram serve a giustificare acquisti avventati di schede da 800 euro con 8 giga due anni fa, come le 4070/ti straconsigliate ovunque a prezzi regalo di 650/900 euro con quei 12 giga che mai e poi mai saranno un limite
Come la 6700xt che sempre due anni fa veniva presa a pernacchie perché aveva ben 12 giga, con gente che diceva "eh ma non è vero che quei giochi lì usano tutta quella ram"
Uno fa le sue valutazioni, in base pure a quanto vuole tenerla la scheda, ed il business model di nvidia prevede che la clientela aggiorni in maniera sistematica dopo un anno o poco più, e difatti si dicono sempre cose "eh ma quando la ram non basterà avremo bisogno di ben altre schede", cose che si leggono più o meno da vent'anni
Adesso siamo passati oltre, dicendo agli sviluppatori come fare i giochi, sviluppatori che già adesso sono "costretti" ad usare orrendi asset preimpacchettati per far arrivare il più presto possibile il loro sfolgorante capolavoro sugli store
La storia della vram serve a giustificare acquisti avventati di schede da 800 euro con 8 giga due anni fa, come le 4070/ti straconsigliate ovunque a prezzi regalo di 650/900 euro con quei 12 giga che mai e poi mai saranno un limite
Come la 6700xt che sempre due anni fa veniva presa a pernacchie perché aveva ben 12 giga, con gente che diceva "eh ma non è vero che quei giochi lì usano tutta quella ram"
Uno fa le sue valutazioni, in base pure a quanto vuole tenerla la scheda, ed il business model di nvidia prevede che la clientela aggiorni in maniera sistematica dopo un anno o poco più, e difatti si dicono sempre cose "eh ma quando la ram non basterà avremo bisogno di ben altre schede", cose che si leggono più o meno da vent'anni
Adesso siamo passati oltre, dicendo agli sviluppatori come fare i giochi, sviluppatori che già adesso sono "costretti" ad usare orrendi asset preimpacchettati per far arrivare il più presto possibile il loro sfolgorante capolavoro sugli store
40 min di applausi:read:
Ale55andr0
13-06-2023, 12:40
Aho ma ste 7800 le caccian fuori o no? :muro:
Cutter90
13-06-2023, 12:56
La storia della vram serve a giustificare acquisti avventati di schede da 800 euro con 8 giga due anni fa, come le 4070/ti straconsigliate ovunque a prezzi regalo di 650/900 euro con quei 12 giga che mai e poi mai saranno un limite
Come la 6700xt che sempre due anni fa veniva presa a pernacchie perché aveva ben 12 giga, con gente che diceva "eh ma non è vero che quei giochi lì usano tutta quella ram"
Uno fa le sue valutazioni, in base pure a quanto vuole tenerla la scheda, ed il business model di nvidia prevede che la clientela aggiorni in maniera sistematica dopo un anno o poco più, e difatti si dicono sempre cose "eh ma quando la ram non basterà avremo bisogno di ben altre schede", cose che si leggono più o meno da vent'anni
Adesso siamo passati oltre, dicendo agli sviluppatori come fare i giochi, sviluppatori che già adesso sono "costretti" ad usare orrendi asset preimpacchettati per far arrivare il più presto possibile il loro sfolgorante capolavoro sugli store
Ma non è affatto vero. Gli asset sono sempre gli stessi, ma le richieste di gb aumentano. Questa si chiama pigrizia, non progresso.
Intanto chi due anni fa ha preso la 3070 ci gioca alla grandissima tutto e con il dlss alla risoluzione per cui la 3070 è sviluppata.
La 6700 xt aveva 12 gb, ma performance peggiori . AL d1 tra l'atro FSR era una chiavica mentre dlss era già maturo e utilizzabile.
Ognuno fa le sue valutazioni, ma i fatti vanno riportati giusti.
QWuando vedrò asset in grado di stupire e che richiederanno più degli 8 gb in 1440p allora si può parlare di limite.
ghiltanas
13-06-2023, 13:01
Aho ma ste 7800 le caccian fuori o no? :muro:
non saprei, anche su instagram stanno pubblicizzando parecchio le 6000, forse hanno grosse scorte e viste le prestazioni e il prezzo attuale, le 6800/6900 sono per amd la fascia medio/alta attuale.
Se dovessi cambiare scheda video ora, sarei meno in difficoltà di quando ho preso la 6700xt.
Ci sta che per le 7800 si vada nel q4
StylezZz`
13-06-2023, 13:05
Con 12GB quei problemi non c'erano, altro che almeno 16GB.
Sembra la solita tecnica di esagerare per minimizzare, contemplata almeno dall'antica Grecia...
Sisi tutto apposto, nessun problema...è tutta un esagerazione di noi possessori con schede sotto i 12GB che non vogliono accettare il progresso* :asd:
*porting disastrosi
Con la 770 da 4Gb avresti potuto giocare a medio con le texture di qualità superiore.
È grottesco, tocca ripetere ad interim la stessa cosa, è evidente che si vuol far finta di non capire.
Veramente vuoi continuare a sostenere che con la 770 da 2GB hai sempre avuto VRAM a sufficienza? Non è così
770 2GB e 4GB avevano la stessa gpu, a parità di settings se in un gioco facevo 30fps, ne facevi 30fps anche con l'altra...le texture le maxavo ugualmente, sforavo di qualche GB? Si, e chissenefrega, vedevo più RAM occupata, ma non avevo crash/stuttering da far schifo, giocavo lo stesso...e se volevo ridurre l'occupazione della VRAM mi bastava scalare le texture da ultra ad alto, e visivamente non cambiava nulla!
La storia della vram serve a giustificare acquisti avventati di schede da 800 euro con 8 giga due anni fa, come le 4070/ti straconsigliate ovunque a prezzi regalo di 650/900 euro con quei 12 giga che mai e poi mai saranno un limite
Nessuna giustificazione, la mia l'ho presa a prezzo msrp e soddisfa appieno le mie esigenze...ma capisco che per te sia un occasione come un altra per mettere sul piedistallo la tua squadra del cuore, e denigrare la concorrenza sulla base di qualche gioco uscito male (che poi magicamente viene fixato, ma vabbè).
Uno fa le sue valutazioni, in base pure a quanto vuole tenerla la scheda, ed il business model di nvidia prevede che la clientela aggiorni in maniera sistematica dopo un anno o poco più, e difatti si dicono sempre cose "eh ma quando la ram non basterà avremo bisogno di ben altre schede", cose che si leggono più o meno da vent'anni
Le mie schede le tengo per almeno 5 anni (sia nvidia che amd) salvo rare eccezioni dove ho avuto l'occasione di rivendere la vecchia a buon prezzo...ma tu continua pure con il tuo fanboysmo.
Ma poi mi chiedo, perchè non sei rimasto qualche altro anno con la RX 580 8GB visto che aveva 2GB in più rispetto la 1060? Non sarà perchè ormai la gpu era inadeguata a gestire decentemente i giochi nuovi? :stordita:
dominator84
13-06-2023, 14:04
Aho ma ste 7800 le caccian fuori o no? :muro:
mhm no, senza fake generator non le prende nessuno, perchè si scontrano con le 6000
con la 7600 han fatto un tentativo, un bel buco nell'acqua
prevedo a breve non 1 ma bensì 2 tagli di prezzo
LurenZ87
13-06-2023, 14:09
Intanto chi due anni fa ha preso la 3070 ci gioca alla grandissima tutto e con il dlss alla risoluzione per cui la 3070 è sviluppata.
La 6700 xt aveva 12 gb, ma performance peggiori . AL d1 tra l'atro FSR era una chiavica mentre dlss era già maturo e utilizzabile.
Ognuno fa le sue valutazioni, ma i fatti vanno riportati giusti.
QWuando vedrò asset in grado di stupire e che richiederanno più degli 8 gb in 1440p allora si può parlare di limite.
Allora prendi una 3070, scarica Chernobylite Enhanced Edition a 1440p e applica un filo di RT poi fai partire il benchmark...
Dici bene, ognuno fa le sue valutazioni, ma i fatti vanno riportati giusti e la 3070 già ad oggi satura la vram in 1440p e chi dice il contrario mente spudoratamente.
Inviato dal mio Pixel 7 utilizzando Tapatalk
LurenZ87
13-06-2023, 14:15
Parliamo di cose serie e novità va
https://videocardz.com/newz/alleged-amd-navi-32-gpu-pictured-with-four-mcd-dies
Sembra interessante...
Inviato dal mio Pixel 7 utilizzando Tapatalk
Cutter90
13-06-2023, 14:40
Allora prendi una 3070, scarica Chernobylite Enhanced Edition a 1440p e applica un filo di RT poi fai partire il benchmark...
Dici bene, ognuno fa le sue valutazioni, ma i fatti vanno riportati giusti e la 3070 già ad oggi satura la vram in 1440p e chi dice il contrario mente spudoratamente.
Inviato dal mio Pixel 7 utilizzando Tapatalk
Bene, mi fai vedere un test? E mi fai vedere che le texture siano in alta definizione, in modo da trovare corretto una sua eventuale saturazione?
Perchè anche tlou la saturava, salvo poi sistare la cosa con le patch, dato che erano i programmatori a saturarla, non la bontà delle texture....
Grazie
Non la satura in un gioco... figuariamoci a fare una frase generica come hai fatto tu. E' proprio falsa sta cosa.
Io vedo quessto
https://www.youtube.com/watch?v=OoE0xevcNjo
6,5 gb con 1440p e dlss quality con dxr
https://www.youtube.com/watch?v=OvGeAJCmdNE
Qui altri test.
Allora prendi una 3070, scarica Chernobylite Enhanced Edition a 1440p e applica un filo di RT poi fai partire il benchmark...
Dici bene, ognuno fa le sue valutazioni, ma i fatti vanno riportati giusti e la 3070 già ad oggi satura la vram in 1440p e chi dice il contrario mente spudoratamente.
Inviato dal mio Pixel 7 utilizzando Tapatalk
Io l'ho giocato e finito proprio con una 3070, RT ON, e non ho avuto il benchè minimo problema, la ram non è stata mai saturata :)
LurenZ87
13-06-2023, 14:52
Bene, mi fai vedere un test? E mi fai vedere che le texture siano in alta definizione, in modo da trovare corretto una sua eventuale saturazione?
Perchè anche tlou la saturava, salvo poi sistare la cosa con le patch, dato che erano i programmatori a saturarla, non la bontà delle texture....
Grazie
Non la satura in un gioco... figuariamoci a fare una frase generica come hai fatto tu. E' proprio falsa sta cosa.
Io vedo quessto
https://www.youtube.com/watch?v=OoE0xevcNjo
6,5 gb con 1440p e dlss quality con dxr
Non ti devo far vedere un bel niente, continui a scrivere inesattezze su inesattezze senza un minimo di conoscenza tecnica, ma come ti hanno fatto notare altre persone è bastata la figura barbina riguardo le cpu sul thread delle vga verdi per carpire il tuo livello di inesperienza in merito di pc... E no, avere una 4090 nel PC (ammesso che sia vera almeno questa cosa) non ti rende superiore o "profeta", o forse si, di falsità e inesattezze.
PS: Rettifico, il video che hai linkato usa 1440p con il DLSS Quality... E la nativa dove sta???
PS2: ti metto in ignore, almeno evito di leggere castronerie di ogni genere.
Inviato dal mio Pixel 7 utilizzando Tapatalk
LurenZ87
13-06-2023, 15:01
Io l'ho giocato e finito proprio con una 3070, RT ON, e non ho avuto il benchè minimo problema, la ram non è stata mai saturata :)Beh in 4K DLSS Quality (1440p nativo) senza RT gira benissimo, come attivi l'RT la vram satura e gli fps crollano.
Inviato dal mio Pixel 7 utilizzando Tapatalk
Beh in 4K DLSS Quality (1440p nativo) senza RT gira benissimo, come attivi l'RT la vram satura e gli fps crollano.
Inviato dal mio Pixel 7 utilizzando Tapatalk
Appena riesco provo, non mi ricordo come si comporta a 4K con RT ON, certo che a questa risoluzione può essere la stessa gpu ad alzare bandiera bianca.
Comunque senza DLSS non c'è RT.
LurenZ87
13-06-2023, 15:17
Appena riesco provo, non mi ricordo come si comporta a 4K con RT ON, certo che a questa risoluzione può essere la stessa gpu ad alzare bandiera bianca.
Prova, la gpu in se ha la forza per gestire il tutto però l'RT mangia vram e dopo un pò gli fps crollano... un pò quello che succede con Far Cry 6, ma lì è un caso a parte :rolleyes:
Comunque senza DLSS non c'è RT.
In che senso, scusa? :mbe:
Prova, la gpu in se ha la forza per gestire il tutto però l'RT mangia vram e dopo un pò gli fps crollano... un pò quello che succede con Far Cry 6, ma lì è un caso a parte :rolleyes:
In che senso, scusa? :mbe:
Senza le Tex HD della prima ora anche FC6, che ho finito, non ha problami con gli 8 giga sai ? :confused:
Che una 3070 senza DLSS non tira il RT.
LurenZ87
13-06-2023, 15:37
Senza le Tex HD della prima ora anche FC6, che ho finito, non ha problami con gli 8 giga sai ? :confused:
Io ti parlo sempre in 4K upscalati tramite FSR (in questo caso), quindi di una base di partenza di 1440p nativi. Su Far Cry 6 avevo già le texture HD, quindi senza non lo so, ma so che è un gioco "mangia vram inutilmente by AMD".
Che una 3070 senza DLSS non tira il RT.
Vabbè ma parliamo di una scheda pensata per il 1440p nativo o sbaglio? Mi aspetto di poter usare anche una "spruzzatina" di RT :D
StylezZz`
13-06-2023, 16:01
Vabbè ma parliamo di una scheda pensata per il 1440p nativo o sbaglio? Mi aspetto di poter usare anche una "spruzzatina" di RT :D
Se per ''spruzzatina'' intendi RT Medio, direi che è utilizzabile anche in nativo (con DLSS Quality ti puoi permettere anche Ultra):
https://i.imgur.com/ORJgw6A.jpg
Sisi tutto apposto, nessun problema...è tutta un esagerazione di noi possessori con schede sotto i 12GB che non vogliono accettare il progresso* :asd:
*porting disastrosiHai editato dopo aver visto che dipendeva da un bug - che io non ho accusato - con SAM?
Non hai fatto in tempo a trovare il vespaio di alternative...? :D
Sul fatto che il gioco non era ottimizzato non ho mai avuto niente da ridire. Anzi, non lo è tutt'ora, visto che con una 3070/6700xt non si raggiunge il setting di PS5.
Carico sul procio insensato, si muovono 4 foglie che pesano su 16 thread. In pratica divide bene lo spreco...
Il discorso era un altro, e mi sembra di aver(te)lo già sottolineato. Quelli sono casi limite, che portano all'incidente che noti per forza (freeze di secondi, che a volte terminano in crash).
Gli esempi, però, sono utili per parlare di cosa accade prima di arrivare alla rottura.
Con meno VRAM c'è stuttering diffuso, non necessariamente categorico, oppure micro-stuttering durante la transizione sul BUS.
L'altro aspetto negativo sono i caricamenti che si dilatano, cosa inevitabile quando non puoi allocare comodo.
Chiaramente non è la regola, o almeno non ancora, però quando stai a pelo qualcosa ci perdi.
Non sono cose di cui ti accorgi facilmente, per farlo dovresti poter fare un paragone diretto sul momento. Per lo stuttering non c'è un timer a scadenza, e non ti metti a cronometrare i caricamenti.
Si può fare un discorso simile in modo obiettivo, quando si parte in quarta col solito mantra degli 8GB che sono più che sufficienti a 1080p-1440p? Finora direi di no. :)
770 2GB e 4GB avevano la stessa gpu, a parità di settings se in un gioco facevo 30fps, ne facevi 30fps anche con l'altra...le texture le maxavo ugualmente, sforavo di qualche GB? Si, e chissenefrega, vedevo più RAM occupata, ma non avevo crash/stuttering da far schifo, giocavo lo stesso...e se volevo ridurre l'occupazione della VRAM mi bastava scalare le texture da ultra ad alto, e visivamente non cambiava nulla!A che serve paralre dei frame medi, considerando il discorso di sopra?
Lo stuttering deve fare schifo per peggiorare il gameplay? I caricamenti li consideriamo?
La RAM non può fare da tampone come se fosse un flusso diretto. Già non basterebbe di suo, mettici pure che deve passare sul BUS PCIe.
Non cambia nulla è un assioma che non può esistere, al massimo può cambiare poco.
Su TLOU la differenza negli abiti la vedi dal francobollo dell'anteprima.
Ci sono casi in cui cambia veramente poco, magari perché più che caricare texture di res superiore aumenta solo il filtraggio delle texture e/o la distanza considerata...
8GB sono fuori da fin troppo tempo, non ricordo una durata media neanche paragonabile.
Con 2GB non hai giocato come avresti potuto farlo con 4GB, e non avendo un confronto diretto non puoi allargarti...
Anche quì, al massimo puoi dire che, tranne eccezioni, le differenze non erano eclatanti, ma se parli di setting medio non ha senso.
Perché tocca sempre ripetere che di solito quello che pesa sulla quantità non pesa sul resto?
La conseguenza non sarebbe che l'allocazione è sempre fine a se stessa? Hai voglia!
Sarebbe il caso di ammettere che gli 8GB non sono ottimali ora, e non lo non erano neanche la volta scorsa.
Significa che storpiano in ogni ambito e constringono a scendere a low? Ma manco per... ma l'ottimale è un'altra cosa, e non bisogna usare il microscopio per notarlo, se lo si vuole notare.
LurenZ87
13-06-2023, 16:05
Se per ''spruzzatina'' intendi RT Medio, direi che è utilizzabile anche in nativo (ci gioco in ultra con DLSS Quality):
cut
Guarda alla prima fase di test, quando sale la scalinata crolla mentre alla seconda fase di test quasi subito.
PS: adesso che ci penso, non avevo il SAM attivo al momento dei test.
ninja750
13-06-2023, 16:14
Aho ma ste 7800 le caccian fuori o no? :muro:
https://videocardz.com/newz/alleged-amd-navi-32-gpu-pictured-with-four-mcd-dies
60cu :stordita:
LurenZ87
13-06-2023, 16:18
https://videocardz.com/newz/alleged-amd-navi-32-gpu-pictured-with-four-mcd-dies
60cu :stordita:
ci vorrebbe il buon Mikael per illustrarci un pò la situazione :D
Cutter90
13-06-2023, 17:01
Non ti devo far vedere un bel niente, continui a scrivere inesattezze su inesattezze senza un minimo di conoscenza tecnica, ma come ti hanno fatto notare altre persone è bastata la figura barbina riguardo le cpu sul thread delle vga verdi per carpire il tuo livello di inesperienza in merito di pc... E no, avere una 4090 nel PC (ammesso che sia vera almeno questa cosa) non ti rende superiore o "profeta", o forse si, di falsità e inesattezze.
PS: Rettifico, il video che hai linkato usa 1440p con il DLSS Quality... E la nativa dove sta???
PS2: ti metto in ignore, almeno evito di leggere castronerie di ogni genere.
Inviato dal mio Pixel 7 utilizzando Tapatalk
Io porto test che dimostrano che ti sbagli e scrivo castronerie. Oook.
Sui processori non ho scritto alcuna castroneria, ma che dici?
Ehmmm con rt il 1440p nativo con la 3070 non li fai i 60. Mi vuoi dire che ha senso testare un 1440p a 30 fps nativi? Dai su. È ovvio che con la 3070 in 1440p serva il dlss per tenere i 60 quindi il test con quello va fatto.
Ragazzi, in 4k se si usa il dlss quality si va in risoluzione 1440p? Sicuri sicuri che sia in tutto e per tutto uguale, Tipo texture, effetti ecc ecc? Secondo me in 4k con dlss consuma più vram che in 1440p nativi.
Sbaglio?
StylezZz`
13-06-2023, 21:09
Hai editato dopo aver visto che dipendeva da un bug - che io non ho accusato - con SAM?
Non hai fatto in tempo a trovare il vespaio di alternative...? :D
Esatto :rolleyes:
Sul fatto che il gioco non era ottimizzato non ho mai avuto niente da ridire. Anzi, non lo è tutt'ora, visto che con una 3070/6700xt non si raggiunge il setting di PS5.
Carico sul procio insensato, si muovono 4 foglie che pesano su 16 thread. In pratica divide bene lo spreco...
Il discorso era un altro, e mi sembra di aver(te)lo già sottolineato. Quelli sono casi limite, che portano all'incidente che noti per forza (freeze di secondi, che a volte terminano in crash).
Gli esempi, però, sono utili per parlare di cosa accade prima di arrivare alla rottura.
Con meno VRAM c'è stuttering diffuso, non necessariamente categorico, oppure micro-stuttering durante la transizione sul BUS.
L'altro aspetto negativo sono i caricamenti che si dilatano, cosa inevitabile quando non puoi allocare comodo.
Chiaramente non è la regola, o almeno non ancora, però quando stai a pelo qualcosa ci perdi.
Non sono cose di cui ti accorgi facilmente, per farlo dovresti poter fare un paragone diretto sul momento. Per lo stuttering non c'è un timer a scadenza, e non ti metti a cronometrare i caricament
Si può fare un discorso simile in modo obiettivo, quando si parte in quarta col solito mantra degli 8GB che sono più che sufficienti a 1080p-1440p? Finora direi di no. :)
Ma sui ''casi limite'' siamo perfettamente d'accordo, quello che hai appena scritto è giustissimo...ma rimangono appunto casi limite, e qualche micro stuttering non mi rovina di certo l'esperienza di gioco, ma nemmeno ci faccio caso...e non sto a cronometrare i caricamenti.
A che serve paralre dei frame medi, considerando il discorso di sopra?
Lo stuttering deve fare schifo per peggiorare il gameplay? I caricamenti li consideriamo?
La RAM non può fare da tampone come se fosse un flusso diretto. Già non basterebbe di suo, mettici pure che deve passare sul BUS PCIe
Ripeto, in gioco non ci faccio nemmeno caso se è micro-stuttering saltuario...tu li reputi così gravi da peggiorare il gameplay? Io no.
Non cambia nulla è un assioma che non può esistere, al massimo può cambiare poco.
Su TLOU la differenza negli abiti la vedi dal francobollo dell'anteprima.
Ci sono casi in cui cambia veramente poco, magari perché più che caricare texture di res superiore aumenta solo il filtraggio delle texture e/o la distanza considerata...
Occhio perchè l'anteprima spesso non corrisponde all'effettivo risultato...si fa già fatica a trovare differenze zoomando l'immagine, figuriamoci senza zoom.
8GB sono fuori da fin troppo tempo, non ricordo una durata media neanche paragonabile
Vero, ma nemmeno io ricordo una gen così ''meh'' come questa (sarà una mia impressione? boh), tolto il raytracing cosa rimane? C'è gente che ancora gioca alla grande con schede da 6GB.
Con 2GB non hai giocato come avresti potuto farlo con 4GB, e non avendo un confronto diretto non puoi allargarti...
Anche quì, al massimo puoi dire che, tranne eccezioni, le differenze non erano eclatanti, ma se parli di setting medio non ha senso.
Perché tocca sempre ripetere che di solito quello che pesa sulla quantità non pesa sul resto?
La conseguenza non sarebbe che l'allocazione è sempre fine a se stessa? Hai voglia!
E chi ha parlato di setting medio? Le texture le ho sempre tenute su ''alte'', certo con 4GB avrei potuto settarle sempre su ultra (cosa cambia visivamente?) e probabilmente avrei avuto un esperienza di gioco priva di microstruttering, ma mi sarebbe costato almeno 100€ in più...ho preferito investirli altrove.
Sarebbe il caso di ammettere che gli 8GB non sono ottimali ora, e non lo non erano neanche la volta scorsa.
Significa che storpiano in ogni ambito e constringono a scendere a low? Ma manco per... ma l'ottimale è un'altra cosa, e non bisogna usare il microscopio per notarlo, se lo si vuole notare.
Certo che non sono ottimali, io stesso oggi non investirei mai 400€ per una 4060 Ti (nemmeno per la versione da 16GB visto che la gpu non vale il prezzo), ma in FHD/QHD vanno ancora bene, di sicuro amd/nvidia non ti vendono un prodotto inutilizzabile, a meno che non vogliono perdere clienti.
Allora, senza fare confusione tra dlss, fsr, nativa ecc ecc, ho provato io sulla mia pelle il 1440p con la 3070Ti e poi con l'attuale scheda che ha 16 GB.
In 1440p la differenza io l'ho vista in alcuni giochi, dove prima avevo microstuttering ora non c'è più, dove prima dopo una ventina di minuti di gioco gli fps calavano a random, ora non calano più.
Dove con la 3070Ti a parità di settings venivano allocati 7.5 GB ora negli stessi giochi ne vengono allocati circa 12.5 GB, significa quindi che l'engine grafico se ha a disposizione più di 8 GB cerca di allocarli.
Ora che poi realmente servano o meno questo non lo so perché non sono un programmatore, quello che però so, perché provato con mano, è che la differenza c'è in termini di fps min e stabilità del frametime.
Altra cosa notata, con DLSS la vram utilizzata cala, cosa che non accede usando FSR nei giochi dove ho potuto testare entrambi e non accade nemmeno con XeSS.
Sta di fatto che ad oggi le gddr6 sono ai minimi storici e implementare più ram non impatterebbe così tanto sul prezzo finale come vogliono far credere.
Ale55andr0
13-06-2023, 21:24
Beh in 4K DLSS Quality (1440p nativo) senza RT gira benissimo, come attivi l'RT la vram satura e gli fps crollano.
Inviato dal mio Pixel 7 utilizzando Tapatalk
è esattamente cio' che faceva la 3070 in CP 2077 grazie ai suoi 8 fetentissimi gb (gloria nell'alto dei cieli me la sono tolta dalle balle, e pure a un prezzo discreto per i tempi che corrono), anche in DLSS, dopo mezz'ora/un'ora di gioco dovevi riavviare perchè non ce la faceva, iniziava a zoppicare e parlo di 1440p...
https://videocardz.com/newz/alleged-amd-navi-32-gpu-pictured-with-four-mcd-dies
60cu :stordita:
se ben cloccata potrebbe andare come una 6900, con meno consumi un filo meglio in RT probabilmente (per quanto non mi interessi). E con 16gb e non 12 come quelle prese per il culo di nvidia
ColdWarGuy
13-06-2023, 22:12
https://videocardz.com/newz/alleged-amd-navi-32-gpu-pictured-with-four-mcd-dies
60cu :stordita:
Rispetto a Navi 31 sono nello stesso rapporto degli stream processor, 3840 su 6144, cioè 62.5%, in pratica in raster sarà la 4070 con 16GB di Vram ...
Gyammy85
14-06-2023, 08:51
Io ti parlo sempre in 4K upscalati tramite FSR (in questo caso), quindi di una base di partenza di 1440p nativi. Su Far Cry 6 avevo già le texture HD, quindi senza non lo so, ma so che è un gioco "mangia vram inutilmente by AMD".
Vabbè ma parliamo di una scheda pensata per il 1440p nativo o sbaglio? Mi aspetto di poter usare anche una "spruzzatina" di RT :D
Che mangi vram inutilmente ho i miei dubbi visto la quantità di dettagli e vegetazione, non ci sono quattro alberelli secchi
RT non si pone il problema, il 100% dei giochi 2019-2020 è stato sviluppato su una 2080ti, più di 8 giga ma meno di 12, poi ci sono decine di modi per gimpare le perf rt, se sai che nvidia fa le bvh in quel modo nella medesima scena amd calcola tutti i raggi mentre nvidia "solo quelli che contano", robe già viste e concetti che non dovrebbero essere ribaditi in un forum come questo ma vabbé
La 3070 comincia a perdere perf già a 7-7,2 giga, visto in giro per youtube, pure doom eternal senza dlss e senza scalare da nightmare perde anche 20 fps buoni sulla 6700xt
La 3070 va sopra solo ed esclusivamente in roba biased dove la banda maggiore gli consente di avere più potenza a disposizione, per il resto sta generalmente uguale o anche sotto
Se uno razionalmente decide di giocare solo dlss on e cioè upscalare da fullhd a 1440p nella migliore delle ipotesi, con un incremento prestazionale a tutta discrezione dello sviluppatore, è un altro paio di maniche, ma a parte l'esperimentino "mettiamo tutti i tool su cyberpunk e vediamo che succede", cosa resta? Pure nvidia remix è sostanzialmente un flop, dopo la vergogna di portal rtx, si vergogna, il gioco gira dentro nvidia remix, e hanno avuto pure il coraggio di pubblicarlo "per tutti"
OrazioOC
14-06-2023, 09:40
https://videocardz.com/newz/simulated-radeon-rx-7800-xt-gpu-ends-up-4-to-13-faster-than-rx-6800-xt
Toh chi si rivede, la 6900 xt. :D
ninja750
14-06-2023, 10:03
se ben cloccata potrebbe andare come una 6900, con meno consumi un filo meglio in RT probabilmente (per quanto non mi interessi). E con 16gb e non 12 come quelle prese per il culo di nvidia
Rispetto a Navi 31 sono nello stesso rapporto degli stream processor, 3840 su 6144, cioè 62.5%, in pratica in raster sarà la 4070 con 16GB di Vram ...
sì le perf raster potrebbero essere 6900XT ma dipende sempre il prezzo
cominciano a vedersi 6950XT a meno di 650€ e se pensiamo che la 6800XT era 670€ e che la 7900XT è sopra gli 800€ immagino non avrà un buon perf/prezzo
in quella zona c'è già la 4070 che si trova a 600€
Gyammy85
14-06-2023, 10:11
sì le perf raster potrebbero essere 6900XT ma dipende sempre il prezzo
cominciano a vedersi 6950XT a meno di 650€ e se pensiamo che la 6800XT era 670€ e che la 7900XT è sopra gli 800€ immagino non avrà un buon perf/prezzo
in quella zona c'è già la 4070 che si trova a 600€
Meno di 650 euro non l'ho vista la 4070, ma se seguono l'attuale strategia, verrà 50-100 euro meno la 4070 per andare l 10% in più
Se devono rilasciare una 6800xt +15% tanto vale comprare una 6800xt oggi e via.
Mica capisco "lamentino" che aspetta questa 7800 quando gia' si sa che avra' prestazioni simili alla 6900 al prezzo della 6800.
L'unica cosa che puo' salvare questa gpu sara' un prezzo molto competitivo e possibilmente consumi molto piu contenuti della 6800. Altrimenti, ennesima gpu da scaffale.
Poi vabbe', che ad AMD e Nvidia importi ben poco del gaming ormai non ne avevamo dubbi. Facciamo prima ad interessarci alle gpu intel se vogliamo sperare in qualcosa di decente oramai.
Gyammy85
14-06-2023, 10:14
Se devono rilasciare una 6800xt +15% tanto vale comprare una 6800xt oggi e via.
Mica capisco "lamentino" che aspetta questa 7800 quando gia' si sa che avra' prestazioni simili alla 6900 al prezzo della 6800.
L'unica cosa che puo' salvare questa gpu sara' un prezzo molto competitivo e possibilmente consumi molto piu contenuti della 6800. Altrimenti, ennesima gpu da scaffale.
Poi vabbe', che ad AMD e Nvidia importi ben poco del gaming ormai non ne avevamo dubbi. Facciamo prima ad interessarci alle gpu intel se vogliamo sperare in qualcosa di decente oramai.
6800xt+15% è una 6950xt che fa a strisce una 4070 nel 90% dei casi
ninja750
14-06-2023, 10:45
Meno di 650 euro non l'ho vista la 4070, ma se seguono l'attuale strategia, verrà 50-100 euro meno la 4070 per andare l 10% in più
se apri trovaprezzi ce ne sono due a meno di 600€ adesso
meno di 650€ c'è da paginare con la rotella del mouse :rolleyes:
ninja750
14-06-2023, 10:47
https://cdn.videocardz.com/1/2023/06/12-QHD-Index_videocardz.jpg
Gyammy85
14-06-2023, 10:50
se apri trovaprezzi ce ne sono due a meno di 600€ adesso
meno di 650€ c'è da paginare con la rotella del mouse :rolleyes:
Generalmente i prezzi sono quelli se non 700 euro e più, dovrebbe essere il prezzo della ti che invece sta a cifre folli
Dubito molto che a meno di essere interessati fortemente al dlss3 possa essere una scelta percorribile rispetto ad una 7800 con 4 giga in più e più forza bruta, già adesso una 6950xt tiene testa ad una 4070 in rt, lo farà agevolmente anche la 7800 che avrà una resa più uniforme
Gyammy85
14-06-2023, 10:50
https://cdn.videocardz.com/1/2023/06/12-QHD-Index_videocardz.jpg
Quale sarebbe la differenza fra la 7800 simulata e quella calcolata?
@StylezZz
Beh, non sono io quello che diceva che quando serviranno più di 8GB la 3070 e sorelle saranno inutili, che a 1080-1440p son più che sufficienti ecc... (il mantra è pure nella pagina scorsa)
Non ho detto nemmeno che con 8GB sarebbe stato un abbozzare continuo a corto raggio.
Per TLOU è uscita un'altra patch che migliora le perf. fino al 30%. È stato messo in strada tipo alpha, non ho problemi a sottolineare le zozzate.
L'entità del disturbo è soggettiva, rende evidente che comunque si ha un'esperirenza migliore, in più si attutiscono episodi sfortunati.
Dire che te ne freghi dello stutterino e dei caricamenti, andrebbe premesso prima di parlare di sufficienza, non trovi?
Comunque è più di ciò che mi aspettavo. Chi si accontenta... :)
LurenZ87
14-06-2023, 12:09
Già adesso una 6950xt tiene testa ad una 4070 in rt
Ma dove scusa? Sul solito TechPowerUp! in 1440p RT la piccola Ada stacca la 6900XT del 20% (la 50 sarà lì più o meno) mentre in raster (la 6950XT) sarà un 10% più veloce.
Inviato dal mio Pixel 7 utilizzando Tapatalk
bagnino89
14-06-2023, 12:23
Ma dove scusa? Sul solito TechPowerUp! in 1440p RT la piccola Ada stacca la 6900XT del 20% (la 50 sarà lì più o meno) mentre in raster (la 6950XT) sarà un 10% più veloce.
Ma quando mai Gyammy ha azzeccato una percentuale? Per AMD si aumenta sempre, per Nvidia e Intel si diminuisce sempre.
ColdWarGuy
14-06-2023, 12:49
6800xt+15% è una 6950xt che fa a strisce una 4070 nel 90% dei casi
Sicuro ?
https://tpucdn.com/review/asus-geforce-rtx-4070-tuf/images/relative-performance-3840-2160.png
Sul RT l'ha ingrossata, ma in raster è vero, sempre se la 7800xt arriverà arriva alla 6950xt.
https://tpucdn.com/review/amd-radeon-rx-6950-xt-reference-design/images/relative-performance_3840-2160.png
Fai la differenza col tuo grafico, la 6950xt va come la 3090, ossia 3 punti sotto la 4070 Ti.
Diresti che la 4070 Ti cambia poco dalla liscia? in 4K la 6950xt guadagna meglio dalla banda aumentata.
Che poi non si capisce perché TPU si ostini a non considerarla, visto che di Nvidia ci sono pure i fratellastri.
Se mettevano pure le Super, il rapporto tra AMD e Nvidia sarebbe diventato di 2 a 1.
StylezZz`
14-06-2023, 13:35
Beh, non sono io quello che diceva che quando serviranno più di 8GB la 3070 e sorelle saranno inutili, che a 1080-1440p son più che sufficienti ecc... (il mantra è pure nella pagina scorsa)
servire inteso come indispensabili per giocare, ma ripeto, basta guardare vecchie schede come la 1060 e la 580, dove oggi arranca una arranca pure l'altra, i 2GB in più non hanno allungato la vita alla gpu...però puoi maxare le texture che nel 99,9% dei casi non portano nessun miglioramento tangibile, al contrario dell'efficienza o delle features in più offerte a suo tempo da Pascal.
Dire che te ne freghi dello stutterino e dei caricamenti, andrebbe premesso prima di parlare di sufficienza, non trovi?
Seriamente, tu stai davvero lì a cronometrare i caricamenti quando giochi? Qualche micro-stuttering ti rovina l'esperienza di gioco? Mettiamo da parte la teoria per un attimo e concentriamoci anche sulla pratica.
Comunque è più di ciò che mi aspettavo. Chi si accontenta... :)
ognuno si accontenta e sceglie la scheda in base alle proprie esigenze...io ho deciso di rinunciare alle texture ultra se mi creano problemi (che non mi cambiano nulla), ma poter usufruire del dlss e prestazioni rt superiori.
ColdWarGuy
14-06-2023, 15:27
Sul RT l'ha ingrossata, ma in raster è vero, sempre se la 7800xt arriverà arriva alla 6950xt.
Fai la differenza col tuo grafico, la 6950xt va come la 3090, ossia 3 punti sotto la 4070 Ti.
Diresti che la 4070 Ti cambia poco dalla liscia? in 4K la 6950xt guadagna meglio dalla banda aumentata.
Che poi non si capisce perché TPU si ostini a non considerarla, visto che di Nvidia ci sono pure i fratellastri.
Se mettevano pure le Super, il rapporto tra AMD e Nvidia sarebbe diventato di 2 a 1.
Non vedo la 4070 sul grafico che hai postato quindi non riesco a rapportare la cosa, comunque quello che ho postato io è relativo alle performances raster e non all'RT, che aggiungo in calce.
Io avevo grandi aspettative sulla 7800XT, poi Mikael mi ha ricondotto alla realtà :(, se poi salta fuori che per magia va come la 4070 Ti e costa 600 euro sono il primo della fila al giorno del lancio :D
https://tpucdn.com/review/asus-geforce-rtx-4070-tuf/images/relative-performance-rt-3840-2160.png
ninja750
14-06-2023, 16:20
se poi salta fuori che per magia va come la 4070 Ti e costa 600 euro sono il primo della fila al giorno del lancio :D
"magna tranquillo" (cit.)
ColdWarGuy
14-06-2023, 17:22
"magna tranquillo" (cit.)
In sostanza si profila l'ipotesi che rimarrò con quanto in firma per tutto il 2023 :D
OrazioOC
14-06-2023, 17:31
In sostanza si profila l'ipotesi che rimarrò con quanto in firma per tutto il 2023 :D
Farei anche 2024, visto che ste truffe su pcie express rimarranno in gamme per alemeno 2 anni dal lancio. :rolleyes:
Farei anche 2024, visto che ste truffe su pcie express rimarranno in gamme per alemeno 2 anni dal lancio. :rolleyes:
Dai che verso fine 2024 rilasceranno una 5060ti con prestazioni quasi da 4070 a soli 550 euro + iva.
ColdWarGuy
14-06-2023, 17:53
Dai che verso fine 2024 rilasceranno una 5060ti con prestazioni quasi da 4070 a soli 550 euro + iva.
Non stai però tenendo in considerazione il fondamentale apporto del DLSS 4, in 4K quality la scheda renderizzerà in realta a 720p e sarà ancora meglio dell'originale (cit.).
@StylezZz
Aridaglie con le texture maxate sempre a salve... (meno lo 0.1%) Dai, non ricominciamo. :)
La 580 vs 1060 era un caso che si avvicinava alla "vostra" interpretazioni odierna.
Ricordo che sul 1080p parlavi della 2060 allo stesso modo. Lì la questione è diversa.
La 580 ne ha beneficiato nell'eta della pensione e con qualche mod (discorso finora saltato), e il contro del +80% di consumo era pesante.
Con la diffusione deggli upscaler tramite AI che moddano quasi da soli, aumenterei la priorità del discorso mod come optional.
Non vedo la 4070 sul grafico che hai postato quindi non riesco a rapportare la cosa, comunque quello che ho postato io è relativo alle performances raster e non all'RT, che aggiungo in calce.
Io avevo grandi aspettative sulla 7800XT, poi Mikael mi ha ricondotto alla realtà :(, se poi salta fuori che per magia va come la 4070 Ti e costa 600 euro sono il primo della fila al giorno del lancio :D Ti basta prendere come riferimento la 3090.
Per me è improbabile che la 7800xt possa avvicinarsi troppo alla 7900xt, dovrebbero tirargli il collo. Così perderebbe del tutto nel confronto dell'efficienza.
Senza considerare il discorso del posizionamento di mercato. La 7900xt diventerebbe quasi inutile.
Io mi accontenterei se si avvicinasse alla 6900xt migliorandone l'efficienza (vero contro pesante di oggi col prezzo abbassato). Magari lasciando un po' di margine per chi volesse tirarla in privato.
Chiaramente la prima determinante sarà sempre il prezzo. Con perf. in raster tra la 4070 e la Ti, ma col prezzo sotto la prima, sarebbe più che buona.
Gyammy85
14-06-2023, 18:59
Chi vuole una 4070 a 600 euro sì prendesse quella, chi vuole una 4070ti a 900 idem, per tutti gli altri c'è la 7800 a 550
alethebest90
15-06-2023, 07:51
Chi vuole una 4070 a 600 euro sì prendesse quella, chi vuole una 4070ti a 900 idem, per tutti gli altri c'è la 7800 a 550
oddio è un bel parolone, finche non esce c'è la serie 6000
Gyammy85
15-06-2023, 08:55
oddio è un bel parolone, finche non esce c'è la serie 6000
Si ma siamo alle soglie delle 7700-7800
Ale55andr0
15-06-2023, 10:07
in quella zona c'è già la 4070 che si trova a 600€
Gli preferirei ruttaa vita la 7800 16gb. A 600 sarebbe mia.
ninja750
15-06-2023, 11:05
Gli preferirei ruttaa vita la 7800 16gb. A 600 sarebbe mia.
senza fakegenerator? e consumerà anche di più
Gli preferirei ruttaa vita la 7800 16gb. A 600 sarebbe mia.
o la 6950xt che si trova sui 600 circa ! valutala
Ale55andr0
15-06-2023, 11:17
senza fakegenerator? e consumerà anche di più
penso di aver ampiamente detto cosa ne penso di upscaler e fake-qualcosator. Se è sotto i 300w va bene, gestibili
o la 6950xt che si trova sui 600 circa ! valutala
A quei prezzi le trovi in negozi dove non comprerei nemmeno un appendi-abiti e cmq il prodotto "old gen" a lungo avrà un supporto che viene meno un po' prima. Se posso avere prestazioni simi con consumi inferiori e prodotto "fresco" di novità non ha molto senso. Spero siano disponibili per settembre che da quel mese in poi escono i titoli che mi interessano
Gyammy85
15-06-2023, 11:19
o la 6950xt che si trova sui 600 circa ! valutala
Bella scheda che spinge forte, ma forse conviene attendere le 7800, almeno uno recupera almeno 100 watt di consumi e migliori perf in rt
Si ma siamo alle soglie delle 7700-7800
Mi son perso qualche notizia?
Visto quanto mercato ha perso amd se non comincia a fare un po' di guerra, alla prossima generazione non ci saranno nemmeno più nel segmento delle dedicate. Una 7700xt sui 450 euro e una 7800xt sui 550 sarebbe un ottimo inizio.
ColdWarGuy
15-06-2023, 13:07
Mi son perso qualche notizia?
Visto quanto mercato ha perso amd se non comincia a fare un po' di guerra, alla prossima generazione non ci saranno nemmeno più nel segmento delle dedicate. Una 7700xt sui 450 euro e una 7800xt sui 550 sarebbe un ottimo inizio.
Si parla di Q4, quindi di acqua sotto i ponti deve passarne ancora molta.
Personalmente parlando posso dire di aver drasticamente perso entusiasmo per la 7800XT dopo aver visto i numeri di Igorlab che sono in linea con le caute previsioni di Mikael.
Se le frequenze di lavoro della versione di mercato non saranno sensibilmente più alte siamo di fronte ad una pseudo 6800XT con un RT migliorato e consumi leggermente inferiori, nulla di rivoluzionario, poi ognuno trae le proprie considerazioni.
ghiltanas
15-06-2023, 13:17
per me tanto dipenderà dal prezzo, sotto i 600, sui 550 diciamo, potrei anche tentare la vendita della 6700xt e fare il cambio :D
per me tanto dipenderà dal prezzo, sotto i 600, sui 550 diciamo, potrei anche tentare la vendita della 6700xt e fare il cambio :D
Esatto, sui 500-550€ potrebbe essere un buon acquisto, se la prezzano come la 4070 si tirano la zappa sui piedi secondo me.
ninja750
15-06-2023, 14:59
penso di aver ampiamente detto cosa ne penso di upscaler e fake-qualcosator. Se è sotto i 300w va bene, gestibili
avresti teoricamente pure meno perf RT.. dai che Giacco aspetta i tuoi money :ahahah:
Visto quanto mercato ha perso amd
aveva mercato?
dominator84
15-06-2023, 16:18
avresti teoricamente pure meno perf RT.. dai che Giacco aspetta i tuoi money :ahahah:
aveva mercato?
forse a san casciano, mi dicevano erano arrivati dei prodotti amd, per il resto non credo che a livello globale abbia poi così tanto mercato st'azienducola
qualche server e console qua e là
Ale55andr0
15-06-2023, 19:05
avresti teoricamente pure meno perf RT.. dai che Giacco aspetta i tuoi money :ahahah:
aveva mercato?
e ma l'RT è superato, adesso ci vuole il PT, e siccome in quello tutto cio' che sta sotto una 4090 fa cagare senza upscale e fake-qualcosator (ma pure quella quasi quasi :asd:) me ne impippo potentemente :O anzi pure troppo, mi sono sbucciato per l'eccessivo entusiasmo nel compiere l'atto :O
aveva mercato?
:unpochino: :ciapet:
ColdWarGuy
15-06-2023, 23:07
:unpochino: :ciapet:
https://cdn.wccftech.com/wp-content/uploads/2022/11/Q3-2022-Intel-NVIDIA-AMD-GPU-Market-Share-Report-JPR-_-dGPU-vs-iGPU-1456x735.jpg
Gyammy85
16-06-2023, 06:09
Wow ancora a postare i grafici di quanto è inadeguata AMD, dov'è la media di tpu, sono ben due post che non appare :eek:
ColdWarGuy
16-06-2023, 07:01
Wow ancora a postare i grafici di quanto è inadeguata AMD, dov'è la media di tpu, sono ben due post che non appare :eek:
Hai provato a consultare uno bravo ?
Ale55andr0
16-06-2023, 07:37
Wow ancora a postare i grafici di quanto è inadeguata AMD, dov'è la media di tpu, sono ben due post che non appare :eek:
Può darti tutto il fastidio che vuoi, resta la verità. L'idiozia (di AMD) sta nel credersi pure nvidia, ergo prezzare in modo ignobile pur essendo mostruosamente dietro nelle vendite, e pure tecnicamente, e permettersi anche di non far uscire il resto della gamma. Vogliono proprio chiudere la divisione gpu, buon per loro
Gyammy85
16-06-2023, 07:43
Può darti tutto il fastidio che vuoi, resta la verità. L'idiozia (di AMD) sta nel credersi pure nvidia, ergo prezzare in modo ignobile pur essendo mostruosamente dietro nelle vendite, e pure tecnicamente, e permettersi anche di non far uscire il resto della gamma. Vogliono proprio chiudere la divisione gpu, buon per loro
Ma a te consumatore cosa interessa? Mostruosamente indietro è la solita sparata da forum
nessuno29
16-06-2023, 07:49
Può darti tutto il fastidio che vuoi, resta la verità. L'idiozia (di AMD) sta nel credersi pure nvidia, ergo prezzare in modo ignobile pur essendo mostruosamente dietro nelle vendite, e pure tecnicamente, e permettersi anche di non far uscire il resto della gamma. Vogliono proprio chiudere la divisione gpu, buon per loro
Alessandro l'unica possibilità per AMD è quella di fare il gioco di Nvidia, cercando quindi di mantenere un buon margine e vendendo qualcosa a quei pochi che convince. Con la guerra sui prezzi Nvidia abbasserebbe anche le sue gpu visto i margini che ha e sarebbe punto e a capo per AMD, meglio vendere poco overprezzato che poco in saldo.
Legolas84
16-06-2023, 08:08
Wow ancora a postare i grafici di quanto è inadeguata AMD, dov'è la media di tpu, sono ben due post che non appare :eek:
Ogni tanto bisogna riportare tutte le sparate sul piano della realtà... quel grafico aiuta :)
Gyammy85
16-06-2023, 08:11
Alessandro l'unica possibilità per AMD è quella di fare il gioco di Nvidia, cercando quindi di mantenere un buon margine e vendendo qualcosa a quei pochi che convince. Con la guerra sui prezzi Nvidia abbasserebbe anche le sue gpu visto i margini che ha e sarebbe punto e a capo per AMD, meglio vendere poco overprezzato che poco in saldo.
Certo che devono essere davvero pochi questi pochi, fossero stati di più avrebbe chiuso prima
RoUge.boh
16-06-2023, 08:25
Alessandro l'unica possibilità per AMD è quella di fare il gioco di Nvidia, cercando quindi di mantenere un buon margine e vendendo qualcosa a quei pochi che convince. Con la guerra sui prezzi Nvidia abbasserebbe anche le sue gpu visto i margini che ha e sarebbe punto e a capo per AMD, meglio vendere poco overprezzato che poco in saldo.
mio modo di pensare:
la realtà e che non interessa vendere... se hai un targhet di vendita e sicuramente non lo centri beh... meglio vendere a caro prezzo quel "poco" però cosi blocchi la filiera di produzione..
Il risultato e che, facendo il gioco di Nvidia AMD ha perso terreno la serie 7x00 non è stata una b ella serie per come è prezzata, per il marketing che c'è dietro ma anche per la disponibilità e la scelta a livello di parthner.. caseking ha 3 pagine di schede AMD vs 10 pagine di schede NVIDIA. e non è un caso.
Gyammy85
16-06-2023, 08:36
mio modo di pensare:
la realtà e che non interessa vendere... se hai un targhet di vendita e sicuramente non lo centri beh... meglio vendere a caro prezzo quel "poco" però cosi blocchi la filiera di produzione..
Il risultato e che, facendo il gioco di Nvidia AMD ha perso terreno la serie 7x00 non è stata una b ella serie per come è prezzata, per il marketing che c'è dietro ma anche per la disponibilità e la scelta a livello di parthner.. caseking ha 3 pagine di schede AMD vs 10 pagine di schede NVIDIA. e non è un caso.
Soprattutto perché i partner nvidia fanno 10 schede tutte uguali per ogni modello, roba che si differenzia per 10 MHz di oc o lucine in più o in meno, ovvio che riempi gli shop
Poi se le rilevazioni le fai solo negli shop dove si vende solo nvidia guarda guarda un pò, l'80% sono nvidia
nessuno29
16-06-2023, 08:45
Certo che devono essere davvero pochi questi pochi, fossero stati di più avrebbe chiuso prima
Sono l'8% gyammy, e ci sono anche tutte le AMD dentro, sono pochissimi non pochi. Lo confermano i 4 gatti che hanno delle 7000 nel case. AMD vendeva quando aveva schede di buona qualità a basso prezzo.
Ale55andr0
16-06-2023, 09:09
Ma a te consumatore cosa interessa? Mostruosamente indietro è la solita sparata da forum
no, sono fatti, le sparate le fai tu con il tuo "autocontrotrollismoconavvitamentoemezzo".
Da consumatre mi importa perchè così per un acquisto ho meno scelta e prezzi peggiori, genio! :doh:
Alessandro l'unica possibilità per AMD è quella di fare il gioco di Nvidia, cercando quindi di mantenere un buon margine e vendendo qualcosa a quei pochi che convince. Con la guerra sui prezzi Nvidia abbasserebbe anche le sue gpu visto i margini che ha e sarebbe punto e a capo per AMD, meglio vendere poco overprezzato che poco in saldo.
con la guerra ai prezzi nvidia costerebbe SEMPRE di più ergo non si sarebbe punto e a capo, ma si sarebbe in una situazione in toto migliore. In passato quando AMD era arrivata al 40% non ci era arrivata con politiche idiote e prodotti monchi
Sono l'8% gyammy, e ci sono anche tutte le AMD dentro, sono pochissimi non pochi. Lo confermano i 4 gatti che hanno delle 7000 nel case. AMD vendeva quando aveva schede di buona qualità a basso prezzo.
visto che ti sei risposto da solo :D, altro che punto e a capo.
Gyammy85
16-06-2023, 09:50
Sono l'8% gyammy, e ci sono anche tutte le AMD dentro, sono pochissimi non pochi. Lo confermano i 4 gatti che hanno delle 7000 nel case. AMD vendeva quando aveva schede di buona qualità a basso prezzo.
Ma chi ci crede, cioè intel sarebbe al 4%, ma dove? per quattro arc pompate da youtube? AMD sta iniziando a vendere ora molto più di prima, e sopra la soglia psicologica del "io più di 300 euro per la tua vga non spendo" della clientela "affezionata"
Guardati mindfactory dove si è passati da uno strutturale 70/30 per nvidia ad uno strutturale 50/50, e vorrebbero far credere di essere 8 vs 90? Poi si viene a scoprire che jpr prende i dati dagli shop nvidia, uh guarda alla concessionaria mercedes vendono il 90% di mercedes e l'8% di bmw, bmw stai dalla parte dei camion, a noi poveri automobilisti non ci pensi
Per cui quelle cifre sono marketing autoalimentato, nvidia ha si più diffusione ma non così tanto come vorrebbero far credere
Alodesign
16-06-2023, 09:51
Questa è la TOP 10 delle schede usate dagli utenti di STEAM:
1- NVIDIA GeForce GTX 1650 6.07%
2 - NVIDIA GeForce GTX 1060 4.94%
3- NVIDIA GeForce RTX 3060 4.90%
4 - NVIDIA GeForce RTX 3060 Laptop GPU 4.54%
5 - NVIDIA GeForce RTX 2060 4.53%
6 - NVIDIA GeForce GTX 1050 Ti 3.83%
7 - NVIDIA GeForce RTX 3060 Ti 3.33%
8 - NVIDIA GeForce RTX 3070 3.06%
9 - NVIDIA GeForce RTX 3050 2.80%
10 - NVIDIA GeForce GTX 1660 SUPER 2.66%
Che insieme fanno il 43%
La 3080 sta giusto al 1,8%
La prima 40x0 che si trova sta allo 0,4%
La serie 7x00 di AMD non compare proprio.
Qui non si parla di tecnologie, DLSS, FSR, etc.
Qui si parla che la gente non ha voglia di spendere per giocare.
Che l'uber fatturato di NVIDIA è dato dalla vendita di schedine low/mid range. Che tanto per giocare a CS, DOTA e simili non c'è bisogno della 4090, e tantomeno delle 7800
Gyammy85
16-06-2023, 09:53
Ed ecco che arriva puntuale steam survey, dove non ci sono le 7000, ma neanche le 6000, le 5000, le vega, le polaris, le r9, le hd, le 9800, le 9700 e le rage, so trent'anni che non ne vendono neanche una? Eddai...
Alodesign
16-06-2023, 10:13
Ed ecco che arriva puntuale steam survey, dove non ci sono le 7000, ma neanche le 6000, le 5000, le vega, le polaris, le r9, le hd, le 9800, le 9700 e le rage, so trent'anni che non ne vendono neanche una? Eddai...
Su cosa possiamo basarci allora?
Io trovo questa come chart utile. Tu?
Perché è utile a tutti avere una chart veritiera, quindi tirala fuori.
nessuno29
16-06-2023, 10:27
Ed ecco che arriva puntuale steam survey, dove non ci sono le 7000, ma neanche le 6000, le 5000, le vega, le polaris, le r9, le hd, le 9800, le 9700 e le rage, so trent'anni che non ne vendono neanche una? Eddai...
Ci sono, semplicemente hanno percentuali minime, su steam sono al 12% totale.
La prima scheda discreta AMD è la rx 580 con l'1.17% la prima 6000 è la 6700xt con lo 0.47%...
VanCleef
16-06-2023, 10:50
Per vendere le GPU, ci devono essere...
Fatti un giro sui siti tipo euronics, mediaworld ecc... Quante GPU discrete AMD ci sono nei preassemblati? Quasi zero.
Fatti un giro sui siti più dedicati, assemblatori online ecc... quali sono le proposte preconfezionate?
APU AMD o GPU discreta Nvidia...
Non sto dicendo che sia giusto così, ma la realtà è fatta di persone che giocano su steam ma il pc mica se lo assemblano loro...
StylezZz`
16-06-2023, 11:00
da unieuro l'altro giorno ho visto solo pc gaming (devo dire molto economici :D) con rtx 3060/3070, amd come se non esistesse.
Alodesign
16-06-2023, 11:05
Per vendere le GPU, ci devono essere...
Fatti un giro sui siti tipo euronics, mediaworld ecc... Quante GPU discrete AMD ci sono nei preassemblati? Quasi zero.
Fatti un giro sui siti più dedicati, assemblatori online ecc... quali sono le proposte preconfezionate?
APU AMD o GPU discreta Nvidia...
Non sto dicendo che sia giusto così, ma la realtà è fatta di persone che giocano su steam ma il pc mica se lo assemblano loro...
Il problema generale è che si pensa che l'utente di un forum che si costruisce il pc da solo, sia la base da cui partire per valutare tutti i giocatori nel mondo.
Quando invece la realtà maggiore è fatta di persone che si comprano i preassemblati o per se o per i figli.
Poi ci sono le persone che si assemblano i pc in casa, ma hanno un budget totale di 1000€/$/£.
Poi arrivano quelli che si comprano i preassemblati top gamma.
Infine arriva l'utente del forum.
ninja750
16-06-2023, 11:35
https://ir.amd.com/news-events/press-releases/detail/1115/amd-reports-fourth-quarter-and-full-year-2022-financial
nel 2022 hanno fatturato 7 miliardi nel segmento operativo "discrete GPUs, semi-custom SoC products and development services."
ipotizzando 400$ per "roba" venduta fanno 17.500.000 di pezzi
contro i 5.000.000 delle statistiche di JPR.. per dire
nessuno29
16-06-2023, 11:50
https://ir.amd.com/news-events/press-releases/detail/1115/amd-reports-fourth-quarter-and-full-year-2022-financial
nel 2022 hanno fatturato 7 miliardi nel segmento operativo "discrete GPUs, semi-custom SoC products and development services."
ipotizzando 400$ per "roba" venduta fanno 17.500.000 di pezzi
contro i 5.000.000 delle statistiche di JPR.. per dire
Ci sono anche le console, il tuo calcolo è un pò approssimativo ahah
Legolas84
16-06-2023, 11:55
https://ir.amd.com/news-events/press-releases/detail/1115/amd-reports-fourth-quarter-and-full-year-2022-financial
nel 2022 hanno fatturato 7 miliardi nel segmento operativo "discrete GPUs, semi-custom SoC products and development services."
ipotizzando 400$ per "roba" venduta fanno 17.500.000 di pezzi
contro i 5.000.000 delle statistiche di JPR.. per dire
Cavolo dovresti scrivergli e farglielo notare visto che in due secondi hai trovato e risolto un errore che era sotto gli occhi di tutti, fatto da una realtà piuttosto importante e famosa :)
Pensare che ci sono professionisti pagati per fare queste ricerche, e poi fanno errori così grossolani che basta un utente di un forum per trovarli :)
Inviato dal mio iPhone utilizzando Tapatalk Pro
Gyammy85
16-06-2023, 11:55
Su cosa possiamo basarci allora?
Io trovo questa come chart utile. Tu?
Perché è utile a tutti avere una chart veritiera, quindi tirala fuori.
Non esistono dati ufficiali, nessuno li diffonde, l'unico dato certo è mindfactory perché ti da le schede vendute modello per modello settimanalmente
Gyammy85
16-06-2023, 11:58
https://ir.amd.com/news-events/press-releases/detail/1115/amd-reports-fourth-quarter-and-full-year-2022-financial
nel 2022 hanno fatturato 7 miliardi nel segmento operativo "discrete GPUs, semi-custom SoC products and development services."
ipotizzando 400$ per "roba" venduta fanno 17.500.000 di pezzi
contro i 5.000.000 delle statistiche di JPR.. per dire
Credo che a loro vada molto meno su ogni scheda, posto che lì ci sono anche le console, ma se mettiamo che amd fatturava 4 milardi all'anno in tutto vs 7 miliardi solo graphics, la dice lunga su quante ne vendessero ai "bei tempi"
VanCleef
16-06-2023, 12:09
Non esistono dati ufficiali, nessuno li diffonde, l'unico dato certo è mindfactory perché ti da le schede vendute modello per modello settimanalmente
Magari fossero trasparenti tutti come mindfactory, tuttavia anche quello è un dato molto parziale e specifico ad una sola fetta di mercato.
Alodesign
16-06-2023, 13:10
Non esistono dati ufficiali, nessuno li diffonde, l'unico dato certo è mindfactory perché ti da le schede vendute modello per modello settimanalmente
mindfactory.de?
Cioè mi da le schede vendute da loro? In Germania?
Chiedo
A parte qualche appassionato che guarda grafici e si autoconvince di ragioni varie per comprare AMD l'utente medio ha sempre comprato Nvidia di default dalla notte dei tempi. Siti come mindfactory lasciano il tempo che trovano, sono siti per appassionati, una nicchia della nicchia del mercato.
Fa bene AMD a fare il minimissimo indispensabile lato GPU, tanto pure che facesse GPU buone rimarrebbero sullo scaffale come sempre, le compreremmo giusto noi qualcuno qui su hwupgrade e solo "perche' non ci importa di rt, di dlss, gsync, ecc, ecc".
ninja750
16-06-2023, 13:29
Ci sono anche le console, il tuo calcolo è un pò approssimativo ahah
certo che è approssimativo e grossolano, così come mediare su 400 roba che magari vendi a 200 e 600, le console stanno lì
Cavolo dovresti scrivergli e farglielo notare visto che in due secondi hai trovato e risolto un errore che era sotto gli occhi di tutti, fatto da una realtà piuttosto importante e famosa :)
Pensare che ci sono professionisti pagati per fare queste ricerche, e poi fanno errori così grossolani che basta un utente di un forum per trovarli :)
mah guarda i dati di fatturato e revenue sono pubblicati sul loro sito, avranno evidentemente mentito anche agli azionisti. io davo per scontato che il mondo non è quello di mindfactory né quello del survey e jpm credendo che la logica verità stia nel mezzo, ma fai giustamente notare che un utente del forum deve prendere buoni quei dati quindi aspettiamo fine mese per vedere se i dipendenti di amd rtg verranno pagati o no
fossi io a capo di una multinazionale dove ho uno share già raggiunto dal terzo competitor arrivato l'altro ieri, prima cosa taglierei il ramo aziendale e non ci butterei altri milioni, ma sono ragionamenti da forumista
StylezZz`
16-06-2023, 13:31
Fa bene AMD a fare il minimissimo indispensabile lato GPU, tanto pure che facesse GPU buone rimarrebbero sullo scaffale come sempre, le compreremmo giusto noi qualcuno qui su hwupgrade e solo "perche' non ci importa di rt, di dlss, gsync, ecc, ecc"
Allora avrebbe dovuto fare lo stesso con le cpu, perchè tanto tutti compravano intel (chissà perchè) :rolleyes:
bagnino89
16-06-2023, 13:32
Ed ecco che arriva puntuale steam survey, dove non ci sono le 7000, ma neanche le 6000, le 5000, le vega, le polaris, le r9, le hd, le 9800, le 9700 e le rage, so trent'anni che non ne vendono neanche una? Eddai...
Hai ragione, è ovvio che sia un complotto dei poteri forti che vogliono illuderci che AMD venda poche GPU.
nessuno29
16-06-2023, 13:59
certo che è approssimativo e grossolano, così come mediare su 400 roba che magari vendi a 200 e 600, le console stanno lì
certo perché sui ricavi AMD devi contarci tutti e 500 dollari della console, mica solo l'apu...
Andy1111
16-06-2023, 14:33
Secondo me JPR non è il santo graal, sicuramente nvidia vende più di amd poco ma sicuro , ma sicuramente non sono le percentuali che JPR afferma, perchè il modo in cui calcola il tutto è molto ambiguo e frammentato.
Un assaggio si è avuto con l'errore commesso con ponte vecchio di intel
https://nvidianews.nvidia.com/news/nvidia-announces-financial-results-for-fourth-quarter-and-fiscal-2023
https://ir.amd.com/news-events/press-releases/detail/1115/amd-reports-fourth-quarter-and-full-year-2022-financial
Gaming
Fourth-quarter revenue was $1.83 billion, down 46% from a year ago and up 16% from the previous quarter. Fiscal-year revenue was down 27% to $9.07 billion.
Gaming segment revenue was $1.6 billion, down 7% year-over-year driven by lower gaming graphics sales partially offset by higher semi-custom product revenue.
https://investor.nvidia.com/news/press-release-details/2023/NVIDIA-Announces-Financial-Results-for-First-Quarter-Fiscal-2024/default.aspx
https://www.amd.com/en/newsroom/press-releases/2023-5-2-amd-reports-first-quarter-2023-financial-results.html
https://www.anandtech.com/show/18845/amd-reports-q1-2023-earnings-back-into-the-red-as-client-sales-crumble
First-quarter revenue was $2.24 billion, down 38% from a year ago and up 22% from the previous quarter.
For the quarter, AMD booked $1.8B in revenue for the Gaming segment, down 6% from the year-ago quarte
A parte qualche appassionato che guarda grafici e si autoconvince di ragioni varie per comprare AMD l'utente medio ha sempre comprato Nvidia di default dalla notte dei tempi. Siti come mindfactory lasciano il tempo che trovano, sono siti per appassionati, una nicchia della nicchia del mercato.
Fa bene AMD a fare il minimissimo indispensabile lato GPU, tanto pure che facesse GPU buone rimarrebbero sullo scaffale come sempre, le compreremmo giusto noi qualcuno qui su hwupgrade e solo "perche' non ci importa di rt, di dlss, gsync, ecc, ecc".
Non dirmi che sei serio
Gyammy85
16-06-2023, 16:58
Ecco la 7800xt
https://videocardz.com/newz/asrock-radeon-rx-7800-xt-graphics-card-with-16gb-vram-spotted-at-eec#disqus_thread
LurenZ87
16-06-2023, 17:12
Ecco la 7800xt
https://videocardz.com/newz/asrock-radeon-rx-7800-xt-graphics-card-with-16gb-vram-spotted-at-eec#disqus_threadMaaaa...
"Il coccodrillo come fa???" :asd: :D
Inviato dal mio Pixel 7 utilizzando Tapatalk
OrazioOC
16-06-2023, 17:35
Ah quindi esiste? O meglio esisterà?
Buono a sapersi. :D
Gyammy85
16-06-2023, 17:58
Luglio/agosto esce
ancora non ho capito se la 7800xt si fara' con navi31 cut o navi32 full
comunque navi32 e' un grande miglioramento rispetto a navi22, piu' 50% di CU oltre quel poco che offre rdna3, praticamente e' il progetto jolly di questa generazione, ci faranno dalla 7600xt a 7700/xt, 7800/xt?:eek:
poi se si spicciano con FSR3..
Gyammy85
17-06-2023, 07:58
ancora non ho capito se la 7800xt si fara' con navi31 cut o navi32 full
comunque navi32 e' un grande miglioramento rispetto a navi22, piu' 50% di CU oltre quel poco che offre rdna3, praticamente e' il progetto jolly di questa generazione, ci faranno dalla 7600xt a 7700/xt, 7800/xt?:eek:
poi se si spicciano con FSR3..
Non si sa ancora, si è sempre parlato di 60 cu
Fsr3 è già un fail, non è il dlss3, se gira solo su rdna3 "AMD ma dove devi andare ma pensi che se nvidia con sto upscaler da due soldi io ho speso ben 150 euro e devi pensare anche a me", se lo fanno per tutte pernacchie e risate dal mondo techtuber
nessuno29
17-06-2023, 09:37
L'FSr3 lo aspettano di più i possessori di RTX 3000 ahaha se sarà esclusiva prevedo un sacco di piagnistei (io lo spero).
Ale55andr0
17-06-2023, 09:48
L'FSr3 lo aspettano di più i possessori di RTX 3000 ahaha se sarà esclusiva prevedo un sacco di piagnistei (io lo spero).
cioè speri di non poter usufruire di una funzione che potrebbe tornarti utile?
L'FSr3 lo aspettano di più i possessori di RTX 3000 ahaha se sarà esclusiva prevedo un sacco di piagnistei (io lo spero).
ma lfsr 3 sarà utilizzabile anche dai possessori delle radeon serie 6xxx? comunque a me non piace ....
ma io pure spero che FSR3 sara' supportato esclusivamente da rdna3, o almeno per la massima qualita' e prestazioni, magari aiutato dai core AI
poi eventualmente con qualita' inferiore anche con la serie precedente
ma in ogni caso nel modo piu' assoluto dovrebbero evitare il supporto alle gpu concorrenti
certo il tutto deve essere processato internamente e via driver, perche se dipendi dal supporto delle swh..con uno share mono cifra non ti si fila nessuno, costretta a regalarsi alla concorrenza che non ti regala niente:(
al massimo potrebbero fare un accordo con intel, che aiutandosi a vicenda possono rinforzarsi e puntare a quel 90% e oltre di mercato in mano a una sola azienda, piuttosto che litigare fra loro per quel misero 4~8% rimasto
nessuno29
17-06-2023, 11:34
cioè speri di non poter usufruire di una funzione che potrebbe tornarti utile?
Spero in una funzione che sfrutti l'hw delle 7000 in modo da garantire una qualità adeguata. L'FSR ha salvato il culo a tutti in pandemia e va bene, però AMD deve evolversi.
Luglio/agosto esce
dici?
così cambio la mia 6800 :rolleyes: (se ha senso cioè +30%)
ColdWarGuy
17-06-2023, 12:16
Luglio/agosto esce
Prego citare fonte.
Ale55andr0
17-06-2023, 14:24
Prego citare fonte.
#ammiocuggino (ma non il mio :O)
Spero in una funzione che sfrutti l'hw delle 7000 in modo da garantire una qualità adeguata. L'FSR ha salvato il culo a tutti in pandemia e va bene, però AMD deve evolversi.
ci credo poco, comunque non credo cambierebbe chissà cosa anche fosse
bagnino89
17-06-2023, 14:27
Prego citare fonte.
Gyammy lavora per AMD, non lo sapevi?
Secondo me buttare fuori a luglio/agosto una vga è da suicidio commerciale in quanto non essendo più in pandemia la gente questi due mesi investe nelle vacanze, non sulle vga che non usano perchè son sempre fuori casa.
Per me ste 7800 xt non le vediamo prima di fine settembre / inizio ottobre.
Poi felice di esser smentito eh, sarei curioso di rimettere una AMD nel case dopo molti anni. :)
Ale55andr0
17-06-2023, 14:48
Secondo me buttare fuori a luglio/agosto una vga è da suicidio commerciale in quanto non essendo più in pandemia la gente questi due mesi investe nelle vacanze, non sulle vga che non usano perchè son sempre fuori casa.
Per me ste 7800 xt non le vediamo prima di fine settembre / inizio ottobre.
Poi felice di esser smentito eh, sarei curioso di rimettere una AMD nel case dopo molti anni. :)
non sarebbe un problema, è proprio a settembre/ottobre che usciranno i gioconi di quest'annata...però una uscita estiva permetterebbe di aspettare con tempismo perfetto che si assestino i prezzi visto che al lancio sono sempre molto gonfiati
non sarebbe un problema, è proprio a settembre/ottobre che usciranno i gioconi di quest'annata...però una uscita estiva permetterebbe di aspettare con tempismo perfetto che si assestino i prezzi visto che al lancio sono sempre molto gonfiati
Vero, oggettivamente di solito è metà giugno il periodo massimo per lanciare vga, però bisogna anche dire che AMD non è nuova ai lanci estivi, vedasi la RX 5700xt uscita a inizio luglio.
Se prezzata bene potrebbe essere una validissima alternativa alle soluzioni di giacchets.
Gyammy85
17-06-2023, 15:18
Secondo me buttare fuori a luglio/agosto una vga è da suicidio commerciale in quanto non essendo più in pandemia la gente questi due mesi investe nelle vacanze, non sulle vga che non usano perchè son sempre fuori casa.
Per me ste 7800 xt non le vediamo prima di fine settembre / inizio ottobre.
Poi felice di esser smentito eh, sarei curioso di rimettere una AMD nel case dopo molti anni. :)
Vega venne lanciata ad agosto, potrebbe anche essere...non è che una VGA e la vacanza siano succedanei
ColdWarGuy
17-06-2023, 15:45
Gyammy lavora per AMD, non lo sapevi?
No ...
dici?
così cambio la mia 6800 :rolleyes: (se ha senso cioè +30%)
Beh se prendesse la 4070ti e fosse a un prezzo "onesto" forse sì.
ColdWarGuy
17-06-2023, 19:00
Beh se prendesse la 4070ti e fosse a un prezzo "onesto" forse sì.
Una 7800XT al pari della 4070 Ti, con 16GB a 600 euro farebbe felice parecchie persone compreso il sottoscritto, tornando alla domanda di "floop" se prendi i numeri di Igorslab con la W7800 riscalati per la RX 7800 e li compari con la 6800XT a 4K hai un incremento medio di +12%, ad oggi non conosciamo le frequenze di lavoro definitive ma temo che il +30% non verrà raggiunto :
https://www.igorslab.de/wp-content/uploads/2023/06/22-UHD-Index.png
Ale55andr0
17-06-2023, 19:21
ma dico, aspettare anche solo che esista? :asd: cmq bisogna vedere a che si riferiscono quelle medie, la 6900 in raster è una 3090, la vedo dietro una 80ti, magari è un average compreso rt
Gyammy85
17-06-2023, 19:22
Test a caso con una VGA che ha driver non ottimizzati per i giochi
ColdWarGuy
17-06-2023, 19:22
ma dico, aspettare anche solo che esista? :asd:
Dici poco, l'attesa sarà un calvario ... :D
Ale55andr0
17-06-2023, 19:26
Dici poco, l'attesa sarà un calvario ... :D
esiste solo un mondo, quello prima del 6 settembre, e quello dopo, si può benissimo aspettare almeno per allora :O
esiste solo un mondo, quello prima del 6 settembre, e quello dopo, si può benissimo aspettare almeno per allora :O
Io nell'attesa della 7800xt mi rallegro con le vecchie sorelle e Far Cry che mi danno sempre soddisfazione. :ciapet:
https://i.ibb.co/BcRNh7d/20230130-212000.jpg (https://ibb.co/S5prk1W)
mikael84
17-06-2023, 20:52
ma io pure spero che FSR3 sara' supportato esclusivamente da rdna3, o almeno per la massima qualita' e prestazioni, magari aiutato dai core AI
poi eventualmente con qualita' inferiore anche con la serie precedente
ma in ogni caso nel modo piu' assoluto dovrebbero evitare il supporto alle gpu concorrenti
certo il tutto deve essere processato internamente e via driver, perche se dipendi dal supporto delle swh..con uno share mono cifra non ti si fila nessuno, costretta a regalarsi alla concorrenza che non ti regala niente:(
al massimo potrebbero fare un accordo con intel, che aiutandosi a vicenda possono rinforzarsi e puntare a quel 90% e oltre di mercato in mano a una sola azienda, piuttosto che litigare fra loro per quel misero 4~8% rimasto
Spero in una funzione che sfrutti l'hw delle 7000 in modo da garantire una qualità adeguata. L'FSR ha salvato il culo a tutti in pandemia e va bene, però AMD deve evolversi.
Le unità matriciali di RDNA3 sono scarse, ed ancora bisogna vederle sul campo. Al momento sappiamo solo che sono programmate a 64 ops o 2x le RDNA2. Sono dimezzate rispetto a CDNA.
Da RDNA1/2 hanno fatto un cambiamento, per integrare le matrici, hanno partizionato le pipeline, ovvero prima si poteva splittare una FP32 in 2x FP16 o 4 x int8, ora con RDNA3 è tutto a carico delle matrici ed i software neppure le rilevano.
Al momento è una pecca di RDNA3 in quanto era stata proprio AMD a permettere lo splittamento delle unità e questo comporta che in caso di utilizzo di FP16, GCN o RDNA1/2 poteva splittare le fp, dimezzando l'utilizzo dei registri, ora non si può fare.
https://i.postimg.cc/PqZG3vZ2/split.png
In caso di uso matriciale i picchi di RDNA3 rimangono più elevati, ma al momento le pipeline classiche per effettuare FP16 evono usare le FP32, come faceva nvidia con Maxwell-Pascal.
mikael84
17-06-2023, 21:20
Una 7800XT al pari della 4070 Ti, con 16GB a 600 euro farebbe felice parecchie persone compreso il sottoscritto, tornando alla domanda di "floop" se prendi i numeri di Igorslab con la W7800 riscalati per la RX 7800 e li compari con la 6800XT a 4K hai un incremento medio di +12%, ad oggi non conosciamo le frequenze di lavoro definitive ma temo che il +30% non verrà raggiunto :
Per prendere una 4070ti, ci vorrebbero almeno 4832 shader/int38 (in raster almeno):)
La scheda testata da igor è un modella squartato di navi31 con 4480 shader, ma non si conoscono i clock reali del test, e purtroppo quel modello è dotato della 18 gb/s vs le 20, che portano la bw a 576gb/s, un valore vicino a quello di AD104.
La 7800xt dovrebbe essere basata su navi32, ovvero un chip da 3840 shader wave64, e le ram a 20 gb/s.
Una 6800 liscia rivista in clock e funzioni RDNA3, oltre che 32 rop's e BW maggiorata.
La 6800xt dovrebbe prenderla e probabilmente passarla, ma è da vedere test su test.:)
Gyammy85
18-06-2023, 08:16
6800+30% si arriva nei dintorni della 6950, in 260 watt, facciamola semplice
E ci sta alla adeguata distanza con la 7900xt
Lato RT andrebbe generalmente come la 4070, e sarebbe un bel goal
Certo il prezzo dovrà andare sotto le scarpe per tutta una serie di motivi dato che la 4070 strix viene solo 750 spedita e ti danno pure la scatola
Ah già il prezzo giusto è quello della inno3d di plastica biventola :fagiano:
ColdWarGuy
18-06-2023, 10:45
Riguardo al seguente articolo :
AMD Radeon RX 7800 XT Custom Design From ASRock Spotted, Features 16 GB VRAM (https://wccftech.com/amd-radeon-rx-7800-xt-custom-design-from-asrock-spotted-features-16-gb-vram/)
mi sembra di capire che NAVI32, 16GB e bus 256bits siano confermati, rimangono da capire frequenze e prezzo.
Se ho inteso bene il discorso di Mikael a livello prestazioni siamo in linea con la 6800XT e dato che quest'ultima si trova già adesso a 550 euro in versioni anche "paffute" non sarà facile per AMD prezzare la 7800XT, soprattutto nel mercato EU con la "beneamata" imposta sul valore aggiunto (e ci sono stati che superano il nostro 22% ...).
PS: ho appena aggiunto un utente nella lista di quelli da ignorare (prima volta nella mia vita) e l'effetto è molto più gradevole del previsto.
ghiltanas
18-06-2023, 11:01
Il fatto è che la linea è cambiata rispetto alle 6000, prima avevamo 6900xt e poi 6800xt, ora invece 2 7900.
La 7800xt probabilmente sarà la sostituta della 6800 liscia.
Magari più avanti nel mezzo ci piazzano una 7900 liscia e questa andrà in competizione con la 4070ti
ColdWarGuy
18-06-2023, 11:18
Il fatto è che la linea è cambiata rispetto alle 6000, prima avevamo 6900xt e poi 6800xt, ora invece 2 7900.
La 7800xt probabilmente sarà la sostituta della 6800 liscia.
Magari più avanti nel mezzo ci piazzano una 7900 liscia e questa andrà in competizione con la 4070ti
Domanda per Mikael : una ipotetica 7900 "liscia" in cosa potrebbe differire da una 7900 XT ?
mikael84
18-06-2023, 11:51
Riguardo al seguente articolo :
AMD Radeon RX 7800 XT Custom Design From ASRock Spotted, Features 16 GB VRAM (https://wccftech.com/amd-radeon-rx-7800-xt-custom-design-from-asrock-spotted-features-16-gb-vram/)
mi sembra di capire che NAVI32, 16GB e bus 256bits siano confermati, rimangono da capire frequenze e prezzo.
Se ho inteso bene il discorso di Mikael a livello prestazioni siamo in linea con la 6800XT e dato che quest'ultima si trova già adesso a 550 euro in versioni anche "paffute" non sarà facile per AMD prezzare la 7800XT, soprattutto nel mercato EU con la "beneamata" imposta sul valore aggiunto (e ci sono stati che superano il nostro 22% ...).
PS: ho appena aggiunto un utente nella lista di quelli da ignorare (prima volta nella mia vita) e l'effetto è molto più gradevole del previsto.
La 6800 potrebbe pure passarla, ma mediamente siamo li, qualcosa in più vs la 4070 in raster.
Per i prezzi, stessa tecnica di nvidia con la 4060ti, faranno una sostituzione praticamente. :)
Penso che la piazzino tra i 599 ed i 699
Il fatto è che la linea è cambiata rispetto alle 6000, prima avevamo 6900xt e poi 6800xt, ora invece 2 7900.
La 7800xt probabilmente sarà la sostituta della 6800 liscia.
Magari più avanti nel mezzo ci piazzano una 7900 liscia e questa andrà in competizione con la 4070ti
Teoricamente la 7800xt è la sostituta della 6700, ovvero navi32 full, ma qui ha cambiato nome, come la 4060 in 4060ti. Quindi tra 7800xt e 6800xt, si presenterà lo stesso scenario di nvidia sulle x60.
Domanda per Mikael : una ipotetica 7900 "liscia" in cosa potrebbe differire da una 7900 XT ?
7900 liscia non ci dovrebbe essere, al massimo possono usare il chip pro, analizzato da Igor come 7800xt, ma penso che venga utilizzato navi32.:)
ghiltanas
18-06-2023, 12:03
Teoricamente la 7800xt è la sostituta della 7700, ovvero navi32 full, ma qui ha cambiato nome, come la 4060 in 4060ti. Quindi tra 7800xt e 6800xt, si presenterà lo stesso scenario di nvidia sulle x60.
Allora ancora a maggior ragione se andasse come una 6800xt in raster non sarebbe affatto male, magari con consumi e RT migliori :)
mikael84
18-06-2023, 12:12
Allora ancora a maggior ragione se andasse come una 6800xt in raster non sarebbe affatto male, magari con consumi e RT migliori :)
Diciamo che è l'upgrade ideale per quelli come te, con la 6700. Navi22 vs navi32.:)
Per le perf pure, bisognerà vedere anche se con l'affinamento del PP, riescono a spingerla un pochino.
Al momento partirebbe cmq in quella zona o poco sopra la 4070, es:
7900xtx = 4080.
6144 shader / 3840 - 37,5% di ALU.
9728 cuda / 5888 - 39,47% di cuda.
nessuno29
18-06-2023, 12:43
La 7800xt è una 7700xt col nome sbagliato e col prezzo sbagliato.
ColdWarGuy
18-06-2023, 12:58
Allora ancora a maggior ragione se andasse come una 6800xt in raster non sarebbe affatto male, magari con consumi e RT migliori :)
Vhe prezzo pagheresti per queste migliorie ?
ColdWarGuy
18-06-2023, 13:00
La 7800xt è una 7700xt col nome sbagliato e col prezzo sbagliato.
Se questi dati venissero confermati verrebbe da pensare che si sono messi d'accordo, perchè il copione della recita sarebbe lo stesso.
nessuno29
18-06-2023, 13:51
Se questi dati venissero confermati verrebbe da pensare che si sono messi d'accordo, perchè il copione della recita sarebbe lo stesso.
Sono mesi che lo diciamo un pò in entrambi i thread, secondo me è palese.
Ale55andr0
18-06-2023, 13:52
La 7800xt è una 7700xt col nome sbagliato e col prezzo sbagliato.
come la 7900XT
Gyammy85
18-06-2023, 16:47
Guardate che la 4070 spesse volte va solo uno sputino più della 6800 eh
ColdWarGuy
18-06-2023, 19:46
Sono mesi che lo diciamo un pò in entrambi i thread, secondo me è palese.
A questo punto sono diventati più interessanti i saldi sulla serie 6000, a meno che non rinsaviscano di colpo abbassando i prezzi del 30%, ma non ci credo finchè non lo vedo.
Ale55andr0
19-06-2023, 08:20
A questo punto sono diventati più interessanti i saldi sulla serie 6000, a meno che non rinsaviscano di colpo abbassando i prezzi del 30%, ma non ci credo finchè non lo vedo.
guarda che non c'è nessun saldo, solo uno o due shhop, nati letteralmente ieri e nei quali non comprerei nemmeno un cavatappi, che vendono a meno di tutti gli altri (ma guarda tu il caso) che hanno una media prezzi ben definita e stabile e un servizio clienti degno di tal nome oltre che la certezza che domani staranno ancora li'...
Gyammy85
19-06-2023, 08:25
Perché una 7800 a 600 euro non dovrebbe essere conveniente rispetto a una 6800xt a 550 o una 6950 a 620? Ma anche fossero 680, che differenza farebbe?
C'è gente che da anni compra solo roba di due anni prima, contenti loro
Ale55andr0
19-06-2023, 08:28
Perché una 7800 a 600 euro non dovrebbe essere conveniente rispetto a una 6800xt a 550 o una 6950 a 620? Ma anche fossero 680, che differenza farebbe?
C'è gente che da anni compra solo roba di due anni prima, contenti loro
se una 6950 andrà di più non è più conveniente manco per sbaglio, paghi meno per avere meno, in perfetta linea con la NON evoluzione tecnologica imposta da quel farabutto in giacca e seguita, come pusillanimi senza personalità, da AMD (rebellioooon). Voglio proprio vedere....
Gyammy85
19-06-2023, 08:32
se una 6950 andrà di più non è più conveniente manco per sbaglio. Voglio proprio vedere....
Quindi rispetto al prodotto nuovo di pacca si preferisce la roba di due anni prima, ma oh risparmio 10 euro :) :)
Eh si l'evoluzione è assente, l'iphone si rompe perché lo vogliono loro e non perché lo sbatto al muro da 5 anni, ecc...
VanCleef
19-06-2023, 08:37
(rebellioooon)
Cosa mi hai (tristemente) ricordato :p
https://www.youtube.com/watch?v=h8NUtM4sexc
Poi arrivò il mining...:stordita:
Gyammy85
19-06-2023, 08:45
Cosa mi hai (tristemente) ricordato :p
https://www.youtube.com/watch?v=h8NUtM4sexc
Poi arrivò il mining...:stordita:
Ricordo le pernacchie perché dovevano presentare la 1080 di amd da 500 euro per prendere la 1080 a meno e invece se ne uscirono con questa "schedina da quattro soldi", non raccontiamoci le frottole perché io quel periodo lo ricordo bene
Sono solo capricci, come i ryzen lisci che se non uscivano era la rivoluzione, e stanno tutti belli sullo scaffale
VanCleef
19-06-2023, 09:09
non raccontiamoci le frottole perché io quel periodo lo ricordo bene
:D anch'io lo ricordo bene. ed ero molto contento di quelle schedine da 4 soldi che pigliavano la 1060 a meno.
Le seghe mentali sulle ammiraglie da 1000+€ le lascio a voi entusiast che vi siete lasciati abbindolare dal marketing arrivando a considerare le 6800xt e 3070 fascia media.
Io con 129€ c'ho preso una rx570 e due giochi in omaggio. Se dovessi acquistare adesso, guarderei alla 7600 o 6650 se calassero adeguatamente di prezzo, frega niente se passo da un "7" a un "6" nel nome...
Gyammy85
19-06-2023, 09:12
:D anch'io lo ricordo bene. ed ero molto contento di quelle schedine da 4 soldi che pigliavano la 1060 a meno.
Le seghe mentali sulle ammiraglie da 1000+€ le lascio a voi entusiast che vi siete lasciati abbindolare dal marketing arrivando a considerare le 6800xt e 3070 fascia media.
Io con 129€ c'ho preso una rx570 e due giochi in omaggio. Se dovessi acquistare adesso, guarderei alla 7600 o 6650 se calassero adeguatamente di prezzo, frega niente se passo da un "7" a un "6" nel nome...
Però vedi se il nostro metro di paragone è una vga venduta alla metà del prezzo della "concorrente" 1050ti che andava la metà ma son dettagli e con 2 giochi, un monitor e una mb col 7800x3d, allora uno cambia hobby, fa prima
VanCleef
19-06-2023, 09:20
Però vedi se il nostro metro di paragone è una vga venduta alla metà del prezzo della "concorrente" 1050ti che andava la metà ma son dettagli e con 2 giochi, un monitor e una mb col 7800x3d, allora uno cambia hobby, fa prima
scusa?:mbe:
nostro di chi? quello è il MIO metro di paragone. E sono disposto a prendere AMD come Nvidia e come Intel.
La giaculatoria sul 7800x3d non l'ho capita...
Gyammy85
19-06-2023, 09:23
scusa?:mbe:
nostro di chi? quello è il MIO metro di paragone. E sono disposto a prendere AMD come Nvidia e come Intel.
La giaculatoria sul 7800x3d non l'ho capita...
Perché in un mondo reale non esistono bmw 760 vendute a 5500 euro con una moto in omaggio vs la classe b a 150k vero affare, ma un equilibrio
In parole povere, la 7800 nella mentalità di tutti deve costare 200 euro meno per prendere comunque altro
VanCleef
19-06-2023, 09:27
Perché in un mondo reale non esistono bmw 760 vendute a 5500 euro con una moto in omaggio vs la classe b a 150k vero affare, ma un equilibrio
In parole povere, la 7800 nella mentalità di tutti deve costare 200 euro meno per prendere comunque altro
La mentalità di tutti è errato. Vedi il mio post sopra: la 7800 (fascia enthusiast) può costare quanto vuole (+o- ovviamente sennò resta sullo scaffale).
StylezZz`
19-06-2023, 09:58
tralasciando i soliti deliri di fanboy85, la 7800 è una 7700, quindi 450/500€ sarebbe il prezzo più accettabile...altrimenti quale sarebbero i motivi per preferirla alle 6800XT/6900/6950? Almeno nvidia ha la scusa del DLSS3, prestazioni rt, e consumi inferiori per fregare meglio...FSR3 rimane un miraggio.
ninja750
19-06-2023, 10:56
La 7800xt è una 7700xt col nome sbagliato e col prezzo sbagliato.
quale è il nome definitivo?
quale è il prezzo definitivo?
e quali sono le specifiche definitive?
Perché una 7800 a 600 euro non dovrebbe essere conveniente rispetto a una 6800xt a 550 o una 6950 a 620? Ma anche fossero 680, che differenza farebbe?
di conveniente non c'è più nulla, il progresso tecnologico dovrebbe a pariprezzo portare nel case più perf, non uguali con due feature in più
la 7800 è una 7700, quindi 450/500€ sarebbe il prezzo più accettabile...
quello è dovuto come sappiamo al traslamento di fasce fatto da Giacco per guadagnare più dineros, mungono tutti, mungono anche loro
altrimenti quale sarebbero i motivi per preferirla alle 6800XT/6900/6950? Almeno nvidia ha la scusa del DLSS3, prestazioni rt, e consumi inferiori per fregare meglio...FSR3 rimane un miraggio.
non conoscendo ancora mezza specifica e prendendo per buoni leak di dubbia provenienza i motivi RDNA3 vs 2 sarebbero perf maggiori vs consumi minori e sicuramente il supporto futuro tra cui FSR3 e altro
ghiltanas
19-06-2023, 10:58
Vhe prezzo pagheresti per queste migliorie ?
per come sono fatto e visto quanto tempo ormai ho per giocare, è un cambio che non farei, se proprio dovessi cambiare io andrei di 7900xt.
Detto questo, con queste ipotetiche performance, a mio avviso dovrebbe piazzarsi sui 550, con street price sui 500.
Ale55andr0
19-06-2023, 12:26
Quindi rispetto al prodotto nuovo di pacca si preferisce la roba di due anni prima, ma oh risparmio 10 euro :) :)
Eh si l'evoluzione è assente, l'iphone si rompe perché lo vogliono loro e non perché lo sbatto al muro da 5 anni, ecc...
era chiaro come il sole: se va MENO, mica solo per i soldi. Niente, argomentare con te ha meno senso che provare a ragionare con una cassapanca.
non conoscendo ancora mezza specifica e prendendo per buoni leak di dubbia provenienza i motivi RDNA3 vs 2 sarebbero perf maggiori vs consumi minori e sicuramente il supporto futuro tra cui FSR3 e altro
vale anche il contrario però: le perf maggiori dove le hai viste? Perchè rdna 3 vs 2 può poco se da una parte hai 5000sp e dall'altra 3800, a meno di non avere un clock enormemente più alto. Non resta che vedere, come dicevo sopra...
Ale55andr0
19-06-2023, 13:18
https://multiplayer.it/notizie/diablo-4-pc-richiede-scheda-video-da-16-gb-per-eguagliare-ps5-rivela-digital-foundry.html?comment_page=1#comment_c10560894
ninja750
19-06-2023, 13:36
vale anche il contrario però: le perf maggiori dove le hai viste? Perchè rdna 3 vs 2 può poco se da una parte hai 5000sp e dall'altra 3800, a meno di non avere un clock enormemente più alto. Non resta che vedere, come dicevo sopra...
mio umilissimo pensiero che rapportando pari CU e frequenze quanto visto su 6650XT vs 7600 siamo a un +10% di """ipc""", metti che N32 per tutto l'ambaradan tecnico che si porta dietro riesce a fare +15% su N31/N32 che sia, aggiungiamo le frequenze maggiori del nuovo PP, metti che nel frattempo hanno capito come far rendere al meglio il dual issue penso si possa arrivare a sta 6900XT in raster dando per scontato vada di più in RT per via della nuova arch, tutto questo nonostante si parta da 60cu vs 80cu
se però tagli 60cu per la 7800 ti resta poco in mano per fare uan 7700
ColdWarGuy
19-06-2023, 19:40
per come sono fatto e visto quanto tempo ormai ho per giocare, è un cambio che non farei, se proprio dovessi cambiare io andrei di 7900xt.
Detto questo, con queste ipotetiche performance, a mio avviso dovrebbe piazzarsi sui 550, con street price sui 500.
Quoto la quotazione :D, scherzi a parte purtroppo la 7800XT si sta profilando come l'ennesima delusione di quest'anno.
ColdWarGuy
19-06-2023, 19:42
https://multiplayer.it/notizie/diablo-4-pc-richiede-scheda-video-da-16-gb-per-eguagliare-ps5-rivela-digital-foundry.html?comment_page=1#comment_c10560894
Come ti dicevo nell'altro 3ad, a questo punto meglio una console :D
Ale55andr0
19-06-2023, 19:55
Come ti dicevo nell'altro 3ad, a questo punto meglio una console :D
se usata come soprammobile, chi sono io per contraddirti?
se però tagli 60cu per la 7800 ti resta poco in mano per fare uan 7700
dai rumor pare quasi per certo siano 60 :stordita:
Se si decidessero a cacciarla fuori magari potremmo sapere di che morte morire
Come ti dicevo nell'altro 3ad, a questo punto meglio una console :D
meglio una vga radeon con vram....con la 6750xt in full hd mi trovo stra bene ;)
ho rifatto il pc a maggio e non avevo tempo di aspettare per la 7700xt o 7800xt...sicuramente la serie 8xxx non me la faccio scappare :)
se usata come soprammobile, chi sono io per contraddirti?
La xsx le puoi usare anche come zampa di un tavolino, sembra quasi fatta apposta.
dai rumor pare quasi per certo siano 60 :stordita:
Se si decidessero a cacciarla fuori magari potremmo sapere di che morte morire
Mainaggioia eh!
Non riesco a comprendere veramente questo continuo tirarsi la zappa sui piedi.Sembra quasi che tutto il marcio di amd fino all'era bulldozer sia finito nella divisione grafica.
Ale55andr0
23-06-2023, 07:41
edit
OrazioOC
23-06-2023, 08:55
https://videocardz.com/newz/amd-developed-a-compact-version-of-navi-31-that-fits-into-40x40mm-navi-32-package
Così la 7800xt avrebbe senso. Con 60cu per passare la 6800xt l'avrebbero dovuta sparare a clock molto alti. Ora che si parla di 70 cu si posizionerebbe un 20% sotto la 7900xt cioè un 15% sopra la 6800xt. Non il massimo ma molto meglio.
Bisogna vedere il prezzo, ma temo un 659-699€. In quel caso se continua l'abbassamento di prezzi forse diventerebbero più appetibili le 6800xt.
Ale55andr0
23-06-2023, 12:42
mi sfugge probabilmente, ma non ho letto da nessuna parte di 70cu in quell'articolo :fagiano: inoltre se ne parla per fare una eventuale 7900 mobile, non una 7800 desktop con più di 60cu. Della 7800 si dice solo dei 16gb, che ormai paiono assodati. A ogni modo bello tutto cio', ne parlano ne parlano ne riparlano (gli articolisti) ma AMD non ha detto UN TUBO :rolleyes:.
...Cmq ci sta un commento di gridracedriver in quell'articolo, si è fatto subito voler bene vedo :asd:
ninja750
23-06-2023, 13:08
in quell'articolo
non è un articolo è la solita immondizia del """""""leaker"""""" tiradadi moorelawisdead
...Cmq ci sta un commento di gridracedriver in quell'articolo, si è fatto subito voler bene vedo :asd:
gli piace essere blastato :O
In realtà se ho capito bene l'articolo dice che hanno fornito agli assemblatori chip ricavati cuttando proprio fisicamente navi31 per dargli le dimensioni di navi32. Probabilmente per la progettazione e test dei dissipatori.
Non mi pare una gran notizia dato che significa che navi32 ancora non esiste
mi sfugge probabilmente, ma non ho letto da nessuna parte di 70cu in quell'articolo :fagiano: inoltre se ne parla per fare una eventuale 7900 mobile, non una 7800 desktop con più di 60cu. Della 7800 si dice solo dei 16gb, che ormai paiono assodati. A ogni modo bello tutto cio', ne parlano ne parlano ne riparlano (gli articolisti) ma AMD non ha detto UN TUBO :rolleyes:.
...Cmq ci sta un commento di gridracedriver in quell'articolo, si è fatto subito voler bene vedo :asd:
Mi sono dimenticato di specificare, l'ho pensato dato che sembrerebbe un'operazione per poter ottenere un die con caratteristiche a metà tra quello vociferato da 60cu e quello della 7900xt con 84cu attive.
https://www.techpowerup.com/310420/radeon-rx-7800-xt-based-on-new-asic-with-navi-31-gcd-on-navi-32-package
https://www.hardwaretimes.com/amd-rx-7800xt-to-use-salvaged-navi-31-dies-at-launch-16gb-vram-with-4480-shaders-rumor/
Penso e spero che sia verosimile.
Edit: Una 7800xt con 60cu non avrebbe senso considerando quello che abbiamo visto con la 7600. La 7600 è una 6650xt in salsa rdna3 e va solo l'8% in più in raster (nemmeno sempre) e il 10% in più in raytracing. Quindi una 7800xt con 60cu (20% in meno della 6800xt) avrebbe bisogno di almeno un 10% di clock in più solo per pareggiarla. La 6800xt boosta a 2300mhz e rotti quindi servono almeno 2550mhz per pareggiarla. Se vuoi passarla di facciamo il 10% la devi cloccare a 2800 e chissà i consumi...
Con 70 cu sarebbe ben diverso. Già cloccata a 2500 avrebbe il 15-20% di vantaggio sulla 6800xt e consumi ragionevoli.
Alodesign
23-06-2023, 13:36
mi sfugge probabilmente, ma non ho letto da nessuna parte di 70cu in quell'articolo :fagiano: inoltre se ne parla per fare una eventuale 7900 mobile, non una 7800 desktop con più di 60cu. Della 7800 si dice solo dei 16gb, che ormai paiono assodati. A ogni modo bello tutto cio', ne parlano ne parlano ne riparlano (gli articolisti) ma AMD non ha detto UN TUBO :rolleyes:.
...Cmq ci sta un commento di gridracedriver in quell'articolo, si è fatto subito voler bene vedo :asd:
Come i giornalettari sportivi in estate.
ArticMan
23-06-2023, 13:47
A questo punto sono diventati più interessanti i saldi sulla serie 6000, a meno che non rinsaviscano di colpo abbassando i prezzi del 30%, ma non ci credo finchè non lo vedo.
Io proprio ieri a tal proposito ho comprato una 6750xt pagata 365 Euro. Aspettare la futura generazione per avere un misero guadagno e un prezzo più pompato dato dalla novità lo vedevo inutile. In quel caso, per maggiori prestazioni sarei andato direttamente sulla 6800xt!
Tanto AMD non fa come nVidia che preclude le nuove tecnologie ai vecchi (ed è anche ovvio essendo soluzioni hardware).
Ale55andr0
23-06-2023, 14:12
Edit: Una 7800xt con 60cu non avrebbe senso considerando quello che abbiamo visto con la 7600.
nessuna delle gpu presentate dal farabutto e dalla "cugina" del farabutto ha, per un motivo o l'altro, alcun senso. E' solo che logico (!?) che proseguiranno sulla stessa linea di nonsense e idiozie seminate questa gen. Ci tengono.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.