PDA

View Full Version : Radeon RX 6000 ufficiali: AMD sfida Nvidia per lo scettro del settore GPU


Pagine : 1 [2]

calabar
05-11-2020, 17:49
L'AI è ancora da definire e senza quest'ultima DirectML non significa nulla, è come un auto senza il motore.
DirectML fornisce anche i modelli, e AMD li sta addestrando da tempo. Il problema è capire a che punto sono dello sviluppo e quali risultati sarà in grado di raggiungere e a quale costo.

Ma dubito che con le nuove console pronte all'uscita ...
Non credo sia un parametro rilevante: le nuove consolle possono andare avanti per lungo tempo senza una tecnologia di quel tipo e tirarla fuori anni dopo per ottenere risultati prima irraggiungibili.

HwWizzard
06-11-2020, 12:22
Vi ho lasciato per qualche giorno e vedo che la situazione non si smuove, 2 a trollare e nagare cose pubblicamente dette da AMD... :doh:
https://www.youtube.com/watch?v=oHpgu-cTjyM
se conoscete in maniera basilare l'inglese e i numeri arabi e perdete 3 minuti della vostra esistenza dal minuto 16 al minuto 19 magari la finite di scrivere i trattati di difesa per l'amata nVidia.
Comunque per sdrammatizzare:
https://youtu.be/hOC-lSVlF9s

kliffoth
07-11-2020, 21:50
Vi ho lasciato per qualche giorno e vedo che la situazione non si smuove, 2 a trollare e nagare cose pubblicamente dette da AMD... :doh:
https://www.youtube.com/watch?v=oHpgu-cTjyM
se conoscete in maniera basilare l'inglese e i numeri arabi e perdete 3 minuti della vostra esistenza dal minuto 16 al minuto 19 magari la finite di scrivere i trattati di difesa per l'amata nVidia.
Comunque per sdrammatizzare:
https://youtu.be/hOC-lSVlF9s

...Per entrambi i produttori è la prima generazione di schede contemporanee alle nuove console.
Per quanto il salto rispetto ai prodotti precedenti ed attualmente sul mercato sia enorme, la cosa più sensata da fare lato consumatore sarebbe di ignorare completamente questa generazione, sia lato rosso sia lato verde, a meno di necessità effettiva.

HwWizzard
07-11-2020, 22:15
...Per entrambi i produttori è la prima generazione di schede contemporanee alle nuove console.
Per quanto il salto rispetto ai prodotti precedenti ed attualmente sul mercato sia enorme, la cosa più sensata da fare lato consumatore sarebbe di ignorare completamente questa generazione, sia lato rosso sia lato verde, a meno di necessità effettiva.

Secondo me invece era da ignorare la scorsa generazione, questa come prestazioni invece porta il 4K ad essere giocabile anche a dettagli ultra. Ovvio senza RT dove ancora bisogna scendere a compromessi.

bonzoxxx
07-11-2020, 22:47
...Per entrambi i produttori è la prima generazione di schede contemporanee alle nuove console.
Per quanto il salto rispetto ai prodotti precedenti ed attualmente sul mercato sia enorme, la cosa più sensata da fare lato consumatore sarebbe di ignorare completamente questa generazione, sia lato rosso sia lato verde, a meno di necessità effettiva.

Dipende, io con la 1070 a 1080p sto benone ma se si vogliono i 4K sta generazione è ok è quella precedente che, soprattutto per la 2080ti aveva un prezzo/prestazioni ignobile :)... Certo prima bisogna trovare una gpu nuova..

kliffoth
07-11-2020, 22:47
Secondo me invece era da ignorare la scorsa generazione, questa come prestazioni invece porta il 4K ad essere giocabile anche a dettagli ultra. Ovvio senza RT dove ancora bisogna scendere a compromessi.

la precedente generazione rappresentava comunque la punta di diamante del periodo iniziato appunto con l'arrivo delle precedenti console ...ok la serie 2xxx di nvidia non ha fatto gridare al miracolo, visto principalmente il rapporto prezzo/prestazioni ... mentre la nuova generazione è appena l'inizio dell'epoca console attuale, e penso che già dalla prossima si avranno prestazioni più solide, ram nei giusti quantitativi e software più pronti. (ora che mi ci fai pensare il top della passata stagione di console è stata la serie 1xxx di nVidia e quel gioiellino della RX 480-570-580 di AMD)

Il tutto è una mia opinione personale basata principalmente su quanto avvenuto nel passato, ma non ho alcuna sfera di cristallo.

....PS il 4k proprio non riesco a farlo mio: l'altro ieri sono stato in un fornito negozio di elettronica per prendere un ethernet da 2 mt, e nell'attesa di essere servito mi sono seduto dinanzi a vari monitor, incluso il Samsung Odyssey G9.
Considerando i soli monitor a schermo piatto, non riesco ad andare oltre i 27", al limite 28" (ce n'era uno di non ricordo chi), senza perdere il dettaglio ai lati.
Dovrei prendere un monitor curvo, ma non riesco a concepirlo...insomma alle distanze in uso sulle scrivanie, per me, il massimo tirato al limite è stato un 31" sacrificando i due lati che non erano pienamente a fuoco...quindi molta fatica e quindi inutile (sempre per me)

EDIT se rifascessero i compianti 16:10 potrei recuperare con i pixel in verticale, ma in orizzontale non ce la faccio proprio ad estendere il mio campo visivo alle dimensioni per avere un 4k sulla scrivania

_O'Connor_
07-11-2020, 23:25
4k e 27" su scrivania io li trovo la misura perfetta, densità di pixel sufficiente a azzerare quasi totalmente l'aliasing (un pelo rimane, ma lo si toglie con poco, a me piace il TAA e questo basta e avanza per azzerarlo totalmente).
Sono passato al 4k nel 2017 e mi trovo benissimo, ed insieme al G-Sync è stato un'enorme salto in avanti a livello qualitativo rispetto al 1080p, un'altro pianeta.

Il problema sono le GPU, Nvidia sta con prezzi esagerati, e con quelle quantità esigue di VRAM proprio non mi garba, speravo nella 3080 da 20GB ma l'hanno annullata, vedremo la 3080 Ti da 20GB a che prezzo la metteranno.
Se non tornano a prezzi umani, dopo un decennio di Nvidia (dalle GTX 480) passo di nuovo a AMD, e dato che passerà molto probabilmente, quando si assestano i prezzi, ad un 5900x (ho ancora un i7 860 cloccato per bene, in 4k mi basta, ma sono al limite), una GPU AMD ci calza a pennello.

L'unica cosa che mi frega è che il mio pannello è 4k G-Sync, ho un PG27AQ ed a quanto ne so non si riesce a farlo andare con FreeSync AMD, mi dispiace cambiarlo perché ne sono molto soddisfatto, ma per una nuova GPU non valuto minimamente niente sotto i 16GB di VRAM, assolutamente no ai 10GB di VRAM delle Nvidia, piuttosto vendo il monitor, ne compro un altro 4k FreeSync/G-Sync e mi prendo una AMD,considerando che un pannello buono con quelle caratteristiche costa un terzo di quanto ho pagato ai tempi il mio monitor, con la differenza di prezzo Nvidia vs AMD, ci sta il pannello e mi avanzano pure soldi.

Ora ho una GTX 1080.

kliffoth
07-11-2020, 23:29
4k e 27" su scrivania io li trovo la misura perfetta, densità di pixel sufficiente a azzerare quasi totalmente l'aliasing (un pelo rimane, ma lo si toglie con poco, a me piace il TAA e questo basta e avanza per azzerarlo totalmente).
Sono passato al 4k nel 2017 e mi trovo benissimo, ed insieme al G-Sync è stato un'enorme salto in avanti a livello qualitativo rispetto al 1080p, un'altro pianeta.

Il problema sono le GPU, Nvidia sta con prezzi esagerati, e con quelle quantità esigue di VRAM proprio non mi garba, speravo nella 3080 da 20GB ma l'hanno annullata, vedremo la 3080 Ti da 20GB a che prezzo la metteranno.
Se non tornano a prezzi umani, dopo un decennio di Nvidia (dalle GTX 480) passo di nuovo a AMD, e dato che passerà molto probabilmente, quando si assestano i prezzi, ad un 5900x (ho ancora un i7 860 cloccato per bene, in 4k mi basta, ma sono al limite), una GPU AMD ci calza a pennello.

L'unica cosa che mi frega è che il mio pannello è 4k G-Sync, ho un PG27AQ ed a quanto ne so non si riesce a farlo andare con FreeSync AMD, mi dispiace cambiarlo perché ne sono molto soddisfatto, ma per una nuova GPU non valuto minimamente niente sotto i 16GB di VRAM, assolutamente no ai 10GB di VRAM delle Nvidia, piuttosto vendo il monitor, ne compro un altro 4k FreeSync/G-Sync e mi prendo una AMD,considerando che un pannello buono con quelle caratteristiche costa un terzo di quanto ho pagato ai tempi il mio monitor, con la differenza di prezzo Nvidia vs AMD, ci sta il pannello e mi avanzano pure soldi.

Ora ho una GTX 1080.

Ma riesci a leggere il testo e ad usare un Word o altro con 4k su un 27"???
Insomma le vedi le icone della GUI di Office o di qualunque altro programma?
Per me il problema è quello, non il giochino di turno che infatti si esalta con una tale densità di pixel

_O'Connor_
07-11-2020, 23:37
Si riesce benissimo, c'è sempre il ridimensionamento del testo, ma per farti capire, quando faccio coding lo uso come se fossero quattro schermi 1080p, ci sta il quadruplo della roba e si legge benissimo.

bonzoxxx
08-11-2020, 09:01
Ma riesci a leggere il testo e ad usare un Word o altro con 4k su un 27"???
Insomma le vedi le icone della GUI di Office o di qualunque altro programma?
Per me il problema è quello, non il giochino di turno che infatti si esalta con una tale densità di pixel

Io ho un 4k su 15.6 pollici, si vede benissimo solo la suite CS6 ha i menù piccoli.
Ora non venitemi a dire che 4K sono inutili su un portatile, lo so ma l'ho preso usato e quello c'era :) ma qualità d'immagine impressionante, i pixel non si vedono

MiKeLezZ
22-11-2020, 11:44
Ma figurati...

3070: 500$
6800: 580$
La 6800 va leggermente più della 3070 e quindi hanno deciso di farla pagare di più. Per indorare la pillola ci hanno messo anche il doppio della RAM (inutile).
Nvidia farà quindi uscire la 3070Ti, che andrà leggermente di più di entrambe, ma costerà poco più della 6800 (600$), così da togliergli mercato.

3080: 700$
6800XT: 650$
La 6800XT va leggermente meno della 3080 (a volte pari) e quindi costa meno. Per renderla più appetibile ci hanno messo anche il doppio della RAM (inutile).

3090: 1500$
6900XT: 1000$
La 6900XT ha le stesse specifiche della 6800XT, solo 80 invece che 72 core-cosi, quindi ca. solo il 6% di prestazioni in più.
La 3090 ha il 20% in più di specifiche della 3080 (cuda-cosi, bus e compagnia) quindi va ca. il 15% in più.
La 6900XT va quindi meno della 3090. Neppure hanno potuto giocarsela con il raddoppio della RAM per attirare i polli come per la 6800XT: ci ha pensato anche NVIDIA. Infatti costa (molto) meno della 3900.

Come ciliegina tutte le AMD hanno il 30% in meno di performance in RT, quindi ci sarà il solito giochino del "aspettiamo i prossimi driver vedrete che migliorerà la situazione, l'architettura è magica modifica le performance"...
Buongiorno ragazzacci. Torno il mese dopo per vedere se ci avevo preso, riquoto il mio messaggio.

Ovviamente prendo a riferimento Techpowerup, nel performance summary: https://www.techpowerup.com/review/amd-radeon-rx-6800-xt/35.html

1. Il doppio della RAM non serve a nulla, pura operazione di marketing (vedasi 2k vs 4k): CHECK!
2. La 6800 va leggermente più della 3070: CHECK!
3. La 6800XT va leggermente meno della 3080: CHECK!
4. Le performance in RT delle AMD sono penose: CHECK!
5. Ci sono i soliti discorsi del "vedrete con i nuovi driver la situazione migliorerà": CHECK!

Un saluto dallo zio Mike!

:oink:

mircocatta
22-11-2020, 12:57
Buongiorno ragazzacci. Torno il mese dopo per vedere se ci avevo preso, riquoto il mio messaggio.

Ovviamente prendo a riferimento Techpowerup, nel performance summary: https://www.techpowerup.com/review/amd-radeon-rx-6800-xt/35.html

1. Il doppio della RAM non serve a nulla, pura operazione di marketing (vedasi 2k vs 4k): CHECK!
2. La 6800 va leggermente più della 3070: CHECK!
3. La 6800XT va leggermente meno della 3080: CHECK!
4. Le performance in RT delle AMD sono penose: CHECK!
5. Ci sono i soliti discorsi del "vedrete con i nuovi driver la situazione migliorerà": CHECK!

Un saluto dallo zio Mike!

:oink:

1. https://youtu.be/oeQjSpY3ot8?t=554
2. oltre 10% è solo leggermente più della 3070?
3. giusto, ma quel "leggermente" è la metà della distanza tra 3070 e 6800
4. penose? una manciata di frame senza dlss (https://www.hwupgrade.it/articoli/5887/variazione_media_rt_su_2080_no_dirt5.png)(e qui bisognerà aspettare la risposta amd, che arriverà) sono penose? ah ok, e dire che mi sembrano comunque entrambe sopra alla 3070, se sono penose queste non immagino la 3070/2080ti, la futura 3060ti e tutte le altre schede a scendere della serie 2000.
5. a conti fatti le gpu amd sono sempre migliorate, senza contare che questi sono i primi driver che implementano anche la gestione RT, miglioreranno con il tempo? e chi lo sa, ma sicuramente non peggioreranno


techpowerup poi... che ha risultati completamente discordanti da qualsivoglia altra review (sia nelle performance, sia nei consumi, visto che fino all'altro giorno segnavano la 6800xt a 210wat, per poi correggersi successivamente) o addirittura nelle sue stesse review
e questo è un esempio, quando ovunque in borderlands3 la 3080 fa 60fps in 4k poi vedi che magiamente su tpu ne fa 70:
https://tpucdn.com/review/amd-radeon-rx-6800-xt/images/borderlands-3-3840-2160.png
e che magicamente, in un altra loro review (cambia processore, ma come abbiamo già visto in 4k non cambia una mazza, se non decimi di frame), ne fa 76:
https://tpucdn.com/review/amd-radeon-sam-smart-access-memory-performance/images/borderlands-3-3840-2160.png


eh ma continuiamo a vedere tpu come testata seria mi raccomando :asd:

i fatti parlano chiaro, con i prezzi a cui oggi si trovano le 3070 (650€ e +)/3080 (850€ e più), non ha nessun senso escludere l'acquisto delle 6800/6800xt al prezzo di listino sul sito amd (589€/661€) dove ogni tanto tornano disponibili
l'unico problema, per tutte, è la disponibilità: vuoi per problemi alle produzioni causa pandemia o vuoi perchè la richiesta di vga da gaming, almeno imho, sembra decuplicata rispetto a 5 anni fa (ora che pure i babbani possono tranquillamente informarsi tramite youtube e altri social dove spopolano sempre di più i canali che trattano l'argomento con approcci meno tech e più "per tutti")

cronos1990
23-11-2020, 09:19
2. oltre 10% è solo leggermente più della 3070?Quoto questo punto perchè dimostra la faziosità del suddetto.

Nel topic dedicato alla recensione delle 6800/6800XT, il nostro simpatico MiKeLezZ dava contro a chi diceva che essenzialmente 5700XT e 2070 SUPER vanno pressochè uguali. Tralasciando il fatto che avevo indagato già all'epoca (la differenza media era inferiore al 5% in favore della 2070 SUPER, differenza che si è ridotta per non dire ribaltata quando AMD ha tirato fuori driver video ottimizzati) il simpaticone ribatteva mostrando un grafico del suo solito TechPowerUp, oltre che con la "battuta" Su quale cinema danno questo film?

https://www.hwupgrade.it/forum/showpost.php?p=47119198&postcount=288

Semplifico: il grafico prende come riferimento la 6800XT per prestazioni relative pari al 100%. In quel grafico viene riportato che:

RTX 2070 SUPER 8 GB: 58%
RX 5700XT: 53%

Quindi +5%. Faccio poi notare che, per quanto detto sopra, in realtà quel +5% non è neanche corretto. Ma prendiamolo per buono.


Quindi una differenza superiore al 10% a favore di AMD è "leggermente di più". Una differenza del 5% che in realtà è inferiore è "Su quale cinema danno questo film".

Dovrebbero fare una serie investigativa per andare a ricercare la coerenza perduta :asd:

ninja750
23-11-2020, 09:40
ancora rispondete cercando di argomentare con certi troll?

StylezZz`
23-11-2020, 10:21
Dopo 1 anno stiamo ancora a discutere chi c'è l'ha più lungo tra la 5700 XT e la 2070 S? (stesso chip della 2080 :asd:)

Io ho provato entrambe, e vi posso assicurare che viaggiano uguale, e quel 5% è ripagato con 100 euro di differenza. I punti percentuali risicati li lasciamo volentieri ai fanboy che hanno bisogno di idolatrare la loro squadra del cuore...

VanCleef
23-11-2020, 11:49
RTX 2070 SUPER 8 GB: 58%
RX 5700XT: 53%

Quindi +5%.

NO.

non entro nel merito della questione 2070S vs 5700XT, ma siamo in un forum tecnico quindi evitiamo di fare i conti a spanne che poi gli animi si scaldano e poi si perde il senso della discussione.

Non provo nemmeno a correggere l'errore ma ti faccio un controesempio:
se la scheda GTS 250 va il 2% della 6800XT e la GT210 va l'1% è corretto dire che la GTS 250 va l'1% in più?
:confused:

Ale55andr0
23-11-2020, 12:23
NO.

non entro nel merito della questione 2070S vs 5700XT, ma siamo in un forum tecnico quindi evitiamo di fare i conti a spanne che poi gli animi si scaldano e poi si perde il senso della discussione.

Non provo nemmeno a correggere l'errore ma ti faccio un controesempio:
se la scheda GTS 250 va il 2% della 6800XT e la GT210 va l'1% è corretto dire che la GTS 250 va l'1% in più?
:confused:

Ma ti sei scomodato a leggere tutto? :D

"Quindi +5%. Faccio poi notare che, per quanto detto sopra, in realtà quel +5% non è neanche corretto. Ma prendiamolo per buono"

VanCleef
23-11-2020, 12:54
Ma ti sei scomodato a leggere tutto? :D

"Quindi +5%. Faccio poi notare che, per quanto detto sopra, in realtà quel +5% non è neanche corretto. Ma prendiamolo per buono"

sì, faceva riferimento al fatto che i dati non erano aggiornati.

mircocatta
23-11-2020, 13:55
sì, faceva riferimento al fatto che i dati non erano aggiornati.

Sarebbe un 9% che cronos non ha giustamente corretto perche, da review aggiornate, la differenza è molto inferiore (basta vedere la review di questo sito sulle 6800/xt).

Senza contare che parliamo di una 5700xt reference (blower) vs una 2070s che a conti fatti è una custom (temp più basse = boost maggiore= maggiori perf)

VanCleef
23-11-2020, 16:32
Sarebbe un 9% che cronos non ha giustamente corretto perche, da review aggiornate, la differenza è molto inferiore (basta vedere la review di questo sito sulle 6800/xt).

Senza contare che parliamo di una 5700xt reference (blower) vs una 2070s che a conti fatti è una custom (temp più basse = boost maggiore= maggiori perf)

alt, non volevo entrare nel merito della questione rx 5700xt vs 2070Super...

Continuo a dire che finchè non si scriveranno per bene le percentuali relative ci sarà sempre qualcuno a risentirsi...

La 580 va il 50% in più della 1050!!!. No la 1050 va solo il 33% in meno della 580!!1!

Piedone1113
23-11-2020, 18:21
La 580 va il 50% in più della 1050!!!. No la 1050 va solo il 33% in meno della 580!!1!

Due verità assolute che si contraddicono:
Sei un genio

VanCleef
24-11-2020, 09:02
Due verità assolute che si contraddicono:
Sei un genio
:sofico:

cronos1990
25-11-2020, 15:24
Non c'avevo voglia di fare i conti precisi, lo so che erano relativi. Ma il discorso non sarebbe cambiato.

Poi ieri non potevo comunque correggere, ero impossibilitato a scrivere sul forum :asd:

popomer
25-11-2020, 15:37
Io ho un 4k su 15.6 pollici, si vede benissimo solo la suite CS6 ha i menù piccoli.
Ora non venitemi a dire che 4K sono inutili su un portatile, lo so ma l'ho preso usato e quello c'era :) ma qualità d'immagine impressionante, i pixel non si vedono

secondo me su un portatile una risoluzione via di mezzo (tipo 3000x2000 stile surfeace) sarebbe meglio

nickname88
27-11-2020, 16:27
techpowerup poi... che ha risultati completamente discordanti da qualsivoglia altra review (sia nelle performance, sia nei consumi, visto che fino all'altro giorno segnavano la 6800xt a 210wat, per poi correggersi successivamente) Si certo discordanti, secondo Techpowerup la 3080 è un 6% più prestante e mi sembra che sia perfettamente confermato anche da Guru3d, ComputerBase, GamersNexus, HardwareCanucks e molte altre.

Anzi guarda che ho trovato : https://www.guru3d.com/news-story/review-average-of-17-websites-shows-6800-xt-to-be-7-4-slower-than-geforce-rtx-3080.html :read:

fino all'altro giorno segnavano la 6800xt a 210watIo ho letto la reviews di Tech il giorno dell'uscita alle ore 15.00 prima di provare ad ordinare le schede e il suo consumo era lo stesso di ora, sopra la 1080Ti di sicuro ( visto che era la mia ex scheda e ci ho prestato attenzione ), poi cosa tu abbia letto non lo sò.

o addirittura nelle sue stesse review
e questo è un esempio, quando ovunque in borderlands3 la 3080 fa 60fps in 4k poi vedi che magiamente su tpu ne fa 70:

e che magicamente, in un altra loro review (cambia processore, ma come abbiamo già visto in 4k non cambia una mazza, se non decimi di frame), ne fa 76:AH SI ?
E di questo cosa dovremmo dire ? :

Stessa review a metà pagina ne fa 76

A fine pagina ne fa 91 ( ben 15fps in più a pari mappa, gioco,risoluzione e dettaglio, altro che i ridicoli +6 di Tech ) :rolleyes:
Ovviamente tutte le altre sono rimaste simili ....

https://www.hwupgrade.it/articoli/5887/hitman_2.png

https://www.hwupgrade.it/articoli/5887/hitman_2_sam.png

Ah dimenticavo, nella review della 3080 mettono il consumo del chip e sotto il consumo della scheda.
Quì invece non si capisce il perchè c'è solo il consumo del chip.

eh ma continuiamo a vedere tpu come testata seria mi raccomando :asd:
Si esatto, continua a vedere le review che fan comodo al tuo tifo, ossia l'unica dove la 6800XT sarebbe pari ( in raster ) alla 3080, poi tutte le altre dicono il contrario ma vabbè ... :rolleyes:

ionet
27-11-2020, 20:25
giustamente con le nuove gpu vanno aggiornate anche le diatribe
con la vecchia ancora aperta,5700xt vs 2070super,eravamo partiti intorno al 10% e siamo arrivati pari~5%?

con la 6800xt vs 3080 e' ancora meno, praticamente basta qualche gioco pro uno o l'altro per rovesciare l'ago
ma tranquilli che tanto ce la trasciniamo fino alla prossima:D

sono ben altri i dubbi per la 6800xt,il rt, se grazie alle console si riprende bene
e come va e quando sto scass..ehm:stordita: scaler

mircocatta
27-11-2020, 21:23
AH SI ?
E di questo cosa dovremmo dire ? :

Stessa review a metà pagina ne fa 76

A fine pagina ne fa 91 ( ben 15fps in più a pari mappa, gioco,risoluzione e dettaglio, altro che i ridicoli +6 di Tech ) :rolleyes:
Ovviamente tutte le altre sono rimaste simili ....

https://www.hwupgrade.it/articoli/5887/hitman_2.png

https://www.hwupgrade.it/articoli/5887/hitman_2_sam.png

Ah dimenticavo, nella review della 3080 mettono il consumo del chip e sotto il consumo della scheda.
Quì invece non si capisce il perchè c'è solo il consumo del chip.

Si esatto, continua a vedere le review che fan comodo al tuo tifo, ossia l'unica dove la 6800XT sarebbe pari ( in raster ) alla 3080, poi tutte le altre dicono il contrario ma vabbè ... :rolleyes:


però potevi anche leggere il perchè di quella differenza
prendo direttamente dalla review:
Prestazioni con Smart Access Memory
Borderlands 3 ci mostra come la tecnologia Smart Access Memory sia di particolare aiuto alle basse risoluzioni, con un bell'incremento prestazionale sia per la RX 6800 XT che la 6800. Qualche fps in più invece in 4K, il che non è certo un male dato che è lo scenario più esigente per quanto riguarda la scheda video.
In Hitman 2 avviene esattamente l'opposto di quanto visto in Borderlands 3, con le due Radeon che giovano di Smart Access Memory in 4K, tanto che seppur di poco la RX 6800 supera la RTX 3080



poi

Io ho letto la reviews di Tech il giorno dell'uscita alle ore 15.00 prima di provare ad ordinare le schede e il suo consumo era lo stesso di ora, sopra la 1080Ti di sicuro ( visto che era la mia ex scheda e ci ho prestato attenzione ), poi cosa tu abbia letto non lo sò.


ovviamente non ho screen a riguardo, ma qui riportano gli stessi valori che ho menzionato io il giorno dopo l'uscita della review:
https://www.techpowerup.com/forums/threads/amd-radeon-rx-6800-xt.274752/page-15

bye bye

nickname88
28-11-2020, 15:33
però potevi anche leggere il perchè di quella differenza
prendo direttamente dalla review:
Potevi leggerla anche tu, visto che io sto parlando dei valori con SAM disattivato.

ionet
28-11-2020, 18:57
hanno cambiato anche configurazione hw, visto che per SAM serviva necessariamente una cpu e chipset amd ultimo grido(5900x), ovvio che hitman2,anche senza sam, ha preso il volo con una cpu seria
quella con soli 76fps era stato testato con una ormai ridicola cpu intel,pure troppi con quel biroccio :O

nickname88
29-11-2020, 13:58
hanno cambiato anche configurazione hw, visto che per SAM serviva necessariamente una cpu e chipset amd ultimo grido(5900x), ovvio che hitman2,anche senza sam, ha preso il volo con una cpu seria
quella con soli 76fps era stato testato con una ormai ridicola cpu intel,pure troppi con quel biroccio :OSi certo l'Intel Core i9-10900K è proprio un birocco come no .... era così limited la prima configurazione ( limited in 4K poi :asd: ) che però le Nvidia faceva 12fps in più e la 3090 ne faceva anche più di quanto AMD ha fatto con la seconda, peccato però queste 2 siano rimaste quasi invariate.
Certo che vi fate certe arrampicate ....

:mc:

E il bello è che il tuo amico lo sottolinea pure :

e che magicamente, in un altra loro review (cambia processore, ma come abbiamo già visto in 4k non cambia una mazza, se non decimi di frame), ne fa 76
Ovviamente quì è quando cercava di dar contro a Techpowerup, adesso che invece la situazione va a suo svantaggio ( molto di più rispetto al 6fps di Tech, che ha anch'essa cambiato configurazione ) la musica cambia .... :asd:

ionet
29-11-2020, 16:22
ovviamente era una battuta ironica/trappola:p
non avevo dubbi che ci cascavi
ma esattamente qual e' il valore per Hitman2 che ti sembra giusto?

per quanto mi riguarda in generale, in media le due gpu 3080 vs 6800xt in raster sono simili ,uguale e' inteso come "all'incirca"
e' il rt e l'incognita dello scaler targato amd che possono indirizzarti, tanto per andare sul sicuro, sulla proposta nvidia

ma visto la scarsa disponibilita' per entrambe, amd ha un po di tempo per dedicare anima e corpo a queste mancanze
se poi alla lunga le proposte amd tendono a rimanere un po dietro, si va di taglio prezzi, e di certo non ci penso nemmeno a spendere piu' 20/30% a fronte di un piu' 5/10% di prestazioni, per il 4k in rt c'e' poco da fare se non vai di scaler

e' tutto un compromesso, qualita', prestazioni ,consumi o prezzo che sia, ognuno accetta il suo;)
non e' un torneo chissene del fotofinish:sofico::mano:

nickname88
29-11-2020, 16:30
ovviamente era una battuta ironica/trappola:p
non avevo dubbi che ci cascavi
ma esattamente qual e' il valore per Hitman2 che ti sembra giusto?

per quanto mi riguarda in generale, in media le due gpu 3080 vs 6800xt in raster sono simili ,uguale e' inteso come "all'incirca"
e' il rt e l'incognita dello scaler targato amd che possono indirizzarti, tanto per andare sul sicuro, sulla proposta nvidia

ma visto la scarsa disponibilita' per entrambe, amd ha un po di tempo per dedicare anima e corpo a queste mancanze
se poi alla lunga le proposte amd tendono a rimanere un po dietro, si va di taglio prezzi, e di certo non ci penso nemmeno a spendere piu' 20/30% a fronte di un piu' 5/10% di prestazioni, per il 4k in rt c'e' poco da fare se non vai di scaler

e' tutto un compromesso, qualita', prestazioni ,consumi o prezzo che sia, ognuno accetta il suo;)
non e' un torneo chissene del fotofinish:sofico::mano:
Il punto della questione non era Hitman, ma l'attendibilità di Techpowerup rispetto ad hwup, dove qualcuno evidenziava come ad un cambio di configurazione su Tech ci sia stata una variazione di 6fps su Borderlands e quindi fosse una review NON attendibile. E che il risultato complessivo di Tech fosse differente da tutte le altre reviews.

Poi si scopre che l'unica review in cui la 6800XT sarebbe pari è quella di Hwup e che anche in quest'ultima a seguito di un cambio di configurazione ha avuto un cambiamento di valori su Hitman, ma non 6fps, ma una quindicina ( con SAM disattivato, stessa mappa, ris, e preset ).

per quanto mi riguarda in generale, in media le due gpu 3080 vs 6800xt in raster sono simili ,uguale e' inteso come "all'incirca"Prima dell'uscita tutti invece a dire come tendenzialmente sarebbe dovuta essere AMD quella avanti "all'incirca". Adesso invece che è tendenzialmente indietro è comunque uguale, ma vabbè.

ma visto la scarsa disponibilita' per entrambe, amd ha un po di tempo per dedicare anima e corpo a queste mancanzeAMD non era quella accreditata per il NON paper launch ?
Non era quella che a differenza di Nvidia doveva ristoccare ogni 2 per 3 ?
Per ora il confronto non è sulle performance ma sulla prima disponibile che uno riesce a trovare.

ionet
29-11-2020, 18:37
oddio fino a settembre ero rimasto che a malapena poteva a competere con la 2080ti/3070, per i simpatizzanti nvidia/scettici, per quelli amd/ottimisti speravano simile o poco dietro la 3080
alla fin fine siamo oltre le piu' rosee aspettative, riesce addirittura a competere con la 3090
certo poi non appena sono uscite le review, dopo lo stupore iniziale per amd che torna finalmente a giocarsela nella fascia estrema, poi era inevitabile che c'erano tanti sassolini da togliere dalle scarpe, punzecchiamenti da rivincita:D

tanto poi entrambe hanno i loro giochi pro uno o l'altra, ce ne insomma per controbattere ,far rimanere ognuno con le sue convinzioni, antipatie e simpatie

per i paper launch rassegniamoci, fa parte del marketing, se lo fa uno costringi l'altro, piu' vogliono guadagnarci con gli entusiasti che non badano a spese, scalper e l'ombra mining..
queste gpu saranno disponibili a prezzi calmierati per la massa a 2021 inoltrato:(