Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > Articoli

Recensione Zenfone 11 Ultra: il flagship ASUS ritorna a essere un 'padellone'
Recensione Zenfone 11 Ultra: il flagship ASUS ritorna a essere un 'padellone'
Zenfone 11 Ultra ha tantissime qualità interessanti, fra cui potenza da vendere, un display di primissimo livello, un comparto audio potente e prestazioni di connettività fra le migliori della categoria. Manca però dell'esclusività del predecessore, che in un settore composto da "padelloni" si distingueva per le sue dimensioni compatte. Abbiamo provato il nuovo flagship ASUS, e in questa recensione vi raccontiamo com'è andata.
Appian: non solo low code. La missione è l’ottimizzazione dei processi con l'IA
Appian: non solo low code. La missione è l’ottimizzazione dei processi con l'IA
Abbiamo partecipato ad Appian World 2024, evento dedicato a partner e clienti che si è svolto recentemente nei pressi di Washington DC, vicino alla sede storica dell’azienda. Nel festeggiare il 25mo anniversario, Appian ha annunciato diverse novità in ambito intelligenza artificiale
Lenovo ThinkVision 3D 27, la steroscopia senza occhialini
Lenovo ThinkVision 3D 27, la steroscopia senza occhialini
Primo contatto con il monitor Lenovo ThinkVision 3D 27 che grazie a particolari accorgimenti tecnici riesce a ricreare l'illusione della spazialità tridimensionale senza che sia necessario utilizzare occhialini
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 21-09-2020, 12:42   #201
cronos1990
Senior Member
 
L'Avatar di cronos1990
 
Iscritto dal: Jul 2008
Città: Falconara Marittima
Messaggi: 26452
Quote:
Originariamente inviato da _sissio_ Guarda i messaggi
TechpowerUp lo spiega come fa i test :

https://www.techpowerup.com/review/a...ming-oc/4.html


Tutti i giochi e le schede vengono testati con i driver sopra elencati: nessun risultato sulle prestazioni è stato riciclato tra i sistemi di test. Viene utilizzato solo questo sistema esatto con esattamente la stessa configurazione.
Tutte le schede grafiche vengono testate utilizzando la stessa versione del gioco.
Tutti i giochi sono impostati sulla massima qualità se non diversamente indicato.
AA e AF vengono applicati tramite le impostazioni di gioco, non tramite il pannello di controllo del conducente.
Prima di iniziare le misurazioni, riscaldiamo la scheda per ogni test per garantire che venga testato uno stato stazionario. Ciò garantisce che la carta non aumenti a clock irrealisticamente alti solo per pochi secondi fino a quando non si riscalda, poiché ciò non rappresenta un gameplay prolungato.
Ogni gioco viene testato a queste risoluzioni dello schermo:
1920x1080: la risoluzione del monitor più popolare.
2560x1440: risoluzione intermedia tra Full HD e 4K, con requisiti di prestazioni ragionevoli.
3840x2160: risoluzione 4K Ultra HD, disponibile sui più recenti monitor di fascia alta.
Ecco, questa è una metodologia corretta. Si potrebbe al limite discutere se fare delle modifiche a questo sistema, ma quello è un altro discorso.
cronos1990 è offline   Rispondi citando il messaggio o parte di esso
Old 21-09-2020, 14:42   #202
StylezZz`
Senior Member
 
L'Avatar di StylezZz`
 
Iscritto dal: Oct 2010
Messaggi: 8119
Quote:
Originariamente inviato da bonzoxxx Guarda i messaggi
Vabbè in definitiva che è riuscito ad accaparrarsi una 2080ti a 450-500€ provenendo da una 1060 ha fatto un affare, no?
Dipende anche dalle nuove Radeon, se a quel prezzo mi mettono un ipotetica RX 6800 con 12Gb che va quanto una 3070, allora no, non ha fatto un affare.
StylezZz` è offline   Rispondi citando il messaggio o parte di esso
Old 21-09-2020, 14:50   #203
bonzoxxx
Senior Member
 
L'Avatar di bonzoxxx
 
Iscritto dal: Aug 2008
Città: N.P.
Messaggi: 13571
Quote:
Originariamente inviato da StylezZz` Guarda i messaggi
Dipende anche dalle nuove Radeon, se a quel prezzo mi mettono un ipotetica RX 6800 con 12Gb che va quanto una 3070, allora no, non ha fatto un affare.
Vero, ci sta.
__________________
Sto cercando di disintossicarmi dall'Hardware... ma non ci sono riuscito
battutona ci gira Cyberpunk?
bonzoxxx è offline   Rispondi citando il messaggio o parte di esso
Old 21-09-2020, 16:42   #204
lucusta
Bannato
 
Iscritto dal: May 2001
Messaggi: 6246
Quote:
Originariamente inviato da _sissio_ Guarda i messaggi
I benchmarks dicon che la 3080 va in raster/rt circa il 20/30% (correggetemi se sbaglio) meglio della 2080TI.

Ho quindi ipotizzato che per "validare" i bench si deve verificare quanto segue :
1) i "parametri" e le modalità dei test eseguiti non devono esser cambiati nel tempo (ovvio non a parità di driver).
2) la "scala" dei valori delle GPU, nel tempo non deve cambiare.


sul punto 1) non abbiamo dati su cui ragionare, non so se tu li hai.

sul punto 2)fino alla 2080TI nei test del 2018, tutte le gpu facevano "x" fps, oggi nel test 2020 ne fanno tutte "x + x%" probabilmente grazie ai driver nuovi.
quindi se i valori di tutte le gpu testate nel 2018 sono più o meno identici a quelli misurati nel 2020, allora abbiamo un dato certo: la scala è corretta.

Quindi credo che il 20/30% che la 3080 ha guadagnato sulla 2080TI è un dato reale, sempre che le condizioni del test rispettino la legittimità della prova.

la domanda è: come fai a definire illegittima la prova se non sai esattamente come sono stati eseguiti i test ?

Se hai dati reali illuminaci, se non hai dati stiamo parlando di congetture e illazioni...

Mi in anticipo per eventuali errori, per grammatica/forma e sostanza del mio post
ok.
questo è il ragionamento che un normale appassionato potrebbe fare guardando questi dati.
premetto: non ti voglio dare lezioni di come si guardano queste cose, ne tantomeno insegnarti a farlo, ma ti voglio illustrare come si determina una scala di riferimento.
il punto dolente è proprio in primo.
tu cerchi riferimenti della scala da utilizzare sullo stesso campione che vedi analizzare.
non funziona bene, così.
devi avere un riferimento obbiettivo; una cosa che ti faccia dare una buona stima della misura.
qui stiamo cercando di capire se ci sia stato uno scostamento di un 10% dai dati che già abbiamo visto nelle precedenti prove (ed è un valore assai piccolo), quindi dovremmo trovare il metodo per capire se la scala ha lo stesso riferimento assoluto, ossia se non sono stati modificati i settaggi dei giochi e le variazioni dipendono solo dai driver e dalle prestazioni delle schede, o se invece si è cercato di portare a quei risultati.

in questo caso l'unico riferimento che hai in quei test è solamente la 5700 XT, in quanto, anche se ha avuto cambiamenti sui driver, le sue prestazioni non possono ricevere boost troppo elevati.

in questo confronto possiamo prendere solo i giochi in cui compaiono sia in una prova che nell'altra.
ad esempio AC da una parte è la versione odyssey, nell'altra Origins, quindi inconfrontabili.
il primo gioco che compare in entrambe le reviews è Far Cry 5, e su entrambe non viene specificato che settaggi abbiano usato.
2080 TI FE in FHD passa da 135.7 a 145.8, con un avanzamento del 7%;
in 1440p passa da 130 a 136.9, miglioramento del 5%, con però la questione che il framerate a 1440p è simile a quello a 1440p; la scheda in FHS è semplicemente in bottleneck CPU.
in 4K passiamo da 79.4 a 81.6, con un miglioramento del 3%.
essendo in bottleneck è meglio guardare schede che non presentino questa problematica su questo gioco, pur usando gli stessi driver.
per farlo andiamo sulla scheda che fa di meno e ne controlliamo il guadagno di framerat passando da 1440p a 1080p; tutte le schede che presenteranno un rapporto di guadagno simile, non saranno in bottleneck (solitamente si ha una certa uniformità in questo ambito, a scanso di problemi accessori, come per esempio dovuti alla scarsità di VRAM ad alta risoluzione).
la 980 va da 60.6 a 60.6, guadagno 1.326.
la 1070 presenta un guadagno addirittura più alto, con 1.374.
la 1070 Ti presenta 1.344.
la vega 56 presenta 1.354.
gtx 1080 1.326.
vega 64 1.290.
la 1080 Ti già comincia ad avere un calo , ottenendo solo 1.228, segno che la CPU è in bottleneck in FHD.
la 2080 presenta 1.203: bottleneck.
la 2080 Ti (prendiamo solo la FE, che della stirx, essendo custom, non c'importa granchè, visto che non devrebbe essere ritestata in seguito) 1.038; palese bottleneck che potrebbe presentarsi anche alla risoluzione più alta.

di solito il bottleneck della CPU si presenta grossomodo allo stesso frametime e possiamo dire che già sui valori della vega 64 siamo in situazione in cui la CPU spesso arriva al limite, abbassando quindi la media e quindi il rapporto tra le due risoluzioni; significa che già quando sei su una media di 120FPS , per il benchmark che stiamo valutando, la CPU andra sempre più spesso al limite e la media si alzerà solamente perchè hai minimi, dati dalla potenza bruta della GPU, più alti, perchè disponi di più potenza grafica.
sembra comunque che in 4K nessuna scheda potrebbe manifestare bottleneck da CPU, e si può verificare facendo il rapporto prestazionale sulle risoluzioni 1440p e 4K; se dalla scheda meno potente a quella più potente abbiamo sempre un valore simile, non sei in bottleneck.
la 980 presenta un 1.848
1070 1.883
1070 TI 1.874
vega 56 1.813
1080 1.857
vega 64 1.810
1080 Ti 1.776
2080 1.776
2080 Ti 1.637
come vedi anche qui hai che dalla vega 64 in poi il guadagno sulla risoluzione comincia a calare, segno che in questo benchmark ci sono comunque scene molto leggere che fanno schizzare il framerate e che la CPU raggiunge il suo limite, causando un leggero bottleneck della CPU.
man mano che le potenze delle GPU si alzano, questo viene accentuato, perchè il rapporto tra minimi e massimi si attenua, avendo il framerate massimo sempre più tagliato per l'esubero di potenza grafica.
le medie salgono perchè salgono solo i minimi perchè hai più potenza grafica, ma non salgono come sulle schede meno prestanti perchè non riesci a raggiungere i massimi che dovresti fare a causa della CPU.

questo serve ad analizzare il benchmark e a capire la deviazione che dovresti osservare sui numeri che vengono generati;
serve però anche per ottenere il reference che ci serve, sperando di trovarlo anche nelle altre prove.

ma, come già ti ho detto, nelle prove della 3080 trovi solo la 5700 XT da usare come riferimento diretto.
non avendola nella prova della 2080 ti lo dovrai usare indirettamente.
apri la prova della 5700 XT e confronti i risultati della 5700 xt con quelli della vega 64 (o 56).
andiamo sulla prova della 5700 xt ( https://www.techpowerup.com/review/a...700-xt/16.html ) e troviamo questa scala:
5700 XT 127, 106, 58.6
vega 64 119.1, 90.3, 50.1
vega 56 110.7, 81.5, 45.0
andiamo nella prova della 2080 Ti strix e troviamo questi dati:
vega 64 117.9, 91.4, 50.6
vega 56 111.7, 82.5, 45.5
controlliamo i rapporti prestazionali di 56 e 64 su entrambe le prove.
prova 5700 xt
1.076, 1.108, 1.113
prova 2080 ti strix
1.055, 1.108, 1.112
quindi, guardando questi numeri, possiamo dire che dalla prova della strix alla prova della 5700 xt vega 64 e vega 56 non hanno sostanzialmente cambiato le loro prestazioni (tra i valori assoluti abbiamo si e no l'1% di variazione), e che comunque rispondono alla stessa maniera all'aumento di risoluzione.
ora lo stesso lavoro si deve fare sulla 5700 XT sia sulla prova che la interessa direttamente che sulla prova che interessa la 3080, dove otteneva :
5700 XT sulla sua prova: 127, 106, 58.6
5700 XT sulla prova della 3080: 133.2, 108.8, 59.1
1.0488, 1.026, 1.008
questa scheda ha avuto un buon guadagno in FHD, meno in 1440p e 4K.
questo guadagno è dovuto ai driver?
non sembra, perchè le vega non hanno giovato dello stesso guadagno, pur essendo una scheda diversa, con una diversa architettura, avrebbe giovato comunque anche su questa.
abbiamo anche altre schede da poter confrontare, come la 2080.
la 2080 ha avuto questa progressione:
133.3, 110.8, 62.4 nella prova della strix
137.4, 112.5, 63.9 nella prova della 5700 XT
141.3, 113.4, 64.4 nella prova della 3080
137.4 rispetto a 141.3 nel giro di pochi mesi, con un guadagno del 2.8%...
driver?
non credo.
questo avanzamento di prestazioni tra la prova della 5700 e quella della 3080 lo trovi in tutte le schede che compaiono in entrambe le prove.
(prima la prova della 3080 poi la prova della 5700 XT):
2070: 124.7/123.6= 1.009
5700 XT: 133.2/127.0= 1.0489
2070 super: 136.6/132.2= 1.033
1080 ti 139/138.1 = 1.007
2080 141.3/137.4= 1.028
2080 TI 145.5/142= 1.0246
è uno scostamento generale più o meno accentuato, ma che viene riservato a tutte le schede, con l'eccezione della 5700 XT che ha guadagnato molto di più delle altre.
si spiega con il fatto che probabilmente c'è stato un miglioramento dei driver, ma anche che la CPU ha dato di più, e se vai a guardare le configurazioni trovi che son cambiate le memorie.
sulla 2080 strix si usavano le G.SKILL 16 GB Trident-Z DDR4 3867 MHz 18-19-19-39, sulla prova della 3080 il processore è rimasto lo stesso, ma le memorie sono state aggiornate con delle Thermaltake TOUGHRAM, 16 GB DDR4 4000 MHz 19-23-23-42.
questi pochi mhz in più sulle memorie sono riusciti a dare quel piccolo boost in più, quantificabile in un 2-3% e che poi vedere guardando la 2080 Ti a 4k confrontando la prima prova con la strix, dove faceva 79.4 e l'ultima con la 3080, dove otteneva 81.8, ossia proprio il 3% di boost.

sono piccole variazioni, siamo d'accordo, ma non è questo il gioco che ci interessava effetivamente analizzare, perchè, in finale, in questo gioco la 3080 ha dimostrato il suo +27% dalla 2080 Ti in 4K.
qui si parla con gente che la da a +55% dalla 2080 Ti...
inutile guardare a risoluzioni inferiori perchè ci si trova in palese bottleneck della CPU.

abbiamo appurato quindi che c'è stato un cambiamento per via dell'aggiornamento delle memorie.
un 3% medio, ma che fa il suo, non tanto in riferimento alle vecchie schede che trovi nella stessa prova, ma come valore assoluto: serviva un minimo boost prestazionale per far vedere che in alcuni giochi arrivasse a 60fps a 4K.

poi, trovare gente che spende più per 16GB di ram che per la GPU, ancora me la devono presentare... è quindi solo una questione di pubblicità per far vedere che arriva a 4K@60fps.

ora passiamo agli altri giochi su cui possiamo andare a ragionare cercando di sviare l'altro problema di queste recensioni: il cambio dei riferimenti che hai, ossia cambiare la maggior parte dei giochi, in modo da non potere avere un confronto con il passato.
capisco che non avrebbe senso testare queste schede con giochi vecchi, ma lo ha in quest'ottica, ossia vedere effettivamente il progresso che hanno dato, non come vanno su quelo o l'altro gioco.
non ha senso poi rimettere in lista "Anno 1800", e togliere un Rice of the tomb raider che scala ancora molto bene con le prestazioni.
questo era il metodo per capire se ci siano state variazioni, di driver, di settaggi o di configurazione nel tempo, che sono effetti che si sommano tra di loro.
interessante sarà andare a guardare giochi in cui è la GPU a fare da tappo alle prestazioni.

prendiamo l'unico altro gioco che compare nella vecchia prova ed in quella nuova:
puoi fare la stessa triangolazione con civilization IV, magari inserendo anche la vega VII nel confronto, e vedere che in quel gioco i settaggi siano stati decisamente alleggeriti, e che sia impossibile che ci sia stato un boost dato dalle memorie o dai driver.

il resto dei giochi puoi controllarlo con la 5700 XT, che usa la stessa suite di giochi.
noterai, ad esempio, che la 5700 XT in metro exodus è pasata da 37.7fps a 47.2fps in 4K; parliamo di un miglioramento sui driver del 25.2%?
è un pochino esagerato, se permetti, ed anche il boost delle memorie da 3867 a 4000 su un gioco del genere, che è GPU limited e non CPU limited, è assai trascurabile.
ecco, in quel caso ti accorgerai che oltre ai driver, oltre alle memorie, sono intevenuti anche in altri parametri e senza accennarlo, come non è stato esplicitamente accennato che hanno cambiato le RAM di sistema (rendendo, di fatto, non direttamente confrontabili i riferimenti).

ora ho da fare, ma ti prometto che ti faccio anche l'analisi di civilizzatione e degli altri giochi che compaiono tra la prova della 3080 e la prova della 5700 xt...
mi preme capire se hai compreso il metodo di analisi incrociata, perchè quello è importante capire per poi vedere se ci sono state o meno sofisticazioni sui settaggi (o se hanno usato driver che abbassano il potenziale delle 2000 in certe situazioni); come vedi già solo questo ha portato via tutto il tempo che avevo a disposizione oggi :/
lucusta è offline   Rispondi citando il messaggio o parte di esso
Old 21-09-2020, 16:48   #205
lucusta
Bannato
 
Iscritto dal: May 2001
Messaggi: 6246
Quote:
Originariamente inviato da cronos1990 Guarda i messaggi
Ecco, questa è una metodologia corretta. Si potrebbe al limite discutere se fare delle modifiche a questo sistema, ma quello è un altro discorso.
si, questo è sufficientemente corretto.
nulla di tutto quello sopra però ti assicura che lo facciano realmente.
è qui che c'è il "contratto virtuale" tra lettore e recensore, dove s'instaura la fiducia.
stiamo valutando appunto la fiducia che riponiamo in queste persone, o meglio la nostra cedulità.
lucusta è offline   Rispondi citando il messaggio o parte di esso
Old 21-09-2020, 16:51   #206
lucusta
Bannato
 
Iscritto dal: May 2001
Messaggi: 6246
Quote:
Originariamente inviato da AceGranger Guarda i messaggi
il confronto lo si avra fra poco, quando usciranno le QUADRO Ampere.

Visto che non esistono GDDR6X con chip da 2GB, la TOP gamma QUADRO con 48GB dovra montare necessariamente le GDDR6 normali;

non è certo lo stesso quantitativo ma si avra un paragone in piu; la QUADRO 24GB probabilmente usera le GDDR6X; nel caso in cui usasse anche lei le normali avremmo un confronto quasi perfetto ( perchè presumo avra il chip full e non cuttato ).
oggi ti sei svegliato male... ti ci vuole un caffè.
le GDDR6x da 2GB (o 16Gb) si usano "già", visto che non sonoancora uscite, sulla 3090, che ha 24GB di VRAM;
le quadro, che potrebbero avere 48GB, dovrebbero usare chip da 4GB...
in dubbio sono questi, ma lo sono comunque anche per le GDDR6 normali...
lucusta è offline   Rispondi citando il messaggio o parte di esso
Old 21-09-2020, 17:16   #207
cronos1990
Senior Member
 
L'Avatar di cronos1990
 
Iscritto dal: Jul 2008
Città: Falconara Marittima
Messaggi: 26452
Quote:
Originariamente inviato da lucusta Guarda i messaggi
si, questo è sufficientemente corretto.
nulla di tutto quello sopra però ti assicura che lo facciano realmente.
è qui che c'è il "contratto virtuale" tra lettore e recensore, dove s'instaura la fiducia.
stiamo valutando appunto la fiducia che riponiamo in queste persone, o meglio la nostra cedulità.
Si, chiaro. Stavo anche per scriverlo nel commento precedente, ma credo sia una cosa lapalissiana.

D'altronde parliamo pur sempre di test effettuati da testate più o meno indipendenti che non hanno certo la necessità (nè la volontà di averli molto probabilmente) controlli incrociati o certificazioni varie per dare una valenza di certezza.
Prima il guadagno, l'attendibilità viene dopo.
cronos1990 è offline   Rispondi citando il messaggio o parte di esso
Old 21-09-2020, 17:21   #208
_sissio_
Member
 
Iscritto dal: Dec 2017
Messaggi: 254
Quote:
Originariamente inviato da lucusta Guarda i messaggi
ok.
questo è il ragionamento che un normale appassionato potrebbe fare guardando questi dati.
premetto: non ti voglio dare lezioni di come si guardano queste cose, ne tantomeno insegnarti a farlo, ma ti voglio illustrare come si determina una scala di riferimento.
il punto dolente è proprio in primo.
tu cerchi riferimenti della scala da utilizzare sullo stesso campione che vedi analizzare.
non funziona bene, così.
devi avere un riferimento obbiettivo; una cosa che ti faccia dare una buona stima della misura.
qui stiamo cercando di capire se ci sia stato uno scostamento di un 10% dai dati che già abbiamo visto nelle precedenti prove (ed è un valore assai piccolo), quindi dovremmo trovare il metodo per capire se la scala ha lo stesso riferimento assoluto, ossia se non sono stati modificati i settaggi dei giochi e le variazioni dipendono solo dai driver e dalle prestazioni delle schede, o se invece si è cercato di portare a quei risultati.

in questo caso l'unico riferimento che hai in quei test è solamente la 5700 XT, in quanto, anche se ha avuto cambiamenti sui driver, le sue prestazioni non possono ricevere boost troppo elevati.

in questo confronto possiamo prendere solo i giochi in cui compaiono sia in una prova che nell'altra.
ad esempio AC da una parte è la versione odyssey, nell'altra Origins, quindi inconfrontabili.
il primo gioco che compare in entrambe le reviews è Far Cry 5, e su entrambe non viene specificato che settaggi abbiano usato.
2080 TI FE in FHD passa da 135.7 a 145.8, con un avanzamento del 7%;
in 1440p passa da 130 a 136.9, miglioramento del 5%, con però la questione che il framerate a 1440p è simile a quello a 1440p; la scheda in FHS è semplicemente in bottleneck CPU.
in 4K passiamo da 79.4 a 81.6, con un miglioramento del 3%.
essendo in bottleneck è meglio guardare schede che non presentino questa problematica su questo gioco, pur usando gli stessi driver.
per farlo andiamo sulla scheda che fa di meno e ne controlliamo il guadagno di framerat passando da 1440p a 1080p; tutte le schede che presenteranno un rapporto di guadagno simile, non saranno in bottleneck (solitamente si ha una certa uniformità in questo ambito, a scanso di problemi accessori, come per esempio dovuti alla scarsità di VRAM ad alta risoluzione).
la 980 va da 60.6 a 60.6, guadagno 1.326.
la 1070 presenta un guadagno addirittura più alto, con 1.374.
la 1070 Ti presenta 1.344.
la vega 56 presenta 1.354.
gtx 1080 1.326.
vega 64 1.290.
la 1080 Ti già comincia ad avere un calo , ottenendo solo 1.228, segno che la CPU è in bottleneck in FHD.
la 2080 presenta 1.203: bottleneck.
la 2080 Ti (prendiamo solo la FE, che della stirx, essendo custom, non c'importa granchè, visto che non devrebbe essere ritestata in seguito) 1.038; palese bottleneck che potrebbe presentarsi anche alla risoluzione più alta.

di solito il bottleneck della CPU si presenta grossomodo allo stesso frametime e possiamo dire che già sui valori della vega 64 siamo in situazione in cui la CPU spesso arriva al limite, abbassando quindi la media e quindi il rapporto tra le due risoluzioni; significa che già quando sei su una media di 120FPS , per il benchmark che stiamo valutando, la CPU andra sempre più spesso al limite e la media si alzerà solamente perchè hai minimi, dati dalla potenza bruta della GPU, più alti, perchè disponi di più potenza grafica.
sembra comunque che in 4K nessuna scheda potrebbe manifestare bottleneck da CPU, e si può verificare facendo il rapporto prestazionale sulle risoluzioni 1440p e 4K; se dalla scheda meno potente a quella più potente abbiamo sempre un valore simile, non sei in bottleneck.
la 980 presenta un 1.848
1070 1.883
1070 TI 1.874
vega 56 1.813
1080 1.857
vega 64 1.810
1080 Ti 1.776
2080 1.776
2080 Ti 1.637
come vedi anche qui hai che dalla vega 64 in poi il guadagno sulla risoluzione comincia a calare, segno che in questo benchmark ci sono comunque scene molto leggere che fanno schizzare il framerate e che la CPU raggiunge il suo limite, causando un leggero bottleneck della CPU.
man mano che le potenze delle GPU si alzano, questo viene accentuato, perchè il rapporto tra minimi e massimi si attenua, avendo il framerate massimo sempre più tagliato per l'esubero di potenza grafica.
le medie salgono perchè salgono solo i minimi perchè hai più potenza grafica, ma non salgono come sulle schede meno prestanti perchè non riesci a raggiungere i massimi che dovresti fare a causa della CPU.

questo serve ad analizzare il benchmark e a capire la deviazione che dovresti osservare sui numeri che vengono generati;
serve però anche per ottenere il reference che ci serve, sperando di trovarlo anche nelle altre prove.

ma, come già ti ho detto, nelle prove della 3080 trovi solo la 5700 XT da usare come riferimento diretto.
non avendola nella prova della 2080 ti lo dovrai usare indirettamente.
apri la prova della 5700 XT e confronti i risultati della 5700 xt con quelli della vega 64 (o 56).
andiamo sulla prova della 5700 xt ( https://www.techpowerup.com/review/a...700-xt/16.html ) e troviamo questa scala:
5700 XT 127, 106, 58.6
vega 64 119.1, 90.3, 50.1
vega 56 110.7, 81.5, 45.0
andiamo nella prova della 2080 Ti strix e troviamo questi dati:
vega 64 117.9, 91.4, 50.6
vega 56 111.7, 82.5, 45.5
controlliamo i rapporti prestazionali di 56 e 64 su entrambe le prove.
prova 5700 xt
1.076, 1.108, 1.113
prova 2080 ti strix
1.055, 1.108, 1.112
quindi, guardando questi numeri, possiamo dire che dalla prova della strix alla prova della 5700 xt vega 64 e vega 56 non hanno sostanzialmente cambiato le loro prestazioni (tra i valori assoluti abbiamo si e no l'1% di variazione), e che comunque rispondono alla stessa maniera all'aumento di risoluzione.
ora lo stesso lavoro si deve fare sulla 5700 XT sia sulla prova che la interessa direttamente che sulla prova che interessa la 3080, dove otteneva :
5700 XT sulla sua prova: 127, 106, 58.6
5700 XT sulla prova della 3080: 133.2, 108.8, 59.1
1.0488, 1.026, 1.008
questa scheda ha avuto un buon guadagno in FHD, meno in 1440p e 4K.
questo guadagno è dovuto ai driver?
non sembra, perchè le vega non hanno giovato dello stesso guadagno, pur essendo una scheda diversa, con una diversa architettura, avrebbe giovato comunque anche su questa.
abbiamo anche altre schede da poter confrontare, come la 2080.
la 2080 ha avuto questa progressione:
133.3, 110.8, 62.4 nella prova della strix
137.4, 112.5, 63.9 nella prova della 5700 XT
141.3, 113.4, 64.4 nella prova della 3080
137.4 rispetto a 141.3 nel giro di pochi mesi, con un guadagno del 2.8%...
driver?
non credo.
questo avanzamento di prestazioni tra la prova della 5700 e quella della 3080 lo trovi in tutte le schede che compaiono in entrambe le prove.
(prima la prova della 3080 poi la prova della 5700 XT):
2070: 124.7/123.6= 1.009
5700 XT: 133.2/127.0= 1.0489
2070 super: 136.6/132.2= 1.033
1080 ti 139/138.1 = 1.007
2080 141.3/137.4= 1.028
2080 TI 145.5/142= 1.0246
è uno scostamento generale più o meno accentuato, ma che viene riservato a tutte le schede, con l'eccezione della 5700 XT che ha guadagnato molto di più delle altre.
si spiega con il fatto che probabilmente c'è stato un miglioramento dei driver, ma anche che la CPU ha dato di più, e se vai a guardare le configurazioni trovi che son cambiate le memorie.
sulla 2080 strix si usavano le G.SKILL 16 GB Trident-Z DDR4 3867 MHz 18-19-19-39, sulla prova della 3080 il processore è rimasto lo stesso, ma le memorie sono state aggiornate con delle Thermaltake TOUGHRAM, 16 GB DDR4 4000 MHz 19-23-23-42.
questi pochi mhz in più sulle memorie sono riusciti a dare quel piccolo boost in più, quantificabile in un 2-3% e che poi vedere guardando la 2080 Ti a 4k confrontando la prima prova con la strix, dove faceva 79.4 e l'ultima con la 3080, dove otteneva 81.8, ossia proprio il 3% di boost.

sono piccole variazioni, siamo d'accordo, ma non è questo il gioco che ci interessava effetivamente analizzare, perchè, in finale, in questo gioco la 3080 ha dimostrato il suo +27% dalla 2080 Ti in 4K.
qui si parla con gente che la da a +55% dalla 2080 Ti...
inutile guardare a risoluzioni inferiori perchè ci si trova in palese bottleneck della CPU.

abbiamo appurato quindi che c'è stato un cambiamento per via dell'aggiornamento delle memorie.
un 3% medio, ma che fa il suo, non tanto in riferimento alle vecchie schede che trovi nella stessa prova, ma come valore assoluto: serviva un minimo boost prestazionale per far vedere che in alcuni giochi arrivasse a 60fps a 4K.

poi, trovare gente che spende più per 16GB di ram che per la GPU, ancora me la devono presentare... è quindi solo una questione di pubblicità per far vedere che arriva a 4K@60fps.

ora passiamo agli altri giochi su cui possiamo andare a ragionare cercando di sviare l'altro problema di queste recensioni: il cambio dei riferimenti che hai, ossia cambiare la maggior parte dei giochi, in modo da non potere avere un confronto con il passato.
capisco che non avrebbe senso testare queste schede con giochi vecchi, ma lo ha in quest'ottica, ossia vedere effettivamente il progresso che hanno dato, non come vanno su quelo o l'altro gioco.
non ha senso poi rimettere in lista "Anno 1800", e togliere un Rice of the tomb raider che scala ancora molto bene con le prestazioni.
questo era il metodo per capire se ci siano state variazioni, di driver, di settaggi o di configurazione nel tempo, che sono effetti che si sommano tra di loro.
interessante sarà andare a guardare giochi in cui è la GPU a fare da tappo alle prestazioni.

prendiamo l'unico altro gioco che compare nella vecchia prova ed in quella nuova:
puoi fare la stessa triangolazione con civilization IV, magari inserendo anche la vega VII nel confronto, e vedere che in quel gioco i settaggi siano stati decisamente alleggeriti, e che sia impossibile che ci sia stato un boost dato dalle memorie o dai driver.

il resto dei giochi puoi controllarlo con la 5700 XT, che usa la stessa suite di giochi.
noterai, ad esempio, che la 5700 XT in metro exodus è pasata da 37.7fps a 47.2fps in 4K; parliamo di un miglioramento sui driver del 25.2%?
è un pochino esagerato, se permetti, ed anche il boost delle memorie da 3867 a 4000 su un gioco del genere, che è GPU limited e non CPU limited, è assai trascurabile.
ecco, in quel caso ti accorgerai che oltre ai driver, oltre alle memorie, sono intevenuti anche in altri parametri e senza accennarlo, come non è stato esplicitamente accennato che hanno cambiato le RAM di sistema (rendendo, di fatto, non direttamente confrontabili i riferimenti).

ora ho da fare, ma ti prometto che ti faccio anche l'analisi di civilizzatione e degli altri giochi che compaiono tra la prova della 3080 e la prova della 5700 xt...
mi preme capire se hai compreso il metodo di analisi incrociata, perchè quello è importante capire per poi vedere se ci sono state o meno sofisticazioni sui settaggi (o se hanno usato driver che abbassano il potenziale delle 2000 in certe situazioni); come vedi già solo questo ha portato via tutto il tempo che avevo a disposizione oggi :/
Ho capito, grazie. Devo cmq rileggere con calma. Quello che ho appurato è che a volte anche la cpu è differente ad esempio nella nuova rece hanno usato un i9 9900k...

A questo punto quando mi arriverà la 3080 valuterò i risultati empiricamente con la scheda che ho in firma è qui si, a parità di condizioni.

Ottima analisi la tua...



Inviato dal mio HTC One utilizzando Tapatalk
__________________
Case Lian Li Dynamic Evo - Mobo Crosshair Hero X670E - Cpu Ryzen 7800x3d - Aio Nzxt Kraken x62 - Ram G.Skill Neo 6000mhz 64Gb - NVME Samsung 980 - Gpu Rtx TUF 3070 - PSU Seasonic Px750w Monitor VG279QM 280hz

Ultima modifica di _sissio_ : 21-09-2020 alle 17:39.
_sissio_ è offline   Rispondi citando il messaggio o parte di esso
Old 21-09-2020, 17:48   #209
MiKeLezZ
Senior Member
 
L'Avatar di MiKeLezZ
 
Iscritto dal: Jul 2003
Messaggi: 26775
Quote:
Originariamente inviato da cronos1990 Guarda i messaggi
Si, chiaro. Stavo anche per scriverlo nel commento precedente, ma credo sia una cosa lapalissiana.

D'altronde parliamo pur sempre di test effettuati da testate più o meno indipendenti che non hanno certo la necessità (nè la volontà di averli molto probabilmente) controlli incrociati o certificazioni varie per dare una valenza di certezza.
Prima il guadagno, l'attendibilità viene dopo.
L'ho già detto e l'hanno detto più volte che spesso riutilizzano i dati di vecchi test, sia da una parte perché non hanno possibilità di avere sempre tutte le VGA a disposizione, sia perché comunque il sistema di test è unico e col tempo lo aggiornano, sia perché semplicemente non hanno voglia di spendere ogni volta 10 giorni per rifare tutti i test da zero.

Le testate che usano test confrontabili sono pochissime.

Per questo bisogna andare di spannometria. Anche perché tanto, quando poi la VGA la usate a casa, basta un settaggio leggermente diverso (i fantasiosi miglioramenti dei driver non esistono, se non nei giochi appena usciti) e vi perdere pure 5 o 10 fps, e allora che vi fate a fare le pippe per 1 o 2 fps di differenza.........?

Ultima modifica di MiKeLezZ : 21-09-2020 alle 17:50.
MiKeLezZ è offline   Rispondi citando il messaggio o parte di esso
Old 21-09-2020, 18:43   #210
digieffe
Senior Member
 
L'Avatar di digieffe
 
Iscritto dal: Oct 2003
Città: Milano
Messaggi: 4053
non ho letto l'ultima 20na di post, lo farò stasera

nel frattempo (prima che ve le suoniate di santa ragione ) date un'occhiata alle condizioni di test qui -> https://www.bitsandchips.it/english-...entific-method <-

è solo il primo link che ho trovato,
ovviamente se avete un reale interesse seguite i link all'interno per approfondire
__________________
spesso, è solo quando sai che non ti resta molto tempo che ne apprezzi il reale valore
quote: "some users are a classic example of the inverse ratio between the size of the mouth and the size of the brain"
* se non vi rispondo è perché siete (200+) nella mia ignore list * mi chiedo perché chi è nella ignore list è spesso sospeso e, prima o poi, viene bannato *
digieffe è offline   Rispondi citando il messaggio o parte di esso
Old 21-09-2020, 20:40   #211
lucusta
Bannato
 
Iscritto dal: May 2001
Messaggi: 6246
Quote:
Originariamente inviato da MiKeLezZ Guarda i messaggi
L'ho già detto e l'hanno detto più volte che spesso riutilizzano i dati di vecchi test, sia da una parte perché non hanno possibilità di avere sempre tutte le VGA a disposizione, sia perché comunque il sistema di test è unico e col tempo lo aggiornano, sia perché semplicemente non hanno voglia di spendere ogni volta 10 giorni per rifare tutti i test da zero.

Le testate che usano test confrontabili sono pochissime.

Per questo bisogna andare di spannometria. Anche perché tanto, quando poi la VGA la usate a casa, basta un settaggio leggermente diverso (i fantasiosi miglioramenti dei driver non esistono, se non nei giochi appena usciti) e vi perdere pure 5 o 10 fps, e allora che vi fate a fare le pippe per 1 o 2 fps di differenza.........?
secondo le loro stesse ammissioni non lo fanno.
se lo facessero sbaglierebbero, perchè confronterebbero fischi con fiaschi...

qui non ci facciamo le pippe per 1 o 2 fps, ma analiziamo i dati per capire se ci fanno fessi.
1 o 2 fps non sono nulla, se non hai 1 o 2 fps di massimo e poi ti risultano 3 o 4.. in quel caso hai ottenuto dal 50% al 400% di guadagno e, come dici tu, i fantastici driver che ti fanno guadagnare così tanto non esistono se non nei giochi appena usciti e con la patch day...

a questi signori si contesta il fatto che si cambiano ogni volta le carte in tavola per sostenere il prodotto che viene pubblicizzato di più.
non mi puoi cambiare tutti i riferimenti di una suite da un test all'altro, perchè oggi ti gira così; non è professionale e loro sostengono di essere professionisti della materia.

quindi, ti ripeto, non prendo proprio in considerazione i dati, per capire se A è meglio di B, prendo in considerazione i dati per capire se chi li ha prodotti ha le credenziali per dirmi che A è meglio di B, perchè se le ha, non c'è manco bisogno di fare i test: mi fido a prescindere.

Quote:
Originariamente inviato da digieffe Guarda i messaggi
non ho letto l'ultima 20na di post, lo farò stasera

nel frattempo (prima che ve le suoniate di santa ragione ) date un'occhiata alle condizioni di test qui -> https://www.bitsandchips.it/english-...entific-method <-

è solo il primo link che ho trovato,
ovviamente se avete un reale interesse seguite i link all'interno per approfondire
me la sono persa questa discussione! chissa perchè...
lucusta è offline   Rispondi citando il messaggio o parte di esso
Old 21-09-2020, 20:56   #212
lucusta
Bannato
 
Iscritto dal: May 2001
Messaggi: 6246
Quote:
Originariamente inviato da _sissio_ Guarda i messaggi
Ho capito, grazie. Devo cmq rileggere con calma. Quello che ho appurato è che a volte anche la cpu è differente ad esempio nella nuova rece hanno usato un i9 9900k...

A questo punto quando mi arriverà la 3080 valuterò i risultati empiricamente con la scheda che ho in firma è qui si, a parità di condizioni.

Ottima analisi la tua...



Inviato dal mio HTC One utilizzando Tapatalk
lo ribadisco: non voglio dare lezioni a nessuno, ho insegnare metodologie di peer review.
ho solo abbastanza esperienza e vorrei metterla a disposizione della comunità per aiutare le persone a definire se un test è fatto bene o male.

dopo, se ti va, analizzo il resto dei giochi per vedere se espongolo altre incongruenze tali da aver reso i test poco indicativi.

nel mio lavoro un'incongruenza significa o metodologia errata (ma è ben difficile, perchè procedure e metodologie seguono un iter ispettivo di circa un anno per poi essere ufficializzate e stampate sulle farmacopee), o un errore di chi esegue l'analisi, che ha scritto semplicemente un numero per un'altro (ma è facilmente ricostruibile ricontrollando grafici e calcoli), o una sofisticazione in malafede.
queste revisioni vengono fatte su ogni singola analisi su uno o due step di verifica, poi c'è chi, come me, ne delinea anche i trend generali per scorgere deviazioni di processi o derive per trovarne le cause sistematiche o estemporanee per eliminarle e ricondurre il trend su linea piatta.
lo scopo di un QA/QC è quello di certificare la qualità ed assicurare la massima qualità di produzione seguendo i metodi prescritti, non quello di pubblicizzare prodotti consumer al pubblico... quella è roba da ufficio marketing.
lucusta è offline   Rispondi citando il messaggio o parte di esso
Old 21-09-2020, 21:03   #213
AceGranger
Senior Member
 
Iscritto dal: May 2005
Messaggi: 11683
Quote:
Originariamente inviato da lucusta Guarda i messaggi
oggi ti sei svegliato male... ti ci vuole un caffè.
le GDDR6x da 2GB (o 16Gb) si usano "già", visto che non sonoancora uscite, sulla 3090, che ha 24GB di VRAM;
le quadro, che potrebbero avere 48GB, dovrebbero usare chip da 4GB...
in dubbio sono questi, ma lo sono comunque anche per le GDDR6 normali...
una nuova perla ?

https://www.overclock3d.net/news/sof...future_plans/1


Right now, Micron's GDDR6X memory chips are only available in 8Gb densities, translating to 1GB of capacity. In 2021, Micron plans to offer 16Gb (2GB) GDDR6X memory chips, which will allow for the creation of Ampere graphics cards with larger memory densities.

This means that Nvidia's RTX 3090 graphics card will use 24 8Gb GDDR6X memory chips at launch, a factor which explains why the graphics cards costs as much as it does.


3080 10 chip da 1Gb 1 lato
3090 24 chip da 1Gb 2 lati

Quadro 24 Chip da 2Gb 2 lati, GDDR6 se le fanno uscire ora GDDR6X se le faranno uscire nel 2021.

circola un leak di una Ampere da 48Gb, quindi o è una Quadro con GDDR6 in procinto di uscire o un leak di Quadro con GDDR6X uscito troppo in anticipo.

chip da 4Gb non esistono manco GDDR6 figuriamoci GDDR6X

https://www.micron.com/products/ultr...olutions/gddr6
https://www.micron.com/products/ultr...lutions/gddr6x
__________________
AMD 3970X - TRX40 PRO 10G - 128 Gb - 2080Ti - Dual 4K - No More Render - Leica RTC360 & BLK360

Ultima modifica di AceGranger : 21-09-2020 alle 21:10.
AceGranger è offline   Rispondi citando il messaggio o parte di esso
Old 21-09-2020, 22:36   #214
nickname88
Bannato
 
Iscritto dal: Apr 2016
Messaggi: 19106
Adesso ha trovato un altro pelo nell'uovo sul fatto che abbiano usato le 9900K ora anzichè AMD
In una risoluzione di 4K ovviamente è storicamente risaputo che i casi di CPU limited siano presenti in maniera rilevante.
nickname88 è offline   Rispondi citando il messaggio o parte di esso
Old 21-09-2020, 23:53   #215
lucusta
Bannato
 
Iscritto dal: May 2001
Messaggi: 6246
continuiamo quest'analisi sulle reviews di TPU.
https://www.techpowerup.com/review/n...edition/7.html
https://www.techpowerup.com/review/a...on-rx-5700-xt/
https://www.techpowerup.com/review/n...nders-edition/
ANNO 1800:
gioco graficamente pesante, ma molto dominato dalla CPU.
tutte le GPU in FHD sono in bottleneck CPU (lo si evince dallo scarso risultato che ottiene la 3080, a poco più di 60 e praticamente coincidente con quanto si ottiene a 1440p).
la 5700 XT conferma che anche in questo gioco le memorie a 4000mhz hanno portato i loro vantaggi, con un aumento del 4.1% su questa scheda, ma possiamo anche dire che pure la vega 56 è spesso e volentieri con la CPU al limite, facendo 52fps...
senza grafici di occupazione della CPU (per singolo core), ed occupazione della GPU, queste cose non sono evidenti; con i grafici si sarebbe riconosciuto immediatamente per quanto tempo la GPU aspettava i comodi della CPU.
questa è una grave mancanza delle reviews che le declassa parecchio ai miei occhi.
lo stesso miglioramento della 5700 XT lo troviamo grossomodo con la 2070 super:
67.1/64.4=1.042 per la 2070 super
67.1/65.5=1.024 per la 5700 XT
ma se andiamo a 4K otteniamo
38.0/35.3=1.070
32.6/32.5=0.997
questo indica semplicemente che la 5700 XT stressa la CPU in modo maggiore rispetto alle nvidia, quindi causa un bottleneck più spesso, perchè meno potenza residua alla CPU rimane a disposizione.
il merito è sicuramente delle memorie.
il fatto è che un gioco che a 60 sta in bottleneck e che ha un carico grafico che una 3080 a 4k arriva a malapena a 60fps, non è un buon gioco per fare benchmark e stabilire i valori relativi delle schede.
semplicemente non ce lo avrei proprio messo.se qualcuno fosse interessato a sapere che tipo di gioco sia per il proprio HW, si cerca i valori su altri siti...
comunque non si riesce ad osservare se hanno cambiato settaggi o se i driver abbiano attenuato le prestazioni, proprio per via del bottleneck e della pesantezza del gioco all'aumento della risoluzione.

Assassin's Creed Odyssey
in questo gioco vediamo un'inversione di tendenza:
mentre la 5700 XT sembra esprimenre mediamente un +4.1%
le 2000 danno un risultato inferiore dalla prova della 3080 rispetto a quella della 5700 XT.
quantifichiamo
le coppie sono (prima e dopo):
2060 super: 65.1/50.1/30.3 - 65.0/49.9/29.2 rapporto 0.998/0.996/0.964
1080 TI: 73.7/54.1/30.3 - 69.5/53.9/29.5 rapporto 0.946/0.996/0.974
2070: 72.4/51.7/30.9 - 69.9/51.5/30.4 rapporto 0.964/0.996/0.984
2070 Super: 74.8/58.1/34.4 - 74.6/57.9/34.4 rapporto 0.997/1.003/1.000
5700 XT: 72.5/51.9/29.2 - 75.3/55.4/30.4 rapporto 1.039/1.067/1.041
2080: 77.7/61.7/37.2 - 80.1/63/36.8 rapporto 1.031/1.021/0.989
2080 TI: 95.4/78.4/47.3 - 96.8/74.1/47 rapporto 1.015/0.945/0.994

quindi vediamo che mediamente le nvidia hanno dato gli stessi risultati, che tutte riconfermano le prestazioni a 1440p, tranne la 5700 XT con un 6.7 in più e una 2080 TI con un 5.8 in meno.
sulla risoluzione 4K vediamo che tutte le nvidia perdono un 2-4%, tranne la 2070 Super, che rimane costante, mentre la 5700 XT guadagna il 4.1%.
significa che c'è stato uno scostamento del 6% circa sul setting.
togliendo le deviazioni di 2080 TI e 2070 super, si vede che a media risoluzione si riconfermano i valori delle nvidia, ma AMD ottiene il 6% in più, mente a 4K si vede che le nvidia perdono il 2% e AMD conquista comunque un 6% su di esse, migliorando del 4%.
in FHD le schede nvidia partono da un -5.4% (escludendo la 2060 super), e arrivano ad un +2-3% con la 2080 e 2080 Ti, AMD si porta a casa un 4%, quindi le stacca da un 9% ad un 2%, a seconda della scala...
è una cosa un po' strana.
i risultati devianti si hanno sulle nvidia che dispongono di una buona banda RAM rispetto ai cuda che hanno, e sono le super ad avere questo vantaggio, con la 2080 TI che le segue.
naturalmente la 3080 dispone di un bel po' di banda ram.

qui quindi ci sono incongruenze e coincidenze un po' troppo marcate, che possono portare a pensare che si sia usato un driver per mitigare le prestazioni sulla VRAM e un settaggio appena un po' più leggero nelle impostazioni del gioco.
la 5700 XT risponde con un 6% di differenza e le altre a seconda di come risponde il driver rispetto a questo alleggerimento del 6% sul settaggio.
le ram differenti possono aver influito?
non sembrerebbe, visto che i miglioramenti maggiori si hanno avuti solo a risoluzione intermedia- se ci fossero stati miglioramenti si sarebbe comunque visto un andamento lineare decrescente e quindio la 5700 XT sarebbe dovuta essere molto più prestante più a risoluzione FHD che a 1440p.

il dubbio che abbiano fatto questo tipo di giochetto c'è...


Battelfield V
Borderlands 3
civilization IV
Control
Death Stradding
Detroit become human
Devil may cry 5
Diviniti original sin II
Doom eternal
F1 2020
Far cry 5 - fatto
gears 5
hitman 2
metro exodus
project car 3
Red dead redempion 2
Sekiro: Shadows Die Twice
Shadow of the Tomb Raider
Star Wars: Jedi Fallen Order
Strange Brigade
The Witcher 3: Wild Hunt

ne fanno talmente tanti che dovresti avere un'esercito per fare tutti i test, ma pian piano li vediamo tutti... i più succosi vengono dopo.

Ultima modifica di lucusta : 23-09-2020 alle 00:15.
lucusta è offline   Rispondi citando il messaggio o parte di esso
Old 22-09-2020, 00:05   #216
lucusta
Bannato
 
Iscritto dal: May 2001
Messaggi: 6246
Quote:
Originariamente inviato da AceGranger Guarda i messaggi
una nuova perla ?

https://www.overclock3d.net/news/sof...future_plans/1


Right now, Micron's GDDR6X memory chips are only available in 8Gb densities, translating to 1GB of capacity. In 2021, Micron plans to offer 16Gb (2GB) GDDR6X memory chips, which will allow for the creation of Ampere graphics cards with larger memory densities.

This means that Nvidia's RTX 3090 graphics card will use 24 8Gb GDDR6X memory chips at launch, a factor which explains why the graphics cards costs as much as it does.


3080 10 chip da 1Gb 1 lato
3090 24 chip da 1Gb 2 lati

Quadro 24 Chip da 2Gb 2 lati, GDDR6 se le fanno uscire ora GDDR6X se le faranno uscire nel 2021.

circola un leak di una Ampere da 48Gb, quindi o è una Quadro con GDDR6 in procinto di uscire o un leak di Quadro con GDDR6X uscito troppo in anticipo.

chip da 4Gb non esistono manco GDDR6 figuriamoci GDDR6X

https://www.micron.com/products/ultr...olutions/gddr6
https://www.micron.com/products/ultr...lutions/gddr6x
chip da 4GB non esistono, è vero, ma non esistevano nemmeno chip da 2GB, fino a qualche tempo fa...
potrebbe essere un'ipotesi usare 2 chip collegati allo stesso IMC, ma gli IMC rimangono 12 e per collegare 2 chip o si ha un sistema di switch dei segnali nel chip, o devi usare un'ulteriore altro chip... oltretutto dovresti usare quasi il doppio dei layer nel PCB...
semplicemente conviene fare chip da 4GB; è la soluzione più razionale (in realtà la soluzione più razionale è usare le HBM2).

occhio a chiamarle "perle" perchè poi possono essere delle verità e diventa difficile farci una collana...
forse è meglio che prendi un bel caffè, sperando che ti diventi la mente più lucida quel tanto da evitare di alzare inutili flame attaccando in questo modo gli altri...

Ultima modifica di lucusta : 22-09-2020 alle 00:08.
lucusta è offline   Rispondi citando il messaggio o parte di esso
Old 22-09-2020, 00:20   #217
lucusta
Bannato
 
Iscritto dal: May 2001
Messaggi: 6246
Quote:
Originariamente inviato da nickname88 Guarda i messaggi
Adesso ha trovato un altro pelo nell'uovo sul fatto che abbiano usato le 9900K ora anzichè AMD
In una risoluzione di 4K ovviamente è storicamente risaputo che i casi di CPU limited siano presenti in maniera rilevante.
è appunto questo che frena la tua capacità di analisi di questi sistemi: semplicemente per la poca esperienza che hai probabilmente non immagini quale sia la varietà del carico di computo su CPU e GPU (anche in modo indipendente) che c'è in questi benchmark, specificatamente in ogni sequenza di benchmark.
il limite della CPU lo puoi riscontrare anche in un gioco che arriva a 200fps già a 50fps, basta che quella scena sia inusualmente corposa per la CPU.
sono la somma di tutti i tempi di geerazione dei frame che poi ti daranno la media.
sarebbe sufficiente mettere il frametime in relazione al numero di volte che si conta, per le occorrenze, per vedere come viene realmente costruito il valor medio che poi utilizzi nelle tue discussioni... magari riusciresti a vedere qualcosa d'interessante se qualcuno te lo fornisse.
la prima cosa da fare prima di effettuare un test è di verificare come risponde lo specifico benchmark, misurare i suoi limiti.
ad esempio, nella suite di TPU, Anno 1800 è un gioco totalmente inutile, in quanto il suo benchmark all'aumentare della risoluzione aumenta il carico grafico in modo esagerato, ma è comunque talmente congestionato che manda la CPU in massima elaborazione già sotto i 60 fps.
da una parte ha una retta molto inclinata per quanto riguarda le richieste della GPU, dall'altra la rende inosservabile perchè traumatizzata dall'uso eccessivo della CPU.
è solo un gioco da usare o a 30 o a 60 fps, a seconda della scheda che hai, giostrando appunto sui settaggi, non da benchmark.

questi picchi mitigati a causa del bottleneck CPU li puoi osservare anche su AC, anche a 4K.

impegnati a guardare il comportamento della CPU e dell'uso della GPU quando giochi, magari noti anche quali siano i giochi fati bene e quelli invece decisamente fatti male e ti sto parlando squisitamente della sequenza di benchmarking e di come questa viene scelta dal lo sviluppatore del gioco.

Ultima modifica di lucusta : 22-09-2020 alle 00:26.
lucusta è offline   Rispondi citando il messaggio o parte di esso
Old 22-09-2020, 04:56   #218
Fos
Senior Member
 
L'Avatar di Fos
 
Iscritto dal: Aug 2004
Messaggi: 1850
Quote:
Originariamente inviato da lucusta Guarda i messaggi
Fos, certe costruzioni delle frasi servono a scaricare le responsabilità di chi scrive l'articolo; per la memoria è la stessa Nvidia che indica quando non sarà più sufficiente: già ci sono i leak delle stesse schede con 2GB per chip (quindi 3070 a 16GB, 3080 a 20GB)...

prendere queste è quasi un controsenso visto che ci sono i leak di AMD che presenta già con 16GB una scheda che probabilmente sta alla pari con la 3070.
è segno evidente che le industrie sanno già come si evolverà la questione ed in quanto tempo.
Per me servono più a confondere, che ad altro.
Dire che non serviranno nel prossimo futuro: Ad indovinare!

Avevo già sentito della maggior quantità di VRAM montata sulle schede future.
Per quello mi portavo avanti dicendo se la cosa sarebbe rimasta la stessa...
__________________
GB-B660 | 14600K | RTX-4070 TiS | 64GB | 2x NVMe + 16TB | LCD-28 4K
Fos è offline   Rispondi citando il messaggio o parte di esso
Old 22-09-2020, 06:09   #219
bonzoxxx
Senior Member
 
L'Avatar di bonzoxxx
 
Iscritto dal: Aug 2008
Città: N.P.
Messaggi: 13571
https://www.notebookcheck.net/Big-Na....494835.0.html
__________________
Sto cercando di disintossicarmi dall'Hardware... ma non ci sono riuscito
battutona ci gira Cyberpunk?
bonzoxxx è offline   Rispondi citando il messaggio o parte di esso
Old 22-09-2020, 09:45   #220
nickname88
Bannato
 
Iscritto dal: Apr 2016
Messaggi: 19106
Quote:
Originariamente inviato da lucusta Guarda i messaggi
è appunto questo che frena la tua capacità di analisi di questi sistemi: semplicemente per la poca esperienza che hai probabilmente non immagini quale sia la varietà del carico di computo su CPU e GPU (anche in modo indipendente) che c'è in questi benchmark, specificatamente in ogni sequenza di benchmark.
Penso di avere molta più esperienza di te nel capire un CPU limited, e quantomeno abbastanza da sapere che non è di certo nella media degli FPS che si vede, e i picchi fi FPS incidono quasi zero, specie se parliamo di alte risoluzioni e CPU High End.
Stai tirando su un polverone per minuscole percentuali che per giunta non necessariamente derivano da un cambio di HW.

E giusto per la cronaca non tutti quei giochi hanno il benchmark, ma i test vengono rilevati in game in specifici scenari, questo è il motivo per cui uno stesso gioco può variare leggermente.

Quote:
questi picchi mitigati a causa del bottleneck CPU li puoi osservare anche su AC, anche a 4K.
Io Origins e Odyssey li ho giocati e testati entrambi, e il primo di questi già alla misera risoluzione di 1440p nel suo benchmark con una 1080Ti cambiava poco a nulla fra il mio 1700X dell'epoca e chi possedeva Intel e lo stesso pure nel secondo con invece il 3800X.
Poi in game la differenza si vedeva solo in specifiche location ma a livello di fps medio o bench il CPU limited non lo vedi se non col microscopio, quindi pensa addirittura in 4K.

Tu piuttosto .... li possiedi questi 2 titoli di cui parli ?

Ultima modifica di nickname88 : 22-09-2020 alle 09:54.
nickname88 è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Recensione Zenfone 11 Ultra: il flagship ASUS ritorna a essere un 'padellone' Recensione Zenfone 11 Ultra: il flagship ASUS ri...
Appian: non solo low code. La missione è l’ottimizzazione dei processi con l'IA Appian: non solo low code. La missione è ...
Lenovo ThinkVision 3D 27, la steroscopia senza occhialini Lenovo ThinkVision 3D 27, la steroscopia senza o...
La Formula E può correre su un tracciato vero? Reportage da Misano con Jaguar TCS Racing La Formula E può correre su un tracciato ...
Lenovo LEGION e LOQ: due notebook diversi, stessa anima gaming Lenovo LEGION e LOQ: due notebook diversi, stess...
Google Pixel 8 Pro 256 GB a 928€ (minimo...
Arriva l'ok da Parlamento europeo sul di...
RISC-V: l'uso dell'ISA open-source da pa...
Amazon scatenata: iPad a 399€, airfryer ...
SK hynix, costruzione della Fab M15X ai ...
Oggi 459€ per utenti Prime il portatile ...
Sta per succedere! La prima gara a guida...
Parthenope: un nuovo RPG investigativo t...
Urbanista Malibu: ecco come va la cassa ...
Gas Station Simulator è costato 1...
AOC Graphic Pro U3, tre nuovi monitor pe...
Wacom Movink: per la prima volta il disp...
HPE Aruba presenta i nuovi access point ...
Lamborghini presenta Urus SE, prima vers...
Scuderia Ferrari e HP insieme: ufficiale...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 10:39.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Served by www2v
1