|
|
|
|
Strumenti |
22-09-2020, 10:56 | #221 | |
Bannato
Iscritto dal: May 2001
Messaggi: 6246
|
Quote:
basta che cerchi un grafico sul frametime per occorrenza o anche un semplice plot del frametime per capire come evolve la sequenza di benchmark di quel gioco. oltretutto la 1080 Ti non è una scheda che possa essere posta nel problema: non ha la possibilità di farti vedere accentuati bottelneck della CPU tali sconvolgerti la media, ma ci sono picchi che la deviano. comunque basta che cerchi quei giochi su gamegpu per vedere l'aumento di frame al cambio della CPU; se si alza con una CPU migliore, significa che quella precedente faceva da bottleneck in alcune situazioni... Ultima modifica di lucusta : 22-09-2020 alle 22:29. |
|
22-09-2020, 13:43 | #222 | ||
Bannato
Iscritto dal: Apr 2016
Messaggi: 19106
|
Quote:
Quote:
E meno male che solo tu sai di cosa si parla vero ? |
||
22-09-2020, 22:54 | #223 | ||
Bannato
Iscritto dal: May 2001
Messaggi: 6246
|
Quote:
le DIMM o qualsiasi altro chip possono consumare da nulla al massio che si può dissipare in un chippetto del genere, proprio come fattore forma, mantenendo le temperature adeguate per non creare problemi. che oggi ci siano chip che consumino massimo 6-7W significa soltanto che ieri c'erano anche al tempo chip che consumavano 6-7W. quello è il massimo che si riesce a dissipare con un chip di quelle dimensioni senza una dissipazione attiva e a quel livello spesso arrivano per spremere il massimo delle prestazioni, di progresso in progresso tecnologico. come 20 anni fa avevi CPU da 125W, oggi hai CPU che consumano 125W, perchè quella è la potenza massima che puoi raffreddare in modo pratico con un dissipatore ad aria... poi, che ci siano altri produttori che letteralmente sparano il consumo a 250W per ottenere prestazioni incredibili, lo fanno solo a scapito di un più complesso sistema di raffreddamento che aumenta costi e disagi... ma un chip ram non lo raffreddi con un AIO da 120mm... è a dissipazione passiva, al massimo cercando di togliere un po' di calore con dei pad termici che toccano il dissipatore per la GPU e quindi quello è il limite effettivo di calore che puoi sottrare... e ci siamo da decenni a quei livelli. è per questo che continui a scrivere sciocchezze: non guardi la semplicità delle cose. le RAM di una 3080 non possono dissipare 140W perchè è materialmente impossibile farlo con quelle dimensioni fisiche.... li manderesti a oltre 300°C. vega è nettamente superiore a pascal, perchè è una GPU completa e non serve un driver che scheduli il suo lavoro su software che siano scritti appositamente per non farla sembrare una scarpa vecchia. se vuoi conoscere la sua vera capacità di calcolo, lo puoi vedere sul mining: mentre una vega va bene sul mining come sui giochi, le pascal vanno benissimo sui giochi, ma quando incontrano una tipologia di codice non costruita espressamente per le loro caratteristiche, perde miseramente rendimento di calcolo e diventa la scarpa vecchia che è sempre stata. è nata semplicemente vecchia. lo status dei giochi sta cambiando e sta cambiando il modo di farli (e le proprietà degli studios): nel prossimo futuro non ci saranno più software house che necessitano dei soldi di nvidia per finanziarsi e quindi dover aggiungere le IP nvidia; si useranno tecnologie neutre che non renderanno le AMD un trattore. d'altra parte i tempi sono ormai cambiati, visto che nvidia ha dovuto passare oltre a quel tipo di architettura lanciato con maxwell e continuato con pascal, facendo finalmente un'architettura più moderna, DX12, con turing... ma rimane la questione che Pascal, come maxwell, senza la collaborazione delle software house nel fare i giochi scritti per queste architetture, con tecnologie datate e che non consentono di far esprimere alle CPU il loro reale potenziale, frenando lo sviluppo dei giochi, sono e rimangono delle vecchie ciabatte ben pubblicizzate. Quote:
si tratta di quanta potenza grafica ha a disposizione la GPU. visto che però AMD per ora ha offerto solo la gamma media, questo problema la tange solo marginalmente. il problema del limite della CPU si presenta con 2080, 2080 Ti, 3080 e sicuramente 3090... potenze dai 10-12TF in poi, perchè non hai la CPU per sostenere il lavoro. altra questione che evidenzia la tua ristretta mentalità, codificato solo sul fatto "nvidia VS AMD".. mentalità da fanboys infantile. CPU limited significa questo: https://ibb.co/s2Cgbjz https://ibb.co/wgW0WWh quando vedi che una 2080 TI con un 9900K fa 85/105, ma che con un 8700K arriva a 76/96, significa che la GPU non lavora al massimo con l'8700k, ma non ti assicura che con il 9900k sia al massimo della sua espressione, perchè non vedi qual'è l'occupazione massima delle GPU nello svolgere il benchmark. non sai se la GPU ha sempre lavorato, frame per frame, alla sua massima possibilità, come invece vedi sull'immagine della 1080 Ti, dove il fatto che ci siano almeno 5 CPU di prestazioni differenti con lo stesso valore ti conferma che la GPU è stata utilizzata per il massimo delle possibilità (ma non ti elimina il fatto che in certe situazioni del benchmark sarebbe stato necessaria una CPU il doppio più potente di quanto avevi a disposizione... e se ti serve il doppio della potenza, le differenze prestazionali di quelle cinque CPU si minimizzano e possono anche non influire sul valor medio.. dipende dall'occorrenza di quei particolari momenti in cui la CPU schizza al 100% di uso, frenando l'esecuzione della GPU che magari potrebbe darti ancora un 10% di prestazione). poi, collegandosi al discosro di prima, questa situazione è figlia proprio di Pascal; giochi fatti con tecnologie vecchie e scitti pensando appositamente ad nvidia, con largo uso dei suoi tools che lavorano principalmente per manipolare le prestazioni dell'HW: https://ibb.co/fvjGvNm è evidente da questa immagine, in cui ti fa vedere un 9900K usato in modo massiccio su tutti i 16 threads, mentre un ryzen è sfruttato massicciamente solo su uno dei core SMT, quindi con solo 9 threads usati massivamente. questo gioco utilizza physx; su Intel sfrutta le AVX sulle 16 pipeline, su AMD usa le FPU e le usa esclusivamente su 8 core dei 16 thread che potrebbe offrire. è una chiara manipolazione del modo di computare il codice, pur possedendo entrambe le CPU le medesime capacità computazionali, le medesime SIMD. sicuramente con questa nuova era delle SH queste cose succederanon sempre di meno, perchè nelle console hai AMD e perchè MS si sta acquistando i maggiori Studios del settore, e non ha certo interesse nel mitigare le possibilità delle sue console per avvantaggiare nvidia, come non ha bisogno di farsi dare quattor spicci da nvidia per implementare i suoi tools che condizionano l'esecuzione (anche a posteriori, visto che la compilazione avviene al momento del rilascio del gioco, ma l'esecuzione avviene con i driver che rilascia nvidia, e se lei decide che cuda non lo devi usare su quell'HW ma su quell'altro... usi la partizione di codice compilato al tempo). hai capito ora che cosa significa studiare le dinamiche di un semplice gioco? significa riuscire a capire tutti i magheggi che ci fanno dietro. quindi colui che non sa di cosa parla credo che in questo caso sia proprio uno come te, che si riduce a guardare chi ha la stanghett apiù lunga per dire chi è il migliore... è la manipolazione che c'è dietro a quella barretta che ti fa capire effettivamente lo stato delle cose. PS: ed è anche per questo motivo che non vedi reviews fatte per come si dovrebbero fare; troppe informazioni non riescono più a nascondere amare verità. Ultima modifica di lucusta : 22-09-2020 alle 23:36. |
||
23-09-2020, 01:23 | #224 |
Bannato
Iscritto dal: May 2001
Messaggi: 6246
|
continuiamo con l'analisi.
https://www.techpowerup.com/review/n...edition/9.html https://www.techpowerup.com/review/a...700-xt/10.html BF V per renderlo meglio leggibile ho fatto una semplice tabellina: https://ibb.co/NrB58YP in colonna B,F,J si trovano i dati mostrati dal benchmark rispettivamente in FHD, 1440p, 4k della prova della 3080; in L, N, P quelli nella prova della 5700 xt le colonne C e G mostrano il rapporto dei valori delle risoluzioni tra FHD e 1440p e tra 1440p e 4K; stessa cosa in colonna M e O per la prova della 5700 xt. servono a vedere se il benchmark manda o meno la CPU in bottleneck (si guarda generalmente sulla risoluzione inferiore). vediamo che generalmente le schede rispondono tutte più o meno uguali, con eccezione della 5700 XT, che sembra brillare un po' meno all'aumento delle risoluzioni e la 3080 che è palesemente in bottleneck, arrivando alla soglia dei 200fps; lo scostamento della 5700 XT a valori superiori dalla media, per questo indice, mostra solo che a mano a mano che la risoluzione aumenta perde più prestazioni delle altre. anche in 1440p la 3080 mostra che ha meno supporto da parte della CPU delle altre. andando a vedere le colonne M e O sulla prova della 5700 XT vediamo che anche qui la 5700 XT ha lo stesso comportamento. le colonne D e I mostrano invece la percentuale di discostamento tra i rapporti di risoluzione delle 2 prove. lo scostamento da 0 indica che i due sistemi non rispondono al medesimo modo, quindi che c'è stato un intervento da parte di driver, cambiamoto dei sistemi di prova (e ricordiamoci che hanno usato RAM a 4000mhz invece che ram a 3867mhz) o diversificazione dei settaggi. il fato che lo scostamento non sia uniforme per tutte le schede fa pensare che le modifiche al sistema non abbiano influito più di tanto, perchè avrebbero avvantaggiato tutte le schede, così come la non uniformità per architettura di schede indica che non c'è stato un miglioramento dei driver, perchè avrebbe inciso uniformemente per tute le schede della stessa architettura. vediamo che ci sono stati cambiamenti e che hanno inciso sulla 2060 Super a risoluzioni 4K, negativamente per la 1080 TI, che dovrebbe avere driver oltremodo maturi su questo e altri giochi (in effetti la 1080 TI non dovrebbe cambiare di una virgola, mai, a meno di usare un processore nettamente inferiore), che la 2070 Super risponde peggio di prima a bassa risoluzione ma meglio ad alta risoluzione, il chè è un comportamento assai strano per un "miglioramento dei driver", e che la 5700 XTe le vega VII hanno ricevuto un boost abbastanza sensibile, comprensibile per la 5700 XT, ma non per un'architettura come vega che gira da 4 anni. la 2080 Ti non ha subito variazioni. le colonne E ed I danno la percentuale di scostamento tra i valori alle varie risoluzioni della prima e della seconda prova. un valore positivo indica un aumento di frame rate, uno negativo che invece si è perso qualcosa. mediamente tutte le schede hanno migliorato di un 1% a 4K, cosa che potrebbe essere attribuita al cambio di memoria, , ma si riscontrano valori assai strani per le AMD a basse risoluzioni. c'è un 5% di differenza rispetto a prima, adirittura un 6.7% per la vega VII in FHD e questo sembra semplicemente esagerato. Borderlands 3 gioco introdotto da poco nella suite e che quindi non è confrontabile. l'aggiungere, togliere, o sostituire giochi fa cadere un'altro postulato di questo sito: le medie sui giochi. quelle medie che spesso giovani appassionati postano per avvalorare le loro ragioni ma che non servono a nulla. o mi fai la media di tutti i giochi disponibili, o non serve a nulla un valor medio di campioni che scegli te di tua fantasia... si sostiene che sono i giochi più usati? falso... i giochi più usati sono di ben altro genere e lo sappiamo tutti. tra l'altro cosa potrai mai confrontare se ad ogni prova i giochi cambiano e quindi la media risponde ad un elenco diverso di giochi? quello della media degli FPS del test è prettamente una presa per i fondelli e spero di non vederlo più sbandierato per sostenere argomentazioni, perchè ne farebbero direttamente cadere la ragione, essendo un sistema totalmente inutile di valutazione. Civilization VI Control Death Stradding Detroit become human Devil may cry 5 Diviniti original sin II Doom eternal F1 2020 Far cry 5 - fatto gears 5 hitman 2 metro exodus project car 3 Red dead redempion 2 Sekiro: Shadows Die Twice Shadow of the Tomb Raider Star Wars: Jedi Fallen Order Strange Brigade The Witcher 3: Wild Hunt continuiamo domani... tanto basta cambiare i valori nella tabellina e vedere che dati escono. PS: questo noioso lavoro lo sto facendo per quelle persone che continuano a postare i test di questo sito, per fargli rendere conto di cosa usano per sostenere le proprie argomentazioni. se il sito non usa una procedura solida e la modifica ogni volta, ogni volta si sovrebbe fare un'analisi sui suoi risultati, perchè è inaffidabile, in quanto ogni volta si dovrebbero inserire le variabili che possono deviare i risultati (qui ha usato memorie diverse, su questa reviews un processore diverso, qui non si sa come ha fatto a far fare questo punteggio a questa scheda...). è vero che tu non avrai mai iil medesimo sistema che hanno loro (ed è vero anche che usano sempre sistemi con HW mai standard, overclockati o customizzati, proprio per non rendere i test riproducibili da tutti), ma un sistema simile dovrebbe comunque offrire le stesse differenze che si evidenziano sul loro a seconda della scheda video che si vuole comprare... se ho una 1080 e voglio la 3080, vedrò più o meno li guadagni che otterrò... e invece no, perchè ogni sistema offre piccoli cambiamenti, che, se sommati, sono rilevanti.... una scheda come la 3080 su un 9900K non overclockato e con normali ram a 3000mhz mostrerebbe la 3080 molto più vicina alla 2080 Ti per il semplice fatto che andrebbe spesso in bottleneck per la CPU, anche a 4k.. non in continuazione, ma sempre più di quanto faccia con la CPU a 5.3ghz. diventa assai difficile discutere dovendo considerare 1000 inutili variazioni solo perchè loro non sanno fare un giusto lavoro di testing, ma solo di reviewing (o di marketing, come si vol mettere la questione). Ultima modifica di lucusta : 23-09-2020 alle 01:42. |
23-09-2020, 09:51 | #225 |
Bannato
Iscritto dal: Apr 2016
Messaggi: 19106
|
Dicci quanto hai finito di raccontartela
|
23-09-2020, 11:41 | #226 | |
Senior Member
Iscritto dal: May 2005
Messaggi: 11683
|
Quote:
cit "le GDDR6x da 2GB (o 16Gb) si usano "già", visto che non sonoancora uscite, sulla 3090, che ha 24GB di VRAM;" quello al quale servirebbe la mente ludica direi che sei tu, perchè il mio post era chiarissimo e con i piedi per terra, non una vaneggiata ( fra l'altro baggianata scritta in modo incomprensibile ) come al solito. e cosi, per la cronaca: https://videocardz.com/newz/nvidia-q...d-and-detailed come volevasi dimostrare, chip da 2GB GDDR6.
__________________
AMD 3970X - TRX40 PRO 10G - 128 Gb - 2080Ti - Dual 4K - No More Render - Leica RTC360 & BLK360 Ultima modifica di AceGranger : 23-09-2020 alle 11:46. |
|
23-09-2020, 13:00 | #227 |
Bannato
Iscritto dal: May 2001
Messaggi: 6246
|
basta che attendi e vedrai di cosa si parla.
|
23-09-2020, 13:04 | #228 |
Bannato
Iscritto dal: May 2001
Messaggi: 6246
|
non ti peroccupare; vedrai la fine.
anche perchè questo lavoro è proprio per te, che tante volte usi i dati di TPU per avvalorare le tue sciocche argomentazioni. come hai scritto tu, mediamente le recensioni sono tutte alineate. bene, se ti faccio saltare TPU dimostrandoti che ha sofisiticato i test, salteranno di conseguenza anche le altre e sarà finalmente evidente a tutti che questi test sono solo cartaccia che serve ad nvidia per buttare fumo neglio occhi agli utenti. quantomeno la smetterai di inondare il forum di post con i dati di TPU. Ultima modifica di lucusta : 23-09-2020 alle 13:47. |
26-09-2020, 19:03 | #229 | |
Member
Iscritto dal: Dec 2017
Messaggi: 254
|
Quote:
1) qualcosa non torna 2) le recensioni NON sono limpide 2) Nvidia non è stata trasparente . Adesso il lancio anticipato e la mostruosa penuria di schede negli shop è di facile interpretazione. IMHO siamo a limite di cosa è lecito e cosa non lo è.Non è truffa sicuramente ma stanno giocando sporco. Molto sporco... In before, ragazze ponpon, fanboy, bimbiminkia, etc ...è solo un mio punto di vista. Il punto di vista di chi a ha sempre usato Nvidia... Peace Inviato dal mio HTC One utilizzando Tapatalk
__________________
Case Lian Li Dynamic Evo - Mobo Crosshair Hero X670E - Cpu Ryzen 7800x3d - Aio Nzxt Kraken x62 - Ram G.Skill Neo 6000mhz 64Gb - NVME Samsung 980 - Gpu Rtx TUF 3070 - PSU Seasonic Px750w Monitor VG279QM 280hz |
|
26-09-2020, 19:16 | #230 |
Senior Member
Iscritto dal: Aug 2008
Città: N.P.
Messaggi: 13571
|
Sta a vedere che nVidia si è scapicollata a lanciare ste 3000 per colpa di AMD
__________________
Sto cercando di disintossicarmi dall'Hardware... ma non ci sono riuscito battutona ci gira Cyberpunk? |
26-09-2020, 20:28 | #231 | |
Senior Member
Iscritto dal: Jul 2003
Messaggi: 26775
|
Quote:
Ma chi può leggere tutto quel wall test? Ma poi veramente vi siete a fare i problemi per 2-3 fps di differenza? A ogni nuova VGA lanciata i primi giorni ci sono sempre stati bug nei driver. |
|
26-09-2020, 20:30 | #232 |
Senior Member
Iscritto dal: Aug 2008
Città: N.P.
Messaggi: 13571
|
Ero sarcastico con tanto di tripla faccina.. dai su cribbio..
__________________
Sto cercando di disintossicarmi dall'Hardware... ma non ci sono riuscito battutona ci gira Cyberpunk? |
26-09-2020, 23:40 | #233 | |
Bannato
Iscritto dal: May 2001
Messaggi: 6246
|
Quote:
è vero, possono essere anche 2 o 3 fps, ma se sono su 30 sono comunque un 10% di prestazioni non ottenute, ed un driver non mette aposto un 10%. semplicemente, ad ogni presentazione di nuove schede nvidia, c'è sempre qualcosa che non torna ed è diventato non solo stancante e noioso, ma anche ridicolo non parlarne. ritoccare i driver ad oggi, nel 2020, per far sembrare meglio il prodotto che si sta lanciando è semplicemente ridicolo. quindi puoi leggere se interessato, puoi non leggere se non lo sei, ma di sicuro, dopo questa semplice analisi, quello che ne esce messo peggio è proprio la metodologia di review di TPU e la leggerezza delle redazioni di tutto il circus nel dare "così tanta fiducia" ad nvidia, non testando le vecchie schede con i vecchi driver, insieme ai beta non scaricabili dagli utenti. prova, conferma e controconferma. si fanno così le cose fatte bene, perchè sennò diventa tutta una farsetta e poi non si devono lamentare se li si prende in giro, come non si devono lamentare quelli che sfruttano quei dati quando anche loro vengono presi per i fondelli.... comunque questa ipercriticità nei confronti di nvidia l'hanno fatta nascere proprio i fanboys sfegatati nvidia ed Intel, che per 1 fps o 20W son stati capaci di etichettare degli ottimi prodotti come delle schifezze immonde... ora che loro hanno alzato il livello, si deve far finta di nulla solo perchè è nvidia che ha da perdere? mi dispiace, ma l'obbiettività non funziona così. |
|
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 21:48.