|
|||||||
|
|
|
![]() |
|
|
Strumenti |
|
|
#261 | |
|
Senior Member
Iscritto dal: May 2005
Messaggi: 12127
|
Quote:
, ma no problem, tanto ti conoscono gia tutti e quanto vedo collezioni ammiratori ogni giorno che passa
__________________
AMD 9950X3D - MSI X870E CARBON WIFI - 198 Gb - 5080 - Dual 4K - Leica RTC360 & BLK360
Ultima modifica di AceGranger : 25-08-2018 alle 13:25. |
|
|
|
|
|
|
#262 | |||
|
Bannato
Iscritto dal: May 2001
Messaggi: 6246
|
Quote:
la differenza di fondo è che la CPU è gravata da diversi aspetti: per il calcolo dei meshing, frame per frame, hai un lavoro proporzionale per la CPU, ossia tot frame, tor computo; per il calcolo di lavori accessori come audio spazializzato, fisica ed IA hai un lavoro fisso, indipendente dal numero di frame al secondo che puoi generare; per la gestione dei driver video questi, che non fanno altro che tradurre le funzioni dalle API alle chiamate per l'architettura, più frame, più lavoro, ma per NVIDIA (e per AMD sulla parte DX11) devi anche gestire le unità di elaborazione secondo una determinata logica, e questo lavoro dipende sia dal numero di frame generati al secondo che dall'implementazione dell'architettura per il singolo chip. quindi è il peso che grava per ogni singolo e preciso compito che esegue la CPU che è differente. se escludiamo il computo dei driver video, la CPU che fosse in grado di elaborare 300fps lo farebbe sempre, in qualsiasi condizione, e la differenza la avrsesti solo per potenza grafica della GPU a cui viene affiancata, oltre, naturalmente proprio al carico grafico. una GPU potente potrebbe fare 300fps a 720p, ma solo 60 fps a 4K; un'altra, con 1/5 della potenza grafica della prima, farebbe 60fps a 720p ma a 4K non riuscirebbe a superare 10fps. in queste condizioni la CPU avrebbe un uso dovuto al computo standard dell'audio, fisica ed IA (ed altri compiti accessori) che rimane costante facessi 10fps o 300fps, ed uno proporzionale ai frame che usi. sarebbe il meshing, la costruzione dello scheletro del mondo 3D, a pesare sull'occupazione della CPU. a 300fps avresti il 100%, è il nostro postulato: una CPU in grado di fare 300fps al massimo della sua espressione computazionale su quel gioco) a 10fps avresti il peso del computo fisso e la trentesima parte del computo del meshing, quindi sicuramente inferiore al 100%. bene. ora però c'è la questione di quanto è il peso dei driver. per la parte della traslazione delle funzioni, queste sono comunque legate al frame rate ed alla risoluzione. tanti frame fai a quella risoluzione, tanto è il costo in computo. questo lo porta quindi ad essere associato al computo del meshing del mondo 3D. la differenza è invece la gestione dell'HW, la schedulazione del lavoro. questa dipende sia da quanto lavoro deve gestire, ma anche da quante unità deve gestire per effettuare quel lavoro e come le deve gestire e questo cambia a seconda dell'implementazione del singolo chip. funzioni di chiamate dalla memoria, di copia e di qualsiasi altra cosa che fai con la memoria costano alla CPU la stessa potenza computazionale, indifferentemente se hai 1 o 100GB di ram a 1 o 10ghz... sarà il tempo di esecuzione ad essere diverso. quindi, se l'architettura risponde linearmente, in modo scalabile, tu otterresti che una 1060 occuperebbe la potenza di un i7 7700K a 5ghz per ben meno di quanto lo faccia una 1080 Ti. ed invece non è così. se guardi diversi gameplay su diversi giochi vedrai che spesso la 1060, che ha 1/3 della potenza di una 1080 Ti, arriva a saturare le possibilità du un processore quadcore a 5ghz, ma occhio, non parlo dell'intera capacità computazionale del processore, ma dell'occupazione dei singoli core. quando vedi che su una 1080 Ti a 1080p un core è occupato al 100% della sua capacità operativa e sei a 150fps non ti fai tante domande. te le fai quando vedi che una 1060 sullo stesso gioco a 1080p occupa comunque il 100% di quel core e genera solo 60fps. l'unica spiegazione che ci sarebbe è quella che i computi del gioco che sono indipendenti dal frame rate assorbino la maggior parte delle possibilità di quel core, che regge la struttura del gioco ed è associato all'uso del driver video. ma non è nemmeno così, perchè fortunatamente audio spazializzato, fisica e IA possono essere tranquillamente trasferite su un thread distinto, sincronizzato con il principale, ma indipendente, proprio perchè indipendente dal frame rate generabile.... hanno la loro cadenza temporale e faranno quel lavoro sia se il gioco va a 10fps che a 300. quindi è vero che è una questione di CPU limited, ma è indipendente dalla questione della potenza grafica, perchè tanto una 1080 Ti tanto una 1060 possono mettere al 100% il singolo core che regge il megathread sia che siamo a 60 che a 150fps. se fosse esclusivamente CPU limited in modo scalare anche la 1080 Ti farebbe comunque 60fps. logicamente è la struttura HW e SW, il connubio di queste che porta al manifestarsi di questo comportamento, e se il SW è lo stesso diventa difficile avere un comportamento molto diverso con un'altra architettura HW della GPU, quindi anche le AMD sono costrette ad operare per quel tipo di costrutto. la differenza che si può notare è, comunque, che una AMD consuma sempre meno CPU rispetto ad una Pascal, anche se il framerate è il medesimo. questo quindi porta al fatto che se una pascal è in bottleneck per la CPU, una AMD lo sarà per la questione GPU, non infrangendo il limite massimo della CPU che quindi non è bottleneck. corollario è che se abbasso la frequenza della CPU posso operare ancora con lo stesso framerate medio, ma questo porta alla conseguenza che se abbasso la frequenza della CPU il sistema mi consuma meno, considerando tutto ad esclusione del consumo della GPU. questa diversa architettura porta a dover consumare di più alla GPU per il semplice fatto che hai transistors dedicati a questo compito specifico. hai reso le GPU indipendenti, per la gestione logica di allocazione, dalla CPU, ma il lavoro dev'essere comunque svolto e quindi c'è un maggior consumo per la GPU. questo è lo svantaggio in rendimento delle GPU AMD quando si trovano a gestire un SW che non lega con la loro architettura, perchè oltre che la gestione in HW devono anche usare i driver per mettere la GPU in condizione di poter operare quel tipo di costrutto del codice, quindi una ulteriore gestione via SW sui driver che pesa sulla CPU. quando però il costrutto è quello giusto, questo consumo di risorse del driver cessa, ma solo per AMD, che lo ha in HW. per pascal e maxwell continua a persistere perchè è per sua architettura che la gestione sia comunque e sempre tramite driver , sw, sulla CPU... oltretutto il costrutto favorevole ad AMD è diammetralmente opposto a quanto è per nvidia, quindi la difficoltà aumenta a dismisura e quindi il peso di computazione di quell'aspetto diventa una ulteriore limitazione sulla CPU, che non può dedicare risorse a quello che dovrebbe invece fare: meshing, audio, fisica e ia ed altre amenità del genere. quindi il tuo ragionamento avrebbe senso esclusivamente se usi un gioco DX12 e usi GPU AMD; l'uso della CPU sarebbe proporzionale (più somma di costante dovuta ai computi indipendenti dal frame rate) alla potenza della GPU. questo non avviene sulle pascal, tanto che se prendi una 1060 e la fai girare con un 8400 e la metti a confronto con i risultati ottenuti con un 7700K a 5ghz perdi il 10, 15% delle prestazioni, e sitamo parlando di un 8400 che se metti sotto una 1080 Ti, con gli stessi settaggi del test sulla 1060, sarebbe capace di fare almeno il doppio del frame rate della 1060 con 8400, comunque. quindi NON E' BOTTELNECK DELLA CPU ma un uso diverso della CPU che porta a quella conseguenza, in qualsiasi condizione. Quote:
la differenza, in questo caso, è l'implementazione. 1080 e 1070 usano il medesimo chip con una diversa configurazione, ma, di base, parli della medesima implementazione di base. hai solo un GPC in meno, quindi operi su un thread in meno in simultanea agli altri. in pratica poco puoi sperare di capire analizzando queste due configurazioni di chip, perchè risulterà spesso scalare... d'altronde ai la disabilitazione di unità, non un'altra configurazione. Quote:
GTA V è costruito interamente attorno al modo di operare delle nvidia. quello che puoi fare è invece analizzare la risposta del gioco solo sulle pascal, per riuscire a capire come questo viene gestito dalle diverse implementazioni dell'architettura e l'analisi porta a concludere che nvidia, nella massima espressione che può dare, appunto con GTA V, non è scalare sul processore e le sue prestazioni sono fortemente dipendenti proprio dal processore, per qualsiasi GPU consideri che abbia sufficiente potenza da esprimere (e parliamo dalla 1060 in su, in pratica... se mi prendi una 1030 questa non riuscirà mai a mettere in crisi un processore a 5ghz). |
|||
|
|
|
|
|
#263 |
|
Bannato
Iscritto dal: May 2001
Messaggi: 6246
|
vedi, estrapolare poche parole dai discorsi è un atto di estrema maleducazione, perchè sono facilmente manipolabili.
|
|
|
|
|
|
#264 |
|
Senior Member
Iscritto dal: Oct 2001
Messaggi: 14739
|
@lucusta
Non penserai davvero che io mi legga tutto quel post chilometrico, vero? Ho letto comunque qualche passaggio e no, non puoi trarre le conclusioni che trai tu, non ce ne sono le condizioni. Comunque 1070 e 1080 hanno una diversa configurazione delle memorie: la 1070 utilizza GDDR5, la 1080 GDDR5X con una bandwidth di 256 GB/s per la prima e di 320 o 352 GB/s per la seconda. |
|
|
|
|
|
#265 |
|
Moderatore
Iscritto dal: Nov 2006
Messaggi: 21942
|
datevi una calmata generale
__________________
"WS" (p280,cx750m,4790k+212evo,z97pro,4x8GB ddr3 1600c11,GTX760-DC2OC,MZ-7TE500, WD20EFRX) Desktop (three hundred,650gq,3800x+nh-u14s ,x570 arous elite,2x16GB ddr4 3200c16, rx5600xt pulse P5 1TB)+NB: Lenovo p53 i7-9750H,64GB DDR4,2x1TB SSD, T1000 |
|
|
|
|
|
#266 | |
|
Senior Member
Iscritto dal: Jan 2011
Messaggi: 4189
|
Quote:
Non credo che vi sia persona normale al mondo che abbia voglia di leggere quel papiro di fandonie una dietro l'altra per cercare di gettare fango su una architettura che va più di quella di AMD con meno silicio e meno W. Non hai risposto sul perché uno che deve fare un determinato lavoro, che è a sequenza ordinata, debba continuamente interromperlo per eseguire qualcosa a caso che non si sa perché ha la precedenza quando può eseguire benissimo i compiti uno dietro l'altro e arrivare in fondo a fare lo stesso lavoro in meno tempo (e lo fa visto che va più veloce). Che è quello che fa l'architettura nvidia dove è inutile spezzettare il lavoro in decine di sotto thread da eseguire in "maniera randomica" per cercare di riempire tutte le pipeline ed accorciare il tempo di esecuzione. Alla fine l'architettura nvidia riesce ad eseguire lo stesso lavoro in meno tempo con o senza AC, ed è questo che non metti in evidenza in tutte le tue blaterazioni. E prima che vieni e mi fa i confronti a minchiam perché da buon fanboy prendi la Ferrari AMD e la confronti con la Panda nvidia, i numeri sono questi: il GP104 che è 314mm^2 fa lo stesso lavoro di Vega che è 480mm^2, usando quasi metà dell'energia e metà banda. Quindi di che tecnologia rivoluzionaria stai parlando? Di quella che permette a una GPU che ha una potenza computazionale teorica di 12TFLOPS di eguagliarne (e talvolta quando il programmatore si impegna anche a superare leggermente) una da 8? Il tutto al modico costo del doppio per il silicio (1.52^2 = 2,3, visto che saprai che il costo del silicio è esponenziale, e non inventarti teorie idiote per negare anche questa cosa), del costo aggiunto dell'HBM (che è uno sproposito) e del 50% in più di energia? Ma perché non parli di questi di numeri invece di inventarti fandonie una dietro l'altra per cercare di convincerti che AMD ha una architettura decente quando invece è indietro 2 giri? Ho letto solo la prima parte del tuo inutile e lungo post per fermarmi quasi subito quando tenti di dimostrare che c'è un problema confrontando gli FPS delle due GPU a risoluzioni diverse.. cioè, ma ci prendi in giro o cosa? Se il motore a 1080p fa al massimo 170FPS con un chip da 5GHz quando è CPU limited, quello è il limite. Ed è logico che a risoluzioni superiori l'equilibrio ad un certo punto cambi dall'essere CPU a GPU limited. Lo sanno anche i bambini dell'asilo, ed è proprio il motivo per cui se giochi a 900p con la 1080Ti devi avere gravi problemi di ego e voler mostrare che ce l'hai lungo con un monitor del piffero o essere un fanboy AMD che vuole dimostrare che è una cosa stupida, così, perché di altro da sparare di altrettanto sciocco non ne ha. Sembra la stessa sparata che i fanboy AMD usavano per dimostrare che i 3.5GB veloci della 970 erano un problema.. a 4K con il gioco che faceva 15FPS prima di saturare la memoria e così cadere sotto i 10. Ma fai il confronto a parità di CPU (quindi con potenziale di calcolo uguale) tra la 1080 e Vega 64. Chi delle due rende meglio quando non è CPU limited? E tra Vega e il suo vero concorrente che è il GP102? Quanto AC devi metterci per arrivare alle stesse prestazioni? Perché non parliamo di questo? E' cosa semplice e sotto gli occhi di tutti, invece di inventarsi numero a caso per dire che man mano che alzi la risoluzione le prestazioni calano e inventarsi le teorie più immonde per fa creare problemi ad hoc nelle architetture nvidia (che funzionano perfettamente, ahi te e i fanboy AMD che questo Turing proprio non riescono a digerirlo e stanno sperando con tutto loro stessi che AMD una qualche forma di accelerazione RTX l'abbia infilata in Navi altrimenti... huh che baratro che neanche le discussioni inventate sull'AC, sul fingere che l'HBM costi come la GDDR5, che i mm^2 di GF costano la metà di quelli TMSC, possono colmare!) e senza sapere un caxxo su quali siano i limiti imposti ad una determinata risoluzione da un determinato motore con determinati settaggi, ma inventati solo per far tornare i numeri come si vuole. Ovvio che se poi vai in CPU limited e continui a scendere di numero di frame elaborabili anche Vega arriva alle prestazioni della 1080 (e servono i 900p per fare in modo che Vega raggiunga le prestazioni della 1080Ti!). Tutte le fandonie dell'AC semplicemente dimostrano che se non lavori e ottimizzi per l'architettura AMD questa sta due giri indietro a Pascal (che sia DX11 o DX12), se ti pagano per farlo invece riesci a fare in modo che 12TFLOPS con quasi 300W possano superare di uno sputacchio le prestazioni di un chip concorrente da 8TFLOPS e 180W, quindi stando solo 1 giro indietro. La dimostrazione di ciò è che ci sono giochi che anche in DX11 vanno meglio su AMD che su Pascal e lì non c'è AC che tenga, è solo questione di ottimizzazione ad hoc per l'architettura AMD, che già si avvantaggia del fatto che i motori sonio scritti per le console. Dopo tutte le sciocchezze che hai scritto si vede lontano un chilometro che sei frustrato per come è venuto Turing che se implementerà qualcosa che gli permetterà di avere i vantaggi di AMD con questo fantomatico l'AC, manderà GCN nel dimenticatoio forse pure con Navi (se è semplicemente un GCN pompato). Pascal dal canto suo già funziona bene con o senza AC, DX11 o DX12, per cui al massimo Turing risulterà ancora più performante di Pascal, che non è un problema come non lo è mai stato presentare una nuova generazione che va anche il doppio più veloce della precedente, anzi (eh, ma con AMD questo non succede per cui meglio dire che è Pascal diventa una schifezza piuttosto che dire che AMD dovrà scalare ulteriormente di una fascia le sue soluzioni Polaris/vega based vs Turing così che i suoi fanboy potranno esultare quando una Vega a 200 euro, ma sempre 480mm^2 e 300W, riuscirà a superare le prestazioni della 2060 e poter dire che è l'AC la soluzione che deve essere perseguita per aumentare le prestazioni). Per ora sono 6 anni, da quando Tahiti è stato declassato contro il GK104) che AMD scala le GPU svendendole per cercare di dimostrare di avere un prodotto concorrenziale sul mercato. I fanboy sprovveduti fanno i confronti per prezzo (e un po' ci sta, uno valuta secondo quanto paga) ma chi dovrebbe avere un paio di nozioni in più non può venire qui a fare certi discorsi insensati per dimostrare che 480mm^2 sono meglio di 314. E' davvero ridicolo oltre che deprimente dover continuamente leggere queste sciocchezze a ogni lancio delle nuove architetture dove si parte con i fanboy AMD che puntano a 1000 e poi quando nella realtà raggiungono 500 si danno il 5 e le pacche sulle spalle. Polaris1210 doveva combattere nella fascia x80 di nvidia. Fa fatica in quella x60, ma che soddisfazione vedere la 580 (aka Polaris1210 ultra pompato che in teoria doveva consumare <150W con efficienza olter 2x rispetto a GCN 1.1) a 240W battere il GP106 quando c'è un motore che distribuisce "thread a caso" alla GPU, eh? Vega doveva distruggere la 1080Ti, ma solo al superamento delle prestazioni della 1080 con codice ottimizzato vi ha fatto tirare un sospiro di sollievo (e vantarvi delle supposti miglioramenti dell'architettura AMD che di fatto non ci sono e non funzionano). Ora arriva Vega a 7nm (ma solo per il professionale) che è già carne morta visto il balzo di nvidia con il nuovo GT102 sia in prestazioni che in feature. Al solito la leva per venderne una decina sarà svenderle a più non posso. Non sappiamo nulla di Navi che è piuttosto lontano nel tempo e forse non sa più neanche AMD cosa fare se non sperare che nvidia continui a proporre schede a 1000 euro che le permettono di tagliarsi una fettina di mercato nel sub par svenduto a margine zero. Non so cosa darei per sapere quale è il piano di sviluppo lasciato da Koduri e se AMD ha intenzione di seguirlo dopo questo Turing, o come fu con Maxwell, è altrettanto nel panico. Scusate le lunghezza ma almeno non sono dimostrazioni di teorie inventate ma semplici considerazioni della realtà dei fatti. Ultima modifica di CrapaDiLegno : 27-08-2018 alle 00:33. |
|
|
|
|
|
|
#267 | |
|
Senior Member
Iscritto dal: Jan 2011
Messaggi: 4189
|
Quote:
Gioco anche io allora: https://www.guru3d.com/articles-page...review,20.html Visto che la 580 che ha almeno il 10% in più di capacità di calcolo rispetto alla 480 fa gli stessi identici FPS di questa in questo gioco nato e costruito per sfruttare l'architettura GCN al 100% sempre e comunque, ne deduco che il problema sta nella diversa gestione dei carichi degli ACE per cui quando questi raggiungono una certa frequenza non sono più in grado si lavorare correttamente e impediscono alle ALU di operare al meglio e quindi l'efficienza totale della GPU cala, nonostante i 60 o 80W in più usati. Poi guardo meglio e vedo che in 4K la 980 supera la 580... ma come? E il legacy? E l'abbandono delle architetture vecchie al lancio di quelle nuove? E i 4GB di memoria soltanto? E la banda? E l'AC? E Maxwell che non ha il supporto all'ACe quindi è DX12/Vulkan incapace ma compensa tutto con la CPU? E i W di Polaris che doveva essere meglio di Maxwell? Ma quante teorie farlocche sono state cancellate solo con questo esempio che è quello che pone l'architettura GCN di AMD al suo massimo? Vogliamo continuare a giocare a fare i bambini dell'asilo sparando sciocchezze che poi con un link vengono annullate in un solo colpo? |
|
|
|
|
|
|
#268 | |
|
Senior Member
Iscritto dal: Feb 2004
Città: Ancona
Messaggi: 2148
|
Perdonami ma ok la scarsa efficienza, però
Quote:
La colpa di AMD circa l'efficienza di GCN 4 e 5 è che per avere più chip a disposizione, ha sparato i voltaggi di default altissimi, andando a inficiare nel consumo medio oltre che nelle prestazioni, visto che tutte le schede reference vanno in throttling. Poi che la 1060 consumi comunque meno è vero, però da "240w e la supera solo con gli ACE" a 130w e generalmente va uguale o meglio in quasi tutti i titoli recenti (praticamente tutti esclusi quelli Gameworks) c'è una bella differenza. Per molti versi Polaris è decisamente più equilibrato di Vega.
__________________
Main: NZXT H7 Flow|RM1000x|Z690 Aorus Master|i7 13700k|LFII 360|G.Skill 2x16GB 6400C32|Asus RTX 4090 TUF OC|Asus PG32UCDM + Pana 55JZ1500|Audient iD14 II + Kali LP-6 + Sundara|2xFireCuda 530 2TB + MX500 1TB + NAS Encoding: Define R6|Prime TX-750|B550 Tomahawk|5900X|2x8GB 3200C14|A380 |
|
|
|
|
|
|
#269 |
|
Senior Member
Iscritto dal: Jan 2011
Messaggi: 4189
|
Guarda che io mica ho detto che la 1060 prende a bastonate la 480 o la 580. Le prestazioni di quelle schede sono più o meno allineate e amd si avvantaggia leggermente quando il motore è scritto per far uso dell'ac.
Per quanto riguarda i consumi io mica mi metto a misurare i supposti W delle GPU per ogni utente, guardo le recensioni dove si vede che la 480 consuma più della 1060 e la 580 consuma uno sproposito in più per guadagnare forse il 10%. Il ragionamento, come tu hai ampiamente confermato, è essere soddisfatti del rendimento di Polaris nei confronti del GP106 quando in origine era vs GP104. Guarda le capacità dei chip e dimmi se Polaris 12 è nato per stare nella fascia che nvidia occupa da sempre con i chip con bus <256 bit. Poi ci si lamenta che le nuove Turing costano 1000 euro... |
|
|
|
|
|
#270 | |
|
Senior Member
Iscritto dal: Feb 2004
Città: Ancona
Messaggi: 2148
|
Quote:
Le schede AMD richiedono effettivamente più banda di memoria, e infatti quello è un limite di Vega, che avendo solo 2 stack di HBM2 in molte situazioni è limitato dalla banda di memoria, e questo è un aspetto sul quale AMD indubbiamente deve lavorare. Quello che sto dicendo è che evidentemente Vega è una architettura sbilanciata, perché Polaris compete decisamente meglio con GP106 rispetto a quanto faccia Vega con GP104 e GP102, e che con un ipotetico passaggio a 7nm AMD dovrebbe approfittare per apportare le modifiche necessarie per 1) supportare quelle funzionalità promesse e poi in parte abbandonate su Vega stesso, 2) migliorare le performance senza stravolgere il concetto base, perché comunque Vega rimane la scheda video che supporta il maggior numero di funzionalità, RTX escluse, pertanto una Vega "revised", senza parte RT e a 7nm, potrebbe essere un'ottima scheda per chi non acquisterà una RTX, vuoi per il prezzo, vuoi perché comunque la prima generazione a supportare una nuova tecnologia, e con tutte le (normali!) limitazioni del caso.
__________________
Main: NZXT H7 Flow|RM1000x|Z690 Aorus Master|i7 13700k|LFII 360|G.Skill 2x16GB 6400C32|Asus RTX 4090 TUF OC|Asus PG32UCDM + Pana 55JZ1500|Audient iD14 II + Kali LP-6 + Sundara|2xFireCuda 530 2TB + MX500 1TB + NAS Encoding: Define R6|Prime TX-750|B550 Tomahawk|5900X|2x8GB 3200C14|A380 |
|
|
|
|
|
|
#271 | ||
|
Bannato
Iscritto dal: May 2001
Messaggi: 6246
|
Quote:
secondo quando parli di vulkan diventa difficile fare alcune distinzioni, visto che queste API coprono dalle Open GL 3 alle 4.5 e, appunto, successive, proprio con le vulkan... vulkan è un grande calderone. dicendo vulkan non specifichi un benemerino nulla in quanto a paradigma di codice. terzo ti stai riferendo a dati provenienti dal sito meno indicato in quanto ad obbiettività: quando c'è stata la prova con la 480 su doom hanno usato settaggi ulta, SMAA 1tx e open GL, in modo da distruggerne il frame rate in confronto alle maxwell, tanto che a 1440p la 980 andava a 73fps contro i 61 della 480. solo dopo hanno cominciato ad usarlo con vulkan in ultra e con TSSAA 8x (cosa assai inutile), per demoralizzare le prestazioni AMD a causa proprio delle memorie, ma ormai si era in era Pascal e queste, con la compressione sul bus, rispondevano meglio. quindi hai la prova sulla 480 con 980 che fa 73fps e 480 che non supera 61fps la prova della 1060 che con gli stessi settaggi arriva a 69, poi si passa a vulkan e la 480 a 1440p ti sbologna 86fps, la 980 83 e la 1060 80fsp, e comunque sempre con TSSAA 8X, che nessuno userebbe mai in modo così marcato. ad ogni scheda cambiano setting a seconda di chi devono spingere e poi usano i dati di 2 anni prima per le schede già testate in barba ai miglioramenti dei driver... bel modo di testare e capire il livello prestazionale confrontandolo tra le varie schede... è una vera presa per il naso i test che fanno su the guru 3D. quindi tu mi dici che devo prendere per buoni questi dati e mi dici che in doom, vulkan, la 580 e la 480 fanno praticamente la stessa prestazione anche se i TF della 580 sono maggiori. mh... i TF, non la banda di memoria. semplicemente in quelle condizioni saturi la banda di memoria già della 480, quindi della 580, che le ha identiche a default. metti SMAA o TSSAA 4X e a quel punto vedrai per prima cosa salire i risultati della 480, e seconda cosa anche quelli della 580 con il tuo +10% dovuto alla maggiore computazione. oltretutto parli di consumo... ma tu sai esattamente quanto consumano quelle due precise schede con quel setting in quel gioco? perchè io non lo so, ma non lo sa nessuno per il semplice fatto che nessuno lo ha mai misurato, in quelle precise condizioni. ed invece tu te ne esci con +80W solo perchè nel momento in cui si usa metro LL ti fanno vedere che c'è quella diferenza, spremendo tutto dalle schede (gioco che logicamente è DX11, non scordiamocelo). ma, realmente, credi di far fesso qualcuno? non stai parlando con i tuoi amichetti... Quote:
non parli con bambini dell'asilo, ma con chi la materia la conosce approfonditamente: io creo ed eseguo procedure di test per vivere e ci vivo anche bene. ti posso smontare ogni singolo test di ogni singola testata in rete, evidenziandone la mancata obbiettività per il semplice fatto che un test obbiettivo, i cui risultati sono affidabili, non è così semplicistico... e questo, te lo assicuro, non è perchè io sono bravo od ho materia grigia che faccio funzionare, perchè di persone competenti in questo specifico settore ce ne sono tante e molte sono proprio quelle che leggi nelle review. se non fanno test obbiettivi è solo perchè c'è più guadagno a non farli ed usano la loro materia grigia per condizionare i risultati usando i settaggi più disparati e proporre al pubblico i numeri che i produttori chiedono, ma logicamente dei produttori che pagano. ricordati che tra nvidia e AMD questo settore: la vendita di schede video per gaming, fa girare oltre 3 miliardi di dollari a trimestre di fatturato... non parliamo di bruscolini. Ultima modifica di lucusta : 26-08-2018 alle 21:31. |
||
|
|
|
|
|
#272 | |
|
Bannato
Iscritto dal: May 2001
Messaggi: 6246
|
Quote:
te l'ho già scritto: non scala per la potenza grafica. non hai processori a 7.5Ghz per riuscire a coadiuvare il lavoro di una scheda che ha una considerevole potenza grafica quando non ne è richiesta molta, a basse risoluzioni o quando sei in certe condizioni (tipo la VR). l'uso che fai in DX11, sequenziale, non permette di sfruttare al meglio la CPU e questa diventa palese collo di bottiglia. ammucchi le richieste della CPU in un'unica istanza, che poi deve fermarsi per aspettare il lavoro della GPU e solo dopo operare. in quel tempo che la GPU opera la CPU stà con le mani in mano. guardandola dal lato GPU questa sta in attesa delle richeste, le esegue e poi deve continuare a stare in attesa della CPU. usi le possibilità computazionali dell'HW al massimo della capacità operativa, ma in modo intermittente. in AC ottieni guadagno perchè elimini principalmente questa intermittenza, perchè mentre la CPU o la GPU è in attesa può dedicare altre sue unità ad altri compiti, visto che il compito che stà eseguendo non necessita di tutte le unità, essendo più piccolo. oltretutto, soprattutto per la GPU, un uso sequenziale implica che il lavoro dev'essere centralizzato, e quindi su un solo thread e quindi su un solo core. in AC, invece il lavoro è spezzaettato in tanti lavori più piccoli, quindi su più thread e quindi su più core. l'unico scotto che devi pagare è che dividere costa più risorse che farlo tutto in un'unica istanza. ma è uno scotto che si paga volontieri quando riesci a sfruttare meglio le risorse della macchina. quando la CPU è in attesa non si mette mica a riposo a basso clock... non ne ha il tempo. sono solo cicli vuoti alla massima frequenza possibile (la tecnologia speedstep si basa anche su delle latenze d'intervento nell'andare ad abbassare il clock della CPU). cicli vuoti in cui comunque alimenti quelle risorse per quelle frequenze, quindi consumo, quindi calore, quindi aumento delle temperature medie e perciò un consumo ancora maggiore. oggi eseguire un lavoro sequenziale, con la multitudine di risorse che hai per la CPU e per la GPU, è stupido... |
|
|
|
|
|
|
#273 | |
|
Bannato
Iscritto dal: May 2001
Messaggi: 6246
|
Quote:
ma, guarda, riprendendo il tuo stesso link sopra ed andando su Deus Ex (high quality preset) io vedo che confrontando la 1070, la 580, la 480 e la 1060 si possa parlare per ore ribbattendo quello che scrivi. in FHD la 1070, scheda che produce 7.2TF teorici a 1875mhz per un consumo di 161W, esegue il gioco in 86fps; la 1060, per 134W, ottiene 63fps, con i suoi 4.7TF teorici a 1850mhz. la 580 consuma 191W (MSI gaming X, una custom), per 71fps e 6.5TF@1400 la 480 consuma 166W, per 70fps con i suoi scarsi 6TF teorici a 1300mhz. ma: il consumo è stato STIMATO, perchè the guru 3D lo stima, il TDP, non lo misura direttamente; usano un'applicazione che manda la GPU al 100%, poi misurano il consumo cercando di far consumare il meno possibile alla CPU in un'applicazione in cui non si usa la GPU su una CPU che è con clock fisso a 4.4ghz e senza tecnologie per il risparmio energetico. loro misurano la potenza assorbita alla presa e moltiplicano per il rendimento TEORICO dell'alimentatore. a questo punto sottraggono il valore della GPU sotto stress con quello della CPU al minimo possibile e te lo danno come consumo massimo della scheda... testuali parole: "We stress the GPU to the max, and the processor as little as possible. The before and after wattage will tell us roughly how much power a graphics card is consuming under load. Our test system is based on an eight-core Intel Core i7-5960X Extreme Edition setup on the X99 chipset platform. This setup is overclocked to 4.40 GHz on all cores. Next to that we have energy saving functions disabled for this motherboard and processor (to ensure consistent benchmark results). We'll be calculating the GPU power consumption here, not the total PC power consumption." per prima cosa l'occupazione della CPU potrebbe essere variabile tra una entry livel ed una top gamma, quindi tutte le entry livel che hanno misurato in questo modo sarebbero sovrastimate, ma poi proprio perchè non hanno usato le tecnologie di risparmio energetico il processore non ha avuto neanche modo di sistemarsi alla migliore frequenza possibile, quindi al voltaggio relativo più adeguato. tralasciando il fatto che oltretutto usi un'applicazione che potrebbe non essere un gioco, e quindi mandare in palla la GPU in un modo che non incontrerai mai nell'esecuzione del gioco, qui viene meno il discorso del giusto clock della CPU per la massima espressione potenziale della GPU. questa non è nemmeno una stima grossolana e tu ci fai le pulci sui +o- 10W? proseguiamo: il 10% di potenza computazionale in più della custom 580 non si evince, il che fa venire il dubbio che siamo con un bottleneck dovuto o al processore, ma pare realmente difficile con deus ex, che usa almeno sei core fisici, o alla banda ram per quel particolare setting del gioco a causa di filtri eccezianalmente alti. io punto, come al solito, sui filtri, spesso usati in modo esagerato proprio per azzoppare le AMD che necessitano di molta banda ram, non avendo compressione sul bus dati. poi vediamo che la 1070 farebbe 86 fps per i suoi 7.2TF teorici, e la buttiamo lì che il suo clock medio è sui 1875mhz, quando la 480 con i 6TF teorici ed un clock a 1300mhz ne ottiene 70. 11.94 fps per TF della 1070 contro 11.66fps per TF della 480 e 13.4fps per TF della 1060. il sospetto è che la 1060 non ha effettivamente 4.7TF teorici, quindi non gira a 1800mhz, ma, guardando la 1070 e facendo i conti su questa, abbia 5.3TF e giri a 2060mhz..... un miglioramento così elevato di rendimento del numero di fps per TF, con la stessa architettura E SENZA NESSUN BOTTLENECK DELLA CPU, visto che la 1070 gira a 86 fps e che quindi quella CPU riesce ad esprimere almeno 86fps con quell'architettura fa pensare che non abbiano assolutamente usato la 1060 in condizioni di default, ma in pesante overclock, visto che i 2060 sono possibili per una 1060, ma non su un FE a default. quindi i consumi si STIMANO a default ma le prestazioni sembrerebbe di no... i settaggi dei giochi vengono fatti in modo da annichilire le prestazioni di alcune schede invece di usarle nel modo più idoneo che la gente le userebbe e tu vieni a fare qui le pulci su una scheda che riesce a fare 83% delle prestazioni di un'altra costando praticamente la metà? (perchè le 1070 custom o FE stavano a 450 euro, senza mining, la 480 4GB la prendevi a 225 euro al'inizio, oggi, OGGI, a 250 euro sull'affidabilissimo amazon, che è anche più caro di una 30ina di euro di altri economici frodaiva store on line). andiamo al nocciolo della questione: quanto effettivamente consuma la 580, anche usata così, su Deus ex? quanto la 1060? 190 contro 130W? sono 60W. quanto consumerebbe una scheda nvidia per ottenere la stessa prestazione? 71x130/63= 145W grossolanamente, quindi 45w di differenza... qual'è il costo di una 1060 custom da 2060mhz? 290 euro. e proseguiamo: che processore necessita la 580 per ottenere 71fps? un ryzen 1600? una 1060 riesce ad ottenere comunque 63fps con un ryzen 1600? se non ci riesce che processore si dovrebbe usare? ma soprattutto, quando consumano realmente alla presa al muro una 1060 e una 580 affiancate ad un processore che ha attivo l'enegy saving, il più adatto a loro ed alle rispettive architetture? ed oltretutto a cosa serve andare oltre i 60-65fps se non hai un monitor adaptive sync? con un monitor normale basta che facciano 60 rock solid... il resto è spreco. quindi quanto mi costa un freesync e quanto un gsync da affiancare ad una 1070/1060? sono queste le domande a cui dovrebbero rispondere i recensori e su questi presupposti dovrebbero considerare il costo e l'uso delle macchine nei giochi... il resto è solo per farti comprare il prodotto A invece che il prodotto B. di tante persone che conosco sono ben poche che overclockano la CPU e GPU per giocare e se non lo fai i risultati potrebbero essere assai differenti. quindi è decisamente più interessante vedere questi test in una ipotetica condizione normale; condizione in cui poi l'utenza si ritrova E PUO' FACILMENTE CONFRONTARE I PROPRI RISULTATI CON QUELLI CHE SCRIVONO QUESTI SIGNORI. perchè io spesso vedo che gli fps che ti fanno vedere non c'entrano proprio nulla con quelli che poi l'utente normale riesce ad ottenere... a volte più alti, molto spesso più bassi, ma in generale e solo perchè dipendono dal settaggio usato. creano più confusione che altro... e, logicamente, tu mi vieni a parlare di come si fanno i test e vai a giudicare le schede in base a quei numeri che ti forniscono... bene; benvenuto nel club di bambini che vanno all'asilo... cerca, quando parli con me, di portare argomentazioni serie; grazie. Ultima modifica di lucusta : 26-08-2018 alle 23:11. |
|
|
|
|
|
|
#274 | |||||||||||||
|
Senior Member
Iscritto dal: Jan 2011
Messaggi: 4189
|
Quote:
Per la dimensione devi tenere conto che il PP di GF permette una diminuzione di circa il 10% rispetto al 16nm di TMCS. Quindi Polaris1210 fatto su TMSC sarebbe di circa 253mm^2. Il problema èp l'archiettura, che per come AMD l'ha implementata (forse anche per colpa della stessa densità) mura a una frequenza decisamente inferiore rispetto a Pascal. Guarda le versioni precedenti di GCN e guarda a che fasce erano destinate le GPU a 256bit di AMD. E sì, andavano contro le versioni x80 di nvidia. Che secondo alcuni non fa nulla per migliorare le sue architetture e invece uno dei maggiori lavori da Kepler in poi è stato proprio quello di ottimizzare alla grande l'uso della banda e permettersi chip con un MC più piccolo (ma comunque più veloce). Polaris1210 è stato pensato per arrivare vicino, non dico superare perché neanche AMD lo credevano, le prestazioni della serie x80 di nvidia ad un prezzo decisamente inferiore. Quali che siano i motivi a noi tutti sconosciuti, invece ne è risultato uno schifo che i 150W li ha visti nella versione castrata e con 4GB in meno, ben lontano dalle prestazioni della x70 nonostante nvidia l'abbia castrata di ben il 25% rispetto alla versione completa del GP104. Conseguenza? Usciamo con Vega, super mega pompato con tutte le tecnologie nuove conosciute così come fu per Fiji. Risultato? Un chippone che va quanto la serie x80, finalmente. Peccato per i 480mm^2 e i quasi 300W e l'HBM. Quote:
Doom è nato per sfruttare al massimo le capacità dell'architettura AMD e per tanto fa scelte proprio in quel senso: geometria ridotta ma grande uso della banda (che AMD ha in abbondanza rispetto a nvidia). Quote:
Salviamo il salvabile di questa ulteriore pantominma da fanboy con fegato spappolato che si dimena per cercare di dimostrare che solo l'AC è il futuro di cui tutta l'umanità ha bisogno. Quote:
1. hai detto che Pascal da 69FPS con l'uso dell'AC passa a 80FPS (non doveva calare del 20% e con ciò rendere Pascal una architettura da buttare semmai fosse stato usato in maniera estensiva?) 2. il miracolo AC su AMD la fa passare da -8 FPS (rispetto alla 1060) a ben e sottolineo ben +8 FPS. In percentuale da -11% a +10% (sempre con la 1060 come riferimento). Quindi abbiamo un incremento del 20% che porta l'architettura AMD ad andare in maniera spaventosamente migliore di un chip più piccolo che consuma meno. Quote:
Quote:
Ma tu vedi che disdetta che hai trovato uno che ti sta facendo dire le cose che quando parli di AMD non vuoi mai dire ma se si parla di nvidia ti inventi tutto il possibile, anche l'assurdo, per fare in modo che dei dati a caso diventino una dimostrazione di una teoria. Quote:
Ma deve essere che Vulkan, quel pastrocchio che a seconda dei casi è la manna per AMD, in altri è un accrocchio che non permette di fare il lavoro in maniera corretta (leggasi ad hoc) su questa architettura,usa un HW totalmente diverso e permette alla 480 di consumare come la 1060 andando pure il 10% in più. Quote:
Quote:
Ah, certo, serviva il Profeta per farci spiegare il perché i test a favore di AMD sono eseguiti in maniera corretta mentre quelli che non mostrano i suoi lati positivi sono falsi e creati appositamente con malizia per danneggiarne l'immagine che altrimenti, uuuuhh, sarebbe quella di produttrice della migliore architettura esistente che con meno fa di più! Ma quando scrivi, ci credi veramente alle baggiantate che stampi nero su bianco? Quote:
Il problema è chi ne sa trarre giovamento e chi no. Quote:
Secondo il tuo ragionamento, che è chiarificatore di quante caxxate tu dica a raffica, il megathread di nvidia è CPU limited, per cui serve un core che va a 5GHz per non farlo saturare, però allo stesso momento si deve fermare ad aspettare che la GPU faccia il suo lavoro. Lo sai che se un thread si ferma l'occupazione del core scende, vero? Non parliamo di questa cosa che continui a sostenere per cui ad un core della CPU corrisponda un thread della GPU: ma per l'amor del cielo! Le varie fasi della computazione di un frame sono necessariamente sequenziali: non puoi metterti a calcolare il colore dei pixel se prima non hai elaborato la geometria e l'illuminazione con tutto quello che consegue anche solo eseguire questi due primi passi. Che vuoi fare nel frattempo? A sì, siccome le unità di AMD che hanno il geometry engine nell'uncore e che fanno fatica ad essere saturate da questo quando ci sono molte ALU a disposizione, usiamone un po' per fare dell'altro creando nuovi micro thread che vanno a sovrapporsi a quello della geometria. Tanto per calcolare il frame servono 25ms, che i calcoli si facciano prima o dopo non cambia nulla. In AMD si può (anzi si deve) fare un pastrocchio per saturare le unità di calcolo, con Pascal invece questo non è necessario visto che il guadagno è minimo (ma aitè, c'è, forse ti confondi con Maxwell dove la perdita è di 1 o 2 punti percentuali). Nei tuoi sogni più intimi la CPU aspetta la GPU mentre questa fa il suo lavoro, visto che la geometria del frame successivo è calcolabile, così come l'AI, la fisica, l'effetto audio, le collisioni, lo step successivo dello script di ogni oggetto etc... E infatti il megathread continua a pompare al 100%. Leggere le caxxate di chi non sa come funziona una GPU e viene sui forum a fare quello che spiega agli altri il perché le soluzioni AMD in teoria sarebbero migliori ma poi nella pratica anche quando sono seguite hanno un vantaggio REALE del 10% e del 20% rispetto alla sua performance base (che fa schifo perché incapace di eseguire il lavoro come si deve). Quote:
Ma volentieri cosa che la suddivisione di un lavoro omogeneo in più sottolavori indipendenti è uno dei problemi principali dell'ingegnerizzazione a tutti i livelli tanto da essere IL problema fondamentale quando si parla di programmazione! Ma che caxxo stai a dì??? Sei tu querllo che ci sta prendendo in giro sempre per cercare di far risultare le scelte di AMD le migliori anche se i fatti dicono che usando altri paradigmi si fa di più con meno. Quote:
Nel frattempo Nvidia si è data da fare da sola e negli ultimi anni ha creato delle architetture che con meno mm^2 e meno energia fanno più lavoro di quando non riesca a farne AMD con la sua "avanzata" tecnologia AC in attesa sempre di colui che la sfrutterà al massimo (ovvio) dedicando spontaneamente il proprio tempo e denaro. Intanto come dissi con il lancio di Pascal, nvidia ha dominato ancora per oltre 2 anni e con Turing si appresta a farlo ancora per il prossimo. I prezzi dicono chiaramente quello che è il rapporto di forza tra le due aziende. AMD semplicemente non c'è più e nvidia si fa concorrenza da sola e il fatto che non dica nulla sulle prestazioni fino all'ultimo secondo è indicativo di questa cosa, non vuole certo fregarsi le vendite delle GPU attuali dicendo che le prossime sono il 40 o il 50% più veloci, non ha bisogno di tirare nessuna acqua al suo mulino che macina già abbastanza grano. Per il mondo sperato dal frustrato fanboy lucusta, appuntamento al 2020 (se va bene fine 2019), con il rilascio di Navi. Sempre che questi abbia capacità HW RTX decenti e non semplicemente "emulate in SW", altrimenti arrivederci al 2022 con i 5nm con prezzi ancora più alti di quanto non si hanno oggi e nella speranza che AMD tenga nel futuro, anche dopo la PS5, la fornitura dei chip per console, che se la perde.. huhuuu... addio motori ottimizzati per GCN e prestazioni indietro di 4 giri. Ultima modifica di CrapaDiLegno : 27-08-2018 alle 00:37. |
|||||||||||||
|
|
|
|
|
#275 |
|
Bannato
Iscritto dal: May 2001
Messaggi: 6246
|
|
|
|
|
|
|
#276 | |||
|
Senior Member
Iscritto dal: Jan 2011
Messaggi: 4189
|
Quote:
Quote:
Quote:
Misura alla presa del muro dell'intero sistema. la 1070ti è l'ultima scheda uscita in assoluto, quindi i driver usati sono gli ultimi disponibili, se mai ti volessi appellare che con qualche ulteriore versione dopo il lancio le schede AMD siano diventate miracolosamente generatrici di refrigerio. Quando parlo con te parlo di fatti, non di elucubrazioni mentali da cerebloleso che vuole farsi passare per guru da forum su argomenti di cui non ha la minima competenza e sempre ed esclusivamente a favore di AMD anche quando l'argomento non è sostenibile. Tutto quello che hai fatto qui è trovare delle scuse per rendere dei test non ideali, cosa nota come arma per chi vuole dimostrare una teoria che passa attraverso i punti che lui ha scelto essere gli unici validi tra quelli che la realtà mette a disposizione. Cosa che possono provare a fare tutti, anche i bambini dell'asilo come te. Purtroppo per le tue elucubrazioni sul perché e sul percome AMD risulti sempre quella che ha consumi esagerati e con efficienza infima, i fatti sono chiari. Poi se vuoi ci sono pure questi sulla tua meravigliosa efficientissima 580. https://www.anandtech.com/show/11278...-570-review/16 Ora sviscera altre tue perle per rendere invalidi i test di Anadtech che misura alla parte i consumi senza nessuna stima. O questi https://www.techpowerup.com/reviews/...o_Plus/28.html E comunque sia negli altri siti la stima è fatta per tutte le GPU allo stesso modo e non si capisce perché solo quelle di AMD dovrebbero essere penalizzate.. o si, lo si capisce perché ci sono i fanboy a crederlo. A dimmelo tu che sono mesi che continui con questa cosa delle CPU a 5GHz per fare con le schede nvidia gli stessi frame che AMD avrebbe a una non meglio specificata frequenza o numero di core. Ultima modifica di CrapaDiLegno : 27-08-2018 alle 00:28. |
|||
|
|
|
|
|
#277 |
|
Senior Member
Iscritto dal: Jan 2011
Messaggi: 4189
|
|
|
|
|
|
|
#278 | ||
|
Senior Member
Iscritto dal: Feb 2004
Città: Ancona
Messaggi: 2148
|
Quote:
Partiamo dal fatto che AMD sia rimasta sorpresa da Pascal: penso sia vero, Pascal è molto simile a Maxwell, ma grazie al nuovo processo produttivo e al lavoro sul memory controller, nVidia è riuscita ad avere frequenze altissime e basso consumo, riuscendo a mantenere una dimensione dei chip ottima. Questo è fuor di dubbio. Però Pascal è molto più simile a Maxwell di quanto non sia GCN4 ai GCN precedenti. Densità: Polaris è più denso di Pascal, cosa che unita ai 14nm GF, inferiori ai 16 TSMC, ne ha decretato un muro di frequenza troppo basso, e un voltaggio necessario per avere alte rese troppo alto - cosa che poi accomuna anche i Ryzen, tanto per dire che il processo produttivo c'entra. Ora, 14nm vs 16 nm, GCN4 è più denso di Pascal di circa il 7,5%. Sai che a 28nm vs 28nm, GCN2 vs Maxwell, GCN2 era l'8,5% più denso di Maxwell. Quindi nonostante il processo 14nm, AMD ha perso in densità. Capisci quanto fosse la differenza fra GF-14 e TSMC-16? Sul memory controller nulla da dire, nVidia ha impostato una compressione molto efficace (spero lossless) sulla memoria, AMD per necessità prestazionali ha dovuto portare i 256 bit in fascia media. Il confronto con le versioni precedenti di GCN facciamolo. AMD partiva con 290X e 390X, nei cui confronti Polaris 10 ne esce davvero bene in termini di efficienza, visto che una volta curato del "spariamo i voltaggi per avere rese" va a consumare, come ti ho detto rilevando la mia, sui 130w avendo performance simili a R9 390X, una scheda da 250w con bus da 512 bit. Già nella precedente serie AMD aveva un bus da 256 bit in fascia medioa-alta, visto che erano le 380 ad esserlo (e consumavano più di Polaris). Ah, sono il primo a dire che NON È NORMALE che sia l'utente a fare undervolt per diminuire i consumi eh, è solo perché voglio mettere sul piano quale è la reale efficienza di Polaris, una volta che non si è nella situazione SICURAMENTE NON OTTIMALE di dover alzare i voltaggi per avere più resa. Discorso unità di calcolo, ti quoto nuovamente anche se l'ho già fatto: Quote:
La cosa che sicuramente era poco preventivabile in casa AMD, era quanto fosse facile salire in frequenza con Pascal, cosa che ha reso la 1060 decisamente più forte di quanto potessero aspettarsi in casa Radeon. E comunque fra 480 e 1060 rimane un bel pari, la 580 per essere davanti invece, pur essendo più rapida, dimostra ancor di più quanto il processo produttivo sia al limite, visto che il consumo aumenta decisamente in pochi MHz. Ma lo stesso accade con Ryzen. Ah, nelle console "nuove" ci sono GCN fatti da TSMC. Vai a vedere quanto consumano, e si tratta di console complete.
__________________
Main: NZXT H7 Flow|RM1000x|Z690 Aorus Master|i7 13700k|LFII 360|G.Skill 2x16GB 6400C32|Asus RTX 4090 TUF OC|Asus PG32UCDM + Pana 55JZ1500|Audient iD14 II + Kali LP-6 + Sundara|2xFireCuda 530 2TB + MX500 1TB + NAS Encoding: Define R6|Prime TX-750|B550 Tomahawk|5900X|2x8GB 3200C14|A380 |
||
|
|
|
|
|
#279 | ||||||||||||||||||||||||
|
Bannato
Iscritto dal: May 2001
Messaggi: 6246
|
Quote:
dimmi quale x80, fascia top nvidia, è mai arrivata a costare così poco... per me parti da una valutazione decisamente errata. Quote:
una GPU embedded AMD è capace di andare quasi quanto una 480 desktop a 60-70w in meno. si chiama binning. se hai quel consumo è per il semplice fatto che per costare così poco devono mettere in produzione chip che reggono comunque quel setting, quindi con un voltaggio elevato, quindi con un consumo elevato. se il binning non è ristretto (ed il binning ha un costo non trascurabili già solo per l'esecuzione, non solo per il fatto di scartare chip), sei costretto ad impostate per tutti i chip l'identico voltaggio, sia quelli che potrebbero consumare 96W che quelli che ne consumano 160. nvidia per rimediare chip di scarto ti ha proposto una miriade di varianti della 1060. la 1060 3GB, la 5GB la 6GB la 6GB con ram a 9ghz, la 1060 per portatili normali, la 1060 q-max... ci sono decine di versioni per l'identico chip. AMD non ci ha nemmeno provato a fare binning su polaris 10, si è affidata alla statistica e all'ovvietà (chip al centro sono meglio che chip alla periferia del wafer) per servire le PRO, Apple e le embedded... su quelle ha fatto binning: se non andavano bene via sul desktop... dimostrazione la hai per il fatto che non ci sono polaris 10 per portatili. è un'altra politica commerciale, la stessa adottata su Vega, ed assai diversa da quella nvidia. non è assolutamente detto che il processo TMSC sia meglio di quello GF. non sai quanti wafer buttano in TMSC per fare i PAscal desktop, ma puoi capirlo pressappoco dal costo finane delle schede, che non è solo una questione di profitto per la posizione dominante... è come vuoi sfruttare il processo che cambia la questione ed AMD, in queste generazioni, ha deciso di sfruttarlo in modo da ottenere i chip più economici che poteva. se non capisci questo non capirai mai come funziona questo settore, mi dispiace. Quote:
quel gioco ha chiamate personalizzate per singola scheda, non per singola architettura. ci ha lavorato anni per produrlo, e non per gli effettini, ma per il codice di base. la differenza sugli altri giochi è proprio questa: gli altri fanno giochi adatti al meglio per una scheda, la più diffusa sul pubblico a cui vogliono vendere il gioco, che più o meno andrà bene anche per le altre schede con la stessa architettura, ma che girerà per come gira su tutte le altre, nuove o vecchie che siano. doom è stato finemente ottimizzato sulle singole schede e sui singoli OS, ed è anche per questo che ha usato vulkan, set di API più adatto a questo scopo. Quote:
io ti ho scritto una filippica per farti capire che i test non sono mai, MAI obbiettivi, ma che servono solo a fare pubblicità e quindi a far guadagnare soldi, e tu mi rispondi in questo modo? ma quanti hanni hai, per curiosità, perchè mi sembra di stare a parlare con mio nipote di 10 anni.... e poi se doom era solo in AC maxwell andava in errore, renditi conto. su AoTS hanno dovuto disabilitare il codice AC e farne uno solo per maxwell/pascal e la gente continua a leggere che AoTS è il test per provare le DX12... tzè Quote:
non c'è un gioco che gira realmente in AC. non li fanno perchè sennò gli tocca fare lo stesso gioco anche senza AC perchè le vecchie nvidia non girano con AC. ma quando vedi un gioco con cui puoi giocare sia in DX12 che DX11 tu che credi che attivino AC? bene, sbagli a pensarla in questo modo. la differenza tra DX11 e DX12 è che oggi quando sfruttano le DX12 usano le DX11.3, non il computo asincrono, ma solo il computo sincrono con la possibilità di usare fino a 8 thread (e non grafici, ma quelli accessori). Quote:
in nessuna review la 580 va quanto una 480, tranne che su the guru 3D... io mi sarei chiesto perchè. Quote:
se quel processore è impiccato con una 1070, i valori che leggi sulla 1080 Ti sono tutti falsi, perchè non avrebbe fatto un solo frame in più per bottleneck della CPU. apposta ti sto confrontando 1070 e 1060, perchè ho l'assicurazione che la CPU non è in bottlenek guardando la 1080 e 1080 ti (lo saranno magari queste). non lo capisci, vero? non ci posso fare nulla... è una questione tua personale: o ci arrivi o non ci arrivi... Quote:
"Measured Power Consumption Mind you, the system wattage is measured at the wall socket side and there are other variables like PSU power efficiency. So this is an estimated value, albeit a very good one. Below, a chart of relative power consumption. Again, the Wattage shown is the card with the GPU(s) stressed 100%, showing only the peak GPU power draw, not the power consumption of the entire PC and not the average gaming power consumption." l'unico errore è dire che è "an very good one estimed value", quando è più un gioco a freccette... Quote:
ma visto che hai misure di consumo su giochi che neppure testano, dalla presa a muro o con marchingegni fatti in casa sul pettine PCIe. con processori iper overclockati, non hai minimamente ragione. ne tu, ne io, ne nessuno che legge le varie review sa esattamente quanto consumano quelle shcede per il semplice fatto che non sono mai realmente state testate nel modo più opportuno: esecuzione del test -> relativo consumo. ad oggi potrei spararti la pagliacciata che in deus ex la 480 consumi 50W mentre la 1060 consuma 160W e tu non potresti obbiettare, perchè non hai dati per farlo. ma sarebbe una pagliacciata. quindi perchè io dovrei credere alla tua affermazione che la 480 consuma 166W su tutti i giochi e la 1060 consuma 120W se non hai comunque dati? ecco perchè questi valori li prendo a prescindere per una pagliacciata, e poi ti dico che COMUNQUE non giochi esclusivamente con la scheda grafica, ma con l'intero PC e che non è necessario sparare a bomba la CPU in ogni frangente, ma dovrebbero essere fatte misure a defalut con tutti i settaggi del power saving attivi, su ogni applicazione che testi per ESSERE OBBIETTIVI, e solo dopo associare test e consumi in condizioni non di default, così si valuta anche il vantaggio che hai nel procedere in quel modo. questo è un test quasi obbiettivo, perchè quello in assoluto obbiettivo richiederebbe il test per ogni combinazione di ogni singolo settaggio che puoi applicare con la differenza percettiva del miglioramento. questa è l'assoluta obbiettività. non c'è bisogno di testare 50 schede su 100 0giochi. basta analizzare gioco per gioco con l'HW che in quel momento è sul mercato. alla fine avrai talmente tanti dati da poter dire assolutamente ed in modo oggettivo il valore di ogni scheda. perchè, ti ricordo, l'analisi prestazionale che fanno dovrebbe aiutare i consumatori a scegliere, non i produttori a vendere. Quote:
io ti ho detto che creo test, non li eseguo (e ti assicuro che nel mio campo i test non si creano così, come la capoccia ti dice quel giorno, ma hanno una trafila burocratica che richiede mesi per l'approvazione da parte dei diversi ministeri... e loro ti fanno le pulci prima di porre la firma per l'approvazione). io ti ho scritto che non sono l'unico con queste capacità, ma che probabilmente in questo genere di test, molti di quelli che li eseguono per queste riviste, sono anche più capaci di me che lo faccio per mestiere da 25 anni, ma in altro settore. quindi è strano che io, che li faccio su un'altro settore, trovi comunque a prima occhiata errori grossolani di procedura logica... pare quasi che invece di andare a chiarire le perplessità ne approfittino per manipolare chi non ha il medesimo background che ho io... ma che comunque anche persone che hanno un certo rigore logico scovano con molta facilità. sul test della 580, se io avessi visto risultati uguali tra una 480 reference ed una MSI gaming X, anche se fosse appena uscita e non ne conoscessi effettivamente il valore prestazionale, solo guardando le specifiche mi sarei un'attimo chiesto come mai facesse solo un frame in più rispetto alla 480 pur avendo MINIMO il 15% di potenza computazionale in più. come minimo avrei pensato ad un mio errore, in seconda istanza ad una scheda difettosa. per loro tutto normale e sono diventati dati da pubblicare... quindi, ti ripeto, alla mia età non ci credo più alle distrazioni, al caso... so bene come gira il mondo... ho le mie esperienze e so anche come gira quell'ambiente. è tutto molto aleatorio, sulle righe... quando si vende le cose che ti fanno vedere son tutte luccicanti per attirarti... specchietti per le allodole. Quote:
il problema è a chi è necessario o a chi no... non è affatto la stessa cosa quando parli poi di costo e consumo. Quote:
perchè queste cose avvengono spesso nell'uso normale della CPU, e buttare giù immediatamente la frequenza non è pratico. non ti chiedo se hai mai letto nel particolare la tecnologia speedstep o pawernow! come funzionano, i loro intervalli di azionamento, ma, grossolanamente, non hai mai visto il comportamento tra i settaggi risparmio energia, bilanciato e prestazioni massime di un OS moderno?... non ti è mai venuta la curiosità di maneggiare nei settaggi avanzati? questo indica il tuo livello di preparazione base.... e poi vai a dare dell'ignorante agli altri? al tempo ci si passavano le giornate a maneggiare sui delays delle CPU su crystall CPU (o come diavolo si chiamava), per trovare il giusto setting tale da consumare il meno possibile ma non avere il PC pigro e non mandarlo di freeze se forzavi troppo... e si, perchè poi l'associazione voltaggio/frequenza è assai più problematica di quanto può sembrare a prima vista, in quanto quando sali devi avere già un voltaggio sufficiente a non freezzare il PC per la frequenza che userai, e questo dipende anche dalla temperatura della CPU in quel momento... tutte cose che oggi fanno le tavole preimpostate sul firmware per la gestione della CPU/GPU o, meglio ancora, particolari algoritmi "intelligenti" che analizzano le condizioni operative del chip in ogni momento. e tu dai dell'ignorante a me... Quote:
tanto poi mi dai queste risposte. Quote:
si chiama parallelizzazione ed il frame non lo calcoli sequenzialmente pixel per pixel, ma lo puoi fare in decine di modi differenti. Quote:
il geometry engine AMD può dedicarsi tranquillamente ad impostare altre ALU per calcolare anche altro: IA, fisica, effetti audio. sei tu che sostieni che non ce la fanno e che si saturano... ma per quanto stai esponendo in questa risposta o le mie remore nel crederti... non è che non mi fido, è che ho proprio capito che non lo sai. Quote:
in AMD l'unico impiccio è proprio dividere il lavoro sequenziale e UNICO in tante piccole ALU. quando questo ti viene fornito direttamente dallo sviluppatore, servito su un bel piatto di portata, le ALU mangiano direttamente richieste singole e sputano risultati. ed è proprio per questo che nvidia non computa AC in HW. vedi che, sotto sotto, la vera differenza la conosci? la vera differenza è che il lavoro viene svolto prima, in compilazione e strutturazione del codice, e non al volo, sulla CPU, quindi il layer driver diventa talmente sottile che serve esclusivamente a tradurre le funzioni in comandi per la GPU... un pochino pochino più veloce, come processo di esecuzione. a, ma giusto, gli sviluppatori sono così indaffarati che il lavoro preferiscono farlo fare alla CPU ogni santa volta in ogni santo momento... tanto ci sono processori a 8ghz in circolazione... di potenza ce n'è a iosa. Quote:
Quote:
mi domando perchè allora tu stia sempre qui a scrivere. io ancora aspetto la tua descrizione fine (e magari con codice d'esempio) del funzionamento delle maxwell pascal... perchè finchè non mi dai una logica descrizione puntuale tu per me non dovresti neppure rispondere al telefono, non sui forum, che fai solo danni. Quote:
perchè è l'esempio principe della parallelizzazione (se non ti fanno quell'esempio i professori muoiono). thò, ma sai che credo che la grafica 3D sia vettorizzabile e calcolabile con una matrice, sia nel meshing che nel texturing? sarà mica che la grafica 3D è il campo in cui la parallelizzazione ha più efficacia di ogni altro campo? bhè, te lo dico per certo: la grafica 3D è altamente parallelizzabile a diversi livelli. continua a fare i disegnini in ascii mode e non metterti in bocca parole che nemmeno chi le ha pronunciate ne capiva il senso, grazie. Quote:
puoi leggere i miei commenti su questa, su questo e su altri forum, venire qui e chiedermi scusa per il fraintendimento. se nvidia ha fatto per anni architetture che non mi piacevano non potevo certo lodarle, anzi. altro discorso è la politica di nvidia, la sua etica. quella la schifo a priori da sempre. non è un'azienda che si comporta in modo tale che io possa apprezzarla, e di esempi che ti posso fare ce ne sono per decine e decine. sarò sempre critico con quelle aziende che cercano d'infinocchiare i propri clienti. ecco perchè può sembrare che sono pro AMD. io sono PRO me stesso, da sempre. sono contro le aziende che cercano di tirarmi il pacco, ed nvidia me ne ha tirati più di uno in 32 anni che acquisto HW PC (mai quanti intel, ma lì il discorso è assai da pesare). Quote:
ma forse ti avrò scritto esattamente il contrario? ti avro scritto anche che se fai 1 su 1 puoi fare 1 se per fare 2 devi sacrificare anche un'altro 10% ti servirà 2.2, ma ottieni comunque 2 che è più grande di 1.... e che se per fare 1 usi una CPU che può fare 10, ma che ti farà comunque 1 perchè quell'1 è indivisibile, mentre ti sfuma la possibilità di fare anche fosse 5 usando tutte e 10 le possibilità della CPU e che comunque per fare 1 costringi 10 a stare al 100% comunque?... ti avrò scritto questo? ti avrò scritto che se dividi 1 su una CPU da 10 non ti serve che la CPU stia al 100%? non starà al 10%, ma nemmeno al 100% con 9 che si girano i pollici... sarà al 50%, che è sempre la metà di 100%. le tue convinzioni son troppo radicate nell'ignoranza, se mi permetti di dirtelo, come lo sono quelle di chi affibbia etichette e che MAI HANNO SCRITTO UN SOLO CONCETTO TECNICO O LOGICO, ma esclusivamente commetini di contorno giusto per essere presenti... di quelli che salti perchè non servono a nulla... Quote:
perchè oggi non sembra così piccola e così poco energivora rispetto a prima, pur avendo avuto un passaggio migliorativo di PP. poi, ribadiamolo un'altra volta: ieri erano piccole perchè il resto è SW, sulla CPU, e capaci poi di fare il lavoro solo in un modo, tanto che ha dovuto propagandare il dio denaro a destra e a manca per farsi fare vestiti adatti. poco energivora perchè se non ci metti i transistors non consumano... consumerà però la parte computazionale, la CPU, che si deve sobbarcare il lavoro di quei transistors che non ci sono sulla GPU (ed un SW è sempre meno efficiente di un HW). poi si deve aggiungere che è CPU limited... se ti facevano una GPU come pascal grossa il doppio di una titan XP quanto credi sarebbe andata, con le attuali CPU a 1080p? di più di una titan xp? io dico che sarebbe andata alle stesse prestazioni, girandosi altamente i pollici, ma alle stesse prestazioni. se questa non la chiami CPU limited non saprei come illustrarti il fenomeno. Quote:
i prezzi dicono che una 580 costa meno di una 1060 e va sempre di più, ma il marketing e l'ignoranza generalizzata ti fanno credere il contrario. e sai cosa vale realmente in questo settore? prezzo per prestazioni. invece siamo arrivati al punto che i BM di un tempo sono cresciuti SENZA CRESCERE DI CERVELLO e continuano a prendere tutto per buono, senza una sola critica. che nvidia dominerà con le turing non te lo so dire. l'architettura sembra proprio buona, anche se rt core e tensor core sono, almeno per questa generazione, troppo sotto tono (si parla che i tripla A puntano a 60fps a 1080p, frenati proprio dagli effetti RT che sono troppo pesanti per questa generazione). ma l'architettura sembra buona perchè nvidia sembra proprio che l'abbia rifatta di sana pianta: sembra proprio DX12, e quelle vere, compreso AC. ora, quando verrà fuori che le uring potranno proficuamente usare AC, che mi verrai a raccontare di tutte le fregnacciate che hai scritto nella tua risposta? che AC diventerà improvvisamente la panacea di tutti i mali? a me basta solo aspettare che nvidia si sbottoni descrivendo finemente l'architettura. queste schede, purtroppo o per fortuna, non vanno bene per me... le avrei prese sicuramente se erano in grado di fare in RT real time l'intero rendering di gioco, anche solo a 60fps (ma anche a 40... tanto i miei occhi ormai son stanchi e non me ne frega nulla di guardare la differenza tra 240 o 200fps), ma sia per il costo esagerato che per l'insufficiente capacità computazionale nel campo RT (anche se è la maggiore che oggi possiamo ottenere) non mi stuzzicano sicuramente... le apprezzo, ma non le compro finchè non costano 250 euro. al resto, se permetti, non rispondo ora solo perchè ormai mi son stancato... non ho manco letto che hai scritto. come ho già scritto prima, se speravo che tu potevi portare anche un solo unico insegnamento per me, tecnico, d'esperienza, di cultura, qualsiasi cosa, ti avrei ringraziato infinitamente, ma... non mi sento in condizione di ringraziarti affatto, come al solito. buonasera. Ultima modifica di lucusta : 27-08-2018 alle 03:03. |
||||||||||||||||||||||||
|
|
|
|
|
#280 | |
|
Bannato
Iscritto dal: May 2001
Messaggi: 6246
|
Quote:
abbiamo già scritto che anandthec usa una CPU fortemente overclockata e che non è affatto scritto da nessuna parte che per una 580 serva quel tipo di potenza di calcolo a disposizione. CPU: Intel Core i7-7820X @ 4.3GHz altra cosa: i settaggi necessari per massimizzare le prestazioni della GPU per una 580 sono i medesimi che possono esere usati su una Vega? perchè se lo fai a 720p la 580 risulterà comunque impegnata al 100%, la vega ha la CPU in bottleneck e potrebbe essere occupata al 50% delle sue risorse, consumando la metà... vedi che se non indichi esattamente la metodologia di test il numero non vale nulla per il semplice fatto che non è rappresentativo? se non mi raffronti prestazioni per consumo come facci o a stabiire chi è che consuma di più o di meno... chi è IL SISTEMA più efficiente su quel gioco? in ultimo, probabilmente non l'hai ancora letto, non puoi confrontare 580 e 1070 Ti. la 580 4GB la vendono oggi a 250 euro; la 1070 Ti a 450 euro, 200 euro di più per un chip più piccolo e che cammina di più consumando poco. non sono della stessa categoria di appartenenza. anche vega 64 con 1080. per quello che è realmente vega, le capacità di calcolo che ha, se lo avesse fatto nvidia con la sua politica di commercializzazione l'avresti pagato 1500 euro. se lo paghi 500 euro c'è un perchè. se ti consumava 200W e basta fuori dalla scatola, con quelle prestazioni, come i ben pochi utenti smaliziati che ci si sono messi a giocare con i setting, pure AMD te lo doveva far pagare 1500 euro. la questione è che comunque 200W o 120W su un desktop non fanno assolutamente la differenza, la fanno gli oltre 100 euro di aumento che si hanno per singola scheda per avere chip binnati. vuoi una 480 che consumi meno della 1060? prendi una PRO o una embedded. consumano 96W e vanno quanto la 480, quindi quanto una 1060 6GB, oggi come oggi. ma poi, scusa, te la prendi con me che ti faccio osservare le incorgruenze e non rompi i marroni ai reviewers per fargli fare test utili al consumatore e non al marketing? ma avrai mica paura che io ho ragione? se ti devi lamentare che i test non ti fanno capire esattamente come sono le cose, non te la prendere con me che te l'ho fatto notare. io ho solo due colpe: te l'ho fatto notare; ho scritto che le pascal non sono poi così efficienti e prestazionali come si crede, se non gli dai la CPU giusta... e la CPU giusta messa nelle condizioni a cui serve a pascal consuma e costa... (oltre, naturalmente, che il gioco dev'essere scritto nel modo giusto, ma tanto nvidia a elargito denari a destra e sinistra per farseli fare). no, scusa, tre... l'ultima è che per far aprire gli occhi agli allocchi servirebbero degli onesti reviewers che invece di pensare quanto guadagneranno questo mese si mettano a fare test seri, senza seguire passo passo le best practices che nvidia/intel suggeriscono... ultima cosa: meglio che cambi atteggiamento e diventi immediatamente educato, perchè con chi manifesta palesemente ignoranza ed idiozia unita a maleducazione divento nervoso e posso spiluccare il web da qualsiasi stupidaggine che hai scritto da oggi fino a quando hai acceso il PC la prima volta nella tua vita, mostrando a tutti la tua vera grana. quindi se non vuoi far diventare nervose le persone, elimina una delle tre variabili a tua scelta: ignoranza, idiozia o maleducazione... perchè tutte e tre insieme non le reggo. intanto ti segnalo il post come comportamento inadeguato. io i bulletti da tastiera mi ci diverto a bullizzarli, meglio di una partita a minecraft. Ultima modifica di lucusta : 27-08-2018 alle 03:41. |
|
|
|
|
|
| Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 17:52.











, ma no problem, tanto ti conoscono gia tutti e quanto vedo collezioni ammiratori ogni giorno che passa









