PDA

View Full Version : NVIDIA annuncia 3 schede della famiglia GeForce RTX: 2080Ti, 2080 e 2070


Pagine : 1 [2]

nickname88
24-08-2018, 23:18
Aspetta e spera allora, continuerà con questa favoletta per tutti i secoli dei secoli.
La porta ovunque, è la sua attuale storiella d'assalto.
Tutti i videoconfronti e le recensioni portati li bolla come Gomblotti per far vendere le schede Nvidia.
Prima di questa c'era quella che i banchi DDR4 consumano 30W perchè una volta ha provato ad usare il tester.

CrapaDiLegno
24-08-2018, 23:39
eccerto... il resto stà sul software che gira sulla CPU...
poi si dice che le CPU fanno da bottleneck anche se vanno a 5Ghz o che sono "efficienti".
accidenti!
se per sistema efficiente devo qualificare un overclock al limite della tecnologia del silicio siamo a posto.
guarda che si gioca con l'intero PC non solo con la GPU, quindi il consumo è dell'intero PC, compresa la CPU a 5ghz...

sono anni che v'infinocchiano con questi test fatti a casaccio.

e tu eri quello che doveva spiegare a me come funziona AC su Pascal?
ma se ci riesci con un ragionamento logico ti dò io una laurea, ad onorem.

Guarda, di spiegare le cose a uno che non ha la minima base per distinguere i thread della cpu da quella della GPU, non sa che il lavoro che fa una GPU non può essere rimpiazzato dal quello della cpu e pensa che Nvidia sprechi decine di punti percentuali della cpu x fare tale lavoro o semplicemente x riordinare i thread da eseguire sulla GPU (se amd ha questo carico di lavoro da svolgere in hw, be forse dovrebbe davvero rivedere tutto quanto) non ho né voglia né tempo.

Al fanboy infantile che viene qui solo per scrivere teorie fantasiose sul perché delle cose e spera così nel suo cervellino che le cose siano diverse, tipo che Vega a 300W sia più efficiente di GP104 perché questo usa il 5% in più di GPU quando il driver deve sistemare le ottimizzazioni dei motori ottimizzati x amd provenienti dalle console, dico solo di smettere di vivere nel suo piccolo mondo e di guardare la realtà in tutta la sua globalità.

Se Turing andrà meglio in DX12 il problema non sarà di Pascal che con la DX12 va senza problemi nonostante il mancato supporto dell'esecuzione simultanea tra thread grafico e gli altri, ma di AMD e I suoi fanboy che snetteranno di poter vendere questa minch@ta di AC come la panacea a tutti i mali dell'inefficienza computazionale di GCN.
Forse non hai capito che Vega grande quanto e più del GP102, con quasi 300W e HBM, fa fatica a raggiungere le prestazioni del GP104 nonostante tutti i TFLOPS teorici di differenza, quindi se oggi la 1080 è pari a Vega in tutti quei giochi che non sono appositamente ottimizzati per AMD (e non solo DX12, perché non in tutti questi va meglio) se Turing sfrutta le stesse ottimizzazioni fatte x amd senza aggravi sui driver necessari su Pascal e precedenti... Ciao ciao AMD,anche senza passare x RTX.

La favola che i fanboy AMD si raccontano tra loro che Nvidia abbandona il supporto ad ogni generazione ormai è vecchia e fa effetto solo agli sprovveduti che ritengono avere la medesima architettura preistorica supportata x 6 anni sia meglio che avere nuove architetture sempre più efficienti e con nuove funzionalità a ogni generazione.

@calabar
Io non so che cosa sa amd del lavoro che viene svolto in Nvidia ma dall'eventualmente sapere cosa combinano di là perché ti compri un paio di ingegneri strategici (cosa che accade regolarmente tra le due aziende) all'avere tecnologia , know how e soldi per controbattere passa un abisso.
Già storicamente amd ha dimostrato di essere stata presa in contropiede, vedi exploit di Maxwell che non pensava certo potesse mazzuolarla in quel modo nonostante la mancanza di un nuovo PP e i tre fail contigui di Fiji, Polaris e Vega.

Vedremo se con Navi ha puntato alla stessa strategia di Nvidia o si è limitata a tirare fuori solo più TFLOPS nella (ora vana) speranza di eguagliare i rapporti (fondamentali x poter guadagnare soldi) prestazioni/area e prestazioni/consumi.

Alle fandonie sull'efficienza di GCN perché secondo il fanboy l'AC sgrava la cpu necessitando così meno energia (anzi molta meno con una GPU a frequenza ridotta) la risposta la trovo qui:
https://www.anandtech.com/show/11717/the-amd-radeon-rx-vega-64-and-56-review/19
Consumi dell'intero sistema, non della sola GPU. Efficienza al top, come si evince!
Ora vediamo le puxxanate che il fanboy si inventa x cercare di dimostrare che i numeri sono sbagliati e che quei grafici non rappresentano nulla (ovviamente fanno figurare l'architettura amd una m3rda quindi sono falsi a prescindere).

lucusta
25-08-2018, 00:40
prendiamo GTA V e confrontiamo 1070 e 1080 Ti sotto un 5ghz?

1080p:
1070: 152fps
1080 Ti: 170fps

1440p:
1070: 101fps
1080 Ti: 144fps

4K:
1070: 48fps
1080 Ti: 78fps

differenza percentuale di vantaggio prestazionale della 1080 Ti rispetto a 1070:
1080p: +12%
1440p: +42%
4K : +62.5%

per far ottenere il +60% circa che ha la 1080 Ti rispetto alla 1070 in 1080p dovresti avere un processore a 7.5ghz e non per esagerare, proprio perchè servirebbe quella frequenza.

mentre la questione che solleva capadilegno sull'efficienza delle pascal...
controlla la pagina della configurazione.
CPU: Intel Core i7-7820X @ 4.3GHz
chi ti dice che vega necessita di un processore del genere per esprimere il suo 100%?
magari era sufficiente usarlo a default, non in overclock.
devi ottimizzare la macchina per quello che serve, non esagerare.
ma, soprattutto, tu sai che vega ha un rendimento assai difficile da regolare al meglio?
perchè, sai, c'è chi a BF1 riesce a superare i risultati di una 1080 con una vega 56 in download che consuma meno di 175W...

quindi quanto valgono questi numeri che porti così baldanzoso?

ecco perchè tu a me non devi spiegare nulla, per il fatto che se ti fai infinocchiare da questi dettagli, ma che vuoi spiegare...

pascal è la massima espressione della tecnologia DX11, ma la tecnologia DX11 è passata da 4 anni...
4 anni di ritardo tecnologico per marchette.

nickname88
25-08-2018, 00:52
prendiamo GTA V e confrontiamo 1070 e 1080 Ti sotto un 5ghz?

1080p:
1070: 152fps
1080 Ti: 170fps

1440p:
1070: 101fps
1080 Ti: 144fps

4K:
1070: 48fps
1080 Ti: 78fps

differenza percentuale di vantaggio prestazionale della 1080 Ti rispetto a 1070:
1080p: +12%
1440p: +42%
4K : +62.5%

per far ottenere il +60% circa che ha la 1080 Ti rispetto alla 1070 in 1080p dovresti avere un processore a 7.5ghz e non per esagerare, proprio perchè servirebbe quella frequenza.

mentre la questione che solleva capadilegno sull'efficienza delle pascal...
controlla la pagina della configurazione.
CPU: Intel Core i7-7820X @ 4.3GHz
chi ti dice che vega necessita di un processore del genere per esprimere il suo 100%?
magari era sufficiente usarlo a default, non in overclock.
devi ottimizzare la macchina per quello che serve, non esagerare.
ma, soprattutto, tu sai che vega ha un rendimento assai difficile da regolare al meglio?
perchè, sai, c'è chi a BF1 riesce a superare i risultati di una 1080 con una vega 56 in download che consuma meno di 175W...

quindi quanto valgono questi numeri che porti così baldanzoso?

ecco perchè tu a me non devi spiegare nulla, per il fatto che se ti fai infinocchiare da questi dettagli, ma che vuoi spiegare...

pascal è la massima espressione della tecnologia DX11, ma la tecnologia DX11 è passata da 4 anni...
4 anni di ritardo tecnologico per marchette.

E io che pensavo di averle lette tutte :ciapet:

AceGranger
25-08-2018, 02:44
E io che pensavo di averle lette tutte :ciapet:

se vuoi puoi aggiungere queste sue perle :asd:


cit. "non uscira mai la una Titan Volta con GV100"
cit. "non troverai mai GPU con chip GV100 in vendita nei canali normali"
https://www.amazon.it/PNY-VCQGV100-PB-Quadro-Bandwidth-graphics/dp/B07C5K688X/ref=sr_1_fkmr0_1?ie=UTF8&qid=1535157578&sr=8-1-fkmr0&keywords=tesla+gv100
cit. "nVlink ha il chip esterno"
cit. "GP100 non ha l'FP16"

e queste solo perchè smetto di leggere i suoi papiri dopo alla terza riga :asd:

lucusta
25-08-2018, 03:45
scala un paio di marce;)

si, hai ragione.
forse c'è chi non riesce a starmi dietro con i ragionamenti.
scusami ;)

(e con questa sono 3 volte che manchi la buca... non è frustrante?)

lucusta
25-08-2018, 04:03
se vuoi puoi aggiungere queste sue perle :asd:


cit. "non uscira mai la una Titan Volta con GV100"


a 3000$ al pezzo nemmeno in ambito professionale aveva speranza di essere usata... ed infatti le regalano a destra e sinistra.

cit. "non troverai mai GPU con chip GV100 in vendita nei canali normali"
https://www.amazon.it/PNY-VCQGV100-PB-Quadro-Bandwidth-graphics/dp/B07C5K688X/ref=sr_1_fkmr0_1?ie=UTF8&qid=1535157578&sr=8-1-fkmr0&keywords=tesla+gv100

è una quadro.
guarda se hanno anche un DGX.



cit. "nVlink ha il chip esterno"


ci hanno fatto la "più grande GPU del mondo" con chip bridge nvlink.
senza quei chip non sei che in PtP (diversamente il collegamento era diverso) e più di 2 schede non ne useresti (ed infatti sulle 2000 hai bridge sopo per 2 schede, anche per le quadro).


cit. "GP100 non ha l'FP16"


https://images.anandtech.com/doci/10325/FP16x2.png

GP100 non ha pipeline distinte esclusivamente FP16, come sosteneva un'altro idiota.
usa pipeline FP64 che si possono utilizzare 2x32 o 4x16.
c'era chi sosteneva, invece che aveva cudacore fp 64, accanto a cudacore fp32, accanto a cudacore FP16 in rapporto 1:2:4...
che fesso, anche quell'altro...

a proposito, quei cudacore sono appunto i cuda B e ve ne è uno per ogni SM di Pascal gaming.


e queste solo perchè smetto di leggere i suoi papiri dopo alla terza riga :asd:

infatti si vede quanto capisci dei discorsi che si fanno, riportando mezze frasi e fuori dal contesto.

ennesimo idiota che non capisce che si sta discutendo sulla tecnologia, che si fanno ipotesi considerando i dati che si hanno a disposizione, non che si sta combattendo per piantare una bandiera o per affermare il proprio io...
voi non volete discutere di tecnologia.

lucusta
25-08-2018, 04:07
E io che pensavo di averle lette tutte :ciapet:
a bhè, puoi pensare quello che ti pare, ma se per puro caso provi a giocare a 900p con una 1080 Ti hai buttato via la differenza di prezzo che passa tra 1070 e 1080 Ti, visto che non prendi un solo frame in più, utilizzando gli stessi settaggi.

bottleneck della CPU, ma CPU top al limite dell'overclock, mica un celeron...

mi ha fatto sorridere quando hanno fatto i test comparativi tra ryzen e intel a 720p usando una 1080 Ti, senza filtri e a quella risoluzione sarebbe bastata una 1070 per mettere in crisi entrambi i processori.

lucusta
25-08-2018, 04:16
Alle fandonie sull'efficienza di GCN perché secondo il fanboy l'AC sgrava la cpu necessitando così meno energia...
ma vedi che non hai capito proprio un tubo?!?!?

AC pesa di più sulla CPU, fosse solo per la gestione di un numero maggiore di thread.
la differenza è su come viene usata la CPU:
annullamento dei tempi morti della CPU (e della GPU);
possibilità di splittare i thread su un numero maggiore di risorse FISICHE, invece di lasciarle inutilizzate.

e quando hai un processore octacore al massimo della sua frequenza usato per il 50% del suo potenziale, ma su un programma che sfrutta solo 4 dei suoi 8 core e assai diverso che usare un processore che funziona alla metà di quella frequenza ma usa 8 core, anche se è occupato al 100%

solo il processore consuma 1/3.

e già solo questo fa capire che non hai capito un tubo da almeno 4 anni a questa parte.

https://www.hardware.fr/news/14558/gdc-async-compute-qu-en-dit-nvidia.html

aggiornati.

calabar
25-08-2018, 11:39
per far ottenere il +60% circa che ha la 1080 Ti rispetto alla 1070 in 1080p dovresti avere un processore a 7.5ghz e non per esagerare, proprio perchè servirebbe quella frequenza.
Il tuo ragionamento non tiene conto di diversi fattori che, se considerati, possono portare ad una conclusione molto differente.

Innanzi tutto questo esempio non ti aiuta a supportare la tua teoria secondo cui Pascal ha bisogno di superprocessori: quello che emerge invece è che Pascal può tirare fuori una potenza tale da rendere la macchina "cpu limited". C'è una bella differenza.
"Esprimere tutto il potenziale" non significa nulla: se una scheda di potenziale ne ha poco, allora è normale che lo esprima tutto senza essere limitata dalla CPU.
Al più potresti cercare di valutare lo sfruttamento della CPU a parità di prestazioni, ossia considerando un numero bloccato di FPS.

Seconda cosa, tu stai erroneamente supponendo che la differenza in termini percentuali tra le varie risoluzioni sia dovuta esclusivamente al collo di bottiglia creato dal processore, mentre potrebbero esserci altri fattori altrettanto incisivi, per esempio la bandwidth di memoria della 1070 potrebbe essere insufficiente per il 4k in questo gioco, ampliando in questo modo il divario con la 1080.

Infine, non puoi trarre delle conclusioni su un singolo titolo. La tecnologia del motore grafico, l'ottimizzazione di una scheda piuttosto che per un altra e altri fattori possono cambiare facilmente le carte in tavola.
Oltretutto nel caso di GTA V mi pare che le schede nVidia vano piuttosto bene (e mi pare di capire sia un titolo DX11), ho aperto una review a caso (anandtech mi pare) e la 1070 va mediamente più della Vega64 ad aria, quindi non stupisce che sfrutti di più la CPU.

AceGranger
25-08-2018, 13:23
infatti si vede quanto capisci dei discorsi che si fanno, riportando mezze frasi e fuori dal contesto.

ennesimo idiota che non capisce che si sta discutendo sulla tecnologia, che si fanno ipotesi considerando i dati che si hanno a disposizione, non che si sta combattendo per piantare una bandiera o per affermare il proprio io...
voi non volete discutere di tecnologia.

certo certo, ora cambi tutte le minchiate scritte in passato :asd:, ma no problem, tanto ti conoscono gia tutti e quanto vedo collezioni ammiratori ogni giorno che passa :asd:

lucusta
25-08-2018, 16:44
Il tuo ragionamento non tiene conto di diversi fattori che, se considerati, possono portare ad una conclusione molto differente.

Innanzi tutto questo esempio non ti aiuta a supportare la tua teoria secondo cui Pascal ha bisogno di superprocessori: quello che emerge invece è che Pascal può tirare fuori una potenza tale da rendere la macchina "cpu limited". C'è una bella differenza.
"Esprimere tutto il potenziale" non significa nulla: se una scheda di potenziale ne ha poco, allora è normale che lo esprima tutto senza essere limitata dalla CPU.
Al più potresti cercare di valutare lo sfruttamento della CPU a parità di prestazioni, ossia considerando un numero bloccato di FPS.

il tuo ragionamento filerebbe qualora lo strutturi confrontando la medesima architettura e questa fosse adeguatamente scalabile, ma non è questo il caso.

la differenza di fondo è che la CPU è gravata da diversi aspetti:
per il calcolo dei meshing, frame per frame, hai un lavoro proporzionale per la CPU, ossia tot frame, tor computo;
per il calcolo di lavori accessori come audio spazializzato, fisica ed IA hai un lavoro fisso, indipendente dal numero di frame al secondo che puoi generare;
per la gestione dei driver video questi, che non fanno altro che tradurre le funzioni dalle API alle chiamate per l'architettura, più frame, più lavoro, ma per NVIDIA (e per AMD sulla parte DX11) devi anche gestire le unità di elaborazione secondo una determinata logica, e questo lavoro dipende sia dal numero di frame generati al secondo che dall'implementazione dell'architettura per il singolo chip.

quindi è il peso che grava per ogni singolo e preciso compito che esegue la CPU che è differente.
se escludiamo il computo dei driver video, la CPU che fosse in grado di elaborare 300fps lo farebbe sempre, in qualsiasi condizione, e la differenza la avrsesti solo per potenza grafica della GPU a cui viene affiancata, oltre, naturalmente proprio al carico grafico.
una GPU potente potrebbe fare 300fps a 720p, ma solo 60 fps a 4K;
un'altra, con 1/5 della potenza grafica della prima, farebbe 60fps a 720p ma a 4K non riuscirebbe a superare 10fps.
in queste condizioni la CPU avrebbe un uso dovuto al computo standard dell'audio, fisica ed IA (ed altri compiti accessori) che rimane costante facessi 10fps o 300fps, ed uno proporzionale ai frame che usi.
sarebbe il meshing, la costruzione dello scheletro del mondo 3D, a pesare sull'occupazione della CPU.
a 300fps avresti il 100%, è il nostro postulato: una CPU in grado di fare 300fps al massimo della sua espressione computazionale su quel gioco) a 10fps avresti il peso del computo fisso e la trentesima parte del computo del meshing, quindi sicuramente inferiore al 100%.
bene.
ora però c'è la questione di quanto è il peso dei driver.
per la parte della traslazione delle funzioni, queste sono comunque legate al frame rate ed alla risoluzione.
tanti frame fai a quella risoluzione, tanto è il costo in computo.
questo lo porta quindi ad essere associato al computo del meshing del mondo 3D.

la differenza è invece la gestione dell'HW, la schedulazione del lavoro.
questa dipende sia da quanto lavoro deve gestire, ma anche da quante unità deve gestire per effettuare quel lavoro e come le deve gestire e questo cambia a seconda dell'implementazione del singolo chip.
funzioni di chiamate dalla memoria, di copia e di qualsiasi altra cosa che fai con la memoria costano alla CPU la stessa potenza computazionale, indifferentemente se hai 1 o 100GB di ram a 1 o 10ghz... sarà il tempo di esecuzione ad essere diverso.

quindi, se l'architettura risponde linearmente, in modo scalabile, tu otterresti che una 1060 occuperebbe la potenza di un i7 7700K a 5ghz per ben meno di quanto lo faccia una 1080 Ti.
ed invece non è così.
se guardi diversi gameplay su diversi giochi vedrai che spesso la 1060, che ha 1/3 della potenza di una 1080 Ti, arriva a saturare le possibilità du un processore quadcore a 5ghz, ma occhio, non parlo dell'intera capacità computazionale del processore, ma dell'occupazione dei singoli core.
quando vedi che su una 1080 Ti a 1080p un core è occupato al 100% della sua capacità operativa e sei a 150fps non ti fai tante domande.
te le fai quando vedi che una 1060 sullo stesso gioco a 1080p occupa comunque il 100% di quel core e genera solo 60fps.

l'unica spiegazione che ci sarebbe è quella che i computi del gioco che sono indipendenti dal frame rate assorbino la maggior parte delle possibilità di quel core, che regge la struttura del gioco ed è associato all'uso del driver video.
ma non è nemmeno così, perchè fortunatamente audio spazializzato, fisica e IA possono essere tranquillamente trasferite su un thread distinto, sincronizzato con il principale, ma indipendente, proprio perchè indipendente dal frame rate generabile.... hanno la loro cadenza temporale e faranno quel lavoro sia se il gioco va a 10fps che a 300.

quindi è vero che è una questione di CPU limited, ma è indipendente dalla questione della potenza grafica, perchè tanto una 1080 Ti tanto una 1060 possono mettere al 100% il singolo core che regge il megathread sia che siamo a 60 che a 150fps.
se fosse esclusivamente CPU limited in modo scalare anche la 1080 Ti farebbe comunque 60fps.

logicamente è la struttura HW e SW, il connubio di queste che porta al manifestarsi di questo comportamento, e se il SW è lo stesso diventa difficile avere un comportamento molto diverso con un'altra architettura HW della GPU, quindi anche le AMD sono costrette ad operare per quel tipo di costrutto.
la differenza che si può notare è, comunque, che una AMD consuma sempre meno CPU rispetto ad una Pascal, anche se il framerate è il medesimo.

questo quindi porta al fatto che se una pascal è in bottleneck per la CPU, una AMD lo sarà per la questione GPU, non infrangendo il limite massimo della CPU che quindi non è bottleneck.

corollario è che se abbasso la frequenza della CPU posso operare ancora con lo stesso framerate medio, ma questo porta alla conseguenza che se abbasso la frequenza della CPU il sistema mi consuma meno, considerando tutto ad esclusione del consumo della GPU.

questa diversa architettura porta a dover consumare di più alla GPU per il semplice fatto che hai transistors dedicati a questo compito specifico.
hai reso le GPU indipendenti, per la gestione logica di allocazione, dalla CPU, ma il lavoro dev'essere comunque svolto e quindi c'è un maggior consumo per la GPU.

questo è lo svantaggio in rendimento delle GPU AMD quando si trovano a gestire un SW che non lega con la loro architettura, perchè oltre che la gestione in HW devono anche usare i driver per mettere la GPU in condizione di poter operare quel tipo di costrutto del codice, quindi una ulteriore gestione via SW sui driver che pesa sulla CPU.

quando però il costrutto è quello giusto, questo consumo di risorse del driver cessa, ma solo per AMD, che lo ha in HW.
per pascal e maxwell continua a persistere perchè è per sua architettura che la gestione sia comunque e sempre tramite driver , sw, sulla CPU...
oltretutto il costrutto favorevole ad AMD è diammetralmente opposto a quanto è per nvidia, quindi la difficoltà aumenta a dismisura e quindi il peso di computazione di quell'aspetto diventa una ulteriore limitazione sulla CPU, che non può dedicare risorse a quello che dovrebbe invece fare: meshing, audio, fisica e ia ed altre amenità del genere.

quindi il tuo ragionamento avrebbe senso esclusivamente se usi un gioco DX12 e usi GPU AMD; l'uso della CPU sarebbe proporzionale (più somma di costante dovuta ai computi indipendenti dal frame rate) alla potenza della GPU.
questo non avviene sulle pascal, tanto che se prendi una 1060 e la fai girare con un 8400 e la metti a confronto con i risultati ottenuti con un 7700K a 5ghz perdi il 10, 15% delle prestazioni, e sitamo parlando di un 8400 che se metti sotto una 1080 Ti, con gli stessi settaggi del test sulla 1060, sarebbe capace di fare almeno il doppio del frame rate della 1060 con 8400, comunque.
quindi NON E' BOTTELNECK DELLA CPU ma un uso diverso della CPU che porta a quella conseguenza, in qualsiasi condizione.

Seconda cosa, tu stai erroneamente supponendo che la differenza in termini percentuali tra le varie risoluzioni sia dovuta esclusivamente al collo di bottiglia creato dal processore, mentre potrebbero esserci altri fattori altrettanto incisivi, per esempio la bandwidth di memoria della 1070 potrebbe essere insufficiente per il 4k in questo gioco, ampliando in questo modo il divario con la 1080.

1080 e 1070 FE avevano l'identica configurazione di memoria, e comunque parliamo di occupazione dei singoli core della CPU.
la differenza, in questo caso, è l'implementazione.
1080 e 1070 usano il medesimo chip con una diversa configurazione, ma, di base, parli della medesima implementazione di base.
hai solo un GPC in meno, quindi operi su un thread in meno in simultanea agli altri.
in pratica poco puoi sperare di capire analizzando queste due configurazioni di chip, perchè risulterà spesso scalare... d'altronde ai la disabilitazione di unità, non un'altra configurazione.

Infine, non puoi trarre delle conclusioni su un singolo titolo. La tecnologia del motore grafico, l'ottimizzazione di una scheda piuttosto che per un altra e altri fattori possono cambiare facilmente le carte in tavola.
Oltretutto nel caso di GTA V mi pare che le schede nVidia vano piuttosto bene (e mi pare di capire sia un titolo DX11), ho aperto una review a caso (anandtech mi pare) e la 1070 va mediamente più della Vega64 ad aria, quindi non stupisce che sfrutti di più la CPU.

no, non puoi farlo sul singolo titolo confrontando direttamente le architetture AMD e nvidia, ma lo puoi fare sul costrutto SW.
GTA V è costruito interamente attorno al modo di operare delle nvidia.

quello che puoi fare è invece analizzare la risposta del gioco solo sulle pascal, per riuscire a capire come questo viene gestito dalle diverse implementazioni dell'architettura e l'analisi porta a concludere che nvidia, nella massima espressione che può dare, appunto con GTA V, non è scalare sul processore e le sue prestazioni sono fortemente dipendenti proprio dal processore, per qualsiasi GPU consideri che abbia sufficiente potenza da esprimere (e parliamo dalla 1060 in su, in pratica... se mi prendi una 1030 questa non riuscirà mai a mettere in crisi un processore a 5ghz).

lucusta
25-08-2018, 16:45
certo certo, ora cambi tutte le minchiate scritte in passato :asd:, ma no problem, tanto ti conoscono gia tutti e quanto vedo collezioni ammiratori ogni giorno che passa :asd:

vedi, estrapolare poche parole dai discorsi è un atto di estrema maleducazione, perchè sono facilmente manipolabili.

calabar
26-08-2018, 10:30
@lucusta
Non penserai davvero che io mi legga tutto quel post chilometrico, vero? ;)

Ho letto comunque qualche passaggio e no, non puoi trarre le conclusioni che trai tu, non ce ne sono le condizioni.

Comunque 1070 e 1080 hanno una diversa configurazione delle memorie: la 1070 utilizza GDDR5, la 1080 GDDR5X con una bandwidth di 256 GB/s per la prima e di 320 o 352 GB/s per la seconda.

!fazz
26-08-2018, 11:52
datevi una calmata generale

CrapaDiLegno
26-08-2018, 15:33
il tuo ragionamento filerebbe qualora lo strutturi confrontando la medesima architettura e questa fosse adeguatamente scalabile, ma non è questo il caso.

Bla bla, e poi bla bla e per finere ancora un po' do bla bla.

Non credo che vi sia persona normale al mondo che abbia voglia di leggere quel papiro di fandonie una dietro l'altra per cercare di gettare fango su una architettura che va più di quella di AMD con meno silicio e meno W.

Non hai risposto sul perché uno che deve fare un determinato lavoro, che è a sequenza ordinata, debba continuamente interromperlo per eseguire qualcosa a caso che non si sa perché ha la precedenza quando può eseguire benissimo i compiti uno dietro l'altro e arrivare in fondo a fare lo stesso lavoro in meno tempo (e lo fa visto che va più veloce).
Che è quello che fa l'architettura nvidia dove è inutile spezzettare il lavoro in decine di sotto thread da eseguire in "maniera randomica" per cercare di riempire tutte le pipeline ed accorciare il tempo di esecuzione.
Alla fine l'architettura nvidia riesce ad eseguire lo stesso lavoro in meno tempo con o senza AC, ed è questo che non metti in evidenza in tutte le tue blaterazioni.
E prima che vieni e mi fa i confronti a minchiam perché da buon fanboy prendi la Ferrari AMD e la confronti con la Panda nvidia, i numeri sono questi:
il GP104 che è 314mm^2 fa lo stesso lavoro di Vega che è 480mm^2, usando quasi metà dell'energia e metà banda.
Quindi di che tecnologia rivoluzionaria stai parlando? Di quella che permette a una GPU che ha una potenza computazionale teorica di 12TFLOPS di eguagliarne (e talvolta quando il programmatore si impegna anche a superare leggermente) una da 8? Il tutto al modico costo del doppio per il silicio (1.52^2 = 2,3, visto che saprai che il costo del silicio è esponenziale, e non inventarti teorie idiote per negare anche questa cosa), del costo aggiunto dell'HBM (che è uno sproposito) e del 50% in più di energia?
Ma perché non parli di questi di numeri invece di inventarti fandonie una dietro l'altra per cercare di convincerti che AMD ha una architettura decente quando invece è indietro 2 giri?

Ho letto solo la prima parte del tuo inutile e lungo post per fermarmi quasi subito quando tenti di dimostrare che c'è un problema confrontando gli FPS delle due GPU a risoluzioni diverse.. cioè, ma ci prendi in giro o cosa?
Se il motore a 1080p fa al massimo 170FPS con un chip da 5GHz quando è CPU limited, quello è il limite. Ed è logico che a risoluzioni superiori l'equilibrio ad un certo punto cambi dall'essere CPU a GPU limited.
Lo sanno anche i bambini dell'asilo, ed è proprio il motivo per cui se giochi a 900p con la 1080Ti devi avere gravi problemi di ego e voler mostrare che ce l'hai lungo con un monitor del piffero o essere un fanboy AMD che vuole dimostrare che è una cosa stupida, così, perché di altro da sparare di altrettanto sciocco non ne ha. Sembra la stessa sparata che i fanboy AMD usavano per dimostrare che i 3.5GB veloci della 970 erano un problema.. a 4K con il gioco che faceva 15FPS prima di saturare la memoria e così cadere sotto i 10.

Ma fai il confronto a parità di CPU (quindi con potenziale di calcolo uguale) tra la 1080 e Vega 64. Chi delle due rende meglio quando non è CPU limited? E tra Vega e il suo vero concorrente che è il GP102? Quanto AC devi metterci per arrivare alle stesse prestazioni? Perché non parliamo di questo? E' cosa semplice e sotto gli occhi di tutti, invece di inventarsi numero a caso per dire che man mano che alzi la risoluzione le prestazioni calano e inventarsi le teorie più immonde per fa creare problemi ad hoc nelle architetture nvidia (che funzionano perfettamente, ahi te e i fanboy AMD che questo Turing proprio non riescono a digerirlo e stanno sperando con tutto loro stessi che AMD una qualche forma di accelerazione RTX l'abbia infilata in Navi altrimenti... huh che baratro che neanche le discussioni inventate sull'AC, sul fingere che l'HBM costi come la GDDR5, che i mm^2 di GF costano la metà di quelli TMSC, possono colmare!) e senza sapere un caxxo su quali siano i limiti imposti ad una determinata risoluzione da un determinato motore con determinati settaggi, ma inventati solo per far tornare i numeri come si vuole.
Ovvio che se poi vai in CPU limited e continui a scendere di numero di frame elaborabili anche Vega arriva alle prestazioni della 1080 (e servono i 900p per fare in modo che Vega raggiunga le prestazioni della 1080Ti!).

Tutte le fandonie dell'AC semplicemente dimostrano che se non lavori e ottimizzi per l'architettura AMD questa sta due giri indietro a Pascal (che sia DX11 o DX12), se ti pagano per farlo invece riesci a fare in modo che 12TFLOPS con quasi 300W possano superare di uno sputacchio le prestazioni di un chip concorrente da 8TFLOPS e 180W, quindi stando solo 1 giro indietro. La dimostrazione di ciò è che ci sono giochi che anche in DX11 vanno meglio su AMD che su Pascal e lì non c'è AC che tenga, è solo questione di ottimizzazione ad hoc per l'architettura AMD, che già si avvantaggia del fatto che i motori sonio scritti per le console.

Dopo tutte le sciocchezze che hai scritto si vede lontano un chilometro che sei frustrato per come è venuto Turing che se implementerà qualcosa che gli permetterà di avere i vantaggi di AMD con questo fantomatico l'AC, manderà GCN nel dimenticatoio forse pure con Navi (se è semplicemente un GCN pompato). Pascal dal canto suo già funziona bene con o senza AC, DX11 o DX12, per cui al massimo Turing risulterà ancora più performante di Pascal, che non è un problema come non lo è mai stato presentare una nuova generazione che va anche il doppio più veloce della precedente, anzi (eh, ma con AMD questo non succede per cui meglio dire che è Pascal diventa una schifezza piuttosto che dire che AMD dovrà scalare ulteriormente di una fascia le sue soluzioni Polaris/vega based vs Turing così che i suoi fanboy potranno esultare quando una Vega a 200 euro, ma sempre 480mm^2 e 300W, riuscirà a superare le prestazioni della 2060 e poter dire che è l'AC la soluzione che deve essere perseguita per aumentare le prestazioni). Per ora sono 6 anni, da quando Tahiti è stato declassato contro il GK104) che AMD scala le GPU svendendole per cercare di dimostrare di avere un prodotto concorrenziale sul mercato.

I fanboy sprovveduti fanno i confronti per prezzo (e un po' ci sta, uno valuta secondo quanto paga) ma chi dovrebbe avere un paio di nozioni in più non può venire qui a fare certi discorsi insensati per dimostrare che 480mm^2 sono meglio di 314. E' davvero ridicolo oltre che deprimente dover continuamente leggere queste sciocchezze a ogni lancio delle nuove architetture dove si parte con i fanboy AMD che puntano a 1000 e poi quando nella realtà raggiungono 500 si danno il 5 e le pacche sulle spalle.
Polaris1210 doveva combattere nella fascia x80 di nvidia. Fa fatica in quella x60, ma che soddisfazione vedere la 580 (aka Polaris1210 ultra pompato che in teoria doveva consumare <150W con efficienza olter 2x rispetto a GCN 1.1) a 240W battere il GP106 quando c'è un motore che distribuisce "thread a caso" alla GPU, eh?
Vega doveva distruggere la 1080Ti, ma solo al superamento delle prestazioni della 1080 con codice ottimizzato vi ha fatto tirare un sospiro di sollievo (e vantarvi delle supposti miglioramenti dell'architettura AMD che di fatto non ci sono e non funzionano).
Ora arriva Vega a 7nm (ma solo per il professionale) che è già carne morta visto il balzo di nvidia con il nuovo GT102 sia in prestazioni che in feature. Al solito la leva per venderne una decina sarà svenderle a più non posso.
Non sappiamo nulla di Navi che è piuttosto lontano nel tempo e forse non sa più neanche AMD cosa fare se non sperare che nvidia continui a proporre schede a 1000 euro che le permettono di tagliarsi una fettina di mercato nel sub par svenduto a margine zero.

Non so cosa darei per sapere quale è il piano di sviluppo lasciato da Koduri e se AMD ha intenzione di seguirlo dopo questo Turing, o come fu con Maxwell, è altrettanto nel panico.

Scusate le lunghezza ma almeno non sono dimostrazioni di teorie inventate ma semplici considerazioni della realtà dei fatti.

CrapaDiLegno
26-08-2018, 15:58
no, non puoi farlo sul singolo titolo confrontando direttamente le architetture AMD e nvidia, ma lo puoi fare sul costrutto SW.
GTA V è costruito interamente attorno al modo di operare delle nvidia.

Mi sono dimenticato di questa perla scientifica per cui dare una interpretazione a caso senza conoscere nulla di una sequenza di numeri è la dimostrazione di un teorema (inventato).
Gioco anche io allora:
https://www.guru3d.com/articles-pages/amd-radeon-rx-vega-64-8gb-review,20.html
Visto che la 580 che ha almeno il 10% in più di capacità di calcolo rispetto alla 480 fa gli stessi identici FPS di questa in questo gioco nato e costruito per sfruttare l'architettura GCN al 100% sempre e comunque, ne deduco che il problema sta nella diversa gestione dei carichi degli ACE per cui quando questi raggiungono una certa frequenza non sono più in grado si lavorare correttamente e impediscono alle ALU di operare al meglio e quindi l'efficienza totale della GPU cala, nonostante i 60 o 80W in più usati.

Poi guardo meglio e vedo che in 4K la 980 supera la 580... ma come? E il legacy? E l'abbandono delle architetture vecchie al lancio di quelle nuove? E i 4GB di memoria soltanto? E la banda? E l'AC? E Maxwell che non ha il supporto all'ACe quindi è DX12/Vulkan incapace ma compensa tutto con la CPU? E i W di Polaris che doveva essere meglio di Maxwell?

Ma quante teorie farlocche sono state cancellate solo con questo esempio che è quello che pone l'architettura GCN di AMD al suo massimo?

Vogliamo continuare a giocare a fare i bambini dell'asilo sparando sciocchezze che poi con un link vengono annullate in un solo colpo?

LkMsWb
26-08-2018, 16:01
Perdonami ma ok la scarsa efficienza, però

Polaris 12 doveva combattere nella fascia x80 di nvidia. Fa fatica in quella x60, ma che soddisfazione vedere la 580 (aka Polaris 12 ultra pompato che in teoria doveva consumare <150W con efficienza olter 2x rispetto a GCN 1.1) a 240W battere il GP106 quando c'è un motore che distribuisce "thread a caso" alla GPU, eh?

Questo non si può leggere, ho una 480 che in DX11 prende bastonate dalla 1060, ma negli ultimi titoli usciti è spesso davanti - senza tirare in ballo gli ACE - e consuma sui 130w, misurati da stima del consumo generale del sistema alla presa, non da quanto riportato nei software.

La colpa di AMD circa l'efficienza di GCN 4 e 5 è che per avere più chip a disposizione, ha sparato i voltaggi di default altissimi, andando a inficiare nel consumo medio oltre che nelle prestazioni, visto che tutte le schede reference vanno in throttling. Poi che la 1060 consumi comunque meno è vero, però da "240w e la supera solo con gli ACE" a 130w e generalmente va uguale o meglio in quasi tutti i titoli recenti (praticamente tutti esclusi quelli Gameworks) c'è una bella differenza. Per molti versi Polaris è decisamente più equilibrato di Vega.

CrapaDiLegno
26-08-2018, 17:11
Guarda che io mica ho detto che la 1060 prende a bastonate la 480 o la 580. Le prestazioni di quelle schede sono più o meno allineate e amd si avvantaggia leggermente quando il motore è scritto per far uso dell'ac.

Per quanto riguarda i consumi io mica mi metto a misurare i supposti W delle GPU per ogni utente, guardo le recensioni dove si vede che la 480 consuma più della 1060 e la 580 consuma uno sproposito in più per guadagnare forse il 10%.

Il ragionamento, come tu hai ampiamente confermato, è essere soddisfatti del rendimento di Polaris nei confronti del GP106 quando in origine era vs GP104.
Guarda le capacità dei chip e dimmi se Polaris 12 è nato per stare nella fascia che nvidia occupa da sempre con i chip con bus <256 bit.

Poi ci si lamenta che le nuove Turing costano 1000 euro...

LkMsWb
26-08-2018, 18:09
Guarda che io mica ho detto che la 1060 prende a bastonate la 480 o la 580. Le prestazioni di quelle schede sono più o meno allineate e amd si avvantaggia leggermente quando il motore è scritto per far uso dell'ac.

Per quanto riguarda i consumi io mica mi metto a misurare i supposti W delle GPU per ogni utente, guardo le recensioni dove si vede che la 480 consuma più della 1060 e la 580 consuma uno sproposito in più per guadagnare forse il 10%.

Il ragionamento, come tu hai ampiamente confermato, è essere soddisfatti del rendimento di Polaris nei confronti del GP106 quando in origine era vs GP104.
Guarda le capacità dei chip e dimmi se Polaris 12 è nato per stare nella fascia che nvidia occupa da sempre con i chip con bus <256 bit.

Poi ci si lamenta che le nuove Turing costano 1000 euro...

Polaris come dimensione è comunque un concorrente di GP106 e non di GP104, la cosa che ha da fascia superiore è il bus 256 bit vs i 192 di GP106, che è anche uno dei motivi per cui risulta comunque più grande. Non parliamo di 14nm vs 16 di Pascal perché sai meglio di me che i 16 di TSMC sono quasi certamente migliori dei 14 di GF, specie i primi 14nm del 2016. Polaris, tolto il bus 256, è a tutti gli effetti un concorrente di GP106, vedi TMU, ROPs, unità di calcolo, con il solito bilanciamento diverso fra TMU e ROP che hanno Radeon e GeForce.

Le schede AMD richiedono effettivamente più banda di memoria, e infatti quello è un limite di Vega, che avendo solo 2 stack di HBM2 in molte situazioni è limitato dalla banda di memoria, e questo è un aspetto sul quale AMD indubbiamente deve lavorare.

Quello che sto dicendo è che evidentemente Vega è una architettura sbilanciata, perché Polaris compete decisamente meglio con GP106 rispetto a quanto faccia Vega con GP104 e GP102, e che con un ipotetico passaggio a 7nm AMD dovrebbe approfittare per apportare le modifiche necessarie per 1) supportare quelle funzionalità promesse e poi in parte abbandonate su Vega stesso, 2) migliorare le performance senza stravolgere il concetto base, perché comunque Vega rimane la scheda video che supporta il maggior numero di funzionalità, RTX escluse, pertanto una Vega "revised", senza parte RT e a 7nm, potrebbe essere un'ottima scheda per chi non acquisterà una RTX, vuoi per il prezzo, vuoi perché comunque la prima generazione a supportare una nuova tecnologia, e con tutte le (normali!) limitazioni del caso.

lucusta
26-08-2018, 20:59
Gioco anche io allora:
https://www.guru3d.com/articles-pages/amd-radeon-rx-vega-64-8gb-review,20.html
Visto che la 580 che ha almeno il 10% in più di capacità di calcolo rispetto alla 480 fa gli stessi identici FPS di questa in questo gioco nato e costruito per sfruttare l'architettura GCN al 100% sempre e comunque, ne deduco che il problema sta nella diversa gestione dei carichi degli ACE per cui quando questi raggiungono una certa frequenza non sono più in grado si lavorare correttamente e impediscono alle ALU di operare al meglio e quindi l'efficienza totale della GPU cala, nonostante i 60 o 80W in più usati.

prima cosa stai considerando doom, un gioco scritto in vulkan e ottimizzato al meglio per ogni singola, e dico singola, scheda.
secondo quando parli di vulkan diventa difficile fare alcune distinzioni, visto che queste API coprono dalle Open GL 3 alle 4.5 e, appunto, successive, proprio con le vulkan... vulkan è un grande calderone.
dicendo vulkan non specifichi un benemerino nulla in quanto a paradigma di codice.
terzo ti stai riferendo a dati provenienti dal sito meno indicato in quanto ad obbiettività:
quando c'è stata la prova con la 480 su doom hanno usato settaggi ulta, SMAA 1tx e open GL, in modo da distruggerne il frame rate in confronto alle maxwell, tanto che a 1440p la 980 andava a 73fps contro i 61 della 480.
solo dopo hanno cominciato ad usarlo con vulkan in ultra e con TSSAA 8x (cosa assai inutile), per demoralizzare le prestazioni AMD a causa proprio delle memorie, ma ormai si era in era Pascal e queste, con la compressione sul bus, rispondevano meglio.

quindi hai la prova sulla 480 con 980 che fa 73fps e 480 che non supera 61fps
la prova della 1060 che con gli stessi settaggi arriva a 69,
poi si passa a vulkan e la 480 a 1440p ti sbologna 86fps, la 980 83 e la 1060 80fsp, e comunque sempre con TSSAA 8X, che nessuno userebbe mai in modo così marcato.

ad ogni scheda cambiano setting a seconda di chi devono spingere e poi usano i dati di 2 anni prima per le schede già testate in barba ai miglioramenti dei driver...
bel modo di testare e capire il livello prestazionale confrontandolo tra le varie schede...

è una vera presa per il naso i test che fanno su the guru 3D.

quindi tu mi dici che devo prendere per buoni questi dati e mi dici che in doom, vulkan, la 580 e la 480 fanno praticamente la stessa prestazione anche se i TF della 580 sono maggiori.
mh... i TF, non la banda di memoria.
semplicemente in quelle condizioni saturi la banda di memoria già della 480, quindi della 580, che le ha identiche a default.
metti SMAA o TSSAA 4X e a quel punto vedrai per prima cosa salire i risultati della 480, e seconda cosa anche quelli della 580 con il tuo +10% dovuto alla maggiore computazione.

oltretutto parli di consumo...
ma tu sai esattamente quanto consumano quelle due precise schede con quel setting in quel gioco?
perchè io non lo so, ma non lo sa nessuno per il semplice fatto che nessuno lo ha mai misurato, in quelle precise condizioni.
ed invece tu te ne esci con +80W solo perchè nel momento in cui si usa metro LL ti fanno vedere che c'è quella diferenza, spremendo tutto dalle schede (gioco che logicamente è DX11, non scordiamocelo).


ma, realmente, credi di far fesso qualcuno?
non stai parlando con i tuoi amichetti...

Vogliamo continuare a giocare a fare i bambini dell'asilo sparando sciocchezze che poi con un link vengono annullate in un solo colpo?
ecco, appunto.
non parli con bambini dell'asilo, ma con chi la materia la conosce approfonditamente: io creo ed eseguo procedure di test per vivere e ci vivo anche bene.
ti posso smontare ogni singolo test di ogni singola testata in rete, evidenziandone la mancata obbiettività per il semplice fatto che un test obbiettivo, i cui risultati sono affidabili, non è così semplicistico...

e questo, te lo assicuro, non è perchè io sono bravo od ho materia grigia che faccio funzionare, perchè di persone competenti in questo specifico settore ce ne sono tante e molte sono proprio quelle che leggi nelle review.
se non fanno test obbiettivi è solo perchè c'è più guadagno a non farli ed usano la loro materia grigia per condizionare i risultati usando i settaggi più disparati e proporre al pubblico i numeri che i produttori chiedono, ma logicamente dei produttori che pagano.

ricordati che tra nvidia e AMD questo settore: la vendita di schede video per gaming, fa girare oltre 3 miliardi di dollari a trimestre di fatturato... non parliamo di bruscolini.

lucusta
26-08-2018, 21:16
B
Non hai risposto sul perché uno che deve fare un determinato lavoro, che è a sequenza ordinata, debba continuamente interromperlo per eseguire qualcosa a caso che non si sa perché ha la precedenza quando può eseguire benissimo i compiti uno dietro l'altro e arrivare in fondo a fare lo stesso lavoro in meno tempo (e lo fa visto che va più veloce).

io ti ho già risposto a questa domanda ancora prima che la facessi...
te l'ho già scritto: non scala per la potenza grafica.
non hai processori a 7.5Ghz per riuscire a coadiuvare il lavoro di una scheda che ha una considerevole potenza grafica quando non ne è richiesta molta, a basse risoluzioni o quando sei in certe condizioni (tipo la VR).

l'uso che fai in DX11, sequenziale, non permette di sfruttare al meglio la CPU e questa diventa palese collo di bottiglia.

ammucchi le richieste della CPU in un'unica istanza, che poi deve fermarsi per aspettare il lavoro della GPU e solo dopo operare.
in quel tempo che la GPU opera la CPU stà con le mani in mano.
guardandola dal lato GPU questa sta in attesa delle richeste, le esegue e poi deve continuare a stare in attesa della CPU.

usi le possibilità computazionali dell'HW al massimo della capacità operativa, ma in modo intermittente.

in AC ottieni guadagno perchè elimini principalmente questa intermittenza, perchè mentre la CPU o la GPU è in attesa può dedicare altre sue unità ad altri compiti, visto che il compito che stà eseguendo non necessita di tutte le unità, essendo più piccolo.
oltretutto, soprattutto per la GPU, un uso sequenziale implica che il lavoro dev'essere centralizzato, e quindi su un solo thread e quindi su un solo core.
in AC, invece il lavoro è spezzaettato in tanti lavori più piccoli, quindi su più thread e quindi su più core.

l'unico scotto che devi pagare è che dividere costa più risorse che farlo tutto in un'unica istanza.
ma è uno scotto che si paga volontieri quando riesci a sfruttare meglio le risorse della macchina.

quando la CPU è in attesa non si mette mica a riposo a basso clock... non ne ha il tempo.
sono solo cicli vuoti alla massima frequenza possibile (la tecnologia speedstep si basa anche su delle latenze d'intervento nell'andare ad abbassare il clock della CPU).
cicli vuoti in cui comunque alimenti quelle risorse per quelle frequenze, quindi consumo, quindi calore, quindi aumento delle temperature medie e perciò un consumo ancora maggiore.

oggi eseguire un lavoro sequenziale, con la multitudine di risorse che hai per la CPU e per la GPU, è stupido...

lucusta
26-08-2018, 23:03
Guarda che io mica ho detto che la 1060 prende a bastonate la 480 o la 580. Le prestazioni di quelle schede sono più o meno allineate e amd si avvantaggia leggermente quando il motore è scritto per far uso dell'ac.

Per quanto riguarda i consumi io mica mi metto a misurare i supposti W delle GPU per ogni utente, guardo le recensioni dove si vede che la 480 consuma più della 1060 e la 580 consuma uno sproposito in più per guadagnare forse il 10%.

Il ragionamento, come tu hai ampiamente confermato, è essere soddisfatti del rendimento di Polaris nei confronti del GP106 quando in origine era vs GP104.
Guarda le capacità dei chip e dimmi se Polaris 12 è nato per stare nella fascia che nvidia occupa da sempre con i chip con bus <256 bit.

Poi ci si lamenta che le nuove Turing costano 1000 euro...



ma, guarda, riprendendo il tuo stesso link sopra ed andando su Deus Ex (high quality preset) io vedo che confrontando la 1070, la 580, la 480 e la 1060 si possa parlare per ore ribbattendo quello che scrivi.
in FHD la 1070, scheda che produce 7.2TF teorici a 1875mhz per un consumo di 161W, esegue il gioco in 86fps;
la 1060, per 134W, ottiene 63fps, con i suoi 4.7TF teorici a 1850mhz.
la 580 consuma 191W (MSI gaming X, una custom), per 71fps e 6.5TF@1400
la 480 consuma 166W, per 70fps con i suoi scarsi 6TF teorici a 1300mhz.

ma:
il consumo è stato STIMATO, perchè the guru 3D lo stima, il TDP, non lo misura direttamente;
usano un'applicazione che manda la GPU al 100%, poi misurano il consumo cercando di far consumare il meno possibile alla CPU in un'applicazione in cui non si usa la GPU su una CPU che è con clock fisso a 4.4ghz e senza tecnologie per il risparmio energetico.
loro misurano la potenza assorbita alla presa e moltiplicano per il rendimento TEORICO dell'alimentatore.
a questo punto sottraggono il valore della GPU sotto stress con quello della CPU al minimo possibile e te lo danno come consumo massimo della scheda...

testuali parole:
"We stress the GPU to the max, and the processor as little as possible. The before and after wattage will tell us roughly how much power a graphics card is consuming under load. Our test system is based on an eight-core Intel Core i7-5960X Extreme Edition setup on the X99 chipset platform. This setup is overclocked to 4.40 GHz on all cores. Next to that we have energy saving functions disabled for this motherboard and processor (to ensure consistent benchmark results). We'll be calculating the GPU power consumption here, not the total PC power consumption."

per prima cosa l'occupazione della CPU potrebbe essere variabile tra una entry livel ed una top gamma, quindi tutte le entry livel che hanno misurato in questo modo sarebbero sovrastimate, ma poi proprio perchè non hanno usato le tecnologie di risparmio energetico il processore non ha avuto neanche modo di sistemarsi alla migliore frequenza possibile, quindi al voltaggio relativo più adeguato.
tralasciando il fatto che oltretutto usi un'applicazione che potrebbe non essere un gioco, e quindi mandare in palla la GPU in un modo che non incontrerai mai nell'esecuzione del gioco, qui viene meno il discorso del giusto clock della CPU per la massima espressione potenziale della GPU.

questa non è nemmeno una stima grossolana e tu ci fai le pulci sui +o- 10W?


proseguiamo:
il 10% di potenza computazionale in più della custom 580 non si evince, il che fa venire il dubbio che siamo con un bottleneck dovuto o al processore, ma pare realmente difficile con deus ex, che usa almeno sei core fisici, o alla banda ram per quel particolare setting del gioco a causa di filtri eccezianalmente alti.
io punto, come al solito, sui filtri, spesso usati in modo esagerato proprio per azzoppare le AMD che necessitano di molta banda ram, non avendo compressione sul bus dati.

poi vediamo che la 1070 farebbe 86 fps per i suoi 7.2TF teorici, e la buttiamo lì che il suo clock medio è sui 1875mhz, quando la 480 con i 6TF teorici ed un clock a 1300mhz ne ottiene 70.
11.94 fps per TF della 1070 contro 11.66fps per TF della 480 e 13.4fps per TF della 1060.
il sospetto è che la 1060 non ha effettivamente 4.7TF teorici, quindi non gira a 1800mhz, ma, guardando la 1070 e facendo i conti su questa, abbia 5.3TF e giri a 2060mhz.....
un miglioramento così elevato di rendimento del numero di fps per TF, con la stessa architettura E SENZA NESSUN BOTTLENECK DELLA CPU, visto che la 1070 gira a 86 fps e che quindi quella CPU riesce ad esprimere almeno 86fps con quell'architettura fa pensare che non abbiano assolutamente usato la 1060 in condizioni di default, ma in pesante overclock, visto che i 2060 sono possibili per una 1060, ma non su un FE a default.

quindi i consumi si STIMANO a default ma le prestazioni sembrerebbe di no...
i settaggi dei giochi vengono fatti in modo da annichilire le prestazioni di alcune schede invece di usarle nel modo più idoneo che la gente le userebbe e tu vieni a fare qui le pulci su una scheda che riesce a fare 83% delle prestazioni di un'altra costando praticamente la metà? (perchè le 1070 custom o FE stavano a 450 euro, senza mining, la 480 4GB la prendevi a 225 euro al'inizio, oggi, OGGI, a 250 euro sull'affidabilissimo amazon, che è anche più caro di una 30ina di euro di altri economici frodaiva store on line).

andiamo al nocciolo della questione:
quanto effettivamente consuma la 580, anche usata così, su Deus ex?
quanto la 1060?
190 contro 130W?
sono 60W.
quanto consumerebbe una scheda nvidia per ottenere la stessa prestazione?
71x130/63= 145W grossolanamente, quindi 45w di differenza...
qual'è il costo di una 1060 custom da 2060mhz? 290 euro.
e proseguiamo:
che processore necessita la 580 per ottenere 71fps?
un ryzen 1600?
una 1060 riesce ad ottenere comunque 63fps con un ryzen 1600?
se non ci riesce che processore si dovrebbe usare?
ma soprattutto, quando consumano realmente alla presa al muro una 1060 e una 580 affiancate ad un processore che ha attivo l'enegy saving, il più adatto a loro ed alle rispettive architetture?
ed oltretutto a cosa serve andare oltre i 60-65fps se non hai un monitor adaptive sync?
con un monitor normale basta che facciano 60 rock solid... il resto è spreco.
quindi quanto mi costa un freesync e quanto un gsync da affiancare ad una 1070/1060?

sono queste le domande a cui dovrebbero rispondere i recensori e su questi presupposti dovrebbero considerare il costo e l'uso delle macchine nei giochi...

il resto è solo per farti comprare il prodotto A invece che il prodotto B.

di tante persone che conosco sono ben poche che overclockano la CPU e GPU per giocare e se non lo fai i risultati potrebbero essere assai differenti.
quindi è decisamente più interessante vedere questi test in una ipotetica condizione normale; condizione in cui poi l'utenza si ritrova E PUO' FACILMENTE CONFRONTARE I PROPRI RISULTATI CON QUELLI CHE SCRIVONO QUESTI SIGNORI.
perchè io spesso vedo che gli fps che ti fanno vedere non c'entrano proprio nulla con quelli che poi l'utente normale riesce ad ottenere...
a volte più alti, molto spesso più bassi, ma in generale e solo perchè dipendono dal settaggio usato.

creano più confusione che altro...

e, logicamente, tu mi vieni a parlare di come si fanno i test e vai a giudicare le schede in base a quei numeri che ti forniscono...

bene;
benvenuto nel club di bambini che vanno all'asilo...

cerca, quando parli con me, di portare argomentazioni serie; grazie.

CrapaDiLegno
27-08-2018, 00:02
Polaris come dimensione è comunque un concorrente di GP106 e non di GP104, la cosa che ha da fascia superiore è il bus 256 bit vs i 192 di GP106, che è anche uno dei motivi per cui risulta comunque più grande. Non parliamo di 14nm vs 16 di Pascal perché sai meglio di me che i 16 di TSMC sono quasi certamente migliori dei 14 di GF, specie i primi 14nm del 2016. Polaris, tolto il bus 256, è a tutti gli effetti un concorrente di GP106, vedi TMU, ROPs, unità di calcolo, con il solito bilanciamento diverso fra TMU e ROP che hanno Radeon e GeForce.

Le schede AMD richiedono effettivamente più banda di memoria, e infatti quello è un limite di Vega, che avendo solo 2 stack di HBM2 in molte situazioni è limitato dalla banda di memoria, e questo è un aspetto sul quale AMD indubbiamente deve lavorare.

Guarda che a parte le ROPs, Polaris1210 ha le stesse identiche quantità di risorse diel GP104.
Per la dimensione devi tenere conto che il PP di GF permette una diminuzione di circa il 10% rispetto al 16nm di TMCS.
Quindi Polaris1210 fatto su TMSC sarebbe di circa 253mm^2.
Il problema èp l'archiettura, che per come AMD l'ha implementata (forse anche per colpa della stessa densità) mura a una frequenza decisamente inferiore rispetto a Pascal.
Guarda le versioni precedenti di GCN e guarda a che fasce erano destinate le GPU a 256bit di AMD. E sì, andavano contro le versioni x80 di nvidia.
Che secondo alcuni non fa nulla per migliorare le sue architetture e invece uno dei maggiori lavori da Kepler in poi è stato proprio quello di ottimizzare alla grande l'uso della banda e permettersi chip con un MC più piccolo (ma comunque più veloce).
Polaris1210 è stato pensato per arrivare vicino, non dico superare perché neanche AMD lo credevano, le prestazioni della serie x80 di nvidia ad un prezzo decisamente inferiore.
Quali che siano i motivi a noi tutti sconosciuti, invece ne è risultato uno schifo che i 150W li ha visti nella versione castrata e con 4GB in meno, ben lontano dalle prestazioni della x70 nonostante nvidia l'abbia castrata di ben il 25% rispetto alla versione completa del GP104.
Conseguenza? Usciamo con Vega, super mega pompato con tutte le tecnologie nuove conosciute così come fu per Fiji. Risultato? Un chippone che va quanto la serie x80, finalmente. Peccato per i 480mm^2 e i quasi 300W e l'HBM.

prima cosa stai considerando doom, un gioco scritto in vulkan e ottimizzato al meglio per ogni singola, e dico singola, scheda.
Forse non ti è chiaro che un motore di un gioco, così' come il suo sfruttamento, non sono ottimizzabili per qualsiasi cosa in maniera agnostica ma fa delle scelte implementate già una selezione. Banda o cacloci? Più o meno poligoni? Tesselazione? Peso degli shader?
Doom è nato per sfruttare al massimo le capacità dell'architettura AMD e per tanto fa scelte proprio in quel senso: geometria ridotta ma grande uso della banda (che AMD ha in abbondanza rispetto a nvidia).



secondo quando parli di vulkan diventa difficile fare alcune distinzioni, visto che queste API coprono dalle Open GL 3 alle 4.5 e, appunto, successive, proprio con le vulkan... vulkan è un grande calderone.
Bla bla, oviamente quando fa comodo nemmeno Doom in Vulkan è la soluzione che usa al meglio l'architettura AMD...
Salviamo il salvabile di questa ulteriore pantominma da fanboy con fegato spappolato che si dimena per cercare di dimostrare che solo l'AC è il futuro di cui tutta l'umanità ha bisogno.


quindi hai la prova sulla 480 con 980 che fa 73fps e 480 che non supera 61fps
la prova della 1060 che con gli stessi settaggi arriva a 69,
poi si passa a vulkan e la 480 a 1440p ti sbologna 86fps, la 980 83 e la 1060 80fsp, e comunque sempre con TSSAA 8X, che nessuno userebbe mai in modo così marcato.
Ne risultano davvero considerazioni interessanti:
1. hai detto che Pascal da 69FPS con l'uso dell'AC passa a 80FPS (non doveva calare del 20% e con ciò rendere Pascal una architettura da buttare semmai fosse stato usato in maniera estensiva?)
2. il miracolo AC su AMD la fa passare da -8 FPS (rispetto alla 1060) a ben e sottolineo ben +8 FPS. In percentuale da -11% a +10% (sempre con la 1060 come riferimento). Quindi abbiamo un incremento del 20% che porta l'architettura AMD ad andare in maniera spaventosamente migliore di un chip più piccolo che consuma meno.


è una vera presa per il naso i test che fanno su the guru 3D.

Ovvio che il sito che porta una review non sufficientemente a favore di AMD (solo il 20% di guadagno quando lo sanno tutti che con l'AC almeno si raddoppiano le performance???) deve essere criticato.


quindi tu mi dici che devo prendere per buoni questi dati e mi dici che in doom, vulkan, la 580 e la 480 fanno praticamente la stessa prestazione anche se i TF della 580 sono maggiori.
mh... i TF, non la banda di memoria.
semplicemente in quelle condizioni saturi la banda di memoria già della 480, quindi della 580, che le ha identiche a default.
metti SMAA o TSSAA 4X e a quel punto vedrai per prima cosa salire i risultati della 480, e seconda cosa anche quelli della 580 con il tuo +10% dovuto alla maggiore computazione.
Oh, toh, questo vale per un confronto tra le schede AMD ma non quelle nvidia.. come è che non ne hai parlato quando hai confrontato le prestazioni della 1080Ti vs 1070 ritenendo che non c'è linearità per via del diverso metodo di sfruttare le risorse?
Ma tu vedi che disdetta che hai trovato uno che ti sta facendo dire le cose che quando parli di AMD non vuoi mai dire ma se si parla di nvidia ti inventi tutto il possibile, anche l'assurdo, per fare in modo che dei dati a caso diventino una dimostrazione di una teoria.


oltretutto parli di consumo...
ma tu sai esattamente quanto consumano quelle due precise schede con quel setting in quel gioco?
perchè io non lo so, ma non lo sa nessuno per il semplice fatto che nessuno lo ha mai misurato, in quelle precise condizioni.
ed invece tu te ne esci con +80W solo perchè nel momento in cui si usa metro LL ti fanno vedere che c'è quella diferenza, spremendo tutto dalle schede (gioco che logicamente è DX11, non scordiamocelo).

Ovvio che ti devi inventare qualcosa sui consumi: deve essere questo il caso eccezionale in cui le schede AMD consumano meno perché in tutti i test che misurano i consumi con i vari giochi (chi con giochi DX11, chi con giochi DX12) AMD ne esce sempre uguale: con le ossa rotte.
Ma deve essere che Vulkan, quel pastrocchio che a seconda dei casi è la manna per AMD, in altri è un accrocchio che non permette di fare il lavoro in maniera corretta (leggasi ad hoc) su questa architettura,usa un HW totalmente diverso e permette alla 480 di consumare come la 1060 andando pure il 10% in più.


ma, realmente, credi di far fesso qualcuno?
non stai parlando con i tuoi amichetti...
Ma nooo, cosa dici, qui se qualcuno vuole prendere per fessi gli altri quello sei tu che sei in grado di estrapolare tutte le teorie più demenziali per far passare una curva tra 3 punti disposti a caso su un piano ma se si parla dei consumi di AMD, se non c'è la prova che in Vulkan i consumi non sono registrati, allora non si può dire che AMD consuma di più nonostante in tutti gli altri 99 giochi sui 100 provati i dati dicano il contrario.


ecco, appunto.
non parli con bambini dell'asilo, ma con chi la materia la conosce approfonditamente: io creo ed eseguo procedure di test per vivere e ci vivo anche bene.
ti posso smontare ogni singolo test di ogni singola testata in rete, evidenziandone la mancata obbiettività per il semplice fatto che un test obbiettivo, i cui risultati sono affidabili, non è così semplicistico...

e questo, te lo assicuro, non è perchè io sono bravo od ho materia grigia che faccio funzionare, perchè di persone competenti in questo specifico settore ce ne sono tante e molte sono proprio quelle che leggi nelle review.
se non fanno test obbiettivi è solo perchè c'è più guadagno a non farli ed usano la loro materia grigia per condizionare i risultati usando i settaggi più disparati e proporre al pubblico i numeri che i produttori chiedono, ma logicamente dei produttori che pagano.

ricordati che tra nvidia e AMD questo settore: la vendita di schede video per gaming, fa girare oltre 3 miliardi di dollari a trimestre di fatturato... non parliamo di bruscolini.
A certo te la materia la consoci perfettamente perché fai test tutti i giorni, invece gli altri sono dei gran dementi che non sanno quello di cui parlano.
Ah, certo, serviva il Profeta per farci spiegare il perché i test a favore di AMD sono eseguiti in maniera corretta mentre quelli che non mostrano i suoi lati positivi sono falsi e creati appositamente con malizia per danneggiarne l'immagine che altrimenti, uuuuhh, sarebbe quella di produttrice della
migliore architettura esistente che con meno fa di più!
Ma quando scrivi, ci credi veramente alle baggiantate che stampi nero su bianco?

io ti ho già risposto a questa domanda ancora prima che la facessi...
te l'ho già scritto: non scala per la potenza grafica.
non hai processori a 7.5Ghz per riuscire a coadiuvare il lavoro di una scheda che ha una considerevole potenza grafica quando non ne è richiesta molta, a basse risoluzioni o quando sei in certe condizioni (tipo la VR).
Il processore a 5GHz c'è, sia per AMD che per nvidia.
Il problema è chi ne sa trarre giovamento e chi no.


l'uso che fai in DX11, sequenziale, non permette di sfruttare al meglio la CPU e questa diventa palese collo di bottiglia.

ammucchi le richieste della CPU in un'unica istanza, che poi deve fermarsi per aspettare il lavoro della GPU e solo dopo operare.
in quel tempo che la GPU opera la CPU stà con le mani in mano.
guardandola dal lato GPU questa sta in attesa delle richeste, le esegue e poi deve continuare a stare in attesa della CPU.

usi le possibilità computazionali dell'HW al massimo della capacità operativa, ma in modo intermittente.

in AC ottieni guadagno perchè elimini principalmente questa intermittenza, perchè mentre la CPU o la GPU è in attesa può dedicare altre sue unità ad altri compiti, visto che il compito che stà eseguendo non necessita di tutte le unità, essendo più piccolo.
oltretutto, soprattutto per la GPU, un uso sequenziale implica che il lavoro dev'essere centralizzato, e quindi su un solo thread e quindi su un solo core.
in AC, invece il lavoro è spezzaettato in tanti lavori più piccoli, quindi su più thread e quindi su più core.
Questo nella tua totale fantasia da ignorante completo dell'argomento.
Secondo il tuo ragionamento, che è chiarificatore di quante caxxate tu dica a raffica, il megathread di nvidia è CPU limited, per cui serve un core che va a 5GHz per non farlo saturare, però allo stesso momento si deve fermare ad aspettare che la GPU faccia il suo lavoro.
Lo sai che se un thread si ferma l'occupazione del core scende, vero?

Non parliamo di questa cosa che continui a sostenere per cui ad un core della CPU corrisponda un thread della GPU: ma per l'amor del cielo!

Le varie fasi della computazione di un frame sono necessariamente sequenziali: non puoi metterti a calcolare il colore dei pixel se prima non hai elaborato la geometria e l'illuminazione con tutto quello che consegue anche solo eseguire questi due primi passi.
Che vuoi fare nel frattempo? A sì, siccome le unità di AMD che hanno il geometry engine nell'uncore e che fanno fatica ad essere saturate da questo quando ci sono molte ALU a disposizione, usiamone un po' per fare dell'altro creando nuovi micro thread che vanno a sovrapporsi a quello della geometria.
Tanto per calcolare il frame servono 25ms, che i calcoli si facciano prima o dopo non cambia nulla. In AMD si può (anzi si deve) fare un pastrocchio per saturare le unità di calcolo, con Pascal invece questo non è necessario visto che il guadagno è minimo (ma aitè, c'è, forse ti confondi con Maxwell dove la perdita è di 1 o 2 punti percentuali).

Nei tuoi sogni più intimi la CPU aspetta la GPU mentre questa fa il suo lavoro, visto che la geometria del frame successivo è calcolabile, così come l'AI, la fisica, l'effetto audio, le collisioni, lo step successivo dello script di ogni oggetto etc... E infatti il megathread continua a pompare al 100%.


l'unico scotto che devi pagare è

Leggere le caxxate di chi non sa come funziona una GPU e viene sui forum a fare quello che spiega agli altri il perché le soluzioni AMD in teoria sarebbero migliori ma poi nella pratica anche quando sono seguite hanno un vantaggio REALE del 10% e del 20% rispetto alla sua performance base (che fa schifo perché incapace di eseguire il lavoro come si deve).


che dividere costa più risorse che farlo tutto in un'unica istanza.
ma è uno scotto che si paga volontieri quando riesci a sfruttare meglio le risorse della macchina.
Ma te si vede che nella tua vita hai scritto forse solo un hello word con il basic per dire che "è uno scotto che si paga volentieri".
Ma volentieri cosa che la suddivisione di un lavoro omogeneo in più sottolavori indipendenti è uno dei problemi principali dell'ingegnerizzazione a tutti i livelli tanto da essere IL problema fondamentale quando si parla di programmazione!
Ma che caxxo stai a dì??? Sei tu querllo che ci sta prendendo in giro sempre per cercare di far risultare le scelte di AMD le migliori anche se i fatti dicono che usando altri paradigmi si fa di più con meno.


oggi eseguire un lavoro sequenziale, con la multitudine di risorse che hai per la CPU e per la GPU, è stupido...
Il mondo intero sta aspettando che l'esperto della tecnologia, il Profeta come molti lo definiscono, sveli la formula magica per creare tanti task indipendenti per la soluzione anche dei più banali problemi e che nel fare tutto ciò azzeri l'overhead e permetta quindi di andare a sfruttare un numero di unità di calcolo indefinito a priori.

Nel frattempo Nvidia si è data da fare da sola e negli ultimi anni ha creato delle architetture che con meno mm^2 e meno energia fanno più lavoro di quando non riesca a farne AMD con la sua "avanzata" tecnologia AC in attesa sempre di colui che la sfrutterà al massimo (ovvio) dedicando spontaneamente il proprio tempo e denaro.

Intanto come dissi con il lancio di Pascal, nvidia ha dominato ancora per oltre 2 anni e con Turing si appresta a farlo ancora per il prossimo. I prezzi dicono chiaramente quello che è il rapporto di forza tra le due aziende.
AMD semplicemente non c'è più e nvidia si fa concorrenza da sola e il fatto che non dica nulla sulle prestazioni fino all'ultimo secondo è indicativo di questa cosa, non vuole certo fregarsi le vendite delle GPU attuali dicendo che le prossime sono il 40 o il 50% più veloci, non ha bisogno di tirare nessuna acqua al suo mulino che macina già abbastanza grano.

Per il mondo sperato dal frustrato fanboy lucusta, appuntamento al 2020 (se va bene fine 2019), con il rilascio di Navi. Sempre che questi abbia capacità HW RTX decenti e non semplicemente "emulate in SW", altrimenti arrivederci al 2022 con i 5nm con prezzi ancora più alti di quanto non si hanno oggi e nella speranza che AMD tenga nel futuro, anche dopo la PS5, la fornitura dei chip per console, che se la perde.. huhuuu... addio motori ottimizzati per GCN e prestazioni indietro di 4 giri.

lucusta
27-08-2018, 00:12
Guarda che a parte le ROPs, Polaris 12 ha le stesse identiche quantità di risorse di Pascal.

guarda che polaris 12, Lexa, è il chip delle 540 e 550...

CrapaDiLegno
27-08-2018, 00:22
ma, guarda, riprendendo il tuo stesso link sopra ed andando su Deus Ex (high quality preset) io vedo che confrontando la 1070, la 580, la 480 e la 1060 si possa parlare per ore ribbattendo quello che scrivi.
in FHD la 1070, scheda che produce 7.2TF teorici a 1875mhz per un consumo di 161W, esegue il gioco in 86fps;
la 1060, per 134W, ottiene 63fps, con i suoi 4.7TF teorici a 1850mhz.
la 580 consuma 191W (MSI gaming X, una custom), per 71fps e 6.5TF@1400
la 480 consuma 166W, per 70fps con i suoi scarsi 6TF teorici a 1300mhz.

E altri stra BLA BLA...


di tante persone che conosco sono ben poche che overclockano la CPU e GPU per giocare e se non lo fai i risultati potrebbero essere assai differenti.
Però sembra che di gente che downvolta le GPU AMD è pieno il mondo...


e, logicamente, tu mi vieni a parlare di come si fanno i test e vai a giudicare le schede in base a quei numeri che ti forniscono...

bene;
benvenuto nel club di bambini che vanno all'asilo...

cerca, quando parli con me, di portare argomentazioni serie; grazie.
https://www.anandtech.com/show/11987/the-nvidia-geforce-gtx-1070-ti-founders-edition-review/15.
Misura alla presa del muro dell'intero sistema. la 1070ti è l'ultima scheda uscita in assoluto, quindi i driver usati sono gli ultimi disponibili, se mai ti volessi appellare che con qualche ulteriore versione dopo il lancio le schede AMD siano diventate miracolosamente generatrici di refrigerio.

Quando parlo con te parlo di fatti, non di elucubrazioni mentali da cerebloleso che vuole farsi passare per guru da forum su argomenti di cui non ha la minima competenza e sempre ed esclusivamente a favore di AMD anche quando l'argomento non è sostenibile.

Tutto quello che hai fatto qui è trovare delle scuse per rendere dei test non ideali, cosa nota come arma per chi vuole dimostrare una teoria che passa attraverso i punti che lui ha scelto essere gli unici validi tra quelli che la realtà mette a disposizione. Cosa che possono provare a fare tutti, anche i bambini dell'asilo come te.
Purtroppo per le tue elucubrazioni sul perché e sul percome AMD risulti sempre quella che ha consumi esagerati e con efficienza infima, i fatti sono chiari.

Poi se vuoi ci sono pure questi sulla tua meravigliosa efficientissima 580.
https://www.anandtech.com/show/11278/amd-radeon-rx-580-rx-570-review/16
Ora sviscera altre tue perle per rendere invalidi i test di Anadtech che misura alla parte i consumi senza nessuna stima. O questi
https://www.techpowerup.com/reviews/Sapphire/RX_580_Nitro_Plus/28.html
E comunque sia negli altri siti la stima è fatta per tutte le GPU allo stesso modo e non si capisce perché solo quelle di AMD dovrebbero essere penalizzate.. o si, lo si capisce perché ci sono i fanboy a crederlo.

una 1060 riesce ad ottenere comunque 63fps con un ryzen 1600?
se non ci riesce che processore si dovrebbe usare?
A dimmelo tu che sono mesi che continui con questa cosa delle CPU a 5GHz per fare con le schede nvidia gli stessi frame che AMD avrebbe a una non meglio specificata frequenza o numero di core.

CrapaDiLegno
27-08-2018, 00:26
guarda che polaris 12, Lexa, è il chip delle 540 e 550...
Oh, sì certo, parlavo di quello inserito nella 480/580 ovviamente, Polaris 10..

LkMsWb
27-08-2018, 01:01
Guarda che a parte le ROPs, Polaris1210 ha le stesse identiche quantità di risorse diel GP104.
Per la dimensione devi tenere conto che il PP di GF permette una diminuzione di circa il 10% rispetto al 16nm di TMCS.
Quindi Polaris1210 fatto su TMSC sarebbe di circa 253mm^2.
Il problema èp l'archiettura, che per come AMD l'ha implementata (forse anche per colpa della stessa densità) mura a una frequenza decisamente inferiore rispetto a Pascal.
Guarda le versioni precedenti di GCN e guarda a che fasce erano destinate le GPU a 256bit di AMD. E sì, andavano contro le versioni x80 di nvidia.
Che secondo alcuni non fa nulla per migliorare le sue architetture e invece uno dei maggiori lavori da Kepler in poi è stato proprio quello di ottimizzare alla grande l'uso della banda e permettersi chip con un MC più piccolo (ma comunque più veloce).
Polaris1210 è stato pensato per arrivare vicino, non dico superare perché neanche AMD lo credevano, le prestazioni della serie x80 di nvidia ad un prezzo decisamente inferiore.
Quali che siano i motivi a noi tutti sconosciuti, invece ne è risultato uno schifo che i 150W li ha visti nella versione castrata e con 4GB in meno, ben lontano dalle prestazioni della x70 nonostante nvidia l'abbia castrata di ben il 25% rispetto alla versione completa del GP104.
Conseguenza? Usciamo con Vega, super mega pompato con tutte le tecnologie nuove conosciute così come fu per Fiji. Risultato? Un chippone che va quanto la serie x80, finalmente. Peccato per i 480mm^2 e i quasi 300W e l'HBM.

Rispondo solo per la mia parte, e ti spiego perché secondo me Polaris non è un fail. Non è la migliore architettura, ma non è un fail assoluto come vuoi farlo passare tu.

Partiamo dal fatto che AMD sia rimasta sorpresa da Pascal: penso sia vero, Pascal è molto simile a Maxwell, ma grazie al nuovo processo produttivo e al lavoro sul memory controller, nVidia è riuscita ad avere frequenze altissime e basso consumo, riuscendo a mantenere una dimensione dei chip ottima. Questo è fuor di dubbio. Però Pascal è molto più simile a Maxwell di quanto non sia GCN4 ai GCN precedenti.

Densità: Polaris è più denso di Pascal, cosa che unita ai 14nm GF, inferiori ai 16 TSMC, ne ha decretato un muro di frequenza troppo basso, e un voltaggio necessario per avere alte rese troppo alto - cosa che poi accomuna anche i Ryzen, tanto per dire che il processo produttivo c'entra.

Ora, 14nm vs 16 nm, GCN4 è più denso di Pascal di circa il 7,5%. Sai che a 28nm vs 28nm, GCN2 vs Maxwell, GCN2 era l'8,5% più denso di Maxwell. Quindi nonostante il processo 14nm, AMD ha perso in densità. Capisci quanto fosse la differenza fra GF-14 e TSMC-16?

Sul memory controller nulla da dire, nVidia ha impostato una compressione molto efficace (spero lossless) sulla memoria, AMD per necessità prestazionali ha dovuto portare i 256 bit in fascia media.

Il confronto con le versioni precedenti di GCN facciamolo. AMD partiva con 290X e 390X, nei cui confronti Polaris 10 ne esce davvero bene in termini di efficienza, visto che una volta curato del "spariamo i voltaggi per avere rese" va a consumare, come ti ho detto rilevando la mia, sui 130w avendo performance simili a R9 390X, una scheda da 250w con bus da 512 bit. Già nella precedente serie AMD aveva un bus da 256 bit in fascia medioa-alta, visto che erano le 380 ad esserlo (e consumavano più di Polaris).

Ah, sono il primo a dire che NON È NORMALE che sia l'utente a fare undervolt per diminuire i consumi eh, è solo perché voglio mettere sul piano quale è la reale efficienza di Polaris, una volta che non si è nella situazione SICURAMENTE NON OTTIMALE di dover alzare i voltaggi per avere più resa.

Discorso unità di calcolo, ti quoto nuovamente anche se l'ho già fatto:
Guarda che a parte le ROPs, Polaris1210 ha le stesse identiche quantità di risorse diel GP104.
Proprio le ROPs ti dimostrano che non poteva essere un chip che andasse a competere con le 1080, AMD ne ha sempre meno di nVidia, ma con 32 non poteva essere un chip di fascia alta. Le schede contro le GeForce --80 di AMD hanno 64 ROPs, e non le cambi nell'arco di un mese per cambiare fascia alla scheda video.

La cosa che sicuramente era poco preventivabile in casa AMD, era quanto fosse facile salire in frequenza con Pascal, cosa che ha reso la 1060 decisamente più forte di quanto potessero aspettarsi in casa Radeon. E comunque fra 480 e 1060 rimane un bel pari, la 580 per essere davanti invece, pur essendo più rapida, dimostra ancor di più quanto il processo produttivo sia al limite, visto che il consumo aumenta decisamente in pochi MHz. Ma lo stesso accade con Ryzen.

Ah, nelle console "nuove" ci sono GCN fatti da TSMC. Vai a vedere quanto consumano, e si tratta di console complete.

lucusta
27-08-2018, 02:32
Polaris12 è stato pensato per arrivare vicino, non dico superare perché neanche AMD lo credevano, le prestazioni della serie x80 di nvidia ad un prezzo decisamente inferiore.

quindi quando AMD pubblicizzava la fascia media a 200$ tu eri in bagno?
dimmi quale x80, fascia top nvidia, è mai arrivata a costare così poco...
per me parti da una valutazione decisamente errata.

Quali che siano i motivi a noi tutti sconosciuti, invece ne è risultato uno schifo che i 150W li ha visti nella versione castrata e con 4GB in meno, ben lontano dalle prestazioni della x70 nonostante nvidia l'abbia castrata di ben il 25% rispetto alla versione completa del GP104.
Conseguenza? Usciamo con Vega, super mega pompato con tutte le tecnologie nuove conosciute così come fu per Fiji. Risultato? Un chippone che va quanto la serie x80, finalmente. Peccato per i 480mm^2 e i quasi 300W e l'HBM.

sulle embedded hai 5.5TF di potenza grafica per 96W...
una GPU embedded AMD è capace di andare quasi quanto una 480 desktop a 60-70w in meno.
si chiama binning.
se hai quel consumo è per il semplice fatto che per costare così poco devono mettere in produzione chip che reggono comunque quel setting, quindi con un voltaggio elevato, quindi con un consumo elevato.
se il binning non è ristretto (ed il binning ha un costo non trascurabili già solo per l'esecuzione, non solo per il fatto di scartare chip), sei costretto ad impostate per tutti i chip l'identico voltaggio, sia quelli che potrebbero consumare 96W che quelli che ne consumano 160.

nvidia per rimediare chip di scarto ti ha proposto una miriade di varianti della 1060.
la 1060 3GB, la 5GB la 6GB la 6GB con ram a 9ghz, la 1060 per portatili normali, la 1060 q-max...
ci sono decine di versioni per l'identico chip.
AMD non ci ha nemmeno provato a fare binning su polaris 10, si è affidata alla statistica e all'ovvietà (chip al centro sono meglio che chip alla periferia del wafer) per servire le PRO, Apple e le embedded... su quelle ha fatto binning: se non andavano bene via sul desktop...
dimostrazione la hai per il fatto che non ci sono polaris 10 per portatili.

è un'altra politica commerciale, la stessa adottata su Vega, ed assai diversa da quella nvidia.
non è assolutamente detto che il processo TMSC sia meglio di quello GF.
non sai quanti wafer buttano in TMSC per fare i PAscal desktop, ma puoi capirlo pressappoco dal costo finane delle schede, che non è solo una questione di profitto per la posizione dominante...
è come vuoi sfruttare il processo che cambia la questione ed AMD, in queste generazioni, ha deciso di sfruttarlo in modo da ottenere i chip più economici che poteva.
se non capisci questo non capirai mai come funziona questo settore, mi dispiace.

Forse non ti è chiaro che un motore di un gioco, così' come il suo sfruttamento, non sono ottimizzabili per qualsiasi cosa in maniera agnostica ma fa delle scelte implementate già una selezione. Banda o cacloci? Più o meno poligoni? Tesselazione? Peso degli shader?
Doom è nato per sfruttare al massimo le capacità dell'architettura AMD e per tanto fa scelte proprio in quel senso: geometria ridotta ma grande uso della banda (che AMD ha in abbondanza rispetto a nvidia).

forse non ti ricordi chi ha creato doom.
quel gioco ha chiamate personalizzate per singola scheda, non per singola architettura.
ci ha lavorato anni per produrlo, e non per gli effettini, ma per il codice di base.
la differenza sugli altri giochi è proprio questa:
gli altri fanno giochi adatti al meglio per una scheda, la più diffusa sul pubblico a cui vogliono vendere il gioco, che più o meno andrà bene anche per le altre schede con la stessa architettura, ma che girerà per come gira su tutte le altre, nuove o vecchie che siano.

doom è stato finemente ottimizzato sulle singole schede e sui singoli OS, ed è anche per questo che ha usato vulkan, set di API più adatto a questo scopo.


Bla bla, oviamente quando fa comodo nemmeno Doom in Vulkan è la soluzione che usa al meglio l'architettura AMD...
Salviamo il salvabile di questa ulteriore pantominma da fanboy con fegato spappolato che si dimena per cercare di dimostrare che solo l'AC è il futuro di cui tutta l'umanità ha bisogno.

ma tu leggi tutto, o meglio, capisci quello che leggi?
io ti ho scritto una filippica per farti capire che i test non sono mai, MAI obbiettivi, ma che servono solo a fare pubblicità e quindi a far guadagnare soldi, e tu mi rispondi in questo modo?
ma quanti hanni hai, per curiosità, perchè mi sembra di stare a parlare con mio nipote di 10 anni....

e poi se doom era solo in AC maxwell andava in errore, renditi conto.
su AoTS hanno dovuto disabilitare il codice AC e farne uno solo per maxwell/pascal e la gente continua a leggere che AoTS è il test per provare le DX12... tzè


Ne risultano davvero considerazioni interessanti:
1. hai detto che Pascal da 69FPS con l'uso dell'AC passa a 80FPS (non doveva calare del 20% e con ciò rendere Pascal una architettura da buttare semmai fosse stato usato in maniera estensiva?)
2. il miracolo AC su AMD la fa passare da -8 FPS (rispetto alla 1060) a ben e sottolineo ben +8 FPS. In percentuale da -11% a +11% (sempre con la 1060 come riferimento). Quindi abbiamo un incremento del 20% che porta l'architettura AMD ad andare in maniera spaventosamente migliore di un chip più piccolo che consuma meno.

ma... ci sei o ci fai?
non c'è un gioco che gira realmente in AC.
non li fanno perchè sennò gli tocca fare lo stesso gioco anche senza AC perchè le vecchie nvidia non girano con AC.
ma quando vedi un gioco con cui puoi giocare sia in DX12 che DX11 tu che credi che attivino AC?
bene, sbagli a pensarla in questo modo.
la differenza tra DX11 e DX12 è che oggi quando sfruttano le DX12 usano le DX11.3, non il computo asincrono, ma solo il computo sincrono con la possibilità di usare fino a 8 thread (e non grafici, ma quelli accessori).

Ovvio che il sito che porta una review non sufficientemente a favore di AMD (solo il 20% di guadagno quando lo sanno tutti che con l'AC almeno si raddoppiano le performance???) deve essere criticato.

non ho criticato questo, ma ho criticato te che fai affidamento su quei dati che non sono obbiettivi.
in nessuna review la 580 va quanto una 480, tranne che su the guru 3D...
io mi sarei chiesto perchè.


Oh, toh, questo vale per un confronto tra le schede AMD ma non quelle nvidia.. come è che non ne hai parlato quando hai confrontato le prestazioni della 1080Ti vs 1070 ritenendo che non c'è linearità per via del diverso metodo di sfruttare le risorse?
Ma tu vedi che disdetta che hai trovato uno che ti sta facendo dire le cose che quando parli di AMD non vuoi mai dire ma se si parla di nvidia ti inventi tutto il possibile, anche l'assurdo, per fare in modo che dei dati a caso diventino una dimostrazione di una teoria.

usano un 5960x a 4.4ghz...
se quel processore è impiccato con una 1070, i valori che leggi sulla 1080 Ti sono tutti falsi, perchè non avrebbe fatto un solo frame in più per bottleneck della CPU.
apposta ti sto confrontando 1070 e 1060, perchè ho l'assicurazione che la CPU non è in bottlenek guardando la 1080 e 1080 ti (lo saranno magari queste).
non lo capisci, vero?
non ci posso fare nulla... è una questione tua personale: o ci arrivi o non ci arrivi...



Ovvio che ti devi inventare qualcosa sui consumi: deve essere questo il caso eccezionale in cui le schede AMD consumano meno perché in tutti i test che misurano i consumi con i vari giochi (chi con giochi DX11, chi con giochi DX12) AMD ne esce sempre uguale: con le ossa rotte.
Ma deve essere che Vulkan, quel pastrocchio che a seconda dei casi è la manna per AMD, in altri è un accrocchio che non permette di fare il lavoro in maniera corretta (leggasi ad hoc) su questa architettura,usa un HW totalmente diverso e permette alla 480 di consumare come la 1060 andando pure il 10% in più.

ma se te lo scrivono anche loro:
"Measured Power Consumption

Mind you, the system wattage is measured at the wall socket side and there are other variables like PSU power efficiency. So this is an estimated value, albeit a very good one. Below, a chart of relative power consumption. Again, the Wattage shown is the card with the GPU(s) stressed 100%, showing only the peak GPU power draw, not the power consumption of the entire PC and not the average gaming power consumption."

l'unico errore è dire che è "an very good one estimed value", quando è più un gioco a freccette...

Ma nooo, cosa dici, qui se qualcuno vuole prendere per fessi gli altri quello sei tu che sei in grado di estrapolare tutte le teorie più demenziali per far passare una curva tra 3 punti disposti a caso su un piano ma se si parla dei consumi di AMD, se non c'è la prova che in Vulkan i consumi non sono registrati, allora non si può dire che AMD consuma di più nonostante in tutti gli altri 99 giochi sui 100 provati i dati dicano il contrario.

ti darei ragione se avessimo i dati di consumo dell'intera macchina e relativo usage della CPU (core per core) per ogni singolo test fatto di tutte le schede.

ma visto che hai misure di consumo su giochi che neppure testano, dalla presa a muro o con marchingegni fatti in casa sul pettine PCIe. con processori iper overclockati, non hai minimamente ragione.
ne tu, ne io, ne nessuno che legge le varie review sa esattamente quanto consumano quelle shcede per il semplice fatto che non sono mai realmente state testate nel modo più opportuno:
esecuzione del test -> relativo consumo.


ad oggi potrei spararti la pagliacciata che in deus ex la 480 consumi 50W mentre la 1060 consuma 160W e tu non potresti obbiettare, perchè non hai dati per farlo.
ma sarebbe una pagliacciata.
quindi perchè io dovrei credere alla tua affermazione che la 480 consuma 166W su tutti i giochi e la 1060 consuma 120W se non hai comunque dati?

ecco perchè questi valori li prendo a prescindere per una pagliacciata, e poi ti dico che COMUNQUE non giochi esclusivamente con la scheda grafica, ma con l'intero PC e che non è necessario sparare a bomba la CPU in ogni frangente, ma dovrebbero essere fatte misure a defalut con tutti i settaggi del power saving attivi, su ogni applicazione che testi per ESSERE OBBIETTIVI, e solo dopo associare test e consumi in condizioni non di default, così si valuta anche il vantaggio che hai nel procedere in quel modo.

questo è un test quasi obbiettivo, perchè quello in assoluto obbiettivo richiederebbe il test per ogni combinazione di ogni singolo settaggio che puoi applicare con la differenza percettiva del miglioramento.

questa è l'assoluta obbiettività.

non c'è bisogno di testare 50 schede su 100 0giochi.
basta analizzare gioco per gioco con l'HW che in quel momento è sul mercato.
alla fine avrai talmente tanti dati da poter dire assolutamente ed in modo oggettivo il valore di ogni scheda.

perchè, ti ricordo, l'analisi prestazionale che fanno dovrebbe aiutare i consumatori a scegliere, non i produttori a vendere.


A certo te la materia la consoci perfettamente perché fai test tutti i giorni, invece gli altri sono dei gran dementi che non sanno quello di cui parlano.
Ah, certo, serviva il Profeta per farci spiegare il perché i test a favore di AMD sono eseguiti in maniera corretta mentre quelli che non mostrano i suoi lati positivi sono falsi e creati appositamente con malizia per danneggiarne l'immagine che altrimenti, uuuuhh, sarebbe quella di produttrice della
migliore architettura esistente che con meno fa di più!
Ma quando scrivi, ci credi veramente alle baggiantate che stampi nero su bianco?

non ti ho detto questo.
io ti ho detto che creo test, non li eseguo (e ti assicuro che nel mio campo i test non si creano così, come la capoccia ti dice quel giorno, ma hanno una trafila burocratica che richiede mesi per l'approvazione da parte dei diversi ministeri... e loro ti fanno le pulci prima di porre la firma per l'approvazione).
io ti ho scritto che non sono l'unico con queste capacità, ma che probabilmente in questo genere di test, molti di quelli che li eseguono per queste riviste, sono anche più capaci di me che lo faccio per mestiere da 25 anni, ma in altro settore.
quindi è strano che io, che li faccio su un'altro settore, trovi comunque a prima occhiata errori grossolani di procedura logica...
pare quasi che invece di andare a chiarire le perplessità ne approfittino per manipolare chi non ha il medesimo background che ho io... ma che comunque anche persone che hanno un certo rigore logico scovano con molta facilità.
sul test della 580, se io avessi visto risultati uguali tra una 480 reference ed una MSI gaming X, anche se fosse appena uscita e non ne conoscessi effettivamente il valore prestazionale, solo guardando le specifiche mi sarei un'attimo chiesto come mai facesse solo un frame in più rispetto alla 480 pur avendo MINIMO il 15% di potenza computazionale in più.
come minimo avrei pensato ad un mio errore, in seconda istanza ad una scheda difettosa.
per loro tutto normale e sono diventati dati da pubblicare...

quindi, ti ripeto, alla mia età non ci credo più alle distrazioni, al caso... so bene come gira il mondo... ho le mie esperienze e so anche come gira quell'ambiente.
è tutto molto aleatorio, sulle righe...
quando si vende le cose che ti fanno vedere son tutte luccicanti per attirarti... specchietti per le allodole.

Il processore a 5GHz c'è, sia per AMD che per nvidia.
Il problema è chi ne sa trarre giovamento e chi no.

no.. non girare la frittata.
il problema è a chi è necessario o a chi no...
non è affatto la stessa cosa quando parli poi di costo e consumo.


Questo nella tua totale fantasia da ignorante completo dell'argomento.
Secondo il tuo ragionamento, che è chiarificatore di quante caxxate tu dica a raffica, il megathread di nvidia è CPU limited, per cui serve un core che va a 5GHz per non farlo saturare, però allo stesso momento si deve fermare ad aspettare che la GPU faccia il suo lavoro.
Lo sai che se un thread si ferma l'occupazione del core scende, vero?

ma lo sai che c'è un delay per farlo, vero?
perchè queste cose avvengono spesso nell'uso normale della CPU, e buttare giù immediatamente la frequenza non è pratico.
non ti chiedo se hai mai letto nel particolare la tecnologia speedstep o pawernow! come funzionano, i loro intervalli di azionamento, ma, grossolanamente, non hai mai visto il comportamento tra i settaggi risparmio energia, bilanciato e prestazioni massime di un OS moderno?... non ti è mai venuta la curiosità di maneggiare nei settaggi avanzati?

questo indica il tuo livello di preparazione base.... e poi vai a dare dell'ignorante agli altri?

al tempo ci si passavano le giornate a maneggiare sui delays delle CPU su crystall CPU (o come diavolo si chiamava), per trovare il giusto setting tale da consumare il meno possibile ma non avere il PC pigro e non mandarlo di freeze se forzavi troppo...
e si, perchè poi l'associazione voltaggio/frequenza è assai più problematica di quanto può sembrare a prima vista, in quanto quando sali devi avere già un voltaggio sufficiente a non freezzare il PC per la frequenza che userai, e questo dipende anche dalla temperatura della CPU in quel momento... tutte cose che oggi fanno le tavole preimpostate sul firmware per la gestione della CPU/GPU o, meglio ancora, particolari algoritmi "intelligenti" che analizzano le condizioni operative del chip in ogni momento.

e tu dai dell'ignorante a me... :mbe:

Non parliamo di questa cosa che continui a sostenere per cui ad un core della CPU corrisponda un thread della GPU: ma per l'amor del cielo!

è che te la faccio semplice, perchè non mi va di scrivere papiri per far capire cose che potresti leggere dove vuoi sulla rete ma che sei troppo "pigro" per farlo...
tanto poi mi dai queste risposte.

Le varie fasi della computazione di un frame sono necessariamente sequenziali: non puoi metterti a calcolare il colore dei pixel se prima non hai elaborato la geometria e l'illuminazione con tutto quello che consegue anche solo eseguire questi due primi passi.
Che vuoi fare nel frattempo?
calcoli un'altra parte dello stesso o di un'altro frame...
si chiama parallelizzazione ed il frame non lo calcoli sequenzialmente pixel per pixel, ma lo puoi fare in decine di modi differenti.

A sì, siccome le unità di AMD che hanno il geometry engine nell'uncore e che fanno fatica ad essere saturate da questo quando ci sono molte ALU a disposizione, usiamone un po' per fare dell'altro creando nuovi micro thread che vanno a sovrapporsi a quello della geometria.

ma chi ti ha detto che possono fare solo quello...
il geometry engine AMD può dedicarsi tranquillamente ad impostare altre ALU per calcolare anche altro: IA, fisica, effetti audio.
sei tu che sostieni che non ce la fanno e che si saturano...
ma per quanto stai esponendo in questa risposta o le mie remore nel crederti...
non è che non mi fido, è che ho proprio capito che non lo sai.



Tanto per calcolare il frame servono 25ms, che i calcoli si facciano prima o dopo non cambia nulla. In AMD si può (anzi si deve) fare un pastrocchio per saturare le unità di calcolo, con Pascal invece questo non è necessario visto che il guadagno è minimo (ma aitè, c'è, forse ti confondi con Maxwell dove la perdita è di 1 o 2 punti percentuali).
ma perchè forse funzionano in maniera assai diversa?
in AMD l'unico impiccio è proprio dividere il lavoro sequenziale e UNICO in tante piccole ALU.
quando questo ti viene fornito direttamente dallo sviluppatore, servito su un bel piatto di portata, le ALU mangiano direttamente richieste singole e sputano risultati.
ed è proprio per questo che nvidia non computa AC in HW.
vedi che, sotto sotto, la vera differenza la conosci?

la vera differenza è che il lavoro viene svolto prima, in compilazione e strutturazione del codice, e non al volo, sulla CPU, quindi il layer driver diventa talmente sottile che serve esclusivamente a tradurre le funzioni in comandi per la GPU...
un pochino pochino più veloce, come processo di esecuzione.

a, ma giusto, gli sviluppatori sono così indaffarati che il lavoro preferiscono farlo fare alla CPU ogni santa volta in ogni santo momento...
tanto ci sono processori a 8ghz in circolazione... di potenza ce n'è a iosa.

Nei tuoi sogni più intimi la CPU aspetta la GPU mentre questa fa il suo lavoro, visto che la geometria del frame successivo è calcolabile, così come l'AI, la fisica, l'effetto audio, le collisioni, lo step successivo dello script di ogni oggetto etc... E infatti il megathread continua a pompare al 100%.

è forse perchè pompa al 100% che è bottleneck e CPU limited?



Leggere le caxxate di chi non sa come funziona una GPU e viene sui forum a fare quello che spiega agli altri il perché le soluzioni AMD in teoria sarebbero migliori ma poi nella pratica anche quando sono seguite hanno un vantaggio REALE del 10% e del 20% rispetto alla sua performance base (che fa schifo perché incapace di eseguire il lavoro come si deve).

quindi stai sostenendo che chi non conosce come funziona una GPU moderna, una CPU moderna e come si struttura, a grandi linee, il codice su queste non dovrebbe nemmeno leggere questo forum?

mi domando perchè allora tu stia sempre qui a scrivere.

io ancora aspetto la tua descrizione fine (e magari con codice d'esempio) del funzionamento delle maxwell pascal...
perchè finchè non mi dai una logica descrizione puntuale tu per me non dovresti neppure rispondere al telefono, non sui forum, che fai solo danni.


che dividere costa più risorse che farlo tutto in un'unica istanza.
ma è uno scotto che si paga volontieri quando riesci a sfruttare meglio le risorse della macchina.
Ma te si vede che nella tua vita hai scritto forse solo un hello word con il basic per dire che "è uno scotto che si paga volentieri".
Ma volentieri cosa che la suddivisione di un lavoro omogeneo in più sottolavori indipendenti è uno dei problemi principali dell'ingegnerizzazione a tutti i livelli tanto da essere IL problema fondamentale quando si parla di programmazione!

stai forse parlando della parallelizzazione nel calcolo vettoriale per matrici?
perchè è l'esempio principe della parallelizzazione (se non ti fanno quell'esempio i professori muoiono).
thò, ma sai che credo che la grafica 3D sia vettorizzabile e calcolabile con una matrice, sia nel meshing che nel texturing?
sarà mica che la grafica 3D è il campo in cui la parallelizzazione ha più efficacia di ogni altro campo?

bhè, te lo dico per certo: la grafica 3D è altamente parallelizzabile a diversi livelli.

continua a fare i disegnini in ascii mode e non metterti in bocca parole che nemmeno chi le ha pronunciate ne capiva il senso, grazie.


Ma che caxxo stai a dì??? Sei tu querllo che ci sta prendendo in giro sempre per cercare di far risultare le scelte di AMD le migliori anche se i fatti dicono che usando altri paradigmi si fa di più con meno.

tu mi prendi per fanboy, quando la questione è che sono da 6 anni che nvidia non produce un'architettura logica e con prospettiva.
puoi leggere i miei commenti su questa, su questo e su altri forum, venire qui e chiedermi scusa per il fraintendimento.
se nvidia ha fatto per anni architetture che non mi piacevano non potevo certo lodarle, anzi.
altro discorso è la politica di nvidia, la sua etica.
quella la schifo a priori da sempre.
non è un'azienda che si comporta in modo tale che io possa apprezzarla, e di esempi che ti posso fare ce ne sono per decine e decine.
sarò sempre critico con quelle aziende che cercano d'infinocchiare i propri clienti.
ecco perchè può sembrare che sono pro AMD.
io sono PRO me stesso, da sempre.
sono contro le aziende che cercano di tirarmi il pacco, ed nvidia me ne ha tirati più di uno in 32 anni che acquisto HW PC (mai quanti intel, ma lì il discorso è assai da pesare).

Il mondo intero sta aspettando che l'esperto della tecnologia, il Profeta come molti lo definiscono, sveli la formula magica per creare tanti task indipendenti per la soluzione anche dei più banali problemi e che nel fare tutto ciò azzeri l'overhead e permetta quindi di andare a sfruttare un numero di unità di calcolo indefinito a priori.

ma chi ti ha detto che azzeri l'overhead?
ma forse ti avrò scritto esattamente il contrario?
ti avro scritto anche che se fai 1 su 1 puoi fare 1
se per fare 2 devi sacrificare anche un'altro 10% ti servirà 2.2, ma ottieni comunque 2 che è più grande di 1....
e che se per fare 1 usi una CPU che può fare 10, ma che ti farà comunque 1 perchè quell'1 è indivisibile, mentre ti sfuma la possibilità di fare anche fosse 5 usando tutte e 10 le possibilità della CPU e che comunque per fare 1 costringi 10 a stare al 100% comunque?...
ti avrò scritto questo?
ti avrò scritto che se dividi 1 su una CPU da 10 non ti serve che la CPU stia al 100%?
non starà al 10%, ma nemmeno al 100% con 9 che si girano i pollici...
sarà al 50%, che è sempre la metà di 100%.

le tue convinzioni son troppo radicate nell'ignoranza, se mi permetti di dirtelo, come lo sono quelle di chi affibbia etichette e che MAI HANNO SCRITTO UN SOLO CONCETTO TECNICO O LOGICO, ma esclusivamente commetini di contorno giusto per essere presenti... di quelli che salti perchè non servono a nulla...

Nel frattempo Nvidia si è data da fare da sola e negli ultimi anni ha creato delle architetture che con meno mm^2 e meno energia fanno più lavoro di quando non riesca a farne AMD con la sua "avanzata" tecnologia AC in attesa sempre di colui che la sfrutterà al massimo (ovvio) dedicando spontaneamente il proprio tempo e denaro.

parli di ieri.
perchè oggi non sembra così piccola e così poco energivora rispetto a prima, pur avendo avuto un passaggio migliorativo di PP.
poi, ribadiamolo un'altra volta:
ieri erano piccole perchè il resto è SW, sulla CPU, e capaci poi di fare il lavoro solo in un modo, tanto che ha dovuto propagandare il dio denaro a destra e a manca per farsi fare vestiti adatti.
poco energivora perchè se non ci metti i transistors non consumano... consumerà però la parte computazionale, la CPU, che si deve sobbarcare il lavoro di quei transistors che non ci sono sulla GPU (ed un SW è sempre meno efficiente di un HW).
poi si deve aggiungere che è CPU limited...
se ti facevano una GPU come pascal grossa il doppio di una titan XP quanto credi sarebbe andata, con le attuali CPU a 1080p? di più di una titan xp?
io dico che sarebbe andata alle stesse prestazioni, girandosi altamente i pollici, ma alle stesse prestazioni.
se questa non la chiami CPU limited non saprei come illustrarti il fenomeno.

Intanto come dissi con il lancio di Pascal, nvidia ha dominato ancora per oltre 2 anni e con Turing si appresta a farlo ancora per il prossimo. I prezzi dicono chiaramente quello che è il rapporto di forza tra le due aziende.

si, che nvidia ti spella e AMD no...ecco che ti dicono i prezzi.
i prezzi dicono che una 580 costa meno di una 1060 e va sempre di più, ma il marketing e l'ignoranza generalizzata ti fanno credere il contrario.
e sai cosa vale realmente in questo settore?
prezzo per prestazioni.
invece siamo arrivati al punto che i BM di un tempo sono cresciuti SENZA CRESCERE DI CERVELLO e continuano a prendere tutto per buono, senza una sola critica.

che nvidia dominerà con le turing non te lo so dire.
l'architettura sembra proprio buona, anche se rt core e tensor core sono, almeno per questa generazione, troppo sotto tono (si parla che i tripla A puntano a 60fps a 1080p, frenati proprio dagli effetti RT che sono troppo pesanti per questa generazione).
ma l'architettura sembra buona perchè nvidia sembra proprio che l'abbia rifatta di sana pianta: sembra proprio DX12, e quelle vere, compreso AC.

ora, quando verrà fuori che le uring potranno proficuamente usare AC, che mi verrai a raccontare di tutte le fregnacciate che hai scritto nella tua risposta?
che AC diventerà improvvisamente la panacea di tutti i mali?
a me basta solo aspettare che nvidia si sbottoni descrivendo finemente l'architettura.

queste schede, purtroppo o per fortuna, non vanno bene per me...
le avrei prese sicuramente se erano in grado di fare in RT real time l'intero rendering di gioco, anche solo a 60fps (ma anche a 40... tanto i miei occhi ormai son stanchi e non me ne frega nulla di guardare la differenza tra 240 o 200fps), ma sia per il costo esagerato che per l'insufficiente capacità computazionale nel campo RT (anche se è la maggiore che oggi possiamo ottenere) non mi stuzzicano sicuramente...
le apprezzo, ma non le compro finchè non costano 250 euro.

al resto, se permetti, non rispondo ora solo perchè ormai mi son stancato... non ho manco letto che hai scritto.

come ho già scritto prima, se speravo che tu potevi portare anche un solo unico insegnamento per me, tecnico, d'esperienza, di cultura, qualsiasi cosa, ti avrei ringraziato infinitamente, ma...
non mi sento in condizione di ringraziarti affatto, come al solito.

buonasera.

lucusta
27-08-2018, 03:20
E altri stra BLA BLA...


Però sembra che di gente che downvolta le GPU AMD è pieno il mondo...


https://www.anandtech.com/show/11987/the-nvidia-geforce-gtx-1070-ti-founders-edition-review/15.
Misura alla presa del muro dell'intero sistema. la 1070ti è l'ultima scheda uscita in assoluto, quindi i driver usati sono gli ultimi disponibili, se mai ti volessi appellare che con qualche ulteriore versione dopo il lancio le schede AMD siano diventate miracolosamente generatrici di refrigerio.

Quando parlo con te parlo di fatti, non di elucubrazioni mentali da cerebloleso che vuole farsi passare per guru da forum su argomenti di cui non ha la minima competenza e sempre ed esclusivamente a favore di AMD anche quando l'argomento non è sostenibile.

Tutto quello che hai fatto qui è trovare delle scuse per rendere dei test non ideali, cosa nota come arma per chi vuole dimostrare una teoria che passa attraverso i punti che lui ha scelto essere gli unici validi tra quelli che la realtà mette a disposizione. Cosa che possono provare a fare tutti, anche i bambini dell'asilo come te.
Purtroppo per le tue elucubrazioni sul perché e sul percome AMD risulti sempre quella che ha consumi esagerati e con efficienza infima, i fatti sono chiari.

Poi se vuoi ci sono pure questi sulla tua meravigliosa efficientissima 580.
https://www.anandtech.com/show/11278/amd-radeon-rx-580-rx-570-review/16
Ora sviscera altre tue perle per rendere invalidi i test di Anadtech che misura alla parte i consumi senza nessuna stima. O questi
https://www.techpowerup.com/reviews/Sapphire/RX_580_Nitro_Plus/28.html
E comunque sia negli altri siti la stima è fatta per tutte le GPU allo stesso modo e non si capisce perché solo quelle di AMD dovrebbero essere penalizzate.. o si, lo si capisce perché ci sono i fanboy a crederlo.


A dimmelo tu che sono mesi che continui con questa cosa delle CPU a 5GHz per fare con le schede nvidia gli stessi frame che AMD avrebbe a una non meglio specificata frequenza o numero di core.

ma che, vivi in un'anello temporale?
abbiamo già scritto che anandthec usa una CPU fortemente overclockata e che non è affatto scritto da nessuna parte che per una 580 serva quel tipo di potenza di calcolo a disposizione.

CPU: Intel Core i7-7820X @ 4.3GHz

altra cosa:
i settaggi necessari per massimizzare le prestazioni della GPU per una 580 sono i medesimi che possono esere usati su una Vega?
perchè se lo fai a 720p la 580 risulterà comunque impegnata al 100%, la vega ha la CPU in bottleneck e potrebbe essere occupata al 50% delle sue risorse, consumando la metà...

vedi che se non indichi esattamente la metodologia di test il numero non vale nulla per il semplice fatto che non è rappresentativo?
se non mi raffronti prestazioni per consumo come facci o a stabiire chi è che consuma di più o di meno... chi è IL SISTEMA più efficiente su quel gioco?

in ultimo, probabilmente non l'hai ancora letto, non puoi confrontare 580 e 1070 Ti.
la 580 4GB la vendono oggi a 250 euro; la 1070 Ti a 450 euro, 200 euro di più per un chip più piccolo e che cammina di più consumando poco.
non sono della stessa categoria di appartenenza.

anche vega 64 con 1080.
per quello che è realmente vega, le capacità di calcolo che ha, se lo avesse fatto nvidia con la sua politica di commercializzazione l'avresti pagato 1500 euro.
se lo paghi 500 euro c'è un perchè.
se ti consumava 200W e basta fuori dalla scatola, con quelle prestazioni, come i ben pochi utenti smaliziati che ci si sono messi a giocare con i setting, pure AMD te lo doveva far pagare 1500 euro.

la questione è che comunque 200W o 120W su un desktop non fanno assolutamente la differenza, la fanno gli oltre 100 euro di aumento che si hanno per singola scheda per avere chip binnati.
vuoi una 480 che consumi meno della 1060?
prendi una PRO o una embedded.
consumano 96W e vanno quanto la 480, quindi quanto una 1060 6GB, oggi come oggi.


ma poi, scusa, te la prendi con me che ti faccio osservare le incorgruenze e non rompi i marroni ai reviewers per fargli fare test utili al consumatore e non al marketing?
ma avrai mica paura che io ho ragione?

se ti devi lamentare che i test non ti fanno capire esattamente come sono le cose, non te la prendere con me che te l'ho fatto notare.

io ho solo due colpe:
te l'ho fatto notare;
ho scritto che le pascal non sono poi così efficienti e prestazionali come si crede, se non gli dai la CPU giusta... e la CPU giusta messa nelle condizioni a cui serve a pascal consuma e costa... (oltre, naturalmente, che il gioco dev'essere scritto nel modo giusto, ma tanto nvidia a elargito denari a destra e sinistra per farseli fare).

no, scusa, tre...
l'ultima è che per far aprire gli occhi agli allocchi servirebbero degli onesti reviewers che invece di pensare quanto guadagneranno questo mese si mettano a fare test seri, senza seguire passo passo le best practices che nvidia/intel suggeriscono...

ultima cosa:
meglio che cambi atteggiamento e diventi immediatamente educato, perchè con chi manifesta palesemente ignoranza ed idiozia unita a maleducazione divento nervoso e posso spiluccare il web da qualsiasi stupidaggine che hai scritto da oggi fino a quando hai acceso il PC la prima volta nella tua vita, mostrando a tutti la tua vera grana.
quindi se non vuoi far diventare nervose le persone, elimina una delle tre variabili a tua scelta: ignoranza, idiozia o maleducazione...
perchè tutte e tre insieme non le reggo.
intanto ti segnalo il post come comportamento inadeguato.

io i bulletti da tastiera mi ci diverto a bullizzarli, meglio di una partita a minecraft.

CrapaDiLegno
27-08-2018, 11:12
Rispondo solo a poche cose visto ce il resto sono altre fandonie che ti racconti per far sembrare che hai ragione quando invece i fatti dimostrano tutt'altro.
E io non voglio passare a rispondere ad in ignorante nel mio pochissimo tempo libero.
Per quanto riguarda l'educazione, caro mio, abbassa le ali.
Non ho voglia di fare un dialogo di battaglia inutile. Puoi credere a tutte le fandonie che vuoi, ma evita di farle passare come verità assoluta, dato che la metà di quello che scrivi è pura invenzione e l'altra è semplicemente falsa perché è la conseguenza della prima.


ma tu leggi tutto, o meglio, capisci quello che leggi?
io ti ho scritto una filippica per farti capire che i test non sono mai, MAI obbiettivi, ma che servono solo a fare pubblicità e quindi a far guadagnare soldi, e tu mi rispondi in questo modo?
ma quanti hanni hai, per curiosità, perchè mi sembra di stare a parlare con mio nipote di 10 anni....
Cioè, tu scrivi una filippica che non dice nulla, anzi che dice le cose che potrebbe dire un bambino di 10 anni per cercare di rendere nullo un test che non gli garba, e quello che ha 10 anni sono io?
Un test è un test con un risultato.
Puoi piangee quanto vuoi, ma se lo stesso test è ripetuto su tutti i campioni, misurerà con lo stesso difetto le stesse cose.
Se il test dice che 480, 580, Vega56 e Vega64 consumano nun fottìo di più in tuttii casi in cui sono provate, inutile che ti arrampichi sugli specchi e cerchi di inventarti cose per dire che ma, forse, non si sa, nel caso che, magari.
Piantala di trovare scuse.


e poi se doom era solo in AC maxwell andava in errore, renditi conto.
su AoTS hanno dovuto disabilitare il codice AC e farne uno solo per maxwell/pascal e la gente continua a leggere che AoTS è il test per provare le DX12... tzè

E poi

ma... ci sei o ci fai?
non c'è un gioco che gira realmente in AC.
non li fanno perchè sennò gli tocca fare lo stesso gioco anche senza AC perchè le vecchie nvidia non girano con AC.
ma quando vedi un gioco con cui puoi giocare sia in DX12 che DX11 tu che credi che attivino AC?
bene, sbagli a pensarla in questo modo.
la differenza tra DX11 e DX12 è che oggi quando sfruttano le DX12 usano le DX11.3, non il computo asincrono, ma solo il computo sincrono con la possibilità di usare fino a 8 thread (e non grafici, ma quelli accessori).

Allora questo AC c'è o non c'è?
Se non c'è mai stato come fai adire quanto meglio funziona?
Hai il cervello disconnesso con la realtà o tu proprio vivi in un mondo a parte tutto tuo dove ti inventi cause ed effetti?

Di giochi con AC ne sono usciti.
Hitman è stato uno dei primi e c'era una intervista ai programmatori che hanno detto che supportarlo e tunarlo pe le varie schede, che non hanno tutte le stesse capacità AC anche nel mondo AMD, è un gran lavoro.
Il risultato è che su Maxwell le prestazioni tra la versione DX11 (senza AC dunque) e quella DX12 con AC calavano di 1 o 2 punti percentuali. Con Pascal le prestazioni sono leggermente aumentate, senza raggiungere la differenza che c'è con l'architettura AMD.
La quale però in DX11 parte da un livello più baso, per cui questo aumento alla fine in realtà si traduce in pochi punti percentuali in più.
Se prendi in considerazione le risorse usate per aumentare le prestazioni in cassa AMD semplicemente il bilancio è negativo.
Non serve molto a capire la cosa. Eppure ti sbatti come un forsennato per cercare di negare questa cosa.



non ho criticato questo, ma ho criticato te che fai affidamento su quei dati che non sono obbiettivi.
in nessuna review la 580 va quanto una 480, tranne che su the guru 3D...
io mi sarei chiesto perchè.
Io mi chiedo perché siti come Guru3D o TechPowerUp, per non dire Anandtech siano presi dalla comunità internazionale come riferimento per quanto riguarda i test. Guru3D poi ha sempre i risultati relativi alle schede AMD un po' più alti rispetto a tutti gli altri.
Ma lucusta, no. Se il test non dice quello che pensa lui allora il test è invalido. Basta cercare un qualsiasi motivo per dire che il test non è conforme a qualche cosa (e nessun test reale lo è).
Anandtech misura i consumi alla parete. Non vedo cosa questo possa invalidare il test, visto che qualsiasi deriva vale per qualsiasi sistema testato. Ma lucusta riesce anche a fare questo.

questa è l'assoluta obbiettività.
No, quesa è la speranza di un fanboy frustrato che non riesce a vedere i numeri che vorrebbe e parla di embedded, binning e roba inutile quando gli si fa vedere che Vega64, con tutto quel popo' di roba che si porta appresso a malapena supera le prestazioni della 1080.



no.. non girare la frittata.
il problema è a chi è necessario o a chi no...
non è affatto la stessa cosa quando parli poi di costo e consumo.
Ma tu continui con questa cosa che dici del fatto che AMD può andare meglio di nvidia quando si è CPU limited.
Io non ho ancora visto un test a riguardo. DI sicuro in DX11 e CPU limited nvidia bastona AMD di brutto. La controprova in DX12 e AC (ma non hai detto che non c'è in nessun gioco perché sono DX11 emulati?) non l'ho vista.

E qui comincia la festa...

ma lo sai che c'è un delay per farlo, vero?
perchè queste cose avvengono spesso nell'uso normale della CPU, e buttare giù immediatamente la frequenza non è pratico.
non ti chiedo se hai mai letto nel particolare la tecnologia speedstep o pawernow! come funzionano, i loro intervalli di azionamento, ma, grossolanamente, non hai mai visto il comportamento tra i settaggi risparmio energia, bilanciato e prestazioni massime di un OS moderno?... non ti è mai venuta la curiosità di maneggiare nei settaggi avanzati?

questo indica il tuo livello di preparazione base.... e poi vai a dare dell'ignorante agli altri?
Domanda per i neo assunti: dimmi cosa è un thread.
Sospendere un thread non c'entra una maza con il mandare la CPU in basso consumo.
Quando misuri l'occupazione di CPU (cosa che fanno i programmi che monitorano i grafici che vedi e a cui ti appelli) non c'entra nulla la frequenza a cui va la CPU.
Mi sa che quello che sta facendo la figura dell'ignorante non sono io.

Te lo ripeto con parole semplici: il delay con cui tu giocavi all'asilo per trovare il miglior compromesso di CPU preistoriche non c'entra nulla con quanto hai esposto prima contraddicendoti: il megathread al 100%, secondo te l'unico thread che gestisce la GPU, ma deve fermarsi ad attendere che la GPU finisca il lavoro.


e tu dai dell'ignorante a me... :mbe:
Sicuramente ho tutto il diritto di farlo.
Guarda, si questo punto hai detto una caxxata immensa. Torna a studiare i thread e poi vieni qui a spiegarmi come un thread in sospensione possa occupare il core al 100%. CHe esula dalla questione P-State.


calcoli un'altra parte dello stesso o di un'altro frame...
si chiama parallelizzazione ed il frame non lo calcoli sequenzialmente pixel per pixel, ma lo puoi fare in decine di modi differenti.
Eccerto, calcolo qualcosa che viene dopo per diminuire il tempo di quello che mi serve ora... logico.
Lo fai solo se hai delle unità inusate, altrimenti se le hai già occupate a fare il lavoro che ti serv ORA non ti metti a calcolare qualcosa che ti servirà dopo col rischio che ritardi il frame.
Te vivi in un mondo dove la logica la costruisci tu e non si confronta mai con la realtà.


ma chi ti ha detto che possono fare solo quello...
il geometry engine AMD può dedicarsi tranquillamente ad impostare altre ALU per calcolare anche altro: IA, fisica, effetti audio.
sei tu che sostieni che non ce la fanno e che si saturano...
ma per quanto stai esponendo in questa risposta o le mie remore nel crederti...
non è che non mi fido, è che ho proprio capito che non lo sai.
Non hai capito l'esempio. Vedi sopra. Fai dell'altro (e ancora non si capisce perché l'altro debba interrompere il processo grafico che è prioritario in un motore di gioco, la massimo può andare in parallelo, ma diver interromperlo proprio non ha senso ed è questo che nvidia infatti non supporta) solo se hai unità libere. Se per assurdo hai il 100% delle unità impegnate per ogni sub task, al 100%, non ti serve eseguire thread paralleli. E ancora eseguirli parallelamente non implica che debbano interrompersi a vicenda, cosa che AMD supporta ma non è certo indispensabile (anzi) per accorciare i tempi di calcolo.


ma perchè forse funzionano in maniera assai diversa?
in AMD l'unico impiccio è proprio dividere il lavoro sequenziale e UNICO in tante piccole ALU.
quando questo ti viene fornito direttamente dallo sviluppatore, servito su un bel piatto di portata, le ALU mangiano direttamente richieste singole e sputano risultati.
ed è proprio per questo che nvidia non computa AC in HW.
vedi che, sotto sotto, la vera differenza la conosci?
No. E' qui che il fanboy ha estrapolato il concetto di AC portandolo all'estremo per avere una carta da giocare. l'HW nvidia è in grado di eseguire tutti i processi paralleli che vuoi. Il problema è che questi non possono interrompere il thread grafico.
Per cui se il gioco prevede l'interruzione del thread grafico prima di far partire gli altri thread, con nvidia avrai una attesa che su AMD non hai. Se lo fai centinaia di volte al secondo (e ti chiedo ancora perché mai?) allora per nvidia diventa un problema gestire quel tipo di codice.
Ma come detto, passata la sfuriata iniziale in cui l'AC era usato inutilmente per dare ad ogni pixel un thead indipendente, e finito il finanziamento di AMD per far sì che la cosa sembrasse normale, oggi ci sono giochi che usano l'AC che avvantaggiano pure Pascal (che diversamente da Maxwell ha maggiore libertà di schedulazione e non soffre delle continue interruzioni che l'AC comporta).

E qui si sfiora il top!

stai forse parlando della parallelizzazione nel calcolo vettoriale per matrici?
perchè è l'esempio principe della parallelizzazione (se non ti fanno quell'esempio i professori muoiono).
thò, ma sai che credo che la grafica 3D sia vettorizzabile e calcolabile con una matrice, sia nel meshing che nel texturing?
sarà mica che la grafica 3D è il campo in cui la parallelizzazione ha più efficacia di ogni altro campo?

bhè, te lo dico per certo: la grafica 3D è altamente parallelizzabile a diversi livelli.

continua a fare i disegnini in ascii mode e non metterti in bocca parole che nemmeno chi le ha pronunciate ne capiva il senso, grazie.
Noo! Ma che cosa stai dicendo!!!
Non parlo della parallelizzazione delle istruzioni che possono essere eseguite, cosa per cui AMD dovrebbe prendere delle ripetizioni visto che non è capace di far scalare la sua architettura.
Tale esecuzione parallela non risolve problemi indipendenti. Ed è appunto per questo che è altamente o massivamente paralelizzabile.
Sto parlando delle serializzazione delle operazioni della pipeline 3D.
Ma tu non sai cosa è un thread, confondi i thread delle CPU con quelli delle GPU, credi che risolvere un problema di parallelizzazione del codice sia eseguire lo stesso calcolo su più ALU differenti con parametri diversi, e non capisci che mischiare decine di thread che si interrompono continuamente non aumenta la capacità computazionale a meno di non avere una architettura completamente incapace di sfruttare le ALU a disposizione. Che uno dei (tanti) problemi di GCN.


tu mi prendi per fanboy, quando la questione è che sono da 6 anni che nvidia non produce un'architettura logica e con prospettiva.
...
sarò sempre critico con quelle aziende che cercano d'infinocchiare i propri clienti.
...
ecco perchè può sembrare che sono pro AMD.
io sono PRO me stesso, da sempre.
..
sono contro le aziende che cercano di tirarmi il pacco, ed nvidia me ne ha tirati più di uno in 32 anni che acquisto HW PC (mai quanti intel, ma lì il discorso è assai da pesare).
Ti sei descritto perfettamente per quello che sei. Un fanboy che non ha alcuna ragione razionale di preferire una azienda piuttosto che un'altra ma si inventa le scuse per cui una è migliore e l'altra peggiore.


ma chi ti ha detto che azzeri l'overhead?
ma forse ti avrò scritto esattamente il contrario?
ti avro scritto anche che se fai 1 su 1 puoi fare 1
se per fare 2 devi sacrificare anche un'altro 10% ti servirà 2.2, ma ottieni comunque 2 che è più grande di 1....
e che se per fare 1 usi una CPU che può fare 10, ma che ti farà comunque 1 perchè quell'1 è indivisibile, mentre ti sfuma la possibilità di fare anche fosse 5 usando tutte e 10 le possibilità della CPU e che comunque per fare 1 costringi 10 a stare al 100% comunque?...
ti avrò scritto questo?
ti avrò scritto che se dividi 1 su una CPU da 10 non ti serve che la CPU stia al 100%?
non starà al 10%, ma nemmeno al 100% con 9 che si girano i pollici...
sarà al 50%, che è sempre la metà di 100%.
Ma che c'entra la CPU!! Ancora con questa cosa che il limite dell'elaborazione dei thread della GPU è limitato dal numero di thread della CPU! Ma non è vero!!!!!!! La CPU può mandare in esecuzione decine di thread sulla GPU senza alcun problema.


le tue convinzioni son troppo radicate nell'ignoranza, se mi permetti di dirtelo, come lo sono quelle di chi affibbia etichette e che MAI HANNO SCRITTO UN SOLO CONCETTO TECNICO O LOGICO, ma esclusivamente commetini di contorno giusto per essere presenti... di quelli che salti perchè non servono a nulla...
Ascolta, poi pretendi di non essere insultato.
Quello che scrive str0nzate riguardo a come funzioan una GPU e si inventa le teorie perché l'architettura AMD fa cagare e deve essere svenduta nella fascia inferiore rispetto a quella per cui è stata pensata, non sono io.
Diversamente da te io nell'informatica lavoro e non faccio test di roba che non c'entra nulla.
Quanto hai scritto sopra riguardo ai thread, il delay e tutto il resto è esemplare del fatto che tu non sai nulla di come funziona la programmazione ma parli di cose che hai solo letto in qualche libro e pure compreso male.
Ora gira la frittata quanto vuoi, ma non solo l'unico che trova i tuoi interventi stupidi e spesso fuori luogo solo per cercare di portare AMD là dove non può arrivare con le sue forze (si chiama fanatismo).




parli di ieri.
perchè oggi non sembra così piccola e così poco energivora rispetto a prima, pur avendo avuto un passaggio migliorativo di PP.
Parlo di oggi perché la dimensione è dovuta alle nuove funzionalità che AMD implementerà tra 3 anni se va bene (e voglio vedere poi con che consumi e consumo di banda visto quanto già fa schifo oggi con i soli shader).
I TDP che è aumentato di uno sputo è relativo all'uso di tutta la GPU, quindi vedremo i consumi quando veranno usati solo gli sahder nei giochi odierni.


poi, ribadiamolo un'altra volta:
ieri erano piccole perchè il resto è SW, sulla CPU, e capaci poi di fare il lavoro solo in un modo, tanto che ha dovuto propagandare il dio denaro a destra e a manca per farsi fare vestiti adatti.
poco energivora perchè se non ci metti i transistors non consumano... consumerà però la parte computazionale, la CPU, che si deve sobbarcare il lavoro di quei transistors che non ci sono sulla GPU (ed un SW è sempre meno efficiente di un HW).
Da buon fanboy stai ribaltando la frittata.
Quella che ha sovvenzionato motori ad hoc per la propria architettura per farla sembrar meno schifosa di quanto in realtà è, è proprio AMD con i motori di DICE e Bethesda.
Come detto, passata la sbornia iniziale, rimane solo il vantaggio dei motori che arrivano dal mondo console che nvidia con Pascal e probabilmente ancora più con Turing riesce a gestire con poche perdita prestazionale nonostante la mancanza di ottimizzazione.


poi si deve aggiungere che è CPU limited...
E bla bla bla.. certo che quando fa il il 50% in più di frame la possibilità di essere CPU limited prima è abbastanza probabile.
Prima di parlare di scenari assurdi di cui non hai portato un solo esempio, iniziamo col parlare del fatto che i core a 4 e oltre GHz ci sono e che una architettura è capace di sfruttarli perché ha potenza computazionale maggiore mentre l'altra diventa GPU limited molto prima.
Questo è sicuramente un fatto innegabile.
Il resto te lo sei inventato tu girando la frittata e tentando di guardare la cosa per trovare un appiglio che salvi l'architettura AMD
per lo scempio che è (relativamente a quanto fatto alla concorrenza, si intende, che con meno fa molto di più)



si, che nvidia ti spella e AMD no...ecco che ti dicono i prezzi.
i prezzi dicono che una 580 costa meno di una 1060 e va sempre di più, ma il marketing e l'ignoranza generalizzata ti fanno credere il contrario.
e sai cosa vale realmente in questo settore?
prezzo per prestazioni.
invece siamo arrivati al punto che i BM di un tempo sono cresciuti SENZA CRESCERE DI CERVELLO e continuano a prendere tutto per buono, senza una sola critica.
Il prezzo prestazioni è la solita barzelletta che si raccontano i fanboy rossi quando si trovano sui loro forum, dato che è oltre un decennio che le prestazioni assolute stanno sotto.
In questo mercato esistono anche i giocatori che vogliono il maggior numero di frame, senza impazzire con i settaggi, a cui piace il supporto dei giochi al day one e non 6 mesi dopo e i cui PC magari non siano degli aeroporti per quanto riguarda il rumore.
Il prezzo prestazioni migliore in effetti lo hanno le integrate Intel. Sarà per questo che sono così diffuse per giocare.


ora, quando verrà fuori che le uring potranno proficuamente usare AC, che mi verrai a raccontare di tutte le fregnacciate che hai scritto nella tua risposta?
che AC diventerà improvvisamente la panacea di tutti i mali?
a me basta solo aspettare che nvidia si sbottoni descrivendo finemente l'architettura.
L'AC non è la panacea di un bel niente. Le prestazioni lo sono, e anche le risorse che sono usate per raggiungerle. I mm^q e W aggiunti da AMD dimostrano che l'AC non è cosa. Meglio più ALU che danno maggiori prestazioni comunque e non richiedono il lavoro supplementare a programmatore.
E un migliore supporto alle funzionalità AC di AMD non crea nessun problema a Pascal che con o senza funziona bene lo stesso. Semmai sarà l'eventuale adozione delle tecniche RTX o di calcolo della AI di altri algoritmi pesanti tramite tensor a mettere in crisi AMD se non si muove e non mette anche lei le unità dedicate.
Quando e con che risultati (dimensioni e consumi) sono proprio curioso di saperlo.

Il resto neanche lo leggo che tanto hai dimostrato di essere un fanboy che parla di thread senza sapere neanche come funzionano (questa della sospensione che è eseguita solo con l'abbassamento della frequenza dopo un delay rimarrà nella storia), che nega i fatti che non può comprendere e si contraddice per cercare di far passare la teoria attraverso i punti che ha scelto (il megathread è al 100% perché lavora o aspetta la GPU? L'AC c'è e penalizza Maxwell/Pascal o non c'è e non si capisce per quale motivo AMD guadagni prestazioni? Dai su rispondi!)

E rilassati che tanto non cambia nulla: questo turno nvida è avanti 2 giri e per vedere qualcosa si spera di simile devi aspettare il 2019 (con le solite dichiarazioni di intenti) e se ti va bene fine 2019 per vedere i risultati reali (che si presume saranno inferiori al dichiarato, come AMD ci ha abituato.. ma sì, quella che ci prende in giro è nvida).
Poi sappiamo che e faranno cagare come le architetture vecchie il solito tormentone sarà: ma costano meno. Che non gliene frega nulla a nessuno, dato che vendono comunque così poco (nonostante la svendita, ragionaci su questa cosa) che nvidia può fare bellamente quello che vuole. E con Turing siamo alla 4 generazione che fa così.. speriamo che la quinta cambi qualcosa, anche se questa volta parliamo di una rivoluzione vera, non di quella buffonata raccontata prima di vedere Polaris (mamma che figura... ma è sempre nvidia a prenderci in giro con prestazioni maggiori e consumi ridotti ad ogni generazione).

CrapaDiLegno
27-08-2018, 14:15
Aggiungo solo questa alla ta scorribanda fanatica PRO AMD:
dimostrazione la hai per il fatto che non ci sono polaris 10 per portatili.
Con questo è chiaro chele dimostrazioni le fai secondo il tuo desiderio di vedere il mondo come non è mai stato, ovvero con AMD allineata con le proposte della concorrenza.

Ti svelo un piccolissimo segreto che solo qualcuno sa, e di certo non se ne parla nei forum di fanboy rossi che frequenti:
AMD non fa GPU per portatili PERCHE' LA SUA ARCHITETTURA FA SCHIFO E DOVE I CONSUMI CONTANO PERDE A MANI BASSE CONTRO NVIDIA.
Dove può, alza il TDP a manetta e si mete in linea con la concorrenza (ma qualcuno lo sa e preferisce schede efficienti e fresche a schifezze ultrapompate che fanno della forza bruta a suon di W e TFLOPS sprecati il loro punto di forza).

E prima che parli ancora per nulla, Polaris10 era nato proprio per permettere a AMD di rientrare nel mondo dei portatili come da slide AMD, come da confronto con la 950 (eh, già, ma è nvidia quella che ci percula).
E invece tutto da rifare, contro Pascal.
E ora vediamo se AMD è stata colta in contropiede anche con Turing e si deve inventare un Navi2 con unità extra nel 2022.

!fazz
27-08-2018, 14:22
lucusta, CrapaDiLegno
il forum non è un ring

4g

ilario3
28-08-2018, 10:23
lucusta, CrapaDiLegno
il forum non è un ring

4g

Ladies and Gentleman, and the winner isssssssssssss:


:winner:

ilario3
29-08-2018, 09:13
peccato perche', a parte gli insulti, di contenuti tecnici in questa discussione ce ne erano.

Hai ragione, ma scannarsi per dei prodotti per avere solo ragione che uno è meglio dell'altro, manco lavorassero uno per AMD e l'altro per Nvidia, almeno gliela regalassero per fare pubblicità gratuita ad una piuttosto che all'altra. :doh:

JohnWayneBobbit
29-08-2018, 09:31
peccato perche', a parte gli insulti, di contenuti tecnici in questa discussione ce ne erano.

Ma anche no

nickname88
30-08-2018, 21:25
Ma anche no
:asd: quoto

lucusta
31-08-2018, 23:50
Hai ragione, ma scannarsi per dei prodotti per avere solo ragione che uno è meglio dell'altro, manco lavorassero uno per AMD e l'altro per Nvidia, almeno gliela regalassero per fare pubblicità gratuita ad una piuttosto che all'altra. :doh:

ma come?
l'ho pure scritto che le Turing, con tutta probabilità, mi piaceranno ed ho pure scritto il perchè :mbe:
magari nvidia me ne regalasse una (ma a gratis, perchè a quel prezzo se la tengono stretta).

non confondere la tecnologia con il marketing: io non digerisco affatto nvidia per il marketing e, prima, per la tecnologia arretrata.
se un'architettura come Pascal non mi piace non posso certo lodarla perchè è comunque la più potente sul mercato.... ha le sue manchevolezze che, nel periodo in cui è stata presentata, non doveva avere...
pascal non ha nulla di nuovo rispetto a maxwell; va solo di più perchè più grosso.
a me, ad esempio, fa rizzare i peli sul braccio sentire un CBR250RR degli anni '90, ma un cbr1000rr fireball non mi dice nulla... strizzare potenza da un 1000-1100 non ci riescono in molti, farlo da un 250cc a 22.000rpm è un tantino più difficile (e sibilante).

dovresti piuttosto ringraziarmi di aver ammutolito 4 giorni un vero fanboy, accecato e senza criterio! :cool:

CrapaDiLegno
01-09-2018, 02:07
dovresti piuttosto ringraziarmi di aver ammutolito 4 giorni un vero fanboy, accecato e senza criterio! :cool:

Guarda, evitiamo di fare i bambini dell'asilo che tanto hai fatto una figuraccia che chiunque con una minima base di informatica sta ancora ridendo.

Riassumo per farti capire quanto ignorante sei in manteria, nonostante tu venga qui a dire che zittisci gli altri con le tue conoscenze da prima elementare.

1. Secondo te il megathread è l'unico, con l'architettura nvidia, a poter gestire la GPU inviandole comandi.
2 Hai sostenuto che nvidia usa più CPU perché fa fare più lavoro al megathread non avendo le unità ACE.
3. Hai dunque detto che con nvidia servono CPU con frequenze più alte (che annullerebbero i vantaggi della efficienza computazionale della GPU, cosa dimostrata falsa dalle misure di Anadtech a cu iti sei appellato negando che siano misure coerenti o scientificamente certificate.... ovviamente solo perché mostrano che le GPU AMD, con o senza AC, consumano un botto di più delle corrispondenti facendo aumentare a dismisura il consumo di tutto il sistema nonostante le schede nvidia facciano più frame e quindi in teoria spremano di più la CPU, quindi proprio il contrario di quanto sostieni) perché altrimenti il megathread rimane CPU limited.
Sono tutti assunti, sbagliati, ma che possono essere sostenuti se ci fosse un ragionamento coerente dietro a spiegare le cose.

Invece per farlo ti sei inventato cose che non esistono da nessuna parte.
1. Hai sostenuto che il thread che invia i comandi alla GPU poi deve aspettare che questa finisca il lavoro per continuare. A parte il fatto che non è una cosa necessaria, ma il lavoro può essere svolto in maniera asincrona, con la CPU che deve preoccuparsi solo di sincronizzare l'elaborazione del risultato proveniente dalla GPU, la cosa contraddice il fatto che il mega thread risulti occupare il core al 100%
2. Per negare la contraddizione hai escogitato la questione del delay per mettere la CPU in basso consumo, che non ha nulla a che fare con il mettere un thread in sospensione in attesa dell'arrivo dell'interrupt dalla GPU che segnala la fine del lavoro (oddio ha detto interrupt, aspetta che guardo su wikipedia come funzionano e come si usano così posso scrivere un'altro papiro di sciocchezze che lo azzittiscono!). Una cosa ridicola solo da dire, figuriamoci esporla come dimostrazione del funzionamento di qualcosa che ci si è inventato di sana pianta.
Un thread che viene sospeso non può occupare il core su cui gira al 100%. E' una semplice questione di logica di funzionamento dei thread. La base del funzionamento di un OS. Cosa che evidentemente hai studiato su wikipedia e di cui non hai capito nulla.

Quindi o il megathread è super impegnato a inviare continuamente comandi alla GPU per tenerla occupata e non aspetta la GPU (cosa possibile, ma va contro quanto hai detto che la CPU deve attenere la fine del lavoro per continuare e siccome secondo te nvidia usa un thread solo per pilotare la GPU questo è il motivo per cui deve girare a velocità supersoniche), oppure se messo in sospensione non raggiungerà l'occupazione del 100% come secondo mostrano le statistiche d'uso necessitando perciò frequenze elevatissime per andare oltre.

Insomma, ti sei inventato una teoria, che potrebbe essere plausibile, ma te la sei dimostrata con argomenti da puro ignorante della materia. E sei convinto di saperne più degli altri, al punto di vantarti di averli azzittiti.

Direi che è il momento che mi azittisca per davvero, perché siamo al ridicolo puro.
Mi è stato segnalato che sei lo stesso spammer dell'altro forum italiano, quello frequentato dai bambini isterici cui piace leggere più di videogiochi che di tecnologia vera (e infatti il sito si sta trasformando in un sito di recensione di videogiochi e poco altro a vedere solo i titoli). Ti consiglio di rimanere là a propagandare le tue teorie pro AMD senza capo né coda.
Lascia questo forum a chi qualcosa la capisce, che uno dovrebbe bastarti e avanzarti come vetrina per sfogarti delle tue frustrazioni da fanatico che non troverà pace finché non vedrà quella maledetta barretta rossa sopra quella verde, dopo 12 anni di agonia.
Quando questo avverrà, e nel contempo nvidia sarà costretta ad abbassare i prezzi, forse saremo nelle condizioni per cui AMD è riuscita a produrre un prodotto decente. Per ora, buio pesto sia qui che in fondo al tunnel di cui non si vede la fine (e forse con Turing si è pure allungato).

Ora continua pure ad azzittirmi che mi diverti assai con queste tue perle di saggezza

Ma anche no
Hai perfettamente ragione. Non si riesce nemmeno a passare al livello 1 di approfondimento tecnico quando uno crede che la sospensione dei thread equivale a mettere la CPU a basso consumo e che questo quindi comporta un delay al processo e per tanto l'occupazione rimane al 100% :muro:
Se poi tutto il discordo è incentrato per dimostrare che con l'AC e le DX12 una GPU di 480mm^2, 300W con HBM2 (quindi dal "costo irrisorio", sia tecnologico che economico) riesce a superare una da 317mm^2, 180W e GDDR5X, pretendendo pure di dire che quest'ultima è meno efficiente perché carica di più la CPU (per i motivi detti sopra) e che l'AC è la cosa migliore dopo il pane affettato (cit. anglosassone), be', sì, non c'è nulla di tecnico ma solo barzellette.

@fazz
Non mi sembrava che ci fossero gli estremi per un ban, però se vuoi mantenere la discussione a livello infantile, permettendo a un non-so-chi che si vanta di conoscenze supreme, pur non sapendo come funziona un semplice thread, e si crea teorie su come questi vengono gestiti su CPU e GPU su un forum tecnico, solo per cercare di dimostrare che AMD è meglio anche quando perde 3 a 0 (e tra un mesetrto 4 a zero), per me non ci sono problemi.

bagnino89
01-09-2018, 10:30
Mi è stato segnalato che sei lo stesso spammer dell'altro forum italiano, quello frequentato dai bambini isterici cui piace leggere più di videogiochi che di tecnologia vera (e infatti il sito si sta trasformando in un sito di recensione di videogiochi e poco altro a vedere solo i titoli). Ti consiglio di rimanere là a propagandare le tue teorie pro AMD senza capo né coda.

Tranquillo, di là si lascia andare come non mai con le sue perle :asd:

nickname88
01-09-2018, 14:58
ma come?
l'ho pure scritto che le Turing, con tutta probabilità, mi piaceranno ed ho pure scritto il perchè :mbe:

:rolleyes:

lucusta
01-09-2018, 22:09
fazz, intervieni tu o devo mettermi io a bastonare questi cialtroni?

!fazz
02-09-2018, 06:51
lucusta,CrapaDiLegno
vedo che non ci siamo capiti

14g

Alodesign
03-09-2018, 09:47
Ma secondo voi, poi aspettiamo le recensioni, questi livelli "normali" di risultati sugli FPS con attivo il RT è dovuto a problemi HW quindi risolvibili nelle prossime generazioni, SW o FW quindi nei prossimi mesi?

AceGranger
03-09-2018, 10:06
Ma secondo voi, poi aspettiamo le recensioni, questi livelli "normali" di risultati sugli FPS con attivo il RT è dovuto a problemi HW quindi risolvibili nelle prossime generazioni, SW o FW quindi nei prossimi mesi?

quelli di DICE hanno detto che quello visto ora era in sostanza un'alpha, perchè hanno ricevuto le GPU solo 2 settimane prima; dalle prove fatte hanno gia detto che ci sono ampi margini di miglioramento, devono solo avere il tempo di farlo e scoprire altri metodi per ottimizzare le impostazioni.

nickname88
03-09-2018, 10:10
Ma anche se non andasse bene su BF vorrà dire che utilizzerai le nuove componenti con il DLSS o anche il RT stesso ma su giochi più leggeri.

Alodesign
03-09-2018, 10:53
quelli di DICE hanno detto che quello visto ora era in sostanza un'alpha, perchè hanno ricevuto le GPU solo 2 settimane prima; dalle prove fatte hanno gia detto che ci sono ampi margini di miglioramento, devono solo avere il tempo di farlo e scoprire altri metodi per ottimizzare le impostazioni.

Quindi è più legato ai SW che all'HW. La potenza che già offrono andrebbe bene con i giusti accorgimenti e migliorie.

AceGranger
03-09-2018, 11:12
Quindi è più legato ai SW che all'HW. La potenza che già offrono andrebbe bene con i giusti accorgimenti e migliorie.

si, gli sviluppatori devono capire solo come usare correttamente gli RT core e a come riorganizzare il gioco per far lavorare al meglio l'RT.