PDA

View Full Version : Le GPU AMD Vega a 7nm in test interno: debutto nel 2018


Redazione di Hardware Upg
27-04-2018, 08:41
Link alla notizia: https://pro.hwupgrade.it/news/server-workstation/le-gpu-amd-vega-a-7nm-in-test-interno-debutto-nel-2018_75588.html

Lisa Su, CEO di AMD, conferma che le GPU Vega a 7 nanometri sono in test interno all'azienda: debutto di mercato nella seconda metà dell'anno, in prodotti della famiglia Radeon Instinct

Click sul link per visualizzare la notizia.

Gyammy85
27-04-2018, 08:52
Ottima notizia, sarebbe fantastico se la ventilata serie 600 fosse a 7 nm :cool:
Vega a 7 nm coprirebbe egregiamente la fascia 1080ti/1180 eliminando i problemi del 14 nm, per arrivare alla nuova fascia uber nel 2019 con navi :cool:

tarabas2
27-04-2018, 09:08
Probabilmente non hai letto con attenzione, xchè la notizia non parla dell'implementazione di Vega 7nm in ambito gaming. Spero anche io che lo sarà ma al momento sarà dedicata a compiti di intelligenza artificiale e machine learning all'interno dei datacenter.

Gyammy85
27-04-2018, 09:20
Probabilmente non hai letto con attenzione, xchè la notizia non parla dell'implementazione di Vega 7nm in ambito gaming. Spero anche io che lo sarà ma al momento sarà dedicata a compiti di intelligenza artificiale e machine learning all'interno dei datacenter.

Lo so, ma dato che si era parlato della serie 600 nella seconda metà del 2018, i tempi sarebbero realistici, calcola che se già ora hanno una instinct fatta finita e funzionante, nel giro di qualche mese potrebbero rinnovare l'intera gamma compresa la gaming...l'anno scorso dalla instinct alla rx passarono circa 6 mesi, ora che l'architettura è rodata anche meno.

Gyammy85
27-04-2018, 09:40
quanto va la 1180?

Il 30% in meno della titan v, ovvero il 10% in più della 1080ti. :D

nickname88
27-04-2018, 09:43
Il 30% in meno della titan v, ovvero il 10% in più della 1080ti. :D
Si vabbè, vedo che pensi ancora di avere la sfera di cristallo.
Senza contare che in teoria quello sarebbe l'andazzo della 1170 semmai.

Gyammy85
27-04-2018, 09:44
Era per dire, sostituite 1180 con qualsiasi altro numero che vi aggrada :O

nickname88
27-04-2018, 09:48
Era per dire, sostituite 1180 con qualsiasi altro numero che vi aggrada :O
Non centra nulla l'aggradamento.

Da quando esiste questa classificazione, nelle nuove serie la 70 è sempre andata più o meno quanto la Ti della precedente generazione, questo è ciò che si ci aspetta, se andrà sotto le aspettative, provvederanno a cloccarle adeguatamente. Vedendo il TDP del competitor dubito che vi siano troppi problemi ad accrescerlo nel caso ve ne sia bisogno.

Ti ricordo inoltre che non necessariamente parliamo di un die shrink, potrebbero essere ottimizzazioni nell'architettura.

nickname88
27-04-2018, 10:03
Lisa Su, CEO di AMD, conferma che le GPU Vega a 7 nanometri sono in test interno all'azienda: debutto di mercato nella seconda metà dell'anno, in prodotti della famiglia Radeon Instinct

Considerazione per il giocatore zero quindi.
Solo lato enterprise quindi.

Gyammy85
27-04-2018, 10:04
Non centra nulla l'aggradamento.

Da quando esiste questa classificazione, nelle nuove serie la 70 è sempre andata più o meno quanto la Ti della precedente generazione, questo è ciò che si ci aspetta, se andrà sotto le aspettative, provvederanno a cloccarle adeguatamente. Vedendo il TDP del competitor dubito che vi siano troppi problemi ad accrescerlo nel caso ve ne sia bisogno.

Ti ricordo inoltre che non necessariamente parliamo di un die shrink, potrebbero essere ottimizzazioni nell'architettura.

Col passaggio da kepler a maxwell ci fu un radicale cambio di architettura, eliminando tutti quei problemi che avevano 780 e titan che in certi casi andavano quanto una 7970. Da maxwell a pascal c'è stato lo shrink e incremento di frequenza, per cui in assenza di un radicale cambio lato software del parco titoli l'aumento è stato lineare.
Qui invece abbiamo un'architettura così così, molto costosa, senza particolari punti di forza neanche lato pro, a meno di non usare i tensor cores.
Aggiungici pure che le titan e le ti sono tradizionalmente appaiate come prestazioni, ovvio che limeranno tutto ma siamo lì.

tarabas2
27-04-2018, 10:06
Da quanto ho potuto leggere da diversi siti specializzati la 1180 andrà intorno al 10-12% in più rispetto alla 1080ti in 2K. Cmq è da tener presente che la prossima generazione Nvidia è a 12nm mentre x Amd è 7nm credo che si possa colmare la differenza prestazionale rimanendo nella stessa fascia di Tdp.

Gyammy85
27-04-2018, 10:09
Da quanto ho potuto leggere da diversi siti specializzati la 1180 andrà intorno al 10-12% in più rispetto alla 1080ti in 2K. Cmq è da tener presente che la prossima generazione Nvidia è a 12nm mentre x Amd è 7nm credo che si possa colmare la differenza prestazionale rimanendo nella stessa fascia di Tdp.

Appunto, come ho ripetuto in diverse occasioni basta guardare le prestazioni della titan v.

nickname88
27-04-2018, 10:28
Col passaggio da kepler a maxwell ci fu un radicale cambio di architettura, eliminando tutti quei problemi che avevano 780 e titan che in certi casi andavano quanto una 7970. Da maxwell a pascal c'è stato lo shrink e incremento di frequenza, per cui in assenza di un radicale cambio lato software del parco titoli l'aumento è stato lineare.
Qui invece abbiamo un'architettura così così, molto costosa, senza particolari punti di forza neanche lato pro, a meno di non usare i tensor cores.
Aggiungici pure che le titan e le ti sono tradizionalmente appaiate come prestazioni, ovvio che limeranno tutto ma siamo lì.Con Maxwell oltre all'architettura c'è stato un aumento della dimensione del die netta.
Inoltre con Maxwell non vi era un nuovo PP, mentre ora ci sono i 12nm che anche se non contribuisce alla densità di sicuro è più efficiente in tema di consumi e frequenze e la Titan V lo dimostra.

La Ti e la Titan V non sono appaiate, c'è una differenza inferiore a quanto previsto ma il motivo non deve necessariamente essere quello che dici tu.

Inoltre come tu hai appena affermato il problema è riposto solo nella Titan V, se la nuova 1180 prenderà come base la 1080Ti, non vedo cosa centri tutto ciò.

Gyammy85
27-04-2018, 10:34
Con Maxwell oltre all'architettura c'è stato un aumento della dimensione del die netta.
Inoltre con Maxwell non vi era un nuovo PP, mentre ora ci sono i 12nm che anche se non contribuisce alla densità di sicuro è più efficiente in tema di consumi e frequenze e la Titan V lo dimostra.

La Ti e la Titan V non sono appaiate, c'è una differenza inferiore a quanto previsto ma il motivo non deve necessariamente essere quello che dici tu.

Inoltre come tu hai appena affermato il problema è riposto solo nella Titan V, se la nuova 1180 prenderà come base la 1080Ti, non vedo cosa centri tutto ciò.

Intendevo allineate a parità di generazione, ovvio che la titan v sia su un altro livello rispetto alla 1080ti dato che dovrà confrontarsi con la 1180ti.

al135
27-04-2018, 11:56
quanto va la 1180?

stimato un 35-40 % della 1080

al135
27-04-2018, 11:59
dalla 980ti alla 1080ti ho avuto un discreto 40% di performance in 2k
quindi spero di ottenere con la 1180 un altro 40 o maggiore vista la spinta necessaria per il vr (si vocifera un 50)

lucusta
27-04-2018, 12:43
Probabilmente non hai letto con attenzione, xchè la notizia non parla dell'implementazione di Vega 7nm in ambito gaming. Spero anche io che lo sarà ma al momento sarà dedicata a compiti di intelligenza artificiale e machine learning all'interno dei datacenter.

Vega senza il ramo gaming diverrebbe un chip troppo costoso.
la questione di quel chip è che un PRO che abbassa il costo grazie alla produzione per il gaming.
sarebbe quasi insensato cambiare i piani di adozione, oltre al fatto che non faresti più i chip a 14nm e non avresti più una serie gaming...

lucusta
27-04-2018, 12:45
Si vabbè, vedo che pensi ancora di avere la sfera di cristallo.
Senza contare che in teoria quello sarebbe l'andazzo della 1170 semmai.

tu ne stai usando 2, però.:mc:
c'è ancora tanto tempo prima di parlarne...

lucusta
27-04-2018, 12:47
Considerazione per il giocatore zero quindi.
Solo lato enterprise quindi.

anche l'attuale Vega è espressamente lato enterprise, IA, HPC...
ma c'è pure chi ci gioca...:rolleyes:

lucusta
27-04-2018, 12:49
Non centra nulla l'aggradamento.

Da quando esiste questa classificazione, nelle nuove serie la 70 è sempre andata più o meno quanto la Ti della precedente generazione, questo è ciò che si ci aspetta, se andrà sotto le aspettative, provvederanno a cloccarle adeguatamente. Vedendo il TDP del competitor dubito che vi siano troppi problemi ad accrescerlo nel caso ve ne sia bisogno.

Ti ricordo inoltre che non necessariamente parliamo di un die shrink, potrebbero essere ottimizzazioni nell'architettura.

legge universale con dimostrazione scientifica o solo condizione per cui era opportuno, meglio o facile fare così?
in questo campo l'abitudine non è legge ed il trend non è mai rispettato... non c'è obbligo ma aspettative :O

lucusta
27-04-2018, 12:56
Da quanto ho potuto leggere da diversi siti specializzati la 1180 andrà intorno al 10-12% in più rispetto alla 1080ti in 2K. Cmq è da tener presente che la prossima generazione Nvidia è a 12nm mentre x Amd è 7nm credo che si possa colmare la differenza prestazionale rimanendo nella stessa fascia di Tdp.

l'indiscrezione è di Wccftech e tutti i siti specializzati l'hanno riportata pari pari.
è quindi un leak che è diventato news con autoreferenziazione...
hype, insomma.
di sicuro c'è assai poco.
solo speculazioni, più o meno guidate dal trend tecnologico a cui siamo abituati, ma che non garantisce realmente nulla.
più news, da più fonti, diversificate, possono anche darti un'indicazione; una sola fonte che si ramifica in mille articoli rimane pur sempre una fonte sola, su cui devi poi accertarti sulla serietà di chi la produce...
e wccftech ne spara a valanghe, e i suoi leak originali (e non ripresi da altri siti) sono assai scadenti.

tra l'altro mi hanno messo in moderazione (i miei post devono essere prima visionati da un moderatore), proprio dopo aver scritto tale osservazione: la news è originaria di Wccftech e puoi riprodurla 1000 e 1000 volte, ma se non ha riscontro con altre indiscrezioni, rimane una palla.
a dire 1000 palle, statisticamente una ne azzecchi e acquisti credibilità vantandone a profusione...

lucusta
27-04-2018, 13:03
Con Maxwell oltre all'architettura c'è stato un aumento della dimensione del die netta.
Inoltre con Maxwell non vi era un nuovo PP, mentre ora ci sono i 12nm che anche se non contribuisce alla densità di sicuro è più efficiente in tema di consumi e frequenze e la Titan V lo dimostra.

La Ti e la Titan V non sono appaiate, c'è una differenza inferiore a quanto previsto ma il motivo non deve necessariamente essere quello che dici tu.

Inoltre come tu hai appena affermato il problema è riposto solo nella Titan V, se la nuova 1180 prenderà come base la 1080Ti, non vedo cosa centri tutto ciò.

una dimensione del die netta...
hanno semplicemente aumentato i cudacore chiamando le schede con la denominazione inferiore.
la 980 ne conta 2048, la 1070 1920...
la 980Ti 2816, la 1080 2540...
la 960 ne conta 1280 e la 970 1664, contro i 1280/1152 della 1060 6 o 3 GB.
hanno ingrassato i chip e aumentato la frequenza.
il die shrink ha permesso solo di fare chip più piccoli, dando la possibilità di mettere più cuda core, ma in finale pagavi lo stesso prezzo/prestazioni (la 1070 è stata presentata con un prezzo assai vicino a quanto fu presentata la 980, ma almeno quest'ultima, dopo un pò, è scesa)...

non mi far essere puntiglioso, per cortesia.
di le cose come sono, non come le vuoi farle sembrare.

c'è stato un salto da 28nm planari a 16nm FF... uno zompo del genere non si presenterà più, in futuro.

nickname88
27-04-2018, 13:03
anche l'attuale Vega è espressamente lato enterprise, IA, HPC...
ma c'è pure chi ci gioca...:rolleyes:
La Vega 64 è della famiglia Radeon, quindi è espressamente realizzata per il gioco.

lucusta
27-04-2018, 13:07
La Vega 64 è della famiglia Radeon, quindi è espressamente realizzata per il gioco.

I DRIVER!
il PBC ed il chip sono identici alla versione PRO.

nickname88
27-04-2018, 13:08
legge universale con dimostrazione scientifica o solo condizione per cui era opportuno, meglio o facile fare così?
in questo campo l'abitudine non è legge ed il trend non è mai rispettato... non c'è obbligo ma aspettative :ONo è strategia di mercato di Nvidia, non è obbligatorio rispettarla ma di certo se parliamo di probabilità così dovrebbe essere, poi nel pratico non lo sappiamo. I rumors poi sono rumors quindi nulla di ufficiale. Nè esiste nulla di ufficiale riguardo le novità di questo Turing ( o come decidano di chiamarlo ).

una dimensione del die netta...
hanno semplicemente aumentato i cudacore chiamando le schede con la denominazione inferiore.
la 980 ne conta 2048, la 1070 1920...
la 980Ti 2816, la 1080 2540...

Veramente si parlava da Kepler a Maxwell, non da Maxwell a Pascal.
Anzi con Pascal siamo ritornati ad avere chip di piccola dimensione sia per la 80 liscia che per la Ti ( per riservarsi il margine necessario a rifare la stessa mossa effettuata con Maxwell ).

Maxwell con la 980 aveva un chip da 400mmq, la 1080 con Pascal invece non ha sfruttato appieno il PP, ma si è tenuta un margine sfornando un chip del 25% più piccolo.

lucusta
27-04-2018, 13:14
la vera questione è che se c'è un Vega (20?) a 7nm per fine 2018, e si parla di Navi ad inizio 2019...
l'ordine temporale non va.
o son chip diversi, e navi dovrebbe essere una soluzione indirizzata principalmente al mercato HPC (forse con un'occhio alla fascia high end gaming) e quindi questo Vega 7nm è solo un temporaneo miglioramento della linea commerciale che è già in essere oggi (gaming e pro), o i tempi sono assai stretti per immaginare un giusto rientro di soldi anche solo per ripagare l'R&D di un die shrink.

quindi o vega 7nm è più vicina, o navi è ben oltre la fine del 2019.. a metà 2020.

lucusta
27-04-2018, 13:17
Maxwell con la 980 aveva un chip da 400mmq, la 1080 con Pascal invece non ha sfruttato appieno il PP, ma si è tenuta un margine sfornando un chip del 25% più piccolo.

non sò, volevi il chippone da 800mm^2 direttamente sui Pascal?
non è che potevi tirare troppo su l'asticella (ed infatti si è notato: nessuna soluzione 4K@60fps uberultra).

tuttodigitale
27-04-2018, 13:18
Vedremo questi prodotti al debutto presumibilmente nella seconda metà dell'anno; per le proposte Navi di prossima generazione bisognerà attendere ancora del tempo, presumibilmente sino ai primi del 2019.
è ottimistico a dir poco. Con Navi ci sarà il debutto delle HBM3, e per queste memorie si dice che debutteranno nel 2020, se pensiamo che il ritardo di VEGA11 sta proprio nella scarsa disponibilità delle HBM2, è altamente improbabile che vedremo qualcosa nel 2019 figuriamoci nei primi mesi dell'anno.

Invece, facciamo un passo indietro, NAVI è stato posticipato, e la revisione di VEGA su 12nm cancellata. A loro posto AMD ha deciso di shrinkare VEGA sui 7nm.

nickname88
27-04-2018, 13:23
non sò, volevi il chippone da 800mm^2 direttamente sui Pascal?
non è che potevi tirare troppo su l'asticella (ed infatti si è notato: nessuna soluzione 4K@60fps uberultra).Per sfruttare appieno un die shrink rispetto al precedente, il nuovo chip lo fai della stessa dimensione e sfrutti le unità extra in più.
Nvidia invece semplicemente si è tenuta un margine per rifare la stessa mossa del passato.
La differenza è che ora la situazione è migliore, visto che i 12nm sono un PP che offre comunque dei vantaggi.

tuttodigitale
27-04-2018, 13:28
c'è stato un salto da 28nm planari a 16nm FF... uno zompo del genere non si presenterà più, in futuro.
a parte il fatto che i 16nm FF, sono ed erano noti come 20nm FINFET, e questo la dice lunga sul livello di integrazione. Ci si attende un salto di prestazioni ancora più grande con il passaggio ai 7nm....

per i 14nm era stato stimato (ed ottenuto) il 20% di clock in più a parità di condizioni, con i 7nm ci si attende anche il 40% di clock in più.
con i 14nm i consumi sono scesi del 35% rispetto ai 28nm, per i 7nm si attende una riduzione del consumo del 60% rispetto ai 14nm....

praticamente VEGA su 7nm in 300W potrebbe
a) avere 4096sp che girano a 2,2GHz
b) avere 10.240sp a 1,6GHz
c) più SP e maggior frequenza di clock rispetto a Vega10

tuttodigitale
27-04-2018, 14:00
Per sfruttare appieno un die shrink rispetto al precedente, il nuovo chip lo fai della stessa dimensione e sfrutti le unità extra in più.

GP100 ha le stesse dimensioni del passato, anzi fosse era persino più grande con i suoi 610mmq.


Nvidia invece semplicemente si è tenuta un margine per rifare la stessa mossa del passato.
No, evidentemente per massimizzare la produzione, nvidia ha castrato (ma rendendolo più potente lato gaming) il chippone eliminando l'elaborazione FP64 e FP16 facendo un chip ad hoc, risparmiando circa 140mmq e oltre 3 miliardi di transistor. Questo non toglie che le vecchie generazioni di chip di fascia alta abbiano avuto un die sprecato da componenti non utilizzati.


La differenza è che ora la situazione è migliore, visto che i 12nm sono un PP che offre comunque dei vantaggi.
stiamo parlando di vantaggi di integrazione inferiori al 3%, stando ai numeri resi pubblici da nvidia per GV100 e GP102 (25 milioni di transistor per mmq per entrambi)....ora non mi aspetto vantaggi che vadano oltre il 10% a parità di clock....se ci saranno miglioramenti che vanno oltre questo valore, il grosso deve essere attribuito alle ottimizzazioni fatte e non al PP diverso in sè, imho.


La Ti e la Titan V non sono appaiate, c'è una differenza inferiore a quanto previsto ma il motivo non deve necessariamente essere quello che dici tu
il motivo, è che quella architettura ripropone il solito back-end visto in GP100/GP102. e' lo stesso motivo per cui Fuji/VEGA non scalano le prestazioni come ci si attenderebbe da un numero di SP estremamente più elevato rispetto ai chip Hawaii

Gyammy85
27-04-2018, 14:07
Navi la danno per il 2019, se stanno facendo passi avanti col pp non vedo perché non possano fare la fascia medio alta con vega 7 nm quest'anno e debuttare con navi fra un anno...ma è solo una mia ipotesi, molto più probabile che se faranno un refresh di vega sarà a 12 nm.

calabar
27-04-2018, 15:10
Invece, facciamo un passo indietro, NAVI è stato posticipato, e la revisione di VEGA su 12nm cancellata. A loro posto AMD ha deciso di shrinkare VEGA sui 7nm.
Ma ci sono già notizie su questa roadmap?

Da quel che avevo letto io, Navi dovrebbe essere un sostituto di Polaris (quindi chip piccoli), presumibilmente in uscita nella prima metà del 2019 a 7nm.
Vega avrebbe visto invece un aggiornamento a 12nm per la seconda parte di quest'anno (terzo quadrimestre?), ma alla luce di quanto apparso in questo articolo sembra improbabile. Ho idea che Vega l'abbiano riservata per il mercato del calcolo con uscita a 7nm verso fine anno/inizio anno prossimo, ma nel frattempo potrebbe uscire una versione di Vega meno orientata al calcolo e a 12nm capace di competere meglio in ambito videoludico.

C'è anche un'altra possibilità (sicuramente poco apprezzabile per un videogiocatore), ossia che AMD grazie ai miner venda a sufficienza e quindi abbia deciso di saltare un passaggio per tornare competitiva il prossimo anno.

Considerazione per il giocatore zero quindi.
Solo lato enterprise quindi.
Avevi detto lo stesso quando Nvidia ha fatto uscire Volta solo per il mercato enterprise?

lucusta
27-04-2018, 15:12
è ottimistico a dir poco. Con Navi ci sarà il debutto delle HBM3, e per queste memorie si dice che debutteranno nel 2020, se pensiamo che il ritardo di VEGA11 sta proprio nella scarsa disponibilità delle HBM2, è altamente improbabile che vedremo qualcosa nel 2019 figuriamoci nei primi mesi dell'anno.

Invece, facciamo un passo indietro, NAVI è stato posticipato, e la revisione di VEGA su 12nm cancellata. A loro posto AMD ha deciso di shrinkare VEGA sui 7nm.

si, sembra più omogenea, come logica.

lucusta
27-04-2018, 15:14
a parte il fatto che i 16nm FF, sono ed erano noti come 20nm FINFET, e questo la dice lunga sul livello di integrazione. Ci si attende un salto di prestazioni ancora più grande con il passaggio ai 7nm....

per i 14nm era stato stimato (ed ottenuto) il 20% di clock in più a parità di condizioni, con i 7nm ci si attende anche il 40% di clock in più.
con i 14nm i consumi sono scesi del 35% rispetto ai 28nm, per i 7nm si attende una riduzione del consumo del 60% rispetto ai 14nm....

praticamente VEGA su 7nm in 300W potrebbe
a) avere 4096sp che girano a 2,2GHz
b) avere 10.240sp a 1,6GHz
c) più SP e maggior frequenza di clock rispetto a Vega10

sui 7nm, non sui 12nm...
12nm TMSC è gran poca cosa rispetto al passaggio dai 28nm ai 16nm FF (assimilabili ad un 19 planare).
rispondevo alla questione del fatto della dimensione netta tra maxwell e kepler in confronto a pascal..
oggi pascal contro la prossima non ha lo stesso indice prestazionale accumulato (frequenza, densità e consumo) di quando si è passati da 28 a 16.

lucusta
27-04-2018, 15:43
Navi la danno per il 2019, se stanno facendo passi avanti col pp non vedo perché non possano fare la fascia medio alta con vega 7 nm quest'anno e debuttare con navi fra un anno...ma è solo una mia ipotesi, molto più probabile che se faranno un refresh di vega sarà a 12 nm.

i 12nm GLofo sono per i ryzen.
se AMD non diversifica le linee produttive rimarrà confinata alla ristrettezza della produzione.
quest'anno, tra una cosa e l'altra la questione vera non è che ha fatto un +50/100% o quanto c'è scritto sulla news del resoconto annuale, ma che non ha potuto produrre tutte le CPU e più GPU che i mercati chiedevano a causa dei limiti produttivi (e dei soldi, naturalmente).
è un discorso che ho già affrontato:
non è AMD che si è giovata dei miner, quantomeno non nel complesso.
AMD senza miner avrebbe avuto una prospettiva di vendita tra i 3 e i 4 milioni di GPU con i gamers; con i miner ne ha fatti quasi 5 e praticamente nessun gamers.
il mercato dGPU però è stato di 16.8 milioni contro i 10.8 di un trend in discesa stabile da anni.
all'appello mancano 11.8 milioni di dGPU, fatte da nvidia.
ne ha fatte minimo 1 più di quanto avessero potuto sperare i gamers.
ma la storia l'abbiamo vista tutti: non ci sono state schede video per i giocatori!
nvidia ha prodotto meno di 7 milioni di schede che poi son finite in mano ai gamer.
i 5.8 milioni che non ci sono andate son andate a miner e miner della domenica.
ergo: nvidia ha dato molto di più di AMD a questo settore.
ora, visto che questo settore non s'interessa proprio del marchio che è stampigliato sul chip, ma di quanti soldi produce in cryptovaluta, e che le AMD in questo campo sono apprezzate, AMD avrebbe potuto vendere come minimo più del doppio delle sue GPU già ai soli miner spostando la produzione su TMSC e riempendo quella di glofo unicamente con i Ryzen.
5 milioni di GPU AMD dove il prezzo medio di vendita non supera i 50-70 euro (perchè vega costa per interposer e HBM2, ma il solo chip è massimo un centinaio di euro e poi si deve mediare anche con polaris 11 e 12) e la grandezza media starà oltre 270mm^2?
su Ryzen ci fanno oltre 100 euro a chip di media ed è 213mm^2 con una resa fenomenale...
5 milioni di GPU si trasformavano in altri 6.5 milioni di ryzen, e poteva attaccare ulteriormente Intel vendendo a prezzi ancora più bassi di quelli visti nell'ultimo periodo, aumentando anche il margine di guadagno su singolo chip.... t'immaggini un 1700x venduto al prezzo del 1600x ai prezzi di oggi, ossia a circa 180 euro?
avrebbe steso una lineup di prodotti da 75 a 225 euro, focalizzati soprattutto si 150 euro del 1600x.

quindi c'è stato qualche altra cosa che non ha permesso di fare faville e consentito solo di fare scintille...
si è discusso parecchio sui limiti produttivi di AMD, ma ha comunque versato oltre 400 milioni a GloFo per slegarsi dal contratto di produzione esclusiva (che poi, logicamente doveva comunque trovare il modo di pagargli per fare in modo che anticipasse le linee a 12nm.. senza quei soldi Glofo avrebbe messo quelle line tra un anno).
forse è stato sbagliato pensare di fare lo startup di ryzen anche su TMSC, ed era preferibile faci i chip grafici e non pensare di farci le CPU... ma chi lo ha detto che non hanno fatto anche i test per le GPU?

la questione è che non ha guadagnato per quanto avrebbe potuto fare.. limite del CEO, troppo prudente e che ha pensato a ricoprire il debito invece che tentare di aggredire pesantemente il mercato?
bastoni tra le ruote di qualche altro, che non ha consentito di produrre su TMSC?
non aveva una lira per muoversi?

e chi lo saprà mai...
sta di fatto che ci sono state occasioni e sono state sfruttate a metà e non sempre hai il prodotto giusto per il mercato giusto nel momento giusto.

occasione mancata, insomma...

lucusta
27-04-2018, 15:57
Ma ci sono già notizie su questa roadmap?

Da quel che avevo letto io, Navi dovrebbe essere un sostituto di Polaris (quindi chip piccoli), presumibilmente in uscita nella prima metà del 2019 a 7nm.
Vega avrebbe visto invece un aggiornamento a 12nm per la seconda parte di quest'anno (terzo quadrimestre?), ma alla luce di quanto apparso in questo articolo sembra improbabile. Ho idea che Vega l'abbiano riservata per il mercato del calcolo con uscita a 7nm verso fine anno/inizio anno prossimo, ma nel frattempo potrebbe uscire una versione di Vega meno orientata al calcolo e a 12nm capace di competere meglio in ambito videoludico.

C'è anche un'altra possibilità (sicuramente poco apprezzabile per un videogiocatore), ossia che AMD grazie ai miner venda a sufficienza e quindi abbia deciso di saltare un passaggio per tornare competitiva il prossimo anno.


Avevi detto lo stesso quando Nvidia ha fatto uscire Volta solo per il mercato enterprise?

da quello che si sa navi continuerà ad essere su interposer e potrebbe essere modulare come zen su epyc, quindi più die sullo stesso interposer, più la RAM.
se fosse un chip come Vega (ossia un PRO sfruttabile anche nel gaming), già 24 CU, ossia 1536 SP (Vega mobile, insomma), consentirebbero di avere 94 CU in un complex da 4 die, una GPU gaming di medie prestazioni e una dual tra l'attuale 580 e vega 56, quindi una possibile erede 680.
ma si tratta di multichip...
il mercato videogiochi è pronto per i multichip?
non mi pare... mGPU ancora naviga nell'oblio...
HCCB consentirebbe di usare il slave un'altro chip collegato con IF, ma con quale rendimento?

credo insomma che si debba saltare almeno una generazione per dare il tempo ai giochi di adeguarsi... di entrare in Dx12, perlomeno.

e poi... tutti vanno su vectors processor su HPC; ha senso produrre ancora chip tuttofare?
oltretutto queste cose già sono in vega, solo che non sono sfruttate minimamente.

credo che il 2020 sia l'anno per navi PRO e poi magari portano l'architettura ed il concetto anche su gaming l'anno successivo, se il ray tracing real time ha presa sul pubblico, ma di acqua sotto i ponti ne dovrà passare parecchia.
ecco perchè ci tocca vega 20 a 7nm per almeno un altro paio di anni.

poi chi li capisce è bravo, ma le indicazioni son quelle...

calabar
27-04-2018, 18:36
il mercato videogiochi è pronto per i multichip?
Dubito sia necessario alcun adeguamento, al più qualche ottimizzazione.
Si tratta di un approccio molto diverso da quello multigpu, qui si parla di una soluzione unica composta da più chip che comunicano direttamente tra loro tramite un bus ad alte prestazioni. È trasparente nei processori e ovviamente l'intenzione è che lo sia anche per le schede video.
L'unico dubbio è: saranno in grado di realizzare una soluzione di questo tipo che non castri le prestazioni delle unità di calcolo e non crei problemi di efficienza?

credo che il 2020 sia l'anno per navi PRO e poi magari portano l'architettura ed il concetto anche su gaming l'anno successivo
Che mantengano Vega per il mercato gaming fino al 2021 mi pare abbastanza inverosimile, dato che ha già dimostrato di essere un'architettura che soffre rispetto alla concorrenza. Magari i 7nm potrebbero rivelarsi un processo produttivo adatto a far sopravvivere Vega per un altro giro, ma poi bisognerà tirare fuori qualcosa di meglio.

nickname88
27-04-2018, 20:25
Avevi detto lo stesso quando Nvidia ha fatto uscire Volta solo per il mercato enterprise?Non mi pare che Titan sia un prodotto paragonabile alla serie Instact di AMD che non ha neppure le uscite video.

Inoltre l'architettura Volta non essendo pensata per il gaming, non offre performance superiori a Pascal in questo utilizzo e il PP come detto non porta tangibili vantaggi per richiederne l'adozione visto che la propria serie era ed è ancora davanti.

AMD invece è uscita in ritardo di oltre un anno, e il passaggio ai 7nm oltre al fatto che avverrà sicuramente dopo l'uscita della nuova serie Nvidia, dovrebbe portare un boost importante, l'urgenza di portare la Radeon a questo PP direi che c'è.

calabar
27-04-2018, 22:55
È paragonabilissima, sono due serie che non si rivolgono ai videogiocatori, e quindi per entrambe può essere valida quel tipo di critica.

Insomma, tante parole per dire che ci sono figli e figliastri, e che le tue critiche vanno in un solo senso.

lucusta
28-04-2018, 00:38
Dubito sia necessario alcun adeguamento, al più qualche ottimizzazione.
Si tratta di un approccio molto diverso da quello multigpu, qui si parla di una soluzione unica composta da più chip che comunicano direttamente tra loro tramite un bus ad alte prestazioni. È trasparente nei processori e ovviamente l'intenzione è che lo sia anche per le schede video.
L'unico dubbio è: saranno in grado di realizzare una soluzione di questo tipo che non castri le prestazioni delle unità di calcolo e non crei problemi di efficienza?
no con solo 100GB/s dell'IF implementato ora in Vega.
come minimo dovrebbe triplicare la banda, se non aumentarla ulteriormente.
d'altronde, se ci pensi, un pass trough diretto dal chip HBM2 del chip A vesto gli altri tre chip dividendo i lavori, quindi i dati e quindi la necessità di banda, anche con l'IF da 100 si potrebbe fare... tanto sei a 400GB/s con Vega 56...
1/4 serve il chip A, 1/4 a testa lo mandi per singolo chip... quindi i 300GB/s che devi mandare fuori, in out sorcing, li dividi per 3 e rientri nella dimensione del bus...
essendo poi bidirezionale puoi accogliere la stessa banda in entrata dagli altri chip, con lo stesso giochetto...
ma è cosa assai difficile da gestire.

Che mantengano Vega per il mercato gaming fino al 2021 mi pare abbastanza inverosimile, dato che ha già dimostrato di essere un'architettura che soffre rispetto alla concorrenza. Magari i 7nm potrebbero rivelarsi un processo produttivo adatto a far sopravvivere Vega per un altro giro, ma poi bisognerà tirare fuori qualcosa di meglio.
Vega oggi soffre per problemi di ristrettezza produttiva... non viene binnato affatto.
se hai un vcore a 1.150V e trovi parecchie schede che scendono anche a 0.900V significa che in produzione ci lasci anche la cacca.
messo sulle linee TMSC avresti spazio anche per binnare bene i chip, oltre al fatto che da 14nm GloFo a 7nm TMSC un buon 30% di superficie lo perderesti (e chip più piccoli son anche più facili da fare bene).
dopo i 7nm ci saranno i 7nm++e lo fai campare un'altro anno....
grossomodo si potrebbe fare, ma rimane implicito che il discorso gira solo se riesci a far diventare l'array dei chip trasparente al software, senza troppe perdite di computo nel far viaggiare i dati su tutte le mattonelle che hai messo insieme con la colla.

la cosa non è scontata.
teoricamente è possibile tramite HBCC usando le HBM2 come caches dislocata su bus IF (in pass trough), ma... critico come sistema di architettura...
avrebbe un senso avere HBCC su una soluzione gaming.

di carne ne hanno parecchia sul fuoco..
leggevo ora che vogliono fare anche ryzen 3000 (zen2) sui 7nm nel 2019 solo per server, ma quei volponi di Wccftech, come al solito, non capiscono che epyc è comunque Zen modulare, e se usi un solo Zen hai la linea consumer.
se usi i 7nm per fare epyc, ottimo per abbassare il consumo, come minimo prevedi di usare Zen sui ryzen mobile, da cui poi selezionare i die buoni per i server.
i sistemi portatili non sono meno ghiotti dei server in quanto a prestazioni sul consumo.
per quanto riguarda le GPU è tutto a divenire.... ancora presto per credere di fare speculazioni con un minimo di riscontro.

nickname88
28-04-2018, 10:04
È paragonabilissima
Non mi sembra che la Titan non venga usata anche per uso ludico
Radeon Instinct non puoi.



Quindi dovrei criticare l'esclusività di Volta nel mondo enterprise per cosa ?
Per il PP che non offre vantaggi influenti o per l'architettura che non offre proprio vantaggio nei giochi ?

Il passaggio dai 14nm ai 7nm di Vega invece se permetti dovrebbe fornire un bel boost, o sbaglio ?
Se non vedi la differenza fra le due situazioni ti consiglierei di levare i paraocchi rossi.

calabar
28-04-2018, 11:47
no con solo 100GB/s dell'IF implementato ora in Vega.
come minimo dovrebbe triplicare la banda, se non aumentarla ulteriormente.
Se fosse sufficiente il bus che montano le Vega attuali non ci sarebbe bisogno di lavorare ad un progetto nuovo, no? ;)
Ovviamente, come già ho scritto, la fattibilità del progetto è legata alla capacità di realizzare un sistema che permetta al design MCM di funzionare adeguatamente.

Vega oggi soffre per problemi di ristrettezza produttiva...
Il problema di Vega è che AMD per pareggiare in prestazioni un chip piccolo della concorrenza ha dovuto tirare fuori un bel chippone che non regge il confronto neppure sul lato consumi.
Se è già poco competitivo oggi (e nota bene non sto parlando della convenienza d'acquisto), come potrebbe rimanere tale fino al 2021, con la concorrenza che sicuramente non starà ferma?

Non mi sembra che la Titan non venga usata anche per uso ludico
La Titan è uscita successivamente alle prime implementazioni di NV100, così come le Radeon basate su Vega sono uscite successivamente alle Instinct con lo stesso chip.

Queste Vega a 7nm, supponendo ovviamente che quanto riportato sia vero, usciranno come Radeon Instinct prima, e poi presumibilmente nella serie Radeon come è già successo con la serie attuale.
Quindi di cosa stiamo parlando? Delle tue fantasie che ancora una volta dimostrano che non hai idea di ciò di cui stai parlando?

... consiglierei di levare i paraocchi rossi.
:asd:

nickname88
28-04-2018, 11:51
Queste Vega a 7nm, supponendo ovviamente che quanto riportato sia vero, usciranno come Radeon Instinct prima, e poi presumibilmente nella serie Radeon come è già successo con la serie attuale.
Quindi di cosa stiamo parlando? Delle tue fantasie che ancora una volta dimostrano che non hai idea di ciò di cui stai parlando?

Io questa parte non l'ho ancora letta nell'articolo.

calabar
28-04-2018, 12:14
@nickname88
Non l'hai letta e ovviamente hai supposto il contrario, invece di fare la cosa più ovvia, ossia basarti su quanto già successo per dedurre cosa sia più verosimile. Sarà che per caso dovresti levarti tu i paraocchi? ;)

E la cosa che più fa sorridere è che ti sei messo ad inveire contro AMD basandoti sul nulla mentre se Nvidia decide di far uscire Volta solo per il calcolo deludendo le aspettative dei giocatori che si aspettavano un miglioramento di Pascal, e poi facendo uscire la Titan V a cifre folli, allora non dici nulla.

lucusta
28-04-2018, 12:47
Il problema di Vega è che AMD per pareggiare in prestazioni un chip piccolo della concorrenza ha dovuto tirare fuori un bel chippone che non regge il confronto neppure sul lato consumi.
Se è già poco competitivo oggi (e nota bene non sto parlando della convenienza d'acquisto), come potrebbe rimanere tale fino al 2021, con la concorrenza che sicuramente non starà ferma?

calabar, il chippone è un PRO, e per molti aspetti dovresti confrontarlo con il GP100.
ad oggi, come chippetto singolo e nel panorama software attuale, la metà di quel chip fa solo da zavorra, ma non metterlo comunque, per cortesia, a confronto con una soluzione studiata esclusivamente per un solo specifico ambito, in cui, tra l'altro, hanno anche eliminato parte della logica per spostarla letteralmente altrove (sulla CPU), almeno senza fare le dovute correzioni del caso.
non fare insomma come i classici forumisti con cui stai anche te discutendo per sperare di aprire un pò di più la loro ristretta visuale delle cose.

Vega è così perchè AMD, due anni fa, era in condizione di fare questo tipo di chip: poco binnati, tuttofare e sottosfruttati dal software.

è invece la concorrenza che oggi si trova un chippetto che sforza le CPU all'inverosimile (spostando una buona parte del consumo su questa) e capace di eseguire bene esclusivamente una tipologia di software.

il ritardo tecnologico, in effetti, lo sta avendo nvidia...
vedremo la prossima iterazione cosa proporrà, ma ormai mi son fatto l'idea che ancora non voglia usare le DX12 (troverebbe troppa concorrenza da quel lato, con soluzioni che tu stesso indichi "bel chippone che non regge il confronto neppure sul lato consumi") e ci toccherà subirci un maxwell^3 anche per i prossimi due anni.

è che se nvidia esce con i 12nm a luglio e AMD si butta direttamente sui 7nm anche a febbraio 2019, non credo che poi nvidia possa, dopo soli 6 mesi, rifare tutto da capo.

quindi questo film è ancora tutto da gustare.

nickname88
28-04-2018, 12:52
è invece la concorrenza che oggi si trova un chippetto che sforza le CPU all'inverosimile (spostando una buona parte del consumo su questa) e capace di eseguire bene esclusivamente una tipologia di software.
:asd:
Io mi guarderei qualche videocomparativa con relativa % di utilizzo cpu in relazione al frame rate in-game prima di parlare, anche se poi ho il timore che se non va come vuoi tu ricominceranno le storie di complottismo.

Vega è così perchè AMD, due anni fa, era in condizione di fare questo tipo di chip: poco binnati, tuttofare e sottosfruttati dal software.Se il software non sfrutta determinati componenti è da stupidi inserirli.
Il chippetto tuttofare ? Dove quindi a seconda degli utilizzi ci sono sempre componenti non sfruttati.

tuttodigitale
28-04-2018, 13:56
Ma ci sono già notizie su questa roadmap?

nella roadmap più recente, viene cancellato il refresh a 12nm di Vega, ma appare i 7nm sempre per questa architettura, cosa non prevista inizialmente.


Da quel che avevo letto io, Navi dovrebbe essere un sostituto di Polaris (quindi chip piccoli), presumibilmente in uscita nella prima metà del 2019 a 7nm.
Navi è una "nuova" architettura (l'ho messo tra virgolette perchè probabilmente cambierà poco da VEGA) con la quale debutteranno le HBM3.
Il sostituto di Polaris esiste, ed è VEGA11, probabilmente lo stesso chip che vediamo accoppiato alla CPU Intel...

inoltre, anche se il prossimo VEGA avesse 6144sp, sarebbe comunque un chip di medie dimensioni, visto che i 7nm avranno una densità doppia, senza contare che il ridotto gate-delay offerto dal processo, permette di ridurre gli stadi della pipeline a parità di clock, risparmiando sul numero di transistor totali a parità di SP.


C'è anche un'altra possibilità (sicuramente poco apprezzabile per un videogiocatore), ossia che AMD grazie ai miner venda a sufficienza e quindi abbia deciso di saltare un passaggio per tornare competitiva il prossimo anno.

Dalla successione degli eventi direi che i lavori sui 7nm proseguono meravigliosamente, NAVI e le HBM3 non sono pronti, ma il processo si, e quindi anzichè perdere tempo con un refresh a 12nm, che porterebbe miglioramenti minimi, AMD sta concentrando gli sforzi per sfruttare il nuovo processo il prima possibile, con tecnologia collaudate come l'architettura VEGA e le HBM2.

calabar
28-04-2018, 13:59
Vega è così perchè AMD, due anni fa, era in condizione di fare questo tipo di chip: poco binnati, tuttofare e sottosfruttati dal software.
Non importa perchè Vega sia così, il punto è che essere così la rende poco competitiva nel mercato gaming.
Anche io concordo sul fatto che sia un chip molto avanzato (peccato che se poi non abilitano le caratteristiche via driver... ma vabbè!) e tecnologicamente superiore a quelli Nvidia da diversi punti di vista (non tutti, bada bene), ma a cosa serve essere avanzati se poi non rende quando deve fare ciò per cui è venduto?
Se intendono riproporre Vega a lungo, allora devono revisionarlo per renderlo efficiente sul fronte gaming.

Viste le dimensioni del chip e il ritardo con cui è uscito io, e lo dissi a suo tempo, mi aspettavo che fosse competitivo con la 1080TI, non con la 1080. Ma visto come andava AMD ha dovuto piazzare Vega 64 come avversaria della 1080.

Come queste premesse, pensare che Vega così com'è possa competere fino al 2021 è può essere al più una vana speranza, a meno che con il passaggio ai 7nm non renda così bene da renderlo un chip ad alta frequenza ed efficiente (del resto qualcosa di simile è successo con R600 nella sua declinazione a 55nm RV670), ma in ogni caso non più di un'altra iterazione, non fino al 2021 (ossia a tre anni da ora).

è invece la concorrenza che oggi si trova un chippetto che sforza le CPU all'inverosimile (spostando una buona parte del consumo su questa)
Di questo non ho ancora visto prove, e mi piacerebbe vederne. Ma una prova fatta bene e inconfutabile, perchè se approssimativa e basata su deduzioni non serve a nulla.

tuttodigitale
28-04-2018, 14:29
no con solo 100GB/s dell'IF implementato ora in Vega.....
il problema è sempre quello di dover spartire il carico tra le diverse gpu, alla fine il fatto che vengano replicate le texture nella VRAM non è un grosso problema (a maggior ragione con le HBCC attivo)....una soluzione che mi viene in mente, è quella di avere diversi chip collegati tramite interposer, o tecnologie simili, che si interfacciano ad un altro chip che costituisca il front-end di tutto il pacchetto. Questo, imho è un modo elegante e raffinato per le soluzioni multichip (no-multigpu, visto che di fatto è una singola GPU composta da più chip....e sarebbe gestita come tale :) )


Che mantengano Vega per il mercato gaming fino al 2021 mi pare abbastanza inverosimile, dato che ha già dimostrato di essere un'architettura che soffre rispetto alla concorrenza. Magari i 7nm potrebbero rivelarsi un processo produttivo adatto a far sopravvivere Vega per un altro giro, ma poi bisognerà tirare fuori qualcosa di meglio.
il problema di VEGA non è l'efficienza, come dimostrano le APU da 35W a scendere, e le stesse schede VEGA64 che perdono pochissimo in prestazioni se si imposta il TDP a 165W, la frequenza media passa da 1,5 a 1,35GHz (-10%). Praticamente va considerata l'impostazione di fabbrica un OC.
Il problema di VEGA sono le scarse prestazioni per mmq (anche GP100 soffre di tali problemi nei confronti di GP102).
Tuttavia va considerato che è una architettura che ha caratteristiche uniche nel panorama gaming e non è il suo principale mercato di destinazione

lucusta
28-04-2018, 14:41
:asd:
Io mi guarderei qualche videocomparativa con relativa % di utilizzo cpu in relazione al frame rate in-game prima di parlare, anche se poi ho il timore che se non va come vuoi tu ricominceranno le storie di complottismo.


tu lo faresti su uno dei tanti giochi gimpati game works che sono usciti e stanno uscendo.
hai visto l'ultimo tomb raider?
chè più verde acido sui demo che tette di lara croft.
è per questo che temo che nvidia, anche con le prossime schede, ci propinerà un pascal rivisto e rivisitato ma che non andra ancora in DX12.
stà gimpando i nuovi giochi in uscita a più non posso.


Se il software non sfrutta determinati componenti è da stupidi inserirli.
Il chippetto tuttofare ? Dove quindi a seconda degli utilizzi ci sono sempre componenti non sfruttati.

è una questione di opportunità.
stai valutando un sistema che è nato per altro e lo stai criticando perchè non esegue il lavoro allo stesso modo di uno fatto solo per quella cosa ed congeniato per fare quello in quel determinato periodo di sviluppo software.

critica accettabile finchè non vedi il prezzo: le vega, in realtà, costerebbero pure meno.

se tu pretendi che io acquisti un HW che ha solo le possibilità che tu, produttore, vuoi concedermi e soprattutto mi concederai a tempo, me lo devi far pagare quanto è giusto che sia: ben poco.
ora, nell'immaginario collettivo invece risulta che un chip con il 20-25% di potenza computazionale in meno va di più nei giochi e pur con una discreta produzione lo fanno pagare a peso d'oro per qualche fps in più', quando in molti ambiti nemmeno ci arriva a dare le prestazioni richieste (4K@60fps stabili in setting ultra).
quindi cos'è?
tecnologia o fuffa?
a me pare che sul campo ci sia molta, molta fuffa.
e come esempio possiamo prendere quello che Intel ha cercato di propinarci fino ad un anno fà.
oggi abbiamo almeno il 50% in più di computazione ad un prezzo inferiore.

mi dirai che è la mancata concorrenza?
ti rispondo di si.
quando non ci sono le condizioni per una leale concorrenza son queste le cose che succedono.

sai, oggi tu potresti lamentarti con nvidia chiedendo che i suoi game works venissero usati con criterio ed apertura, perchè domani potresti aver voglia di scegliere un concorrente perchè in quell'occasione giudichi che nvidia ti sta trattando male come cliente.
così ti neghi la scelta di poter scegliere.
è come se domani ti fanno un'auto che va a carburante xyz andando forte e consumando nulla; poi domani, quando molti hanno quell'auto, fanno accordi per distribuire solo carburante xyz ed aumentano del doppio il costo, incastrandoti sulla questione che tu puoi usare solo quel tipo di carburante e, anche non volendo, non hai alternativa.
o vai a piedi o continui a foraggiare questi insetti.

quindi, finchè costa meno e va più o meno uguale, preferisco dare fiducia a chi non condiziona i miei futuri acquisti e mi da anche la libertà che chiedo (anche quella di poter usare una cosa non esclusivamente per quello che è stata concepita).
se sono fortunato e ci sono sufficienti persone che la pensano così, domani non sarò anche io costretto ad acquistare solo quel modello imposto, perchè non c'è più alternativa, non solo concorrenza.

ricorda che il software usa quello che fa fare più soldi allo sviluppatore, non quello che sarebbe più idoneo usare.
è nel DNA umano e si chiama avidità.

tuttodigitale
28-04-2018, 14:43
Se il software non sfrutta determinati componenti è da stupidi inserirli.
Il chippetto tuttofare ? Dove quindi a seconda degli utilizzi ci sono sempre componenti non sfruttati.
come il T&L introdotto da nvidia nelle GeForce, e la logica programmabile in NV20, le DX9 di R300, e lo SM3.0 di NV40, e le DX10 di G80, le DX11 di Evergreen..tutte soluzioni che pagavano al debutto prestazioni per numero di transistor scadenti nei confronti dei predecessori.
Se non offri l'HW che si avvantaggia dell'utilizzo delle FP16 (cosa che avveniva regolarmente con NV40 e G70, e nei giochi PS3 e mai abbandonato nel mobile) e il primitive shader, gli sviluppatori non lo sfrutteranno mai...
è il software che segue l'hardware, non il contrario.

lucusta
28-04-2018, 14:44
Non importa perchè Vega sia così, il punto è che essere così la rende poco competitiva nel mercato gaming.
calabar, stiamo parlando di aria fritta.
è da marzo 2017, più di un anno, che non esiste più un mercato gaming.
i gamer non hanno avuto la possibilità del ricambio generazionale a causa dell'elevato costo.
insomma... un anno di bocce ferme ma comunque un mare di soldi per tutti, che li fa comunque contenti.

io ho avuto l'occasione di trovare una 56 a 375 euro in tempi non sospetti.
ora dimmi, una vega 56, pur con tutti i difetti che annovera, a 375 cosa avrebbe da invidiare ad una 1070 o 1070Ti (tra l'altro uscita apposta per competerci), e se sei fortunato a trovare un buon chip anche a confronto di una 1080 sui nuovi giochi?
e parliamo di periodi in cui era appena uscita.
a distanza di 9 mesi a che prezzi concorrenziali saremmo arrivati oggi?

avremmo potuto trovare una 1070 a 340 euro o anche a meno....
oggi siamo ancora a 100 euro sopra come minimo.

non avendo il polso del riscontro di prezzo reale sul mercato, tutti i discorsi che facciamo sono campati in aria.
io posso fare anche un chip il doppio più grosso del tuo che va uguale, ma se poi lo faccio pagare meno, al cliente cosa importa quanto silicio di bassa qualità ho messo sotto il dissipatore?

ci sono troppe variabili che, purtroppo o per fortuna, la gente comune non considera.
accetto chi non ne capisce nulla e mi viene a comparare la barretta di un benchmark con il costo, ma non quelli che mi si mettono a parlare di mm^2 ed efficienza senza nemmeno aver preso in considerazione quanti altri aspetti produttivi ci sono dietro, decretando la vittoria tecnologica a mente fresca (almeno tu qualcosa l'hai considerata.. io ancora ho presente un articolo sui processi produttivi dei chip grafici linkato su questa testata dove di tutto si parlava all'infuori dei parametri vitali per la produzione dei chip... una marketta da fanboy da far accapponare la pelle).

come scrivi anche tu Vega è un bel pezzo di chip, ma, mettiamola come congiunzione stellare, è nato per altri scopi e non era questo l'universo in cui può dire la sua sui giochi.
in uno in cui la concorrenza non si fa a suon di soldi distribuiti qua e la sarebbe stato diverso, non in questo.

per quanto riguarda prove efficaci per dare suggerimenti giusti al pubblico e ai lettori, vedi le la riga sopra.
non te le faranno mai, finchè non sei tu a pagare.
ho visto una sola prova, e manco completa, in cui facevano vedere una vega 64 a confronto di una 1080 sotto il 2700x ed a confronto di un 8700k (tutto a default), e vega non accusava il colpo tra intel e AMD sulle CPU e rispetto alla 1080 sulla maggiorparte dei pochi giochi testati, fino a che non si prendono giochi gimpati e DX11 fatti proprio per andare male.

uno, fatto male, su 100 reviews lette.
ma perchè? eppure a più di qualcuno potrebbe venir il dubbio e mettere le carte (schede) sul tavolo e capire cosa sta succedendo alla tecnologia che compriamo.

discorso assai lungo quello dei test, ma che sarebbe molto importante fare, perchè è su quei test che poi tutti noi parliamo e ci facciamo un'idea.

lucusta
28-04-2018, 15:14
a questo proposito sto valutando un'idea di business:
test acritici sui giochi con tutti gli HW e in tutti i settaggi disponibili.
analisi tal quali, facendosi pagare dagli appassionati e non dai pusher PR.
facendosi pagare dagli sviluppatori per controllargli lo stato dei lavori su una miriade di configurazioni (debugging finale e test).
rendere il database disponibile a tutti e guadagnare con gli stupidi banner di google.

io produco i numeri, i tool di confronto, il pubblico ne trae le conclusioni.

sempre più convinto che si riuscirebbe a fare soldi così, e senza che nessuno possa criticarti.

nickname88
28-04-2018, 16:56
tu lo faresti su uno dei tanti giochi gimpati game works che sono usciti e stanno uscendo.
hai visto l'ultimo tomb raider?
chè più verde acido sui demo che tette di lara croft.
è per questo che temo che nvidia, anche con le prossime schede, ci propinerà un pascal rivisto e rivisitato ma che non andra ancora in DX12.
stà gimpando i nuovi giochi in uscita a più non posso.
Vabbè non avevo dubbi :asd:


è una questione di opportunità.
stai valutando un sistema che è nato per altro e lo stai criticando perchè non esegue il lavoro allo stesso modo di uno fatto solo per quella cosa ed congeniato per fare quello in quel determinato periodo di sviluppo software.

critica accettabile finchè non vedi il prezzo: le vega, in realtà, costerebbero pure meno.
Che Vega sia nata per altro mi interessa poco, dal momento in cui la butti fuori sotto forma di Radeon per me è un prodotto per giocare e lo confronti con i prodotti rivali SOLO nel gioco.

nickname88
28-04-2018, 17:13
è invece la concorrenza che oggi si trova un chippetto che sforza le CPU all'inverosimile (spostando una buona parte del consumo su questa)


https://www.youtube.com/watch?v=12OLCkmR7xY
https://www.youtube.com/watch?v=lmtiVahyTDc
https://www.youtube.com/watch?v=xwhAKuaf_pE
https://www.youtube.com/watch?v=zMjdkaC1H5o
https://www.youtube.com/watch?v=t_AyKdvr8bo
https://www.youtube.com/watch?v=R7MxohmjuXg
https://www.youtube.com/watch?v=g32GD6Dn8-4

Considerando il frame rate non mi pare affatto che con Nvidia si registri una % di utilizzo CPU molto più elevata rispetto a Vega, anzi generalmente son più o meno sullo stesso piano su tutti i giochi.

E sono video presi da 4 fonti e alcune realizzate con un quad core ( che quindi dovrebbe risentire di più dell'utilizzo ).

Questo "sforzo della CPU inverosimile" io sinceramente non lo vedo, quindi o sono cieco io ... oppure attendo parole di gomblottismo.

Gyammy85
28-04-2018, 18:37
@lucusta condivido il tuo pensiero, all'inizio vega 56 era da prendere a occhi chiusi.
Per il resto...penso che lo stile delle manovre di nvidia sia sotto gli occhi di tutti.
Io ricordo che due anni fa "l'ue4 sarà il primo vero engine nativo dx12", poi si è visto com'è andata, praticamente un engine per indie e multiplay commerciali approssimativo e rigorosamente dx11.

calabar
28-04-2018, 19:25
Praticamente va considerata l'impostazione di fabbrica un OC.
Il problema di VEGA sono le scarse prestazioni per mmq (anche GP100 soffre di tali problemi nei confronti di GP102).
Le due cose non sono così slegate. Il silicio che Vega destina a funzioni non utilizzate nel gioco comunque incidono sui consumi.
Che poi Vega possa essere ben tarata per consumare meno lo sappiamo, ma rimane sempre un po' indietro, e soprattutto perde quel pochino di prestazioni che servono per meglio competere con i più piccoli chip della concorrenza.

PS: grazie anche per le informazioni di prima, mi mancava qualche passaggio.

non avendo il polso del riscontro di prezzo reale sul mercato, tutti i discorsi che facciamo sono campati in aria.
io posso fare anche un chip il doppio più grosso del tuo che va uguale, ma se poi lo faccio pagare meno, al cliente cosa importa quanto silicio di bassa qualità ho messo sotto il dissipatore?
Attenzione: come avevo specificato in precedenza, non sto parlando di convenienza per l'utente finale, ma di sostenibilità di un prodotto per l'azienda nell'arco del tempo.
Vega come sai è un chip grande (e con un interposer ancora più grande), e questo significa chip più difficili da produrre, meno chip per wafer e costi tendenzialmente superiori (dico tendenzialmente perchè qui entrano in gioco tanti fattori come il costo per wafer, la resa, le soglie di tensioni/frequenza che si decide di adottare, ecc...).
Se tu utilizzi per tre anni la stessa soluzione e il concorrente tira fuori chip migliorati, una situazione già difficile non può che peggiorare.

lucusta
28-04-2018, 22:22
il problema è sempre quello di dover spartire il carico tra le diverse gpu, alla fine il fatto che vengano replicate le texture nella VRAM non è un grosso problema (a maggior ragione con le HBCC attivo)....una soluzione che mi viene in mente, è quella di avere diversi chip collegati tramite interposer, o tecnologie simili, che si interfacciano ad un altro chip che costituisca il front-end di tutto il pacchetto. Questo, imho è un modo elegante e raffinato per le soluzioni multichip (no-multigpu, visto che di fatto è una singola GPU composta da più chip....e sarebbe gestita come tale :) )


stai pensando ad un multimodulo con bus esposto.
in pratica puoi selezionare l'engine più adatto da collegare ai moduli di calcolo, e alle memorie...
sarebbe simpatico, ma solo di controller per la comunicazione ti costa un sacco di silicio.
comunque non è una strada da scartare a priori, soprattutto se si pensa a grossi, grossi chip.

lucusta
28-04-2018, 22:32
https://www.youtube.com/watch?v=12OLCkmR7xY
https://www.youtube.com/watch?v=lmtiVahyTDc
https://www.youtube.com/watch?v=xwhAKuaf_pE
https://www.youtube.com/watch?v=zMjdkaC1H5o
https://www.youtube.com/watch?v=t_AyKdvr8bo
https://www.youtube.com/watch?v=R7MxohmjuXg
https://www.youtube.com/watch?v=g32GD6Dn8-4

Considerando il frame rate non mi pare affatto che con Nvidia si registri una % di utilizzo CPU molto più elevata rispetto a Vega, anzi generalmente son più o meno sullo stesso piano su tutti i giochi.

E sono video presi da 4 fonti e alcune realizzate con un quad core ( che quindi dovrebbe risentire di più dell'utilizzo ).

Questo "sforzo della CPU inverosimile" io sinceramente non lo vedo, quindi o sono cieco io ... oppure attendo parole di gomblottismo.

ehm... scusa, ma perchè hai preso solo giochi che vanno bene nell'uso di più core, almeno più di 4?
ma forse qualche battuta che abbiamo avuto in precedenza ti ha fatto capire a cosa servono i multicore e giochi costruiti per usarli?
comunque, lascia stare l'uso di video di influencer YT.
renditi conto, come ti ho già scritto, che questi signori lo fanno per pecunia, perchè con solo gli introiti di YT non ci ripagherebbero nemmeno la metà dell'HW che stanno mettendo alla prova.
hanno la garanzia di un cinese che ti vende una borsa di louis vuitton in un garage di periferia.

nel dettaglio puoi vedere:
primo video:
BF1
7700K@4500mhz
1080ti 68.3fps
vega 64 70fps
max min CPU 1080ti 56/23
max min vega 64 47/17
logicamente poi manca il test con il 7700K a default, che stà a 3.8Ghz in quel tipo di uso.
a quel punto come cambiano gli fps della 1080ti?
no, perchè sai, alle Vega non servono tutti tutti i 4500mhz che fornisce quel processore; ad occhio e croce gli bastano i 3800mhz per avere la stessa occupazione dei core che ha la 1080Ti a 4500mhz.

già solo questo ti fa vedere che i 50-60W in più che succhia vega sono ben bilanciati dai 50-60W che la 1080 Ti richiede in più per una CPU a 4500mhz.
quindi? questa efficienza sbandierata ai quattro venti dove accedenti sta?

la naturale sòla che ti stanno mostrando?
questo video è "1080p at 200% resolution scale", situazione in cui le 1080 Ti perdono molto meno per compressione dati sulle memorie.
un 1080p nativo era chiedere troppo, o un 4K...
mi spieghi perchè io trovo sempre il cavillo che fa scattare la mia mente sospettosa sui "gomblotti" o meglio sullo scoprire gli scacciacani che non sanno lavorare?
e così via.... senza perdere altro tempo, sennò diventa più noioso che interessante.

lucusta
28-04-2018, 22:54
Se tu utilizzi per tre anni la stessa soluzione e il concorrente tira fuori chip migliorati, una situazione già difficile non può che peggiorare.

logico che il ritardo tecnologico lo paghi (ed anche caro), ma parliamo di un'azienda che ha saputo comunque innovare anche nel peggior periodo della sua esistenza...
ad oggi vedo più preoccupante la situazione di nvidia, che sembra voler rimanere ancorata alle DX11, ma che stà perdendo il supporto d'intel per le elevate frequenze necessarie per le sue soluzioni.

guardando gli ultimi prodotti usciti, l'overclock delle CPU non paga più così tanto (quantomeno non porta gli stessi vantaggi bilanciati da sempre più pesanti svantaggi).

@lucusta condivido il tuo pensiero, all'inizio vega 56 era da prendere a occhi chiusi.
anche perchè poi la potevi rivendere usata al doppio del prezzo.. mica siamo scemi ^_^
Per il resto...penso che lo stile delle manovre di nvidia sia sotto gli occhi di tutti.
Io ricordo che due anni fa "l'ue4 sarà il primo vero engine nativo dx12", poi si è visto com'è andata, praticamente un engine per indie e multiplay commerciali approssimativo e rigorosamente dx11.
lo ricordo anche io... sto "aizzando" la figlioletta sui giochi (perchè a differenza dei benpensanti, credo che stimolino molto l'intelletto delle menti giocani, nella giusta misura)...
vedo spesso giochi Ue4, sulla xbox one, ma vedo anche come male sia stato usato, almeno per quella console.

nickname88
29-04-2018, 00:37
ehm... scusa, ma perchè hai preso solo giochi che vanno bene nell'uso di più core, almeno più di 4?
ma forse qualche battuta che abbiamo avuto in precedenza ti ha fatto capire a cosa servono i multicore e giochi costruiti per usarli?
comunque, lascia stare l'uso di video di influencer YT.
renditi conto, come ti ho già scritto, che questi signori lo fanno per pecunia, perchè con solo gli introiti di YT non ci ripagherebbero nemmeno la metà dell'HW che stanno mettendo alla prova.
hanno la garanzia di un cinese che ti vende una borsa di louis vuitton in un garage di periferia.

nel dettaglio puoi vedere:
primo video:
BF1
7700K@4500mhz
1080ti 68.3fps
vega 64 70fps
max min CPU 1080ti 56/23
max min vega 64 47/17
logicamente poi manca il test con il 7700K a default, che stà a 3.8Ghz in quel tipo di uso.
a quel punto come cambiano gli fps della 1080ti?
no, perchè sai, alle Vega non servono tutti tutti i 4500mhz che fornisce quel processore; ad occhio e croce gli bastano i 3800mhz per avere la stessa occupazione dei core che ha la 1080Ti a 4500mhz.

già solo questo ti fa vedere che i 50-60W in più che succhia vega sono ben bilanciati dai 50-60W che la 1080 Ti richiede in più per una CPU a 4500mhz.
quindi? questa efficienza sbandierata ai quattro venti dove accedenti sta?

la naturale sòla che ti stanno mostrando?
questo video è "1080p at 200% resolution scale", situazione in cui le 1080 Ti perdono molto meno per compressione dati sulle memorie.
un 1080p nativo era chiedere troppo, o un 4K...
mi spieghi perchè io trovo sempre il cavillo che fa scattare la mia mente sospettosa sui "gomblotti" o meglio sullo scoprire gli scacciacani che non sanno lavorare?
e così via.... senza perdere altro tempo, sennò diventa più noioso che interessante.C'è sempre la scusa eh :asd:

ad oggi vedo più preoccupante la situazione di nvidia, che sembra voler rimanere ancorata alle DX11, ma che stà perdendo il supporto d'intel per le elevate frequenze necessarie per le sue soluzioni.Quindi se non hai cpu ad alta frequenza le GPU Nvidia non vanno ? PROVALO :asd:

bagnino89
29-04-2018, 09:34
C'è sempre la scusa eh :asd:

Sembra un po' l'atteggiamento di chi non sa che pesci prendere. Che poi il ragionamento di lucusta mi sembra tutt'altro che valido.

1) Il 7700K, a default, in giochi come BF1 non va a 3800 MHz all core, ma a 4400 MHz. A 3800 MHz ci arriva, al limite, all core eseguendo istruzioni AVX, ma non è questo il caso.

2) La differenza min/max dell'occupazione della CPU con le due GPU è talmente piccola che non ha alcun valore statistico. Tra l'altro si basa su due rilevazioni istantanee che sono perturbate da mille fattori: scena elaborata in corso, occupazione della CPU in quel momento, vattelapesca vari, ecc.

3) Continua a non dimostrare che Vega va meglio con CPU a frequenza di lavoro più bassa. Provasse a cercare CPU come i Ryzen o gli 8400, che non possono superare i 4 GHz in alcun modo... Ma non credo che riuscirà a provare la sua tesi. Tra l'altro lui più e più volte parlava di CPU anche a meno di 3 GHz, 3.8 GHz mi sembrano molti di più.

Quindi se non hai cpu ad alta frequenza le GPU Nvidia non vanno ? PROVALO :asd:

Questo è un corollario, in realtà la tesi di lucusta è che le Radeon vanno anche con CPU a meno di 3 GHz (cito a memoria parole sue). Effettivamente l'onere della prova spetta a chi propone una tesi, non spetta agli altri dimostrare che essa sia sbagliata. E' un po' come se io dicessi che ho una Bugatti Chiron in garage: sono io a dover dimostrare adeguatamente di possederla, non sono mica gli altri a potersi sobbarcare la pena di falsificare la mia affermazione. Non avrebbero la possibilità pratica di farlo.

Se poi resta una tesi non verificabile, tutt'al più la si potrà definire congettura, ammesso che abbia un fondo di validità teorica. Se manca anche quest'ultima, allora il termine tecnico che usano gli epistemologi è doxa, ovvero è una semplice opinione. Quindi, nel migliore dei casi, la sua resta una congettura in mancanza di evidenti prove sperimentali.




A seguire alcune clausole per evitare di scatenare inutili putiferi.

PS1. Scuse del tipo "io sono nato ben prima di voi", "seguo HW dagli albori", "sono reduce decorato del Vietnam" ecc. non sono affermazioni valide per sviare dalla richiesta di provare una tesi. Qui l'età ed il nonnismo non hanno alcuna autorità. Così come usare insulti vari. Qui, lucusta, tutti quelli che ti vanno contro - me compreso - lo fanno sul piano tecnico, non personale. Battute e scherni che restano sul piano tecnico ci stanno, sul piano personale no.

PS2. Non so con chi tu mi abbia confuso, ma su Tom's non sono stato assolutamente bannato e il mio account è ancora lì bello attivo. Tra l'altro, per curiosità, ho rieffettuato l'accesso dopo secoli e rimpiango questa scelta perché sono già colpito da newsletter spam. Su Tom's non ho mai risposto ad un tuo post.

PS3. Non hai l'autorità per impormi cosa scrivere o meno sulla mia firma. Se tu sei libero di dire che le Pascal non sono efficienti, anche io lo sono. Adesso non c'è alcun riferimento diretto a te, quindi non hai di che lamentarti.

@lucusta: se ti risulta impossibile rispettare i PS di cui sopra, o proporre prove valide a dimostrare la tua congettura/doxa, puoi tranquillamente ignorare il mio post.

nickname88
29-04-2018, 09:47
Sembra un po' l'atteggiamento di chi non sa che pesci prendere. Che poi il suo ragionamento mi sembra tutt'altro che valido.

In realtà io ho portato un sacco di contenuti, quelli che non han portato proprio nulla sono altri.
Aspettiamo prove da parte tua quindi, possibilmente qualcosa di visibile e reale che non siano solo parole. ;)

2) La differenza min/max dell'occupazione della CPU con le due GPU è talmente piccola che non ha alcun valore statistico. Tra l'altro si basa su due rilevazioni istantanee che sono perturbate da mille fattori: scena elaborata in corso, occupazione della CPU in quel momento, vattelapesca vari, ecc.
Addirittura prima si dice che Nvidia carico all'inverosimile la CPU e ora che i rilevamenti di uso CPU in game non contano ? :asd:

Continui a non dimostrare che Vega va meglio con CPU a frequenza di lavoro più bassaInfatti sto affermando l'inverso :asd:
Non c'è alcuna prova o test a parte discorsi teorici che dimostra che Vega carica la CPU in modo tangibilmente inferiore.
Ti ricordo che le parole di Locusta sono queste : "la concorrenza oggi si trova un chippetto che sforza le CPU all'inverosimile"

Questo è un corollario, in realtà la sua tesi è che le Radeon vanno anche con CPU a meno di 3 GHz.
Sotto i 3Ghz ? Fra le piattaforme da gioco di sicuro non si troveranno mai visto che non esistono modelli che rispondono a tale specifica nemmeno a frequenza stock :asd:

Se una GPU comporta grandi miglioramenti sul carico cpu come tu dici, questo fattore dovrebbe vedersi comunque, non che superata una certa frequenza scompare come per magia :asd: Certe cose le riesce a fare solamente Copperfield.
Per giunta su un quad core la sollecitazione della % di utilizzo è sicuramente più marcata di un octo.

bagnino89
29-04-2018, 10:05
Non mi stavo riferendo a te, ma a lucusta... Ho quotato te ma mi stavo riferendo a lui, non ti stavo dando del lei :asd:

Edita :asd:

nickname88
29-04-2018, 10:13
Non mi stavo riferendo a te, ma a lucusta... Ho quotato te ma mi stavo riferendo a lui, non ti stavo dando del lei :asd:

Edita :asd:
Ah scusi :asd:

lucusta
29-04-2018, 11:03
C'è sempre la scusa eh :asd:
"C'è sempre una scusa, eh :asd:" non lo dovrestri scrivere a me, ma a chi manipola i settaggi per farti vedere quello che vuole.
la ragione per fare un 1080p at 200% resolution scale quale è?
questa è la nota sotto al video:
"NOTE: 1080p at 200% resolution scale = 8 294 400 pixel upscale | 4K Native = 8 294 400 pixels, thus both will have the same relative performance. This is the only way for me to test 4K performance on Vega 64. This is compared against a Stock 1080 Ti both using a 7700k."
cioè, come si può vedere da quest'altro video (del solito YTer):
https://www.youtube.com/watch?v=4PvCBny1zxQ
il tizio ha preso il semiquadro relativo alla 1080Ti di quest'ultimo e ha comparato con un'altra scheda?
non si capisce nemmeno se usano lo stesso OS, figurati a chiedersi se fosse la stessa build, ed a seguire stessi settaggi macchina e software.

Quindi se non hai cpu ad alta frequenza le GPU Nvidia non vanno ? PROVALO :asd:

prendi qualsiasi gioco e moltiplica il valore del benchmark a 4K per 4.
se non è corrispettivo a quello a 1080p significa che c'è un collo di bottiglia dovuto in massima parte alla CPU.
tutte le GPU soffrono questo scaling teorico sulla risoluzione, ma c'è chi ne soffre di più e chi di meno.
http://www.guru3d.com/articles-pages/deus-ex-mankind-divided-pc-graphics-performance-benchmark-review,6.html
prendiamo questa sequenza su un gioco che, più o meno, non modifica i parametri di carico all'aumentare della risoluzione.
e lo vedi da questo in riferimento ad una titan X.

http://www.guru3d.com/index.php?ct=articles&action=file&id=25201

i rapporti tra i diversi settaggi sono sempre gli stessi alle tre risoluzioni.
significa che tra 4K e 1080p la differenza di carico rimane costante.
la prima curva, che si riferisce a 1080p con frame su setting ti riporta 130fps per minimum e 80 per ultra, rapporto 0.62.
la curva più bassa, per il 4K, riporta 33fps ultra 50fps minimum, circa 0.66.

appurato questo andiamo a guardare lo scaling sulla risoluzione:
prendiamo i 33 del 4K ultra e moltiplichiamo per 4 otteniamo 132, non 80.
nella situazione 4K abbiamo che il processore è sicuramente in grado di produrre 33fps e stare dietro alla scheda, visto che come minimo ne può produrre 130 (minimum FHD), e sul processore gravano driver e meshing, con quest'ultimo che non dovrebbe cambiare affatto.
in FHD invece il limite diventa il processore.
la maggiore complessità della scena riduce la possibilità di generare frame.
preso 80 come riferimento massimo delle soluzioni pascal con la titan X, andiamo a guardare la 1080 che ne fa 63.
in quella condizione il processore non ha limitazione, in quanto dimostra che ne può produrre minimo 80.
vai a 4K e la 1080 fa 25fps.
25x4 sono 100fps.
al limite il processore ne potrebbe produrre 80, ma la scheda ne fa 63.
non sei quindi in CPU limited per il meshing, ma per il lavoro dei driver.
un CPU limited metterebbe tutte le schede con una determinata potenza allo stesso livello; tutte quelle che ci arrivano faranno massimo 80 come limite, e dal teorico anche una 1070 può fare 80, visto che in 4K ne produce 20 (e 20x4 fa 80 non 51).
ciò significa che le pascal hanno una perdita di computazione per limite dell'architettura, non del processore.
la stessa analisi la puoi effettuare sulle AMD.
te la faccio dopo perchè ora devo andare (ho una vita).

ok, continuiamo con l'analisi.

sulla fury x otteniamo 28 su 85fps, ossia un rapporto di 0.33

il nostro ideale teorico è di arrivare ad un rapporto 0.25, ossia 4, se lo vedi invertito, che è il rapporto tra i pixel che ci sono tra FHD e 4K.
più ti avvicini a questo rapporto, più la soluzione video scala in modo più vicino al lineare (ossia è proporzionale).
in questo gioco e con preset high la memoria richiesta a 4K non limita schede con 4GB (fury x), quindi non hai collo di bottiglia dovuto agli stenti della memoria della GPU.

come hai fatto notare sotto (sbagliando):

Assolutamente no, il carico sulla VGA prima di tutto non è esclusivamente dato dalla risoluzione, e se fai 25fps in 4K, anche se su una stessa VGA non vuol dire assolutamente che a 1080p ne farai 100 :asd:

la risposta è che il carico sulla VGA è proporzionale alla risoluzione, perchè i suoi calcoli sono inerenti esclusivamente a quello.
stesso preset a risoluzioni diverse hanno stesso perso di costruzione texture ed effetti moltiplicati per il rapporto che esiste tra le risoluzioni.
è la CPU che è gravata diversamente, perchè il suo carico deriva da diversi fattori.
sulla CPU hai la fisica, l'IA, l'audio spazializzato i driver video ed il meshing della scena 3D.
fisica, IA ed audio influiscono in quota fissa indipendentemente dagli fps.
sono variabili che si contano sul tempo, non sulla generazione di scene nel tempo.
meshing e driver video invece si qualificano come variabile che grava sulla generazione dei frame.
il meshing non è però legato alla risoluzione, ma al dettaglio della scena, semmai (più oggetti o più vertici per gli oggetti ed i pesonaggi);
la richiesta di potenza è quindi proporzonale alla quantità di frame.
i driver, invece aumentano il loro lavoro per l'aumento della risoluzione e dei frame.
ti viene fuori una legge che è ax^2+bx+c, un classico braccio di parabola (prendendolo positivo, naturalmente).
ax^2 è frame per risoluzione dovuto ai drive;
bx è frame dovuto al meshing;
c e il lavoro dovuto ai fattori costanti (ai, fisica ed audio, oltre che networking e menate varie).
quindi al diminuire della risoluzione a si abbassa, ma essendo x quadrica questo addendo ha comunque un peso assai elevato rispetto a quello lineare di b per x.
ammettendo che hai 100 di possibilità di computo della CPU, e con risoluzione infinita avresti 0 frame, puoi ricavarti quanto pesa il driver grafico nell'insieme.
meno pesa, più puoi distribuire meglio la potenza della CPU tra il lavoro della generazione del meshing e del far operare i driver grafici.

in generale più aumenti i frame più potenza ti serve rispetto ad un prospetto lineare (e lo potresti vedere anche usando il cap frame dei driver: prendi il valore FHD, dividi per 4 e metti il cap frame a quel valore, poi vai a leggere quanto CPU ci vuole per il 4K e vedrai che sarà molto inferiore.
se fosse lineare avresti lo stesso carico).

a tutto questo puoi rimediare cercando di minimizzare alcuni lavori che il driver porta avanti.

ci spostiamo anche su questi grafici, in modo da includere vega 64:
http://www.guru3d.com/articles_pages/amd_radeon_rx_vega_64_8gb_review,18.html
qui dobbiamo però riferirci ai valori che misurano in high preset, ossia quelli in celestino, più alti, che vedi per ogni scheda.
controlliamo che la titan x o la 1080 Ti, visto che fornisce la medesima prestazione, rientri nel rapporto trovato prima per assicurarci che tutto sia conseguenziale e troviamo:
4K = 46
1080p = 121
rapporto 46/121= 0.38
siamo passati però a DX12, e nell'altra serie di grafici la titan x faceva 40 in 4K e 105 in FHD, il che indica che c'è stato un buon maneggiamento sui driver in un anno di differenza (sett 2016 contro agosto 2017), che ha portato la media da 40 a 46 e da 105 a 121fps.
40/105=0.38
possiamo quindi affermare che anche se c'è stato un aumento del 15% del framerate questo si è mantenuto costante sia a bassa risoluzione che elevata risoluzione.
quindi le considerazioni fatte prima dovrebbero rimanere comunque valide.

analiziamo i dati di vega 64:
vega ci da 38 a 4K e 100 in FHD.
38/100=0.38
otteniamo quindi anche qui il medesimo rapporto.
possiamo vedere però che anche la fury x ha mantenuto il suo rapporto, con 30 su 90, ossia 0.33.

ora prendiamo un diverso set di dati:
https://www.eteknix.com/asus-strix-radeon-rx-vega-64-8gb-graphics-card-review/3/
leggermente più recente (ma che influisce solo sui driver di vega 64, essendo fatto a dicembre 2017 e non agosto).
la differenza in questo set è che è stato usato l'identico processore, ossia un 5960X, ma questa volta a stock value e non a 4.4Ghz all core (da guru 3D: "Our test system is based on the eight-core Intel Core i7-5960X Extreme Edition with Haswell-E based setup on the X99 chipset platform. This setup is running 4.40 GHz on all cores."; da eTekinc:"Processor – Intel Core i7 5960X at stock with Turbo enabled").
in questo caso abbiamo tagliato la frequenza a 3Ghz (tanto fa il 5960X quando usi più di 2 core insieme.. il suo turbo è di 3.5Ghz solo se usi un core e gli altri sono a riposo).
la seconda differenza sul preset standard è questa per eTeknix:
"For this game, we use the Very High preset, with some small changes to increase the Texture Filtering, turn off the AA, and all V-Sync settings."
preset very high senza AA, ma anche guru 3D esegue gli stessi test senza MSAA abilitato ("ou can select various quality settings. We use HIGH image quality settings at DX12 and no MSAA").
a questo punto leggiamo che la 1080 Ti, su deux ex, che è un gioco che sfrutta bene i multicore, si attesta sui 98.1fps in DX12 FHD VH, contro i 119 fps che avevano in high su guru 3D (dobbiamo prendere a riferimento la gigabyte aurus 1080 Ti, visto che le altre sono con memorie a 11Gbit).
attento:
se la scheda fosse il collo di bottiglia a questa risoluzione, la spigazione sarebbe che i minori FPS siano dovuti al passaggio da HIGH a VERY HIGH;
se invece lo fosse il processore a causa della minore frequenza si allude al fatto che sui grafici di guro 3D la titan X potrebbe esprimere molto di più se avesse un octacore a 5ghz.
sempre su guru 3D, nel grafico del peso dei preset, possiamo andare a vedere che tra HIGH e VERY HIGH il computo è +13% ( http://www.guru3d.com/articles_pages/deus_ex_mankind_divided_pc_graphics_performance_benchmark_review,6.html )... avevamo già osservato che i preset erano molto regolari nell'incidere su peso grafico.
ora 98.1+13% hai 110fps, non 119.
significa che con l'unica differenza del processore siamo passati da 119 a 110, senza considerare il fatto che probabilmente anche i 119 già soffrivano per una CPU a bassa frequenza.
prendiamo la fury X e vediamo che ottiene 70.4 nelle condizioni di eTeknix.
70.4+13%=80, contro i 90 di guru 3D.
anche qui vediamo che l'avere una CPU a basso clock ha il suo peso, con questa soluzione, in questo gioco.
prendiamo ora la vega 64.
qui abbiamo la strix, ma quella scheda, con il processore a 3ghz, va il 7%in più della vega 64 reference con processore a 4.4ghz, ed in più dovresti metterci anche il 13% in più dovuto alla differenza tra il setting che c'è tra le due diverse reviews.. a dire tanto doveva fare si e no 94fps non 107....
tutto merito dei driver? un +15%?
può essere, d'altronde la patch di deus ex ha migliorato proprio in quella misura le soluzioni nvidia e la fury x, ma vega è stata provata da guru 3D già con la patch...
ci spostiamo sulla risoluzione 4K e vediamo che la vega scende a 37.7fps, contro i 38 di guru 3D.
tutto solo driver? l'aumento di carico dovuto al preset, che influisce mediamente per il 13%, è del tutto annullato, ma allora perchè la 1080 Ti passa da 46 a 38, accusando un -20%?

bene, la risposta è: PROCESSORE.
senza alti clock le soluzioni nvidia, che gravano maggiormente sui driver e quindi sulla CPU, hanno una diminuzione di frame (e lo vedi anche confrontando la 1080, con dati in linea con la scala della 1080 TI).
le vega soffrono molto meno ed un 3ghz riesce comunque a farle andare adeguatamente.
ora qui sei al cospetto di un gioco che usa bene più di 4 core e che quindi minimizza, in parte, il problema, ma le soluzioni nvidia non sono adattre ad utilizzare ne le DX12 ne tantomeno oltre il numero dei core di quanti GPC contano, perchè per sfruttarne di più devono ulteriormente far operare il GPC in due thread diversi... lavoro in più per riunificarli dopo sui driver.

quindi, anche se con grande confusione dovuta al fatto di trovare i giusti test (quelli che portano differenze sul processore) e doverli riparametrizzare, puoi ben vedere quale è la differenza.

hai capito perchè la maggiorparte dei test ti mostra esclusivamente quello che il produttore più forte vuole farti vedere?
e tu mi tiri fuori video di influencer di YT che non si sa ben precisamente ne che siano ne tantomeno chi li paga a confronto di dati tirati fuori da presunti professionisti del settore?

ma smettila d'importunarmi.

nickname88
29-04-2018, 11:47
"C'è sempre una scusa, eh :asd:" non lo dovrestri scrivere a me, ma a chi manipola i settaggi per farti vedere quello che vuole.Si sono tutti complotti contro AMD.
Poi chissà perchè non esistono articoli realizzati apposta sull'utilizzo CPU con Vega e le Nvidia ... misteri della fede.

prendi qualsiasi gioco e moltiplica il valore del benchmark a 4K per 4.
se non è corrispettivo a quello a 1080p significa che c'è un collo di bottiglia dovuto in massima parte alla CPU.Assolutamente no, il carico sulla VGA prima di tutto non è esclusivamente dato dalla risoluzione, e se fai 25fps in 4K, anche se su una stessa VGA non vuol dire assolutamente che a 1080p ne farai 100 :asd:

Nè tutto l'HW reagisce sempre al medesimo modo, architettura GPU e specifiche tecniche della scheda anche elementari influiscono in primo piano, la scalabilità del frame rate con una VGA al salire o scendere della risoluzione di conseguenza non non ha mica una proporzionalità fissa, nè di certo può centrare in questa tua tesi.







https://www.techpowerup.com/reviews/EVGA/GTX_1070_Ti_FTW2/28.html


Fra 1080p e 4K fra Vega e 1080 liscia c'è un gap totale sulla scalabilità del 5% a vantaggio di Vega ( passerebbe da -3% a +2% )
Questo vuol dire solamente che Vega 64 intesa come scheda scala un po' meglio al salire ( aiutino della HBM ? ) e non che sia meno CPU limited.
E infatti la 1080Ti scala ancora meglio rispetto alla Vega, quindi secondo te la Ti usa ancora meno la CPU ? :asd:


Detto ciò, non centra una mazza tutto questo con il carico sulla CPU.
Vorremmo vedere un confronto DIRETTO se è permesso su piano pratico ( in game ), al posto delle parole :read:

lucusta
29-04-2018, 13:00
Si sono tutti complotti contro AMD.
Poi chissà perchè non esistono articoli realizzati apposta sull'utilizzo CPU con Vega e le Nvidia ... misteri della fede.

Assolutamente no, il carico sulla VGA prima di tutto non è esclusivamente dato dalla risoluzione, e se fai 25fps in 4K, anche se su una stessa VGA non vuol dire assolutamente che a 1080p ne farai 100 :asd:

Nè tutto l'HW reagisce sempre al medesimo modo, architettura GPU e specifiche tecniche della scheda anche elementari influiscono in primo piano, la scalabilità del frame rate con una VGA al salire o scendere della risoluzione di conseguenza non non ha mica una proporzionalità fissa, nè di certo può centrare in questa tua tesi.







https://www.techpowerup.com/reviews/EVGA/GTX_1070_Ti_FTW2/28.html


Fra 1080p e 4K fra Vega e 1080 liscia c'è un gap totale sulla scalabilità del 5% a vantaggio di Vega ( passerebbe da -3% a +2% )
Questo vuol dire solamente che Vega 64 intesa come scheda scala un po' meglio al salire ( aiutino della HBM ? ) e non che sia meno CPU limited.
E infatti la 1080Ti scala ancora meglio rispetto alla Vega, quindi secondo te la Ti usa ancora meno la CPU ? :asd:


Detto ciò, non centra una mazza tutto questo con il carico sulla CPU.
Vorremmo vedere un confronto DIRETTO se è permesso su piano pratico ( in game ), al posto delle parole :read:

ti ho chiesto di aspettare, perchè non è il classico post da news, ma una cosa leggermente più elaborata (ed ho anche io una vita.. con questo solo preferisco portare la bimba al parco che cercare di farti capire le cose).

per quanto riguarda i relative performance di TPU... te l'ho già scritto di lasciarli stare, che portano solo confusione.
ora fammi finire il post di prima.

nickname88
29-04-2018, 13:37
per quanto riguarda i relative performance di TPU... te l'ho già scritto di lasciarli stare, che portano solo confusione.nessuno ti vieta di guardare gioco per gioco.

lucusta
29-04-2018, 18:02
Sembra un po' l'atteggiamento di chi non sa che pesci prendere. Che poi il ragionamento di lucusta mi sembra tutt'altro che valido.

1) Il 7700K, a default, in giochi come BF1 non va a 3800 MHz all core, ma a 4400 MHz. A 3800 MHz ci arriva, al limite, all core eseguendo istruzioni AVX, ma non è questo il caso.

2) La differenza min/max dell'occupazione della CPU con le due GPU è talmente piccola che non ha alcun valore statistico. Tra l'altro si basa su due rilevazioni istantanee che sono perturbate da mille fattori: scena elaborata in corso, occupazione della CPU in quel momento, vattelapesca vari, ecc.

3) Continua a non dimostrare che Vega va meglio con CPU a frequenza di lavoro più bassa. Provasse a cercare CPU come i Ryzen o gli 8400, che non possono superare i 4 GHz in alcun modo... Ma non credo che riuscirà a provare la sua tesi. Tra l'altro lui più e più volte parlava di CPU anche a meno di 3 GHz, 3.8 GHz mi sembrano molti di più.



Questo è un corollario, in realtà la tesi di lucusta è che le Radeon vanno anche con CPU a meno di 3 GHz (cito a memoria parole sue). Effettivamente l'onere della prova spetta a chi propone una tesi, non spetta agli altri dimostrare che essa sia sbagliata. E' un po' come se io dicessi che ho una Bugatti Chiron in garage: sono io a dover dimostrare adeguatamente di possederla, non sono mica gli altri a potersi sobbarcare la pena di falsificare la mia affermazione. Non avrebbero la possibilità pratica di farlo.

Se poi resta una tesi non verificabile, tutt'al più la si potrà definire congettura, ammesso che abbia un fondo di validità teorica. Se manca anche quest'ultima, allora il termine tecnico che usano gli epistemologi è doxa, ovvero è una semplice opinione. Quindi, nel migliore dei casi, la sua resta una congettura in mancanza di evidenti prove sperimentali.




A seguire alcune clausole per evitare di scatenare inutili putiferi.

PS1. Scuse del tipo "io sono nato ben prima di voi", "seguo HW dagli albori", "sono reduce decorato del Vietnam" ecc. non sono affermazioni valide per sviare dalla richiesta di provare una tesi. Qui l'età ed il nonnismo non hanno alcuna autorità. Così come usare insulti vari. Qui, lucusta, tutti quelli che ti vanno contro - me compreso - lo fanno sul piano tecnico, non personale. Battute e scherni che restano sul piano tecnico ci stanno, sul piano personale no.

PS2. Non so con chi tu mi abbia confuso, ma su Tom's non sono stato assolutamente bannato e il mio account è ancora lì bello attivo. Tra l'altro, per curiosità, ho rieffettuato l'accesso dopo secoli e rimpiango questa scelta perché sono già colpito da newsletter spam. Su Tom's non ho mai risposto ad un tuo post.

PS3. Non hai l'autorità per impormi cosa scrivere o meno sulla mia firma. Se tu sei libero di dire che le Pascal non sono efficienti, anche io lo sono. Adesso non c'è alcun riferimento diretto a te, quindi non hai di che lamentarti.

@lucusta: se ti risulta impossibile rispettare i PS di cui sopra, o proporre prove valide a dimostrare la tua congettura/doxa, puoi tranquillamente ignorare il mio post.

e andiamo a quest'altro:

1) parliamo di setting default, non in overclock.
fa base clock 4.2ghz finchè può, 3.8 se usi le AVX.

2)non è solo questo l'handicap, ma anche il fatto che sono collage di video presi uno di qua ed uno di là... se non hai esattamente la stessa macchina risulta difficile il confronto.

3)vedasi sopra.

PS1:il fatto che venga citata la questione che alcuni di noi girano da molto più tempo di voi su questo ed altri forum non è un messaggio essenzialmente per voi, ma per i moderatori;
si scrive per incitarli ad intervenire verso atteggiamenti che hanno palesemente stancato; non sapete fare nemmeno la giusta ironia.
è una silente lamentela sul fatto che non si riesce più a scambiarsi idee come una volta, con implicita richiesta d'aiuto onde evitare poi di doversi impelagare con bulletti da tastiera o cessare di frequentarlo; un forum in cui ci sono 4 gatti che si spalleggiano non è una gran cosa da portare avanti...
(altra messaggino telegrafato ai moderatori, se non l'hai capito).

PS2:non sò con chi mi confondi te, ma io non sono un ingenuo, amico mio.

PS3:ho ancora l'autorità per chiedere ad un moderatore d'infliggetri una penale per aver fatto una cosa contro il regolamento, e non importa che oggi non hai più il link, importa che lo hai fatto e che continui imperterrito ad avere lo stesso atteggiamento.
tiri il sasso e nascondi la mano?
nella vita non funziona così e, realmente, non ti conviene stuzzicarmi ancora, perchè io sono 30 anni che sono "on line" (e nell'89 mi facevo le mie belle scopate, giusto per scendere al livello a cui avete portato il forum) e posso passare minimo i prossimi 40 a prendermela con te soltanto.
quindi cosa vuoi?
guerra o pace?


a me non porta nessuna sostanziale differenza;
non ho mai messo nessuno in black list, proprio perchè leggo "la voce" di tutti (ma proprio tutti), e magari discuto su quanto scritto.
sei solo tu che devi decidere.

ora hai espressamente capito o vuoi che sia più schietto di così?

lucusta
29-04-2018, 18:06
Vorremmo vedere un confronto DIRETTO se è permesso su piano pratico ( in game ), al posto delle parole :read:

chiedilo a mamma...
gli unici a cui puoi chiederlo sono le redazioni delle testate specializzate, tipo proprio HWUPGRADE, perchè io di autofinanziare un test da 10K euro di HW per dimostrarti quanto sei ingenuo non ne ho bisogno, mi basta leggerti.

calabar
29-04-2018, 18:38
gli unici a cui puoi chiederlo sono le redazioni delle testate specializzate, tipo proprio HWUPGRADE, perchè io di autofinanziare un test da 10K euro di HW per dimostrarti quanto sei ingenuo non ne ho bisogno, mi basta leggerti.
Senza prove, quel che dici diventa una sparata bella e buona.
Anche io prima ti ho chiesto qualche riferimento perchè non avevo mai avuto riscontri di questo comportamento, ma se la tua risposta (sebbene non data a me) è quella che ho citato, direi che non c'è molto altro da dire.

Dato che non è la prima volta che ti sento dire questa cosa, ti consiglierei di evitare di tirare ancora fuori questa argomentazione fino a quando non avrai qualche dato per sostenerla.

Comunque direi che negli ultimi post hai decisamente esagerato, tanto che stai facendo sembrare Paul una personcina a modo. Mi pare evidente che se volevi ottenere qualcosa, stai ottenendo proprio il contrario.
Alcune parti dovresti cancellarle, non si addicono ne a te ne a questo forum.

lucusta
29-04-2018, 19:15
Senza prove, quel che dici diventa una sparata bella e buona.
Anche io prima ti ho chiesto qualche riferimento perchè non avevo mai avuto riscontri di questo comportamento, ma se la tua risposta (sebbene non data a me) è quella che ho citato, direi che non c'è molto altro da dire.

Dato che non è la prima volta che ti sento dire questa cosa, ti consiglierei di evitare di tirare ancora fuori questa argomentazione fino a quando non avrai qualche dato per sostenerla.

Comunque direi che negli ultimi post hai decisamente esagerato, tanto che stai facendo sembrare Paul una personcina a modo. Mi pare evidente che se volevi ottenere qualcosa, stai ottenendo proprio il contrario.
Alcune parti dovresti cancellarle, non si addicono ne a te ne a questo forum.
calabar, ho scritto un post poco sopra dove si evidenziano strani comportamenti al diminuire della frequenza proprio delle soluzioni nvidia, ma no, non sono in grado di dimostrartelo per il semplice motivo che ci vogliono test appositi per verificare il tutto, e non su un solo gioco e con un solo processore.
ciò non toglie che pur non essendo in grado di dimostrarti la tesi, se non empiricamente usando i dati di diverse reviews (cosa assai brutta da fare perchè c'è il rischio che mischi cavoli con patate), ti ho dimostrato allo stesso tempo che non essendo lineare non puoi affermare assolutamente il contrario, ossia che le nvidia pascal (e maxwell) scalano linearmente e non necessitano di più CPU per funzionare a dovere.
in una situazione normale avrei già incominciato a buttare giù una bozza di test per approfondire la questione e trovarne i punti critici... ma lo posso fare nel mio lavoro (che son pure pagato per fare queste cose, tra l'altro), non senza nemmeno indicare ha chi ha l'HW di fare dei test.
se me le paghi te schede e piattaforme, posso farti tutte le verifiche del caso e arrivare a dimostrartelo matematicamente.
diversamente devi accettare il fatto che ho evidenziato quelle palesi incongruenze che portano a pensare a questo, e allo stesso tempo dimostrano che non è il contrario.
quindi si dovrebbe fare dei test adeguati ed accurati proprio per riuscire a capire la questione.
sta di fatto che sono rari i reviewer che usano le schede su piattaforme a default, non overclockate, ed ancor meno quelli che fanno uno screening di test atto non solo a vedere la barretta più lunga, ma soprattutto il comportamento della singola scheda (perchè al pubblico interessa effettivamente quello: il comportamento della singola scheda sui vari giochi per i vari set al cambio delle varie configurazioni).

bagnino89
29-04-2018, 19:17
e andiamo a quest'altro:

1) parliamo di setting default, non in overclock.
fa base clock 4.2ghz finchè può, 3.8 se usi le AVX.

Anche io parlo di default, non è come dici tu.

https://en.wikichip.org/wiki/intel/core_i7/i7-7700k

turbo frequency (1 core) 4,500 MHz (4.5 GHz, 4,500,000 kHz) +
turbo frequency (2 cores) 4,400 MHz (4.4 GHz, 4,400,000 kHz) +
turbo frequency (3 cores) 4,400 MHz (4.4 GHz, 4,400,000 kHz) +
turbo frequency (4 cores) 4,400 MHz (4.4 GHz, 4,400,000 kHz) +

Tra l'altro ho avuto modo di testarlo personalmente, quindi so di cosa parlo. Qualsiasi possessore può assicurartelo.

E non fa 4400 MHz finché può... Li tiene fino alla morte, punto. Lavora a frequenze più basse solo - ed esclusivamente solo - in caso di istruzioni AVX da compilare.

PS1:il fatto che venga citata la questione che alcuni di noi girano da molto più tempo di voi su questo ed altri forum non è un messaggio essenzialmente per voi, ma per i moderatori;
si scrive per incitarli ad intervenire verso atteggiamenti che hanno palesemente stancato; non sapete fare nemmeno la giusta ironia.
è una silente lamentela sul fatto che non si riesce più a scambiarsi idee come una volta, con implicita richiesta d'aiuto onde evitare poi di doversi impelagare con bulletti da tastiera o cessare di frequentarlo; un forum in cui ci sono 4 gatti che si spalleggiano non è una gran cosa da portare avanti...
(altra messaggino telegrafato ai moderatori, se non l'hai capito).

Io sono prontissimo a scambiare idee, ma se tu ragioni per ipse dixit sbatti male con me. Devi provare quanto affermi.

PS2:non sò con chi mi confondi te, ma io non sono un ingenuo, amico mio.

Invece mi sa tanto che lo sei... Ripeto: su Tom's non ho mai risposto ad un tuo post. Avrò sì e no 10 messaggi, tra l'altro non in thread relativi a notizie dove invece a te piace tanto postare per andare contro a Nvidia/Intel. Perché così "hai la possibilità di sensibilizzare chi si lascia accecare dal marketing", anche qui sto citando a memoria uno dei tuoi soliti post.

PS3:ho ancora l'autorità per chiedere ad un moderatore d'infliggetri una penale per aver fatto una cosa contro il regolamento, e non importa che oggi non hai più il link, importa che lo hai fatto e che continui imperterrito ad avere lo stesso atteggiamento.
tiri il sasso e nascondi la mano?
nella vita non funziona così e, realmente, non ti conviene stuzzicarmi ancora, perchè io sono 30 anni che sono "on line" (e nell'89 mi facevo le mie belle scopate, giusto per scendere al livello a cui avete portato il forum) e posso passare minimo i prossimi 40 a prendermela con te soltanto.
quindi cosa vuoi?
guerra o pace?


a me non porta nessuna sostanziale differenza;
non ho mai messo nessuno in black list, proprio perchè leggo "la voce" di tutti (ma proprio tutti), e magari discuto su quanto scritto.
sei solo tu che devi decidere.

ora hai espressamente capito o vuoi che sia più schietto di così?

Che sia contro il regolamento, è da vedere. Non sono né il primo né l'ultimo a mettere link in firma a messaggi/thread di questo forum... Ma anche fosse, va bene, procedi pure, che devo dirti...

Di cosa facevi nell'89, francamente, non me ne frega nulla. Ti ripeto, qui il nonnismo non vale, non siamo al servizio di leva militare... E non usare questo tono minaccioso perché: 1) non ha alcun effetto su di me; 2) non ti fa fare una bella figura, specie considerando la "veneranda" età di cui continui a vantarti.

Se proprio ti fa piacere prendertela con me, fa pure, chi sono io per fermarti.

Io vorrei solo discutere civilmente sui fatti e non su chiacchiere da bar...

Senza prove, quel che dici diventa una sparata bella e buona.
Anche io prima ti ho chiesto qualche riferimento perchè non avevo mai avuto riscontri di questo comportamento, ma se la tua risposta (sebbene non data a me) è quella che ho citato, direi che non c'è molto altro da dire.

Dato che non è la prima volta che ti sento dire questa cosa, ti consiglierei di evitare di tirare ancora fuori questa argomentazione fino a quando non avrai qualche dato per sostenerla.

Comunque direi che negli ultimi post hai decisamente esagerato, tanto che stai facendo sembrare Paul una personcina a modo. Mi pare evidente che se volevi ottenere qualcosa, stai ottenendo proprio il contrario.
Alcune parti dovresti cancellarle, non si addicono ne a te ne a questo forum.

Quoto tutto.

Bisogna portare test fatti ad hoc per provare una tesi del genere. Se poi i test disponibili effettuati da altri non sono adatti/non disponibili, non sono problemi nostri... Conducili tu (lucusta) stesso. Se per vari motivi non puoi, allora è inutile che continui a sostenere le tue idee e a fare elucubrazioni tautologiche. Lascia perdere e basta.

EDIT. Quanto hai scritto sopra, lucusta, non dimostra proprio nulla, ovvero che 1) le Radeon funzionano bene anche con CPU dal basso clock e 2) che le GeForce (Pascal in particolare) funzionano male con CPU dal basso clock. E' solo un altro "ragionamento" per estrapolazione di dati che non dimostra niente.

lucusta
29-04-2018, 22:24
linka la pagina anche ad intel, allora, perchè le loro specifiche sono sbagliate:
https://ark.intel.com/products/97129/Intel-Core-i7-7700K-Processor-8M-Cache-up-to-4_50-GHz

non è nonnismo, è netiquette.
quello che fai tu, invece, è proprio cyber bullismo, e non ti giustifica il fatto che lo fanno anche altri.

i test ti proverebbero la tesi, ma le osservazioni ti provano che il contrario non può essere.
le osservazioni dei pochi test che non vengono effettuati con il solito setup: CPU non "tirata al collo" portano evidenze per cui c'è qualcosa che non torna.
alcuni test li puoi dedurre dalle comparative sui processori sui vari giochi, visto che alcuni ancora analizzano i giochi uno ad uno, facendo lo scaling sulle varie CPU.
quando leggi che una scheda con un tal processore in overclock arriva a 100 e poi fa 50 con uno non K e magari nuovamente 80 con un dual core K in overclock, a quel punto ti sorge il dubbio che la CPU ha il suo ruolo nella questione, e, se ne hai la possibilità, magari ci fai anche un bell'articolo.

di questi articoli non se ne trova traccia nella normale lettura delle testate specializzate.
oggi siamo addirittura arrivati a vedere l'uso di un chiller per spremere 100mhz di più...
renditi conto che non tutti hanno 2000 euro da buttare in un raffreddamento attivo con chiller.

quanto scritto sopra dimostra l'incongruenza dei dati quando c'è una CPU a clock inferiore al normale, quando normale è diventato l'uso di CPU n overclock full core a minimo 4.4ghz se non oltre.
poi ti fanno le review dei processori con la stessa tipologia di scheda e vedi che perdono 20fps rispetto a quello a 5ghz... e ci credo!
ma non è il processore che rende meno, è la scheda che esige di più, quindi quei test si dovrebbero intendere come "il miglior processore per sfamare una nvidia gtx 1080".
e da qui ritorniamo alla questione che nei dati che ti ho portato una 1080 Ti con un 5960X a default di 3ghz rende meno di una Vega con lo stesso processore.
quando metti il 5960X @4.4ghz full core rende di più, ma la differenza tra i due processori è più di 80W...
quindi a chi si dovrebbero caricare questi 80W in più che servono per andare di più?
stampatelo bene in fronte quello che hai scritto nella firma: "Le Pascal non sono efficienti!!!" almeno non quanto ti vogliono far credere.

tuttodigitale
01-05-2018, 23:37
Le due cose non sono così slegate. Il silicio che Vega destina a funzioni non utilizzate nel gioco comunque incidono sui consumi.
OGGI non sono utilizzate. FP16 e Primitive Shader sono comunque caratteristiche sfruttabili per aumentare le prestazioni nei giochi.
La storia delle GPU è piena di prodotti tecnologicamente all'avanguardia che consumano più dei coetanei concettualmente più vecchi.

Attenzione: come avevo specificato in precedenza, non sto parlando di convenienza per l'utente finale, ma di sostenibilità di un prodotto per l'azienda nell'arco del tempo.
Vega come sai è un chip grande (e con un interposer ancora più grande), e questo significa chip più difficili da produrre, meno chip per wafer e costi tendenzialmente superiori (dico tendenzialmente perchè qui entrano in gioco tanti fattori come il costo per wafer, la resa, le soglie di tensioni/frequenza che si decide di adottare, ecc...).
Se tu utilizzi per tre anni la stessa soluzione e il concorrente tira fuori chip migliorati, una situazione già difficile non può che peggiorare.
AMD destina VEGA10 anche nel mercato e-learning, dove deve competere con pezzi da 610mm/800mmq (che hanno 4 stack di HBM2). Il relativo alto costo di VEGA10 è più che controbilanciato dal fatto di essere integrato in soluzioni ad alto margine.


La vera, che poi è la notizia del perchè VEGA su 7nm, problematica è relativa alla fornitura di HBM2 da parte di SK Hynix che doveva essere in principio il partner principale.

(e con un interposer ancora più grande).
l'interposer è grande, ma è quasi la metà di quello visto in Fiji e comunque prodotto a 65nm, e certamente hanno rese e un volume produttivo decisamente più elevati di un prodotto complesso come una CPU, le dimensioni contano fino ad un certo punto.


Se tu utilizzi per tre anni la stessa soluzione e il concorrente tira fuori chip migliorati, una situazione già difficile non può che peggiorare.

Non sappiamo neppure quale processo utilizzeranno nvidia e AMD. Se come oggi AMD ripiegherà su GloFo e nvidia su TSMC, non è detto che TSMC abbia ANCORA la meglio (è una ipotesi legittima, dopotutto nvidia usa i 14nm LPP solo per i modelli di fascia bassa), visto che i 7nm è processo progettato per spingere CPU SERVER a quota 5GHz e oltre (è un processo basato su tecnologia IBM)...

non sappiamo neppure come si adattano VEGA e Pascal, a questi nuovi processi....teoricamente il fatto che il gate-delay si riduca a dismisura con i 7nm, dovrebbe portare maggiori vantaggi a VEGA..:read: