PDA

View Full Version : Future schede GeForce da NVIDIA? Secondo noi non prima del Computex


Redazione di Hardware Upg
05-03-2018, 09:21
Link alla notizia: https://www.hwupgrade.it/news/skvideo/future-schede-geforce-da-nvidia-secondo-noi-non-prima-del-computex_74556.html

Molte indiscrezioni popolano il web in queste settimane: vediamo per quale motivo non ci attendiamo novità dal versante GPU prima dell'estate, a dispetto dei molti nome in codice che vengono menzionati

Click sul link per visualizzare la notizia.

Seph
05-03-2018, 09:30
tanto noi giocatori siamo fregati, se le compreranno tutti i miners. Se mai usciranno saranno introvabili o a prezzi proibitivi. Non penso cambierò più l'hardware, il futuro è il cloud gaming. https://games.hdblog.it/2018/02/12/Hajime-Tabata-PS5-futura-Xbox-cloud-streaming/

CrapaDiLegno
05-03-2018, 09:57
Molto proababilmente:
Ampere, evoluzione di Volta = architettura top per calcolo e HPC (presentazione GTC)
Turing, evoluzione di Pascal per tutti gli altri (sia gaming che mining), presentazione Computex.

nickname88
05-03-2018, 10:53
Cioè Volta è uscito nel Q4 2017 e secondo te presentano 1 trimestre dopo già il sostituto? sarebbe molto strano.
Volta è uscito a Giugno 2017 sotto Tesla.
E' uscita nel 2017 per la prima volta sotto forma di Titan, ma esisteva da prima quella micro architettura.

Lionking-Cyan
05-03-2018, 10:53
Si parla di processo produttivo più raffinato?

nickname88
05-03-2018, 10:54
tanto noi giocatori siamo fregati, se le compreranno tutti i miners. Se mai usciranno saranno introvabili o a prezzi proibitivi. Non penso cambierò più l'hardware, il futuro è il cloud gaming. https://games.hdblog.it/2018/02/12/Hajime-Tabata-PS5-futura-Xbox-cloud-streaming/
Non mi pare che la situazione di Nvidia sia proprio pari a quella AMD. Le VGA si trovano, c'è un rincaro medio sui 150€ sulle fasce medio-alte in sù ma se si è interessati ad una 2080 o 2080Ti non cambia la vita.

Fede
05-03-2018, 10:58
Non mi pare che la situazione di Nvidia sia proprio pari a quella AMD. Le VGA si trovano, c'è un rincaro medio sui 150€ sulle fasce medio-alte e alte ma se si è interessati ad una 2080 o 2080Ti non cambia la vita.

mica tanto 150€ sulle nvidia...
ho visto cifre folli in tutti quegli store nei quali la disponibilità era accertata.
Ma quando finirà (perchè dovrà finire pirma o poi) sta rincorsa al soldo digitale?
Un bel giorno (che spero non tardi troppo a venire) ci troveremo inondati di vga spompate a due lire... e vai di sli, triple sli e chi piu' ne ha piu' ne metta.

nickname88
05-03-2018, 10:59
nel 2016 è uscito GP100, cioè Pascal HPC, GV100 è uscito come Tesla nel Q3 2017 oltretutto già sul 12nm FFN, ho sbagliato di un trimestre certamente non di 2 anni :asd:.
Si sbagliato di un anno, pardon ;) comunque sia dopo il ComputerX avrà oltre 1 anno di età.

nickname88
05-03-2018, 11:01
mica tanto 150€ sulle nvidia...

Una 1080 liscia attualmente la si trova agli stessi prezzi a cui la comperai io e pure disponibili.
Poi è chiaro che se guardi solo Amazon hai alte probabilità di vedere prezzi alti.

Gyammy85
05-03-2018, 11:04
Molto proababilmente:
Ampere, evoluzione di Volta = architettura top per calcolo e HPC (presentazione GTC)
Turing, evoluzione di Pascal per tutti gli altri (sia gaming che mining), presentazione Computex.

Ma non dicevi sempre che non aggiorneranno niente perché non c'è concorrenza? :fagiano:

Cioè Volta è uscito nel Q4 2017 e secondo te presentano 1 trimestre dopo già il sostituto? sarebbe molto strano.

Io credo invece che sia il contrario soprattutto in relazione ai nomi mentre nelle tempistiche non saprei, ovvero che Ampere sia un Pascal Gaming più muscoloso a parità di GPC e più propenso a salire di clock con un conseguente aumento del TDP ma poco importa e che Turing sia più adatto come nome relativo all'HPC e IA

vedremo.

Quindi avremo un ampere 10x pascal, tradotto stesso ipc di maxwell ma a 3,5 gigaerz boost 8.0? già si è visto come volta non sia tutto sto guadagno su gp102, considerando l'enorme quantità di sp in più...ma chissà, forse nel 2194 avremo giochi più orientati al computing e meno al fillrate tester...

MiKeLezZ
05-03-2018, 11:16
Usciranno quando vuole NVIDIA, non credo si possa fare alcuna previsione: non c'è concorrenza e quelle attuali si vendono come il pane, con un sovrapprezzo del 33%... Se non cambia qualcosa, la situazione può benissimo rimanere così e far ritardare di mesi il lancio di nuove architetture (se non attuare politiche di riduzione costi di fabbricazione)

Gyammy85
05-03-2018, 11:20
certo che a te piace proprio essere insultato :sofico:

volta gv100 non guadagna molto su gp102 perché è un chip hpc enorme con cose inutili al gaming e clock bassi portato sul mainstream per fare cassa con le basse rese.
ga102 avrà circa +200/300mhz di clock base/boost, ad occhio.

Volta ha pure 5000 e passa sp però, pure la titan ha cose in più rispetto alla 1080ti ma le prestazioni quelle sono.
Che poi siano praticamente dei pentium 4 e salgano solo con la frequenza è un altro discorso...dai su, sappiamo entrambi che la 2080ti sarà la titan v con 100 sp in meno e 200 mhz in più...possono chiamarla mina&celentano ma quella è.

Seph
05-03-2018, 11:21
Una 1080 liscia attualmente la si trova agli stessi prezzi a cui la comperai io e pure disponibili.

beh non direi:

MSI GeForce GTX 1080 Gaming X 8G
https://geizhals.eu/?phist=1449271 480€ a giugno 2017, 750€ adesso

ASUS ROG Strix GeForce GTX 1080 Ti OC
https://geizhals.eu/?phist=1587607 695€ a giugno 2017, 1099€ adesso


i prezzi delle schede video normalmente scendono col passare del tempo, non è che raddoppiano. Se per te è normale allora ok.

Fede
05-03-2018, 11:22
Una 1080 liscia attualmente la si trova agli stessi prezzi a cui la comperai io e pure disponibili.
Poi è chiaro che se guardi solo Amazon hai alte probabilità di vedere prezzi alti.

posso chiederti un pvt giusto per vedere se funziona bene il forum? :D

Fede
05-03-2018, 11:24
beh non direi:

MSI GeForce GTX 1080 Gaming X 8G
https://geizhals.eu/?phist=1449271 480€ a giugno 2017, 750€ adesso

ASUS ROG Strix GeForce GTX 1080 Ti OC
https://geizhals.eu/?phist=1587607 695€ a giugno 2017, 1099€ adesso


i prezzi delle schede video normalmente scendono col passare del tempo, non è che raddoppiano. Se per te è normale allora ok.

infatti questa conosco come realtà. Schede da più di 1k che costavano 650 a maggio-giugno.
Mica tornano i conti

CrapaDiLegno
05-03-2018, 12:08
Cioè Volta è uscito nel Q4 2017 e secondo te presentano 1 trimestre dopo già il sostituto? sarebbe molto strano.

Io credo invece che sia il contrario soprattutto in relazione ai nomi mentre nelle tempistiche non saprei, ovvero che Ampere sia un Pascal Gaming più muscoloso a parità di GPC e più propenso a salire di clock con un conseguente aumento del TDP ma poco importa e che Turing sia più adatto come nome relativo all'HPC e IA

vedremo.

edit: Q3 come Chip HPC, mentre Q4 come chip "Gaming".
Volta è disponibile dal Gennaio 2017, prima usato internamente per fare il server HPC di nvidia (e, sì, ne hanno uno anche loro, e neanche tanto lento) poi venduto pubblicamente. Tutte le GPU di stampo HPC sono presentate all'GTC (chi si ricorda la scheda finta con Fermi sopra?)
Ho detto presentate, non vendute.

Volta è uscito a Giugno 2017 sotto Tesla.
E' uscita nel 2017 per la prima volta sotto forma di Titan, ma esisteva da prima quella micro architettura.
Volta è andato in produzione a Gennaio 2017, quindi l'architettura ha ben più di un anno di vita.

Ma non dicevi sempre che non aggiorneranno niente perché non c'è concorrenza? :fagiano:

Quindi avremo un ampere 10x pascal, tradotto stesso ipc di maxwell ma a 3,5 gigaerz boost 8.0? già si è visto come volta non sia tutto sto guadagno su gp102, considerando l'enorme quantità di sp in più...ma chissà, forse nel 2194 avremo giochi più orientati al computing e meno al fillrate tester...
Ma te che ci fai qui? Non dovevi stare nel thread dove ti danno le pacche sulle spalle quando spari queste stupidate?
Non eri quello del vedrete Polaris che botta darà ad nvidia, vedrete Vega che #poorvolta, le HBM costano come le GDDR5?
Perché esci dagli spazi che ti sono stati concessi? Evita di provocare con le tue baggianate che tanto la situazione non cambia.
E paragonare la Titan V al GP102 (con la prima senza driver ottimizzati per i giochi che gira 450 MHZ in meno) la dice lunga su quanto sei in gradi di capire di GPU... torna nel tuo buco a rallegrare i deboli di mente come te.
Non c'è nulla qui che possa sollevarti alla tua frustrazione che dura da ormai 10 anni. E ti svelo un segretissimo.. durerà almeno fino a 2019 inoltrato... fattene una ragione. Ah, ti chiarisco il pensiero perché so che una mente debole come la tua poi parte per tangenti e crea castelli in aria, "almeno" non vuol dir che poi non sarai più frustrato, solo che forse da quel momento in poi c'è la possibilità che qualcosa cambi. Forse.

nickname88
05-03-2018, 13:15
beh non direi:

MSI GeForce GTX 1080 Gaming X 8G
https://geizhals.eu/?phist=1449271 480€ a giugno 2017, 750€ adesso

ASUS ROG Strix GeForce GTX 1080 Ti OC
https://geizhals.eu/?phist=1587607 695€ a giugno 2017, 1099€ adesso


i prezzi delle schede video normalmente scendono col passare del tempo, non è che raddoppiano. Se per te è normale allora ok.

posso chiederti un pvt giusto per vedere se funziona bene il forum? :D
A volte sembra che Trovaprezzi o Bestshopping siano motori sconosciuti al pubblico.
Per link che fanno riferimento ad uno shop tedesco :asd:
Vi posto parte della lista come esempio :

https://image.ibb.co/dEiQdS/xxxx.jpg

E sotto continua ...

Gyammy85
05-03-2018, 13:15
Volta è disponibile dal Gennaio 2017, prima usato internamente per fare il server HPC di nvidia (e, sì, ne hanno uno anche loro, e neanche tanto lento) poi venduto pubblicamente. Tutte le GPU di stampo HPC sono presentate all'GTC (chi si ricorda la scheda finta con Fermi sopra?)
Ho detto presentate, non vendute.


Volta è andato in produzione a Gennaio 2017, quindi l'architettura ha ben più di un anno di vita.


Ma te che ci fai qui? Non dovevi stare nel thread dove ti danno le pacche sulle spalle quando spari queste stupidate?
Non eri quello del vedrete Polaris che botta darà ad nvidia, vedrete Vega che #poorvolta, le HBM costano come le GDDR5?
Perché esci dagli spazi che ti sono stati concessi? Evita di provocare con le tue baggianate che tanto la situazione non cambia.
E paragonare la Titan V al GP102 (con la prima senza driver ottimizzati per i giochi che gira 450 MHZ in meno) la dice lunga su quanto sei in gradi di capire di GPU... torna nel tuo buco a rallegrare i deboli di mente come te.
Non c'è nulla qui che possa sollevarti alla tua frustrazione che dura da ormai 10 anni. E ti svelo un segretissimo.. durerà almeno fino a 2019 inoltrato... fattene una ragione. Ah, ti chiarisco il pensiero perché so che una mente debole come la tua poi parte per tangenti e crea castelli in aria, "almeno" non vuol dir che poi non sarai più frustrato, solo che forse da quel momento in poi c'è la possibilità che qualcosa cambi. Forse.

Come ho detto, faranno la 2080ti con 100 sp in meno e 200 mhz in più.
Chissà cosa farà nvidia quando si ritroverà un pp con consumi alti, senza poter tirare al solito le frequenze.
Magari un giorno capirai che a nessuno frega un caxxo di quanto costano ste hbm, se pensi che le gddr5 possano andare bene per sempre non posso farci niente.
Dai, che pure col 66% di quota di mercato i giochi multiplay coi gameworks escono lo stesso, niente paura ;)

nickname88
05-03-2018, 13:23
Come ho detto, faranno la 2080ti con 100 sp in meno e 200 mhz in più.

Si come no, nemmeno si conoscono i nomi ufficiali e te conosci già le specifiche. :asd:
Cannonate del genere si sentono solo nei thread ufficiali AMD e dalla setta che li frequenta.

-Vale-
05-03-2018, 13:24
Non mi pare che la situazione di Nvidia sia proprio pari a quella AMD. Le VGA si trovano, c'è un rincaro medio sui 150€ sulle fasce medio-alte in sù ma se si è interessati ad una 2080 o 2080Ti non cambia la vita.

Prima di natale ho preso una 1060 3g a 200 euro circa adesso si trovano oltre i 300 euro

Le 1060 6g toccano quasi i 400

Le 1070 sono poco sotto i 600 euro

Le 1080 da 700 a oltre 1500 euro

E ti sembra tutto normale ?

nickname88
05-03-2018, 13:28
Prima di natale ho preso una 1060 3g a 200 euro circa adesso si trovano oltre i 300 euro

Le 1060 6g toccano quasi i 400

Le 1070 sono poco sotto i 600 euro

Le 1080 da 700 a oltre 1500 euro

E ti sembra tutto normale ?

Vedo ...
E all'appello mancherebbe anche QMaxt3ch come shop in teoria.
Io pagai la mia EVGA 1080SC 680€ a Settembre del 2016 dallo stesso shop in lista.

https://image.ibb.co/dEiQdS/xxxx.jpg

Le 1060 le trovi appunto con 100 euro di rincaro visto che dovrebbero in teoria stare dai 250 ai 300.
Mediamente le trovi disponibili ( quindi acquistabili ) a 360-370, quindi il rincaro è corretto.

Semmai è la 1070 che è più colpita.

Gyammy85
05-03-2018, 13:29
Si come no, nemmeno si conoscono i nomi ufficiali e te conosci già le specifiche. :asd:
Sembri uno dei frequentatori dei thread ufficiali di AMD con PaoloOliva & Co.

La titan x ha 100 sp in più della 1080ti, che a sua volta ha 200 mhz in più.
Non vedo perchè non dovrebbe essere così anche adesso, nvidia da 5 anni a questa parte fa il minimo indispensabile.
Ah già scusa, è il mercato, la gente si deve far spennare, si vede che è meglio non farlo, ecc...

nickname88
05-03-2018, 13:36
La titan x ha 100 sp in più della 1080ti, che a sua volta ha 200 mhz in più.
Non vedo perchè non dovrebbe essere così anche adesso, nvidia da 5 anni a questa parte fa il minimo indispensabile.
Ah già scusa, è il mercato, la gente si deve far spennare, si vede che è meglio non farlo, ecc...Eh si fa il minimo indispensabile infatti GTX 980 to 1080 = +70% di performance.
Ha fatto così poco che AMD non è riuscita ad avvicinare nemmeno l'efficienza del competitor.

Dragon2002
05-03-2018, 13:44
Avanzano di gran lunga come potenza quelle fatte uscire 2 anni fa,dovrebbero solo costare meno. A che serve far uscire una nuova gpu se non viene sfruttata minimamente,anzi gli unici che la sfrutterebbero sarebbero i miner,visto che cercano gpu più potenti che consumano meno corrente,quindi una nuova linea di gpu sarebbe ancora peggio per i videogamer. Se non aumentano la produzione o bloccano il mining via hardware,nuove linee di gpu,peggiorerebbero solo la situazione rispetto a quelle vecchie. E' un assurdità ma è cosi. Oppure come ultima spiaggia rimettere in produzione le serie 9,che consumano parecchia corrente e ai miner non interessano. Ormai per i videogamer è l'inferno.

fabrymax84
05-03-2018, 13:56
Se vendono bene non hanno motivo di presentare nuove gpu,forse giusto a baso impatto energetico....

ilbarabba
05-03-2018, 14:04
Se vendono bene non hanno motivo di presentare nuove gpu,forse giusto a baso impatto energetico....

Un ASIC consuma meno, mina di più e soprattutto costa meno di un decimo di una vga.
Le nuove VGA servono per la vr dato che un vive pro o peggio un pimax non lo muovi con una 1080ti nei giochi con una grafica decente.

CrapaDiLegno
05-03-2018, 14:12
Come ho detto, faranno la 2080ti con 100 sp in meno e 200 mhz in più.
Chissà cosa farà nvidia quando si ritroverà un pp con consumi alti, senza poter tirare al solito le frequenze.
Magari un giorno capirai che a nessuno frega un caxxo di quanto costano ste hbm, se pensi che le gddr5 possano andare bene per sempre non posso farci niente.
Dai, che pure col 66% di quota di mercato i giochi multiplay coi gameworks escono lo stesso, niente paura ;)
Il PP a consumi alti ce lo ha già, si chiama 14nm Samsung, lo stesso di GF... mmm ma forse il problema non è il PP se i mini Pascal consumano la metà dei mini Polaris...

La titan x ha 100 sp in più della 1080ti, che a sua volta ha 200 mhz in più.
Non vedo perchè non dovrebbe essere così anche adesso, nvidia da 5 anni a questa parte fa il minimo indispensabile.
Ah già scusa, è il mercato, la gente si deve far spennare, si vede che è meglio non farlo, ecc...
Da 5 anni a questa parte nvidia ha fatto salti da gigante, da Kepler a Maxwell e poi Pascal. Se nvidia è "il minimo indispensabile" AMD che è stata? La schifezza assoluta visto che con Polaris ha eguagliato l'efficienza di nvidia.... della generazione precedente! :rolleyes: e Vega è stato #laprossimavolta ancora una #volta.
Anche a te, come le menti deboli dei thread che frequenti di solito, non capite che non c'è gente che si fa spennare, c'è gente che paga per quello che vuole e quando ritiene il prezzo adeguato compra.
Vale per i miner oggi, valeva per i gamer ieri. Semplicemente nvidia è avanti una generazione. Quando comincerà a soffrite la pressione di AMD probabilmente si metterà anche lei a usare 240W per fare quello che la concorrenza fa con la metà. Per ora però è il contrario. Ed era vero anche quando i PP usati era lo stesso...

CrapaDiLegno
05-03-2018, 14:19
da Gennaio? :mbe:
cioè presentato l'architettura a Maggio 2017 ma ce l'avevano già funzionante in un server interno da Gennaio e per te vale questo?
cioè non è che la Fiat fa una nuova auto che usa nei test interni nel 2017 e poi la vende nel 2019 allora vale dire che è uscita nel 2017...
stesso dicasi per la presentazione, sennò staremmo qua a dire che Zen è un prodotto del 2015 per esempio...

Quindi GV100 è uscito nel Q3 2017, senza se e senza ma.

Non erano test interni, era la costruzione del mega server interno più fornitura a clienti con cui era in collaborazione per la realizzazione dei mega server Titan e Sequoia (se ricordo bene i nomi). Diverse migliaia di GPU sono andate là prima di averne a disposizione per il resto del mondo.
Ciò significa che l'architettura è vecchia più di un anno e il mercato HPC è in continua richiesta di nuova potenza di calcolo e nvidia ormai sforna una nuova architettura per quel mercato. Quindi vederne una nuova presentata il prossimo GTC non mi sembra così improbabile.

nickname88
05-03-2018, 14:24
Avanzano di gran lunga come potenza Avanzano così tanto che in 4K una 1080Ti molto spesso per tenere i 60fps deve scendere a compromessi non di poco conto, mentre la 1080 liscia anche a 1440p con qualche titolo sono dovuto scendere, in 4K totalmente non idonea.

Seph
05-03-2018, 14:29
A volte sembra che Trovaprezzi o Bestshopping siano motori sconosciuti al pubblico.
Per link che fanno riferimento ad uno shop tedesco :asd:
Vi posto parte della lista come esempio :

https://image.ibb.co/dEiQdS/xxxx.jpg

E sotto continua ...

si ma ripeto non è normale quel prezzo, non è neanche una "Ti". Guardando il grafico che ho postato costavano 480 euro a giugno 2017 ora dovrebbero stare a 350-400. Invece costano quasi il doppio..

nickname88
05-03-2018, 14:35
si ma ripeto non è normale quel prezzo, non è neanche una "Ti". Guardando il grafico che ho postato costavano 480 euro a giugno 2017 ora dovrebbero stare a 350-400. Invece costano quasi il doppio..480 le GTX 1080 ?
Io le ho prese a Settembre del 2016 perchè non sono riuscito ad accaparrarmene prima ed ad Agosto han chiuso gli shops, ma un prezzo del genere non l'ho mai visto nemmeno con la mia precedente 980 ( presa da Prok00 e pagata all'epoca 530 ed era una Giga reference, quindi fra quelle meno costose )

350-400 euro la versione 80 liscia ? Direi proprio di no.
Sia la precedente 980 che le vecchie 780 e 680 più o meno sui 500 euro stavano, poco più o meno a seconda dello specifico modello o situazione.

Non è normale ovviamente, ogni fascia costa quasi quanto dovrebbe costare quella direttamente superiore.
Ma non è così proibitivo come lo si descrive e la disponibilità c'è.
Discorso diverso per le schede AMD invece.

Seph
05-03-2018, 15:06
480 le GTX 1080 ?
Io le ho prese a Settembre del 2016 perchè non sono riuscito ad accaparrarmene prima ed ad Agosto han chiuso gli shops, ma un prezzo del genere non l'ho mai visto nemmeno con la mia precedente 980. :asd:

350-400 euro la versione 80 liscia ? In un mondo di fantasia forse.
Sia la precedente 980 che le vecchie 780 e 680 più o meno sui 500 stavano, poco più o meno a seconda dello specifico modello o occasione mentre le Titanium stavano sui 700.

Non è normale, ma rispetto a quanto dovrebbe costare non è così proibitivo e la disponibilità c'è.
Discorso diverso per le schede AMD invece.

dico solo che mi sembra assurdo che una scheda uscita a giugno 2016 a 599$ msrp quasi due anni dopo costi ancora 650 euro. A quel prezzo ora dovremmo avere le TI, uscite a marzo 2017 a $699 di street price, ma invece costano 920 euro..

ionet
05-03-2018, 15:23
sara' ma a me pare che se i prodotti amd erano cosi' poco efficienti,allora dovrebbe essere scartata a priori dai miner,ma cosi' non e'

e comunque ne nvidia ne amd hanno fretta di far uscire la nuova generazione,intanto vendono tutto,poi se/quando la bolla delle criptovalute si svalutera' e il mercato dell'usato sara' inondato di gpu a prezzi stracciati,allora e solo allora nvidia e amd presenteranno finalmente all'umanita' la nuova gen

prima non possono perche se appunto i miner fagocitano tutto poi sul mercato dell'usato si troverebbe anche la nuova gen rovinando il mercato delle nuove,con il rischio di affrettare l'uscita della gen successiva se vogliono tornare a vendere ma con pesanti investimenti
insomma non e' facile per loro decidere cosa fare,stanno valutando molto attentamente la cosa

tuttavia se il mining dura ancora a lungo si potrebbe prospettare una soluzione:

esce la nuova gen a caro prezzo,i miner se la assimilano come i borg(ogni resistenza e' inutile)tuttavia anche loro devono fisiologicamente espellere rifiuti
gpu di penultima gen ancora valide a ottimi prezzi:D

alla fine ci guadagnano tutti,nvidia e amd vendono tutta la produzione a ottimi margini
i miner non badano a spese recuperano poi con le cripto
e noi gamer ogni anno attendiamo con ansia la sagra della gpu;)

Seph
05-03-2018, 15:34
esce la nuova gen a caro prezzo,i miner se la assimilano come i borg(ogni resistenza e' inutile)tuttavia anche loro devono fisiologicamente espellere rifiuti
gpu di penultima gen ancora valide a ottimi prezzi:D


su quell' "ancora valide" avrei qualcosa da ridire, si tratta di schede video che hanno lavorato al 100% di load costantemente per lunghissimi periodi, l'aspettativa di vita si accorcia in modo drastico ;)

ionet
05-03-2018, 15:42
su quell' "ancora valide" avrei qualcosa da ridire, si tratta di schede video che hanno lavorato al 100% di load costantemente per lunghissimi periodi, l'aspettativa di vita si accorcia in modo drastico ;)

i miner devono ottimizzare le schede per farle lavorare alla massima efficienza,di solito vengono down/volt/cloccate per evitare alti consumi e che si blocchino e guastino,ne va appunto del loro investimento
non e' a fatto detto che hanno vita breve
poi al massimo devono durare fino alla prossima sagra:sofico:

nickname88
05-03-2018, 15:51
e noi gamer ogni anno attendiamo con ansia la sagra della gpu;)I games con configurazioni di fasce minori forse.

CrapaDiLegno
05-03-2018, 16:02
dico solo che mi sembra assurdo che una scheda uscita a giugno 2016 a 599$ msrp quasi due anni dopo costi ancora 650 euro. A quel prezzo ora dovremmo avere le TI, uscite a marzo 2017 a $699 di street price, ma invece costano 920 euro..
Che non sia normale ormai è assodato. E quindi? Che ci si può fare?

sara' ma a me pare che se i prodotti amd erano cosi' poco efficienti,allora dovrebbe essere scartata a priori dai miner,ma cosi' non e'

La questione AMD ha venduto di più nel mining etc etc... nasce solo dalla voglia di alcuni di esaltare il marchio perché si crede che abbai trovato una nicchia in cui è meglio della concorrenza.
La verità è solo che AMD è andata via prima perché le sue schede a parità di TFLOPS costavano meno della concorrenza (nessuna novità), che ha aveva meno schede sul mercato (da cui lo shortage prematuro), che va benissimo con alcuni tipi di algoritmi di crittaggio. Tutti parlano di ETH per fare i confronti, ma EH è solo UN algoritmo delle decine realizzati (dove per altro a parità di memorie e TFLOPS le prestazioni sono pressoché identiche tra le due architetture) e ve ne sono alcuni in cui le schede nvidia distruggono quelle AMD e viceversa, per cui ogni architettura è buona per minare qualcosa ed è per questo che tutte le schede sono sparite dal mercato.

Seph
05-03-2018, 16:22
Che non sia normale ormai è assodato. E quindi? Che ci si può fare?

Ma l'ho scritto in cima al thread. Non comprare e aspettare cloud gaming.

CrapaDiLegno
05-03-2018, 16:29
Ma l'ho scritto in cima al thread. Non comprare e aspettare cloud gaming.

Un po' utopica come soluzione... tanto vale dire, aspettiamo che il mining crolli.

The_SaN
05-03-2018, 16:45
Non so se sia peggio aspettare che il mining crolli o aspettare che la fibra (quella vera) arrivi almeno nei principali comuni :asd:

Seph
05-03-2018, 16:53
Un po' utopica come soluzione... tanto vale dire, aspettiamo che il mining crolli.

eheh. In qualsiasi caso aspetterei, per quanto mi riguarda mi cablano in fibra 1000 a fine mese e sta cosa del cloud gaming sembra essere alle porte. Non me la sentirei di spendere un migliaio di euro per una GTX 2080 per poi tenerla lì a far niente. Già oggi su geforce now ti connetti ad una Tesla P40 con 24GB di VRAM.

lucusta
05-03-2018, 20:50
c'è una interpretazione errata nell'articolo:
..."Quello che è certo è che l'architettura Volta è fortemente spinta verso il calcolo parallelo e le applicazioni non grafiche"...
in effetti i tensor core potrebbero tranquillamente gestire la grafica 3D di oggi, solo che farebbero solo parte del lavoro e in modo meno efficiente, mentre se si parlasse di grafica vettoriale, sarebbe il processore più adatto.

a quanto posso capire Nvidia si è resa conto che il V100 non è la soluzione ideale per copire il settore.
V100 conta sia pipeline di calcolo a stadio fisso (ossia i classici banchi che usano le GPU fin'ora prodotte) che a stadio variabile (ossia i tensor core, che sono sfruttati pe ril calcolo vettoriale).
spesso i due sistemi si possono intercambiare e coordinare, ma quello che può fare un vectors processor viene assai male con uno a metrica fissa ed il contrario sarebbe solo una brutta emulazione.

quindi si apre la possibilità di vedere 2 distinte famiglie di coprocessori (a questo punto chiamarle GPU è inesatto):
uno composto esclusivamente da tensor core adatto ad HPC e capace di estendere i banchi tensor core che oggi conta V100 da 640 a tutto il silicio disponibile, coadiuvati dalla computazione con sistemi più flessibili di quello che può essere un banco di calcolo a metrica fissa... ed è anche facile: ci sono i processori ARM d'nvidia per fare questo.
si genererebbe un coprocessore matematico con integrazione di core generalisti, quali sono gli ARM, che coordinano i banchi tensor core.

la seconda famiglia, invece, che riprende il concetto del GP100, con banchi a metrica fissa, probabilmente non più incentrati sui 64 bit ma che si basano esclusivamente su banchi a 32 e 16 bit.
questa sarebbe quindi adatta all'usuale computo della grafica 3D di giochi e grafica PRO.

qualora ce ne fosse necessità potrebbe costruire una scheda HPC mista, con i due coprocessori...

GP100 portato a 12nm diverrebbe un chip poco più grande di un GP104, da massimo 350mm^2... anzi, anche meno se considerato solo per 32 e 16 bit, visto che è possibile eliminare parecchia caches ed eliminare i 64 bit.
nella pratica nvidia potrebbe produrre un chip da 400mm^2, erede del GP102, da oltre 40 SM (ottenendo quindi un buon 33% in più rispetto alla titan XP, da 30 SM) con un contenimento di spazio del 15% (e se alla stessa frequenza con relativo consumo in meno, scendendo a 220W di TDP).
in questo modo preserverebbe anche la continuità con le Pascal, che diversamente, con un netto cambio architetturale, diverrebbero obsolete.
potendo fare poi il die shrink del GP104 si otterrebbe un die più piccole del GP106 della 1060 ed uno shrink di queste porterebbe ad un die da 110mm^2, più piccolo delle 1050 (che sono a 14nm, tra l'altro).
scalerebbe insomma le potenze e diminuirebbe i consumi esclusivamente con dei semplici die shrink sui chip più piccoli...
semplice ed efficacie.

che poi si chiamino ampere, turing o qualsiasi altro nome, sarebbe la cosa più profittevole da fare per il proprio business.

ad oggi produrre un die shrink della linea pascal porterebbe ad un aumento di produzione di chip dal 50 al 100%, che sarebbe in grado sia di compensare la domanda dei gamers e dei miner non mandando in short i magazzini, sia d'intervenire a livello di architettura per poterle rendere più o meno produttive per il mining... dipende da come si considerano proficui i mercati.
le prossime schede saranno su GDDR6x, tipologia di RAM troppo simile alla GDDR5x e quindi poco propensa agli algoritmi per le criptovalute, ma...
nvidia potrebbe intervenire comunque sui controller permettendo l'uso di GDDR5, magari in quantitiativo maggiore e (finalmente) proporre linee di prodotto diversificato per mercato:
per miner, con abbondante RAM GDDR5;
miste, con ram GDDR5x per gamer e miner;
esclusivamente per miner, con RAM GDDR6x.
con gli stessi chip, ma scalati, questa volta, su RAM e quantitativo massimo.

il tutto non esclude qualsiasi altro miglioramento della parte architetturale, magari reinserendo lo scheduling HW, per alleggerire il carico della CPU, e potendo proporre, in tal senso, anche una maggiore frammentazione del codice, in modo da accogliere in HW anche l'AC ed entrare FINALMENTE nelle DX12 (questo però comporterebbe un netto distacco con le vecchie architetture).

il quando?
se vuole approfittare del momento, dovrebbe produrre prima la linea gaming-miner e poi la HPC...
al massimo, se scoppia la bolla mining, dismette la diversificazione con le GDDR5.

krallis93
05-03-2018, 21:30
Questo limbo in cui nessuno sà cosa fare a causa del mining è veramente noioso, spero proprio che non vadano così in là con le release delle nuove architetture e che invece provvedano al più presto a portare una nuova boccata d'aria anche se in realtà temo che pure con una nuova generazione staranno stretti come stock per paura che sta bolla mining crolli e le schede restino invendute...

gd350turbo
06-03-2018, 08:07
Questo limbo in cui nessuno sà cosa fare a causa del mining è veramente noioso, spero proprio che non vadano così in là con le release delle nuove architetture e che invece provvedano al più presto a portare una nuova boccata d'aria anche se in realtà temo che pure con una nuova generazione staranno stretti come stock per paura che sta bolla mining crolli e le schede restino invendute...

Bè una non rimane invenduta...
La mia !
Se me la danno in cambio di un prezzo umano !

La speranza, oltre al fatto che scoppi la bolla, e quindi il mercato venga invaso da milioni di schede video, ce n'è una più probabile che con la produzione di una nuova serie, le vecchie vengano svendute !

CrapaDiLegno
06-03-2018, 08:43
Mi permetto un paio di commenti a questo lunghissimo post.

c'è una interpretazione errata nell'articolo:
..."Quello che è certo è che l'architettura Volta è fortemente spinta verso il calcolo parallelo e le applicazioni non grafiche"...
in effetti i tensor core potrebbero tranquillamente gestire la grafica 3D di oggi, solo che farebbero solo parte del lavoro e in modo meno efficiente, mentre se si parlasse di grafica vettoriale, sarebbe il processore più adatto.

Cosa è la "grafica vettoriale"? I poligoni degli oggetti sono "grafica vettoriale".


a quanto posso capire Nvidia si è resa conto che il V100 non è la soluzione ideale per copire il settore.
V100 conta sia pipeline di calcolo a stadio fisso (ossia i classici banchi che usano le GPU fin'ora prodotte) che a stadio variabile (ossia i tensor core, che sono sfruttati pe ril calcolo vettoriale).
spesso i due sistemi si possono intercambiare e coordinare, ma quello che può fare un vectors processor viene assai male con uno a metrica fissa ed il contrario sarebbe solo una brutta emulazione.

Si chiama GV100, il V100 è la scheda Tesla.
I "banchi a funzione fissa" sono le unità usate per il rendering 3D (TMU/ROPs/Geometry engine). Queste potrebbero essere completamente rimosse (come avevo già suggerito in altro thread) per creare una scheda di solo puro calcolo. La metrica fissa non so cosa sia. Le unità di calcolo delle GPU sono Floating point a 16,32 o 64 bit. nvidia storicamente nelle sue architetture orientate al calcolo mette unità apposite per eseguire ciascun tipo di calcolo per aumentare l'efficienza a discapito dell'area del die (che comunque vende con più che buon margine, per cui poco se ne cura).
Sfugge a molti, te compreso a quanto apre, che l'efficienza in campo HPC vale milioni di dollari e può essere ben compensata dal costo di un die più grande.


quindi si apre la possibilità di vedere 2 distinte famiglie di coprocessori (a questo punto chiamarle GPU è inesatto):
uno composto esclusivamente da tensor core adatto ad HPC e capace di estendere i banchi tensor core che oggi conta V100 da 640 a tutto il silicio disponibile, coadiuvati dalla computazione con sistemi più flessibili di quello che può essere un banco di calcolo a metrica fissa... ed è anche facile: ci sono i processori ARM d'nvidia per fare questo.
si genererebbe un coprocessore matematico con integrazione di core generalisti, quali sono gli ARM, che coordinano i banchi tensor core.

la seconda famiglia, invece, che riprende il concetto del GP100, con banchi a metrica fissa, probabilmente non più incentrati sui 64 bit ma che si basano esclusivamente su banchi a 32 e 16 bit.
questa sarebbe quindi adatta all'usuale computo della grafica 3D di giochi e grafica PRO.

qualora ce ne fosse necessità potrebbe costruire una scheda HPC mista, con i due coprocessori...

Ma che è 'sta metrica fissa???
Semplificando, i tensor core sono dei moduli di calcolo vettoriale che permettono di fare moltiplicazioni di matrici. Le normali unità di calcolo sono ALU che eseguono uno stream di istruzioni, solo che questo stream è lo stesso per centinaia di loro e quindi la potenza della parallelizzazione vale solo se lo stream di queste istruzioni è pensato per sfruttarle tutte senza salti condizionali che interessano solo pochi di loro. Per questo il calcolo parallelo si adatta solo ad alcuni algoritmi, mentre in altri l'uso di unità che usano stream indipendenti come le CPU è migliore. E i tensor core sono usabili in maniera efficiente (perché è ciò che realmente conta) solo per un insieme di algoritmi ancora più stretto.


GP100 portato a 12nm diverrebbe un chip poco più grande di un GP104, da massimo 350mm^2... anzi, anche meno se considerato solo per 32 e 16 bit, visto che è possibile eliminare parecchia caches ed eliminare i 64 bit.

I 12nm di TMSC a quanto pare non portano ad alcun vantaggio in termini di die size. Se fai i conti tra il numero di transistor dichiarati del GV100 e quelli del GP100 e dividi per le rispettive aree avrai una differenza dell'ordine del 3% che vuol dire che magari la riduzione è zero ma con più cache nel GV100 i transistor sono risultati più densi in quest'ultimo.


le prossime schede saranno su GDDR6x, tipologia di RAM troppo simile alla GDDR5x e quindi poco propensa agli algoritmi per le criptovalute, ma...
nvidia potrebbe intervenire comunque sui controller permettendo l'uso di GDDR5, magari in quantitiativo maggiore e (finalmente) proporre linee di prodotto diversificato per mercato:
per miner, con abbondante RAM GDDR5;
miste, con ram GDDR5x per gamer e miner;
esclusivamente per miner, con RAM GDDR6x.
con gli stessi chip, ma scalati, questa volta, su RAM e quantitativo massimo.

Il problema delle latenze delle RAM ce l'hai solo con certi tipi di algoritmi. Altri se ne fregano e preferiscono la banda. Altri la parte computazionale. Dai un'occhiata ai risultati dei vari algoritmi e su quali schede girano per vedere che le cose cambiano parecchio.
NON ESISTE SOLO L'ALGORITMO ETH.
Prova è che 1080 e 1080Ti che montano GDDR5X sono prese d'assalto comunque visto che macinano benissimo altri algoritmi.
Inoltre hai fatto un po' di casino con la tua lista di possibili incroci memorie->mercato target.
Se la GDDR6 è simile alla GDDR5X, secondo quanto hai detto prima non ci dovrebbero essere schede GDDR6(X) rivolte al mining.
Maggiore numero di chip GDDR5 = controller RAM più grandi = metri quadri di die size buttati al cesso. nvidia ha lavorato per anni nell'ottimizzazione di banda per risparmiare sulle dimensioni del MC, non credo proprio butti tutto all'aria per tornare ad usare memorie lente utili sono ad un paio di algoritmi (sfavorendone contemporaneamente altri).

il tutto non esclude qualsiasi altro miglioramento della parte architetturale, magari reinserendo lo scheduling HW, per alleggerire il carico della CPU, e potendo proporre, in tal senso, anche una maggiore frammentazione del codice, in modo da accogliere in HW anche l'AC ed entrare FINALMENTE nelle DX12 (questo però comporterebbe un netto distacco con le vecchie architetture).

nvidia è già nelle DX12. L'AC NON SERVE per essere DX12 compliant (è una feature non obbligatoria delle specifiche, visto che è solo una modalità di calcolo, non una feature che porta a qualcosa di diverso). E' solo un metodo per aumentare le prestazioni se e quanto l'architettura ha certi problemi di efficienza. nvidia a quanto pare non ne ha e ottiene prestazioni più che decenti anche senza AC. Le basta mettere il 10% di ALU in più se proprio volesse colmare il gap in taluni scenari... già, il gap... gap che è verso GPU con capacità di calcolo teoriche molto maggiori delle sue (con die size maggiori e con consumi perfino doppi) il che dimostra che anche con l'AC sfruttato al massimo con giochi ottimizzati per HW AMD, l'AC non fa poi molta differenza.
Meglio sarebbe usare quello spazio per delle unità di calcolo in più che sono SEMPRE sfruttabili invece che creare accrocchi che per essere usati necessitano di algoritmi ad hoc e molto più lavoro. E magari AMD potrebbe usare qualche altro mm^2 per migliorare il suo geometri engine che sono anni che rincorre quello nvidia. E quello sì che è un handicap che è sempre presente (tant'è che la complessità geometrica non viene mai spinta al massimo ultimamente, visto che le console soffrono proprio sotto questo punto di vista).

P.S: io e gridracedriver abbiamo scritto al stessa cosa :D

lucusta
06-03-2018, 12:31
guarda che il 12nm FFN ha la stessa densità del 16nm+ a conti fatti, guarda la densità tra GP100 e GV100 è la stessa, ma semplicemente serve ad aumentare del 10% le prestazioni e cioè i clock che era quello che serviva e soprattutto riuscire a produrre un chip immenso da 815mmq monolitico, i chip pascal attuali hanno dimensioni accettabili e lo saranno anche con ampere (+20% di superficie a parità di fascia) al contrario dell'ultimo giro dei 28nm, e lo stesso discorso vale per il 12nm di GF...
GP100 15.3B in 610mmq → 15300/610=25.1 T/mmq
GV100 21.1B in 815mmq → 21100/815=25.9 T/mmq
c'è uno scarto del 3%, è irrilevante come aumento densità.

In pratica sono dei miglioramenti del silicio attuale che hanno già le fonderie, non sono dei veri dieshrink e il merito di questo casino nasce dall'introduzione del Finfet dove ormai la dimensione è solo un numero commerciale.

hai un chip da 815mm^2;
per quelle dimensioni devi fare anche compromessi.
ci sono poi altri due aspetti che non hai considerato:
l'enorme aumento della L1 del V100 rispetto al GP100 (si è passati da 24KB a 128KB con un aumento dei cudacores del 40%), e della L2 (da 4 a 6MB).
la caches ha una densità assai più elevata di una normale pipeline.
in più non abbiamo ancora visto il disegno reale;
https://hothardware.com/ContentImages/Article/2470/content/big_broadwell-e-die-shot.jpg.ashx?maxwidth=1170&maxheight=1170
questa è una CPU, vero, ma lo spazio inutilizzato che c'è accanto ai core e in altri punti è oltre il 15%.
quindi il calcolo che fai è discutibilmente approssimativo.

in ultimo parliamo di un processo messo a punto da nvidia stessa (non è il 12nm TMSC per i chip da smartphone), e sai che in un PP ci sono 3 fattori dominanti e tra loro correlati:
densità del chip;
frequenza che si vuole raggiungere;
potenza da dissipare.
quindi su chip più piccoli (e parliamo di chip dai 110 ai 330mm^2) non mi sorprenderebbe che usassero il processo TMSC usato anche sui chip Apple, visto che la dimensione di questo è già comparabile (circa 88mm^2).

nickname88
06-03-2018, 13:06
guarda che il 12nm FFN ha la stessa densità del 16nm+
c'è uno scarto del 3%, è irrilevante come aumento densità.

GV100 non è un chip votato puramente al gaming e non dovrebbe essere la base della prossima gamma.
Il tuo discorso vale se decidessero di convertirlo creando una versione destinata alle GeForce.

Ma se l'idea è realizzare un altro chip differente potrebbero influire oltre alla riduzione o eliminazione di alcune unità, anche un ottimizzazione votata al die size.

CrapaDiLegno
06-03-2018, 13:56
hai un chip da 815mm^2;
per quelle dimensioni devi fare anche compromessi.
ci sono poi altri due aspetti che non hai considerato:
l'enorme aumento della L1 del V100 rispetto al GP100 (si è passati da 24KB a 128KB con un aumento dei cudacores del 40%), e della L2 (da 4 a 6MB).
la caches ha una densità assai più elevata di una normale pipeline.
in più non abbiamo ancora visto il disegno reale;
https://hothardware.com/ContentImages/Article/2470/content/big_broadwell-e-die-shot.jpg.ashx?maxwidth=1170&maxheight=1170
questa è una CPU, ve3ro, ma lo spazio inutilizzato che c'è accanto ai core e in altri punti è oltre il 15%.
quindi il calcolo che fai è discutibilmente approssimativo.

in ultimo parliamo di un processo messo a punto da nvidia stessa (non è il 12nm TMSC per i chip da smartphone), e sai che in un PP ci sono 3 fattori dominanti e tra loro correlati:
densità del chip;
frequenza che si vuole raggiungere;
potenza da dissipare.
quindi su chip più piccoli (e parliamo di chip dai 110 ai 330mm^2) non mi sorprenderebbe che usassero il processo TMSC usato anche sui chip Apple, visto che la dimensione di questo è già comparabile (circa 88mm^2).
Se hai più cache densa e il GV100 ne ha molta di più, ma i calcoli di prima dicono che la differenza di densità totale è solo il 3% a favore del GV100, uno può dedurre che il PP è persino peggiorato invece che migliorato in termini di densità.
Prova a pensarci e vedi che il tuo discorso non regge.
Un PP può avere vantaggi di densità solo di alcune configurazioni e non averne in altre. Non tutti i transistor usati sono uguali, non tutte le configurazioni devono necessariamente essere le stesse tra un PP e un altro (anzi), e oltre ai transistor esiste anche il backend di collegamento che può trovare vantaggi che per esempio potrebbero non esserci sui transistor.
E sembra proprio questo caso, in cui lo shrink coinvolge solo alcune parti e non tutte.

Nonostante la tua stentata risposta il fatto è che i tuoi conti sullo shrink non reggono: a parità di transistor il GV104 (il il GA104 o come diavolo si chiamerà) avrà la stesa dimensione del GP104. Quindi nvidia, a meno di miracoli architetturali, non riuscirà a produrre un chip più piccolo del GP104 con prestazioni superiori.

GV100 non è un chip votato puramente al gaming e non dovrebbe essere la base della prossima gamma.
Il tuo discorso vale se decidessero di convertirlo creando una versione destinata alle GeForce.

Ma se l'idea è realizzare un altro chip differente potrebbero influire oltre alla riduzione o eliminazione di alcune unità, anche un ottimizzazione votata al die size.
Vedi sopra. Non è quello che metti nel chip che devi considerare per valutare il vantaggio che dà il nuovo PP. E' ovvio che un chip per gaming non avrà le stesse cose inserite nel GV100 e risulterà già di suo più piccolo. Ma lì è questione di dimensione, non densità.
Quello che conta è quanti transistor ti servono per fare il nuovo chip e quindi, a seconda delle densità raggiungibili dal PP, da quanta area.
Il calcolo eseguito prima è un calcolo (approssimativo, per carità, dato che non vengono presi in esame un sacco di fattori e il numero di transistor è sempre qualcosa di aleatorio nel conteggio, quindi si spera che abbiano mantenuto lo stesso criterio tra Pascal e Volta) che tiene conto solo del numero di transistor, non del tipo o quantità delle unità di calcolo. Tot transistor, tot area. Il risultato mostra che per un numero uguale di transistor l'area è praticamente la stessa tra i due PP. Cambierà sicuramente qualcosa che noi non siamo in grado di valutare con quel semplice calcolo della serva, ma ciò a grandi linee significa che questo giro nvidia non avrà il vantaggio della riduzione di area a suo favore (esattamente come successe con Maxwell vs Kepler.. eppure come abbiamo visto, si può comunque migliorare e non poco).

lucusta
06-03-2018, 13:56
Mi permetto un paio di commenti a questo lunghissimo post.
Cosa è la "grafica vettoriale"? I poligoni degli oggetti sono "grafica vettoriale".

ray tracyng.

Si chiama GV100, il V100 è la scheda Tesla.
il senso del discorso di quanto cambia?

I "banchi a funzione fissa" sono le unità usate per il rendering 3D (TMU/ROPs/Geometry engine). Queste potrebbero essere completamente rimosse (come avevo già suggerito in altro thread) per creare una scheda di solo puro calcolo. La metrica fissa non so cosa sia.
sono la base di calcolo della pipeline e la sua estensione massima.
in un vectors processor puoi estendere la pipeline fino all'ultimo banco di calcolo (è questa la loro reale prerogativa);
in uno a metrica fissa puoi emulare altre basi, ma se sono inferiori avrai rendimenti di calcolo, rispetto alla base naturale, 1:1 (tanto fai a 32bit tanto ne farai a 16 o 8, visto che l'unica cosa che fai è porre a zero i bit che non ti servono), mentre saranno a ratei inferiori se parliamo di basi estese oltre quella implementata, a causa del fatto che non hai un riporto diretto dei dati, ma saranno frammentati ed elaborati in sotto ordini, aggiungendo passaggi che ne limitano le prestazioni; in più il calcolo di una matrice estesa richiede spesso anche un'estensione oltre il numero di stadi finiti della pipeline di un banco fisso.
in pratica non hai flessibilità sia in larghezza che altezza (quindi numero dei vettori) che profondità della matrice (base di calcolo).
metrica fissa, come le SIMD (che poi ne replicano il funzionamento di base).


Le unità di calcolo delle GPU sono Floating point a 16,32 o 64 bit. nvidia storicamente nelle sue architetture orientate al calcolo mette unità apposite per eseguire ciascun tipo di calcolo per aumentare l'efficienza a discapito dell'area del die (che comunque vende con più che buon margine, per cui poco se ne cura).
Sfugge a molti, te compreso a quanto apre, che l'efficienza in campo HPC vale milioni di dollari e può essere ben compensata dal costo di un die più grande.

non mi sfuggono però igli 815mm^2 del V100; come scrivi è a discapito dell'area del die.
fino a quanto si può arrivare?
soprattutto considerando che in HPC un processore a metrica fissa è relativamente sfruttabile in confronto ad uno vettoriale come può essere prodotto con i tensor core.
ad oggi i tensor core si fermano a una base naturale di 256 bit, quando le AVX512 sfoggiano appunto 512 bit.
di contro si ha che le AVX512 sono anche esse delle SIMD, molto più flessibili rispetto a quelle delle GPU, ma sempre SIMD e comunque separate sono (un banco a core).
estendere la profondità dei tensor core a 512 bit mantenendone il numero che conta V100 significa dover aumentare del doppio lo spazio dedicato a questi... e V100 è già prodotto a 12nm.
si dovrebbe perciò eliminare quello che non serve, ossia la parte computazionale con i classici cuda core, mantenuti su V100 per compatibilità Cuda.

Ma che è 'sta metrica fissa???
quello diammetralmente opposto a quanto si ottiene usando un vectors processor.

Semplificando, i tensor core sono dei moduli di calcolo vettoriale che permettono di fare moltiplicazioni di matrici. Le normali unità di calcolo sono ALU che eseguono uno stream di istruzioni, solo che questo stream è lo stesso per centinaia di loro e quindi la potenza della parallelizzazione vale solo se lo stream di queste istruzioni è pensato per sfruttarle tutte senza salti condizionali che interessano solo pochi di loro. Per questo il calcolo parallelo si adatta solo ad alcuni algoritmi, mentre in altri l'uso di unità che usano stream indipendenti come le CPU è migliore. E i tensor core sono usabili in maniera efficiente (perché è ciò che realmente conta) solo per un insieme di algoritmi ancora più stretto.
quindi, semplificando, in HPC è assai più produttivo un approccio vettoriale, che uno basato sulla discrepanza di pochi vettori calcolati uno alla volta.


I 12nm di TMSC a quanto pare non portano ad alcun vantaggio in termini di die size. Se fai i conti tra il numero di transistor dichiarati del GV100 e quelli del GP100 e dividi per le rispettive aree avrai una differenza dell'ordine del 3% che vuol dire che magari la riduzione è zero ma con più cache nel GV100 i transistor sono risultati più densi in quest'ultimo.

i 12nm TMSC li puoi vedere sui chip Apple, non su V100, in quanto V100 utilizza un processo messo a punto proprio da Nvidia (e specificatamente per un chip da 815mm^2).
il resto delle considerazioni lo puoi leggere nella risposta data sopra.


Il problema delle latenze delle RAM ce l'hai solo con certi tipi di algoritmi. Altri se ne fregano e preferiscono la banda. Altri la parte computazionale. Dai un'occhiata ai risultati dei vari algoritmi e su quali schede girano per vedere che le cose cambiano parecchio.
NON ESISTE SOLO L'ALGORITMO ETH.
Prova è che 1080 e 1080Ti che montano GDDR5X sono prese d'assalto comunque visto che macinano benissimo altri algoritmi.
Inoltre hai fatto un po' di casino con la tua lista di possibili incroci memorie->mercato target.

non esiste solo su etherium, ma in molti algoritmi che sono congeniati per essere sfruttati adeguatamente esclusivamente con le GPU, proprio perchè abbondano di RAM e questa viene incrementata nelle varie generazioni.
sono algoritmi pensati per rendere difficile l'uso degli ASICS.
qualsiasi algoritmo che si affidi alla banda della RAM ricade nella stessa problematica, con l'architettura maxwell/pascal nvidia, perchè non viene assolutamente sfruttata la compressione dati sul bus (e le nvidia sono meno generose di pura banda ram), mentre la minore sfruttabilità della banda garantita delle GDDR5x dipende strettamente dall'algoritmo, in quanto non viene sfruttato l'aumento di data rate a clock (da 4 delle GDDR5 a 8 delle GDDR5x)... anzi, se vai ad analizzare bene il comportamento delle schede in confronto anche alla tipologia di RAM ti accorgerai che schede con DDR2, 3 o 4 non perdono così tanto rispetto alle GDDR5, perchè in effetti nemmeno il 4x viene sfruttato (ecco perchè, a discapito della pura potenza computazionale garantita, APU e CPU non sono così penalizzate).
qualora l'algoritmo non sia RAM dipendente, usciranno ASICS che renderanno le GPU poco sfruttabili, perchè non ottimizzate in prestazioni per consumo su costo (ed in effetti già ci sono).


Se la GDDR6(X) è simile alla GDDR5X, secondo quanto hai detto prima non ci dovrebbero essere schede GDDR6(X) rivolte al mining.
no.
ho scritto che Nvidia potrebbe produrre schede che siano più mirate al mining e schede più mirate al gaming.


Maggiore numero di chip GDDR5 = controller RAM più grandi = metri quadri di die size buttati al cesso. nvidia ha lavorato per anni nell'ottimizzazione di banda per risparmiare sulle dimensioni del MC, non credo proprio butti tutto all'aria per tornare ad usare memorie lente utili sono ad un paio di algoritmi (sfavorendone contemporaneamente altri).
la differenza tra GDDR5x e GDDR6x, oltre che l'assorbimento del chip e il suo voltaggio è dovuta al passaggio da 32 a 64 bit di bus per singolo chip, mantenendo il data rate a 8x.
nella pratica le GDDR6x sono 2 GDRR5x messe in un unico die, che hanno un voltaggio inferiore grazie al miglioramento del PP...
quindi l'estensione del controller di memoria è la medesima al medesimo PP della GPU.
stessa cosa si può avere con le GDDR5, a 32 bit di bus ma solo 4X.
non sono rari i chip che potevano usare DDR2,3 o 4 e GDDR5, perchè semplicemente, se il chip RAM è compatibile (il voltaggio del bus), basta mandare solo due data rate invece che 4.... di per se il controller ha la stessa natura.


nvidia è già nelle DX12. L'AC NON SERVE per essere DX12 compliant (è una feature non obbligatoria delle specifiche, visto che è solo una modalità di calcolo, non una feature che porta a qualcosa di diverso).
a modo suo, sulle 12 tier 1, praticamente estensione delle 11.3 (usate sulle console MS) sotto alcuni aspetti, praticamente uguali alle 11.2 con la differenza di avere la possibilità di sfruttare fino ad 8 core invece che 4.
AC slega totalmente il singolo thread dalla sequenza consequenziale di calcolo, potendo calcolare singole parti in differenti tempi e omogenizzando quindi l'uso delle risorse computazionali (i core della CPU), evitando stadi di attesa e picchi di richieste.
per propria natura architetturale, dovuta allo scheduling prettamente software di maxwell e pascal, nvidia emula AC.
deve raccogliere le istruzioni sparse, raggrupparle, mandarle alle pipeline secondo la sua organizzazione (che viene effettuata nuovamente dalla CPU, ecco perchè consumano molte più risorse), la GPU le elabora, le rimanda allo scheduling che le deve nuovamente segmentare per dare risposte singole alle richieste.
il cane che si modre la coda.
nelle 12.1, invece, non essendoci AC, il lavoro di raggruppamento e separazione non avviene, ma permane il problema dello sfruttamento della CPU con stadi di attesa e picchi di richieste che la affogano, limitando quindi le prestazioni massime e necessitando di CPU con IPC elevato, ma anche con clock più alto possibile, perchè il processo dello scheduling SW gira sui driver, che girano sul thread principale, quindi su un solo core.


E' solo un metodo per aumentare le prestazioni se e quanto l'architettura ha certi problemi di efficienza.
non parlerei di efficienza genrale, ma di efficienza su un determinato tipo di costruzione.
AMD, per propria architettura, deve emulare sia in DX11 che DX12 (quelle vere,con AC), in quanto la segmentazione che può operare è di gran lunga superiore a quella che le DX11 possono garantire (massimo 8), ma anche di quella delle DX12 in cui è implementato AC, pechè difficilmente potrai avere CPU oltre i 16 core fisici... AMD avrebbe massimo rendimento con 64 segmentazioni, quindi con 64 core fisici... non ci sarà mai un'implementazione così radicale in un gioco.
negli anni hanno lavorato per far in modo di poter accorpare le singole unità in cluster di calcolo, che non necessitavano di scambi con registri, caches o ram, evitando quindi passaggi di dati che impattano sui cicli di calcolo.
ad oggi Vega puo' gestire bene segmentazioni da 16, e lo puoi vedere da come risponde sulle DX11 e DX12, ottenendo meno guadagno (rispetto anche a polaris) dal passaggio da una all'altra API, ma in effetti il guadagno c'e' stato sulle API più vecchie, con un aumento di rendimento.
comunque molto ha fatto anche l'enorme quantitativo di L2 e L3.


nvidia a quanto pare non ne ha e ottiene prestazioni più che decenti anche senza AC.
...perchè continuiamo a parlare di un costrutto più affine alla sua architettura, non certo più efficacie.
in un mondo teorico e perfetto se prendi un processore ad 8 core fisici che gira massimo a 3ghz hai la stessa potenza computazionale di uno a 4 core che gira a 6ghz.
la differenza è che un octacore a 3ghz è molto più probabile che sia nel suo golden spot, ossia il migliore punto in cui hai la massima efficienza energetica per la quantità di calcoli che produci.
lasciando stare che un quadcore a 6ghz non c'è, ad oggi avresti la differenza tra un Ryzen 1700 da 65W rispetto ad un 7700K portato a quella frequenza... a 5Ghz un 7700K si mangia 140W massimi (nei giochi molto meno, sugli 80-90W, proprio per il fatto che l'uso della CPU delle DX11 e DX12.1 non è costante ne omogeneo).
significa anche che se non hai un 5Ghz alcune schede, a basse risoluzioni (come anche 1080p), non scalano...
si arriva al punto che la CPU viene saturata e che la GPU non viene sfruttata al massimo e più le potenze della GPU crescono, più la necessità di CPU single thread veloci si fa imperativa, con questo tipo di costrutto SW...
oggi già una 1080 Ti è limitata in diversi giochi anche dalle CPU più alte in frequenza, se uno si ostina a farle girare a bassa risoluzione.

PS: da qui anche la critica che si fece su varie reviews per i Ryzen, per cui si usavano schede come la 1080 Ti, decisamente dipendenti dalla capacità single thread della CPU a causa del loro scheduler SW, con risoluzioni infime (720p ed anche inferiori, su certi siti poco raccomandabili), con giochi che nemmeno usavano le DX11, proprio per evidenziare i limiti di ryzen, quando invece si evidenziavano esclusivamente i limiti dell'architetturqa pascal, dei motori grafici e delle API più datate.


Le basta mettere il 10% di ALU in più se proprio volesse colmare il gap in taluni scenari... già, il gap... gap che è verso GPU con capacità di calcolo teoriche molto maggiori delle sue (con die size maggiori e con consumi perfino doppi) il che dimostra che anche con l'AC sfruttato al massimo con giochi ottimizzati per HW AMD, l'AC non fa poi molta differenza.
Meglio sarebbe usare quello spazio per delle unità di calcolo in più che sono SEMPRE sfruttabili invece che creare accrocchi che per essere usati necessitano di algoritmi ad hoc e molto più lavoro. E magari AMD potrebbe usare qualche altro mm^2 per migliorare il suo geometri engine che sono anni che rincorre quello nvidia. E quello sì che è un handicap che è sempre presente (tant'è che la complessità geometrica non viene mai spinta al massimo ultimamente, visto che le console soffrono proprio sotto questo punto di vista).
a me pare che la passata generazione, polaris, nella sua implementazione, non sia così malvaggia rispetto a una 1060, anzi...
come die size non sono distanti, in più il processore AMD è stato concepito per essere realmente mainstream, ossia a prezzo modico (tralasciando il fattore mining le 480 si è arrivati a comprarle anche a 225-245 euro, con 8GB di ram).
invece tu prendi a riferimento Vega 56 e 64, che sono solo chip di straforo nel mondo gaming.
l'implementazione dell'architettura Vega in quel chip, Vega 10, è prettamente PRO...
conta un'infinità di circuiti che mai verranno sfruttati a dovere nel gaming, proprio perchè unica.
una L2 e L3 che fa invidia ad un processore moderno per server;
un gestore di memoria dedicato che sfrutta, se adoperato nel modo per cui è stato realmente pensato, la VRAM come caches di 4° livello, con una connessione (IF) i cui veri sviluppi si vedranno con Navi e la possibilità di avere multichip interconnessi (incolati, come dice intel).
Vega 10 è la peggiore implementazione per il gaming dell'architettura Vega, ed esiste esclusivamente per abbattere drasticamente il costo delle soluzioni PRO, che nel settore giusto, per 3000$ danno un bel pò di filo da torcere ai chip della concorrente, potendo vantare 25TF, quasi quanto i 30 del V100 da 15.000$, in base 16 con un chip poco più grande della metà.
quindi mi pare assai poco proficuo continuare il discorso.

a quanto pare le Vega sono le GPU più ambite dai miner per uno specifico motivo, anche se il prezzo è arrivato alle stelle, raddoppiandone il prezzo...
non mi sembra che ci siano molti miner con ring di titan XP o V100, e c'e' un motivo ben preciso e molto semplice da scorgere.

tra l'altro, ed ancora mi sto mangiando le mani, c'è stato un momento in cui si poteva prendere una 56 a 375 euro ivati...
i pochi pezzi, una decina, e il non conoscere il venditore mi hanno fatto desistere, ma... ancora mi stò mangiando le mani.
lo stesso sito le rimise in listino un paio di settimane dopo a 550 euro... ormai era già iniziata la mattanza dei miner.
di analisi su Vega ce ne sono state diverse, e chi la ha se la tiene stretta (o meglio, se la rivende... dopo 6 mesi c'è chi ci ha guadagnato anche il 50% in più vendendola usata di quanto l'aveva pagata), visto che se sai ben gestirla, anche la referece, non consuma molto più di una 1080 e molte volte va anche di più (certo, evitando giochi con le openGL!).

P.S: io e gridracedriver abbiamo scritto al stessa cosa :D
entrambi facendo un'analisi molto superficiale.
non che quella che ti ho fatto sia molto meglio, ma...
a mio avviso, pensiero, sentimento o come vuoi chiamarlo, credo che ad nvidia converrebbe seguire la strada che ho scritto nel primo post... ci guadagnerebbe di più e ci guadagnerebbero tutti (ed anzi, rischierebbe anche meno in un'eventuale scoppio della bolla miner).

nickname88
06-03-2018, 14:21
...
Un PP più ridotto ma con la stessa densità garantisce minor concentrazione di calore e minori consumi a parità di progetto. Ciò però non esclude che siano utilizzati anche step migliori di questo PP.

Tuttavia non è detto che con un architettura nuova non si possa aumentare la densità.

lucusta
06-03-2018, 14:45
Se hai più cache densa e il GV100 ne ha molta di più, ma i calcoli di prima dicono che la differenza di densità totale è solo il 3% a favore del GV100, uno può dedurre che il PP è persino peggiorato invece che migliorato in termini di densità.
Prova a pensarci e vedi che il tuo discorso non regge.
Un PP può avere vantaggi di densità solo di alcune configurazioni e non averne in altre. Non tutti i transistor usati sono uguali, non tutte le configurazioni devono necessariamente essere le stesse tra un PP e un altro (anzi), e oltre ai transistor esiste anche il backend di collegamento che può trovare vantaggi che per esempio potrebbero non esserci sui transistor.
E sembra proprio questo caso, in cui lo shrink coinvolge solo alcune parti e non tutte.

Nonostante la tua stentata risposta il fatto è che i tuoi conti sullo shrink non reggono: a parità di transistor il GV104 (il il GA104 o come diavolo si chiamerà) avrà la stesa dimensione del GP104. Quindi nvidia, a meno di miracoli architetturali, non riuscirà a produrre un chip più piccolo del GP104 con prestazioni superiori.
non ho nessun accenno a questa cosa, anzi... credo che ad oggi l'abbiano solo negli uffici tecnici nvidia.

la questione della densità è stata evidenziata per il semplice fatto che sono chip completamente diversi.
qualora si potesse vedere almeno l'organizzazione interna, si potrebbe speculare, ma senza altre informazioni dire che l' stesso chip da 610mm^2 a 16nm non guadagnerebbe in riduzione di dimensione del die passando a 12nm (TMSC e non TMSC-Nvidia), mi pare un'azzardo.
oltretutto non sai esattamente come rispondono i tensor core rispetto ai cuda core; non sai se hanno dovuto usare una densità decisamente meno spinta per farli funzionare alla stessa frequenza dei cuda core...
anche le AVX512, che sono circuitazioni molto dense, quando sfruttate al massimo non riescono a raggiungere gli stessi clock delle pipeline dei core, ed infatti il processore cala di frequenza per limitare il TDP.

quindi ce ne sono realmente tante di cose da prendere in considerazione e realmente poche informazioni per fare ipotesi accurate, ma non per farne sensate: se Apple è passata dai 16 ai 12nm TMSC, pagando lo scotto di un nuovo processo, significa che non era certo in cerca del 3%...

Vedi sopra. Non è quello che metti nel chip che devi considerare per valutare il vantaggio che dà il nuovo PP. E' ovvio che un chip per gaming non avrà le stesse cose inserite nel GV100 e risulterà già di suo più piccolo. Ma lì è questione di dimensione, non densità.
Quello che conta è quanti transistor ti servono per fare il nuovo chip e quindi, a seconda delle densità raggiungibili dal PP, da quanta area.
Il calcolo eseguito prima è un calcolo (approssimativo, per carità, dato che non vengono presi in esame un sacco di fattori e il numero di transistor è sempre qualcosa di aleatorio nel conteggio, quindi si spera che abbiano mantenuto lo stesso criterio tra Pascal e Volta) che tiene conto solo del numero di transistor, non del tipo o quantità delle unità di calcolo. Tot transistor, tot area. Il risultato mostra che per un numero uguale di transistor l'area è praticamente la stessa tra i due PP. Cambierà sicuramente qualcosa che noi non siamo in grado di valutare con quel semplice calcolo della serva...


e su questo siamo d'accordo.
sono chip differenti, con nature assai differenti (anche se V100 ibrida cuda core, devitamente modificati, con tensor core).


...ma ciò a grandi linee significa che questo giro nvidia non avrà il vantaggio della riduzione di area a suo favore (esattamente come successe con Maxwell vs Kepler.. eppure come abbiamo visto, si può comunque migliorare e non poco).

a prescindere dal fatto che il 16nm FF è paragonabile, come densita di transistors, al 20nm planare, apportando però vantaggi sulla frequenza e l'assorbimento (ed è per questo che Tegra usa i 20nm, non dovendo sfoggiare 2Ghz), qui parliamo di un processo FF contro uno FF e se uno lo hanno chiamato 16 ed uno 12 un senso logico ci deve pur essere.
mentre quello che scrivi tra kepler e maxwell non è esatto.
kepler ancora aveva al suo interno circuitazioni logiche atte allo sfruttamento delle pipeline; maxwell ha portato queste circuitazioni a livello software e le ha semplicemente appioppate alla CPU (da cui anche il conteggio dell'efficienza relativa di maxwell e pascall: il lavoro della gestione fine della GPU, su queste architetture è demandato alla CPU, e se ti serve un 7700K a 5ghz per riuscire a sfruttarle al massimo, si dovrebbe contare anche il consumo di dover usare un 7700K a 5ghz invece che un 7700 non K a poco più di 3.5ghz).
quindi quei transistors che vedi su kepler e che rivedi pari pari su maxwell hanno un uso diverso.
se prendi la 780Ti e la titanX (due chip full) potrai vedere che l'integrazione è simile, ossia 2880 cuda core contro 3072, mentre il die size è addirittura più esteso (561 contro 601mm^2, ma la densità è praticamente la medesima).
la differenza però la fanno il bus dati, l'estensione dei controller, la caches, la compressione dati on the fly e tutte le altre tecnologie introdotte...
più o meno stesso indice di densità transistors, ma con più tecnologia?
logico che kepler, al posto di quella tecnologia, doveva mantenere altro: la logica di controllo, che tra l'altro lo limitava anche, proprio perchè non poteva sfruttare caches e banda ram sufficiente.
quindi oltre il 15-20% in meno di frequenza (che in finale avrebbero dovuto dare giusto quella differenza prestazionale), la maggiore efficacia di maxwell rispetto a kepler è dovuta essenzialmente al fatto che 1/6 dei transistors dedicati alla logica è diventato "virtuale" spostandosi nella CPU.... e parliamo di un centinaio di mm^2.
a guardarla in questo modo maxwell, GM200, sarebbe dovuto essere da 700mm^2, ed è logico che un chip più grande di 1/4 vada il 25% in più a pari frequenza, se poi l'aumenti anche ecco che hai il 50% in più di prestazioni.
la questione è che questo può essere efficiente solo fino a quando la potenza della CPU, senza comunque considerare il fatto che stai sfruttando quei transistors, ma che di solito non li conteggi nella potenza assorbita, è sufficiente a gestire il tutto.
se però la potenza grafica richiederebbe una CPU ad oggi impossibile da produrre, come la metti?
fai un kepler 2, solo che invece che interno, la gestione della logica l'affidi all'esterno?

ora è chiaro perchè usare le DX12 con AC è imperativo, che sarebbe opportuno per nvidia reinserire la logica nel chip, invece che sfruttare quello spazio e quei transistors per ulteriore ampiamento dei cluster di calcolo, ma che poi non si potranno facilemnte gestire?
o la questione è che dovremmo comunque rimanere ancorati ai 60fps ma potremmo usare gli 8K per vedere le GPU sfruttate al 100%?

è per questo che son curioso cosa nvidia tirerà fuori dal cappello;
perchè si potrà vedere se vorrà nuovamente mungere i gamer o, finalmente, dare uno scossone alla tecnologia, facendola avanzare nella giusta direzione.

se farà un pascal 2 a 12nm... rimarremo fossilizzati a questo che stiamo vedendo oggi per altri 2 o 3 anni, con solo la questione che potremmo giocare a 4K, ma sempre con la solita modalità (ossia CPU con millemila core overclockate al massimo per farle andare bene in single thread).

nickname88
06-03-2018, 14:46
il TDP è lo stesso perché nvidia ha aumentato le specifiche hardware e silicio sul chip (+33%) lasciando invariato il clock, il 12nm fa questo.
NVidia per gv100 ha optato soprattutto per un aumento dell'hardware piuttosto che del clock, nel gaming non farà così in quanto aumenterà di poco l'hardware con 7SM al posto di 5SM a parità del resto, ma assieme ad un aumento di clock, effetto anche delle ottimizzazioni del layout.

Quindi, cosa c'entra questo con il fatto che lucusta indica il 12nm come uno shrink del 16nm ? :stordita:

Non è un pp più ridotto e non è uno shrink, lo chiamano così perché migliora il 16nm, 3 anni fa lo avrebbero chiamato 28nm HP.
L'aumento del clock in genere porta ad un rapporto Perf / Watt molto meno efficiente rispetto a quanto ottenibile invece aumentando le unità di calcolo.

lucusta
06-03-2018, 15:00
il TDP è lo stesso perché nvidia ha aumentato le specifiche hardware e silicio sul chip (+33%) lasciando invariato il clock, il 12nm fa questo.
NVidia per gv100 ha optato soprattutto per un aumento dell'hardware piuttosto che del clock, nel gaming non farà così in quanto aumenterà di poco l'hardware con 7SM al posto di 5SM a parità del resto, ma assieme ad un aumento di clock, effetto anche delle ottimizzazioni del layout.

Quindi, cosa c'entra questo con il fatto che lucusta indica il 12nm come uno shrink del 16nm ? :stordita:

Non è un pp più ridotto e non è uno shrink, lo chiamano così perché migliora il 16nm, 3 anni fa lo avrebbero chiamato 28nm HP.

mi ripeto:
il PP TMSC-Nvidia che hanno usato su V100 è quello che descrivi, ma non quello che è il 12nm TMSC, perchè non avrebbe avuto senso usarlo sui chip da smartphone.
la riduzione c'è, solo che su V100 non puoi determinarla per il semplice fatto che è un chip decisamente particolare, a se stante.

nickname88
06-03-2018, 15:45
Di fatto ga104 è una via di mezzo tra gp104 e gp102, cioè gli stessi GPC di gp104 ma con i CC di gp102 e maggior clock.
La liscia della versione successiva è sempre stata superiore ( di poco o di molto a seconda dei casi ) della Ti della Gen precedente, quindi ciò da te indicato potrebbe anche essere e in teoria sarebbe in linea con quanto aspettato. E la stessa cosa per la Ti in relazione alla attuale Titan V.

E così fu anche per maxwell, che non era altro che un chip nato addirittura con lo stesso identico PP

CrapaDiLegno
06-03-2018, 18:07
@Lucusta
Scrivere papiri non fa di scemenze una scienza.
Non ho voglia (né tempo) di stare a risponderti per ogni stupidata che hai scritto, e ne hai scritte tante.

Fatto sta che i 12nm non sono uno shrink dei 16nm e quindi non ci sarà alcuna riduzione delle dimensioni dei die a parità di transistor.
Questa cosa dell'efficienza di nvidia che è praticamente doppia di quella AMD (che aveva promesso 2.5x quella di GCN 1.2 con Polaris) deve esserti andata di traverso. Guardati dei test dove ci sono i consumi completi del sistema, e non solo quelli della CPU e vedrai che nvidia sta sempre un mondo avanti a AMD. Qualsiasi risoluzione, qualsisi fascia, la differenza di efficienza è enorme.
Ci sono test in cui addirittura si vede che è AMD a richiedere più CPU rispetto a nvidia.
Quindi sei completamente fuori strada.

Parli di AC, di 4, 8, 16 thread (neanche tu sai esattamente quanti ne sono gestiti ed evidentemente non sai cosa significa a livello di programmazione creare e tenere sincronizzati tanti thread per svolgere un lavoro), di pipeline, di un sacco di vaccate, ma alla fine glissi sul fatto che Polaris 10 ha 5.8 TFLOPS teorici (sulla 480, sulla 580 va ben oltre i 6 ma con doppio dei consumi) contro i 4.3 del GP106 pari rispettivamente al 34% e 41% in più) e fai un ragionamento assurdo per cercare di giustificare che con l'uso ad hoc e super ottimizzato dell'AC (che è fatto solo su un paio di titoli sponsorizzati AMD) le prestazioni di Polaris 10 superino del 10% quelle del GP106. Pur essendo più grande, con più banda, più TMU, più affamato di energia (e non poca). E la tua scusa è che il lavoro che non fa la GPU di nvidia la fa la CPU? Fosse anche la differenza dei consumi tra due sistemi che montano una o l'altra GPU non giustificano la differenza di prestazioni.
Glissi sul fatto che l'AC porta vantaggi solo se vuoi fare le cose in maniera poco "ortodossa", perché nella pipeline gaming non si capisce il motivo di splittare il lavoro in mille sottolavori (il numero di ALU è sempre quello e puoi usarli tutti con un solo thread, non sei su una CPU multi core dove i core in più DEVONO essere sfruttati con thread diversi) o di riordinarli continuamente (il tempo di calcolo di un frame necessario è fissato, e quello che non calcoli ora perché lo hai posticipato ti farà sempre ritardare, non lo puoi mettere "in background" e usarlo dopo).
Certo, AMD è più flessibile a fare quelle cose, anzi ne ha la necessità visto che a quanto pare ha tempi morti di calcolo abbastanza grandi, ma la verità è: serve realmente se l'architettura ha pochi tempi morti?
L'esempio della CPU 4 core vs 8 core è completamente sbagliato. La legge di Amdahl per te non è mai stata scritta. Studiala e vedi perché 8 core non faranno mai lo stesso lavoro di 4 a frequenza doppia. E questo vale anche per le GPU.
Tra le due, quella che ha problemi a sfornare FPS in rapporto ai TFLOPS teorici che ha disposizione e ai W ciucciati) è AMD, quindi, ripeto, a nvidia non serve alcun accrocchio che necessita ottimizzazione extra per essere sfruttato, ma al massimo qualche unità di calcolo in più. L'AC non fa alcuna differenza reale, il 10% di unità di calcolo in più invece permettono di avere SEMPRE il 10% di potenza di calcolo in più (visto che nvidia è in grado di usarle tutte senza problemi come puoi vedere dai risultati 4.3TFLOPs vs 6.
Torna a cercare una giustificazione per l'AC quando questo riuscirà a dare dei vantaggi oltre ai TFLOPS che nvidia già spree dalle sue unità. Ad oggi risulta che la migliore implementazione dell'AC d un engine già ottimizzato per AMD porta AMD a usare le sue ALU tanto quanto fa nvidia senza. Quindi l'AC a nvidia NON serve, le serve solo colmare il gap in termini di numero assoluto di ALU.

Hai parlato di un sacco di cose, ha usato migliaia di parolone (la metrica fissa, quella vettoriale...) tutta roba che ti sei inventato al momento per cercare di.. boh, sinceramente io non ho capito una cippa di quello che hai scritto, forse perché di concreto lì dentro non c'è nulla.
Partiamo con il fatto che la grafica vettoriale non è il raytracing. L'algoritmo del raytracing può avvantaggiarsi dell'uso di moltiplicazioni matriciali fatte in pochi cicli, ma non esiste la grafica vettoriale (se non quella usta dai programmi di publishing o dalle font che usano modelli vettoriali vs bitmap).
Si chiama raytracing e può essere implementato in maniere diverse.
Metrica fissa non vuol dire nulla, a meno che non parli di prosa e poesia.
Le dimensioni dei bit manipolabili dalle ALU sono limitazioni che hanno pure i tensor core, che infatti sono a 16bit (con accumulatore a 32). Se vuoi fare un calcolo a 512bit con un tensor core i cicli che perdi sono innumerevoli, e infatti non sono una alternativa alle AVX di Intel.
Combinare unità di calcolo floating point per ottenere un risultato con un numero di bit superiore a quelli "nativi" di ciascuna ALU non è semplice come per le unità integer (dove la situazione è lineare per somme e sottrazioni, ma non lo è per moltiplicazioni e divisioni). Mettere insieme 2 unità FP16 per formarne una FP32 non è banale e richiede diversa circuiteria extra che permette di cambiare il procedimento di calcolo della mantissa e dell'esponente, oltre che degli algoritmi usati per il rounding, ceiling, flooring, Nan etc...
Ancora più circuiteria è necessaria per mettere insieme 2 unità a FP32 per realizzare una unità FP64.
Ecco perché nvidia preferisce unità realizzate ad hoc, che risultano usare più spazio rispetto a usare una logica combinata ma sono decisamente più efficienti in termini di consumo.

Dette queste cose direi che inutile continuare a parlare del nulla del resto che hai scritto. Sei partito con il piede sbagliato sullo shrinking possibile e hai tentato la :mc:.
Hai parlato di AC dicendo un sacco di stupidate sui consumi e sulla efficienza e non hai fatto un confronto reale delle risorse messe in campo dall'una e dall'altra per ottenere gli stessi risultati. Vedi bene che se supporto AC significa più die size, più banda, più watt e partire con più TFLOPS teorici per arrivare là dove altri arrivano senza (e anzi a parità di TFLOPS teorici e 50% di consumi in meno sono mezzo giro avanti), qualcosa non torna nel ragionamento dei vantaggi che ha questo fantomatico AC e perché sarebbe così fondamentale per supportare le DX12 (cosa che ripeto nvidia supporta senza AC e senza patemi d'animo sulle prestazioni, cosa che invece ha la concorrenza che deve sperare che il gioco sia scritto al meglio per sfruttare le sue feature esclusive perché giri quantomeno come la concorrenza se non solo un po' meglio). Il vantaggio di AMD si chiama mondo console da dove arrivano i motori grafici ottimizzati per GCN e scrausi in geometria perché GCN schiatta se usata pesantemente. Senza quella "feature" si troverebbe mezzo giro indietro anche con l'AC (e forse avremmo motori che con nvidia girerebbero molto più velocemente di quanto già non facciano ora e più ricchi geometricamente).

Infine hai fatto un discorso sui costi: non ti sei accorto che AMD su Vega e Polaris ha margine nullo. Ma proprio nullo. Con tutte le schede che ha venduto (se crediamo al report di questo trimestre) ha avuto un aumento del fatturato limitato e che è soprattutto frutto delle vendite di Ryzen. Mentre nvidia (sempre se crediamo al report) ha fatto un altro balzo in avanti nel fatturato e nel guadagno netto.
E' facile pensare che un prodotto sia migliore solo perché costa meno. Pensalo invece come un prodotto che sarebbe dovuto essere venduto a prezzi maggiore ma per motivi vari (tra cui non arrivare oltre la concorrenza in termini di prestazioni nonostante più risorse e costi) deve essere svenduto.
Vega non è certo un chip nato per costare meno del GP102. Anzi. E' nato, come Fiji , per cercare di arrivare oltre e così giustificare il suo (enorme) costo. E invece ha fallito. Prezzo di lancio ridotto da 1200 a 1000 dollari, regalo dei driver con accelerazioni per le applicazioni grafiche pro.. tutti sintomi che il prodotto non è quello che sperava di ottenere (altrimenti AMD non avrebbe di certo rinunciato ai guadagni relativi a quanto invece regalato).
Quindi non prendere la strategia di AMD come il target su cui puntava, ma rovescia la cosa, e guarda la attuale strategia di AMD come il tentativo di salvare il salvabile di un prodotto che è nato veramente male.
Fortuna poi che è arrivato il mining e si è portato via tutto come uno tsunami. E spera che la cosa duri almeno fino a Navi. Altrimenti la vedo dura per AMD svendere migliaia di Vega a 300 euro per fare concorrenza alla 1070 (che costa una sciocchezza a nvidia e a quel prezzo ancora ci guadagnerebbe di brutto). Soprattutto la vedo dura per AMD vendere l'attuale numero di GPU in assoluto. E se non sta facendo margini ora.. figuriamoci dopo.

CrapaDiLegno
06-03-2018, 18:15
In realtà come ti dicevo anche il 28nm ha avuto miglioramenti nel tempo ma solo che non c'era il marketing di oggi, sia Maxwell che Fiji/Tonga utilizzato un 28nm HP, miglioramento dello stesso silicio, in più con maxwell c'è uno stravolgimento nell'architettura a parità di PP rispetto a kepler ed un chip nativo gaming, non esiste una versione specifica dell'architettura nata per l'HPC come avvenuto con kepler pascal e volta.

Ed è per questo che chi si aspetta un salto medesimo tra pascal e volta, come successo tra kepler e maxwell, si sbaglia.

Con Maxwell nvidia ha aumentato il die per avere più potenza di calcolo. Rivedendo l'architettura è riuscita ad evitare di dover usare il doppio dello spazio delle ALU per avere il doppio della potenza di calcolo e soprattutto ha ottenuto maggio re potenza con minore consumo. Cosa che è stata fondamentale per lanciare Maxwell nel mobile e tagliare fuori completamente quella robaccia di GCN con consumi quasi doppi.
Siccome qui è pià o meno nelle stessa situazione, non è detto che non faccia la stessa cosa, con la differenza che visto il gap di consumi con la concorrenza può permettersi di aumentare anche questi per "rubare" qualche TFLOPS in più. Fai il rapporto dei W tra Polaris e Pascal per lo stesso lavoro e prova a pensare ad un Pascal che consuma quando Polaris. Tipo un GP106 obeso a 220/240W, i consumi delle 580 OC con cui la gente si gongola di battere la 1060. Vedi quanti giri nvidia guadagna rispetto a AMD in termini prestazionali. Non è necessario stravolgere tutto.

lucusta
06-03-2018, 19:12
CdL, iniziare così una discussione:
@Lucusta
Scrivere papiri non fa di scemenze una scienza.

ha solo un risultato: ti mando debitamente al cesso.

lucusta
06-03-2018, 19:21
In realtà come ti dicevo anche il 28nm ha avuto miglioramenti nel tempo ma solo che non c'era il marketing di oggi, sia Maxwell che Fiji/Tonga utilizzato un 28nm HP, miglioramento dello stesso silicio, in più con maxwell c'è uno stravolgimento nell'architettura a parità di PP rispetto a kepler ed un chip nativo gaming, non esiste una versione specifica dell'architettura nata per l'HPC come avvenuto con kepler pascal e volta.

Ed è per questo che chi si aspetta un salto medesimo tra pascal e volta, come successo tra kepler e maxwell, si sbaglia.

il 28nm e del 2012.
se vai a prendere le ultime implementazioni fanno impallidire, con le APU bristol ridge capaci di avere un TDP da 65W con prestazioni superiori alle godavari di una sola precedente generazione che spuntano un TDP da 95W (molto approssimativo, se vogliamo essere precisi).

sulla pagina di TMSC da te linkata c'è scritto:
..."TSMC also introduced a more cost-effective 16nm FinFET Compact Technology (16FFC), which entered production in the second quarter of 2016. This process maximizes die cost scaling by simultaneously incorporating optical shrink and process simplification. Furthermore, 12nm FinFET Compact Technology (12FFC) drives gate density to the maximum, for which entered production in the second quarter of 2017"...
i 12FFC sono mirati specificatamente alla maggiore densità, mantenendo inalterata frequenza e potenza da dissipare (e non del 3%, ma del 30%).
ripeto:
le variabili in un processo produttivo sono: densità di transistors, frequenza masima raggiungibile e potenza da dissipare; tre variabili correlate strettamente tra di loro.
aumenti una, le altre due dovranno diminuire la loro influenza.

lucusta
06-03-2018, 19:38
Con Maxwell nvidia ha aumentato il die per avere più potenza di calcolo. Rivedendo l'architettura è riuscita ad evitare di dover usare il doppio dello spazio delle ALU per avere il doppio della potenza di calcolo e soprattutto ha ottenuto maggio re potenza con minore consumo. Cosa che è stata fondamentale per lanciare Maxwell nel mobile e tagliare fuori completamente quella robaccia di GCN con consumi quasi doppi.
Siccome qui è pià o meno nelle stessa situazione, non è detto che non faccia la stessa cosa, con la differenza che visto il gap di consumi con la concorrenza può permettersi di aumentare anche questi per "rubare" qualche TFLOPS in più. Fai il rapporto dei W tra Polaris e Pascal per lo stesso lavoro e prova a pensare ad un Pascal che consuma quando Polaris. Tipo un GP106 obeso a 220/240W, i consumi delle 580 OC con cui la gente si gongola di battere la 1060. Vedi quanti giri nvidia guadagna rispetto a AMD in termini prestazionali. Non è necessario stravolgere tutto.

te lo riscrivo: da kepler a maxwell l'architettura ha avuto un totale stravolgimento, principalmente di paradigma operazionale: lo scheduler è stato portato in SW, perchè risultava molto più flessibile.
evitava di avere comunque una schedulazione HW e usare comunque un layer di emulazione nei driver per riportare codici che non fossero stati cuciti addosso all'architettura nel modo corretto, come invece è costretta a fare AMD, che però ha altri parametri di sviluppo per le sue architetture.
quindi hai tanti, ma proprio tanti transistors in meno, compensati invece dall'integrazione di tecnologie che aumentano il rendimento di calcolo eliminando ristrettezze di risorse (maggiorazione della caches, più controller memoria, tecnologia HW per la compressione dei dati su RAM, che permette di aumentare virtualmente la banda ram).

i miglioramenti del PP si sono invece concretizzati nel clock massimo raggiungibile, mentre la densità di transistors è pressochè invariata.

la questione odiera è che quando la 980 Ti e la titan sono uscite si poteva comunque contare su processori da oltre 4Ghz in overclock.
con pascal , continuazione di questo filone architetturale già la 1080 superava una titan, ed i 4Ghz risultavano già stretti (per le medesime risoluzioni).
se domani fanno una 2070 che ha la potenza computazionale di una titan XP non ti bastano più i 4.8 ghz dei 7700K già con quella, figurati con schede ancora più potenti.
avremo in pratica zero vantaggi... a 1080p una 2070, una 2080 o una 2080 Ti avrebbero lo stesso frame rate, perchè sarà la CPU a limitarne le performance, e lo faranno CPU da 4.8Ghz e superiori....
a quel punto l'unica cosa che possono fare è produrre giochi che sfruttino la potenza grafica messa a disposizione, aumentando la risoluzione o i dettagli ed i filtri (e di esempi li vedremo presto, visto le demo che girano).

in pratica è come andare a guardare come si comportano oggi 1070, 1080 e 1080 Ti a 1024x768 su una CPU a 4ghz... quanta differenza di frame rate pensi che possano avere, essendo tutte CPU limited?

è per questo che è auspicabile che nvidia intervenga principalmente su questo fattore, così che non sia più necessario, su un sistema da gioco, puntare specificatamente a CPU da 4.8ghz, ma magari a CPU non K o con più core, sfruttabili anche in ambienti produttivi.

e questo lo ottieni con un HW che scarica la CPU da gravosi e inutili compiti a lei attribuiti e dall'uso omogeneo ed oculato delle risorse: scheduler HW e AC.
oggi è così esclusivamente perchè nvidia fa architetture in questo modo da ben 5 anni, che poco si discostano, comunque dal miglior sfruttamento di API di 6 o 7 anni fa.

lucusta
06-03-2018, 19:41
e comunque le mie sono ipotesi e indirizzi di sviluppo per certe tecnologie (sviluppo più logico, non più remunerativo), visto che ci sono relativamente ben pochi dati da poter considerare...
le vostre invece sono certezze, con gli stessi dati.

è questa la differenza tra discutere e sindacare...

tra un mesetto, comunque, ci saranno più informazioni.

nickname88
07-03-2018, 09:57
In realtà come ti dicevo anche il 28nm ha avuto miglioramenti nel tempo ma solo che non c'era il marketing di oggi, sia Maxwell che Fiji/Tonga utilizzato un 28nm HP, miglioramento dello stesso silicio, in più con maxwell c'è uno stravolgimento nell'architettura a parità di PP rispetto a kepler ed un chip nativo gaming, non esiste una versione specifica dell'architettura nata per l'HPC come avvenuto con kepler pascal e volta.

Ed è per questo che chi si aspetta un salto medesimo tra pascal e volta, come successo tra kepler e maxwell, si sbaglia.
In realtà la dimensione di GP104 e GP102 in relazione alla precedente gen Maxwell sono ben inferiori, quindi Nvidia avrebbe margine per rifare la stessa mossa del passato.

Infatti GM204 montato sulla vecchia 80 liscia di Maxwell ha un die grande quasi quanto il GP102 ( probabilmente a far la differenza è solo il controller ) montato sulla 1080Ti, mentre il vecchio GM200 è grande praticamente grande quanto GP100.

In teoria se il 12nm promette poco in termini di densità, vedendo quanto fatto con Titan V, vedo largamente fattibile la realizzazione un GP102 sui 400mmq e sui 200W di TDP come prossima 2080 liscia.
E una versione 50% più grande ( grande esattamente come GP100 ) come 2080Ti.

Lionking-Cyan
07-03-2018, 10:06
Quante chiacchiere. Ma si può sapere se queste prossime gpu avranno un processo produttivo più raffinato?

CrapaDiLegno
07-03-2018, 12:30
CdL, iniziare così una discussione:

ha solo un risultato: ti mando debitamente al cesso.
Per il pattume di robe che scrivi la cosa non mi fa certo tristezza.
Parli a vanvera e non mi dispiace che sul forum non appaiano altri post contenenti altro pattume (Metrica fissa... :doh:).

te lo riscrivo: da kepler a maxwell l'architettura ha avuto un totale stravolgimento, principalmente di paradigma operazionale: lo scheduler è stato portato in SW, perchè risultava molto più flessibile.
evitava di avere comunque una schedulazione HW e usare comunque un layer di emulazione nei driver per riportare codici che non fossero stati cuciti addosso all'architettura nel modo corretto, come invece è costretta a fare AMD, che però ha altri parametri di sviluppo per le sue architetture.
quindi hai tanti, ma proprio tanti transistors in meno, compensati invece dall'integrazione di tecnologie che aumentano il rendimento di calcolo eliminando ristrettezze di risorse (maggiorazione della caches, più controller memoria, tecnologia HW per la compressione dei dati su RAM, che permette di aumentare virtualmente la banda ram).

i miglioramenti del PP si sono invece concretizzati nel clock massimo raggiungibile, mentre la densità di transistors è pressochè invariata.

la questione odiera è che quando la 980 Ti e la titan sono uscite si poteva comunque contare su processori da oltre 4Ghz in overclock.
con pascal , continuazione di questo filone architetturale già la 1080 superava una titan, ed i 4Ghz risultavano già stretti (per le medesime risoluzioni).
se domani fanno una 2070 che ha la potenza computazionale di una titan XP non ti bastano più i 4.8 ghz dei 7700K già con quella, figurati con schede ancora più potenti.
avremo in pratica zero vantaggi... a 1080p una 2070, una 2080 o una 2080 Ti avrebbero lo stesso frame rate, perchè sarà la CPU a limitarne le performance, e lo faranno CPU da 4.8Ghz e superiori....
a quel punto l'unica cosa che possono fare è produrre giochi che sfruttino la potenza grafica messa a disposizione, aumentando la risoluzione o i dettagli ed i filtri (e di esempi li vedremo presto, visto le demo che girano).

in pratica è come andare a guardare come si comportano oggi 1070, 1080 e 1080 Ti a 1024x768 su una CPU a 4ghz... quanta differenza di frame rate pensi che possano avere, essendo tutte CPU limited?

è per questo che è auspicabile che nvidia intervenga principalmente su questo fattore, così che non sia più necessario, su un sistema da gioco, puntare specificatamente a CPU da 4.8ghz, ma magari a CPU non K o con più core, sfruttabili anche in ambienti produttivi.

e questo lo ottieni con un HW che scarica la CPU da gravosi e inutili compiti a lei attribuiti e dall'uso omogeneo ed oculato delle risorse: scheduler HW e AC.
oggi è così esclusivamente perchè nvidia fa architetture in questo modo da ben 5 anni, che poco si discostano, comunque dal miglior sfruttamento di API di 6 o 7 anni fa.
Blha, blha, blah.. stringi stringi i numeri veri vanno dimostrati.
Eccoli: https://www.anandtech.com/show/11717/the-amd-radeon-rx-vega-64-and-56-review/19
Risultato delle scelte di nvidia: a parità di consumi (totali, anche dell'intero PC) va di più (molto di più). Il carico sulla CPU è variabile e non è assolutamente vero che AMD ne usa di meno.
Considera che i motori dei giochi, tutti provenienti da console, sono ottimizzati AMD e guarda quali sono i risultati. Figurati se fosse l'inverso...

Non si intravede un miglioramento architetturale simile a questo giro, ci sarà ma è marginale e certamente non così marcato e poi sappiamo perché maxwell migliora così tanto kepler dal punto di vista hardware; tra l'altro il GV100 sotto Titan V anche se con i suoi limiti di clock/tdp e hardware specifico inutile nel gaming lo ha dimostrato, un GA102 spoglio e con più clock porterà ad un altro +15% massimo , mica ad un +50%.
Vedi che la versione della Titan V provata non aveva nessun driver ottimizzato, ed essendo una architettura abbastanza diversa da Pascal molte cose potrebbero funzionare molto meglio con un driver ad hoc. Ma nvidia non la vende come scheda da gioco, per cui inutile sprecare risorse.
Cosa ovviamente che avverrà per una eventuale versione consumer (per quanto inevitabilmente tagliuzzata).
Quindi i risultati del GV100 vs GP102 lasciano un po' il tempo che trovano.

Guarda che Pascal clockato come si deve non è così parsimonioso nei consumi, non so che review hai visto, ma indubbiamente nvidia è stata brava a downclockarlo e castrarlo nel TDP per le review ;)
se prendi una 1080 in OC neanche tanto spinto sfori tranquillamente e i watt arrivano sui 230 e anche 250 watt, per non parlare della 1080ti che può arrivare oltre i 350-380 watt.
A parte che "cloccato come si deve" non si capisce cosa significa. Le GPU nvidia arrivano senza problemi a 1800MHz, alcune a 1900Mhz e a 2GHz con un po' di aiuto. Quindi di clock non mi sembra che manchino.
Hai visto cosa consuma la 580 Nitro++ OC? Te lo dico io: 240W. Dimmi se le prestazioni di una 1080 OC sono paragonabili a quelle di una 580 OC. Così, giusto per capire che tipo di ragionamenti stai facendo.
La 1080Ti non arriva a 380W (dove li hai visti?). Arriva al massimo a 310-320W in fortissimo OC e con prestazioni che nessuna scheda AMD può solo immaginare. A 380W arriva il PC completo con la 1080Ti FE.
Tu stai parlando di consumi, io di efficienza = lavoro svolto / W usati.
E nvidia sotto questo punto di vista è inarrivabile per la attuale architettura AMD.

le reference sono tutte schede downclockate, e tra l'altro non è che guadagni chissà quanto in prestazioni si è no un 10%, e non il 20% come maxwell.

Sicuramente è più efficiente, ma si può dire che le amd escono di fabbrica quasi al massimo del clock e senza limitazioni elettriche (tipo le tensioni), mentre le nvidia no, si può dire che le 580 siano delle 480 overclockate di fabbrica tanto che in OC non prendono quasi niente in watt e poco in clock.

Che poi voglio dire, saranno mica 50 watt a fare tutta questa differenza.

Certo, downcloccate a 1600MHz di base per arrivare automaticamente fino 1900MHz senza problemi. Scusa ma di che stiamo parlando?
A parte che Polaris avrebbe dovuto consumare meno di 150W, quando ti arriva la versione che ne consuma 240 per fare 4 frame in più della rivale che ne consuma 120 (con chip più piccolo.. ah, ma AMD con l'AC fa il 10% in più!! Vedi che l'AC serve????), be', sì, insomma, la cosa lascia parecchio perplessi.
A 150W c'è la 1070 e a 180W c'è la 1080, sì quelle lisce. Vedi te la differenza di prestazioni. Con o senza AC.

In realtà la dimensione di GP104 e GP102 in relazione alla precedente gen Maxwell sono ben inferiori, quindi Nvidia avrebbe margine per rifare la stessa mossa del passato.

Infatti GM204 montato sulla vecchia 80 liscia di Maxwell ha un die grande quasi quanto il GP102 ( probabilmente a far la differenza è solo il controller ) montato sulla 1080Ti, mentre il vecchio GM200 è grande praticamente grande quanto GP100.

In teoria se il 12nm promette poco in termini di densità, vedendo quanto fatto con Titan V, vedo largamente fattibile la realizzazione un GP102 sui 400mmq e sui 200W di TDP come prossima 2080 liscia.
E una versione 50% più grande ( grande esattamente come GP100 ) come 2080Ti.
Esatto. nvidia con Maxwell ha realizzato chipponi più grandi di Kepler (anche se qualche mago delle parole dice che mancano di questo e quello e fa tutto la CPU) e insieme all'incremento di frequenza (limitato invero) sono riusciti a fare una architettura mezza generazione avanti a Kepler ma sullo stesso PP.
Qui c'è la possibilità di fare lo stesso.
Se i 330mm^2 del GP104 diventano anche 400 con un aumento del 30% delle ALU (anche lasciando invariato il resto, alla maggior banda ci pensa al GDRR6), qualche miglioramento a livello di esecuzione e si avrà un aumento più che lineare della potenza computazionale -> 2080 = 1080Ti.
Che non mi sembra male. Ovviamente tutte le fasce sotto, come sempre, si spostano senza rivoluzioni, ma ci sarà la possibilità di spingere le prestazioni della 1080Ti oltre senza innescare altiforni (come con Vega e la versione a liquido.. dimostrazione palese che qualcosa non va in quella architettura). Tanto visto i prezzi un chip più grande ci sta, come ai bei vecchi tempi.

(Poi nvidia ci frega tutti e arriva con un MCM :D, ma no, dai è ancora presto e il valore delle schede permettono ancora chip monolitici).

nickname88
07-03-2018, 12:37
i conti sono già stati fatti con le stime che portano a queste dimensioni


I conti non sono stati fatti.
Queste sono comunque ipotesi.

Stessa cosa sul discorso architettura, non sta scritto da nessuna parte che sarà la stessa, in teoria si parlava tempo addietro del passaggio da chip monolitici a più moduli nello stesso chip come per le CPU AMD.

Fatto sta che la 80 liscia della prox generazione dovrà andare di più o uguale alla 1080Ti e la prossima Ti a scalare, altrimenti non conviene farle uscire, è sempre stato così. Le strade ci sono quindi non capisco perchè non bisogna aspettarsi chissà cosa.

E' la normalità.
Non c'è alcuna sottodimensione.

nickname88
07-03-2018, 14:27
un SM pascal è grande 7.5mmq, è presto fare i conti di quello che sarà Ampere e sono quindi stime verosimili sulle dimensioni finali dei chip Ampere.
---
lo dico a entrambi, non so se avete mai seguito le discussioni ufficiali ma questi aspetti sono stati trattati e non sono ipotesi :)
Capito ma non possono non essere ipotesi.
Nessuno del thread ufficiale ha info attendibili.
Quindi automaticamente sono fantasticherie.

Che poi logicamente ci siano strade relativamente auspicabili ok.
Però dopo 2 anni di tempo nulla toglie che questi possano anche decidere approcci differenti.

Comunque vada non vedo perchè aspettarsi poco.
Un passaggio di Gen con boost nella media direi che è fattibile in larga tranquillità.