PDA

View Full Version : Prime indiscrezioni su NVIDIA GeForce GTX 1180: debutto in estate?


Redazione di Hardware Upg
19-04-2018, 13:01
Link alla notizia: https://www.hwupgrade.it/news/skvideo/prime-indiscrezioni-su-nvidia-geforce-gtx-1180-debutto-in-estate_75452.html

Il debutto della prima scheda video NVIDIA GeForce GTX basata su architettura Turing di nuova generazione è atteso per l'estate: prestazioni allineate a quelle del modello GeForce GTX Titan Xp ad una frazione del costo

Click sul link per visualizzare la notizia.

leoneazzurro
19-04-2018, 13:45
E quando dicevo sul forum di Anandtech che si sarebbe chiamata 1180 invece di 2080 tutti a darmi addosso... :D

nickname88
19-04-2018, 14:07
Uscita questa estate ? Quindi ben 2 anni di attesa !
E siamo ancora solamente ai rumors ....

E meno male che il consumatore veniva tutelato con la concorrenza per mantenere bassi i prezzi ed evitare il ristagno tecnico .... Gli anni in cui Nvidia non aveva concorrenza erano addirittura migliori e le soluzioni uscivano più rapidamente di ora.

DukeIT
19-04-2018, 14:16
Se aspettano ancora un po' a vivere negli allori, presentando nuove VGA ogni 3 anni, vendendo schede vecchie a prezzi astronomici e non risolvendo il problema dei miners, se dovesse cadere la richiesta da parte dei miners, rischieranno di trovare che chi usava il PC, sobbarcandosi costi nettamente maggiori, sarà passato ormai alle console.

nickname88
19-04-2018, 14:40
Io lo voterei come post dell'anno... come premio speciale per la mancanza di senso.
Non avevi nient'altro di meglio da fare, lo capisco.

xxxyyy
19-04-2018, 15:19
Se e' vero che questa Turing non avra' i tensor cores... l'unica cosa per me interessante, sicuramente mi orientero' verso AMD.

nickname88
19-04-2018, 15:27
Ma dai su, prima di tutto perchè mai schede che escono più spesso dovrebbero corrispondere a maggior tutela per il consumatore?Ristagno tecnico ?
Prodotti vecchi venduti a prezzo alto ?
Insufficienza prestazionale non colmata dalle offerte di mercato ?

Inoltre non capisco il senso di scrivere "Gli anni in cui Nvidia non aveva concorrenza" quando siamo al minimo di concorrenza da quando hanno inventato le gpu.La concorrenza c'è fino a quando esiste almeno un competitor. E attualmente non solo esiste AMD ma addirittura sembra coprire quasi tutte le fasce a parte quelle più alte, e per giunta prestazionalmente è presente e vende più di Nvidia visto che il market share aumenta più a loro favore.

Legolas84
19-04-2018, 15:30
Belle schede.... ma se vanno davvero solo il 50% in più delle 1080 lisce questo significa andare circa il 10% in più della 1080Ti.

In questo caso quindi io salterei questa in attesa del chip grosso.

Curioso del perf/watt.

Ma tanto per me non c'è fretta....

xxxyyy
19-04-2018, 16:07
Ma tanto non c'è fretta....

Dillo a chi deve pilotare il mese prossimo un Pimax 8K X...

Legolas84
19-04-2018, 16:09
Dillo a chi deve pilotare il mese prossimo un Pimax 8K X...

sorry, ho editato.

Maxt75
19-04-2018, 19:48
Perchè per logica dovrebbe chiamarsi 1180 ? Solo a me per logica viene da chiamarla la serie 2000 ?

Maxt75
19-04-2018, 22:30
Non so a me genera confusione 1160... 1180. Trovo più diretto e leggibile 2060 ecc in conseguenza alla serie 1000

Gyammy85
20-04-2018, 09:11
Se e' vero che questa Turing non avra' i tensor cores... l'unica cosa per me interessante, sicuramente mi orientero' verso AMD.

Ma ti mettevano i tensor cores su una scheda gaming? e tutti i discorsi dei guru qua dentro sulle schede supermodulari fighe invece delle mining oriented amd dove andavano a finire? :asd:

Belle schede.... ma se vanno davvero solo il 50% in più delle 1080 lisce questo significa andare circa il 10% in più della 1080Ti.


E che ti aspettavi, 1180=1080ti e 1180ti=titan v, ma senza i tensor e con 100 mhz in più e 100 sp in meno, it's for gaming baby :asd:

Micene.1
20-04-2018, 10:40
l'attenzione ormai nn è sulla caratteristiche tecniche ma sui prezzi e disponibilità

bagnino89
20-04-2018, 10:43
E che ti aspettavi, 1180=1080ti e 1180ti=titan v, ma senza i tensor e con 100 mhz in più e 100 sp in meno, it's for gaming baby :asd:

No, è molto più probabile che le 1170 andranno come le 1080 Ti, e poi a salire...

Mparlav
20-04-2018, 11:22
l'attenzione ormai nn è sulla caratteristiche tecniche ma sui prezzi e disponibilità

E' l'unica cosa che conta e non sono particolarmente ottimista nè per uno, nè per l'altro.

Visto che debutteranno oltre 2 anni dopo le GTX1080, hanno avuto tutto il tempo che volevano per ottimizzare le nuove schede a livello hw e sw.

lucusta
20-04-2018, 12:39
l'attenzione ormai nn è sulla caratteristiche tecniche ma sui prezzi e disponibilità

e hai ragione!
qui le crypto non rendono più, ma i prezzi continuano a rimanere alti.
altro che speculazione... sta diventando ricatto.:mad:

lucusta
20-04-2018, 12:42
No, è molto più probabile che le 1170 andranno come le 1080 Ti, e poi a salire...

la mettiamo nel catalogo delle ultime parole famose?

100% in più chi credi che te lo regali oggi?

poi, certo, se fanno un chip da 400mm^2 e te lo vendono a 800 euro minimo, avranno anche la faccia tosta di poterlo chiamare "Arlecchino", tanto è solo un nome e la faccia tosta di certo non manca ad nvidia...

Gyammy85
20-04-2018, 14:12
No, è molto più probabile che le 1170 andranno come le 1080 Ti, e poi a salire...

Se vabbè :asd:
Ah, il marketing...

La titan v è il top, e in base alla supermodularità scaleranno tutte da quella.

Gyammy85
20-04-2018, 14:18
E' l'unica cosa che conta e non sono particolarmente ottimista nè per uno, nè per l'altro.

Visto che debutteranno oltre 2 anni dopo le GTX1080, hanno avuto tutto il tempo che volevano per ottimizzare le nuove schede a livello hw e sw.

Tanto il software è ottimizzato per loro fin dal 2011, basta solo decidere quanto spingere sulla turbocompressione e fare il tuning di frequenze/sp, per restare a livelli giusti e non dare l'impressione di fare una scheda general purpose ma solo, certificatamente, impressionantemente e fortemente gaming. :sofico:

nickname88
20-04-2018, 15:06
Se vabbè :asd:
Ah, il marketing...

La titan v è il top, e in base alla supermodularità scaleranno tutte da quella.

Marketing un tubo, le nuove serie han sempre rispettato questa linea.
Con la xx70 che va come la Ti precedente, è stato così per tutte le serie.
Se non ci arrivano in tranquillità vuol dire che realizzeranno chip più grossi, come fecero con Maxwell.

Gyammy85
20-04-2018, 15:08
Marketing un tubo, le nuove serie han sempre rispettato questa linea.
Con la xx70 che va come la Ti precedente, è stato così per tutte le serie.
Se non ci arrivano in tranquillità vuol dire che realizzeranno chip più grossi, come fecero con Maxwell.

Stavolta non c'è uno shrink dai 28 ai 16, guardati le performance della titan v...
Certo possono fare chip più grossi da 400w che gli frega #maxpower :asd:

nickname88
20-04-2018, 15:14
Stavolta non c'è uno shrink dai 28 ai 16, guardati le performance della titan v...
Certo possono fare chip più grossi da 400w che gli frega #maxpower :asd:
Infatti la serie 10 ha portato ad un +70% rispetto alla vecchia soluzione, direi un eccezione.

Anche con Maxwell non c'era uno shrink. è stato realizzato tutto con lo stesso identico PP, aumentando le dimensioni del chip.
Quì invece c'è un minimo di shrink e se non altro porta ad una maggior efficienza e clock più elevati, quindi la situazione è anche migliore.

GM104 = 398 mm²
GP104 = 314 mm²
GP102 = 471 mm² comprendente un cluster disattivato e un bus da 384bit.


Quindi Nvidia ha il margine per rifare la stessa cosa.

Gyammy85
20-04-2018, 15:17
Infatti la serie 10 ha portato ad un +70% rispetto alla vecchia soluzione.

Anche con Maxwell non c'era uno shrink, anzi no ... a dire il vero quì c'è un minimo di shrink e se non altro porta ad una maggior efficienza, quindi la situazione è anche migliore.

GM104 = 398 mm²
GP104 = 314 mm²

Intanto maxwell è un pò come gcn per amd, una svolta, la supercompressione ovunque e tutto il resto
A me sembra più logico 1170 a 1080 e 1180 a 1080ti, ripeto guardati quanto va rispetto alla 1080ti una titan v con quello sfracello di sp...
Se comprimono ancora di più si giocherà direttamente in bianco e nero :asd:

nickname88
20-04-2018, 15:21
Intanto maxwell è un pò come gcn per amd, una svolta, la supercompressione ovunque e tutto il resto
A me sembra più logico 1170 a 1080 e 1180 a 1080ti, ripeto guardati quanto va rispetto alla 1080ti una titan v con quello sfracello di sp...
Se comprimono ancora di più si giocherà direttamente in bianco e nero :asd:Se fosse come dici tu non usciranno.

Un GP102 così comè ora con lo stesso PP, ma con bus da 256bit e 3584 stream fisici in totale potrebbe benissimo esser già sufficiente per chiuderlo a 400mmq come GM104. Con il nuovo PP a garantire le frequenze.

Gyammy85
20-04-2018, 15:24
Se fosse come dici tu non usciranno.

Dico solo che se la titan Kepler andava più o meno come la 780ti, se la titan maxwell andava più o meno come una 980ti e una titan pascal va più o meno come la 1080ti, la 1180ti andrà più o meno come una titan v ;)

nickname88
20-04-2018, 15:27
Dico solo che se la titan Kepler andava più o meno come la 780ti, se la titan maxwell andava più o meno come una 980ti e una titan pascal va più o meno come la 1080ti, la 1180ti andrà più o meno come una titan v ;)Titan V potrebbe avere dei colli di bottiglia o semplicemente una mancanza di ottimizzazione lato software.
Perchè nei sintetici la potenza c'è e anche in alcuni titoli.

E anche se così non fosse, la 1080Ti non soffre di questi problemi, quindi non capisco perchè un chip di pari specifiche ma con frequenza più elevata dovrebbe risultare penalizzato.

andrà più o meno come una titan vSe andrà allo stesso modo non sò, di certo dovrà avere un numero di stream processors paragonabile.

Gyammy85
20-04-2018, 15:30
Titan V potrebbe avere dei colli di bottiglia.

Ha tipo 600 giga di banda passante, il fatto è che al contrario delle radeon le geforce scalano di più con la frequenza che con gli sp.

nickname88
20-04-2018, 15:32
Ha tipo 600 giga di banda passante, il fatto è che al contrario delle radeon le geforce scalano di più con la frequenza che con gli sp.
Leggi il resto.

Legolas84
20-04-2018, 15:36
Se comprimono ancora di più si giocherà direttamente in bianco e nero :asd:


Mancano le basi.
Qui c'è la convinzione che la compressione in banda implichi una riduzione della precisione del colore.

Dopo tutto hwupgrade va nella direzione che lo staff ha scelto.

Gyammy85
20-04-2018, 15:37
Leggi il resto.

Mah non credo abbia limitazioni lato software, semplicemente è un miglioramento che non stravolge.

Legolas84
20-04-2018, 15:39
Se fosse come dici tu non usciranno.

Un GP102 così comè ora con lo stesso PP, ma con bus da 256bit e 3584 stream fisici in totale potrebbe benissimo esser già sufficiente per chiuderlo a 400mmq come GM104. Con il nuovo PP a garantire le frequenze.

Tranquillo, per sapere come stanno veramente le cose, e anche tutto quello che c'è da sapere sul perchè la Titan V non ha prestazioni eccellenti in gaming (non è una scheda gaming) puoi andare sul thread aspettando le nuove VGA NVIDIA e leggerti i post di mikael che ne capisce giusto un pò più della media ;)

A quanto dice attualmente la 1180 avrà prestazioni superiori del 50% rispetto alla 1080 liscia (quindi anche a Vega 64) e di conseguenza il 15% circa in più rispetto alla 1080Ti.

Ovviamente se le specs sono quelle annunciate. ;)

Gyammy85
20-04-2018, 15:40
Mancano le basi.
Qui c'è la convinzione che la compressione in banda implichi una riduzione della precisione del colore.

Dopo tutto hwupgrade va nella direzione che lo staff ha scelto.

Era per dire che non hanno più molto margine per ottimizzare

Gyammy85
20-04-2018, 15:41
Tranquillo, per sapere come stanno veramente le cose, e anche tutto quello che c'è da sapere sul perchè la Titan V non ha prestazioni eccellenti in gaming (non è una scheda gaming) puoi andare sul thread aspettando le nuove VGA NVIDIA e leggerti i post di mikael che ne capisce giusto un pò più della media ;)

A quanto dice attualmente la 1180 avrà prestazioni superiori del 50% rispetto alla 1080 liscia (quindi anche a Vega 64) e di conseguenza il 15% circa in più rispetto alla 1080Ti.

Ovviamente se le specs sono quelle annunciate. ;)

E invece si, solo in giacca e cravatta. Il fatto che nvidia abbia bloccato l'uso dei tensor cores via eula "usate solo le quadro" lo dimostra.
Ripeto, non capisco per quale motivo non debba comportarsi come le altre titan rispetto alle ti della stessa gen.

Legolas84
20-04-2018, 15:45
E invece si, solo in giacca e cravatta. Il fatto che nvidia abbia bloccato l'uso dei tensor cores via eula "usate solo le quadro" lo dimostra.

Quante ne spari gnammy..... :asd: eddai ormai sei famoso :D

ci sei mai andato qui o ti viene l'orticaria? :asd:

https://www.nvidia.it/titan/titan-v/

NVIDIA TITAN V è la scheda grafica più potente mai creata per il PC, basata sull'architettura più avanzata del mondo, NVIDIA Volta. L’architettura GPU di supercomputing NVIDIA è ora disponibile per il tuo PC e per sostenere le più straordinarie innovazioni in tutti i settori industriali.

Magari diglielo anche a NVIDIA che è per giocare così aggiornano il sito ;)

Gyammy85
20-04-2018, 15:51
Quante ne spari gnammy..... :asd: eddai ormai sei famoso :D

ci sei mai andato qui o ti viene l'orticaria? :asd:

https://www.nvidia.it/titan/titan-v/

NVIDIA TITAN V è la scheda grafica più potente mai creata per il PC, basata sull'architettura più avanzata del mondo, NVIDIA Volta. L’architettura GPU di supercomputing NVIDIA è ora disponibile per il tuo PC e per sostenere le più straordinarie innovazioni in tutti i settori industriali.

Magari diglielo anche a NVIDIA che è per giocare così aggiornano il sito ;)

Roba che molto probabilmente avranno scritto pure per le altre titan, ma ciò non toglie che in gaming siano sempre andate come le ti, punto.

Legolas84
20-04-2018, 15:55
Roba che molto probabilmente avranno scritto pure per le altre titan, ma ciò non toglie che in gaming siano sempre andate come le ti, punto.

E invece no. Nelle altre non è scritto. La Titan V non è una scheda video per i gamer punto.

E il motivo per cui non ha le prestazioni che dovrebbe avere una GeForce o una vecchia Titan in game sono ben spiegate nel forum da uno dei due utenti che può dire di capirci qualcosa in questo argomento. Se vuoi te lo vai a leggere, se non vuoi continui sulla tua onda... tanto uno più, uno meno fa poca differenza.

bagnino89
20-04-2018, 17:33
la mettiamo nel catalogo delle ultime parole famose?

100% in più chi credi che te lo regali oggi?

poi, certo, se fanno un chip da 400mm^2 e te lo vendono a 800 euro minimo, avranno anche la faccia tosta di poterlo chiamare "Arlecchino", tanto è solo un nome e la faccia tosta di certo non manca ad nvidia...

Ma 100% in più di cosa? Tu non hai nemmeno la più pallida idea di come scalano le varie GeForce...

Se vabbè :asd:
Ah, il marketing...

La titan v è il top, e in base alla supermodularità scaleranno tutte da quella.

E stato così da Kepler a Maxwell e da Maxwell a Pascal, e così sarà da Pascal a Turing...

Lo so che così Vega non la si vede più manco col binocolo, ma tant'è...

https://tpucdn.com/reviews/NVIDIA/GeForce_GTX_1070/images/perfrel_3840_2160.png

Marketing un tubo, le nuove serie han sempre rispettato questa linea.
Con la xx70 che va come la Ti precedente, è stato così per tutte le serie.
Se non ci arrivano in tranquillità vuol dire che realizzeranno chip più grossi, come fecero con Maxwell.

Esatto.

Intanto maxwell è un pò come gcn per amd, una svolta, la supercompressione ovunque e tutto il resto
A me sembra più logico 1170 a 1080 e 1180 a 1080ti, ripeto guardati quanto va rispetto alla 1080ti una titan v con quello sfracello di sp...
Se comprimono ancora di più si giocherà direttamente in bianco e nero :asd:

Sì sì, ma è cosa nota che le Nvidia modificano i colori, i filtri, i GB, ecc.

Per non parlare dell'efficienza, "le Pascal non sono efficienti!". Infatti per farle andare bene devi abbinarci CPU clockatissime (e quindi che consumano molto), invece le Vega vanno al 100% pure con CPU a 2 GHz. Non lo ho detto io, eh...

:rolleyes:

Mancano le basi.
Qui c'è la convinzione che la compressione in banda implichi una riduzione della precisione del colore.

Dopo tutto hwupgrade va nella direzione che lo staff ha scelto.

Già...

Tranquillo, per sapere come stanno veramente le cose, e anche tutto quello che c'è da sapere sul perchè la Titan V non ha prestazioni eccellenti in gaming (non è una scheda gaming) puoi andare sul thread aspettando le nuove VGA NVIDIA e leggerti i post di mikael che ne capisce giusto un pò più della media ;)

Esatto, qua si sta parlando solo di aria fritta.

A quanto dice attualmente la 1180 avrà prestazioni superiori del 50% rispetto alla 1080 liscia (quindi anche a Vega 64) e di conseguenza il 15% circa in più rispetto alla 1080Ti.

Ovviamente se le specs sono quelle annunciate. ;)

Ma metti anche il 20%... Chissà che mostro sarà la 1180 Ti.

Per non parlare del fatto che un'ipotetica 1160 potrebbe andare come una 1080 (e come una Vega 64, con chip enormemente più grosso ed inefficiente).

nickname88
20-04-2018, 17:39
Per non parlare del fatto che un'ipotetica 1160 potrebbe andare come una 1080 (e come una Vega 64, con chip enormemente più grosso ed inefficiente).In teoria dovrebbe essere così o qualcosa di molto vicino.

Gyammy85
20-04-2018, 18:03
Ma metti anche il 20%... Chissà che mostro sarà la 1180 Ti.

Per non parlare del fatto che un'ipotetica 1160 potrebbe andare come una 1080 (e come una Vega 64, con chip enormemente più grosso ed inefficiente).

A stock, perché se la occhi andrà quanto una 1080ti!! :asd:

Eh la vega...ma vega chi??

Meglio chiudere, che come al solito si comincia a scadere nel ridicolo.

nickname88
20-04-2018, 18:08
A stock, perché se la occhi andrà quanto una 1080ti!! :asd:

Eh la vega...ma vega chi??

Meglio chiudere, che come al solito si comincia a scadere nel ridicolo.
Mi chiedo se riesci ad essere serio almeno qualche volta senza fare il giullare di fronte ad ogni risposta.

bagnino89
20-04-2018, 18:18
A stock, perché se la occhi andrà quanto una 1080ti!! :asd:

Eh la vega...ma vega chi??

Meglio chiudere, che come al solito si comincia a scadere nel ridicolo.

Guarda che bel grafico:

https://tpucdn.com/reviews/NVIDIA/GeForce_GTX_1080_Ti/images/perfrel_1920_1080.png

La 1060 va come la 980

La 1070 va come la 980 Ti

E se vedi quello sopra:

La 970 va come la 780 Ti

Qua i ridicoli sono ben altri... :rolleyes:

Mi chiedo se riesci ad essere serio almeno qualche volta senza fare il giullare di fronte ad ogni risposta.

Veramente.

Gyammy85
20-04-2018, 18:45
Mi chiedo se riesci ad essere serio almeno qualche volta senza fare il giullare di fronte ad ogni risposta.

Sai com'è, nell'articolo si parla di 1180 poco sopra la ti, qui dite "eh ma la 1160 andrà quanto la 1080", un tantinello ottimistico.

Poi nella tabella la titan sta quanto la ti, però non potrà mai essere che la 1180ti vada quanto la titan v, perché per qualche oscuro motivo la titan v è segata nel gaming, cosa che non avviene per tutte le altre titan. Boh, saranno i troppi sp? fino a 3000 va bene poi cominciano a sbadigliare?

Mah.

Roland74Fun
20-04-2018, 18:57
Non so a me genera confusione 1160... 1180. Trovo più diretto e leggibile 2060 ecc in conseguenza alla serie 1000

Si ma pensaci, dopo la 2060 dovresti passare alla 3060, 4060 ecc...
E poi alla serie successiva alla 10060 cosa faresti? 10160? Seguendo il tuo ragionamento sarebbe più logico passare a 20060 e poi 30060 ecc...
Ma così poi, dopo solo qualche secolo ti ritroveresti con numeri astronomici dove dovresti usare le potenze nei nomi.
#checcasino... :eek: :eek:

nickname88
20-04-2018, 20:40
Sai com'è, nell'articolo si parla di 1180 poco sopra la ti, qui dite "eh ma la 1160 andrà quanto la 1080", un tantinello ottimistico.

Se l'articolo dice appunto che la 1180 andrà più della Ti, quanto dovrebbe andare la 1160 ?
Più o meno attorno a quel riferimento, o come la 1080 o come la 1070, non di meno.

lucusta
20-04-2018, 23:42
Per non parlare dell'efficienza, "le Pascal non sono efficienti!". Infatti per farle andare bene devi abbinarci CPU clockatissime (e quindi che consumano molto), invece le Vega vanno al 100% pure con CPU a 2 GHz. Non lo ho detto io, eh...

se riporti le citazioni, le devi riportare nel contesto e soprattutto con le esatte parole, pagliaccio.

:read:

lucusta
20-04-2018, 23:56
Guarda che bel grafico:

https://tpucdn.com/reviews/NVIDIA/GeForce_GTX_1080_Ti/images/perfrel_1920_1080.png

La 1060 va come la 980

La 1070 va come la 980 Ti

E se vedi quello sopra:

La 970 va come la 780 Ti

Qua i ridicoli sono ben altri... :rolleyes:



Veramente.

mh... interessante.
parametrizzazioni su games attuali di generazioni DX10, 11 e quasi 12.
ci potevi pure mettere la GF220, o non hai trovato benchmark su BF1?

i grafici sintetici li devi saper leggere ed interpretare, perchè sennò non ti servono a semplificare il discorso, ma a confonderti.

e tu sei una persona molto confusa.

il giorno in cui usciranno le nuove serie si vede come vanno a confronto delle vecchie sui giochi di oggi.
se lo fai dopo 3 anni, quando il parco software ha adottato le nuove tecnologie, tu credi che nascano transistors nuovi anche nelle vecchie soluzioni già nei PC?
si chiama osolescenza tecnologica.
la 780 Ti ha 5.3TF, più di quanti ne possa fare la 1060, solo che la 780 è una soluzione che a malapena va in DX11, la 1060 almeno le finte DX12 le fa girare. se fai uno screening analitico su giochi che adottano tecnologie nate per pascal, kepler lo puoi anche usare come piastrella del bagno, che tanto vale anche meno di quanto costa il silicio grezzo (perchè almeno quello grezzo è purificato e non sporco di altri elementi).

lasciando stare il fatto che da driver se lo sono dimenticato già con l'uscita del primo maxwell... gimpato su qualsiasi cosa, ormai.

lucusta
21-04-2018, 00:23
Per non parlare del fatto che un'ipotetica 1160 potrebbe andare come una 1080 (e come una Vega 64, con chip enormemente più grosso ed inefficiente).

le 1080 non vanno come le vega.
le vega non sono chip esclusivamente da gioco.
le pascal sono efficienti solo se consideri il chip grafico, non il lavoro che devono far fare alla macchina completa per far girare un gioco al loro massimo livello di utilizzo.
qualora nvidia voglia effettivamente migliorare le sue soluzioni di gioco non può più aumentare i cudacore senza fare solo questo, perchè senza il supporto di CPU che oggi non esistono non ce li mandi avanti (ergo: ecco perchè la Titan V non si schioda da quelle prestazioni in risoluzioni normali... oltre ad avere una potenza grafica complessiva che ma che è solo il 20% superiore ad una buona 1080 Ti).
deve insomma reintegrare lo scheduling in HW facendo fare alla scheda il lavoro per cui viene solitamente comprata.
deve riuscire a sfruttare le API nel modo giusto se vuole sfruttare le CPU e non chiedere picchi estremi a fronte di attese allucinanti.
quindi si parla di aumentare transistors per la logica (che occupano spazio e consumano) e integrare AC (che occupa spazio e consuma), per poi trovarsi nel confronto con soluzioni che sono 6 anni che adottano questo tipo di architettura, così tanto criticata, e che di colpo, con i giochi adattati per aggraziarsi nvidia, si ritroveranno ad esprimere rendimenti molto più alti e a non dover lasciare per strada il 25-30% del loro potenziale teorico.

nvidia entra nelle DX12, AMD si trova di colpo con chip del 20% meglio sfruttati nei giochi nuovi.
nvidia entra nelle DX12, si deve caricare di quel 20-25% di transistors, spazio e potenza assorbita che demandava alla CPU.

risultato:
chip che solo per il die shrink rimangono a dimensioni simili (se per simile consideri un chip che passa da 317 a 400mm^2), assorbiranno più potenza mitigata solo dal processo migliore e avranno più potenza per l'uso di piu ALU, giustamente coadiuvati da una buona logica di controllo, ma che le porteranno ad un rendimento accettabile solo quando useranno API giuste per l'architettura.
un rendimento che al massimo è 1, non 1.5, e sulle DX12 non 11....
la nuova 1180 quanto farà? 13TF?
vega ne produce 12.3, il 5% di differenza.
stesse API (senza gameworks), l'efficienza passa solo per i driver, ma sulle DX12 gli sviluppatori hanno accesso ad un livello di sfruttamento più vicino all'hw senza dover far molto, quindi i driver influenzeranno ben poco il processo.
gioco ben strutturato in DX12 troverai quella differenza su quei due chip, pari alla differenza di potenza teorica, sempre se la 1180 farà 13TF.

il resto è noia e stai ingigantendo le questioni senza un minimo di supporto teorico :sofico:

Legolas84
21-04-2018, 00:28
Mamma mia ecco la verità dove stava... cavolo e noi che perdevamo tempo a leggere le storielle di mikael... ora sì che ho capito come stanno le cose! Grazie Lucusta quanta ne sai ;)

bagnino89
21-04-2018, 00:34
se riporti le citazioni, le devi riportare nel contesto e soprattutto con le esatte parole, pagliaccio.

:read:

Se ti diverti...

mh... interessante.
parametrizzazioni su games attuali di generazioni DX10, 11 e quasi 12.
ci potevi pure mettere la GF220, o non hai trovato benchmark su BF1?

i grafici sintetici li devi saper leggere ed interpretare, perchè sennò non ti servono a semplificare il discorso, ma a confonderti.

e tu sei una persona molto confusa.

il giorno in cui usciranno le nuove serie si vede come vanno a confronto delle vecchie sui giochi di oggi.
se lo fai dopo 3 anni, quando il parco software ha adottato le nuove tecnologie, tu credi che nascano transistors nuovi anche nelle vecchie soluzioni già nei PC?
si chiama osolescenza tecnologica.
la 780 Ti ha 5.3TF, più di quanti ne possa fare la 1060, solo che la 780 è una soluzione che a malapena va in DX11, la 1060 almeno le finte DX12 le fa girare. se fai uno screening analitico su giochi che adottano tecnologie nate per pascal, kepler lo puoi anche usare come piastrella del bagno, che tanto vale anche meno di quanto costa il silicio grezzo (perchè almeno quello grezzo è purificato e non sporco di altri elementi).

lasciando stare il fatto che da driver se lo sono dimenticato già con l'uscita del primo maxwell... gimpato su qualsiasi cosa, ormai.

Hai ragione, sono confusissimo.

1) Recensione all'uscita della 970, gioco Diablo 3 (classe 2012, DX9):

https://tpucdn.com/reviews/NVIDIA/GeForce_GTX_970_SLI/images/diablo3_1920_1080.gif

E' evidente come la 970 sfrutti tecnologie innovative per andare come una 780 Ti in un gioco con le strabilianti DX9.

2) Recensione all'uscita della 1070, gioco Battlefield 4 (classe 2013, DirectX 11):

https://tpucdn.com/reviews/NVIDIA/GeForce_GTX_1070/images/bf4_1920_1080.png

Anche qui è chiaro che la 1070 si avvantaggia della sua architettura ottimizzata ad hoc per pompare al massimo con le DX11, rispetto alla "povera" e ormai non più supportata 980 Ti.

3) Recensione all'uscita della 1060, gioco GTA V (classe 2015, DX11):

https://tpucdn.com/reviews/NVIDIA/GeForce_GTX_1060/images/gtav_1920_1080.png

Sappiamo tutti come GTA V sia un mirabile esempio di ottimizzazione, pertanto è chiaro che la 1060 tragga vantaggio dal rinnovato supporto alle DX12 per "umiliare" la 980.

4) Bonus: uscita GTX 1060, Battlefield 3 (classe 2012, DX11):

https://tpucdn.com/reviews/NVIDIA/GeForce_GTX_1060/images/bf3_1920_1080.png

Sicuramente Nvidia avrà azzoppato Maxwell, non c'è altra spiegazione al vantaggio della 1060 sulla 980.

Come direbbe qualcuno di nostra conoscenza: "meglio chiudere, perché stiamo rasentando il ridicolo".

NDA: il post è a contenuto altamente ironico.

il resto è noia e stai ingigantendo le questioni senza un minimo di supporto teorico :sofico:

Non mi serve il supporto teorico, a differenza tua non millanto conoscenze di architetture hardware; mi bastano i risultati chiari ed oggettivi dei grafici di cui sopra.

Non stai facendo una bella figura, ripeto, sembri uscito da Amici Miei. Qualcuno un po' sprovveduto, leggendoti, potrebbe davvero credere a quello che scrivi perché ne sembri veramente convinto, e la cosa è abbastanza preoccupante secondo me...

Mamma mia ecco la verità dove stava... cavolo e noi che perdevamo tempo a leggere le storielle di mikael... ora sì che ho capito come stanno le cose! Grazie Lucusta quanta ne sai ;)

Grazie davvero! :ave:

bagnino89
21-04-2018, 00:35
Doppio

lucusta
21-04-2018, 02:22
Non mi serve il supporto teorico, a differenza tua non millanto conoscenze di architetture hardware; mi bastano i risultati chiari ed oggettivi dei grafici di cui sopra.
..che sono decisamente soggettivi... di oggettivo quei sintetici non hanno nulla.
TPU è assai famoso per i prezzi, perdon... pezzi che fa.
se devi spingere un nuovo prodotto è il modo migliore farlo valutare al massimo, anzi a più del massimo.

e no, se non sai assolutamente nulla di come funzionano le cosea, anche se si applicano ad un videogame con i quali ti sei fritto il cervello fino ai 30 anni, anche se spendi migliaia di euro per l'ultima GPU da 1000 euro quando magari ancora vivi a casa di mamma e papà perchè non puoi permetterti una vita... no, non è la stessa cosa.
soldi e tempo non colmano l'ignoranza e la capacità di comprendere (non dico l'intelligenza).
apri un libro e studia, almeno quando c'è uno che forse ne sa qualcosa, quantomeno dai l'imperssione di capire quello che scrive e non riporti qua solo parole senza dargli un significato, per buona pace di chi perde tempo a cercare di spiegarvele, certe cose.

Non stai facendo una bella figura, ripeto, sembri uscito da Amici Miei. Qualcuno un po' sprovveduto, leggendoti, potrebbe davvero credere a quello che scrivi perché ne sembri veramente convinto, e la cosa è abbastanza preoccupante secondo me...

mi adeguo al tuo livello, ragazzo.
Mamma mia ecco la verità dove stava... cavolo e noi che perdevamo tempo a leggere le storielle di mikael... ora sì che ho capito come stanno le cose! Grazie Lucusta quanta ne sai ;)
le storielle di mikael le puoi anche leggere, si deve vedere quanto capisci di quanto letto arrivato alla fine... e comunque vedo che parli di persone che qui non ci sono... e assai di cattivo gusto portare crediti che tra l'altro nemmeno esponi... (della serie: il massimo del commento che sai fare è la faccina sorridente o hai qualcosa in più da mettere in piazza, oltre che chiedere come si fa un backup su WA?).
'84 sta per la tua data di nascita?... l'anno del mio primo PC x86...
approposito, a genova ho fatto il servizio civile nel '94... meno male che non ho più avuto occasione nemmeno di passarci; bei posti, ma tutti si credono furbi, quando in realtà son come te... credono e basta.


se sperate di smontare tutti con 4 battute fatte pure male... i bulletti da tastiera si possono consumare le dita per quanto mi riguarda...


ed ora parliamo seriamente: portate argomenti validi a sostegno delle vostre tesi, sennò rimangono pensieri da fanboy senza nessun appiglio tecnico (e argomenti validi non sono 4 grafici di TPU se non ben contestualizzati; un numero non significa un emerito nulla se non è giustificato adeguatamente).

lucusta
21-04-2018, 02:32
Doppio

appunto, doppiamo.

non mi dare la scusa per farti bannare anche da questo forum.
smettila di fare il pagliaccio ed elimina il link in firma, o è l'ultima cosa che leggerai loggandoti qui con quell'alias.
ho soprasseduto quando hai scritto il messaggio, ma ora non ti sembra di esagerare un pochino troppo?
di la ti hanno bannato esclusivamente perchè ti sei voluto far bannare, facendo esattamente la stessa cosa.

non lo so se ti conviene continuare con questa linea con me.
non credo che ti possa portare a grandi risultati e certo non a quelli che speri tu.
i bulletti o cyberbulletti quanto credi possano intaccare una persona adulta (e spero che hai ben capito che ho ben più di qualche anno più di te)?
quindi diventa adulto anche tu, anche se hai quasi 30 anni, e renditi conto che certe volte non conviene fare come la tua testa ti dice, ma conviene fare come ti consiglia il buonsenso.
vuoi parlare?
vuoi discutere?
ottimo.
vuoi fare il bulletto da forum?...
no.
vuoi schernire un singolo utente?
no.
non funziona così.
o porti argomenti verificabili ed attendibili o eviti di discutere.
mi sembra semplice.

nickname88
21-04-2018, 09:16
Un rendimento che al massimo è 1, non 1.5, e sulle DX12 non 11....
la nuova 1180 quanto farà? 13TF?
vega ne produce 12.3, il 5% di differenza.

Gioco ben strutturato in DX12 troverai quella differenza su quei due chip, pari alla differenza di potenza teorica, sempre se la 1180 farà 13TF.

Ma ancora fai confronti con la potenza teorica ?

Se così fosse quasi tutte le serie Nvidia sarebbero dovute essere una schifezza.
La potenza teoria intesa in TF è semplicemente la potenza esprimibile in condizione di utilizzo totale delle risorse, cosa che in condizione comune non accade. E la sfruttabilità dell'architettura AMD è sempre stata un problema per quest'ultima ( altro che ottimizzazioni software ), rispetto invece a quelle Nvidia.

Vega 64 infatti ne sviluppa 13.7, contro gli 11.5 della povera 1080Ti, eppure sulla carta non solo non mi sembra che la Vega sia davanti, ma è addirittura dietro e non di un soffio.

Gyammy85
21-04-2018, 09:31
Vega 64 infatti ne sviluppa 13.7, contro gli 11.5 della povera 1080Ti, eppure sulla carta non solo non mi sembra che la Vega sia davanti, ma è addirittura dietro e non di un soffio.

Per prima cosa, la 1080ti ha 88 rops vs 64 di vega: solo questo la pone avanti in termini di fillrate (si lo so che le rops di amd sono più efficienti, ma solo in determinati contesti di msaa che ormai con giochi moderni non si usa più dato che ci sono i filtri col resolve via shader). Ed è una potenza subito disponibile, dato che sono le unità preposte alla scrittura dei pixel.
Aggiungici pure le frequenze più alte.
La potenza matematica serve più di quanto si pensi, ricordo i primi bench 290 vs 970 di quantum break, dove la 970 crollava nelle scene di combattimento quando c'erano molte luci contemporaneamente.

nickname88
21-04-2018, 10:00
Per prima cosa, la 1080ti ha 88 rops vs 64 di vega: solo questo la pone avanti in termini di fillrate (si lo so che le rops di amd sono più efficienti, ma solo in determinati contesti di msaa che ormai con giochi moderni non si usa più dato che ci sono i filtri col resolve via shader). Ed è una potenza subito disponibile, dato che sono le unità preposte alla scrittura dei pixel.
Aggiungici pure le frequenze più alte.
La potenza matematica serve più di quanto si pensi, ricordo i primi bench 290 vs 970 di quantum break, dove la 970 crollava nelle scene di combattimento quando c'erano molte luci contemporaneamente.
Il fatto di avere più rops implica un vantaggio ad alta risoluzione o in presenza di filtri pesanti, in questo caso oltre il 1440p.
Se Nvidia ha più rops, AMD oltre alla natura delle sue di ROPs utilizza le HBM che dovrebbero aiutare in questo frangente.

Non mi sembra che a 1080p la situazione fra vega 64 e 1080ti si ribalti.
Intanto la Vega compete con la 1080 che invece ne fa solo 8.9 ed ha 64 rops se non sbaglio.

I Tflops contano se confrontati con la stessa architettura di base.
Ma i confronti fra due completamente differenti non puoi farlo.

https://tpucdn.com/reviews/NVIDIA/GeForce_GTX_1070_Ti/images/perfrel_1920_1080.png

Gyammy85
21-04-2018, 10:11
Il fatto di avere più rops implica un vantaggio ad alta risoluzione o in presenza di filtri pesanti, in questo caso oltre il 1440p.
Se Nvidia ha più rops, AMD utilizza le HBM che dovrebbero aiutare in questo frangente.

Non mi sembra che a 1080p la situazione fra vega 64 e 1080ti si ribalti.
Intanto la Vega compete con la 1080 che invece ne fa solo 8.9 ed ha 64 rops se non sbaglio.

I Tflops contano se confrontati con la stessa architettura di base.
Ma i confronti fra due completamente differenti non puoi farlo.

Le hbm non c'entrano niente con le rops, ma proprio niente.
Semplicemente, la 1080ti può pushare più pixel, non conta la res.
Poi c'è il fatto delle draw calls, dove nvidia ha pure un vantaggio.
Comunque basta implementare qualcosina di più innovativo e il divario si appiana, guarda far cry 5 con la sua complessità poligonale della vegetazione.

nickname88
21-04-2018, 10:14
Le hbm non c'entrano niente con le rops, ma proprio niente.
Semplicemente, la 1080ti può pushare più pixel, non conta la res.
Poi c'è il fatto delle draw calls, dove nvidia ha pure un vantaggio.
Comunque basta implementare qualcosina di più innovativo e il divario si appiana, guarda far cry 5 con la sua complessità poligonale della vegetazione.
Far Cry 5 ?
Non mi sembra cambi la situazione, fa qualcosina in più di una 1080 liscia :

https://www.youtube.com/watch?v=6al6321IBFk

Gyammy85
21-04-2018, 10:43
Far Cry 5 ?
Non mi sembra cambi la situazione, fa qualcosina in più di una 1080 liscia :

https://www.youtube.com/watch?v=6al6321IBFk

Peccato che il resto del mondo vada diversamente rispetto ai video di sto tizio

nickname88
21-04-2018, 11:24
Peccato che il resto del mondo vada diversamente rispetto ai video di sto tizio

Allora cambiamo fonte :

https://www.youtube.com/watch?v=R7MxohmjuXg

lucusta
21-04-2018, 12:30
Ma ancora fai confronti con la potenza teorica ?

Se così fosse quasi tutte le serie Nvidia sarebbero dovute essere una schifezza.
La potenza teoria intesa in TF è semplicemente la potenza esprimibile in condizione di utilizzo totale delle risorse, cosa che in condizione comune non accade. E la sfruttabilità dell'architettura AMD è sempre stata un problema per quest'ultima ( altro che ottimizzazioni software ), rispetto invece a quelle Nvidia.

Vega 64 infatti ne sviluppa 13.7, contro gli 11.5 della povera 1080Ti, eppure sulla carta non solo non mi sembra che la Vega sia davanti, ma è addirittura dietro e non di un soffio.

il problema è l'overhead dei driver, paul;
non la potenza teorica ma quanti cicli utili riesci a sfruttare.
GCN, NCU sono architetture molto segmentate ed oggi il paradigma della programmazione dei giochi non punta a quello, ma a come nvidia processa le cose, che alla fine è assai poco parallelizzato (dipende appunto dai GPC della specifica scheda).
in AC è lo sviluppatore che ottimizza il software cercando di massimizzare i tempi di uso della CPU, tagliare le attese e mitigare i picchi assoluti.

quindi oggi hai soluzioni nvidia che vengono meglio sfruttate per questo tipo architettura delle API, rendimenti più alti e che avvicinano la potenza reale alla potenza teorica, ma se cambi API, cambi anche il modo di sfruttare le architetture grafiche e quindi i rendimenti di calcolo.
i TF teorici delle soluzioni AMD diverranno più realistici, perchè il rendimento migliorerà.
stessa cosa che succederà su nvidia qualora userà le DX12 e AC.
oggi perdono prestazioni tra dx11 e dx12 perchè aumenta l'overhead sui driver e per la natura della API, ma se introducono logiche migliori per l'uso delle dx12 e AC, quel gap che hanno sulle Pascal viene colmato, riuscendo a mantenere alti rendimenti anche sulle Dx12.

quindi il confronto tra le potenze teoriche delle diverse architetture diverrà più fattibile.

tra l'altro oggi la gente non comprende effettivamente le possibilità che offrono le DX12;
vedono che le schede vanno meno in Dx12 che in Dx11, ma è una condizione di causa effetto.
il confronto con queste API lo puoi assumere come il confronto tra il rendimento di un 4 cilindri ed un 8 cilindri.
è logico che il motore con un frazionamento inferiore ottenga rendimenti migliori a basso carico (in città, ad esempio), perchè somma meno atriti, ma lo sfruttamento di un 8 cilindri sarà migliore quando il carico supera una certa soglia per cui il motore a 4 cilindri arriva ai suoi limiti tecnologici, mentre l'8 cilindri, con il maggior frazionamento, riesce a spingere questi limiti ben più in alto.
se oggi fai un software che deve andare bene sia in DX11 che DX12 devi fare un compromesso.
non puoi frazionare di più perchè il rendimento in DX11 calerebbe inesorabilmente, e la diffusione di architetture grafiche che se ne avvantaggerebbero sono poche sul mercato, quindi otterresti una situazione del genere:
su nvidia e con l'uso di DX11 avresti bassa resa per troppo overhead dovuto al frazionamento maggiore (e conta che le DX11.3 possono usare 8 thread grafici comandati dal megathread, quindi già si raddoppiano le possibilità che offrono le DX11);
su nvidia e con l'uso delle DX12 avresti l'overhead dovuto all'emulazione software, quindi nuovamente aumento di overhead e minore resa.
su AMD con le DX11 avresti un miglioramento della resa, ma sempre in emulazione sei... l'architettura AMD è assai più frazionata di quanto tu mostri tra 1080ti e vega 64... è la possibilità di calcolo: la 1080 Ti ha 6 GPC e quindi esegue 6 lavori principali, questi poi sono suddivisi per i vari SM, ma non riuscirai mai a saturare contemporaneamente tutti gli SM di un GPC.
l'architettura AMD è suddivisibile in 128 threads principali e la fatica dei driver è ricondurre 128 threads a quanti massimo lo sviluppatore ha concepito per il suo gioco.
è questo il grande del lavoro che eseguono i driver per le soluzioni AMD, e meno thread usa il gioco, più il lavoro aumenta, più l'overhead diventa influente e più il rendimento di calcolo si abbassa, da cui un elevato scostamento tra TF teorici e TF reali.
quindi AMD con delle DX11.3 un pò più sfruttate in ottica "abbiamo degli octacore, usiamoli!" renderebbe un pò meglio, ma poi nemmeno tanto.
invece su AMD usando le DX12 con un degno sviluppo in AC avresti un buon miglioramento.
totale?
stai ottimizzando per 1/10, ad essere il più ottimisti, delle soluzioni sul mercato, che poi si dovrebbero coadiuvare con processori che sono adatti all'uso di queste API, minimo un octacore...
1 su 100 ha un sistema del genere.
fai contento 1 e ne scontenti 99.

quando però il ricambio generazionale porterà quella percentuale al 50/50 non conviene più rimanere "legacy", perchè l'incremento di adozione delle nuove tecnologie faranno in breve sparire le vecchie configurazioni.
e questo oggi può avvenire solo se nvidia crea un'architettura che risponde bene sulle DX12.

a quel punto sfrutterai bene anche i processori a 8 core che hanno un clock massimo non troppo alto, perchè il lavoro verrà mediato tra più risorse... un uso migliore perchè derivato da una gestione migliore.

tutto qui.
non è che ci voglia molto a capire come andrà a finire, quale sarà il prossimo step di sviluppo della tecnologia.
le DX11 sono al limite dello sfruttamento.
di più non puoi pretendere.

ecco perchè a quel punto il confronto lo potrai fare sui TF teorici.
non ti pare un discorso logico?

viene meno quindi anche l'esempio che porti in seguito.
non ti rifare mai a grafici sintetici se proietti le speculazioni nel futuro;
il relative performance di TPU è una cosa che guarda più al passato, a quello che è successo, non certo ha l'obbiettivo di dirti cosa sarà il futuro, soprattutto in un periodo in cui ormai si stà mettendo fine ad un certo tipo di modo di programmare i giochi.
te l'ho scritto: è una questione di causa ed effetto... consequenziale.
architetture video capaci di fare meglio il nuovo che il vecchio, congiunti a processori che, per natura, si sfruttano meglio con il nuovo che con il vecchio; API nuove che permettono di allontanare i limiti fisiologici di certe logiche, coadiuvati però da software nuovo, adatto a sfruttare queste condizioni al meglio, non dal software vecchio.
è sempre stato così nel mondo dei PC...
non mi puoi andare a guardare come vanno le soluzioni attuali su giochi di 20 anni fa, ad esempio, perchè la maggior parte nemmeno si avviano... non sono più adatti.
Far Cry 5 ?
Non mi sembra cambi la situazione, fa qualcosina in più di una 1080 liscia :

https://www.youtube.com/watch?v=6al6321IBFk
no, non leggi quello che scriviamo, ecco perchè poi ci sono incomprensioni.
i numeri devono essere giustificati adeguatamente e necessitano anche di una buona assicurazione.
qui c'è gente, ed io sono il primo, che ha da ridire rispetto a quelli pubblicati da testate storiche con 20 anni di attività e credibilità sulle spalle, dove i giornalisti hanno una deontologia e ci mettono nome reale e reputazione sui numeri che generano;
non ci puoi portare ad esempio un influencer di YT... non ha credibilità, se permetti.
fai scendere la discussione ai livelli dei commenti di Wccftech, ma lì la maggior parte della gente posta solo per divertirsi proprio a trolleggiare (compreso io stesso).
se vuoi trolleggiare andiamo là, non su questo tipo di forum.

forse è questo che alcuni utenti non capiscono:
non sono questi i forum adatti ad un certo tipo di dinamica comunicativa.
stiamo su wccftech, ci divertiamo in due; siamo su hwupgrade e continui a fare il pagliaccio, subisci le conseguenze del caso, perchè il contesto è diverso.
qui, se fai il pagliaccio ed adotti certi mezzucci per ottenere il punto non discrediti solo l'utente specifico, ma discrediti quelli che hanno dedicato la loro vita per costruire questo angolo di discussione aperta a tutti; fai fare solo brutta figura a Paolo che ti ospita gentilmente sulle sue pagine.
e perdere la faccia, gli utenti e la credibilità sudata negli anni per un gruppo di utenti che non ha il buonsenso di accorgersi che esagera non è una cosa apprezzabile.
leggo le cose che scrive Paolo probabilmente da prima che 2/3 degli utenti del forum nascessero, prima che esistesse il forum stesso, ma oggi trovo sempre più difficile continuare a leggere anche solo le news di questa testata a cui sono sempre stato affezionato.
quindi ci si può scherzare, punzecchiarsi, ma fino al limite della correttezza; dopo di che, oltrepassato quello, si da il tutto in mano ai moderatori, che faranno il loro lavoro.
non prendetevela poi con gli altri...

lucusta
21-04-2018, 13:13
Allora cambiamo fonte :

https://www.youtube.com/watch?v=R7MxohmjuXg

permettimi questa osservazione:
qui, che per lavoro fanno questo (testare HW), possono permettersi solo una ristretta varietà di sistemi e testarli con ben poca variabilità.
conta che fanno questo per vivere; è il loro lavoro e guadagnano da questo.

questi tizzi hanno più HW di quanto una seria testata giornalistica di settore possa permettersi e lo fanno gratis, se non con il rientro di qualche banner pubblicitario.
hai postato 2 video visualizzati per meno di 600 volte il primo e 20.000 volte il secondo.
sai quanto hanno guadagnato con quelle visualizzazioni?
il pimo nulla, il secondo si e no 1 euro.
ti pare un ragionamento logico investire così tanto denaro (ma soprattutto tempo) per zero rientro economico?

per logica, ora dimmi, queste persone che lavoro fanno?
da chi sono pagati?
è un lavoro che un appassionato farebbe per almeno 2000 euro netti al mese, 13°, 14°, premio produttività e bouns, perchè è di una noia allucinante.. non c'entra nulla la passione; al secondo video ti chiedi se non stai buttando il tuo tempo, visto che non ne hai un rientro economico.

fatti un piacere: evita di farti influenzare da dei palesi markettettari che vengono pagati per fare solo questo (e lo fanno con diversi nomi...).

lucusta
21-04-2018, 13:18
appunto, doppiamo.

non mi dare la scusa per farti bannare anche da questo forum.
smettila di fare il pagliaccio ed elimina il link in firma, o è l'ultima cosa che leggerai loggandoti qui con quell'alias.
ho soprasseduto quando hai scritto il messaggio, ma ora non ti sembra di esagerare un pochino troppo?
di la ti hanno bannato esclusivamente perchè ti sei voluto far bannare, facendo esattamente la stessa cosa.

non lo so se ti conviene continuare con questa linea con me.
non credo che ti possa portare a grandi risultati e certo non a quelli che speri tu.
i bulletti o cyberbulletti quanto credi possano intaccare una persona adulta (e spero che hai ben capito che ho ben più di qualche anno più di te)?
quindi diventa adulto anche tu, anche se hai quasi 30 anni, e renditi conto che certe volte non conviene fare come la tua testa ti dice, ma conviene fare come ti consiglia il buonsenso.
vuoi parlare?
vuoi discutere?
ottimo.
vuoi fare il bulletto da forum?...
no.
vuoi schernire un singolo utente?
no.
non funziona così.
o porti argomenti verificabili ed attendibili o eviti di discutere.
mi sembra semplice.

non hai capito:
cancella del tutto, non solo il link.

Gyammy85
21-04-2018, 15:35
Allora cambiamo fonte :

https://www.youtube.com/watch?v=R7MxohmjuXg

Niente di nuovo, in full hd è così per via delle draw calls, dai 1440p in su la vega 64 air sta fra 1080 e ti e la liquid allineata alla ti.
Poi il bench integrato non è molto rappresentativo del gameplay vero.

@lucusta quindi il problema è sempre quello di far lavorare quante più unità possibili, pensi che navi avrà un qualche scheduler in hw per questo?
Tra l'altro si diceva che per vega occorrerebbe un aggiornamento delle api dx12 e vulkan per trarre vantaggio delle sue features...
Come la vedresti una navi da 90 cu e clock più alti grazie ai 7 nm?

lucusta
21-04-2018, 16:17
AMD ha già gran parte dello scheduling in HW.
quello che fanno i driver è di "adattarlo" all'uso con API più distanti dalla logica di questo rispetto a quanto le API offrono.

Navi?
Navi è solo carta, oggi, almeno per noi comuni mortali.
puoi chiedermi come vedrei io l'evoluzione di vega, ma non come farebbe Navi AMD.
ad oggi potrebbe fare un chip totalmente come array vectors processor, come i tensor core, relegandolo ad uso esclusivo degli HPC.

oggi invece anche solo una piccola modifica di Vega potrebbe portare vantaggio:
estensione del bus IF.
Vega ha già IF, ma è da "soli" 100GB/s bidirezionale.
estendendo il bus permetteresti un dialogo continuo con altri chip uguali e puoi creare la stessa cosa che oggi hai con Epyc, un modulo multichip.
in effetti devi garantire che la banda del chip HBM2 unito al chip A possa essere usata indifferentemente dal chip B, C e D, quindi che 256-512GB/s garantiti dall'IMC del chip A siano trasmissibili in parte anche agli altri chip.
essendo poi bidirezionale, hai la stessa capacità I/O ricevuta dalla somma degli altri chip.
ma.. ci vorrebbero i 7nm per una cosa del genere... capisci anche te che già solo così vega 64 è fuori discorso per una modulazione del genere.
ad oggi, con i 14nm potresti usare un chip tipo il Vega mobile da 24CU, con una estensione a 96 CU sui 4 moduli, e ti basterebbe semplicemente triplicare il bus IF, uno per chip (vega mobile ha 256GB/s, puoi storare dati sul chip HBM2 del chip A e farli elaborare 1/4 a chip, quindi dovrai solo trasmettere a 64GB/s verso gli altri 3, visto che una parte rimane sul chip A).
ma si parla di una concezione architetturale che non potrebbe essere efficacie con questo tipo di API e programmazione.
parliamo di un multiGPU sfruttato sullo stesso interposer.
ovvio che nel mondo HPC sarebbe facile introdurre un'architettura del genere, ma su quello consumer non sarebbe "legacy".
ogni gioco dovrebbe essere sviluppato mGPU, ossia DX12 con il supporto garantito per mGPU... utopia.

vega si porta dietro la questione che è un chip PRO prestato al mondo consumer, ma molta della roba che ha non viene assolutamente sfruttata nei giochi.
dell'HCCB i giochi di oggi non se ne fanno nulla; della possibilità di avere una L3 da 40MB nemmeno.
potrebbe essere però sfruttato come caches/buffer per la modulazione per un multichip.
pensare di sfruttare quelle caratteristiche su un gioco odierno significa dovrelo riprogettare solo per Vega... altra utopia.
pensare di sfruttarlo in futuro con i driver diventerebbe possibile, ma solo se parliamo già di mGPU.
quindi anche l'aggiornamento delle DX12 o vulkan darebbe una nuova features ai programmatori, ma si dovrebbe dover anche sfruttare con uno sviluppo ad hoc...
ti rendi conto da solo che è cosa assai improbabile se non vendono almeno per la metà del mercato (e si parla di sfornare in un colpo solo almeno 10 milioni di schede, aspettare che sviluppino nuovi giochi per queste feature e quindi sfruttarle, perchè diversamente non andrebbero mai bene).

la questione dei multichip è stata valutata anche da nvidia, perchè aumentare l'integrazione lo puoi fare solo fino ad un certo limite, poi devi modulare con chip distinti, sennò arrivi a 815mm^2 di chip e ne tiri fuori 4 funzionanti da un'intero wafer.
prendi invece un modulo simile a vega mobile, da 24 CU, a 7nm diverrebbe più piccolo di un polaris 11, quello della 560 e costerebbe tanto quanto;
anche mettendone 4, con HBM2 e interposer, costerebbe solo un pò di più di vega 64, ma avrebbe il doppio delle CU.
stessa cosa con nvidia.
quindi anche in questo settore vedremmo presto applicare questa tecnologia, indifferentemente dal produttore, ma sempre legata allo sfruttamento di nuove API e nuovi modi di usarle.

ma mi ripeto: senza un drastico cambiamento della logica software non se ne fa nulla.

tuttodigitale
02-05-2018, 19:34
ad oggi potrebbe fare un chip totalmente come array vectors processor, come i tensor core, relegandolo ad uso esclusivo degli HPC.

i tensor core li vedo utili più per il mercato e-learning che non per quello HPC tradizionale.


oggi invece anche solo una piccola modifica di Vega potrebbe portare vantaggio:
una piccola modifica potrebbe anche essere costosa....


Vega ha già IF, ma è da "soli" 100GB/s bidirezionale.
è più di quanto può garantire una configurazione quad-channel....


estendendo il bus permetteresti un dialogo continuo con altri chip uguali e puoi creare la stessa cosa che oggi hai con Epyc, un modulo multichip.
lo può creare anche oggi...forse ci siamo scordati che il PCI EXPRESS garantisce solo 16GB/s....questa è la velocità con cui VEGA oggi può prelevare dati dalla RAM, nonostante nella peggiore delle ipotesi si abbia un sistema con una bandwidth teorica di 38,4GB/s(dual channel a 2400MHz), limitando anche le potenzialità del HBCC...cosa ben diversa se fosse sfruttato il collegamento IF...


vega si porta dietro la questione che è un chip PRO prestato al mondo consumer, ma molta della roba che ha non viene assolutamente sfruttata nei giochi.
Non viene sfruttata, non perchè non adatta, ma semplicemente perchè sono novità, vedi primitive shader, o come le FP16 abbandonate perchè non solo non offrivano vantaggi nelle GPU DX10, ma addirittura compromettono le prestazioni nelle più recenti sgpu nvidia consumer, senza parlare del fatto che la lista delle caratteristiche DX12.1 per le quali VEGA è compatibile è più lunga di quella di Pascal. In VEGA c'è un buon quantitativo di transistor sfruttabile anche per i giochi...

comunque come futuro, potremmo avere multichip planari (quindi utilizzando l'interposer) o chip 3D (erano interessanti gli studi Intel, nei quali si evidenziavano i vantaggi in termini di efficienza, ma anche gli inconvenienti sulla dissipazione del calore)...