PDA

View Full Version : NVIDIA conferma GeForce GTX 1080Ti in un post su Linkedin


Redazione di Hardware Upg
19-12-2016, 07:59
Link alla notizia: http://www.hwupgrade.it/news/skvideo/nvidia-conferma-geforce-gtx-1080ti-in-un-post-su-linkedin_66227.html

Una posizione lavorativa aperta da NVIDIA sul popolare network conferma come l'azienda stia preparando il debutto della prossima GPU top di gamma per sistemi desktop

Click sul link per visualizzare la notizia.

Spawn7586
19-12-2016, 08:48
Migliorerà di quanto le prestazioni della 1080? 10-20 %?
Quanti giochi necessitano di questo miglioramento? Ah già, nessuno a meno che non stai cercando di giocare a 4k su tre monitor.
Beh, la politica apple di far uscire un prodotto ogni tot mesi paga, quindi chi sono io per giudicare...

al135
19-12-2016, 09:04
Migliorerà di quanto le prestazioni della 1080? 10-20 %?
Quanti giochi necessitano di questo miglioramento? Ah già, nessuno a meno che non stai cercando di giocare a 4k su tre monitor.
Beh, la politica apple di far uscire un prodotto ogni tot mesi paga, quindi chi sono io per giudicare...

edit*

majinbu7
19-12-2016, 09:04
Migliorerà di quanto le prestazioni della 1080? 10-20 %?
Quanti giochi necessitano di questo miglioramento? Ah già, nessuno a meno che non stai cercando di giocare a 4k su tre monitor.
Beh, la politica apple di far uscire un prodotto ogni tot mesi paga, quindi chi sono io per giudicare...

Andrà circa un 20% in più della 1080, e serve a chi vuole gestire un monitor 4k a singola vga, avvicinandosi nella maggior parte dei casi ai 60 FPS, altro che 3 monitor 4k...non esageriamo...e con una singola 1080 il singolo monitor 4k lo gestisci con compromessi nei settaggi grafici ;)

MadMax of Nine
19-12-2016, 09:08
Migliorerà di quanto le prestazioni della 1080? 10-20 %?
Quanti giochi necessitano di questo miglioramento? Ah già, nessuno a meno che non stai cercando di giocare a 4k su tre monitor.
Beh, la politica apple di far uscire un prodotto ogni tot mesi paga, quindi chi sono io per giudicare...

Dire più per sfizio o per avere un qualcosa di più longevo se si cambia ora, ma tanto finchè non faranno monitor 4K-5K con refresh sopra i 60Hz una 1080 liscia da comunque ottime soddisfazioni.
Se anche AMD si svegliasse, con Vega magari i prezzi saranno più accessibili, vedremo.

dado1979
19-12-2016, 09:09
Migliorerà di quanto le prestazioni della 1080? 10-20 %?
Quanti giochi necessitano di questo miglioramento? Ah già, nessuno a meno che non stai cercando di giocare a 4k su tre monitor.
Beh, la politica apple di far uscire un prodotto ogni tot mesi paga, quindi chi sono io per giudicare...
Ce ne sono per così di giochi che in 4k non hanno i 60fps con un singolo monitor con una 1080... e in alcuni casi anche in 2k: Deus Ex Mankind Divided è un esempio.

al135
19-12-2016, 09:11
è un ottima sostituta per il mio monitor 2k. il 4k non lo considero ancora, quando (e se) tra un paio di anni ci saranno monitor 4k ad almeno 120hz se ne riparlerà.

MadMax of Nine
19-12-2016, 09:20
Ce ne sono per così di giochi che in 4k non hanno i 60fps con un singolo monitor con una 1080... e in alcuni casi anche in 2k: Deus Ex Mankind Divided è un esempio.

Deus Ex gira sempre sopra i 35-40 a 4K Ultra, come in Far Cry Primal e Gears of War, ma sono ancora pochi quelli così pesanti, e abbassando giusto due cose ci si arriva vicino ai 60, con la Ti andrà meglio e probabilmente con la prossima generazione avremo i 60 fissi a 4K.

Spawn7586
19-12-2016, 09:55
ma dovete per forza dire la vostra anche parlando a vanvera?

Yep, viva la libertà di espressione. In fondo lo hai appena fatto anche te visto che la tua frase non aggiunge nulla alla discussione.

Ce ne sono per così di giochi che in 4k non hanno i 60fps con un singolo monitor con una 1080... e in alcuni casi anche in 2k: Deus Ex Mankind Divided è un esempio.

Vero, effettivamente alcune esclusive PC sono molto più avanti. Mi sono basato solo sui multipliatta che effettivamente sono ancora parecchio indietro.

Notturnia
19-12-2016, 10:01
io ho un 4k.. e monto una volgare 980ti con un 5960X ma a 4k non ci gioco fluido a 60 fps.. non so che computer ha chi dice che si riescono a gestire 3 monitor in 4k.. per inciso la mia gestisce un monitor 4k e due monitor con 2560x1440 ma col cavolo che vola.. e non credo che una 1080ti possa fare i miracoli solo perchè costa..

al135
19-12-2016, 10:02
Yep, viva la libertà di espressione. In fondo lo hai appena fatto anche te visto che la tua frase non aggiunge nulla alla discussione.



sbagli visto che ho risposto sotto alla discussione.
e pure per la prima cosa, secondo me non sarebbe male ponderare meglio le proprie parole in modo da non confondere la libertà di espressione con lo sparare frasi poco sensate, immagina se tutti facessero cosi, il forum diventerebbe illeggibile non credi? :) è solo un consiglio, take it easy nulla di personale ovviamente.

al135
19-12-2016, 10:09
io ho un 4k.. e monto una volgare 980ti con un 5960X ma a 4k non ci gioco fluido a 60 fps.. non so che computer ha chi dice che si riescono a gestire 3 monitor in 4k.. per inciso la mia gestisce un monitor 4k e due monitor con 2560x1440 ma col cavolo che vola.. e non credo che una 1080ti possa fare i miracoli solo perchè costa..

purtroppo non fanno schede miracolose perche altrimenti escluderebbero automaticamente le altre... devono vendere, questa è la politica. la cosa migliore che possa accadere è il ritorno della concorrenza di amd. :D

Spawn7586
19-12-2016, 10:29
sbagli visto che ho risposto sotto alla discussione.
e pure per la prima cosa, secondo me non sarebbe male ponderare meglio le proprie parole in modo da non confondere la libertà di espressione con lo sparare frasi poco sensate, immagina se tutti facessero cosi, il forum diventerebbe illeggibile non credi? :) è solo un consiglio, take it easy nulla di personale ovviamente.

Argh, mi era sfuggito il tuo nome su quel commento che tra l'altro condivido. Finché non ci sono a 120 mi ispirano un po' di tristezza.

Cmq le schede miracolose costerebbero probabilmente "un'ira di Dio". Per ora forse ci conviene accontentarsi di questi piccoli passi...

lucusta
19-12-2016, 10:30
sbagli visto che ho risposto sotto alla discussione.
e pure per la prima cosa, secondo me non sarebbe male ponderare meglio le proprie parole in modo da non confondere la libertà di espressione con lo sparare frasi poco sensate, immagina se tutti facessero cosi, il forum diventerebbe illeggibile non credi? :) è solo un consiglio, take it easy nulla di personale ovviamente.

...e questo sarebbe un commento che aggiunge cultura, interesse e senso alla discussione?

è un ottima sostituta per il mio monitor 2k. il 4k non lo considero ancora, quando (e se) tra un paio di anni ci saranno monitor 4k ad almeno 120hz se ne riparlerà.

mettici qualche altra linea nella firma, che quelle che hai fanno capire solo quanto sei spocchioso, quando in realtà, per quello che scrivi, sei pure peggio.


ah... nulla di personale, eh...

MadMax of Nine
19-12-2016, 10:37
io ho un 4k.. e monto una volgare 980ti con un 5960X ma a 4k non ci gioco fluido a 60 fps.. non so che computer ha chi dice che si riescono a gestire 3 monitor in 4k.. per inciso la mia gestisce un monitor 4k e due monitor con 2560x1440 ma col cavolo che vola.. e non credo che una 1080ti possa fare i miracoli solo perchè costa..

Con la 1080 liscia non si ottengono su tutti i titoli 2016 i 60 fissi, ma non va nemmeno sotto i 35-40 come fps minimi nel peggiore dei casi, per me giocare dai 40 ai 60 è percepibile come fluido, dato che quelli pesanti che non danno i 60 fissi usano anche molto blur e altri effetti che rendono meno indispensabili alti Fps.
Sono curioso di vedere questa 1080Ti e le frequenze, visto che con Pascal hanno cambiato parecchie cose rispetto a Maxwell, se sarà nel mezzo tra la Titan X Pascal e la 1080 parliamo di un incremento di 5-10fps a 4K, non sicuramente una rivoluzione, tanto meno se la differenza di prezzo è marcata

lucusta
19-12-2016, 11:16
si, hanno cambiato parecchie cose, ma non oltre...

questa generazione di schede nvidia soffre di diverse problematiche.
stavo guardando i risultati su le DX12 per la patch di "the division", e si ricavano parecchie informazioni:
anche le nvidia, mediamente, hanno guadagno passando da DX12 a DX11, ma questo guadagno si assottiglia sia alzando la risoluzione che utilizzando CPU multicore.
la 1080 passa da 88.3 delle DX11 a 99.8 fps delle DX12 in FHD con un 6700K;
la 1070 da 67.9 a 74.3;
la 1060 invece è piu' veloce in DX11 con 51.2 contro i 49.4 in DX12.
all'aumentare della risoluzione il divario si attenua a 1 o2 frame in piu' per 1080 e 1070 ed in meno per 1060.

a 4K le DX11 superano le DX 12 con tutte le soluzioni nvidia (e la 1080 fà 35fps di media, altro che quasi 60...)

questo indica che nella fascia alta delle GTX queste soffrono nell'uso delle DX11 perche' i processori quad core non gli stano piu' dietro, mentre l'overhead superiore che comportano le DX12 su Pascal le frenano a mano a mano che si sale di risoluzione (situazione in cui il processore smette di essere un ostacolo per la GPU).

quindi ci si trova nella situazione in cui queste schede sono penalizzate dall'uso delle DX12 in qualsiasi situazione, tranne nel caso in cui è la CPU il loro ostacolo, visto che le DX11 richiederebbero processori ben oltre le piu' rosee aspettative dei piu' scalmanati overclocker (le DX11 non sfruttano piu' di un quad core SMT).

risultano percio' sotto utilizzate o sfruttate male.

la cosa che salverebbe una 1080 Ti è la potenza assoluta, che garantirebb sicuramente un aumento prestazionale, ma limitato a basse risoluzioni per entrambe le API e per l'uso di processori o con pochi core o lenti in frequenza massima, e limitate comunque ad alte risoluzioni se si richiedono massimi settaggi, per i quali anche una potenza superiore del 20-25% non garantirebbero i 60fps.

si puo' prevedere che sarà una scheda per i 90-100FPS su giochi pesanti in QHD con un 7700K tirato a morte, o poco piu' di 120fps in FHD coadiuvate pero' da una CPU a piu' di 4 core(SMT), potendo usare le DX12 (sulla 1080 danno il 13% in piu' di fps, figuriamoci come sono limitanti le DX11 su queste soluzioni per ottenere il massimo framerate).

il supporto DX12 sembra comunque ancora non sufficiente: manca il supporto alle congifurazione mGPU, segno che hanno sfruttato la minima parte delle possibilità in DX12, probabilmente a causa del motore grafico usato.

impressionante invece l'8370, che perde il 15% di prestazioni verso un 6700K con una 1080 in FHD, ma che è addirittur ameglio di questo con la RX 480, sempre in FH.
con le altre schede, invece, il divario si assottiglia man mano al diminuire della potenza grafica a disposizione e alla risoluzione, rientrando in un 3% massimo.
non male per una CPU di 5 anni fà che oggi prendi a 145-170 euro contro un 6700K che paghi 360 euro.
con soluzioni non K non credo che ci sarebbero tante storie, nemmeno con la piu' potente 1080.

MadMax of Nine
19-12-2016, 11:58
Alla fine il processore serve solo per chi vuole andare sui 120-144Hz a 1080p o 1440p, e in certi casi non è nemmeno quello il collo di bottiglia, ci sono situazioni in cui la CPU è sotto il 50% e la GPU pure, con Fps sotto i 100 o in certi casi anche ben sotto i 60, tipo WoW Legion in certe regioni che scende a 35 fps Ultra @4K con GPU e CPU tipo al 30%, chissà cosa crea collo di bottiglia qua...

Con le 1080 le varie versioni sofisticate sono praticamente inutili a livello di gioco, arrivano praticamente tutte a 2000 di clock in boost, schede da 650€ e schede da 900 con liquido, abbiamo visto che sopra i 1850 praticamente il guadagno è minimo, non è più come un tempo dove la frequeza scalava le performance in modo praticamente lineare, è probabile che una 1080Ti dia molto meno vantaggio relativo del passaggio dalla 980 alla 980Ti.

al135
19-12-2016, 12:23
...e questo sarebbe un commento che aggiunge cultura, interesse e senso alla discussione?



mettici qualche altra linea nella firma, che quelle che hai fanno capire solo quanto sei spocchioso, quando in realtà, per quello che scrivi, sei pure peggio.


ah... nulla di personale, eh...
e tu chi sei il suo avvocato?
e poi ah... la logica... il tuo commento come utilità si aggiunge al mio allora.
sono peggio? e tu che giudichi una persona dalle linee della firma cosa sei? e ci scrivi pure niente di personale... ahah per piacere scrivi delle cose che ti competono e lascia perdere il resto.

CrapaDiLegno
19-12-2016, 12:52
si, hanno cambiato parecchie cose, ma non oltre...

L'incipit è fantastico... da appendere alla parete degli aforismi...

Il resto, sinceramente non l'ho capito. Zero al quoto. Forse perché tutto dipende da un incipit che fa a gara con "sono completamente d'accordo a metà con il Mister".

Flying Tiger
19-12-2016, 14:10
...ahah per piacere scrivi delle cose che ti competono e lascia perdere il resto.

Giusto una curiosità a prescindere dai 5Ghz , come lo hai installato un' i7 6850K socket 2011-3 X99 su una scheda madre Rampage IV Gene socket 2011 X79 ??

:)

al135
19-12-2016, 15:31
Giusto una curiosità a prescindere dai 5Ghz , come lo hai installato un' i7 6850K socket 2011-3 X99 su una scheda madre Rampage IV Gene socket 2011 X79 ??

:)

ahhahahah hai ragione è una gigabyte GA-X99M non ho aggiornato :D
chissa magari volendo piazzare su una x79 funziona lo stesso :sofico:

al135
19-12-2016, 15:32
Argh, mi era sfuggito il tuo nome su quel commento che tra l'altro condivido. Finché non ci sono a 120 mi ispirano un po' di tristezza.

Cmq le schede miracolose costerebbero probabilmente "un'ira di Dio". Per ora forse ci conviene accontentarsi di questi piccoli passi...

si solitamente costicchiano parecchio... anche se i 120 li stanno un po abbandonando per i 144/165 hz, purtroppo spesso tirano fuori pannelli di non cosi ottima qualità a quei refresh. per i 4k 144hz temo dovremo aspettare un altro po' di tempo...:oink:

lucusta
19-12-2016, 17:43
L'incipit è fantastico... da appendere alla parete degli aforismi...

Il resto, sinceramente non l'ho capito. Zero al quoto. Forse perché tutto dipende da un incipit che fa a gara con "sono completamente d'accordo a metà con il Mister".

la prestanza di Pascal è dovuta all'ottimizzazione in HW delle DX11, come anche lo era su Maxwell e sulle generazioni precedenti per le relative API.
in Dx12 deve fare dei compromessi, cercando di emulare via software propietà che l'HW non possiede; questo implica che parte del lavoro non porta giovamento al risultato dei calcoli, ma serve per ottenere quel risultato in una maniera diversa.
Il secondo problema che si è evidenziato con Pascal è la potenza assoluta.
si è scavalcata la soglia per cui l'HW adatto alle API DX11 non riesce piu' a progredire.
le DX11 sfruttano proficuamente fino a 4 thread principali, fino a 4 core (SMT) distinti; l'aumento prestazionale lo ottieni solo aumentando i core fino a 4 e aumentando la frequenza di questi.
arrivati al 6700K in overclock ( o il suo successore 7700K), con frequenze dell'ordine di 4.6Ghz ci si ferma... per identico IPC la frequenza che servirebbe per non limitare le prestazioni di una 1080 o titan XP (o la prossima 1080Ti) a basse risoluzioni sarebbe di gran lunga superiore a 4.6 (dai grafici si puo' stimare che serve aumentare almeno il 13% in piu' il computo, ossia arrivare a 5.2Ghz).
in DX12, invece, l'uso della frammentazione porta alla possibilità di usare piu' thread simultaneamente, non dovendo piu' basarsi sull'IPC di soli 4 core, ma su quello mediato dall'uso di oltre 4 core.
si puo' dire che, per linearità proporzionale, basterebbe una CPU ad 8 core da 2.3Ghz per ottenere le stresse prestazioni in DX12 di quanto si possano avere in DX11 a bassa risoluzione; la ricerca di maggior prestazioni, tali da non limitare la GPU, ricade quindi nuovamente sulla frequenza, ma partire da una base di 2.3Ghz su un octacore per salire di frequenza è nettamente piu' fattibile che farlo con un quadcore partendo da 4.6Ghz.

il controsenso di Pascal è che comunque in DX12 ottiene risultati inferiori rispetto all'uso delle DX11 quando non è limitato dalla CPU, limite che non sussisterebbe a risoluzioni elevate (ossia non è l'uso che fanno sulla CPU le DX12 che limitano le prestazioni, ma il lavoro in piu' che deve fare la GPU per eseguire le DX12 che gli fanno perdere frame).

ci si ritrova percio' con un'architettura che sfrutta bene le API DX11 le quali pero' non fruttano adeguatamente bene l'HW.

usi un quad core come il 6700K? sarai limitato dalla frequenza alle basse risoluzioni se usi le DX11, dalle DX12 non per le frequenze del processore, ma dal fatto che usi propriamente le DX12;
mentre alle alte risoluzioni il processore non ha piu' un ruolo cosi' importante.

insomma, Pascal digerisce male le DX12 ed un octacore porterebbe vantaggi ad una 1080 solo a basse risoluzioni, ma vantaggi non proprio pieni, solo meno limitati.

e stiamo parlando di una soluzione alto gamma; quando prendiamo in esame una Titan XP o una 1080 Ti, la forbice si apre sempre piu'.

da quanto si vede la 1080 non riesce a fare che 35fps a 4K in ultra con The Division; se Nvidia, con volta, non riesce ad implementare in HW nel modo ottimale le DX12, anche con una soluzione 4 volte piu' potente sulla carta, non ci si arriva a 60fps con quei settaggi, perche' la limitazione nell'uso delle DX12 ha un andamento asintotico tale che, arrivati ad una certo livello di potenza coputazionale, per salire anche solo di 1 fps si dovrebbe raddoppiare la potenza disponibile della GPU.

questo porta anche ad un'altra considerazione:
nvidia è da parecchie generazioni che costruisce HW legato strettamente alle API in uso in quel momento temporale, evitando il piu' possibile workarround software (cosa di cui AMD è ormai maestra perche' usa un'architettura totalmente neutra in cui è proprio il lato software ad avere maggior peso);
qualora fà un HW legato alle DX12, dovrà aggiungere nei suoi chip molta logica che oggi non hanno, che comportano un consumo molto piu' elevato rispetto le prestazioni massme che si possono ottenere (ossia pari a quelle DX11 a medio e alte risoluzioni con processori quadcore degnamente potenti), avvicinandosi alla situazione d'uso delle AMD.
queste ultime, in effetti, per come costruite, fanno della fine frammentazione del codice il loro modo di eseguire il codice stesso, e che è il driver via software che cerca di emulare HW meno propenso alla frammentazione, ossia GNC è DX12 già dalla versione 1, e le successive hanno solo cercato di migliorare le prestazioni in DX precedenti; da qui la loro longevità generazione dopo generazione, API dopo API.... piu' ci si avvicina all'uso reale delle DX12, piu' hanno miglioramenti, perche' il software diventa meno preponderante, evitanto cicli non computazionali.

Sono diversi anni ormai che la situazione è questa: Nvidia è piu' sull'HW puntuale alle API usate in quel periodo, AMD piu' su una base HW forte ma neuta, su cui si deve costruire tutto via SW perdendo molta potenza computazionale, ma capace di essere piu' flessibile al cambiamento dei SW e della tipologia di SW che deve elaborare.
quale dei due paradigmi architetturali sia migliore non si puo' dire, perche' il modo di costruire la base architettonica HW/SW si deve poi concretizzare in un prodotto reale con le limitazioni del caso (processo produttivo, grandezza del chip, costo, consumo, quantità di ram a supporto).
fatto stà che ormai anche nvidia dovrà produrre HW molto piu' elaborato, atto alla fine frammentazione, perche' sono propriamente le API che portano in quella direzione; se non lo farà si scontrerà con i limiti HW degli altri componenti, e quelli sono impossibili da scavalcare.

dire quindi che una 1080 Ti è sulla carta piu' veloce di una 1080 del 20-25%, misurandone i TF computazionali, non è percio' dire una cosa precisa; a bassa risoluzione soffrirà molto di piu' della 1080 per l'uso di CPU quad core con le DX11, e saranno necessari octacore e DX12 per supportarne la potenza, ma dall'altra parte, alle alte risoluzioni le DX12 sono comunque meno prestazionali delle DX11, e se si usano le DX11 non conviene usare octacore, perche' non si possono clockare sufficientemente bene.

forse, a pensarci bene, conviene comunque un octacore e l'uso delle specifiche DX a seconda della risoluzione che si vuole adottare, ma è solo una situazione di ripiego.

CrapaDiLegno
20-12-2016, 12:27
Quante minchiate una dietro l'altra... senza freno e senza sosta.

A parte che mi sembra che in una discussione su un altro forum ho letto altre tue baggianate riguardo al fatto che a risoluzioni maggiori servivano CPU più potenti. Poi ti è stato dimostrato che non era vero, e infatti ora sei qui a dire che a risoluzione alta la CPU conta meno.
Mi piacerebbe sapere come è possibile prendere seriamente questo tipo di analisi che fai se da un giorno all'altro cambi idea. Vuol dire che non è che sei molto ferrato in materia e giri la palla secondo come ti conviene (a difesa di AMD sempre e comunque a quanto si capisce).

Purtroppo per te quello che hai detto è un mucchio di stupidaggini. A partire dal fatto che AMD fa "HW neutro". Ci sei o ci fai? AMD ha fatto rientrare nelle DX12 il supporto all'Async Computing perché il suo HW è così schifido che se i programmatori non si prendono in carico di strutturare il SW per eseguire una marea di thread paralleli l'architettura AMD non riesce a saturare le unità di calcolo. Una 390X che è più potente di una 980Ti va molto meno. Fiji richiede il 40% in più di potenza computazionale (teorica) per eguagliarlo. Che stai a sindacà sulla capacità computazionale delle due architetture? Li sai leggere i numeri? Sai fare un confronto? GP106 4.3TFLOPS massimi, 480 5.6TFlops massimi, risultato... la seconda va meno della prima a meno che i programmatori non le diano una mano con una fortissima ottimizzazione, allora a più o meno uguale. Altro che HW neutro. Se non si codifica per lui rimane al palo completamente.
nvidia non ha il problema della saturazione delle unità di calcolo, o almeno ce l'ha in forma minore. Se cerchi su Internet trovi un bell'articolo a riguardo della cosa. Che ti spiega cosa è l'Async e perché è necessario che sia supportato via HW per avere efficacia, altrimenti tanto vale far finta che non c'è (che tanto non cambia una cippa su HW nvidia).
Già il fatto che pensi che vi siano trucchi SW a colmare la mancanza delle capacità HW significa che non sai di cosa stai parlando. Torna a leggere ed a informarti prima di invischiarti in materia che non ti è proprio congeniale. Che a quanto pare possiamo essere sicuri che tra un mese torni e dici tutto il contrario di quanto hai detto qui perché a quel punto è più conveniente per la difesa di AMD.

Per quanto riguarda le prestazioni che diminuiscono in DX12 con Pascal, mi spiace mio caro, ma prova a dare un'occhiata ai risultati di Civilization 6 che è l'ultimo gioco a supportare le DX12, e forse uno dei pochi che le usa intelligentemente visto che porta sensibili vantaggi a tutti. Per quanto riguarda la questione DX11 che sono limitate a 4 thread, a parte che non è per nulla vero, per il resto sono baggianate che stai dicendo additandole non so perché all'architettura nvidia quando DX11 e DX12 sono librerie che lato CPU funzionano in egual modo su entrambe e architetture e sta a produttore di GPU fare in modo che la maggior parte delle funzioni sia accelerata tramite HW.
Se poi per te sfruttare le DX12 significa che tutti dovremmo avere degli octacore, allora in bocca al lupo al futuro di AMD che su queste miracolose DX12 mi sembra stia puntando tutto il suo futuro. Volevo informarti che la maggior parte delle CPU sul pianeta è un dual core al momento.

Comunque se in DX11 e è strozzata la Titan X lo sarà anche la 480.. a no, per questa basta un Celeron che non si strozza visto quanto è scrausa, forse per questo indichi che il problema è dell'architettura nvidia, perché lei arriva a tirare il collo alle CPU più potenti?
E comunque basta vedere come funziona bene Fiji a bassa risoluzione per capire che stai solo spalando fango a caso senza aver nemmeno letto l'ABC di come funziona una GPU. Potresti illuminarci su quali siano le cause che bloccano quel mostro man mano che la risoluzione scende? E no, non sono i thread o la CPU, visto che la stessa permette di raggiungere prestazioni più alte con le schede nvidia, quindi il potenziale per arrivarci ci sarebbe... e ad alte risoluzioni ci arriva... ma il problema dello scaling delle prestazioni ce l'ha nvidia, certo. Non quella schifezza di architettura GCN che si è visto non scalare a 4096 shader nonostante i 512GB/s di banda della HBM. Un capolavoro dal costo insignificante che ha mostrato tutti i limiti dell'architettura "future proof". Certo. Forse per questo ha pensato di usare una architettura diversa per Vega e lasciato GCN (di cui Polaris ne è un semplice shrink) per la fascia bassa del mercato. Altrimenti avrebbe sfornato una nuova meravigliosa Fiji che non scala. Ma se allo stesso tempo doveva aspettare di avere l'architettura giusta anche per la fascia bassa avremmo visto le prime GPU AMD a Giugno 2017.
La Titan X invece, purtroppo per te (e AMD), scala perfettamente. Con qualche mese di vantaggio rispetto a Vega. Che si spera non sia un altro flop, visto quello che costerà con l'HBM2. Se va quanto la Titan X (quella che è strozzata, non dà il meglio di sé con le DX12 o le DX11, o entrambe, non ho capito bene) ha già perso.

Dopo tutto queste perle di saggezza che hai sparato, ora torno a leggere qualcosa di più acculturante come Topolino.

Carunchio
20-12-2016, 18:51
Il mio SLI di gtx 580 ha le ore contate,non so se prendere questo treno o aspettare che escano schede Nvidia con hbm2.Per ora riesco a giocare i giochi recenti con tutti i settaggi al minimo ma è dura averlo piccolo.

tuttodigitale
20-12-2016, 23:30
ma il problema dello scaling delle prestazioni ce l'ha nvidia, certo. Non quella schifezza di architettura GCN che si è visto non scalare a 4096 shader nonostante i 512GB/s di banda della HBM.
il bello che qualcuno si dimentica sempre di mettere nel conto il pixel fill rate.... solo 67,2 GP/s della Fury X vs 123 GP/s della 980ti.... lo scaling peggiore di Fiji è dovuto essenzialmente al fatto che il pixel fill-rate di Fiji è identico a quello di Hawaii....infatti mi pare che lo scaling tra i 2048sp e i 2816sp di Hawaii, sia stato piuttosto buono, nonostante il secondo sia, a differenza del primo, limitato dalla banda passante della memoria.....

!fazz
21-12-2016, 08:07
Quante minchiate una dietro l'altra... senza freno e senza sosta.

A parte che mi sembra che in una discussione su un altro forum ho letto altre tue baggianate riguardo al fatto che a risoluzioni maggiori servivano CPU più potenti. Poi ti è stato dimostrato che non era vero, e infatti ora sei qui a dire che a risoluzione alta la CPU conta meno.
Mi piacerebbe sapere come è possibile prendere seriamente questo tipo di analisi che fai se da un giorno all'altro cambi idea. Vuol dire che non è che sei molto ferrato in materia e giri la palla secondo come ti conviene (a difesa di AMD sempre e comunque a quanto si capisce).

Purtroppo per te quello che hai detto è un mucchio di stupidaggini. A partire dal fatto che AMD fa "HW neutro". Ci sei o ci fai? AMD ha fatto rientrare nelle DX12 il supporto all'Async Computing perché il suo HW è così schifido che se i programmatori non si prendono in carico di strutturare il SW per eseguire una marea di thread paralleli l'architettura AMD non riesce a saturare le unità di calcolo. Una 390X che è più potente di una 980Ti va molto meno. Fiji richiede il 40% in più di potenza computazionale (teorica) per eguagliarlo. Che stai a sindacà sulla capacità computazionale delle due architetture? Li sai leggere i numeri? Sai fare un confronto? GP106 4.3TFLOPS massimi, 480 5.6TFlops massimi, risultato... la seconda va meno della prima a meno che i programmatori non le diano una mano con una fortissima ottimizzazione, allora a più o meno uguale. Altro che HW neutro. Se non si codifica per lui rimane al palo completamente.
nvidia non ha il problema della saturazione delle unità di calcolo, o almeno ce l'ha in forma minore. Se cerchi su Internet trovi un bell'articolo a riguardo della cosa. Che ti spiega cosa è l'Async e perché è necessario che sia supportato via HW per avere efficacia, altrimenti tanto vale far finta che non c'è (che tanto non cambia una cippa su HW nvidia).
Già il fatto che pensi che vi siano trucchi SW a colmare la mancanza delle capacità HW significa che non sai di cosa stai parlando. Torna a leggere ed a informarti prima di invischiarti in materia che non ti è proprio congeniale. Che a quanto pare possiamo essere sicuri che tra un mese torni e dici tutto il contrario di quanto hai detto qui perché a quel punto è più conveniente per la difesa di AMD.

Per quanto riguarda le prestazioni che diminuiscono in DX12 con Pascal, mi spiace mio caro, ma prova a dare un'occhiata ai risultati di Civilization 6 che è l'ultimo gioco a supportare le DX12, e forse uno dei pochi che le usa intelligentemente visto che porta sensibili vantaggi a tutti. Per quanto riguarda la questione DX11 che sono limitate a 4 thread, a parte che non è per nulla vero, per il resto sono baggianate che stai dicendo additandole non so perché all'architettura nvidia quando DX11 e DX12 sono librerie che lato CPU funzionano in egual modo su entrambe e architetture e sta a produttore di GPU fare in modo che la maggior parte delle funzioni sia accelerata tramite HW.
Se poi per te sfruttare le DX12 significa che tutti dovremmo avere degli octacore, allora in bocca al lupo al futuro di AMD che su queste miracolose DX12 mi sembra stia puntando tutto il suo futuro. Volevo informarti che la maggior parte delle CPU sul pianeta è un dual core al momento.

Comunque se in DX11 e è strozzata la Titan X lo sarà anche la 480.. a no, per questa basta un Celeron che non si strozza visto quanto è scrausa, forse per questo indichi che il problema è dell'architettura nvidia, perché lei arriva a tirare il collo alle CPU più potenti?
E comunque basta vedere come funziona bene Fiji a bassa risoluzione per capire che stai solo spalando fango a caso senza aver nemmeno letto l'ABC di come funziona una GPU. Potresti illuminarci su quali siano le cause che bloccano quel mostro man mano che la risoluzione scende? E no, non sono i thread o la CPU, visto che la stessa permette di raggiungere prestazioni più alte con le schede nvidia, quindi il potenziale per arrivarci ci sarebbe... e ad alte risoluzioni ci arriva... ma il problema dello scaling delle prestazioni ce l'ha nvidia, certo. Non quella schifezza di architettura GCN che si è visto non scalare a 4096 shader nonostante i 512GB/s di banda della HBM. Un capolavoro dal costo insignificante che ha mostrato tutti i limiti dell'architettura "future proof". Certo. Forse per questo ha pensato di usare una architettura diversa per Vega e lasciato GCN (di cui Polaris ne è un semplice shrink) per la fascia bassa del mercato. Altrimenti avrebbe sfornato una nuova meravigliosa Fiji che non scala. Ma se allo stesso tempo doveva aspettare di avere l'architettura giusta anche per la fascia bassa avremmo visto le prime GPU AMD a Giugno 2017.
La Titan X invece, purtroppo per te (e AMD), scala perfettamente. Con qualche mese di vantaggio rispetto a Vega. Che si spera non sia un altro flop, visto quello che costerà con l'HBM2. Se va quanto la Titan X (quella che è strozzata, non dà il meglio di sé con le DX12 o le DX11, o entrambe, non ho capito bene) ha già perso.

Dopo tutto queste perle di saggezza che hai sparato, ora torno a leggere qualcosa di più acculturante come Topolino.

moderiamo il linguaggio,ammonizione

CrapaDiLegno
21-12-2016, 08:53
il bello che qualcuno si dimentica sempre di mettere nel conto il pixel fill rate.... solo 67,2 GP/s della Fury X vs 123 GP/s della 980ti.... lo scaling peggiore di Fiji è dovuto essenzialmente al fatto che il pixel fill-rate di Fiji è identico a quello di Hawaii....infatti mi pare che lo scaling tra i 2048sp e i 2816sp di Hawaii, sia stato piuttosto buono, nonostante il secondo sia, a differenza del primo, limitato dalla banda passante della memoria.....
Anche questa una leggenda metropolitana... se la scheda va meglio in 4K che a 1080p, mi spieghi come fa ad essere il fill rate il problema?
Dovrebbe essere il contrario, o sbaglio?

@Fazz
A parte la prima riga non mi sembra di aver scritto troppe parolacce... ma comunque mi scuso. La prossima volta userò paroline più dolci per descrivere le castronerie che vengono propagandate dal tizio in questione (che ne spara a manetta un po' dappertutto, una volta dicendo A e poi B).

al135
21-12-2016, 17:24
Quante minchiate una dietro l'altra... senza freno e senza sosta.
Vuol dire che non è che sei molto ferrato in materia e giri la palla secondo come ti conviene (a difesa di AMD sempre e comunque a quanto si capisce).


pensa che a me ha detto che sono una persona di merda per via dei colori della firma. Solo rileggendo bene ho capito che si riferiva al colore verde delle schede :asd:

tuttodigitale
21-12-2016, 22:34
Anche questa una leggenda metropolitana... se la scheda va meglio in 4K che a 1080p, mi spieghi come fa ad essere il fill rate il problema?
Dovrebbe essere il contrario, o sbaglio?

la differenza di prestazioni medie tra la 280x e la 390x è del 50% (fonte techpowerup) sia a 4k (+52%) sia in FHD (+50%)....
ovvero le ROPs in più danno un vantaggio sempre...
un certo peso lo hanno senza ombra di dubbio...se c'è ovviamente abbastanza potenza elaborativa (e in Fiji non è certo deficitaria)

se la scheda va meglio in 4K che a 1080p, mi spieghi come fa ad essere il fill rate il problema?

forse perchè nel caso nvidia, sono i "pochi" shader messi a disposizione dell'architettura nvidia a fare maggiormente da collo di bottiglia, quando la risoluzione aumenta .....la butto li...:rolleyes:

CrapaDiLegno
22-12-2016, 13:02
la differenza di prestazioni medie tra la 280x e la 390x è del 50% (fonte techpowerup) sia a 4k (+52%) sia in FHD (+50%)....
ovvero le ROPs in più danno un vantaggio sempre...
un certo peso lo hanno senza ombra di dubbio...se c'è ovviamente abbastanza potenza elaborativa (e in Fiji non è certo deficitaria)


forse perchè nel caso nvidia, sono i "pochi" shader messi a disposizione dell'architettura nvidia a fare maggiormente da collo di bottiglia, quando la risoluzione aumenta .....la butto li...:rolleyes:

Non so che scuola tu abbia frequentato, ma nella mia sparare a caso non aiutava ad alzare i voti. Bisognava usare la testa per davvero.
A parte che non ho capito il confronto tra 280X e 390X dove non cambiano solo le ROP ma praticamente tutte le risorse della GPU, quindi a voler dire che sono le ROP che influenzano l'esito la vedo un po' tirata come risposta.
Detto questo, che già dimostra che non sai neanche tu di che parli ma lo fai giusto per cercare una giustificazione per la povera AMD, mi devi spiegare come fanno ad essere le ROP il problema quando a 4K la Fury X va quanto la 980Ti (che tu dici essere strozzata con il numero di shader.. evidentemente non hai compreso che la scheda sviluppa solo 5.6TFLOPS conto gli 8.6TFLOPS della Fury X ma alla fine va uguale se non meglio a quella risoluzione), ma poi quando la risoluzione diminuisce, per cui le ROP contano meno, la Fury X prende un paio di giri dalla 980Ti.
Lo so che è bello confrontare le schede a risoluzioni impossibili che usa il 2% della popolazione giusto per dire "a ma a vedi che la scheda è potente uguale" là dove la scheda della concorrenza trova i suoi limiti (banda sopratutto), ma nella realtà al di fuori dei 4K la Fury X prende un sacco di mazzuolate. Eppure monta l'HBM. E a 4K dimostra che le ROPS non fanno da freno.
Io non lo so perché si comporta così. Però quello è il risultato. E a me non sembra così entusiasmante. Sopratutto per il costo spropositato che ha la soluzione AMD vs quella nvidia. Già solo per quello è un fail che metà basta. Se poi non va nemmeno di più è doppio fail.
Se poi la si vuole dipingere come una architettura che ha del miracoloso, siete liberi di pensare a quello che volete. Di miracoloso c'è giusto il fatto che funzioni. Sta di fatto che per la prossima super GPU Vega non si userà questa GCN (eh, chissà perché).

Mparlav
22-12-2016, 16:26
Guardando quest'ultima recensione, dove ogni volta ritestano le schede, mi sembra che Fury X e GTX980 Ti vadano uguale a qualsiasi risoluzione:
https://www.techpowerup.com/reviews/Zotac/GeForce_GTX_1080_Amp_Extreme/29.html