View Full Version : Primi test con GeForce RTX 2080: Anti Aliasing con DLSS e ora 4K finalmente giocabili
Redazione di Hardware Upg
22-08-2018, 19:03
Link all'Articolo: https://www.hwupgrade.it/articoli/skvideo/5238/primi-test-con-geforce-rtx-2080-anti-aliasing-con-dlss-e-ora-4k-finalmente-giocabili_index.html
Nuove informazioni ufficiali sulle schede NVIDIA della famiglia GeForce RTX, basate su architettura Turing: la modalità DLSS genera anti aliasing grazie a deep learning e intelligenza artificiale, mentre oltre al Ray Tracing le nuove schede spiccano anche con il rendering tradizionale
Click sul link per visualizzare l'articolo.
nickname88
22-08-2018, 20:35
In pratica la 2080 liscia andrà chiaramente più della 1080Ti, ulteriormente di più se si ha la possibilità di usare questo nuovo filtro elaborato dai Tensor core. Se fosse confermato nelle recensioni non sono di certo numeri trascurabili.
https://image.ibb.co/cj2V5z/rtx_2080_vs_gtx_1080_2e9fb6a64a5e472e5e61db21389e08cda.jpg
https://www.hwupgrade.it/articoli/5238/turing_performance_pascal_2.jpg
Molto curioso di vedere quanto è realmente efficace questo DLSS in termini visivi.
Gyammy85
22-08-2018, 20:51
In pratica la 2080 liscia andrà chiaramente più della 1080Ti, ulteriormente di più se si ha la possibilità di usare questo nuovo filtro elaborato dai Tensor core. Se fosse confermato nelle recensioni non sono di certo numeri trascurabili.
https://image.ibb.co/cj2V5z/rtx_2080_vs_gtx_1080_2e9fb6a64a5e472e5e61db21389e08cda.jpg
https://www.hwupgrade.it/articoli/5238/turing_performance_pascal_2.jpg
Molto curioso di vedere quanto è realmente efficace questo DLSS in termini visivi.
Andrà un 20% in più della 1080ti ad essere larghi, niente di trascendentale, un normale incremento di performance fra una serie e l'altra.
Anche una 580 va il 60% in più della 380x, come pure una vega 64 va il 60% in più della fury, tutto nella regola.
nickname88
22-08-2018, 21:02
Andrà un 20% in più della 1080ti ad essere larghi, niente di trascendentale, un normale incremento di performance fra una serie e l'altra.
Anche una 580 va il 60% in più della 380x, come pure una vega 64 va il 60% in più della fury, tutto nella regola.
Anche meno, niente di trascendentale ? Più di quanto pronosticato visto che si continuare a dire che GT104 sarebbe stato un GP102 adattato, e non si teneva in considerazione che inserisse gli RT cores.
un normale incremento di performance fra una serie e l'altra.
Tutto nella regola.Perchè cosa dovevamo aspettarci ? Un incremento di 2 generazioni con un pp appena poco migliore ?
Risultato che forse sarebbe anche stato possibile forse senza gli RT cores.
Si temeva che Nvidia avesse sacrificato troppo la potenza dei Cuda Cores e invece così non è stato, questa architettura Turing a quanto pare ha recitato un ruolo maggiore di quanto non si credeva.
Se venisse confermato Nvidia starebbe ripetendo il cammino di Maxwell.
Con i prossimi 7nm in pratica il 4K sarà veramente possibile.
Ale55andr0
22-08-2018, 21:06
Andrà un 20% in più della 1080ti ad essere larghi, niente di trascendentale, un normale incremento di performance fra una serie e l'altra.
Anche una 580 va il 60% in più della 380x, come pure una vega 64 va il 60% in più della fury, tutto nella regola.
si si si, ovviamente che dovevi dire se non sminuire :asd:....peccato che non è nemmeno la top di gamma ma la 2080 lissia e su un pp cmq simile al precedente ma...ma aemmedi' dov'è col suo di "niente di trascendentale?" piuttosto? ci aspettiamo cose sfavillanti, tipo pareggiare questa NON top di gamma fra un anno, can't wait :eek:
nickname88
22-08-2018, 21:12
si si si, ovviamente che dovevi dire se non sminuire :asd:....peccato che non è nemmeno la top di gamma ma la 2080 lissia e su un pp cmq simile al precedente ma...ma aemmedi' dov'è col suo di "niente di trascendentale?" piuttosto^ ci aspettiamo cose sfavillanti, tipo pareggiare questa NON top di gamma fra un anno, can't wait :eek:
Manco considera il passaggio dai 28 ai 14nm fatto da AMD e per altro ha scelto la 580 e non la 480 come paragone. :asd:
DakmorNoland
22-08-2018, 21:45
si si si, ovviamente che dovevi dire se non sminuire :asd:....peccato che non è nemmeno la top di gamma ma la 2080 lissia e su un pp cmq simile al precedente ma...ma aemmedi' dov'è col suo di "niente di trascendentale?" piuttosto? ci aspettiamo cose sfavillanti, tipo pareggiare questa NON top di gamma fra un anno, can't wait :eek:
Sì intanto faranno la fine delle 1070-1080, personalmente tornassi indietro prenderei una Vega 56. Mi sa che la 1070 la rivendo presto. Nvidia come al solito super pompata al lancio con tante recensioni pro, poi dopo 1 anno vedi che AMD rimonta e tanti saluti. Da non scordare poi il freesync, che permette di acquistare monitor allo stesso prezzo, senza pagare 200€ in più in stille gsync.
Tanto AMD ormai con il controllo delle console può fare il bello e il cattivo tempo, è solo questione di tempo prima che stringa il cappio intorno al collo di Nvidia.
Unica pecca di AMD sono i consumi elevati e li c'è poco da dire, Nvidia è sicuramente più ottimizzata su quel versante.
Ale55andr0
22-08-2018, 21:50
Sì intanto faranno la fine delle 1070-1080,
cioè quella di schede che vanno benissimo dopo due anni , scaldano e consumano niente e sono state eguagliate solo dopo lo stesso lasso di tempo da amd con un altoforno e le memorieddidio? che brutta fine effettivamente :asd:
Tanto AMD ormai con il controllo delle console può fare il bello e il cattivo tempo, è solo questione di tempo prima che stringa il cappio intorno al collo di Nvidia.
:rotfl:
Anche meno, niente di trascendentale ? Più di quanto pronosticato visto che si continuare a dire che GT104 sarebbe stato un GP102 adattato, e non si teneva in considerazione che inserisse gli RT cores.
no, guarda che GT104 va molto più di GP102, anche più di quanto fanno sospettare i TF messi in gioco, soprattutto su quei giochi che hanno un uso delle DX12 non dico espresso nel modo migliore, ma non certo come semplice rinominazione delle DX11...
insomma, vanno molto meglio in quei giochi dove anche AMD va forte.
non sò se trovi il nesso della questione...
se non ci arrivi da solo te lo spiego.
Ricapitolando, un 50% in più di prestazioni per un prezzo superiore del 60%?
Okei...:stordita:
tuttodigitale
22-08-2018, 23:04
Andrà un 20% in più della 1080ti ad essere larghi, niente di trascendentale, un normale incremento di performance fra una serie e l'altra.
Anche una 580 va il 60% in più della 380x, come pure una vega 64 va il 60% in più della fury, tutto nella regola.
20%? Secondo techpowerup la 1080ti è il 33% più veloce della 1080...dalle solide pare che la differenza sia del 40% tra la 1080 e la 2080....la differenza con la 1080ti non dovrebbe superare il 5%, a meno che nVidia non sottostimi le prestazioni della nuova scheda.
Di certo non pare essere giustificato, a distanza di oltre un anno, un rincaro di 100-150 euro sul listino
PS con Vega56 e polaris, AMD ha alzato le prestazioni nelle relative fasce di prezzo. La 2080 è secondo me la scheda meno interessante della serie.
tuttodigitale
22-08-2018, 23:23
Ricapitolando, un 50% in più di prestazioni per un prezzo superiore del 60%?
Okei...:stordita:
No...
+5-10% prestazioni (praticamente quanto una ti OC di fabbrica)
+ 20% prezzo
A distanza di 18 mesi:rolleyes:
Sì intanto faranno la fine delle 1070-1080, personalmente tornassi indietro prenderei una Vega 56...
Cioè? Io mi trovo bene dal suo debutto.
Guarda, se amd riuscisse a mettere il cappio al collo ad intel e nvidia, ti farebbe pagare le cpu/gpu 3k euro.
Voi tifosi pur di spalare mota sul marchio "avversario" sparate minchiate come se non ci fosse un domani.
Che brutta fine hanno fatto:
https://i.imgur.com/TXvydXM.png
AceGranger
23-08-2018, 01:35
Andrà un 20% in più della 1080ti ad essere larghi, niente di trascendentale, un normale incremento di performance fra una serie e l'altra.
eh bè certo, figuriamoci se non doveva essere qualche cosa di buono, contando pure tutto il resto che si porta dietro.
Anche una 580 va il 60% in più della 380x,
un salto di 2 generazioni e con in mezzo un salto di pp dai 28 ai 14 molto piu consistente del "salto" da 16 a 12
come pure una vega 64 va il 60% in più della fury, tutto nella regola.
si in 1 titolo, in discesa e con il vento a favore.
AceGranger
23-08-2018, 01:37
Sì intanto faranno la fine delle 1070-1080, personalmente tornassi indietro prenderei una Vega 56. Mi sa che la 1070 la rivendo presto. Nvidia come al solito super pompata al lancio con tante recensioni pro, poi dopo 1 anno vedi che AMD rimonta e tanti saluti. Da non scordare poi il freesync, che permette di acquistare monitor allo stesso prezzo, senza pagare 200€ in più in stille gsync.
Tanto AMD ormai con il controllo delle console può fare il bello e il cattivo tempo, è solo questione di tempo prima che stringa il cappio intorno al collo di Nvidia.
Unica pecca di AMD sono i consumi elevati e li c'è poco da dire, Nvidia è sicuramente più ottimizzata su quel versante.
:rotfl:
se va avanti cosi nVidia potra comprarsi AMD in contanti :asd:
Ancora non si sa nulla di un'eventuale supporto al Variable Refresh Rate standard dell'HDMI 2.1?
Se continuano ad insistere con solo ed esclusivamente il loro Gsync proprietario
è la volta che aspetto AMD, dato che intendo giocare solo su grosse TV e ormai qualsiasi pannello che non sia OLED mi fa solo profondo ribrezzo. :Puke:
nickname88
23-08-2018, 07:00
No...
+5-10% prestazioni (praticamente quanto una ti OC di fabbrica)
+ 20% prezzo
A distanza di 18 mesi:rolleyes:
Quella in scheda è la 2080 liscia non la Ti.
+40% di performance rispetto alla corrispettiva della famiglia 10 + l'introduzione del DLSS
A distanza di 2 anni ma con un PP simile.
Gyammy85
23-08-2018, 07:28
eh bè certo, figuriamoci se non doveva essere qualche cosa di buono, contando pure tutto il resto che si porta dietro.
un salto di 2 generazioni e con in mezzo un salto di pp dai 28 ai 14 molto piu consistente del "salto" da 16 a 12
si in 1 titolo, in discesa e con il vento a favore.
Rilassati un pò, quotavo un post di nickname88, che tra l'altro mi ha risposto in maniera tranquilla e serena, non c'è bisogno che scomponi il mio post di due righe...:rolleyes:
Alodesign
23-08-2018, 07:33
Cioè? Io mi trovo bene dal suo debutto.
Guarda, se amd riuscisse a mettere il cappio al collo ad intel e nvidia, ti farebbe pagare le cpu/gpu 3k euro.
Voi tifosi pur di spalare mota sul marchio "avversario" sparate minchiate come se non ci fosse un domani.
Che brutta fine hanno fatto:
https://i.imgur.com/TXvydXM.png
Che è questo grafico? Vendite in percentuale di quei mesi?
O di schede possedute su... Steam?
No perché quella tabella evidenzia un dato importante se è sulle vendite/possessi, la gente non ha soldi da spendere in schede da 800/1500€
tuttodigitale
23-08-2018, 08:19
Quella in scheda è la 2080 liscia non la Ti.
+40% di performance rispetto alla corrispettiva della famiglia 10 + l'introduzione del DLSS
A distanza di 2 anni ma con un PP simile.
aspetta, corrispettiva un corno!
la 1080ti costava 699 dollari di listino, la 2080ti quasi il doppio...
non ci facciamo prendere per il c...
la 2080 sostituisce di fatto la 1080ti (799dollari, 100 dollari in più):
quindi +10% di prestazioni, +20% di prezzo, riduzione della VRAM da 11 a 8GB, dopo 18 mesi.
ripeto è una scheda di cui francamente non si sentiva la mancanza, perchè non rivoluziona, o addirittura peggiora, il rapporto prezzo prestazioni.
la 2080ti, invece porterà ad un nuovo livello di performance, e costa quanto la Titan XP. Certamente interessante.
piacci o non piaccia, la 2080ti è quello che è stato la Titan degli ultimi anni, se non consideriamo la Titan V da 3000 euro sia chiaro.....
bagnino89
23-08-2018, 08:32
si si si, ovviamente che dovevi dire se non sminuire :asd:....peccato che non è nemmeno la top di gamma ma la 2080 lissia e su un pp cmq simile al precedente ma...ma aemmedi' dov'è col suo di "niente di trascendentale?" piuttosto? ci aspettiamo cose sfavillanti, tipo pareggiare questa NON top di gamma fra un anno, can't wait :eek:
:asd:
Parlando di cose serie: sembra molto interessante questo DLSS, e a quanto pare Turing sembra promettere molto bene. Secondo me con i 7 nm ne vedremo delle belle...
Sì intanto faranno la fine delle 1070-1080, personalmente tornassi indietro prenderei una Vega 56. Mi sa che la 1070 la rivendo presto. Nvidia come al solito super pompata al lancio con tante recensioni pro, poi dopo 1 anno vedi che AMD rimonta e tanti saluti. Da non scordare poi il freesync, che permette di acquistare monitor allo stesso prezzo, senza pagare 200€ in più in stille gsync.
Sì sì, dopo un anno riescono malapena a rimontare la 1080 (la 1080 Ti manco col binocolo) consumando di più. :asd:
Tanto AMD ormai con il controllo delle console può fare il bello e il cattivo tempo, è solo questione di tempo prima che stringa il cappio intorno al collo di Nvidia.
:rotfl:
Ormai sono anni che ti leggo scrivere amenità del genere, sì è visto quanto conta AMD nel settore GPU per PC! Basta vedere una statistica Steam per vedere il cattivo tempo e basta di AMD. :asd:
tuttodigitale
23-08-2018, 08:39
Cioè? Io mi trovo bene dal suo debutto.
Guarda, se amd riuscisse a mettere il cappio al collo ad intel e nvidia, ti farebbe pagare le cpu/gpu 3k euro.
AMD non è, anche qualora producesse un HW migliore, nelle condizioni di fare politiche commerciali così aggressive:
1. tra le due è sempre stata nvidia ad alzare l'asticella di prezzo, vedi GTX8800, gtx690 e Titan...AMD ha sempre inseguito nvidia sull'aumento dei prezzi, non è mai successo che AMD abbia aumentato i prezzi prima del rivale. Un esempio su tutti, nel 2010 una ipotetica HD5970, sarebbe costata probabilmente 1000 euro , non 599...
2. nvidia è quella che introdotto il concetto frequenza turbo minima garantita, tranne un paio di recensori nessuno ha detto che questa, seppur in maniera velata, è una truffa bella e buona...e nessuno si è rifiutato di testare quelle schede palesemente fuori specifica.
Stessa cosa è avvenuta praticamente con la recensione del 8700k...che si overcloccava in automatico...(in alcuni presentando problemi di stabilità). Nel caso di Intel sta nella bontà del recensore disabilitare l'OC con punteggi al cinebench che passano da 1576pt a 1230pt (quest'ultimo punteggio è stato ottenuto anche da diversi utenti con configurazione stock)....I risultati degli AMD ryzen sono assai più coerenti...
3. Ogni piccolo sgarro, AMD l'ha pagato con pubblicità assai negativa:
l'ultimo episodio riguarda le RX480, che assorbiva circa il 10% di corrente in più rispetto allo standard....
qualcuno ha dato credito anche chi ha postato la foto di una mobo bruciata....
c'è poi chi ha corretto il tiro e ha detto che gli standard vanno rispettati, gli stessi che hanno omesso che lo standard andrebbe rispettato anche sulla potenza assorbita dai cavi...
60% in più sui cavi è meno rischioso del 10% sul connettore pci express? Ho qualche riserva in merito.
Figuriamoci se AMD avesse proposto queste slide, qualcuno non avrebbe fatto le pulci...
Presentazione della AMD GF RTX:
AMD confronta la 2080 con la 1080, nonostante il prezzo di listino sia persino più alto della 1080ti....visto che il modello ti è mediamente alla risoluzione 4k, quella usata nel confronto, il 33% più veloce del modello base, questo fa pensare che in diversi test la nuova scheda sia più lenta della scheda da sostituire. AMD cerca di giustificare l'aumento di prezzo di circa 100 euro, nonostante la riduzione del quantitativo di VRAM che passa da 11 a 8GB, con l'introduzione del DLSS in sostituzione del TAA. Secondo AMD non ci sarebbero differenze qualitative, rispetto all'utilizzo di un filtro che già di suo non è particolarmente apprezzato da chi desidera il massimo dettaglio. Sarà nostra premura analizzare la qualità dell'immagine, ma per il momento non possiamo che essere scettici sul valore della 2080, alla luce dei test pubblicizzati da AMD, che sembrano confermare più che smentire la sensazione che la 2080 offra, a prezzo maggiorato, grossomodo le prestazioni della 1080ti, la tecnologia RTX.
Con AMD, i recensori fanno il loro lavoro, il problema si presenta quando passa un prodotto di Intel/nvidia, pare quasi che gli articoli provengono dall'ufficio stampa di queste aziende...
nickname88
23-08-2018, 08:54
aspetta, corrispettiva un corno!
la 1080ti costava 699 dollari di listino, la 2080ti quasi il doppio...
non ci facciamo prendere per il c...
I prezzi lasciano il tempo che trovano, ed il prezzo finale non è determinato solo dal listino in $.
Se vai avanti con questi ragionamenti, seguendo l'andazzo di queste ultime generazioni allora dovresti scalare di una fascia ad ogni generazione.
Anche la 980 costava molto meno della 1080, nonostante quest'ultima fosse molto più piccolo a livello di chip.
tuttodigitale
23-08-2018, 08:56
In pratica la 2080 liscia andrà chiaramente più della 1080Ti, ulteriormente di più se si ha la possibilità di usare questo nuovo filtro elaborato dai Tensor core. Se fosse confermato nelle recensioni non sono di certo numeri trascurabili.
ammesso che qualcuno apprezzi la qualità dell'immagine del TAA...
usare il 4k e non apprezzare dettagli lontani per colpa della sfocatura non è che fa piacere a tutti. A quel punto è meglio rinunciare del tutto al AA, o accontentarsi di risoluzioni inferiori.
nickname88
23-08-2018, 09:02
ammesso che qualcuno apprezzi la qualità dell'immagine del TAA...
usare il 4k e non apprezzare dettagli lontani per colpa della sfocatura non è che fa piacere a tutti. A quel punto è meglio rinunciare del tutto al AA, o accontentarsi di risoluzioni inferiori.La sfocatura del TAA dipende anche dal modo e l'intensità con cui l'algoritmo lo applica.
Figuriamoci se AMD avesse proposto queste slide, qualcuno non avrebbe fatto le pulci...Perchè magari le slide di AMD si sono rivelate spesso alquanto insolite e votate a mascherare qualcosa ?
Test spesso eseguiti in condizioni strane o usando condizioni strane o basati su un singolo titolo ?
Già dimenticato le slide pubblicate primo del debutto della RX480 ?
https://techreport.com/r.x/2016_6_3_AMD_clarifies_discrepancies_in_Computex_RX_480_demo/capture.jpg
Gyammy85
23-08-2018, 09:05
Figuriamoci se AMD avesse proposto queste slide, qualcuno non avrebbe fatto le pulci...
Presentazione della AMD GF RTX:
AMD confronta la 2080 con la 1080, nonostante il prezzo di listino sia persino più alto della 1080ti....visto che il modello ti è mediamente alla risoluzione 4k, quella usata nel confronto, il 33% più veloce del modello base, questo fa pensare che in diversi test la nuova scheda sia più lenta della scheda da sostituire. AMD cerca di giustificare l'aumento di prezzo di circa 100 euro, nonostante la riduzione del quantitativo di VRAM che passa da 11 a 8GB, con l'introduzione del DLSS in sostituzione del TAA. Secondo AMD non ci sarebbero differenze qualitative, rispetto all'utilizzo di un filtro che già di suo non è particolarmente apprezzato da chi desidera il massimo dettaglio. Sarà nostra premura analizzare la qualità dell'immagine, ma per il momento non possiamo che essere scettici sul valore della 2080, alla luce dei test pubblicizzati da AMD, che sembrano confermare più che smentire la sensazione che la 2080 offra, a prezzo maggiorato, grossomodo le prestazioni della 1080ti, la tecnologia RTX.
Con AMD, i recensori fanno il loro lavoro, il problema si presenta quando passa un prodotto di Intel/nvidia, pare quasi che gli articoli provengono dall'ufficio stampa di queste aziende...
Non avrei saputo scriverlo meglio.
nickname88
23-08-2018, 09:06
Non avrei saputo scriverlo meglio.
"le prestazioni si conoscono" disse un utente .... "basta guardare i TF" :asd:
Gyammy85
23-08-2018, 09:11
"le prestazioni si conoscono" disse un utente .... "basta guardare i TF" :asd:
Lo dico da tanto che la 2080 sarebbe andata un pò più della 1080ti eh, ma tutti "nooooo la 2060 stock andrà quanto la 1080ti in lieve oc!!" :asd:
Performance e tecnologia sono eccellenti e come sempre Nvidia non delude.
Tuttavia è evidente una stagnazione, o addirittura una regressione, in termini di performance per €.
Bisognerà attendere il ritorno di AMD con i 7nm per vedere un po' di competizione.
tuttodigitale
23-08-2018, 09:20
La sfocatura del TAA dipende anche dal modo e l'intensità con cui l'algoritmo lo applica.
ma la sfocatura è intrinseca dell'AA temporale, rimane il controsenso di avere un 4k sfocato, proprio sui dettagli, quelli che fanno la differenza rispetto ad un 2,5k..
magari qualcuno apprezza il blur...
nickname88
23-08-2018, 09:25
Lo dico da tanto che la 2080 sarebbe andata un pò più della 1080ti eh, ma tutti "nooooo la 2060 stock andrà quanto la 1080ti in lieve oc!!" :asd:
:sofico:
Fino a l'altro ieri stavi nell'altro thread a farmi notare la differenza in % dei Tflops.
8.9 vs 10.06, insinuando un gap più o meno proporzionato.
ma tutti "nooooo la 2060 stock andrà quanto la 1080ti in lieve oc!!" :asd:Si continua ad inventarti le cose. :asd:
Un salto del genere non c'è stato nemmeno con le attuali Gen 10, quindi trovo poco credebile che qualcosa abbia potuto dire una cosa del genere anche volendo esagerare.
Nel tuo specifico caso è molto più probabile che tu l'abbia sognato come spesso accade.
ma la sfocatura è intrinseca dell'AA temporale, rimane il controsenso di avere un 4k sfocato, proprio sui dettagli, quelli che fanno la differenza rispetto ad un 2,5k..
magari qualcuno apprezza il blur...Quando usciranno le revews lo vedremo.
La sfocatura è intrinseca a tutti i filtri AA, a cambiare è il grado.
tuttodigitale
23-08-2018, 09:32
Performance e tecnologia sono eccellenti e come sempre Nvidia non delude.
nvidia negli ultimi anni ha deluso non poco sull'introduzione di nuove tecnologie....mentre AMD è stata certamente più attiva....anche se poi i risultati concreti dicono chiaramente che tutto l'HW messo a disposizione non è stato utilizzato, tanto che alcune caratteristiche sono apparse nelle librerie grafiche solo 7-8 mesi dopo l'introduzione di VEGA.....
oggi, nonostante non sia chiaro la portata di questa innovazione a breve termine, è bello sapere che la tecnologia RTX sarà usufruibile fin da subito.
Secondo me, se AMD ritornerà competitiva conquistando la metà dello share, potremmo beneficiare sul supporto dei produttori per entrambe le compagnie avremmo novità a raffica, costringendo anche nvidia a seguire AMD....
Gyammy85
23-08-2018, 09:34
:sofico:
Fino a l'altro ieri stavi nell'altro thread a farmi notare la differenza in % dei Tflops.
8.9 vs 10.06, insinuando un gap più o meno proporzionato.
Se non ricordo male parlavo della differenza in tf fra 1080 e vega 56, hai frainteso.
nickname88
23-08-2018, 09:35
nvidia negli ultimi anni ha deluso non poco sull'introduzione di nuove tecnologie....mentre AMD è stata certamente più attiva....anche se poi i risultati concreti dicono chiaramente che tutto l'HW messo a disposizione non è stato utilizzato, tanto che alcune caratteristiche sono apparse nelle librerie grafiche solo 7-8 mesi dopo l'introduzione di VEGA.....
oggi, nonostante non sia chiaro la portata di questa innovazione a breve termine, è bello sapere che la tecnologia RTX sarà usufruibile fin da subito.
Secondo me, se AMD ritornerà competitiva conquistando la metà dello share, potremmo beneficiare sul supporto dei produttori per entrambi le compagnie avremmo novità a raffica da entrambi le parti, costringendo anche nvidia a seguire AMD....
Attiva ad introdurre funzionalità che già sapeva non essere permesse nelle librerie attuali.
Nvidia ha deluso così tanto che oltre AMD a uscirsene in ritardo su tutta la linea ha offerto performance pari al competitors uscito prima con un chip di dimensioni e consumi più elevati :asd:
Vega poi addirittura 1 anno dopo con un chip da 510mmq a competere con GP104 :asd:
Se non ricordo male parlavo della differenza in tf fra 1080 e vega 56, hai frainteso.Cosa ?
Ma ahahaha :asd: vabbè passiamo oltre.
tuttodigitale
23-08-2018, 09:35
La sfocatura è intrinseca a tutti i filtri AA, a cambiare è il grado.
aspetta...quello temporale introduce un ulteriore filtro per nascondere il fatto che viene eseguito un multisampling con angolazioni diverse da frame a frame (l'immagine cambia continuamente anche se teoricamente dovrebbe rimanere identica)...viene sfocata volutamente l'immagine per nascondere l'artifizio....cosa che era palese con il temporal AA introdotta da ATI nel 2004, molto fastidioso.
tuttodigitale
23-08-2018, 09:54
Si come no.
Attiva ad introdurre funzionalità che già sapeva non essere permesse nelle librerie attuali.
in verità anche la tecnologia RTX è stata introdotta dopo mesi dall'introduzione di Volta (non è una esclusiva di Turing).
FP16 sono disponibili da sempre, eppure tranne una manciata di giochi nessuno ha preso la briga di introdurle (o meglio re-introdurle), tanto che saranno almeno 3 generazioni di GPU AMD in grado di beneficiare, seppur marginalmente nell'utilizzo (vedasi riduzione della banda passante necessaria)....
Quello che è fallito, è stato l'utilizzo del primitive shader lato driver senza supporto applicativo.
Inutile ribadire il concetto, la forza di nvidia, è il market share...è lei a dettare la linea....quando ha avuto schede grafiche pessime con le FP32, vedi x1800/x1900 vs 7800/7900 (non c'era nulla di magico nella compattezza di G70), le software house hanno continuato ad usare la mezza precisione....
Si come no.
Nvidia ha deluso così tanto che oltre AMD a uscirsene in ritardo su tutta la linea ha offerto performance pari al competitors uscito prima con un chip di dimensioni e consumi più elevati :asd:
non bisogna neppure dimenticare il mercato di riferimento: per la fascia high end (mi piace pensare che siano ancora tali per soluzioni da 500 euro e oltre) non sono poi così esagerati....perchè poi a ben vedere quanto si tratta di consumare il meno possibile, VEGA si dimostra efficientissimo.....
ryzen 2700u, con 10NCU VEGA,è in grado in 15W di TDP di offrire prestazioni del 20% superiori alla mx150 con TDP a 10W, esclusa la VRAM......e tutto mi lascia pensare che l'igp VEGA non consumi più 10W.....
invece lasciano davvero il tempo che trovano il confronto del 2700u@15W (cpu+gpu) con la mx150@25W(solo gpu)
nvidia negli ultimi anni ha deluso non poco sull'introduzione di nuove tecnologie....mentre AMD è stata certamente più attiva....anche se poi i risultati concreti dicono chiaramente che tutto l'HW messo a disposizione non è stato utilizzato, tanto che alcune caratteristiche sono apparse nelle librerie grafiche solo 7-8 mesi dopo l'introduzione di VEGA.....
oggi, nonostante non sia chiaro la portata di questa innovazione a breve termine, è bello sapere che la tecnologia RTX sarà usufruibile fin da subito.
Secondo me, se AMD ritornerà competitiva conquistando la metà dello share, potremmo beneficiare sul supporto dei produttori per entrambe le compagnie avremmo novità a raffica, costringendo anche nvidia a seguire AMD....Non so che mercato tu abbia seguito.
Nvidia è leader assoluto in tutti i settori moderni, AI, deep learning, cloud, supercomputer. E non parliamo neanche dello stack hardware + software nel campo automotive.
Non c'è neanche paragone fra le offerte Nvidia, come V100, DGX2, Xavier e tutta l'infrastruttura software associata, e le offerte GPU AMD, che poi si limitano a Vega e una versione HPC fondamentalmente.
Universi differenti.
Nhirlathothep
23-08-2018, 10:13
In pratica la 2080 liscia andrà chiaramente più della 1080Ti, ulteriormente di più se si ha la possibilità di usare questo nuovo filtro elaborato dai Tensor core. Se fosse confermato nelle recensioni non sono di certo numeri trascurabili.
...
Molto curioso di vedere quanto è realmente efficace questo DLSS in termini visivi.
no, la 2080 va l' 8% in più della 1080ti
tuttodigitale
23-08-2018, 10:18
Non so che mercato tu abbia seguito.
alcune innovazioni introdotte da Pascal sono state riservate al mercato professionale....AMD ha portato tutte le feature di VEGA10 persino nelle apu. Questa è la differenza sostanziale.
Poi ci lamentiamo ( e perchè mai, dopotutto è il produttore che paga il costo per produrlo) se VEGA10 è più grosso di GP102, ma anche più piccolo del meno potente, rispetto a GP102, GP100?
h4xor 1701
23-08-2018, 10:32
nvidia negli ultimi anni ha deluso non poco sull'introduzione di nuove tecnologie....mentre AMD è stata certamente più attiva....anche se poi i risultati concreti dicono chiaramente che tutto l'HW messo a disposizione non è stato utilizzato, tanto che alcune caratteristiche sono apparse nelle librerie grafiche solo 7-8 mesi dopo l'introduzione di VEGA.....
oggi, nonostante non sia chiaro la portata di questa innovazione a breve termine, è bello sapere che la tecnologia RTX sarà usufruibile fin da subito.
Secondo me, se AMD ritornerà competitiva conquistando la metà dello share, potremmo beneficiare sul supporto dei produttori per entrambe le compagnie avremmo novità a raffica, costringendo anche nvidia a seguire AMD....
approposito di 'nuove tecnologie' , AMD è da una vita che ha inserito il supporto al multischermo Eyefinity con monitor di formati misti che consente soprattutto di avere configurazioni del tipo Portrait+Landscape+Portrait.. NVIDIA continua a fregarsene beatamente?? :confused: :muro:
nickname88
23-08-2018, 10:33
aspetta...quello temporale introduce un ulteriore filtro per nascondere il fatto che viene eseguito un multisampling con angolazioni diverse da frame a frame (l'immagine cambia continuamente anche se teoricamente dovrebbe rimanere identica)...viene sfocata volutamente l'immagine per nascondere l'artifizio....cosa che era palese con il temporal AA introdotta da ATI nel 2004, molto fastidioso.
Questo non è il TAA
in verità anche la tecnologia RTX è stata introdotta dopo mesi dall'introduzione di Volta (non è una esclusiva di Turing).
La tecnologia RTX trova supporto nelle librerie.
Tra un litigio e l'altro mi pare che nessuno abbia fatto attenzione all'elemento più interessante che emerge da questa recensione: le nuove unità di elaborazione non risultano sprecate nei vecchi giochi perchè possono essere utilizzate per applicare un antialiasing "gratuito" (o quasi, in termini di prestazioni).
Questo può essere un interessante vantaggio per queste schede, che pare siano in grado di far girare i giochi con antialiasing ma con prestazioni simili al gioco senza uso di questo filtro.
Naturalmente tutto andrà verificato una volta che potranno essere diffuse le recensioni, però intanto la tecnologia c'è e pare che i vantaggi che da siano quantomeno tangibili.
Il vero problema di queste schede è il posizionamento di prezzo: come già qualcuno faceva notare, seppure al netto delle nuove caratteristiche mancanti nella generazione precedente, di fatto hanno peggiorato il rapporto prezzo/prestazioni rispetto al passato. E questo non è bene.
Tenendo conto che Nvidia pare abbia sovraprodotto schede Pascal per correre dietro al mining e ora si trovi con abbondanti scorte da smaltire, questo le permette di vendere le vecchie schede senza svenderle.
Del resto quale occasione migliore? Se la gente ha acquistato schede video con i prezzi assurdi dovuti legati al sopracitato fenomeno dei mining, a prezzi molto superiori a quelli di listino, evidentemente l'asticella del prezzo poteva essere portata verso l'alto.
Questo però può fornire un'occasione ad AMD, simile a quella avuto con le vecchie HD4xx che costrinsero Nvidia ad un taglio significativo dei prezzi. Il problema stavolta è che AMD non si vedrà prima del prossimo anno, quindi Nvidia avrà un bel po' di tempo per vendere a questi prezzi.
Gyammy85
23-08-2018, 10:39
approposito di 'nuove tecnologie' , AMD è da una vita che ha inserito il supporto al multischermo Eyefinity con monitor di formati misti che consente soprattutto di avere configurazioni del tipo Portrait+Landscape+Portrait.. NVIDIA continua a fregarsene beatamente?? :confused: :muro:
Scusa ma se nvidia non la mette evidentemente si vede che è meglio non farlo
alcune innovazioni introdotte da Pascal sono state riservate al mercato professionale....AMD ha portato tutte le feature di VEGA10 persino nelle apu. Questa è la differenza sostanziale.
Poi ci lamentiamo ( e perchè mai, dopotutto è il produttore che paga il costo per produrlo) se VEGA10 è più grosso di GP102, ma anche più piccolo del meno potente, rispetto a GP102, GP100?La differenza sostanziale è che Nvidia è avanti di anni da un punto di vista hardware e software e di conseguenza può portare avanti i suoi interessi come meglio crede.
La sensazione è che, sfortunatamente, il divario stia diventando più grande anno dopo anno.
Ora siamo al punto in cui Nvidia può permettersi di introdurre features specifiche supportate da hardware dedicato come DLSS via Tensor Core o RT, sfruttando di fatto tutta la tecnologia sviluppata per il mercato professional di produzione grafica, così come di cloud computing e deep learning. Mercati che per Nvidia sono, presi singolarmente, più grossi dell'intero business GPU di AMD in termini di $.
Tra un litigio e l'altro mi pare che nessuno abbia fatto attenzione all'elemento più interessante che emerge da questa recensione: le nuove unità di elaborazione non risultano sprecate nei vecchi giochi perchè possono essere utilizzate per applicare un antialiasing "gratuito" (o quasi, in termini di prestazioni).
Questo può essere un interessante vantaggio per queste schede, che pare siano in grado di far girare i giochi con antialiasing ma con prestazioni simili al gioco senza uso di questo filtro.
I Tensor Core, ma non l'hardware dedicato al ray tracing.
nickname88
23-08-2018, 11:22
no, la 2080 va l' 8% in più della 1080ti
Poco ? La 980 rispetto alla 780Ti quanto andava in più ?
La performance è quella di un ordinario salto di generazione, tensor core esclusi.
Tra un litigio e l'altro mi pare che nessuno abbia fatto attenzione all'elemento più interessante che emerge da questa recensione: le nuove unità di elaborazione non risultano sprecate nei vecchi giochi perchè possono essere utilizzate per applicare un antialiasing "gratuito" (o quasi, in termini di prestazioni).
Questo può essere un interessante vantaggio per queste schede, che pare siano in grado di far girare i giochi con antialiasing ma con prestazioni simili al gioco senza uso di questo filtro.
Naturalmente tutto andrà verificato una volta che potranno essere diffuse le recensioni, però intanto la tecnologia c'è e pare che i vantaggi che da siano quantomeno tangibili.
Il vero problema di queste schede è il posizionamento di prezzo: come già qualcuno faceva notare, seppure al netto delle nuove caratteristiche mancanti nella generazione precedente, di fatto hanno peggiorato il rapporto prezzo/prestazioni rispetto al passato. E questo non è bene.
Tenendo conto che Nvidia pare abbia sovraprodotto schede Pascal per correre dietro al mining e ora si trovi con abbondanti scorte da smaltire, questo le permette di vendere le vecchie schede senza svenderle.
Del resto quale occasione migliore? Se la gente ha acquistato schede video con i prezzi assurdi dovuti legati al sopracitato fenomeno dei mining, a prezzi molto superiori a quelli di listino, evidentemente l'asticella del prezzo poteva essere portata verso l'alto.
Questo però può fornire un'occasione ad AMD, simile a quella avuto con le vecchie HD4xx che costrinsero Nvidia ad un taglio significativo dei prezzi. Il problema stavolta è che AMD non si vedrà prima del prossimo anno, quindi Nvidia avrà un bel po' di tempo per vendere a questi prezzi.
ecco, è l'unico problema che vedo anche io da persona che vorrebbe cambiare config ben sapendo che la VGA in questo momento sarà al 99% nvidia.
Che è questo grafico? Vendite in percentuale di quei mesi?
O di schede possedute su... Steam?
No perché quella tabella evidenzia un dato importante se è sulle vendite/possessi, la gente non ha soldi da spendere in schede da 800/1500€
Visto che hai l'acume per capire che questa è una tabella di steam, puoi andare a vedere che 88,x% del parco vga è dx12, di questa percentuale solo una parte insignificante monta amd.
Un vero buco nell'acqua, lasciamelo dire, lavorare piuttosto che sparare a destra e manca?
È un sondaggio, chi partecipa ha quello che leggi. Non pretende d'essere un totale delle vga in circolazione.
AMD non è, anche qualora producesse un HW migliore, nelle condizioni di fare politiche commerciali così aggressive:
1. tra le due è sempre stata nvidia ad alzare l'asticella di prezzo, vedi GTX8800, gtx690 e Titan...AMD ha sempre inseguito nvidia sull'aumento dei prezzi, non è mai successo che AMD abbia aumentato i prezzi prima del rivale. Un esempio su tutti, nel 2010 una ipotetica HD5970, sarebbe costata probabilmente 1000 euro , non 599...
Da quel che ricordo, in epoca Athlon le cpu costavano parecchio, proprio per il fatto d'avere un prodotto superiore alla concorrenza.
Ricordo che la serie 5xxx di ati fu un successo e mi dispiace deluderti, ma un'ipotetica 5970 sarebbe costata più 700€ (edit: specifico custom). Cosinderando che la 5870x2 ROG si aggirava sui 1500€.
Dopo la serie 5xxx entrambe le case alzarono i prezzi medi di 100€, punto.
Dalla fascia media in su per la precisione. Adesso, ad ogni salto, pare sia la regola aumentare il prezzo medio.
Serve più equilibrio, mi sono trovato bene con la 5850 e con la 1070. Perché dovrei lamentarmi se riesco a fare tutto? Ovvio gioco a 1080p, sarei un ritardato a voler giocare in 4k con una 1070.
AceGranger
23-08-2018, 12:28
alcune innovazioni introdotte da Pascal sono state riservate al mercato professionale....AMD ha portato tutte le feature di VEGA10 persino nelle apu. Questa è la differenza sostanziale.
ma cosa stai dicendo, che AMD non ha abilitato su VEGA nemmeno tutte le super feature annunciate :asd:
https://www.mail-archive.com/amd-gfx@lists.freedesktop.org/msg24458.html
e poi la colpa era degli sviluppatori.... si peccato che erano gli sviluppatori dei driver :asd:
la differenza sostanziale è che nVidia quando porta qualcosa la supporta al 100%, da subito e ci investe in tutti i modi, AMD la mette nelle slide e poi lascia il lavoro agli altri, lasciando pure la sorpresa che certe feature manco le ha veramente abilitate :asd:
Da quando sono usciti i Tensor con Pascal nVidia ci ha messo quasi 2 anni a sviluppare appieno gli algoritmi di De-Noise che sono arrivati prima nel mercato Pro e ora trasposti in ambito gaming; e cosi gli sviluppatori hanno avuto il tempo anche di prenderci la mano e di arrivare al lancio nel mercato consumer non dico pronti al 100% ma non a bocca asciutta. Anche perchè far arrivare prima certe cose non sarebbe servito a nulla visto che la parte RT necessita di quella Tensor e a 28 nm non lo potevi fare.
Poi ci lamentiamo ( e perchè mai, dopotutto è il produttore che paga il costo per produrlo) se VEGA10 è più grosso di GP102, ma anche più piccolo del meno potente, rispetto a GP102, GP100?
guarda che mica ti ha portato in ambito consumer "tutte" le feature perchè è buona è... ma perchè ancora continuavano a ostinarsi a fare stupidamente un solo chip, cosi hanno mandato fuori un chip che non andava bene ne per il computing ( manca della parte FP64 che se in campo visual è superflua in campo computing no ) ne per il gaming, e ora con Vega 20 e Navi forse si sono svegliati a fare progetti separati; anzi, l'ostinazione del fare un solo chip e di portare subito in ambito consumer roba Pro è quello che poi l'ha fatta scendere in compromessi troppo penalizzanti sia per Fury che per VEGA.
Sì intanto faranno la fine delle 1070-1080, personalmente tornassi indietro prenderei una Vega 56. Mi sa che la 1070 la rivendo presto. Nvidia come al solito super pompata al lancio con tante recensioni pro, poi dopo 1 anno vedi che AMD rimonta e tanti saluti. Da non scordare poi il freesync, che permette di acquistare monitor allo stesso prezzo, senza pagare 200€ in più in stille gsync.
Tanto AMD ormai con il controllo delle console può fare il bello e il cattivo tempo, è solo questione di tempo prima che stringa il cappio intorno al collo di Nvidia.
Unica pecca di AMD sono i consumi elevati e li c'è poco da dire, Nvidia è sicuramente più ottimizzata su quel versante.
Ma sei serio o lo fai per creare flame ? Secondo me non riesci a star serio nemmeno te quando ti rileggi.
Tra un litigio e l'altro mi pare che nessuno abbia fatto attenzione all'elemento più interessante che emerge da questa recensione: le nuove unità di elaborazione non risultano sprecate nei vecchi giochi perchè possono essere utilizzate per applicare un antialiasing "gratuito" (o quasi, in termini di prestazioni).
Questo può essere un interessante vantaggio per queste schede, che pare siano in grado di far girare i giochi con antialiasing ma con prestazioni simili al gioco senza uso di questo filtro.
Naturalmente tutto andrà verificato una volta che potranno essere diffuse le recensioni, però intanto la tecnologia c'è e pare che i vantaggi che da siano quantomeno tangibili.
Il vero problema di queste schede è il posizionamento di prezzo: come già qualcuno faceva notare, seppure al netto delle nuove caratteristiche mancanti nella generazione precedente, di fatto hanno peggiorato il rapporto prezzo/prestazioni rispetto al passato. E questo non è bene.
Tenendo conto che Nvidia pare abbia sovraprodotto schede Pascal per correre dietro al mining e ora si trovi con abbondanti scorte da smaltire, questo le permette di vendere le vecchie schede senza svenderle.
Del resto quale occasione migliore? Se la gente ha acquistato schede video con i prezzi assurdi dovuti legati al sopracitato fenomeno dei mining, a prezzi molto superiori a quelli di listino, evidentemente l'asticella del prezzo poteva essere portata verso l'alto.
Questo però può fornire un'occasione ad AMD, simile a quella avuto con le vecchie HD4xx che costrinsero Nvidia ad un taglio significativo dei prezzi. Il problema stavolta è che AMD non si vedrà prima del prossimo anno, quindi Nvidia avrà un bel po' di tempo per vendere a questi prezzi.
no, calabar... nella realtà non hanno fatto caso a un casino di cose.
visto che tu sei uno dei più attenti e bilanciati, potresti spiegare a questi signori che nvidia ha fatto proprio vedere palesemente che le RTX vanno bene sui giochi DX12 che ci sono oggi...
e, se vanno bene in quei giochi, significa presumibilmente una cosa: implementano DX12 tier 3 in HW.
ora gli sviluppatori hanno una scelta in più se usare DX12 o DX11:
console: DX12
AMD: DX12
RTX: DX12
pascal? DX11 ed emulazione software DX12
come lo facciamo questo nuovo gioco? DX12 o DX11?
nvidia come lo vuole ora? ah, sì... oggi dobbiamo spingere le RTX...
allora lo facciamo DX12 e mettiamo DRT.
ma tutti quelli che hanno le pascal e le maxwell?
eh... la tecnologia avanza... se ne faranno una ragione.
Visto che hai l'acume per capire che questa è una tabella di steam, puoi andare a vedere che 88,x% del parco vga è dx12, di questa percentuale solo una parte insignificante monta amd.
preciserei che quell'88,x% è portato con le integrate Intel, perchè ad oggi le architetture nvidia sono DX12 in emulazione software.
solo questa nuova architettura sembra presentarsi come DX12 tier 3 in HW, almeno da quanto fa vedere nei giochi DX12 che ci sono oggi.
il che significa che fino ad oggi i giochi erano principalmente DX11 solo per nvidia, mentre quelli futuri è presumibile che li facciano direttamente in Dx12, sempre per nvidia.
ecco il problema di chi ha Pascal...
ma alla fine, se lo hai ti adegui alla situazione.
la questione di fondo è che non stanno pubblicizzando questi miglioramenti perchè sanno benissimo che se markettizzano anche questo passaggio di API non vendono più le pascal in magazzino.
si stanno dando tempo.
vi hanno messo paura con prezzi folli per la nuova generazione e vi forniascono la vecchia al prezzo di prima, che a confronto sembra pure conveniente...
ma appena avranno finito le GPU vecchie in magazzino...
si passa al nuovo, perchè è quello che devono vendere.
non sò se ti sei reso conto su cosa nvidia ti stà mostrando il miglioramento:
https://cdn.wccftech.com/wp-content/uploads/2018/08/NVIDIA-Turing-vs-Pascal-Shader-Performance-1480x757.jpg
formalmente c'è un aumento di minimo il 50% SU TUTTI SOFTWARE CHE SONO DX12, e solo per gli shader...
questa generazione nvidia l'ha fatta DX12, in prima istanza, poi ha anche aggiunto RT core e Tensor core, ma è, di base DX12 in HW, non emulate via software.
se ti fanno vedere i miglioramentio in GTA V te ne renderai immediatamente conto.
Gyammy85
23-08-2018, 15:27
ora gli sviluppatori hanno una scelta in più se usare DX12 o DX11:
console: DX12
AMD: DX12
RTX: DX12
pascal? DX11 ed emulazione software DX12
come lo facciamo questo nuovo gioco? DX12 o DX11?
Speriamo bene, già il fatto che non siano trapelati i soliti gggiggiia5 dewiccerrr3 3dmarkkkk 90k+5k rotfl è buon segno
Lo sappiamo lucusta che da Maxwell (il meglio su dx11) a Pascal non si poteva chiedere il miracolo.
Amd è stata brava a pilotare il mercato con mantle(dx12?) e vulkan.
Ci lavorava da anni ed è riuscita nel suo intento. Fino a quel momento con le sue corte pipelines è sempre risultata inadeguata per dx11.
Nel periodo dx11 chi comprava una scheda video lo faceva per usarla nel presente, non per perdere meno in futuro.
Sono strategie di lungo periodo...
Sappiamo da tempo che la serie 1xxx fa girare le dx12 via software, senza però perdere troppo con la concorrenza.
Restando meno energivora.
Ora i nodi verranno al pettine, curioso di vedere la risposta di Amd. Spero vivamente in un bel passo avanti nell'efficienza, in caso contrario avranno perso un'occasione d'oro.
Sono contrariato dall'aumento dei prezzi, chissà forse Amd desisterà. "Svende" le cpu magari farà lo stesso con le gpu.
no, calabar... nella realtà non hanno fatto caso a un casino di cose.
Sulla questione del supporto DX12 e del legame tra DX12 e RTX ti rimando alla quanto avevo scritto nell'altro articolo (risposta #238 dalle news). Stai usando parole e concetti inesatti.
Ad ogni modo che potesse esserci un miglioramento dell'architettura rispetto a Pascal non mi sembra affatto una gran notizia, mentre l'idea che si possano usare le nuove unità di calcolo con un reale vantaggio anche sul software "vecchio" mi sembra la vera notizia, quando fino ad ora si supponeva che nei vecchi giochi Tensor Core e unità RTX rimanessero inerti e fossero semplicemente... sprecate. Nvidia direi che l'ha pensata bene stavolta, anche se immagino che riempendo lo spazio occupato da queste nuove unità di calcolo con cuda core avremmo avuto prestazioni ancora superiori, anche se credo al prezzo di consumi molto elevati (le unità molto specializzate sono di norma più efficienti di quelle più generiche nel fare il tipo di calcolo per cui sono pensate).
AceGranger
23-08-2018, 16:25
Sulla questione del supporto DX12 e del legame tra DX12 e RTX ti rimando alla quanto avevo scritto nell'altro articolo (risposta #238 dalle news). Stai usando parole e concetti inesatti.
Ad ogni modo che potesse esserci un miglioramento dell'architettura rispetto a Pascal non mi sembra affatto una gran notizia, mentre l'idea che si possano usare le nuove unità di calcolo con un reale vantaggio anche sul software "vecchio" mi sembra la vera notizia, quando fino ad ora si supponeva che nei vecchi giochi Tensor Core e unità RTX rimanessero inerti e fossero semplicemente... sprecate. Nvidia direi che l'ha pensata bene stavolta, anche se immagino che riempendo lo spazio occupato da queste nuove unità di calcolo con cuda core avremmo avuto prestazioni ancora superiori, anche se credo al prezzo di consumi molto elevati (le unità molto specializzate sono di norma più efficienti di quelle più generiche nel fare il tipo di calcolo per cui sono pensate).
facendolo solo CUDA non sarebbe stato possibile avere il RayTracing in questo modo, visto che l'attuale RT Core fa il lavoro equivalente di 15.000/20.000 CUDA.
1 RTX 2080Ti = 4 Tesla GV100
sturia90
23-08-2018, 16:28
rtx cosa vuol dire? e gtx invece? qual è la differenza?
Andrà un 20% in più della 1080ti ad essere larghi, niente di trascendentale, un normale incremento di performance fra una serie e l'altra.
Anche una 580 va il 60% in più della 380x, come pure una vega 64 va il 60% in più della fury, tutto nella regola.
in poche parole si fanno il 60% tra carretti.
in termini prestazionali ormai nvidia ha stuprato amd.
Ricapitolando, un 50% in più di prestazioni per un prezzo superiore del 60%?
Okei...:stordita:
facevi sega a matematica vero :D
dove è uscito sto 60%?
in uscita la 1080 costava 800 , questa 860
Ale55andr0
23-08-2018, 16:53
ma tutti "nooooo la 2060 stock andrà quanto la 1080ti in lieve oc!!" :asd:
quotacelo, grazie, cosicchè possiamo mettere il tizio alla berlina :O
semmai c'era chi ipotizzava su una 2070 come la 1080ti, quello si
aspetta, corrispettiva un corno!
la 1080ti costava 699 dollari di listino, la 2080ti quasi il doppio...
non ci facciamo prendere per il c...
la 2080 sostituisce di fatto la 1080ti (799dollari, 100 dollari in più):
quindi +10% di prestazioni, +20% di prezzo, riduzione della VRAM da 11 a 8GB, dopo 18 mesi.
ripeto è una scheda di cui francamente non si sentiva la mancanza, perchè non rivoluziona, o addirittura peggiora, il rapporto prezzo prestazioni.
la 2080ti, invece porterà ad un nuovo livello di performance, e costa quanto la Titan XP. Certamente interessante.
piacci o non piaccia, la 2080ti è quello che è stato la Titan degli ultimi anni, se non consideriamo la Titan V da 3000 euro sia chiaro.....
la 2080 SOSTITUISCE LA 1080. anche la fascia di prezzo è molto piu simile con la 1080 (699 che si traducevano in 800 euro era la 1080 non la ti). quindi 40-50% di prestazioni (ancora tuttavia da verificare) e molto altro in piu per un 10% di costo in piu circa
quotacelo, grazie, cosicchè possiamo mettere il tizio alla berlina :O
semmai c'era chi fpotizzava su una 2070 come la 1080ti, quello si
ma che quota che si inventa tutto :asd:
Ale55andr0
23-08-2018, 16:56
ma che quota che si inventa tutto :asd:
intanto propongo
CiccoMan
23-08-2018, 17:01
rtx cosa vuol dire? e gtx invece? qual è la differenza?
Sai che che questo cambio di brand ha fatto venire la curiosità anche a me :p
Ho cercato un po', ma non ho trovato risposta.. suppongo che siano solo nomi commerciali. Sicuramente il nuovo RTX è stato scelto in richiamo della tecnologia Ray Tracing... la X probabilmente sta per eXtreme, infatti se vai un po' indietro con la memoria ricorderai che un tempo la sigla GT veniva usata per indicare le geffo (per es. GeForce 8800GT o 8600GT) mentra la gamma extreme era indicata con la sigla GTX (per es. GeForce 8800GTX).
:)
facendolo solo CUDA non sarebbe stato possibile avere il RayTracing in questo modo, visto che l'attuale RT Core fa il lavoro equivalente di 15.000/20.000 CUDA.
Parlavo delle prestazioni con i titoli esistenti, non con il raytracing.
La questione, anche se solo accennata, era: quali sarebbero state le prestazioni di queste nuove schede con i giochi attuali se avessero utilizzato lo spazio occupato dai nuovi Tensor Core e dalle unità RTX per aggiungere altri Cuda Core?
Sai che che questo cambio di brand ha fatto venire la curiosità anche a me
Mi pare che sia già stato confermato: la sigla RTX è stata cambiata proprio per via del RayTracing. Le schede di fascia media (dalle 2060 a scendere) dovrebbero infatti chiamarsi ancora GTX e non avranno le unità relative al RayTracing.
ronthalas
23-08-2018, 17:25
mi aspetto un "banale" Superposition alle varie impostazione default proposte del bench. Almeno per avere un metro di misura omogeneo.
bagnino89
23-08-2018, 17:29
Incredibili le megasuperc@77ole su Pascal e le DX 12, aria fritta a più non posso. Come al solito deliri puri sulle notizie che riguardano Nvidia.
vedremo, vedremo...
intanto questa frase la metto da parte, così poi ci scherziamo un pò su, all'occorrenza.
Sulla questione del supporto DX12 e del legame tra DX12 e RTX ti rimando alla quanto avevo scritto nell'altro articolo (risposta #238 dalle news). Stai usando parole e concetti inesatti.
letto e risposto ora.
Nhirlathothep
23-08-2018, 21:01
Che è questo grafico? Vendite in percentuale di quei mesi?
O di schede possedute su... Steam?
No perché quella tabella evidenzia un dato importante se è sulle vendite/possessi, la gente non ha soldi da spendere in schede da 800/1500€
più che altro vedo troppo pochi notebook, credevo che la maggioranza dei gamer fossero passati al mobile
Gyammy85
23-08-2018, 21:14
Sai che che questo cambio di brand ha fatto venire la curiosità anche a me :p
GTX= Great Tessellation Xperience
RTX= Real Truelife Xperience
:read: :read:
DakmorNoland
23-08-2018, 22:11
Scrivo raramente qui sul forum, comunque vedo che ci sono sempre i soliti 4 elementi di disturbo assolutamente pro Nvidia. D'altronde anche le recensioni sui prodotti Intel/Nvidia sono palesemente di parte, quindi non mi stupisce che ci sia parecchia gente che ci casca ancora.
Intanto qui mi è stato dato del fanboy/tifoso AMD, peccato che io abbia avuto prima la 970 e poi la 1070... :doh: Cioè riprendetevi!!! Processori avevo prima un i5 750 e ora un i5 6600k, entrambi Intel!! Probabilmente cercate solo di attaccare la gente gratuitamente e nel modo più basso possibile.
Quello che intendevo e che ovviamente è passato sotto silenzio è che dopo 1-2 anni dall'uscita, ora una 580 in molti giochi va come la 1070... Cioè una scheda video da 300€ che va come una da 450?? Certo ci saranno quei due giochi ottimizzati Nvidia o qualche altro titolo dove la 1070 fa quei 10-20fps in più, ma onestamente la 580 è cresciuta da paura, la 1070 è andata a fondo.
Qualcuno ha linkato i grafici di steam sul possesso di schede video in favore di Nvidia, grazie al cavolo! Intanto la gente mediamente non è proprio super informata, anzi io mi ci metto per primo, vedendo parecchie recensioni e leggendo online, mi sono fatto infinocchiare anch'io dalla 1070, non mi stupisco che gente che ne capisce anche di meno, si sia fiondata tutta su schede Nvidia.
Altro aspetto importante le Vega sono uscite decisamente tardi e peraltro a causa dei miner al tempo erano praticamente introvabili e avevano prezzi assurdi!!! Buono per AMD che avrà venduto alla grande, però certo anch'io avrei preso Nvidia visto i prezzi assolutamente gonfiati, quando invece le Nvidia si trovavano più facilmente e a prezzi più umani.
Tuttavia per chi ha preso le Vega e Polaris prima della salita vertiginosa dei prezzi, per me ha fatto un affarone, specie chi comprò la 580, che ora sta praticamente al livello della 1070 in moltissime situazioni.
Per me AMD rimane più seria nel lungo termine, purtroppo è stata penalizzata (o avvantaggiata a seconda di come la si vuole vedere) dagli acquisti selvaggi dei miners, quindi chiaro che tra i giocatori abbia una diffusione decisamente limitata.
Scrivo raramente qui sul forum
Davvero? Dai 9748 messaggi non si direbbe. :D
Quello che intendevo e che ovviamente è passato sotto silenzio è che dopo 1-2 anni dall'uscita, ora una 580 in molti giochi va come la 1070. Cioè una scheda video da 300€ che va come una da 450?? Certo ci saranno quei due giochi ottimizzati Nvidia o qualche altro titolo dove la 1070 fa quei 10-20fps in più, ma onestamente la 580 è cresciuta da paura, la 1070 è andata a fondo.
Guarda, anche io stimo AMD e infatti ho comprato Ryzen e ne sono soddisfattissimo. Ma quando si è trattato di comprare la scheda video, ho aspettato le Vega, ma vedendo consumi alti, prestazioni massime al pari della 1080 per un prezzo simile o addirittura superiore (Giugno 2017, subito prima della bolla del mining), bassa disponibilità, non ho potuto che scegliere la 1080 (pagata 450 EUR con MSI cashback, tra l'altro).
Quanto al fatto che la 580 sia migliorata in 2 anni...mi dispiace, ma io quando spendo i soldi (soprattutto così tanti) voglio prestazioni e certezze ADESSO, non promesse di ipotetici miglioramenti a distanza di anni.
Qualcuno ha linkato i grafici di steam sul possesso di schede video in favore di Nvidia, grazie al cavolo! Intanto la gente mediamente non è proprio super informata, anzi io mi ci metto per primo, vedendo parecchie recensioni e leggendo online, mi sono fatto infinocchiare anch'io dalla 1070, non mi stupisco che gente che ne capisce anche di meno, si sia fiondata tutta su schede Nvidia.
Su questo forum la gente è mediamente molto bene informata e come puoi vedere la stragrande maggioranza delle persone è molto soddisfatta con le schede Nvidia. Non ho ancora capito perchè la 1070 ti abbia deluso, a parte il prezzo più alto rispetto alla 580.
Altro aspetto importante le Vega sono uscite decisamente tardi e peraltro a causa dei miner al tempo erano praticamente introvabili e avevano prezzi assurdi!!! Buono per AMD che avrà venduto alla grande, però certo anch'io avrei preso Nvidia visto i prezzi assolutamente gonfiati, quando invece le Nvidia si trovavano più facilmente e a prezzi più umani.
Appunto.
Tuttavia per chi ha preso le Vega e Polaris prima della salita vertiginosa dei prezzi, per me ha fatto un affarone, specie chi comprò la 580, che ora sta praticamente al livello della 1070 in moltissime situazioni.
Ripeto, credo che chi spende cifre di quel tipo voglia certezze. E la 1070 era/è una certezza, nonostante possa essere più costosa.
Per me AMD rimane più seria nel lungo termine, purtroppo è stata penalizzata (o avvantaggiata a seconda di come la si vuole vedere) dagli acquisti selvaggi dei miners, quindi chiaro che tra i giocatori abbia una diffusione decisamente limitata.
Sarà anche più affidabile, ma ha altri aspetti che la rendono meno appetibile nel mercato delle schede video: tra questi consumi troppo alti, prestazioni non all'altezza (nella fascia extreme) e, dal mio personale punto di vista, mancanza di CUDA (che, volenti o nolenti, è ormai diventato lo standard nell'ambito scientifico in cui lavoro, perchè è stato sviluppato da Nvidia prima e molto meglio di OpenCL) - non si vive di solo gaming!
bagnino89
23-08-2018, 23:04
Scrivo raramente qui sul forum, comunque vedo che ci sono sempre i soliti 4 elementi di disturbo assolutamente pro Nvidia. D'altronde anche le recensioni sui prodotti Intel/Nvidia sono palesemente di parte, quindi non mi stupisce che ci sia parecchia gente che ci casca ancora.
Chiaro, è ovvio che dietro ci sia un grande cospirazione.
Quello che intendevo e che ovviamente è passato sotto silenzio è che dopo 1-2 anni dall'uscita, ora una 580 in molti giochi va come la 1070... Cioè una scheda video da 300€ che va come una da 450?? Certo ci saranno quei due giochi ottimizzati Nvidia o qualche altro titolo dove la 1070 fa quei 10-20fps in più, ma onestamente la 580 è cresciuta da paura, la 1070 è andata a fondo.
In quale universo parallelo? :asd:
Qualcuno ha linkato i grafici di steam sul possesso di schede video in favore di Nvidia, grazie al cavolo! Intanto la gente mediamente non è proprio super informata, anzi io mi ci metto per primo, vedendo parecchie recensioni e leggendo online, mi sono fatto infinocchiare anch'io dalla 1070, non mi stupisco che gente che ne capisce anche di meno, si sia fiondata tutta su schede Nvidia.
Certo, tutti quelli che comprano Nvidia sono scemi.
Tuttavia per chi ha preso le Vega e Polaris prima della salita vertiginosa dei prezzi, per me ha fatto un affarone, specie chi comprò la 580, che ora sta praticamente al livello della 1070 in moltissime situazioni.
Vedi sopra.
Per me AMD rimane più seria nel lungo termine ...
Leggenda metropolitana.
Chiacchiere a vanvera.
trovo piuttosto discutibile rilasciare una scheda gaming con un chip da 750 e passa mm2
cioe' siamo in perenne sfida con limiti tecnici da infrangere per abbassare i nm necessari per produrre chip sempre piu' densi e potenti...
e che fanno?invece che a chi di dovere,rilasciano un capolavoro tecnologico a ludopatici viziati per giocherellare e fare gli sboroni su un forum:(
Per quanto mi riguarda, qualcuno sul forum non ci scrive abbastanza rararemente.
Si prende la libertà di asserire che le 1070 e 1080 siano un buco nell'acqua e non volendo ammettere la sua ignoranza, dimostrata da un sondaggio terzo, scarica il barile sulla disinformazione.
Insomma, non sono un buco nell'acqua solo perché la gente si fa fregare... ce li vedo i tablettari dell'assemblato mediamondo cercarsi la 1080... già.
Diciamolo, ormai usano tutti laptop. La scusa dei pc assemblati da supermercato non regge più.
La 580 invecchia bene, forse perché gcn è pensato per le dx12 da anni?
Mi pare vada, mediamente, il 40% in meno della 1070...
In Amd non sono scemi, non si divertivano a prederle in dx11, la loro architettura puntava alle dx12. Nei giochi dx12 se la cava.
Scrivi poco sul forum... potresti quantomeno leggerti i post degli altri prima di commentare.
Lucusta non perde thread per ricordarcelo.
Ultimo ma non ultimo, l'unico che si deve riprendere credo sia lo stesso utente che si lamenta di una 1070 senza scriverne i motivi.
https://www.techpowerup.com/reviews/MSI/RX_580_Mech_2/31.html
Performance/watt -60% con la 1070... di cosa discutiamo?
trovo piuttosto discutibile rilasciare una scheda gaming con un chip da 750 e passa mm2
cioe' siamo in perenne sfida con limiti tecnici da infrangere per abbassare i nm necessari per produrre chip sempre piu' densi e potenti...
e che fanno?invece che a chi di dovere,rilasciano un capolavoro tecnologico a ludopatici viziati per giocherellare e fare gli sboroni su un forum:(
Vero, potremmo avere sistemi 8bit alimentati ad ATP impiantati negli occhi, ma questi imprenditori da quattro soldi continuano a creare unità di calcolo sempre più complesse, efficienti ed efficaci...
nickname88
24-08-2018, 07:08
Sempre le solite guerre di religione... coi 7nm AMD colmerà tutti i suoi problemi prestazionali.Entrambi passeranno ai 7nm che io sappia.
Se con PP simile come gli attuali paga pegno, dovrebbe migliorare anche la propria architettura.
Per fare le nuove mainstream basterebbe un die shrink delle attuali Vega56 e Vega64, coi 7 nani avrebbero buoni consumi, clock più alti e prestazioni tali da gestire fullhd e 2k nel migliore dei modi.Perdonami ma la generazione a 7nm io mi aspetto che possa gestire il 4K, non il 1440p che è da un pezzo che ci siamo inchiodati, anche se le attuali generazioni cominciano ad essere al limite.
Quindi per favore piantatela con 'ste fanboyate su quanto faccia schifo AMD: anzi, pregate che riesca ad arrivare sul mercato quanto prima possibile, altrimenti col cazzo che nVIDIA vi abbassa i prezzi...Che io sappia non è prevista alcuna AMD con PP diverso da 7nm.
E quest'ultima non è prevista prima del prossimo anno.
E anche il prossimo anno non è detto che uscirà per prima la fascia alta.
Gyammy85
24-08-2018, 07:18
Leggenda metropolitana.
Chiacchiere a vanvera.
Non è che ogni volta che qualcuno parla del supporto e della serietà di amd bisogna entro cinque minutu affrettarsi a scrivere "falsità trollate fanboiate #nonèvvero ma quando mai" ecc...
Entrambi passeranno ai 7nm che io sappia.
E anche il prossimo anno non è detto che uscirà per prima la fascia alta.
:asd: ormai l'utenza non solo fa marketing e impone tecnologie (se non ci mettete le gddr6 pure nella quadro da 10k ci arrabbiamo), ma traccia pure la roadmap :asd:
bagnino89
24-08-2018, 08:26
Non è che ogni volta che qualcuno parla del supporto e della serietà di amd bisogna entro cinque minutu affrettarsi a scrivere "falsità trollate fanboiate #nonèvvero ma quando mai" ecc...
Io non mi stavo riferendo al supporto/serietà di AMD (ma poi supporto/serietà di che???), ma alle continue trollate e scemenze che si dicono sulle Nvidia, facendo passare implicitamente il messaggio che chi le compra è manipolato dal marketing e quindi è scemo.
No, non stanno così le cose.
A Narnia :sofico:
Ah ecco, lì è possibile :asd:
Alodesign
24-08-2018, 08:29
Non è che ogni volta che qualcuno parla del supporto e della serietà di amd bisogna entro cinque minutu affrettarsi a scrivere "falsità trollate fanboiate #nonèvvero ma quando mai" ecc...
:asd: ormai l'utenza non solo fa marketing e impone tecnologie (se non ci mettete le gddr6 pure nella quadro da 10k ci arrabbiamo), ma traccia pure la roadmap :asd:
Le stesse risposte identiche le si trova nei forum di:
- Politica
- Ingegneria
- Calcio
- Cucina
- Relazioni di coppia
- Aggiungere altro
AMD non è, anche qualora producesse un HW migliore, nelle condizioni di fare politiche commerciali così aggressive:
1. tra le due è sempre stata nvidia ad alzare l'asticella di prezzo, vedi GTX8800, gtx690 e Titan...AMD ha sempre inseguito nvidia sull'aumento dei prezzi, non è mai successo che AMD abbia aumentato i prezzi prima del rivale. Un esempio su tutti, nel 2010 una ipotetica HD5970, sarebbe costata probabilmente 1000 euro , non 599...
2. nvidia è quella che introdotto il concetto frequenza turbo minima garantita, tranne un paio di recensori nessuno ha detto che questa, seppur in maniera velata, è una truffa bella e buona...e nessuno si è rifiutato di testare quelle schede palesemente fuori specifica.
Stessa cosa è avvenuta praticamente con la recensione del 8700k...che si overcloccava in automatico...(in alcuni presentando problemi di stabilità). Nel caso di Intel sta nella bontà del recensore disabilitare l'OC con punteggi al cinebench che passano da 1576pt a 1230pt (quest'ultimo punteggio è stato ottenuto anche da diversi utenti con configurazione stock)....I risultati degli AMD ryzen sono assai più coerenti...
3. Ogni piccolo sgarro, AMD l'ha pagato con pubblicità assai negativa:
l'ultimo episodio riguarda le RX480, che assorbiva circa il 10% di corrente in più rispetto allo standard....
qualcuno ha dato credito anche chi ha postato la foto di una mobo bruciata....
c'è poi chi ha corretto il tiro e ha detto che gli standard vanno rispettati, gli stessi che hanno omesso che lo standard andrebbe rispettato anche sulla potenza assorbita dai cavi...
60% in più sui cavi è meno rischioso del 10% sul connettore pci express? Ho qualche riserva in merito.
Figuriamoci se AMD avesse proposto queste slide, qualcuno non avrebbe fatto le pulci...
Presentazione della AMD GF RTX:
AMD confronta la 2080 con la 1080, nonostante il prezzo di listino sia persino più alto della 1080ti....visto che il modello ti è mediamente alla risoluzione 4k, quella usata nel confronto, il 33% più veloce del modello base, questo fa pensare che in diversi test la nuova scheda sia più lenta della scheda da sostituire. AMD cerca di giustificare l'aumento di prezzo di circa 100 euro, nonostante la riduzione del quantitativo di VRAM che passa da 11 a 8GB, con l'introduzione del DLSS in sostituzione del TAA. Secondo AMD non ci sarebbero differenze qualitative, rispetto all'utilizzo di un filtro che già di suo non è particolarmente apprezzato da chi desidera il massimo dettaglio. Sarà nostra premura analizzare la qualità dell'immagine, ma per il momento non possiamo che essere scettici sul valore della 2080, alla luce dei test pubblicizzati da AMD, che sembrano confermare più che smentire la sensazione che la 2080 offra, a prezzo maggiorato, grossomodo le prestazioni della 1080ti, la tecnologia RTX.
Con AMD, i recensori fanno il loro lavoro, il problema si presenta quando passa un prodotto di Intel/nvidia, pare quasi che gli articoli provengono dall'ufficio stampa di queste aziende...
Non posso far altro che quotare tutto quello che hai scritto.
Comunque per me siamo anni luce lontano dalla mie possibilita' di spesa, e non mi rendo quante ne riusciranno a vendere a quel prezzo.
Alodesign
24-08-2018, 08:41
Non posso far altro che quotare tutto quello che hai scritto.
Comunque per me siamo anni luce lontano dalla mie possibilita' di spesa, e non mi rendo quante ne riusciranno a vendere a quel prezzo.
Togliendo il settore professionale, per l'utenza media la tua domanda può trovare risposta nel grafico di Steam.
Neofreedom
24-08-2018, 08:59
Quindi se ho capito bene.... queste nuove vga non porteranno ad un abbassamento dei prezzi delle vecchie nel breve termine ( 1080 o 1080TI ) per scarsissima concorrenza e stock in magazzino molto ampi causa miners. Quello che non ho capito è ad ora che % di prestazione incrementale la 2080 avrà rispetto alla 1080 e la 2080 Ti rispetto alla 1080 Ti. Io mi limito al 2k , non ho nemmeno monitor 4k, ma mi domando, soldi permettendo se conviene passare dalla mia attuale 980gtx alla 2080 o alla 1080 ti ( il top sarebbela 2080 ti ma così anche il costo ). Sono uno dei pochi penso che può anche tenere una vga 2-3aa e passare al top della successiva quando si potrò giocare a 4k senza nessun problema( anche se magari già ci sarà l'8k ).
Grazie comunque a tutti per le informazioni datemi fino ad ora leggendovi :)
nickname88
24-08-2018, 09:04
In effetti anche con il DLSS tutti a dire che ha una qualità migliire del TAA (e non ci vuole molto) ma nessuno che approfondisce cos'è e in presentazione è stato detto chiaramente che prende immagini a risoluzione bassa e le migliora con i tensor core.
A casa mia si chiama upacaler non antialiasing
Se non si vuole usare il DLSS basta non usarlo così come il RT.
La 2080 sembra comunque avere più performance della Ti, andrà bene anche continuando ad usare l'MSAA integrati nei titoli.
nickname88
24-08-2018, 09:08
Quindi se ho capito bene.... queste nuove vga non porteranno ad un abbassamento dei prezzi delle vecchie nel breve termine ( 1080 o 1080TI )
Perchè no ? La 1080Ti anche se fosse a parità di costo della 2080 liscia andrà meno e sarà più indietro di features.
La 1080 liscia soffrirà analogamente gli stessi aspetti rispetto alla 2070.
Chi dovrà comperare una VGA nuova a breve, che sia per minare o giocare non avrà comunque senso optare per le vecchie se le nuove costano uguali e vanno di più.
Tanto AMD ormai con il controllo delle console può fare il bello e il cattivo tempo, è solo questione di tempo prima che stringa il cappio intorno al collo di Nvidia.
:rolleyes: :doh:
Si prende la libertà di asserire che le 1070 e 1080 siano un buco nell'acqua e non volendo ammettere la sua ignoranza, dimostrata da un sondaggio terzo, ...
Occhio però ad interpretare il sondaggio in modo corretto, tenendo conto di tutti i fattori. Che in giro ci siano pochissime schede AMD non dovrebbe sorprendere, e questo al di la della bontà delle schede.
Il mercato infatti nell'ultimo anno e mezzo è stato alterato dal boom del mining, e le prime schede a subirne le conseguenze sono state proprio quelle AMD (sia perchè rendevano meglio sia perchè AMD non ha rischiato aumentando la produzione per seguire il fenomeno).
Chi si sarebbe sognato di comprare delle schede AMD che avevano qualche difficoltà in termini di prestazioni e consumi e al contempo costavano ben di più delle controparti nVidia? Queste ultime inoltre si trovavano con molta più facilità (pare che Nvidia abbia invece aumentato la produzione vista l'enorme richiesta).
Sempre le solite guerre di religione... coi 7nm AMD colmerà tutti i suoi problemi prestazionali.
I 7nm arriveranno anche per Nvidia. AMD non può certo pensare di risollevarsi in questo modo, occorre tirare fuori un buon prodotto che possa rivaleggiare anche con le schede della concorrente che (si suppone) arriveranno poco dopo.
nickname88
24-08-2018, 09:21
Sicuramente lo farà, ma quello che sto cercando di dirti è che a 7nm NON SERVE MIGLIORARE UN BEL NIENTE. Mi sembra tu stia ragionando come se Nvidia rimanesse a guardare, mentre invece passerà a 7nm, non rimarrà di certo ferma alla 1080Ti quando AMD presenterà Navi. E il discorso è lo stesso che tu stia parlando di fasce High End o mainstream, fatto sta che proporre dopo 2 anni un die shrink di un architettura vecchia lascia a desiderare in primis, e in secondis vorrebbe dire niente RT.
E secondo te una ipotetica Vega128 con 16GB di HBM2 non lo gestisce il 4k? A 7nanometri potresti fare anche questo!Io mi sono solo limitato a rispondere al tuo post.
Spero tu abbia capito perchè ti dico che AMD è tutt'altro che fuori dai giochi. Fuori dai giochi ?
Ma il problema non è di certo quello, il problema è che oltre ad non rappresentare la migliore soluzione arriva anche in ritardo e spesso non è preferibile se non i fanboy o per il discorso convenienza che su un piano High End non è la priorità.
Io penso che faranno la fascia mainstream con un die shrink di Vega 56/64 (bassi costi di R&D, dimezzi il costo di produzione della singola GPU e puoi fare un prezzo concorrenziale)Se l'anno prossimo iniziassero di nuovo con la fascia media come ha fatto con Polaris direi che partiamo male. :asd:
nickname88
24-08-2018, 09:23
Non facciamo sempre i ragazzini incazzosi per favore.
Io penso che il DLSS possa essere una cosa fantastica perchè fondamentalmente il 4K non serve a nulla se non ha risolvere i problemi di aliasing che affliggono i giochi da quando i modelli poligonali ed elementi vari sono diventati troppo complessi per MSAA e simili.
Ovviamente prima voglio vederlo all'opera.
In realtà non c'è alcuna polemica, se piace bene altrimenti si disabilita.
Anche io vorrei vederlo all'opera, prima di giudicare.
Gyammy85
24-08-2018, 09:24
Togliendo il settore professionale, per l'utenza media la tua domanda può trovare risposta nel grafico di Steam.
Si si la statistica steam è la più attendibile del mondo.
Mah...
nickname88
24-08-2018, 09:34
Scusa ma mi stai prendendo in giro o davvero non ci arrivi?
Non è questione di chi ha il pisello più lungo!
Chi se ne frega di quel che fa nvidia, io con la VGA ci devo giocare.
Un consumatore compra sempre la migliore proposta acquistabile con un determinato budget.
Se a te interessa comprare un AMD a prescindere che sia la scelta migliore o meno buon per te, bastava chiarirlo prima. :)
Se AMD mi dà un oggetto che mi fa fare il 4k a prezzi popolari io compro quello e gioco con quello.Anche se le prossime mainstream a 7nm del prossimo raggiungessero una 1080Ti non basterebbe per gestire il 4K.
peronedj
24-08-2018, 09:36
cut
Quello che trovo sbagliato è spacciartelo per un filtro AA applicato sui 4K quando in realtà è uno scaler applicato sul 1440p (probabilmente) e reclamizzarlo come un qualcosa che in 4K aumenta le prestazioni del 30-50%
Non è il DLSS come tecnologia che contesto ma il modo in cui viene presentato.
Queste sono tue congetture, ancora non si sa come funziona... Io trovo assurdo che nvidia pubblicizzi una nuova tecnica di AA quando invece dietro si cela un upscaling da risoluzione inferiore, non ci credo manco se lo vedo
majinbu7
24-08-2018, 09:39
Scrivo raramente qui sul forum, comunque vedo che ci sono sempre i soliti 4 elementi di disturbo assolutamente pro Nvidia. D'altronde anche le recensioni sui prodotti Intel/Nvidia sono palesemente di parte, quindi non mi stupisce che ci sia parecchia gente che ci casca ancora.
Intanto qui mi è stato dato del fanboy/tifoso AMD, peccato che io abbia avuto prima la 970 e poi la 1070... :doh: Cioè riprendetevi!!! Processori avevo prima un i5 750 e ora un i5 6600k, entrambi Intel!! Probabilmente cercate solo di attaccare la gente gratuitamente e nel modo più basso possibile.
Quello che intendevo e che ovviamente è passato sotto silenzio è che dopo 1-2 anni dall'uscita, ora una 580 in molti giochi va come la 1070... Cioè una scheda video da 300€ che va come una da 450?? Certo ci saranno quei due giochi ottimizzati Nvidia o qualche altro titolo dove la 1070 fa quei 10-20fps in più, ma onestamente la 580 è cresciuta da paura, la 1070 è andata a fondo.
Qualcuno ha linkato i grafici di steam sul possesso di schede video in favore di Nvidia, grazie al cavolo! Intanto la gente mediamente non è proprio super informata, anzi io mi ci metto per primo, vedendo parecchie recensioni e leggendo online, mi sono fatto infinocchiare anch'io dalla 1070, non mi stupisco che gente che ne capisce anche di meno, si sia fiondata tutta su schede Nvidia.
Altro aspetto importante le Vega sono uscite decisamente tardi e peraltro a causa dei miner al tempo erano praticamente introvabili e avevano prezzi assurdi!!! Buono per AMD che avrà venduto alla grande, però certo anch'io avrei preso Nvidia visto i prezzi assolutamente gonfiati, quando invece le Nvidia si trovavano più facilmente e a prezzi più umani.
Tuttavia per chi ha preso le Vega e Polaris prima della salita vertiginosa dei prezzi, per me ha fatto un affarone, specie chi comprò la 580, che ora sta praticamente al livello della 1070 in moltissime situazioni.
Per me AMD rimane più seria nel lungo termine, purtroppo è stata penalizzata (o avvantaggiata a seconda di come la si vuole vedere) dagli acquisti selvaggi dei miners, quindi chiaro che tra i giocatori abbia una diffusione decisamente limitata.
Tu sei un utente che in un forum tecnico andrebbe bannato all'istante per le sole Bo**te che hai messo negli ultimi 3 post, tra l'altro spacciandole come verità, cioè basta pensare che nemmeno Gyammy (N°1 dei fanboy AMD non che N°1 hater Nvidia) si spingerebbe a spararle così grosse, addirittura una 580 che ha le prestazioni migliori di una 1070 :doh: :doh: :doh:
Dici che scrivi pochi messaggi???? beh forse sarebbe meglio che ti limitassi solamente a leggerli ;)
nickname88
24-08-2018, 09:41
Il 4k è il traguardo. Gara finita, quando gestisci il 4k con successo non serve a niente fare più potenza.
Si va bene, lo si diceva sempre di ogni risoluzione. Io lo pensavo ai tempi del tubo catodico del 1280x1024 :asd:
La potenza non basta mai, i giochi si appesantiscono sempre di più anche al di fuori della risoluzione.
Veramente a me il 25 spediscono una 2080ti,Quindi compri la 2080Ti per poi cambiarla l'anno prossimo con una scheda che tu speri andrà come una 1080Ti ? :)
nickname88
24-08-2018, 09:45
Guarda nella tua amata classifica Steam quanta gente usa il fullhd e quanta gente usa il 4k... :DEd io che pensavo che ognuno guardasse gli interessi propri e non quelli degli altri :)
Quindi ci adeguiamo tutti al 1080p ? Per me sarebbe un ritorno te lo anticipo, ovviamente sgradito.
Guarda nella tua amata classifica SteamMi sà che sbagli utente perchè non l'ho tirata in ballo io, e quì nemmeno l'ho mai postata :)
Alodesign
24-08-2018, 09:48
Si si la statistica steam è la più attendibile del mondo.
Mah...
Assolutamente no, ma è un punto di partenza.
O se la vuoi vedere diversamente:
- Millioni di giovani e non giovini ragazzi hanno acquistato a mani basse le 1080ti
- Questi millioni di giovani non hanno aderito al programma di Steam di controllo
HW
- Altri Millioni di giovini non usano Steam ma solo Origin o craccano i giochi.
nickname88
24-08-2018, 09:58
Guarda che lo ha detto Jen-Hsun Huang in conferenza.
Dice che prende un'immagine a bassa risoluzione e i tensor core possono migliorarla in tempo reale generando pixel in modo coerente.
Riascoltalo: https://youtu.be/Mrixi27G9yM?t=58m42s
Finchè lo fa con i Tensor siamo tutti felici.
Io dalle immagini comunque vedo che mostra un miglioramento in paragone al TAA.
Neofreedom
24-08-2018, 09:59
Perchè no ? La 1080Ti anche se fosse a parità di costo della 2080 liscia andrà meno e sarà più indietro di features.
La 1080 liscia soffrirà analogamente gli stessi aspetti rispetto alla 2070.
Chi dovrà comperare una VGA nuova a breve, che sia per minare o giocare non avrà comunque senso optare per le vecchie se le nuove costano uguali e vanno di più.
Grazie
peronedj
24-08-2018, 10:02
Guarda che lo ha detto Jen-Hsun Huang in conferenza.
Dice che prende un'immagine a bassa risoluzione e i tensor core possono migliorarla in tempo reale generando pixel in modo coerente.
Riascoltalo: https://youtu.be/Mrixi27G9yM?t=58m42s
Non si capisce bene, credo si riferisca al modo in cui hanno allenato la rete neurale, non all'applicazione del filtro
peronedj
24-08-2018, 10:07
Boh potrebbe anche essere, però come lo spieghi un incremento di prestazioni superiore al peso del filtro TAA mostrato nelle slide?
Cioè se da NOAA a TAA perdi 10% di prestazioni non è possibile guadagnarne il 30% passando ad un altro filtro AA.
Io me lo spiego così: le prestazioni che vedi sulla 2080 con filtro attivato sono le stesse che avresti con un semplice 4k, l'attivazione del filtro va ad usare i tensor core che altrimenti non verrebbero usati, quindi di fatto l'attivazione è "gratis"
Vediamo un po' di numeri delle aziende coinvolte
Fatturato INTEL 2017 62,8 Miliardi di dollari
Fatturato NVIDIA 2017 9,71 Miliardi di dollari
Fatturato AMD 2017 5,53 Miliardi di dollari
Adesso premesso che ad un fatturato non corrisponde direttamente un utile netto, se oggi paghiamo meno le CPU e se non strapaghiamo ancora di più le schede video questo è merito di AMD che con meno di un decimo del fatturato INTEL e poco più della metà di quello NVIDIA riesce a mantenere (o a far mantenere) prezzi di mercato non "a briglia sciolta".
Questo non significa che dobbiamo per forza comprare AMD "per gratitudine", se AMD fosse nei panni di INTEL ci avrebbe spremuto a dovere anche lei.
Quello che importa è che se non diamo la possibilità ai "piccoli" di crescere, i grandi schiacceranno i piccoli e poi noi torneremo a pagare CPU e GPU a peso d'oro (esattamente quello che è successo negli scorsi 8-10 anni dove AMD è stata fuori dai giochi).
Siate i FanBoy del vostro portafoglio, non di quella o quell'altra marca, consigliate le persone meno esperte che si fanno abbindolare dalle pubblicità, alla fine se non saranno i consumatori ad orientare il mercato con i loro acquisti, saranno le aziende a orientare i consumatori.... Quasi sempre a 90°
Neofreedom
24-08-2018, 10:26
Vediamo un po' di numeri delle aziende coinvolte
Fatturato INTEL 2017 62,8 Miliardi di dollari
Fatturato NVIDIA 2017 9,71 Miliardi di dollari
Fatturato AMD 2017 5,53 Miliardi di dollari
Adesso premesso che ad un fatturato non corrisponde direttamente un utile netto, se oggi paghiamo meno le CPU e se non strapaghiamo ancora di più le schede video questo è merito di AMD che con meno di un decimo del fatturato INTEL e poco più della metà di quello NVIDIA riesce a mantenere (o a far mantenere) prezzi di mercato non "a briglia sciolta".
Questo non significa che dobbiamo per forza comprare AMD "per gratitudine", se AMD fosse nei panni di INTEL ci avrebbe spremuto a dovere anche lei.
Quello che importa è che se non diamo la possibilità ai "piccoli" di crescere, i grandi schiacceranno i piccoli e poi noi torneremo a pagare CPU e GPU a peso d'oro (esattamente quello che è successo negli scorsi 8-10 anni dove AMD è stata fuori dai giochi).
Siate i FanBoy del vostro portafoglio, non di quella o quell'altra marca, consigliate le persone meno esperte che si fanno abbindolare dalle pubblicità, alla fine se non saranno i consumatori ad orientare il mercato con i loro acquisti, saranno le aziende a orientare i consumatori.... Quasi sempre a 90°
Concordo in toto, grazie :)
Ok, ma una volta che ho una VGA che gestisce il 4k a 100hz a me che me ne frega se nVIDIA riesce a farne 200? La differenza di prezzo fra i 4k freesync e gsync è enorme, AMD sarà molto competitiva.
Se così fosse basterebbe una 1060 o una 580 dato che in FHD, la risoluzione più usata, se la cavano bene. Ma la potenza in realtà non basta mai, più ne hai maggiori sono gli scenari d'uso che si aprono.
A quel punto nVIDIA avrà due scelte:
a) abbassare i prezzi (ed i margini)
b) introdurre il raytracing - che la concorrenza non ha - per ricominciare la corsa alle prestazioni.
Il ray tracing nVidia l'ha già introdotto, quindi di cosa stiamo parlando?
Parli di nVidia come se ora fosse spalle al muro e dovesse operare due scelte per sopravvivere, ma la realtà è ben differente. nVidia esce oggi con queste schede e uscirà presumibilmente qualche mese dopo AMD con una nuova generazione a 7nm.
Se AMD non si sbriga finirà che all'uscita della prossima generazione a 7nm nVidia presenterà la propria e la gente aspetterà qualche mese prima di comprare, di fatto vanificando il vantaggio, soprattutto se queste nuova generazione non si rivelerà significativamente superiore alle attuali Turing.
Ora bisognerà vedere cosa deciderà di fare AMD: potrebbe davvero puntare su schede economiche senza Ray Tracing e IA (le novità introdotte da nVidia in questa generazione rispetto a Pascal) nel tentativo di rivaleggiare in prestazioni ma con un costo molto più aggressivo (grazie al silicio risparmiato) rivolgendosi a chi per ora ritiene che queste nuove caratteristiche siano immature e non valgano la spesa, oppure seguire la stessa strada e confrontarsi ad armi pari.
Comunque io non critico i risultati, anzi spero che la 2060 abbia i tensor e sia compatibile con DLSS perchè potrei anche farci un pensierino.
Da quel che si legge in giro, niente Tensor e RT core per le schede di fascia più bassa. La differenza dovrebbe essere evidente anche nel nome, le 2060 saranno GTX e non RTX.
... quindi di fatto l'attivazione è "gratis"
Lui sta obiettando sul fatto che non sia gratis, ma in guadagno.
Anche io ho supposto fosse gratis, ma a questo punto bisognerebbe vedere delle prove comparative fatte come si deve in cui vengono confrontate le prestazioni senza AA e quelle con il nuovo DLSS.
Certo, poi in fin dei conti si valuta il risultato finale.
Sì intanto faranno la fine delle 1070-1080, personalmente tornassi indietro prenderei una Vega 56. Mi sa che la 1070 la rivendo presto. Nvidia come al solito super pompata al lancio con tante recensioni pro, poi dopo 1 anno vedi che AMD rimonta e tanti saluti. Da non scordare poi il freesync, che permette di acquistare monitor allo stesso prezzo, senza pagare 200€ in più in stille gsync.
Tanto AMD ormai con il controllo delle console può fare il bello e il cattivo tempo, è solo questione di tempo prima che stringa il cappio intorno al collo di Nvidia.
Unica pecca di AMD sono i consumi elevati e li c'è poco da dire, Nvidia è sicuramente più ottimizzata su quel versante.
Scusami, cos'ha la tua 1070 che non ti soddisfa? Il discorso del Freesync? o Altro?
Certo ma la differenza è del 30% e anche più e il TAA non pesa così tanto.
Se tra TAA e senza filtro c'è solo il 10% come può esserci il 30% tra TAA e DLSS anche se DLSS pesa zero?
Pesare zero è possibile, aumentare le prestazioni no per un filtro AA.
P.S: mi riferisco a questo: https://www.hwupgrade.it/articoli/5238/turing_performance_pascal_1_big.jpg
Secondo me quel grafico si riferisce a 4k con filtro, quindi diventa, esempio, 1080 @ 4k con un antialiasing vs 2080 @ 4k con un antialiasing vs 2080 @ 4k con DLSS, altrimenti l'unica è appunto un upscaling completo dell'immagine, ma onestamente non credo (o non voglio crederci).
In sostanza nessuna barra di quel grafico sarebbe senza antialiasing.
@LkMsWb
Secondo me conta il risultato, non come è ottenuto. Se la resa è buona, che sia un filtro o un upscaling "intelligente" a me francamente importa poco.
Ad ogni modo non hai ancora capito l'appunto di Bivvoz.
Certo che tutti i risultati sono con AA, ma lui sa (immagino da altre recensioni) che l'impatto del TAA è di circa il 10% (poniamo anche il 15%), ma in quell'immagine con DLSS si hanno miglioramenti ben superiori.
Per capirci, se ho 100 FPS senza AA che diventano 85 FPS con TAA, con un antialiasing gratuito mi aspetto di avere di nuovo 100 FPS, invece con DLSS ne ho 115... i conti non tornano.
peronedj
24-08-2018, 10:39
Certo ma la differenza è del 30% e anche più e il TAA non pesa così tanto.
Se tra TAA e senza filtro c'è solo il 10% come può esserci il 30% tra TAA e DLSS anche se DLSS pesa zero?
Pesare zero è possibile, aumentare le prestazioni no per un filtro AA.
P.S: mi riferisco a questo: https://www.hwupgrade.it/articoli/5238/turing_performance_pascal_1_big.jpg
Lui sta obiettando sul fatto che non sia gratis, ma in guadagno.
Anche io ho supposto fosse gratis, ma a questo punto bisognerebbe vedere delle prove comparative fatte come si deve in cui vengono confrontate le prestazioni senza AA e quelle con il nuovo DLSS.
Certo, poi in fin dei conti si valuta il risultato finale.
non si sta paragonando una 2080 con TAA vs una 2080 con DLSS... quella con filtro TAA attivato è una 1080, quindi ci sta che la differenza di fps (come dice bivvoz 30%) sia dovuto a un 20% per la differenza di architettura + un 10% del guadagno del DLSS contro il TAA
nickname88
24-08-2018, 10:42
Scusami, cos'ha la tua 1070 che non ti soddisfa? Il discorso del Freesync? o Altro?
Forse stai parlando con un fan che si sente sottomesso perchè costretto a comperare Nvidia nel periodo in cui Vega non voleva saperne di uscire, probabilmente si sente violato :D
@LkMsWb
Secondo me conta il risultato, non come è ottenuto. Se la resa è buona, che sia un filtro o un upscaling "intelligente" a me francamente importa poco.
A me importa, perché la qualità può essere il 99,9% di quanto c'era prima, ma non sarà mai il 100% in una immagine upscalata. E nel 2018, dopo le lotte per pulire i filtri anisotropici, dopo il 4k, dopo l'HDR, dopo il Ray-Tracing... uno scaling è l'ultima risorsa, da usare solo dove strettamente necessario. Tra l'altro nVidia pubblica MIGLIORIE grafiche rispetto a non averlo, cosa che un upscaling da, diciamo, 1800p a 2160p non può dare rispetto a un 2160p nativo. Non è un caso l'abbiano confrontato con altri anti-aliasing e non con immagini renderizzate nativamente a risoluzione superiore.
Ad ogni modo non hai ancora capito l'appunto di Bivvoz.
Certo che tutti i risultati sono con AA, ma lui sa (immagino da altre recensioni) che l'impatto del TAA è di circa il 10% (poniamo anche il 15%), ma in quell'immagine con DLSS si hanno miglioramenti ben superiori.
Per capirci, se ho 100 FPS senza AA che diventano 85 FPS con TAA, con un antialiasing gratuito mi aspetto di avere di nuovo 100 FPS, invece con DLSS ne ho 115... i conti non tornano.
Ho capito benissimo il suo appunto, ma 1) Non si sa se in quegli esempi l'immagine sia calcolata con TAA, è una certezza nata qui da non so che cosa. Anzi, siccome nVidia dice che DLSS è un Supersampling, magari lo stanno confrontando con un SSAO o con uno dei rari multisampling nei titoli DX12, Deus Ex se non ricordo male lo supporta.
2) sai meglio di me che nelle barre di test i risultati sono sempre esagerati e nel migliore dei casi, lo hanno fatto nel passato sia nVidia che AMD.
EDIT: sì, le slide della presentazione mostravano DLSS vs TAA, ma le slide con le performance sono successive e non sono per forza relative a quanto visto durante la conferenza. Specifico prima che qualcuno lo faccia notare :D
peronedj
24-08-2018, 10:47
@LkMsWb
Per capirci, se ho 100 FPS senza AA che diventano 85 FPS con TAA, con un antialiasing gratuito mi aspetto di avere di nuovo 100 FPS, invece con DLSS ne ho 115... i conti non tornano.
Per me il conto è una cosa tipo così:
1080 senza AA 40fps
1080 con TAA 30fps
2080 senza AA 60fps
2080 con TAA 40 fps
2080 con DLSS 60fps
Mi sembra che fosse scritto da qualche parte che Nvidia quel grafico lo intendesse con TAA attivo in tutti i casi dove non è espressamente indicato DLSS.
Se non ricordo male, TAA è stato menzionato come uno degli esempi degli algoritmi che va a sostituire, ma se il DLSS è considerato un supersampling, per forza di cose deve scontrarsi con SSAA e MSAA a livello di performance e qualità visiva. Sicuramente come prestazioni lì distruggerà, come qualità visiva vedremo. Come dici tu a fare meglio di TAA ci vuol poco, specie inquadrando i singoli frame :D
@LkMsWb
Infatti si valuta il risultato. Se il risultato, come dici, non sarà mai buono come nell'immagine non upscalata, allora si valuterà se la perdita di qualità varrà l'incremento delle prestazioni (e se è il 99,9% di cui parli, probabilmente lo varrà eccome).
Ma non è detto che questo avvenga, non sappiamo come lavorano gli algoritmi, di quali dati i Tensor Core disporranno e come verrà alla fine assemblata l'immagine finale.
Aspettiamo di leggere qualche recensione approfondita prima di dire con certezza che l'upscaling non sia una buona scelta (sempre che di upscaling si tratti).
@peronedj
Ma i tuoi conti non tornano.
Supponendo che TAA incida il 15% (bivozz parlava del 10%, immagino sia un dato ricavato da altre recensioni), abbiamo tre possibilità:
- La 2080 con barretta verde scuro è senza AA
In questo caso avremmo un inspiegabile aumento di prestazioni con DLSS (barretta verde chiaro)
- La 2080 con barretta verde scuro è con TAA (caso che stavamo considerando in quanto )i paragoni nella presentazione sono stati fatti con il TAA)
I conti ancora non tornano se consideriamo un impatto del TAA del 10-15%, dato che gli incrementi con DLSS sono maggiori
- La 2080 con barretta verde scuro utilizza un filtro più pesante del TAA
qui i conti potrebbero tornare. Ma in tal caso il grafico sarebbe un po' truffaldino, dato che si è parlato di TAA e non di altri filtri.
Magari controllando la fonte della slide mostrata si riesce a carpire qualche informazione in più.
nickname88
24-08-2018, 11:13
- La 2080 con barretta verde scuro utilizza un filtro più pesante del TAA
qui i conti potrebbero tornare. Ma in tal caso il grafico sarebbe un po' truffaldino, dato che si è parlato di TAA e non di altri filtri. Alcuni dei titoli dove c'è il confronto con il DLSS, non dispongono di altri filtri disponibili a parte TAA e FXAA come Final Fantasy XV, Epic Infiltrator invece è apparso all'evento con scritto TAA.
Gli altri non si sà nemmeno che tipo di AA permette, Ark e Pugb ti mostrano solo il grado ma non la tipologia di AA, mentre Shadow Of Tomb Raider nemmeno è uscito e le sue opzioni permesse non sono note.
Comunque sia Il video confronto con frame rate TAA vs DLSS su EPIC Infiltrator : Link (https://www.youtube.com/watch?v=x-mVK3mj_xk)
--- cut ---
abbiamo tre possibilità:
- La 2080 con barretta verde scuro è senza AA
In questo caso avremmo un inspiegabile aumento di prestazioni con DLSS (barretta verde chiaro)
- La 2080 con barretta verde scuro è con TAA (caso che stavamo considerando in quanto )i paragoni nella presentazione sono stati fatti con il TAA)
I conti ancora non tornano se consideriamo un impatto del TAA del 10-15%, dato che gli incrementi con DLSS sono maggiori
- La 2080 con barretta verde scuro utilizza un filtro più pesante del TAA
qui i conti potrebbero tornare. Ma in tal caso il grafico sarebbe un po' truffaldino, dato che si è parlato di TAA e non di altri filtri.
Magari controllando la fonte della slide mostrata si riesce a carpire qualche informazione in più.
La fonte è il blog nVidia, e non specificano: https://blogs.nvidia.com/blog/2018/08/22/geforce-rtx-60-fps-4k-hdr-games/
Dicono solo:
"For game after game, Turing delivers big performance gains (see chart, above). Those numbers get even bigger with deep learning super-sampling, or DLSS, unveiled Monday.
DLSS takes advantage of our Tensor Cores’ ability to use AI. In this case it’s used to develop a neural network that teaches itself how to render a game. It smooths the edges of rendered objects and increases performance."
EDIT: e se il confronto prestazionale fosse fatto rispetto alla "Resolution scale"? Ormai molti giochi la supportano, e si tratta in effetti di un calcolo a risoluzione superiore poi downscalato alla risoluzione nativa, e magari il DLSS ottiene prestazioni simili visivamente, senza dover renderizzare il tutto a risoluzioni più elevate - anche fossero "solo" il 125%.
majinbu7
24-08-2018, 11:51
Scusami, cos'ha la tua 1070 che non ti soddisfa? Il discorso del Freesync? o Altro?
Per arrivare a dire che la 580 è migliore in prestazioni, non credo che sia la 1070 ad avere qualcosa ma bensi il proprietario :asd:
peronedj
24-08-2018, 11:53
@peronedj
Ma i tuoi conti non tornano.
Io lo interpreto così, e così i conti tornano
https://preview.ibb.co/nb8j2p/turing_performance_pascal_1_big.jpg
peronedj
24-08-2018, 11:57
Troppa differenza tra TAA e le barrette rosse e di conseguenza con DLSS.
Tu sai quanto influisce TAA su ogni gioco?
peronedj
24-08-2018, 12:00
che ti devo dire? in assenza di altre informazioni, vedremo appena esce. Tra un mese ti saprò dire :D
Quindi se ho capito bene.... queste nuove vga non porteranno ad un abbassamento dei prezzi delle vecchie nel breve termine ( 1080 o 1080TI ) per scarsissima concorrenza e stock in magazzino molto ampi causa miners. Quello che non ho capito è ad ora che % di prestazione incrementale la 2080 avrà rispetto alla 1080 e la 2080 Ti rispetto alla 1080 Ti. Io mi limito al 2k , non ho nemmeno monitor 4k, ma mi domando, soldi permettendo se conviene passare dalla mia attuale 980gtx alla 2080 o alla 1080 ti ( il top sarebbela 2080 ti ma così anche il costo ). Sono uno dei pochi penso che può anche tenere una vga 2-3aa e passare al top della successiva quando si potrò giocare a 4k senza nessun problema( anche se magari già ci sarà l'8k ).
Grazie comunque a tutti per le informazioni datemi fino ad ora leggendovi :)
Ma sai sono le stesse domande che mi faccio io, avendo un 27" FHD e una R9 290 occata i giochi girano egregiamente senza scatti e poco importa se devo abbassare qualche filtro.
Certo se puntassi a giocare in 4k e avessi disponibilita' economiche non mi farei sfuggire la 2080 con un monitor cazzuto a dovere.
Sono sempre stato un tifoso di AMD, e ho sempre avuto quello che mi aspettavo dai loro prodotti che ritenevo ottimi in temini di prezzo/prestazioni.
Chiaramente oggi decreta la netta vittoria, aime', degli omini verdi :D che purtroppo continuano iperterriti a tenere i prezzi del mercato piuttosto alti per le loro schede, ma lo farebbe chiunque sia ben chiaro.
Coloro che aspettvano di acquistare la serie 1xxxx a prezzi piu' bassi purtroppo sara' moooolto deluso.
Vediamo AMD cosa proporra', anche se ci vorra' ancora del tempo, forse troppo.
peronedj
24-08-2018, 12:07
Esempio che arriva da Nvidia direttamente:
Quello è in full hd, non è detto che in 4k l'impatto sia lo stesso
@peronedj
I conti non tornavano rispetto alle ipotesi che avevamo fatto.
Indubbiamente il tuo grafico modificato si allontana molto dalla stima del 10-15% che Bivvoz stava facendo sull'impatto del TAA.
Il punto è che, salvo sorprese, l'impatto dovrebbe essere quello e quindi le stime di quel grafico dovrebbero essere sbagliate.
peronedj
24-08-2018, 12:21
lui stimava 10-15%, ma in full hd (almeno stando al grafico di nvidia che ha postato), probabilmente in 4k sarà di più
Neofreedom
24-08-2018, 12:22
Ma sai sono le stesse domande che mi faccio io, avendo un 27" FHD e una R9 290 occata i giochi girano egregiamente senza scatti e poco importa se devo abbassare qualche filtro.
Certo se puntassi a giocare in 4k e avessi disponibilita' economiche non mi farei sfuggire la 2080 con un monitor cazzuto a dovere.
Sono sempre stato un tifoso di AMD, e ho sempre avuto quello che mi aspettavo dai loro prodotti che ritenevo ottimi in temini di prezzo/prestazioni.
Chiaramente oggi decreta la netta vittoria, aime', degli omini verdi :D che purtroppo continuano iperterriti a tenere i prezzi del mercato piuttosto alti per le loro schede, ma lo farebbe chiunque sia ben chiaro.
Coloro che aspettvano di acquistare la serie 1xxxx a prezzi piu' bassi purtroppo sara' moooolto deluso.
Vediamo AMD cosa proporra', anche se ci vorra' ancora del tempo, forse troppo.
Grazie. Ma ha quel punto vai di 2080 TI almeno a 2k giochi a 100 fps penso li hai senza problema alcuno. Monitor a 4k hdr a 144hz mi pare siano appena usciti e costano un botto. :)
Ora continuo a leggere e decodificare gli altri commenti :)
Nella slide il confronto lo fanno tra una 2080 e SLI 1080.
Dai commenti mi pare che si parli di una 1080... Aspettiamo una settimana, magari cominciano ad uscire le recensioni.
ps. stando al grafico dovrebbe quadruplicare i fps di una 1080 su ark usando DLSS... Tra 80-120 fps con dettagli massimi.
Finalmente ho deciso di postare le mie considerazioni...
Ho aspettato qualche giorno perché non credevo a quello che ho visto..
MA SONO MATTI!!!
Io mi ricordo quando comprai la 760, c'era la 770 a 290 euro...
poi mi ricordo la 970 a 349 euro..
ora la xx70 costa 649 euro!?!?
Mi sono perso qualcosa!?!
Il top di gamma costava sui 500/600 euro...ora più di 1000?!?!
Per quanto riguarda l'ot
E' chiaro che sono schede che non riguardano chi gioca in full hd..ed è chiaro che sei hai un 1080 o 1070 vai ancora benone, ma bisogna considerare il progresso anche se inizialmente non sarà ottimizzato a dovere.
Per quanto mi riguarda a parte i prezzi (vedi sopra) aspetterei la serie 30xx per vedere realmente ottimizzazioni concrete.
Ultima cosa: io riesco a giocare abbastanza bene a tutto in full hd con le mie due 760...so che più o meno come prestazioni stanno tra la 1060 e la 1070 e non ho problemi di sorta...
Ultimo gioco pesante che ho fatto è stato Prey che mi girava a dettagli medio - medio/alti..
resto battlefileld quasi tutto alto...
Per chi dice che lo SLI non serve a niente...
ah..per i giochi che non lo sfruttano dato che sono indie o a livello basso di grafica non ho problemi con una sola 760...
Ultimo gioco pesante che ho fatto è stato Prey che mi girava a dettagli medio - medio/alti..
resto battlefileld quasi tutto alto...
Per chi dice che lo SLI non serve a niente...
ah..per i giochi che non lo sfruttano dato che sono indie o a livello basso di grafica non ho problemi con una sola 760...
Quindi prey lo fai girare tra i 100-150 fps in FHD con uno sli di 760 a dettagli sopra la media.
La 1070 lo fa girare a 150 con dettagli massimi.
La 1060 circa 100fps con dettagli massimi.
SLI costato 500 euro? Ad oggi fai uno SLI di 1060 con 500€.
I sistemi multi-scheda oltre che mal supportati, dai giochi, sono inutili quando con una 2070 (costerà 5-600€ circa?) Prey in FHD lo squagli.
IMHO una 2070 potrebbe farlo andare ad oltre 250fps a stare bassi.
lo SLI sulle 1060 non è supportato.
nickname88
24-08-2018, 14:10
Con la 1060 in realtà non puoi maxare il fullhd. Been there, done that. La 1070 va molto meglio, ma neanche lei ce la fa se vuoi usare i filtri migliori (o renderizzare in 2k col DSR). Ci vuole la 1080.
Però una volta che hai una 1080 sul tuo monitor fullhd, che ti permette di maxare tutto, che fai? La cambi per una 1080ti? Veramente?
Col tempo escono titoli tecnicamente sempre più pesanti, anche escludendo la risoluzione.
1080p è una risoluzione stravecchia con cui maxato ci giocavo già all'epoca con la HD 5870 ( che a dire del pubblico era una bomba ), oggi anche alla stessa risoluzione tu stesso affermi che una 1060 non basta, con i prossimi titoli ( e qualcuno già presente ) non basterà nemmeno più la 1070.
Quindi se proprio vuoi trovare una bandiera a scacchi in questa rincorsa dovrai aspettare che venga raggiunto il completo fotorealismo in abbinamento a pannelli con densità superiore a quella percepibile ad occhio umano.
Scusate ragazzi ma per capire, quanti di voi oggi utilizano
1. Monitor FHD
2. Monitor 2k
3. Monitor 4k
Perche' a leggere qui sembrerebbe, il condizionale e' d'obbligo, che in tantissimi me compreso si utilizza monitor FHD, in pochi o pochissimi 2k, quasi nessuno 4k.
Ora chiaramente non posso prenderlo come punto di riferimento a livello "mondiale" ma ritengo la comuniti abbastanza "amalgamata" tra giovani e meno giovani :D , professionisti e gamer, mi piacerebbe capire in quanti oggi realmente sfruttano il 4k.
nickname88
24-08-2018, 14:40
Ora chiaramente non posso prenderlo come punto di riferimento a livello "mondiale" ma ritengo la comuniti abbastanza "amalgamata" tra giovani e meno giovani :D , professionisti e gamer, mi piacerebbe capire in quanti oggi realmente sfruttano il 4k.Il 4K non ce lo abbiamo perchè non c'è una scheda idonea a farci girare i titoli come dio comanda.
Il 2K è la minoranza perchè i budget medi sono più risicati di altri, per me una risoluzione di passaggio.
peronedj
24-08-2018, 14:48
Scusate ragazzi ma per capire, quanti di voi oggi utilizano
1. Monitor FHD
2. Monitor 2k
3. Monitor 4k
Perche' a leggere qui sembrerebbe, il condizionale e' d'obbligo, che in tantissimi me compreso si utilizza monitor FHD, in pochi o pochissimi 2k, quasi nessuno 4k.
Ora chiaramente non posso prenderlo come punto di riferimento a livello "mondiale" ma ritengo la comuniti abbastanza "amalgamata" tra giovani e meno giovani :D , professionisti e gamer, mi piacerebbe capire in quanti oggi realmente sfruttano il 4k.
Io sono in 4k già da qualche anno, ora ho preso un 65 pollici oled sony e ho spostato il pc per giocare in salotto, dove ho pure l'impianto atmos 7.1.2
Quindi prey lo fai girare tra i 100-150 fps in FHD con uno sli di 760 a dettagli sopra la media.
La 1070 lo fa girare a 150 con dettagli massimi.
La 1060 circa 100fps con dettagli massimi.
SLI costato 500 euro? Ad oggi fai uno SLI di 1060 con 500€.
I sistemi multi-scheda oltre che mal supportati, dai giochi, sono inutili quando con una 2070 (costerà 5-600€ circa?) Prey in FHD lo squagli.
IMHO una 2070 potrebbe farlo andare ad oltre 250fps a stare bassi.
allora Prey dettagli medi tra i 50 e gli 75 fps..
Ma ripeto solo quest'ultimo perché altri titoli es tomb raider vecchio, doom, wolfestein giravano quasi del tutto a dettagli alti..
Sli costato 290 euro...in 5 anni...
Ho comprato 760 e giocavo tutta la massimo in fullhd (2013-2014), poi abbassato un pochino e passato allo sli nel 2016 dove giocavo tutto al massimo...ora devo scendere un pelo..ma ancora qualche anno dovrei tenere abbastanza bene.
Non male eh!??
Per altre domande: io gioco in full hd semplicemente perché non c'è una tv che sia anche 2k e il monitor io lo uso anche da tv pertanto...
certo con il 2k sarei limitato..
Quello che intendevo e che ovviamente è passato sotto silenzio è che dopo 1-2 anni dall'uscita, ora una 580 in molti giochi va come la 1070...
la 1070 surclassa la 580 in ogni dove non spariamo caxxate
http://gpu.userbenchmark.com/Compare/Nvidia-GTX-1070-vs-AMD-RX-580/3609vs3923
Neofreedom
24-08-2018, 15:10
Il 4K non ce lo abbiamo perchè non c'è una scheda idonea a farci girare i titoli come dio comanda.
Il 2K è la minoranza perchè i budget medi sono più risicati di altri, per me una risoluzione di passaggio.
Concordo. Ho solo monitor 2K :)
nickname88
24-08-2018, 15:11
allora Prey dettagli medi tra i 50 e gli 75 fps..
Perchè Prey sarebbe un gioco pesante :asd:
es tomb raider vecchio, doom, wolfestein giravano quasi del tutto a dettagli alti..uno è vecchio ( molto ), gli altri due sono titoli in scenari chiusi :asd:
Neofreedom
24-08-2018, 15:13
Col tempo escono titoli tecnicamente sempre più pesanti, anche escludendo la risoluzione.
1080p è una risoluzione stravecchia con cui maxato ci giocavo già all'epoca con la HD 5870 ( che a dire del pubblico era una bomba ), oggi anche alla stessa risoluzione tu stesso affermi che una 1060 non basta, con i prossimi titoli ( e qualcuno già presente ) non basterà nemmeno più la 1070.
Quindi se proprio vuoi trovare una bandiera a scacchi in questa rincorsa dovrai aspettare che venga raggiunto il completo fotorealismo in abbinamento a pannelli con densità superiore a quella percepibile ad occhio umano.
Prendetemela per buona ma forse 2 aa fa, non ricordo dove passatemela, lessi un articolo di uno Fisico dove diceva che per il fotorealismo nei giochi si otterrà solo quando si arriverà a risoluzioni 8k x 6k tipo un 10 aa di evoluzione informatica. Plausibile ? :)
Il 4K non ce lo abbiamo perchè non c'è una scheda idonea a farci girare i titoli come dio comanda.
Il 2K è la minoranza perchè i budget medi sono più risicati di altri, per me una risoluzione di passaggio.
Ok quindi a tirar le somme, acquistare una 2080 x FHD sono soldi buttati al vento e sarebbe da folli.
Tanto fare 150fps o 200 fps non penso cambi la vita, anche se non e' cosi' per tutti ;) .
Diciamo che ad oggi con una 1070 o una buona 580 in FHD con dettagli medio/massimi giochi a tutto sopra i 60 fps, la 1080 ancora e' una eccellente scheda. Vega 56 o 64 con prezzi aggressivi potrebbero a parer mio ancora dire la loro per chi come me vorrebbe cambiare la sua vecchia R9.
nickname88
24-08-2018, 15:17
Prendetemela per buona ma forse 2 aa fa, non ricordo dove passatemela, lessi un articolo di uno Fisico dove diceva che per il fotorealismo nei giochi si otterrà solo quando si arriverà a risoluzioni 8k x 6k tipo un 10 aa di evoluzione informatica. Plausibile ? :)
Siamo a mala pena all'inizio del tray tracing che è solo il primo passo verso quella direzione e il 4K ancora non riusciamo ad usarlo, quindi non ne ho idea, ma fossi in te non ci perderei troppo tempo sulle previsioni.
Un po' come la fiaba della legge di Moore, che si prevedeva morisse a breve già da quando ero bambino e invece son passati 20 anni e ogni giorno muore domani, a furia di fare sempre più step per ogni salto di PP non sono così sicuro che riuscirò a vederne la fine :asd:
Ok quindi a tirar le somme, acquistare una 2080 x FHD sono soldi buttati al vento e sarebbe da folli.Peggio :asd:
la 1070 surclassa la 580 in ogni dove non spariamo caxxate
http://gpu.userbenchmark.com/Compare/Nvidia-GTX-1070-vs-AMD-RX-580/3609vs3923
Senza dubbio, ma la 580 rimane comunque una scheda dignitosissima che ti fa giocare senza troppi rimpianti nel portafogli.
Se giochi a 220 o 190 fps a me poco frega e non fa differenza, se spendo 450 € contro i 250 € invece la differenza c'e' ;)
Senza dubbio, ma la 580 rimane comunque una scheda dignitosissima che ti fa giocare senza troppi rimpianti nel portafogli.
Se giochi a 220 o 190 fps a me poco frega e non fa differenza, se spendo 450 € contro i 250 € invece la differenza c'e' ;)
che la 580 sia una gpu più che decente per il FHD ok,ma dire che le prestazioni sono simili ad una 1070 quando questa ha il 35% medio di performance in più (ad ogni risoluzione) è follia (o solo fanboysmo) e quel 35% nvidia te lo fa pagare.
La 580 è diretta concorrente della 1060 6gb con prezzi e prestazioni simili se non uguali
Qualcosa mi dice che al Black Friday si andrà di 2070.
Scusate ragazzi ma per capire, quanti di voi oggi utilizano
1. Monitor FHD
2. Monitor 2k
3. Monitor 4k
Perche' a leggere qui sembrerebbe, il condizionale e' d'obbligo, che in tantissimi me compreso si utilizza monitor FHD, in pochi o pochissimi 2k, quasi nessuno 4k.
Ora chiaramente non posso prenderlo come punto di riferimento a livello "mondiale" ma ritengo la comuniti abbastanza "amalgamata" tra giovani e meno giovani :D , professionisti e gamer, mi piacerebbe capire in quanti oggi realmente sfruttano il 4k.
Steam se ti ci colleghi, offre delle statistiche dei giocatori, e pressapoco rispecchiano i numeri che citi te :D
Io sono nella piccola minoranza che sfrutta il 2560x1440 a mio parere LA risoluzione per eccellenza della 1080.
Alodesign
24-08-2018, 17:37
FullHD qui, il 4k quando gli schermi costeranno come gli attuali HD.
Con la 1060 in realtà non puoi maxare il fullhd.
E pensi che con Vega a 7nm potrai farlo in 4k? E potrai con i giochi sempre più esigenti che usciranno visto che è aumentata la potenza delle schede?
Il discorso è sempre lo stesso, ci saranno sempre nuovi effetti grafici da abilitare che fino a quel momento sono stati scartati perchè troppo esosi. Ma una volta che si ha più potenza a disposizione, beh, arriveranno anche quelli, come è sempre stato.
...del perchè ha dovuto farlo!
Allora dovresti scrivere meglio
Non è questione di sopravvivenza, ma di guadagni;
Direi che vista l'assenza di AMD fino all'uscita della prossima generazione e i prezzi delle nuove schede, Nvidia potrà stare molto tranquilla per i guadagni.
Se poi AMD uscirà con qualcosa di realmente concorrenziale allora certamente si ridurranno, come è normale in un mercato in cui c'è concorrenza. Per lo meno nel settore videoludico, ma ricorda che nVidia, per la felicità dei suoi azionisti, fa grossi guadagni anche in altri settori.
Il tuo obiettivo è continuare a far salire il prezzo delle VGA.
L'obiettivo è trarre dalle VGA il maggior guadagno possibile, non farne salire il prezzo, che è solo uno dei fattori dell'equazione.
E non si tratta di crescere sempre, la crescita infinita non esiste. In genere si tratta di rispettare le previsioni di crescita in base all'andamento del mercato.
Ma se domani grazie ai 7 nani AMD inizia a sfornare GPU che fanno 100 fps e più in 4k col cazzo che la gente spende 1300 euro per una 2080ti, non credi?
Dipende da quanto costerà la soluzione AMD.
Dipende dalla percezione che ne avranno gli acquirenti.
Dipende da cosa puoi ottenere oltre i 100 FPS a 4K con le schede nVidia, e se questo interessa o meno al singolo acquirente.
Tu parti dall'assunto (errato) che il target dei 100FPS a 4K sia qualcosa di stabile, invece è qualcosa che è sempre in divenire. Oggi fai 100 FPS in 4K, domani con un nuovo gioco o con un aggiornamento di uno esistente (che aggiunge livelli più complessi, che abilita nuovi effetti grafici, ecc...) ne fai 80 o meno. E quel che bastava prima ora non basta più.
O potrebbe spuntare una nuova esigenza: per esempio visori VR che necessitano di 120 FPS, schermi 5K-8k e perchè no la possibilità di illuminare la scena usando il Ray Tracing (siamo in tema, no? ;) ).
Il Raytracing non è l'escamotage di nVidia per fregare gli utenti e aumentare i guadagni, è semplicemente un passo tecnologico (su cui tutti, compresa AMD, stanno lavorando) che è diventato accessibile grazie all'avanzamento tecnologico.
Ok: NVIDIA ha la tecnologia migliore. Contento?
Cosa succede, quando non si hanno argomenti si passa alle sparate? Vuoi farmi apparire come un fanboy nVidia? :asd:
Tu hai scritto che ad AMD basterebbe uno shrink di Vega a 7nm per dare filo da torcere ad nVidia. Questa è una sciocchezza.
Se AMD vuole competere difficilmente potrà bastare uno shrink, dovrò tirare fuori un'architettura al passo con i tempi, e questo è un concetto valido in generale, sia per AMD che per nVidia.
Il che fondamentalmente significa che AMD sarà competitiva in fascia bassa, ...
Competitiva come lo è stata fino ad ora, ossia lo sarà solo se sarà buona la prossima architettura.
Anzi, in questa fascia non potrà cercare di sparigliare le carte con chip più piccoli ed economici rispetto alla concorrenza perchè privati dei core dedicati a RT e IA, quindi per essere competitiva dovrà a maggior ragione avere soluzioni valide.
Non so poi se AMD deciderà di fare in questa generazione lo stesso passo di nVidia verso queste nuove tecnologie, il tempo ce lo dirà.
Sicuramente ci sta lavorando anche lei, ma a differenza di nVidia non ha il mercato professionale dove iniziare ad introdurle con ampi margini, e che nVidia ha sfruttato per realizzare questi chip.
Del resto anche AMD ha bisogno di trovare i giusti equilibri, e non può rimanere tropo indietro.
'azzo ho scritto un papiro.
nickname..certo ci sono molti giochi più pesanti...ma spendere 290 euro contro 1300 c'è una bella differenza.
Cmq il discorso è un altro:
giocare è un hobby..
un tempo ti prendevi una gpu da 300 anziché 100
una cpu da 200 anziché 100 e diciamo altri 100 euro in componentistica migliore e giocavi con circa 400 euro in più rispetto a un pc normale...oggi non è più così...
tanto vale spendi 600 euro e ti compri una ps5 e stop (e lo dico io che sono sempre a favore del pc rispetto le console).
In ambito professionale allora vai di quadro e compagnia bella e sicuramente 1000 euro sono pochi...ma è un'altra cosa!!!
io passerei volentieri a un 4k se solo esistessero monitor con dimensioni umane da scrivania in cui sarebbe possibile utilizzarli come tv...(sono inscritto in un altro topic infatti dove ogni tanto posto per sapere se ci sono novità...)
Di certo non uso un 60 pollici come monitor da scrivania nello studio...a dire il vero non mi entra neanche in salotto...quindi..
nickname88
24-08-2018, 22:05
tanto vale spendi 600 euro e ti compri una ps5 e stop (e lo dico io che sono sempre a favore del pc rispetto le console).
Il motivo n°1 per cui mi muovo su PC e non su console, è perchè non sono assolutamente soddisfatto della qualità grafica offerta dalle console e anche se trovi soddisfazione quando sono nuove, poi invecchiano e non si aggiornano per anni e non hai il benchè minimo controllo sul loro upgrade, se un titolo che vuoi gira male o si vede da schifo, tu non puoi farci nulla.
Il n°2 è la presenza di mouse e tastiera che mi permette di sfruttare realmente tutti i titoli come FPS ed RTS e nessun vincolo per un dispositivo di controllo standard.
Direi che la console è una soluzione a me troppo lontana dal soddisfacente.
Quindi o ti appassiona o no, capirai anche tu che le vie di mezzo nella passione non esiste.
io passerei volentieri a un 4k se solo esistessero monitor con dimensioni umane da scrivaniaCi sono da 27" in buon numero ed anche in 24".
Per usare un monitor come TV basta attaccargli un decoder.
concordo pienamente con te sul fatto del pc contro console..
sta di fatto che spendere 1000 euro per una gpu mi sembra veramente tanto..io ho sempre comprato la fascia media e mi sono trovato abbastanza bene nei giochi e ho alternato qualche console nel mezzo...
440mx, 4200ti, 6600 GT, 9600 GT, 760...
ora mi sembra che costi tutto uno sproposito
E lo dico da fan di nvidia..sia chiaro
hai qualche nome di decoder buoni da consigliarmi?
Tu hai scritto che ad AMD basterebbe uno shrink di Vega a 7nm per dare filo da torcere ad nVidia. Questa è una sciocchezza.
Se AMD vuole competere difficilmente potrà bastare uno shrink, dovrò tirare fuori un'architettura al passo con i tempi, e questo è un concetto valido in generale, sia per AMD che per nVidia.
tu parti dall'assunto che domani si deve avere tutti il ray tracing o andare a 4K per 100fps, quando qui stesso leggi che la gente si sta chiedendo se con le vecchie schede si può risparmiare e, comunque, giocare bene e con soddisfazione.
quel tipo di schede, quelle per il 4K, è ad appannaggio di una piccola cerchia del mercato... 5%.
se AMD facesse un die shrink a 7nm di Vega 64 questa si posizionerebbe sotto la 2070, come fu la 480 rispetto alla 1070, solo che come avversaria si troverebbe o le vecchie pascal (e quindi la 1080 Ti) o la prossima 2060, che probabilmente non avrà la possibilità di usare il ray tracing, non sarà più veloce di un'attuale 1080, ed avrà un prezzo prossimo ai 400 $ (che da noi diventano quasi 500 euro, a meno di non prendere il monoventola radiale)...
ecco, una vega con le prestazioni di oggi ma che costa non dico la metà di una di oggi, e MSRP delle vega 64 era 499$, ma basta solo 2/3, sui 330-340$, se permetti sarebbe la chimera di tutti quelli a cui non interessa spendere 600$ per il ray tracing (tralasciando anche la maggior potenza delle RTX esclusi tendor core e RT core), un pò come fu la 480 4GB a 215 euro qualche mese dopo la sua distribuzione.
vero che ci passava una reale differenza rispetto ad una 1070, ma questa era prezzata a 450 a quell'epoca, mentre la 1060 6GB, che aveva più o meno le stesse prestazioni, toccava i 280-290 euro.
per il FHD, 2 anni fa, la 480 era perfetta, e lo sarebbe per i 1440p una vega 64 che consuma molto meno di oggi ed offre prestazioni di tutto rispetto.
quindi, se per un anno AMD non presenta la risposta al ray tracing nvidia nell'anno del debutto di questa tecnologia, che potrebbe naufragare come tante altre belle tecnologie prima di diventare finalmente un ray tracing real time su tutto il rendering (perchè è quello lo scopo), non lo vedo così drammatico, visto che comunque il grosso del mercato non riuscirà comunque ,in questa generazione, ad apprezzare il DxRT per il semplice fatto che è caro.
una vega a 7nm non è svantaggiata, affatto... anzi, curerebbe tanti problemi che ha il chip di oggi.
e mi sembra un discorso con una logica abbastanza semplice da comprendere...
addirittura un polaris 10 a 7nm sarebbe decisamente problematico per nvidia; per diversi mesi questa starà ancora sui 12nm FF nvidia; il quel periodo ti possono spacciare una entry livel con un chip da 120-140mm^2 ad un prezzo favorevole per AMD, ma anche per i suoi clienti, che si trovano una scheda per il FHD ancora valida (il GP108 è da 132mm^2).
d'altronde AMD ha un'architettura che è ancora al passo con i tempi, visto che è pur sempre DX12.
le cose sono ancora tutte da definire, e prima di dicembre di quest'anno non credo che potremmo delineare un quadro chiaro sul domani.
sturia90
24-08-2018, 23:04
vale la pena passare quindi dalla 1080ti alla 2080ti?
Il motivo n°1 per cui mi muovo su PC e non su console, è perchè non sono assolutamente soddisfatto della qualità grafica offerta dalle console e anche se trovi soddisfazione quando sono nuove, poi invecchiano e non si aggiornano per anni e non hai il benchè minimo controllo sul loro upgrade, se un titolo che vuoi gira male o si vede da schifo, tu non puoi farci nulla.
Il n°2 è la presenza di mouse e tastiera che mi permette di sfruttare realmente tutti i titoli come FPS ed RTS e nessun vincolo per un dispositivo di controllo standard.
Direi che la console è una soluzione a me troppo lontana dal soddisfacente.
Quindi o ti appassiona o no, capirai anche tu che le vie di mezzo nella passione non esiste.
Ci sono da 27" in buon numero ed anche in 24".
Per usare un monitor come TV basta attaccargli un decoder.
stanno parlando di console a rate...
35$ per xbox one x, xbox game pass e xbox gold tutto insieme, e dopo 2 anni la console è di tua proprietà.
e c'è sempre la possibilità che ti facciano anche un cash-back alla fine dei 2 anni per la successiva console.
sai che penserà il giocatore medio?
che 35$ al mese non gli pesano nulla ed ottengono tutti i vantaggi e se ne strafrega della grafica eccezionale...
se la godrà alla successiva generazione o refresh.
nickname88
24-08-2018, 23:38
sai che penserà il giocatore medio?
Non me ne frega nulla dell'utonto medio :asd:
se ne strafrega della grafica eccezionale...Quindi cosa ci fai quì ? Se cercavi la mediocrità hai sbagliato thread. ;)
Ma scusate la mia ignoranza...ma un asus strix vega 64 a che livello si posiziona?!
Ma scusate la mia ignoranza...ma un asus strix vega 64 a che livello si posiziona?!
In dx12 e vulkan sotto alla 1080ti.
In dx11 dipende... A livello di prestazioni è ottima.
Il problema si pone quando devi pagare e dissipare quei 300 e passa watt della sola gpu.
In ogni caso le custom della 64, di solito, sono meno prestanti della reference per garantire un risparmio di una manciata di watt.
Performance/watt disastroso, costando 630€ nemmeno popolare... boh.
A questo punto davvero aspetta la 2070 e fatti quella. Se non puoi aspettare fine Settembre... procrastina.
Se devi farti un sistema nuovo, ryzen e 2070.
lo SLI sulle 1060 non è supportato.
Vero, mi sono fatto prendere la mano.
tu parti dall'assunto che domani si deve avere tutti il ray tracing o andare a 4K per 100fps,
No, parto dall'assunto che un vega a 7nm non sarà competitivo con le nvidia a 7nm che usciranno di li a breve.
Come Nvidia ha migliorato la propria architettura già con Turiong (RT e Tensor core a parte) e sicuramente lo farà anche con la prossima generazione, lo stesso ci si aspetta da AMD. Vega aveva già difficoltà con Pascal (già solo per la dimensione del chip), la cosa non può che peggiorare in futuro dato che i benefici dei 7nm arriveranno per tutti.
Insomma, è un concetto molto semplice.
Se poi AMD vuole cercare di tirare avanti con chippetti "sufficienti" a basso costo che l'utenza vedrà come roba vecchia e riciclata non ci si lamenti poi delle vendite.
Se non copri bene le fasce di prodotto al tuo competitor basta riposizionare le proprie schede per metterti in seria difficoltà.
Io voglio sperare che AMD porti sul mercato ben più di uno shrink di Vega.
Quindi cosa ci fai quì ? Se cercavi la mediocrità hai sbagliato thread.
LOL. Quindi tu avresti deciso di cosa si parla e di cosa non si parla in questa discussione? :asd:
Quanta arroganza.
In ogni caso le custom della 64, di solito, sono meno prestanti della reference per garantire un risparmio di una manciata di watt.
Tieni conto che le Vega solo abilitando il profilo meno spinto arrivano a risparmiare qualcosa come 1/3 dei consumi perdendo davvero poco in prestazioni.
In giro trovi anche diverse prove di chi ha giocato con le tensioni ed è riuscito ad ottenere prestazioni più elevate di quelle standard con consumi quasi dimezzati. AMD ha commercializzato queste schede con valori molto conservativi per le tensioni pur di risparmiare sui test e vendere tutta la produzione, se non becchi la scheda sfigata puoi ottenere risultati interessanti.
Il problema oggi sono i prezzi troppo alti che le rendono meno convenienti delle corrispettive nVidia (non sorprende infatti la bassissima diffusione tra i videogiocatori).
nickname88
25-08-2018, 10:48
LOL. Quindi tu avresti deciso di cosa si parla e di cosa non si parla in questa discussione? :asd:
Quanta arroganza.
Io ? No il titolo del thread.
Si parla della fascia più alta della famiglia GeForce.
Pensi che questi prodotti siano destinati a chi cerca il compromesso grafico o per chi pensa di far qualcosa di diverso dal giocare ? :asd:
ma voi (se giocate in 4k) l avvertite l esigenza di dover usare l antialiasing?
io sinceramente non così tanto. se ho margine di fps, un aa leggero lo metto, altrimenti amen via tutto.
discorso diverso per l anisotropico, che invece si vede subito se disattivo.
non capisco, nel senso che mi sfugge qualcosa, perché per schede vocate al 4k, si stia facendo tutto questo investimento addirittura in termina di hv dedicato, per l antialiasing.
(in ambito pc, e in ambito di giochi che renderizzano a risoluzione piena non che upscalano)
nickname88
25-08-2018, 11:12
ma voi (se giocate in 4k) l avvertite l esigenza di dover usare l antialiasing?
io sinceramente non così tanto.
Con "non tanto" stai già dicendo che l'immagine non è pulita.
C'è un esigenza minore, dove bastano filtri più leggeri certi però ci vogliono.
No, parto dall'assunto che un vega a 7nm non sarà competitivo con le nvidia a 7nm che usciranno di li a breve.
Come Nvidia ha migliorato la propria architettura già con Turiong (RT e Tensor core a parte) e sicuramente lo farà anche con la prossima generazione, lo stesso ci si aspetta da AMD. Vega aveva già difficoltà con Pascal (già solo per la dimensione del chip), la cosa non può che peggiorare in futuro dato che i benefici dei 7nm arriveranno per tutti.
Insomma, è un concetto molto semplice.
ma questo è sicuro.
è esattamente la possibilità di accedere a DxRT e IA con unità dedicate il prossimo sunto della tecnologia di domani.
la differenza è che per ora queste proposte di nvidia sono sotto target per molti; troppo care, poca potenza computazionale sotto questo aspetto...
non è questa la generazione di GPU che ci farà godere di certe cose...
oltretutto non ci sono nemmeno tanti titoli disponibili..
è tutto a divenire.
E' logico che AMD deve fare anche lei un'architettura che sfrutta tali tecnologie.
ma...
oggi si parlerebbe di un die shrink di un chip che ha già 2 anni sulle spalle, con la stessa architettura.
investimenti assai ridotti.
la questione si sposterà più in là, dove ad nvidia basterebbe un die shrink ed una modulazine diversa di questa stessa architettura, che ha un costo ben diverso da quello che deve affrontare AMD (e che già starà affrontando da diverso tempo, perchè le cose non si fanno in due mesi) per riuscire ad introdurre tali tecnologie.
un conto è che mi dici, giustamente, che un Vega 20, quello presentato sulle instinct probabilmente sarebbe costoso e poco adeguato, ma qui parliamo di posizionare vega 64 a livello di quanto fecero su una 480 nel 2015, sfruttando tecnologie già assodate.
te o riscrivo: un vega 64 a 7nm non sfigurerebbe rispetto a tutta la classe di GPU sotto la 2070, che oggi, avendo un costo di 600$, è entrata nella classe di mercato high end, classe assai marginale sull'intero mercato.
Se poi AMD vuole cercare di tirare avanti con chippetti "sufficienti" a basso costo che l'utenza vedrà come roba vecchia e riciclata non ci si lamenti poi delle vendite.
Se non copri bene le fasce di prodotto al tuo competitor basta riposizionare le proprie schede per metterti in seria difficoltà.
anche un Vega 64 a 7nm sarebbe un riposizionamento, e molto scomodo per nvidia, proprio perche con un PP decisamente migliorativo.
se presentano la 2060 a dicembre non è che dopo 6 mesi si può pretendere che facciano la 3060 a 7nm, e comunque in quei 6 mesi AMD avrebbe campo aperto con una vega 64 a 7nm, che in finale gli costerebbe assai poco, almeno come chip.
la difficoltà di Vega è solo piazzarla sull'interposer, perchè devi affidare la questione a strutture esterne che fino a ieri non erano in grado di tenere testa ad una produzione industriale su larga scala (parliamo di almeno un paio di milioni di chip, se non anche il doppio).
Io voglio sperare che AMD porti sul mercato ben più di uno shrink di Vega.
lo farà, ma lo farà sulla seconda generazione RT nvidia, o a cavallo di questa, indipendentemente se fanno o no vega a 7nm, per il semplice fatto che non hanno intenzione di pagare lo scotto "novità" di queste tecnologie, l'assestamento di mercato ed il posizionamento economico che, ad oggi, sono solo pure speculazioni mentali di nvidia... ancora non sappiamo come il mercato, la gente, recepirà tali novità...
prendi la VR... sembrava che dopo i primi visori a 1000 euro quelli a 500 euro dovessero dilagare, ed invece MS ha dovuto scendere ancora di target cercando di farli diventare economici, da 250 euro e, nonostante questo, è solo una nicchia di mercato...
commercialmente la VR a fallito, anche per diversi motivi che esulano il prezzo del visore, ma comunque non trovi un visore a giocatore...
AMD ha già subito lo scotto dell'introduzione delle DX12, cercando di spingere queste API in tutti i modi, ma non riuscendo a superare lo scalino dovuto alla minima diffusione di un nuovo paradigma di calcolo...
non credo che sia disposta a pagare anche questo.
aspetterà che sul mercato ci sia una sufficiente quantità d'istallato per entrare in concorrenza.
LOL. Quindi tu avresti deciso di cosa si parla e di cosa non si parla in questa discussione? :asd:
Quanta arroganza.
lascia stare.
è sempre stato così con queste persone.
quando i discorsi non sono di loro gradimento cercano di sopprimerli.
è che si sentono padroni di questo forum, quando, in verità, sono solo ospiti.
Tieni conto che le Vega solo abilitando il profilo meno spinto arrivano a risparmiare qualcosa come 1/3 dei consumi perdendo davvero poco in prestazioni.
In giro trovi anche diverse prove di chi ha giocato con le tensioni ed è riuscito ad ottenere prestazioni più elevate di quelle standard con consumi quasi dimezzati. AMD ha commercializzato queste schede con valori molto conservativi per le tensioni pur di risparmiare sui test e vendere tutta la produzione, se non becchi la scheda sfigata puoi ottenere risultati interessanti.
Il problema oggi sono i prezzi troppo alti che le rendono meno convenienti delle corrispettive nVidia (non sorprende infatti la bassissima diffusione tra i videogiocatori).
c'è chi ottiene le stesse prestazioni di una 1080 (logicamente non sui titoli DX11 tipo GTA V, ma sulla maggior parte dei titoli moderni in circolazione E NON SOLO SU QUELLI FAVOREVOLI ALLE ARCHITETTURE AMD) consumando 150W...
una 1080 con il consumo di una 1070 reference.
vega è ancora troppo acerba per il pubblico; troppo difficile da gestire e da metterela a punto e, viste le differenze notevoli che hanno in produzione, il limite lo devi cercare chip per chip e non è generalizzato.
nella pratica ci devi sbattere la materia grigia sopra e non è come una pascal che hai una stanghetta da trascinare che anche una scimmia sarebbe capace di farlo (poi, logico, che se da pascal pretendi il massimo ottenibile, devi superare i paletti imposti da nvidia e lì ci vuole realmente capacità e materia grigia, ma stiamo parlando di pochissimi appassionati, disposti anch ea buttare l'HW a proprie spese).
ma era anche per questo che il suo prezzo consigliato non superava 500$, diversamente quel chip, binnato a dovere, sarebbe costato il 50% in più, con custom a 1000 euro...
poi c'è stata la bolla del mining e tutti i presupposti si sono annullati.
inutile che continui a ribadire questa cosa...
qui preferiscono essere trattati da scimmie (e poi si lamentano dei consolari).
non capisco, nel senso che mi sfugge qualcosa, perché per schede vocate al 4k, si stia facendo tutto questo investimento addirittura in termina di hv dedicato, per l antialiasing.
Qui non si tratta di hardware dedicato all'antialiasing ma di sfruttare una parte del chip che altrimenti se ne starebbe li senza far nulla.
Io ? No il titolo del thread.
Come se l'argomento non fosse attinente vero?
Come se il resto del mercato non potesse influenzare il piazzamento di questi prodotti vero?
Per cortesia, evita di porti a giudice di qualcosa, che hai sempre dimostrato di non essere in grado di farlo.
anche un Vega 64 a 7nm sarebbe un riposizionamento, e molto scomodo per nvidia, proprio perche con un PP decisamente migliorativo.
Il punto è che non sarebbe poi tanto scomodo: Nvidia magari dovrebbe abbassare i prezzi di una serie, questa, ormai ampiamente sfruttata ed ammortizzata in attesa pochi mesi dopo di tirare fuori anche lei un chip con quelle prestazioni e a 7nm, ovviamente molto più piccolo di Vega e presumibilmente più moderno.
Insomma, questo shrink di vega potrebbe avere pochi mesi di gloria, se li avrà. E dico questo perchè con le nuove nVidia a 7nm in uscita molta gente aspetterà prima di comprare, vanificando in gran parte il vantaggio temporale.
Comunque se facesse una Vega per la fascia media, probabilmente le converrebbe puntare su memorie più economiche rispetto alle HBM.
Poco importa che ad nVidia sviluppare il chip costi di più (ma poi quanto di più? Mettere un chip in produzione è di norma un costo più elevato rispetto al progettarlo), perchè nVidia ha i soldi per farlo e vendite sufficienti per ammortizzare questi costi in pochissimo tempo.
Per AMD risparmiare è proprio la strada sbagliata. Ora che finanziariamente si sta riprendendo ciò che deve fare è investire in R&S per stare al passo con i concorrenti.
Comunque quando parlo di AMD che deve tirare fuori un'architettura migliorata e non riciclare il vecchio non mi riferisco a RT o IA, mi riferisco a tutto il resto. Se poi deciderà di investire anche lei da subito in questi due nuovi campi è un discorso differente.
non credo che in un eventuale die shrink di vega ad AMD converrebbe mettere memorie diverse da HBM; significherebbe ridisegnare il chip.
oltretutto l'architettura AMD richiede una banda ram elevata per il fatto che non può comprimere i dati sul bus in modo efficacie (e, guarda un pò, anche nvidia, oggi, ha aumentato enormemente la banda, il che fa sospettare che non ha più la possibilità di ottenere alti ratei di compressione con quella tecnica sulla nuova architettura.. è puramente una questione di logica di funzionamento delle API e l'implementazione che puoi ottenere sul progetto che le sfrutta).
andare di GDDR6 pe rlo stesso valore di banda?
tra costo delle GDDR6 e costo della modifica del progetto superi abbondantemente la questione del costo di 2 chip HBM2.
poi parli del fatto che ci sarà gente che aspetterà i 7nm nvidia...
c'è sempre chi aspetta, ma se aspetti non compri ne AMD ne tantomeno nvidia; i costi non si ammortizzano ed il prezzo rimane elevato.
secondo la tua logica nvidia avrebbe fatto questa serie per non venderla, visto che non ci saranno molti clienti disposti a spendere così tanto per questo cambio di tecnologia, che è corposo, ma, soprattutto sulla 2070, potrebbe garantire risultati sottotono... e la 2070 sembra la meglio piazzata sul mercato, con i suoi "soli" 600$...
anche per la questione "architettura"...
DxRT è estensione delle DX12, quindi, di base, il gioco è DX12 non DX11.
al peggio che lo possono fare il rendimento della AMD sarà sicuramente migliore di quello che puoi vedere quando esegue giochi dal 2012 al 2016...
al meglio una vega 64 14nm con i nuovi giochi riesce a stare dietro ad una 1080 Ti, considerando anche il fatto che per spremere quella scheda ci vuole un corposo overclock della CPU e non tutti gli acquirenti che l'hanno presa sono disposti a farlo...
tu parli di raffrontare vega 64 rispetto alle RTX 2000 quando io ti indico che le possibilità di una Vega 64 a 7nm non sarebbero affatto male rispetto alle GTX 2060, che, con molta probabilità, saranno assai simili a delle 1070 Ti a 12nm; senza RT core, senza tensor core e senza cudacore di nuova generazione, quindi con tutte le limitazioni di pascal sulle DX12 in un periodo in cui i giochi nuovi, con molta probabilità, usciranno su queste API.
parliamo della fascia media, sotto i 400 euro, quella che fa il grosso del miliardo e ottocento milioni di fatturato di nvidia sulle gaming.
quindi un vega 64 a 7nm pari pari a quello di oggi ci sguazzerebbe in questo periodo prima della prossima serie nvidia, che dovrà farsi almeno 9, 12 mesi per ripagare l'investimento e produrre guadagno.
Secondo me il problema principale che avrà nVidia nel fare la GTX 2060 è dato dalla RTX 2070, nel senso che, dando per scontata la mancanza anche dei Tensor Core oltre che della parte RT, la 2060 non potrà essere più competitiva della 2070 nei giochi tradizionali, al limite potrà pareggiarla, a meno che nVidia non sia disposta a vendere una scheda più performante di una RTX in fascia media.
Ora, se la 2070 risultasse effettivamente inferiore ad una 1080, la 2060 dovrà piazzarsi al massimo ai livelli di 1070, massimo 1070 Ti, con un chip sicuramente piccolo ed efficiente. AMD se giungesse ai 7nm prima di nVidia avrebbe una buona opportunità, anche con un Polaris o Vega riadattati. Come detto passare Vega alle GDDR6 sarebbe forse troppo costoso, però lasciare Vega inalterato facendo solo un die-shrink non la vedo come mossa furbissima, dovrebbe essere quantomeno alterata andando a correggere le parti in cui è più debole, per poter essere competitiva e proporsi nel rendering tradizionale come alternativa più rapida delle 2070 a prezzo accessibile, mentre non mi azzardo a fare previsioni in rapporto a 2080 e 2080 Ti.
nickname88
26-08-2018, 17:41
Come se l'argomento non fosse attinente vero?
Come se il resto del mercato non potesse influenzare il piazzamento di questi prodotti vero?
Per cortesia, evita di porti a giudice di qualcosa, che hai sempre dimostrato di non essere in grado di farlo.
Arrampicati di meno per favore.
Se ti rode sentirti escluso dai tuoi soliti discorsi è un problema tuo.
Nhirlathothep
26-08-2018, 17:54
con una titanxp è meglio aspettare le nuove titan ? ma si sanno i prezzi?
io la 2080ti non la guardo al momento, mi sembra un downgrade e troppo costosa. ma se costa 1200+ , la titan quanto la metteranno ?
a me questi prezzi fanno l' effetto opposto: mi viene voglia di ignorarle del tutto
AceGranger
26-08-2018, 18:15
con una titanxp è meglio aspettare le nuove titan ? ma si sanno i prezzi?
io la 2080ti non la guardo al momento, mi sembra un downgrade e troppo costosa. ma se costa 1200+ , la titan quanto la metteranno ?
a me questi prezzi fanno l' effetto opposto: mi viene voglia di ignorarle del tutto
la nuova Titan andra uno sputo in piu della 2080Ti, avra meno di 300 CUDA in piu 4352 vs 4608.
bene che vada costera uguale e abbasseranno la 2080 Ti, male che va costera di piu.
Nhirlathothep
26-08-2018, 20:27
Sul costosa non si discute, ma downgrade direi proprio di no... dovrebbe andare il 30-50% in più della 1080ti! Alla fine è esattamente come la Titan X Pascal: chip cut ma cmq corposo. A chi ha la vecchia Ti nel case non conviene, a tutti gli altri - euro permettendo - sì, ti garantisce di giocare top quantomeno fino alla prossima architettura.
Secondo me usciranno altre due GPU cmq:
2070ti, un chip cut con frequenze spinte che va poco meno della 2080ti, prezzato circa 800 euro. O magari andrà uguale ma avrà meno Tensor e RT per contenere i costi di produzione.
Titan T, chip full che esprime il meglio di quanto fattibile con Turing, a 1300 euro.
Nel frattempo i prezzi di 2080ti e 2080 si saranno abbassati (probabilmente a 1000 e 600 euro) creando un'offerta completa (600, 800, 1000, 1300).
no,non è possibile.
la 2070ti andrà meno della 2080
per la titan XT sarebbe ottimo averla a 1300, ma gli acquirenti day1 della 1080ti farebbero una sommossa, quindi ci credo poco.
:eek: ... ma che discussione fantastica, che mi stavo perdendo!
https://i.imgur.com/iFutJZl.gif
Crepadilegno + Locusta + Nick... sembra un royal rumble dei bei tempi con hogan, ultimate warrior e undertaker :asd:
Interviews tonight at the Heartbreak Hotel!!! :asd:
:sofico:
la 1070 Ti esiste solo per stare dietro alla vega 56...
in realtà non era necessaria...
poi costa quasi quanto una 1080 e, in alcuni rari casi, la supera addirittura!
una 2070 Ti o andrebbe a fare le scarpe alla 2080 o costerebbe pressappoco uguale, come quella id oggi... a che pro quando non c'è una scheda concorrente che da fastidio?
Secondo me il problema principale che avrà nVidia nel fare la GTX 2060 è dato dalla RTX 2070, nel senso che, dando per scontata la mancanza anche dei Tensor Core oltre che della parte RT, la 2060 non potrà essere più competitiva della 2070 nei giochi tradizionali, al limite potrà pareggiarla, a meno che nVidia non sia disposta a vendere una scheda più performante di una RTX in fascia media.
Ora, se la 2070 risultasse effettivamente inferiore ad una 1080, la 2060 dovrà piazzarsi al massimo ai livelli di 1070, massimo 1070 Ti, con un chip sicuramente piccolo ed efficiente. AMD se giungesse ai 7nm prima di nVidia avrebbe una buona opportunità, anche con un Polaris o Vega riadattati. Come detto passare Vega alle GDDR6 sarebbe forse troppo costoso, però lasciare Vega inalterato facendo solo un die-shrink non la vedo come mossa furbissima, dovrebbe essere quantomeno alterata andando a correggere le parti in cui è più debole, per poter essere competitiva e proporsi nel rendering tradizionale come alternativa più rapida delle 2070 a prezzo accessibile, mentre non mi azzardo a fare previsioni in rapporto a 2080 e 2080 Ti.
e sì, ma tu non la consideri competitiva per quali motivi, vega 64?
costosa?
il costo è dovuto al mining... di suo la trovi a 550 euro già da qualche mese l'attuale; un die shrink a 7nm significa quasi dimezzare la superficie di quel chip, ossia farlo diventare grosso come un polaris 10 di oggi, con tutti i benefici sulla resa produttiva.
a quel punto non ti dico che costerebbe come una 480, ma anche se la mettono a circa 400 euro stai parlando di una scheda che al peggio pareggia le prestazioni di una 1080, non di una 1070 o una 1070ti e non prendiamo in considerazione quando usa giochi al suo meglio.
poi che difetti ha?
il consumo?
a 7nm credo che non consumerebbe più 400W...
vega 20 (che è assai più potente di una vega 10 a 14nm), sembra che consumi 200W con 32GB di HBM2...
al peggio del peggio, mettendo in produzione anche il peggior chip, una Vega 10 a 7nm arriverebbe ad un consumo di 200W.
mi dirai che è il consumo di una 1080 per le prestazioni di una 1080?
vero, probabile al peggio del peggio della casistica, ma ti risponderei anche che potrebbe costare anche sensibilmente meno di una 1080 di oggi... sui 350 euro e non avere i limiti di pascal su codice di una generazione più moderna...
quindi, anche se non è la miglior cosa in assoluto, è comunque la miglior cosa che uno potrebbe acquistare in questo periodo.
la questione è capire se sarebbe conveniente per AMD...
afd occhio e croce ci sarebbero i presupposti, ma la dirigenza attuale ci ha fatto ben capire che ci vanno con i pieni di piombo sulle questioni.
non scommettono (diversamente AMD avrebbe venduto una decina di milioni di chip custom per mining fatti su TMSC).
è più una questione puramente politica che opportunistica.
con una titanxp è meglio aspettare le nuove titan ? ma si sanno i prezzi?
io la 2080ti non la guardo al momento, mi sembra un downgrade e troppo costosa. ma se costa 1200+ , la titan quanto la metteranno ?
a me questi prezzi fanno l' effetto opposto: mi viene voglia di ignorarle del tutto
bhè, considerando che per acquistare dovresti comunque aspettare la titan RTX, che oggi i soldi per la titan che hai l'hai già tirati fuori e che la differenza tra la tua attuale scheda e la rtx 2080 Ti ancora è un'incognita sui giochi attuali...
io non avrei fretta...
il dubbio lo deve avere chi valuta l'acquisto di una nuova RTX 2000 o una Pascal...
ecco, in quel caso io non avrei dubbi: si va sul nuovo.
e sì, ma tu non la consideri competitiva per quali motivi, vega 64?
costosa?
il costo è dovuto al mining... di suo la trovi a 550 euro già da qualche mese l'attuale; un die shrink a 7nm significa quasi dimezzare la superficie di quel chip, ossia farlo diventare grosso come un polaris 10 di oggi, con tutti i benefici sulla resa produttiva.
a quel punto non ti dico che costerebbe come una 480, ma anche se la mettono a circa 400 euro stai parlando di una scheda che al peggio pareggia le prestazioni di una 1080, non di una 1070 o una 1070ti e non prendiamo in considerazione quando usa giochi al suo meglio.
poi che difetti ha?
il consumo?
a 7nm credo che non consumerebbe più 400W...
vega 20 (che è assai più potente di una vega 10 a 14nm), sembra che consumi 200W con 32GB di HBM2...
al peggio del peggio, mettendo in produzione anche il peggior chip, una Vega 10 a 7nm arriverebbe ad un consumo di 200W.
mi dirai che è il consumo di una 1080 per le prestazioni di una 1080?
vero, probabile al peggio del peggio della casistica, ma ti risponderei anche che potrebbe costare anche sensibilmente meno di una 1080 di oggi... sui 350 euro e non avere i limiti di pascal su codice di una generazione più moderna...
quindi, anche se non è la miglior cosa in assoluto, è comunque la miglior cosa che uno potrebbe acquistare in questo periodo.
la questione è capire se sarebbe conveniente per AMD...
afd occhio e croce ci sarebbero i presupposti, ma la dirigenza attuale ci ha fatto ben capire che ci vanno con i pieni di piombo sulle questioni.
non scommettono (diversamente AMD avrebbe venduto una decina di milioni di chip custom per mining fatti su TMSC).
è più una questione puramente politica che opportunistica.
I difetti di Vega sono di essere una architettura sbilanciata, e decisamente costosa da produrre per il prezzo a cui viene venduta, tutto lì. Farla a 7nm migliora delle cose, ma se riescono a ribilanciare il chip, principalmente sistemando la fame di banda passante per la memoria - o tramite compressione, o tramite aumento della banda stessa - e sistemando quello che in AMD sicuramente sanno essere il collo di bottiglia di Vega in certe situazioni, nello specifico in quei titoli dove quasi non ha vantaggio su Polaris, ecco che avrebbero un prodotto MOLTO più appetibile, in attesa dell'architettura nativa RT.
In sostanza a me Vega 64 AMD me la può vendere oggi a 300 euro, io dico grazie, ma non so quanto sta bene ad AMD stessa visto che è un chip di una certa dimensione e costo, che a 7nm si riduce, certo, ma a quel punto - mining a parte - dovresti venderlo a 240-250 euro, con le HBM non so quanto sia possibile. Sistemassero i punti deboli, aumentando quindi le performance, ecco che potrebbero vendere un chip più piccolo di Vega 64 @ 14nm, mantenendo prezzi sopra i 300-350 euro, direi uno scenario ben più appetibile. Il problema rimane sempre quello: quanto è possibile modificare Vega senza riprogettare da capo? Penso sia difficile, altrimenti non si parlerebbe di Vega 7nm solo per il mercato professionale, e Navi anno prossimo per quello consumer.
AceGranger
27-08-2018, 00:02
Guarda che lo ha detto Jen-Hsun Huang in conferenza.
Dice che prende un'immagine a bassa risoluzione e i tensor core possono migliorarla in tempo reale generando pixel in modo coerente.
Riascoltalo: https://youtu.be/Mrixi27G9yM?t=58m42s
hanno iniziato a spiegare il funzionamento del DLSS:
1) NVIDIA receives early build of games
2) NVIDIA generate training images
3) Use the images to train an AI using deep learning
4) Distill the images and "download" it to user PC
5) Turing RTX GPU uses Tensor cores to deliver the performance and improved image quality
quindi in sostanza nVidia con i loro server creano il profilo per ogni gioco partendo da screen, che poi viene elaborato nella parte finale dai Tensor.
- Turing over Pascal without DLSS = ~1.5x (rehashing the slides released yesterday)
- DLSS 2x mode which produces image quality beyond any current generation anti aliasing. Uses 64 samples "reference quality" AA.
- DLSS is using Tensor cores
bagnino89
27-08-2018, 08:24
hanno iniziato a spiegare il funzionamento del DLSS:
1) NVIDIA receives early build of games
2) NVIDIA generate training images
3) Use the images to train an AI using deep learning
4) Distill the images and "download" it to user PC
5) Turing RTX GPU uses Tensor cores to deliver the performance and improved image quality
quindi in sostanza nVidia con i loro server creano il profilo per ogni gioco partendo da screen, che poi viene elaborato nella parte finale dai Tensor.
- Turing over Pascal without DLSS = ~1.5x (rehashing the slides released yesterday)
- DLSS 2x mode which produces image quality beyond any current generation anti aliasing. Uses 64 samples "reference quality" AA.
- DLSS is using Tensor cores
Sarebbe stato interessante se la rete neurale si fosse addestrata in tempo reale gioco per gioco, ma evidentemente le risorse di calcolo richieste sono troppo esose per l'hardware attuale.
bagnino89
27-08-2018, 09:06
Per farlo dovresti prima giocare in 4k o a risoluzione più alta per addestrare la AI e poi puoi usare il DLSS, quindi sarebbe inutile. :D
Hai ragione, non ci avevo pensato. In qualche modo l'output desiderato deve essere presente nel gioco/driver, in effetti.
rtx cosa vuol dire? e gtx invece? qual è la differenza?
GTX è il vecchio motore aspirato
RTX sono i nuovi twin turbo che montano sulle V8
bagnino89
27-08-2018, 09:18
Praticamente bisogna giocare ad altissima risoluzione o metodo più intelligente prendendo screen shot ad altissima risoluzione con Ansel :cool:
Poi dai tutto in pasto al DL che "impara" per una quantità indefinita di tempo, presumo che in questa fase sfruttino i tensor core ma lo fa Nvidia e a noi non è dato sapere ne ci frega qualcosa.
Il risultato finale viene inserito nel gioco o nei driver e fa funzionare DLSS.
Ripeto che questa è una procedura normalissima e avviene in qualsiasi applicazione DL dal riconoscimento dei pedoni delle auto a guida autonoma al sistema che analizza i nei per trovare tumori della palle alle applicazioni che trovano difetti nei display che ogni tanto faccio io :D
La risposta alla prossima domanda è "si", uso applicazioni in DL che si appoggiano a cuda e quindi a schede video Nvidia :ciapet:
Quindi il Tensor Core sulla GPU a cosa serve in questo caso? Se per un dato gioco la rete è già addestrata, il suo modello "black box" è già pronto, quindi la legge che correla bassa risoluzione ad alta risoluzione è nota... Di cosa si occupa, quindi, il Tensor Core?
bagnino89
27-08-2018, 09:28
Anche l'utilizzo delle rete addestrata prevede l'utilizzo dei tensor core. :)
E perché?
Ho esperienza di reti neurali (le programmo e uso per scopi del tutto differenti dalla grafica), però una volta che la "black box" è pronta, perché per usarla ho bisogno di hardware apposito? Cioè, io mi aspetterei che l'upscaling sia gestito dalle unità di calcolo "classiche" (i Cuda Core insomma - se sbaglio qualche terminologia non mi insultate perché non sono esperto di architetture).
JohnWayneBobbit
27-08-2018, 09:33
Quindi il Tensor Core sulla GPU a cosa serve in questo caso? Se per un dato gioco la rete è già addestrata, il suo modello "black box" è già pronto, quindi la legge che correla bassa risoluzione ad alta risoluzione è nota... Di cosa si occupa, quindi, il Tensor Core?
Si occupano di tutte le operazioni di training ed inferenza delle applicazioni su cui vuoi far operare la GPU.
Nel caso specifico funziona tipo Edge IoT di Microsoft che sposta un modello ideale dal cloud all'endpoint e quest'ultimo lo applica nel caso specifico (serve minimo un Raspberry 3).
Poi ovviamente puoi usarli per tutto ciò che richiede calcoli matriciali 4x4 e quindi qualsiasi cosa inerente la modellazione statica e dinamica 3d.
Immaginate il boost prestazionale di un 3d studio, rhino, cinema 4d...
C'è poi il discorso crypto-mining.
E' il Santo Graal del mining la ricerca di un algoritmo di hashing che sfrutti in modo efficace ed economicamente vantaggioso i TC.
Se lo trovano entro Natale scordatevi di acquistare la serie 20x0 a questi prezzi nel 2019.
JohnWayneBobbit
27-08-2018, 09:39
Quindi addio alle schede RTX sul mercato consumer? :asd:
Beh no, le paghi solo molto di più, come per la passata generazione.
@bagnino89
Immagino che si usino i Tensor Core perchè altrimenti starebbero li a girarsi i pollici. E magari sono anche più efficienti delle unità di calcolo classiche nel farlo, il che ovviamente offrirebbe un vantaggio in termini di consumi a parità di prestazioni.
Non so poi, posso supporlo da ignorante in materia, se il modello creato da nVidia preveda che parte dei calcoli sia comunque effettuato dalla scheda, per i quali è necessario ancora usare hardware specializzato per i calcoli IA. Magari l'estrema variabilità dei frame non permette di completare la "black box" e occorrono ancora dei calcoli in tempo reale.
È plausibile?
@lucusta
C'è troppa richiesta di HBM per poterle utilizzare in schede di fascia media, dove oltretutto il costo dell'interposer inciderebbe troppo su quello finale. Secondo me non ha altra scelte che usare le GDDR. A meno che non intenda venderne davvero poche ed avere un prodotto fantoccio per dire che ha qualcosa che contrastare nVidia.
I cambiamenti non sarebbero così impegnativi, dovrebbe solo sostituire il controller di memoria e anche se dovesse occupare un po' più di spazio sul die con i 7nm non sarebbe un grosso problema.
La storia della compressione che non funziona sulle nuove nVidia mi sembra fantasia: non vedo motivi per cui un algoritmo di compressione che funziona non debba più funzionare sulle nuove schede. Se hanno aumento il bus interno avranno semplicemente avuto vantaggio nel farlo.
Evitiamo di continuare con il discorso che con le Nvidia occorra una CPU superpompata, stai insistendo su una teoria tua passandola come realtà ma non l'hai mai provata.
@LkMsWb
Non capisco il tuo discorso: perchè una 2060 dovrebbe essere competitiva con la 2070? È una scheda di fascia inferiore, costerà meno e avrà prestazioni inferiori.
La "buona possibilità" di AMD con gli shrink a 7nm, come dicevo a locusta durerebbe forse pochi mesi, troppo poco per tornare competitiva. Poco dopo anche nVidia avrà le sue schede a 7nm ed è li che AMD dovrà essere competitiva, e dubito molto potrà esserlo con questi shrink.
Anche l'idea di rimettere mano a Vega per eliminarne i colli di bottiglia non so quanto possa avere senso: se devi rielaborare il progetto, tanto vale far uscire direttamente quello nuovo ed aggiornato.
Arrampicati di meno per favore.
Se ti rode sentirti escluso dai tuoi soliti discorsi è un problema tuo.
Evidentemente non sai neppure cosa significa "arrampicarsi". Eppure lo fai così spesso pur di non recedere dalle sciocchezze che dici in continuazione...
Di sicuro non sei tu che mi escludi da nulla. E non vorrei fartelo notare ma il tuo attacco era contro un altro utente, quindi non si capisce neppure da cosa dovrei essere escluso.
bagnino89
27-08-2018, 09:41
Lo possono fare anche i cuda core, io attualmente uso i cuda core sia per addestramento che per uso, ma i tensor sono unità pensate appositamente e nel caso di turing sono separate, se DLSS usa i tensor questo sgrava i cuda lasciandoli liberi per la grafica tradizionale.
Probabilmente si potrebbero usare i cuda per DLSS ma servirebbe una gpu solo per DLSS.
A livello teorico ovviamente.
DLSS è solo un qualcosa messo li per far fare qualcosa ai tensor core quando non vengono usati per il denoise del ray tracing, non mi sorprenderebbe se non si possa usare DLSS e RT contemporaneamente anche se forse il carico non è tale da non permetterlo.
Non so quando pesano, quindi ipotizzo :)
Insomma i Tensor Core non solo accelerano il processo di addestramento, ma anche l'utilizzo della rete addestrata. Capito.
Si occupano di tutte le operazioni di training ed inferenza delle applicazioni su cui vuoi far operare la GPU.
Nel caso specifico funziona tipo Edge IoT di Microsoft che sposta un modello ideale dal cloud all'endpoint e quest'ultimo lo applica nel caso specifico (serve minimo un Raspberry 3).
Poi ovviamente puoi usarli per tutto ciò che richiede calcoli matriciali 4x4 e quindi qualsiasi cosa inerente la modellazione statica e dinamica 3d.
Immaginate il boost prestazionale di un 3d studio, rhino, cinema 4d...
C'è poi il discorso crypto-mining.
E' il Santo Graal del mining la ricerca di un algoritmo di hashing che sfrutti in modo efficace ed economicamente vantaggioso i TC.
Se lo trovano entro Natale scordatevi di acquistare la serie 20x0 a questi prezzi nel 2019.
Santi numi spero proprio di no o è finita.
@bagnino89
Immagino che si usino i Tensor Core perchè altrimenti starebbero li a girarsi i pollici. E magari sono anche più efficienti delle unità di calcolo classiche nel farlo, il che ovviamente offrirebbe un vantaggio in termini di consumi a parità di prestazioni.
Non so poi, posso supporlo da ignorante in materia, se il modello creato da nVidia preveda che parte dei calcoli sia comunque effettuato dalla scheda, per i quali è necessario ancora usare hardware specializzato per i calcoli IA. Magari l'estrema variabilità dei frame non permette di completare la "black box" e occorrono ancora dei calcoli in tempo reale.
È plausibile?
Sì, secondo me vengono usati perché sono appunti più efficienti nell'applicare la "black box" rispetto ai Cuda Core.
Potrebbe anche essere che la rete di partenza, addestrata inizialmente da Nvidia, continui ad addestrarsi in tempo reale in modo da migliorare in modo specifico l'esperienza per ogni singolo utente. Se fosse così, però, le informazioni del nuovo addestramento dovrebbero essere salvate da qualche parte per poi essere riutilizzate... O magari Nvidia è furba e gli addestramenti continui di ogni utente vengono condivisi e caricati nelle nuove versioni dei driver per migliorare l'esperienza di gioco di tutti. Non sarebbe male come idea.
AceGranger
27-08-2018, 10:31
Comunque non è solo un problema di costo ma anche di disponibilità, prendi Vega che dopo 1 mese era introvabile a qualsiasi prezzo.
quello è perchè sapevano che non ne avrebbero vendute ad asclusione degli aficionados :asd:
E perché?
Ho esperienza di reti neurali (le programmo e uso per scopi del tutto differenti dalla grafica), però una volta che la "black box" è pronta, perché per usarla ho bisogno di hardware apposito? Cioè, io mi aspetterei che l'upscaling sia gestito dalle unità di calcolo "classiche" (i Cuda Core insomma - se sbaglio qualche terminologia non mi insultate perché non sono esperto di architetture).
perchè è un calcolo lo puoi fare in FP16 e i Tensor Core sono accellerano gli FP16.
Questa è la procedura standard per l'apprendimento di qualsiasi applicazione di deep learning, non c'è niente di speciale in tutto questo se non che usa i tensor core invece dei cuda.
C'è solo una cosa che mi preoccupa, praticamente devono creare loro un profilo per ogni gioco.
Questa è una bella rottura di scatole perchè vuol dire nessuna speranza di poter applicare il DLSS a giochi per cui non è previsto.
contando che ci sara meno lavoro per i programamtori, è molto probabile che avrai piu giochi che lo usino rispeto ai vecchi AA visto che, a quanto pare, il grosso del lavoro se lo smazzera nVidia, e credo proprio che se ne smazzera un bel po, visto che tanto devono gia lavorare a ogni gioco per i driver.
Sì intanto faranno la fine delle 1070-1080, personalmente tornassi indietro prenderei una Vega 56. Mi sa che la 1070 la rivendo presto. Nvidia come al solito super pompata al lancio con tante recensioni pro, poi dopo 1 anno vedi che AMD rimonta e tanti saluti. Da non scordare poi il freesync, che permette di acquistare monitor allo stesso prezzo, senza pagare 200€ in più in stille gsync.
Tanto AMD ormai con il controllo delle console può fare il bello e il cattivo tempo, è solo questione di tempo prima che stringa il cappio intorno al collo di Nvidia.
Unica pecca di AMD sono i consumi elevati e li c'è poco da dire, Nvidia è sicuramente più ottimizzata su quel versante.
Fanno la fine dove ? Dopo due anni la 1080 è ancora una signora scheda , amd ha avuto tempo per fare qualcosa che non ha fatto
AceGranger
27-08-2018, 10:43
Mah dipende da come sono organizzate le cose.
Se lo sviluppatore deve dipende da Nvidia per poter utilizzare il DLSS non penso che tutti siano così felici.
Dovrebbero mandare il gioco senza DLSS a Nvidia e aspettare di ricevere il DLSS appreso da Nvidia? Non credo Nvidia lo faccia gratis.
O forse Nvidia darà la possibilità agli sviluppatori di fare da se l'apprendimento, questo però darebbe spazio a implementazioni fatte con i piedi se gli sviluppatori danno poche immagini o immagini sbagliate in pasto all'apprendimento.
Non è così liquidabile con faciloneria.
DLSS sara integrato nei Gameworks e nei Game Engine, se il programamtore decide di implementarlo avra il pacchetto pronto.
Non c'è nulla di diverso dal passato se non che se ne occupera direttamente nVIdia.
AceGranger
27-08-2018, 11:32
Fonte?
Perchè io sto ragionando per quello che so e per quello che viene detto, ma che dell'apprendimento del DLSS se ne occuperà Nvidia senza nessun sovrapprezzo per gli sviluppatori oltre al pacchetto gameworks chi lo ha detto?
e che lo faccia gratis dove l'ho scritto ?
ho scritto che lo sviluppatore che scegliera GameWorks avra tutto dentro al pacchetto; gli accordi commericiali non li so ma credo che come avvenuto sino ad ora, sara nVidia a spingere partnership per integrare Gameworks, anche solo con il DLSS nei vari giochi; alal fine i lsuo scopo e vendere GPU.
AceGranger
27-08-2018, 12:15
Se partito dicendo che è più facile per lo sviluppatore, ma se lo sviluppatore deve mandare il gioco senza DLSS a Nvidia e aspettare che Nvidia faccia l'apprendimento e oltretutto a pagamento è tutt'altro che facile.
Diventa un costo sia in termini economici che di tempo.
Poi aggiungi il DLC con la skin nuova e devi rimandare il tutto a Nvidia perchè includa la nuova skin o il DLSS non sa come upscalarla?
Comodissimo guarda.
P.S: il punto è che io faccio ipotesi, tu affermazioni ma senza fonti.
è gratis :ciapet:
"We should note that NVIDIA will enable DLSS in games for developers for free, if a dev just sends them their code for processing on an NVIDIA DGX supercomputer. NVIDIA will hand back that code, which is reportedly just megabytes in incremental size, and enable the feature in their driver for that game. And, as with anything AI and machine learning, the more you feed the beast, the better it gets at the task at hand moving forward, in this case with a wider swath of game engines and visuals."
https://hothardware.com/news/nvidia-geforce-rtx-2080-performance-and-dlss
"DLSS is a specific NVIDIA function that will have to be coded game-by-game, but NVIDIA will do it for free if developers send them the code."
https://www.engadget.com/2018/08/25/nvidia-rtx-speed-claims-rt-turing-cores-video/
Comodissimo guarda.
quindi ora non va bene nemmeno che siano gratis :asd:
saranno comodissime le superfeature di AMD con l'assenza totale di supporto :asd:
@LkMsWb
Non capisco il tuo discorso: perchè una 2060 dovrebbe essere competitiva con la 2070? È una scheda di fascia inferiore, costerà meno e avrà prestazioni inferiori.
@calabar
Prima di tutto grazie perché è sempre bello parlare in modo costruttivo e civile :).
Il mio discorso sulla 2060 deriva da questo: a quanto si è stimato fin ora, la 2070 in rendering tradizionale dovrebbe porsi ai livelli della 1080, su per giù. Ora, nelle generazioni precedenti, la serie 60 oltrepassava la 70 avvicinandosi alla 80 della precedente generazione (vedi 1060). Siccome non c'è stato un cambio di processo produttivo sicuramente la cosa è più difficile, ma essendo la 2060 una GTX, quindi senza RT e (forse) senza TC, fare una scheda già così castrata tecnologicamente e porla come prestazioni circa a livello della 1070 mi sembra un incremento davvero basso per una nuova serie.
Ho quindi ipotizzato che la 2060 possa avere prestazioni ben più simili alla 2070, perdendo principalmente il supporto al Ray-Tracing, ma è una mia ipotesi e basta, per giustificarne il posizionamento rispetto alla serie 1000, tutto lì :)
La "buona possibilità" di AMD con gli shrink a 7nm, come dicevo a locusta durerebbe forse pochi mesi, troppo poco per tornare competitiva. Poco dopo anche nVidia avrà le sue schede a 7nm ed è li che AMD dovrà essere competitiva, e dubito molto potrà esserlo con questi shrink.
Anche l'idea di rimettere mano a Vega per eliminarne i colli di bottiglia non so quanto possa avere senso: se devi rielaborare il progetto, tanto vale far uscire direttamente quello nuovo ed aggiornato.
Il punto secondo me sarebbe avere qualcosa anche per quei pochi mesi, che sia immediatamente pronto e a basso prezzo, perché al momento AMD non ha praticamente schede da contrastare alla serie 2000, sempre che le GTX 2000 escano presto. Certo che l'architettura va aggiornata comunque entro breve. Proprio per questo mi chiedo quanto sia possibile dare una sistemata a Vega in breve tempo e a basso prezzo, per fare poi davvero un progetto nuovo, perché il semplice die-shrink risolve poco per AMD, portare le HBM in fascia media è infattibile a livello economico, soprattutto considerando la fame di banda delle Radeon che impedisce l'uso di HBM a frequenza inferiore. E riprogettare il controller con le GDDR6 credo sia ancora più costoso. Vedremo.
Il punto secondo me sarebbe avere qualcosa anche per quei pochi mesi, che sia immediatamente pronto e a basso prezzo, ...
Se queste schede uscissero ora potrebbe avere un senso. Ma devono comunque aspettare i 7nm, quindi in ogni caso non avresti qualcosa "immediatamente e a basso prezzo".
A questo punto mi pare più probabile che AMD faccia uscire lo shrink di Vega solo per quella nicchia mercato che la richiede e esca sul mercato gaming direttamente con Navi qualche mese dopo, insieme alle schede 7nm di nVidia.
Se Navi andasse bene non sarebbe una cattiva soluzione, dato che ultimamente è sempre uscita in ritardo rispetto ad nVidia: in pratica AMD avrebbe saltato questa generazione a 12nm per poter recuperare il ritardo con i 7nm.
Per quanto riguarda lo shrink di Vega a 7nm sul mercato consumer, potrebbe al più uscire qualcosa per riciclare gli scarti di produzione (quelli che non hanno passato i test per le radeon instinct) così da non sprecare quei die non ottimali. Non sarebbe davvero competitiva ma almeno tirerebbe fuori qualcosa che la traghi meglio verso Navi (e stavolta davvero a costo zero, dato che Vega a 7nm sappiamo già che uscirà per il mercato enterprise).
Insomma, AMD potrebbe aver deciso di mollare l'osso in questa generazione nel tentativo di concentrare gli sforzi sui 7nm e uscire li con un prodotto davvero competitivo (similmente a quanto fatto con le CPU, del resto).
@LkMsWb
Dimenticavo... (mi si scusi il doppio post)
Per quanto riguarda le 2060 e le 2070, semplicemente le prime potrebbero essere piazzate su una fascia di prezzo adeguata alle prestazioni, senza avvicinarsi alle prestazioni (senza RT e IA) della 2070. Del resto immagino dovranno competere con le schedine AMD di quella fascia, non possono quindi fare chip troppo grossi per raggiungere le prestazioni della 2070.
Oltretutto una 2060 con prestazioni troppo simili alla 2070 rischierebbe di cannibalizzare quest'ultima, il rischio è che molti utenti che non vogliono spendere tanto e che comunque pensano che sia ancora troppo presto per sfruttare davvero il RT si buttino sulla fascia inferiore che tanto sui titoli normali andrebbe quanto o quasi la più costosa sorella maggiore ma ad una costo molto più accessibile.
@LkMsWb
Dimenticavo... (mi si scusi il doppio post)
Per quanto riguarda le 2060 e le 2070, semplicemente le prime potrebbero essere piazzate su una fascia di prezzo adeguata alle prestazioni, senza avvicinarsi alle prestazioni (senza RT e IA) della 2070. Del resto immagino dovranno competere con le schedine AMD di quella fascia, non possono quindi fare chip troppo grossi per raggiungere le prestazioni della 2070.
Oltretutto una 2060 con prestazioni troppo simili alla 2070 rischierebbe di cannibalizzare quest'ultima, il rischio è che molti utenti che non vogliono spendere tanto e che comunque pensano che sia ancora troppo presto per sfruttare davvero il RT si buttino sulla fascia inferiore che tanto sui titoli normali andrebbe quanto o quasi la più costosa sorella maggiore ma ad una costo molto più accessibile.
L'ho pensato anche io, nVidia in quel senso è un po' incastrata dalla sua stessa serie 1000, a meno che non abbiano intenzione di farle sparire dal mercato in qualche modo. Tanto da qui a fine anno non avrà concorrenza, potrà decidere con comodo, bisogna anche vedere QUANDO uscirà la 2060, e se i 7nm non sono troppo lontani, SE uscirà a 12nm.
AceGranger
27-08-2018, 15:02
Ok è gratis o meglio è incluso in gameworks, ma lo può fare solo Nvidia e secondo me resta una scomodità non da poco per lo sviluppatore.
per me invece è una gran comodita, e nVidia non è AMD quando ha a che fare con gli sviluppatori.
sgrinfia
27-08-2018, 15:46
Per me sarà un successo solo se ci sarà una nuova ondate di console ,visto che i giochi pc sono porting di giochi con aggiunta di qualche effetto.
quindi se non saranno implementate su console ci si dovrà accontentare di qualche gioco sporatico di tanto intanto .
Solo se Amd adottasse tale innovazione potrebbe influire sul l'adozione di più case di videogiochi , ma secondo me sono le console l'ago della bilancia, detto questo se venissero usate potrebbero essere un nuovo hanno zero per la grafica .Ben venga.......:)
AceGranger
27-08-2018, 16:34
No certo, AMD lo avrebbe fatto opensource o tutti si sarebbero potuti addestrare la propria AI nel bene o nel male utilizzando openCL o non so se esiste qualcosa specifico per AI (openAI :asd: ) e quando dico nel bene o nel male mi riallaccio a quello che ho scritto qualche post fa, cioè che se lo sviluppatore addestra male la AI poi si ha un risultato schifoso.
:rotfl: e magari l'avrebbero pure addestrata in 10 anni con una sola GPU :asd:
lo avrebbe fatto talmente aperto che avrebbe fatto aprire anche il portafogli degli sviluppatori per prendersi dei server per allenare la propria AI;
quale sviluppatore non ha un bel sacco di milioncini per farsi un server per Machine Learning e qualche altro miglioncino per formare e mantenere figure professionali specifiche per il machine Learning
ma hai la minima idea degli sbattimenti che devono farsi gli sviluppatori con la roba mal supportata OPEN AMD Stile ? c'è un motivo perchè CUDA e Tesla sono diffuse mentre AMD non se la caga nessuno :asd:
solo a te e agli altri illuminati del thread che vivono nel loro mondo dei giochi, piace il fantastico supporto di AMD.
AceGranger
27-08-2018, 16:54
Io ho parlato del fantastico supporto AMD?
Io ho detto che sarebbe meglio opensource e ognuno si addestra il suo?
E tra l'altro lo avevo già scritto quale sarebbe stato il contro di dare la possibilità agli sviluppatori di addestrare la AI indipendente da Nvidia o AMD.
Perchè ogni tanto parte il delirio fanboyesco?
e come farebbe ad essere meglio OPEN se lo sviluppatore dovrebbe accollarsi qualsiasi sbattimento e altissimi costi di sviluppo e gestione; tralasciando totalmente il discorso qualita ottenibile da un singolo sviluppatore; meglio in quale fantastico mondo ? quello dove ti regalano tempo, server e personale formato ? senza contare che piu andra avanti e piu il codice di nVidia si affinera, avendo a disposizione un catalogo elevato di campioni differenti.
l'OPEN è solo una bella parola che va di moda usare come se fosse sempre la cosa giusta e migliore, e la leggo sempre nei post di gente che con l'OPEN non ne ha a che fare nemmeno con il binocolo.
Neofreedom
27-08-2018, 19:14
Allora quindi se ho capito. Da dove parto io 980 gtx sarebbe meglio secondo molti non passare alla 1080 o 1080 Ti ma direttamente alla 2080 o 2080 Ti. Il costo ovviamente è alto e fino a qua c'ero...poi però altri dicono occhio che dovrebbe uscire pure la TITAN T con costo probabile di poco superiore ai 1200-1300€ e si presuppone sarà più performante della 2080 TI però non si sa ad ora in che %. Allora mi dico ok aspetto così vediamo. Però dopo viene un altro utente avvisando, e ringrazio, che è il Santo Graal del mining la ricerca di un algoritmo di hashing che sfrutti in modo efficace ed economicamente vantaggioso i TC e se ciò avvenisse prima di natale i prezzi successivamente schizzerebbero in alto causa miners stessi. Bene ordunque... che si fa ? Metto come termine d'acquisto temporale ottobre/novembre ?
Lo so che ho abbassato il livello ma comunque ringrazio tutti per le info fino ad ora elargite :)
P.s. non si scrivono le parolacce :D
Neofreedom
27-08-2018, 19:39
Tutto dipende da cosa si vuole.
La scelta migliore sai quale sarebbe? Tenersi la 980 se non hai problemi e aspettare l'anno prossimo visto che si vocifera di una nuova generazione a 7nm a stretto giro questa volta.
Hai ragione ma al secondo post in cui si inventa cose che non ho detto mi partono :muro:
e con questa mi hai ucciso :D. Vorrei giocare a tutto a 2k anche con i titoli futuri con tutto al massimo.... TUTTO. Che poi tra 1 aa sarà lo stesso problema. Ci sarà sempre magari la 3080 Ti la Titan Y ed i Miners
Grazie comunque del consiglio :)
ma si in giro ce' un mega rosik che stanno volando le 1080ti come se piovesse nei mercati dell'usato... cacciate sti 1200 euri per la 2080ti cosi' mamma nvidia si ingrassa ancora di piu' visto che il mining non gli e' bastato lol
JohnWayneBobbit
28-08-2018, 07:53
Uhm.... :D
In realtà stanno solo rosikando quelli che devono sempre essere "al top".
Cioè, capiamoli: han speso 700 e rotti euro per la 1080Ti pensando di poter essere al top per altri otto mesi, e poi nVIDIA se ne esce con la 2080Ti subito, che costa altri 1270 euro.
Il "top" inizia a diventare un club un po' troppo esclusivo!!!
Poi per carità, nessuno ti obbliga ovviamente, ma dopo anni che quasi deridi chi cerca di fare acquisti smart perchè "io sono esigente e voglio solo il top" diventa duro accontentarsi, no?
Magari solo 700€, dove l'hai mai trovata a quel prezzo?
Fino a 2 mesi fa tutti sui forum a lamentarsi che ci volevano 800-900€ per una 1080ti per colpa del mining, di nvidia, di amd, del Signore...
Adesso per magia sono scese a 700€ (magari addirittura le custom).
Non è che ora il prezzo nei vostri cervelli è di 700€ in modo che con la 2080TI ci siano almeno 400€ di differenza?
Perché la stessa custom che ho preso io costa OGGI solo 250€ in più e quindi il discorso "costa il doppio ladri", "boycott cause I'm a tramp", "red is better" ed altre minchiate crolla. :D
(932€ la 1080ti gaming x vs 1187€ la 2080ti gaming x trio)
JohnWayneBobbit
28-08-2018, 08:00
Mi sto facendo delle risate sul mercatino, vedo delle 1080ti a prezzi più bassi di alcune 1080 :asd:
Presto vedremo le 1080 a 300€ e dovrò trattenere la scimmia :asd:
Dal 14/09 :D
chi cazzo ha detto che è meglio open?
BAN 5 giorni :banned:
:Prrr:
Neofreedom
28-08-2018, 10:18
Dal 14/09 :D
Ops che succede il 14-09 ? :) forse la vendita diretta delle 2080....
JohnWayneBobbit
28-08-2018, 10:35
Ops che succede il 14-09 ? :) forse la vendita diretta delle 2080....
Il 14 usciranno le review e il prezzo della serie 10x0 crollerà.
Neofreedom
28-08-2018, 10:48
Il 14 usciranno le review e il prezzo della serie 10x0 crollerà.
Ti ringrazio molto :)
Neofreedom
28-08-2018, 13:12
Appena uscita costava 700 mi pare.
Cmq é irrilevante, costa uguale alla Titan X del fu Pascal. Solo che ora si chiama Ti, e tanto é bastato a sballare il banco a quanto pare.
C'è chi ragequitta per la console che tanto é quasi uguale, chi fa la volpe e l'uva, chi aspetta i 7 nani che saranno meglio, chi sospira e caccia fuori la grana perché poi alla fine la passione é passione e alla fine 2000 euro di hardware all'anno non sono poi 'sta gran tragedia nel bilancio familiare.
Sono dei geni in nVIDIA. D'altra parte se si chiama così l'azienda un motivo ci sarà... ;)
Eh però scusami. Ho capito il tuo discorso e posso anche condividerlo ma se uno vuole cambiare scheda e limitarsi a giocare a 2k con tutto al massimo , senza andare sui 4k perché da quanto anche qui dite non si è ancora pronti ( a meno che ci si faccia delle SLI con Titan X ecc ) e poter usarla almeno 2 aa senza problemi ( come penso faccia ancora oggi un possessore di Titan X che non ricordo sia uscita 6 mesi fa ) sempre con quella risoluzione su cosa dovrebbe puntare ? Se hai notizia di una scheda simile con le caratteristiche elencate e magari pure a 400€ dimmelo subito. Temo però che non ci sia, tutto qua. Non tutti acquistano per "mostrarsi".
Grazie :)
P.s. Scusate comunque per le eventuali castronerie informatiche che ho probabilmente scritto :)
bagnino89
28-08-2018, 13:29
C'è chi ragequitta per la console che tanto é quasi uguale, chi fa la volpe e l'uva, chi aspetta i 7 nani che saranno meglio, chi sospira e caccia fuori la grana perché poi alla fine la passione é passione e alla fine 2000 euro di hardware all'anno non sono poi 'sta gran tragedia nel bilancio familiare.
Faccio solo notare che in molti bilanci familiari italiani 2000 EUR corrispondono a due mesi di lavoro stipendiato :asd:
Se la comprano vendendo le azioni AMD, in salita, la scimmia sale alle stelle.:D
AceGranger
28-08-2018, 13:44
Lo scrivo anche qua che riguardera anche il 4K;
è ufficiale, e le RTX 2080 e 2080Ti via nVlink avranno la memoria unificata, quindi se sara necessario si potra accumulare fino a 16Gb di dati nelle vRam delle 2080 e le GPU avranno accesso diretto alle rispettive Vram senza passare da PCI-EX-CPU-Ram di Sistema, quindi meno latenza e piu banda.
Quello che mi fa ridere non è tanto lo spendere 1300€ per una scheda video perchè come si dice sempre ognuno fa quello che gli pare.
La cosa che trovo ridicola sono i post di chi si sente quasi in obbligo a prendere una 2080ti perchè è uscita, questa necessità assoluta di avere l'ultima scheda video uscita.
Cioè non quello felice perchè non aspettava altro che comprarsi la vga nuova, ma quello che è quasi scocciato perchè non ha più la scheda video più figa e gli tocca spendere 1300€ per averla. :asd:
E' un discorso...il solito vecchio discorso. Personalmente non li critico, nel senso che dipende come vivi la cosa, quanto incide sul tuo budget.
Io non la vivo male, ma non perchè sono tra quelli, ma perchè grazie ai super appassionati che inseguono l'ultima uscita, sono riuscito a strappare un prezzo veramente ottimo per la mia 1080, presa qui su, a 410 un anno fa, credo perchè il venditore sia passato al modello TI. Con la differenza hanno il top e a te va bene perchè hai una ottima scheda a prezzi impensabili sul nuovo.
Non tutti i cambi schede vengono per nuocere...:D
Per me l'importante è solo giocare bene, capisco già di meno chi insegue solo l'hardware, ma a conti fatti, compila solo schede di benchmark. Ecco...già qui non mi trovo allineato :confused:
Nhirlathothep
28-08-2018, 13:54
Appena uscita costava 700 mi pare.
Cmq é irrilevante, costa uguale alla Titan X del fu Pascal. Solo che ora si chiama Ti, e tanto é bastato a sballare il banco a quanto pare.
C'è chi ragequitta per la console che tanto é quasi uguale, chi fa la volpe e l'uva, chi aspetta i 7 nani che saranno meglio, chi sospira e caccia fuori la grana perché poi alla fine la passione é passione e alla fine 2000 euro di hardware all'anno non sono poi 'sta gran tragedia nel bilancio familiare.
Sono dei geni in nVIDIA. D'altra parte se si chiama così l'azienda un motivo ci sarà... ;)
sembri dare per scontato che non usciranno titan
Neofreedom
28-08-2018, 16:13
Quello che mi fa ridere non è tanto lo spendere 1300€ per una scheda video perchè come si dice sempre ognuno fa quello che gli pare.
La cosa che trovo ridicola sono i post di chi si sente quasi in obbligo a prendere una 2080ti perchè è uscita, questa necessità assoluta di avere l'ultima scheda video uscita.
Cioè non quello felice perchè non aspettava altro che comprarsi la vga nuova, ma quello che è quasi scocciato perchè non ha più la scheda video più figa e gli tocca spendere 1300€ per averla. :asd:
Concordo al 100% ma non è il mio caso :)
Nhirlathothep
28-08-2018, 17:19
Se esce il gioco si ripete, in fondo è già successo con Titan X e Titan Xp. Però boh, non saprei, credo che i chip perfetti se li terranno tutti per il mercato professionale. Poi oh, magari TSMC ha rese spettacolari e si ritrovano con così tanti TU102 perfetti da non sapere dove metterli, e allora vedremo uscire la Titan T.
Ma cmq la 2080Ti ha 4352 CUDA core e 68 SM, l'eventuale TitanT avrebbe 4608 CUDA core e 72 SM. Niente di percepibile al di fuori di un benchmark.
Titan XT secondo me :)
Neofreedom
28-08-2018, 19:01
Da un punto di vista meramente tecnico la 2080 è la scheda perfetta per il 2k, non fai un errore a comprarla. Io rientro nella categoria "sospira e mette mano al portafogli" quindi non ti condanno di certo... :)
Ok bene :)
Da un punto di vita commerciale però è una scheda il cui prezzo calerà col passare del tempo, mentre una 1080ti usata ha già avuto il grosso della sua svalutazione. Le prestazioni sono simili, quindi è un'altra buona alternativa se il DLSS non ti interessa più di tanto.
Meglio la 2080 così mi dura almeno 1 aa perché temo che con la ottimizzazione dei giochi fatta alla cavolo la 1080 a luglio prossimo anno arrancherà :) Tuttavia utente JohnWayneBobbit ha scritto che "è il Santo Graal del mining la ricerca di un algoritmo di hashing che sfrutti in modo efficace ed economicamente vantaggioso i TC e se ciò avvenisse prima di natale i prezzi successivamente schizzerebbero in alto causa miners stessi" quindi quella scheda non calerà di prezzo :cry: :D
Per fortuna no :) in realtà penso che la spinta principale venga sempre e cmq dalla passione!
Se esce il gioco si ripete, in fondo è già successo con Titan X e Titan Xp. Però boh, non saprei, credo che i chip perfetti se li terranno tutti per il mercato professionale. Poi oh, magari TSMC ha rese spettacolari e si ritrovano con così tanti TU102 perfetti da non sapere dove metterli, e allora vedremo uscire la Titan T.
Ok :)
Ma cmq la 2080Ti ha 4352 CUDA core e 68 SM, l'eventuale TitanT avrebbe 4608 CUDA core e 72 SM. Niente di percepibile al di fuori di un benchmark.
Ecco ottimo allora usando solo per game 2k non ha senso la Titan T.. la scarto subito grazie :)
il lato negativo è che la vera rivoluzione portata da queste schede, cioè il RT in tempo reale, è un po' uno specchietto per le allodole in questa generazione.
l'altro lato negativo è la totale mancanza di concorrenza.
nickname88
29-08-2018, 09:18
l'altro lato negativo è la totale mancanza di concorrenza.Quì la colpa è di qualcun'altro però.
nickname88
29-08-2018, 10:34
La totale mancanza di concorrenza è solo in fascia molto alta (1080ti, 2080 e 2080ti) e questo non è necessariamente un lato negativo.
Ossia la fascia più di riferimento per l'immagine del brand :asd:
Ossia la fascia più di riferimento per l'immagine del brand :asd:
è un dato totalmente negativo soprattutto se non ti escono soldi dalle orecchie e vuoi comunque affrontare una config con certe schede che cosi diventano automaticamente sovrapprezzate o comunque più care.
tutto questo in un mercato tecnologicamente abbastanza stagnante dove ormai si pensa ad offrire frame a risoluzioni assurde invece di offrire molta più qualità a risoluzioni umane (quindi ben venga l'introduzione del RT e il suggerimento di nvidia di costruire una console attorno a queste schede).
nickname88
29-08-2018, 11:50
è un dato totalmente negativo soprattutto se non ti escono soldi dalle orecchie e vuoi comunque affrontare una config con certe schede che cosi diventano automaticamente sovrapprezzate o comunque più care.
tutto questo in un mercato tecnologicamente abbastanza stagnante dove ormai si pensa ad offrire frame a risoluzioni assurde invece di offrire molta più qualità a risoluzioni umane (quindi ben venga l'introduzione del RT e il suggerimento di nvidia di costruire una console attorno a queste schede).
Risoluzioni assurde ?
Il 4K sarebbe assurdo ? Io ho un 1440p su un 25" e in alcuni giochi se l'AA non è di qualità vedo scalettature senza troppi problemi, segno che la risoluzione di fatto è insufficiente.
Risoluzioni assurde ?
Il 4K sarebbe assurdo ? Io ho un 1440p su un 25" e in alcuni giochi se l'AA non è di qualità vedo scalettature senza troppi problemi, segno che la risoluzione di fatto è insufficiente.
tante cose sono "insufficienti". l'8k è ancora meglio, cosi attacchi un monitor da 40" :)
non è un caso che nel 2018, a livello di qualità, si parli di scalettature a 2k (da risolvere alzando la risoluzione...) e non di altro, e non è un caso se la differenza in resa qualitativa oggi venga determinata quasi unicamente dalla risoluzione utilizzata.
per fortuna nvidia porta in dote almeno l'inizio dell'era RT (un ABISSO in termini qualitativi) e pure un AA economico in termini di prestazioni, per quanto da verificare.
continuare a far uscire nuove gpu solo per alzare la risoluzione pensando che questa sia la panacea di tutti i mali non è in linea con la mia idea di evoluzione, sebbene portare pian piano il 4k in fascia media sia comunque una grandissima cosa.
questo mi da la sponda per chiarire perchè il RT è uno specchietto per allodole: sebbene avere RT in real time a 1080p e 30-60 fps sia praticamente un miracolo impensabile fino a ieri l'altro, i giocatori che poi andranno a comprare le schede top lo faranno quasi unicamente per via della "necessità" di giocare a 4k nativi o a 2k senza compromesso alcuno...e chi vuole il 4k come unico ideale qualitativo, senza accettare nulla di meno, storcerà il naso per una tecnologia implementata che, però, si presenta immatura rispetto a come è stata pensata la scheda.
questo parlando di gamers.
Neofreedom
29-08-2018, 12:52
tante cose sono "insufficienti". l'8k è ancora meglio, cosi attacchi un monitor da 40" :)
non è un caso che nel 2018, a livello di qualità, si parli di scalettature a 2k (da risolvere alzando la risoluzione...) e non di altro, e non è un caso se la differenza in resa qualitativa oggi venga determinata quasi unicamente dalla risoluzione utilizzata.
per fortuna nvidia porta in dote almeno l'inizio dell'era RT (un ABISSO in termini qualitativi) e pure un AA economico in termini di prestazioni, per quanto da verificare.
continuare a far uscire nuove gpu solo per alzare la risoluzione pensando che questa sia la panacea di tutti i mali non è in linea con la mia idea di evoluzione, sebbene portare pian piano il 4k in fascia media sia comunque una grandissima cosa.
questo mi da la sponda per chiarire perchè il RT è uno specchietto per allodole: sebbene avere RT in real time a 1080p e 30-60 fps sia praticamente un miracolo impensabile fino a ieri l'altro, i giocatori che poi andranno a comprare le schede top lo faranno quasi unicamente per via della "necessità" di giocare a 4k nativi o a 2k senza compromesso alcuno...e chi vuole il 4k come unico ideale qualitativo, senza accettare nulla di meno, storcerà il naso per una tecnologia implementata che, però, si presenta immatura rispetto a come è stata pensata la scheda.
questo parlando di gamers.
This ! Tango down :)
This ! Tango down :)
non lo farò perchè mi sono imposto di non farlo, ma se dovessi rifarmi il pc oggi sarebbe basato su un 2k e ci sarebbe molto probabilmente una 2070 (da verificare come prestazioni dopo l'embargo ovviamente), soprattutto se trovata a prezzi concorrenziali, perchè andare di 2k spendendo 1000 euro solo di vga mi sembrerebbe un po' uno spreco, a quel punto uno assaggia la risoluzione superiore.
ad ogni modo e in ogni caso dovrei comprare per la prima volta in vita mia una scheda nvidia.
Neofreedom
29-08-2018, 13:24
non lo farò perchè mi sono imposto di non farlo, ma se dovessi rifarmi il pc oggi sarebbe basato su un 2k e ci sarebbe molto probabilmente una 2070 (da verificare come prestazioni dopo l'embargo ovviamente), soprattutto se trovata a prezzi concorrenziali, perchè andare di 2k spendendo 1000 euro solo di vga mi sembrerebbe un po' uno spreco, a quel punto uno assaggia la risoluzione superiore.
ad ogni modo e in ogni caso dovrei comprare per la prima volta in vita mia una scheda nvidia.
Si però risoluzione più alta allora vorrebbe dire monitor 27 4 k hdr 144 mhz roba da 3000€ quindi mi accontento della vga :) e magari tra due anni andando ancora bene la vga il suddetto monitor verrà 1300€ :D
nickname88
29-08-2018, 13:52
tante cose sono "insufficienti". l'8k è ancora meglio, cosi attacchi un monitor da 40" :)
non è un caso che nel 2018, a livello di qualità, si parli di scalettature a 2k (da risolvere alzando la risoluzione...) e non di altro, e non è un caso se la differenza in resa qualitativa oggi venga determinata quasi unicamente dalla risoluzione utilizzata.
per fortuna nvidia porta in dote almeno l'inizio dell'era RT (un ABISSO in termini qualitativi) e pure un AA economico in termini di prestazioni, per quanto da verificare.
continuare a far uscire nuove gpu solo per alzare la risoluzione pensando che questa sia la panacea di tutti i mali non è in linea con la mia idea di evoluzione, sebbene portare pian piano il 4k in fascia media sia comunque una grandissima cosa.
questo mi da la sponda per chiarire perchè il RT è uno specchietto per allodole: sebbene avere RT in real time a 1080p e 30-60 fps sia praticamente un miracolo impensabile fino a ieri l'altro, i giocatori che poi andranno a comprare le schede top lo faranno quasi unicamente per via della "necessità" di giocare a 4k nativi o a 2k senza compromesso alcuno...e chi vuole il 4k come unico ideale qualitativo, senza accettare nulla di meno, storcerà il naso per una tecnologia implementata che, però, si presenta immatura rispetto a come è stata pensata la scheda.
questo parlando di gamers.
Cosa serve la maggior risoluzione se continui ad aumentare la diagonale si capisce poco, specie sopra certe misure.
Il monitor sta su una scrivania e dovrebbe avere dimensioni da scrivania.
La qualità video da questo punto di vista verrebbe risolta alla radice portando display con densità indistinguibile ad occhio umano, come gli iMac o molti smartphone, se incrementi la diagonale vai a diluire la densità, quindi avoja ad arrivare a certi valori ...
La risoluzione ovviamente è la chiave per risolvere il problema della scalettatura, con una risoluzione sufficientemente alta l'AA non avrebbe più motivo di esistere. le risoluzioni come 1080p o 1440p o l'AA disponibile in game è insufficiente oppure se alzi troppo sfoca tutto.
Cosa serve la maggior risoluzione se continui ad aumentare la diagonale si capisce poco, specie sopra certe misure.
Il monitor sta su una scrivania e dovrebbe avere dimensioni da scrivania.
La qualità video da questo punto di vista verrebbe risolta alla radice portando display con densità indistinguibile ad occhio umano, come gli iMac o molti smartphone, se incrementi la diagonale vai a diluire la densità, quindi avoja ad arrivare a certi valori ...
La risoluzione ovviamente è la chiave per risolvere il problema della scalettatura, con una risoluzione sufficientemente alta l'AA non avrebbe più motivo di esistere. le risoluzioni come 1080p o 1440p o l'AA disponibile in game è insufficiente oppure se alzi troppo sfoca tutto.
certo, però stai usando una "soluzione", solo per ridurre "a zero" le scalettature, che ti costa, a occhio, più del 50% delle prestazioni della scheda senza che ti venga mostrato nulla in più di prima, in sostanza :)
insomma..
nickname88
29-08-2018, 14:53
certo, però stai usando una "soluzione", solo per ridurre "a zero" le scalettature, che ti costa, a occhio, più del 50% delle prestazioni della scheda senza che ti venga mostrato nulla in più di prima, in sostanza :)
insomma..La pulizia dell'immagine ha altrettanto importanza del dettaglio stesso, forse anche di più.
La performance che sacrifichi è in relazione alla prestazione che riesce a fornire la scheda.
Se usi questo pensiero dovresti fare gli stessi discorsi sulle risoluzioni del passato, dove il 1600 x 1200 sul catodico era visto come il "4K" di adesso, ed io che ambivo il gioco a 1280 x 1024 ....
Alodesign
29-08-2018, 15:21
Realtà
https://daily.jstor.org/wp-content/uploads/2016/10/Moving_Forest_1050_700.jpg
Finzione
https://80.lv/wp-content/uploads/2016/09/eoin-o-broin-screenshot00112.jpg
Questa è la qualità che una scheda video dovrebbe far girare senza intoppi.
nickname88
29-08-2018, 15:40
Realtà
Finzione
Questa è la qualità che una scheda video dovrebbe far girare senza intoppi.
Un esempio un po' frivolo il tuo ( a parte che la seconda è molto più suggestiva ).
Sono 2 paesaggi diversi riprodotti in condizioni meteo e in quadratura differente. :asd:
Per l'ultima frase concorderei se la pulizia di immagine sia quella in foto, se riproduci la stessa immagine scalettata, tanto vale sacrificare il dettaglio.
La rincorsa all'eliminazione dell'aliasing tramite risoluzione a differenza di altri aspetti ha un traguardo molto più vicino rispetto al fotorealismo.
@nickname88
Guarda che il suo non era un confronto, ma un esempio di fotorealismo. La seconda immagine è un render, ma sembra vera, non da l'impressione di "finto" che danno i videogiochi attuali.
Ad ogni modo continui a non avere le idee molto chiare su cosa sia il fotorealismo, che nulla ha a che fare con la risoluzione dell'immagine, il dettaglio o l'aliasing. Questa tua frase lo dimostra bene:
La rincorsa all'eliminazione dell'aliasing tramite risoluzione a differenza di altri aspetti ha un traguardo molto più vicino rispetto al fotorealismo.
Posso avere un'immagine fotorealistica a 640x480 e un'immagine ben lontana dal fotorealismo a 8K.
Guarda queste due immagini:
- Immagine (https://i.ytimg.com/vi/z_Mg33TXxDY/maxresdefault.jpg) 8k, alto dettaglio e bella grafica ma NON fotorealistica (magari una discreta grafica per un videogioco, con un bel dettaglio, ma rimane visibilmente "finta").
- Immagine (https://img-new.cgtrader.com/uploads/blog/large_fc8c4999-2225-4de1-af8a-06dfc8457d78.jpg) a bassa risoluzione (710x399) ma fotorealistica (è un rendering, ma sembra vera).
Spero che ora sia abbastanza chiaro ciò di cui si sta parlando.
Alodesign
29-08-2018, 16:52
Un esempio un po' frivolo il tuo ( a parte che la seconda è molto più suggestiva ).
Sono 2 paesaggi diversi riprodotti in condizioni meteo e in quadratura differente. :asd:
Per l'ultima frase concorderei se la pulizia di immagine sia quella in foto, se riproduci la stessa immagine scalettata, tanto vale sacrificare il dettaglio.
La rincorsa all'eliminazione dell'aliasing tramite risoluzione a differenza di altri aspetti ha un traguardo molto più vicino rispetto al fotorealismo.
La prima immagine è una foto reale, con un semplice filtro.
La seconda immagine è presa dalla demo Book of Dead, di Unity, con texture Quixel Megascan. A 1080p.
Puoi togliermi tutte le scalettature, tutti i pixel, puoi farmi arrivare agli 8k fluidi, ma finché la resa grafica dei giochi sarà come quella di BF5 o Shadow of Tomb Raider e non quella di BoD... allora di fotorealismo se ne riparlerà più avanti.
AceGranger
29-08-2018, 17:35
La prima immagine è una foto reale, con un semplice filtro.
La seconda immagine è presa dalla demo Book of Dead, di Unity, con texture Quixel Megascan. A 1080p.
Puoi togliermi tutte le scalettature, tutti i pixel, puoi farmi arrivare agli 8k fluidi, ma finché la resa grafica dei giochi sarà come quella di BF5 o Shadow of Tomb Raider e non quella di BoD... allora di fotorealismo se ne riparlerà più avanti.
fin quando non aggiorneranno quei rottami di console non avrai mai il fotorealismo, perchè le GPU demmerda che ci sono li sopra muovono 3 poligoni e texture low quality.
se alla prossima generazione andranno ancora al ribasso come fatto con la prima Ps4 e One faremo un saltino e poi saremo ancora punto a capo.
fin quando non aggiorneranno quei rottami di console non avrai mai il fotorealismo, perchè le GPU demmerda che ci sono li sopra muovono 3 poligoni e texture low quality.
Devi sperare che non avvenga tanto presto allora, perchè oggi la tecnologia non è certo pronta per inserire queste tecnologie su consolle.
C'è da dire però che le consolle potrebbero essere un'ottima opportunità. Su PC sei obbligato ad avere schede video che supportino tutto, ma sulle consolle no.
Quindi potrebbero creare dei chip ad hoc che taglino via tutto l'hardware non più necessario in quanto legato alle tecnologie precedenti ottenendo così grande efficienza e risparmio.
Ma che è tutta sta necessità di fotorealismo?
Scherzi, è una vita che lo aspetto. :D
Non mi importa nulla di 4K e amenità varie, ma se riescono a farmi un gioco che sembri un film, anche a 720p, allora li si che la salivazione porta all'annegamento!
Poi certo, non basta la potenza di calcolo se non la si sfrutta a dovere. Però senza la potenza di calcolo il fotorealismo non lo ottieni. ;)
AceGranger
29-08-2018, 19:01
Devi sperare che non avvenga tanto presto allora, perchè oggi la tecnologia non è certo pronta per inserire queste tecnologie su consolle.
C'è da dire però che le consolle potrebbero essere un'ottima opportunità. Su PC sei obbligato ad avere schede video che supportino tutto, ma sulle consolle no.
Quindi potrebbero creare dei chip ad hoc che taglino via tutto l'hardware non più necessario in quanto legato alle tecnologie precedenti ottenendo così grande efficienza e risparmio.
Scherzi, è una vita che lo aspetto. :D
Non mi importa nulla di 4K e amenità varie, ma se riescono a farmi un gioco che sembri un film, anche a 720p, allora li si che la salivazione porta all'annegamento!
Poi certo, non basta la potenza di calcolo se non la si sfrutta a dovere. Però senza la potenza di calcolo il fotorealismo non lo ottieni. ;)
La storiella dello "sfruttare" l'hardware è una vaccata... il problema è sempre e solo la scarsissima potenza elaborativa; Gli asset utilizzati nei videogiochi partono sempre da una qualita elevata, anche prchè ormai vengono quasi tutti fatti con fotogrammetria, e facendoli di persona ti assicuro che si raggiungono livelli di qualita elevatissima, poi pero il grosso del lavoro dello sviluppaotre è TAGLIARE fino all'osso dove puo, perchè seno il gioco andrebbe a 2 fps.
Il problema è che a furia di tagliare arrivi sempre a quei cessi di modelli con 3 poligoni e texture low quality, e anche se poi su PC hai l'impostazione ULTRA, in realta di "ULTRA" ha solo il nome perchè nessuno sviluppatore si mette a fare doppi asset, perchè sarebbe l'equivalente di sviluppare 2 giochi; quindi tu in realta ti ritrovi il solito modello cacato, che attraverso qualche barbatrucco e texture leggermente migliori, arriva ad essere un po piu carino...
"l'ottimizzare", è solo tagliare il meno possibile, ma alla fine arrivi sempre a tagliare un'infinita perchè proprio non ce la fanno.
e il discorso non vale solo per la GPU, ma pure per la CPU dove, un core serve per tenere in piedi l'OS, un core serve per tenere in piedi lo Streaming, la chat etc. etc. e alla fine ti ritrovi con pure la CPU monca.
poi va bè, a questo giro, con la novita di non venderle piu in perdita con la prima ondata, sono arrivati con console ridicole che tenevano a stento 1080p 30fps con modelli e texture ridicoli... poi hanno messo la pezza con le versioni "uber" ( in sostanza delle FHD ready :asd:) , che dovevano essere quelle del day-one...
Le console non ci porteranno da nessuna parte, sono troppo vincolate al prezzo d'acquisto ridotto. Vedo molto meglio il gioco via streaming (che potrebbe oggettivamente spazzarle via) ed i visori di realtà virtuale per portare avanti la tecnologia.
Attualmente il mercato gaming è un sottoprodotto (ci danno letteralmente gli scarti!) del mercato professionale. Ma per fortuna, altrimenti saremmo fermi a quello che offrono le console.
e infatti sono molto contento :ciapet: :sofico:.
questa generazione di GeForce è in assoluto la migliore che ho visto arrivare; l'ultima novita di un certo rilievo era stata l'introduzione delle Titan, anche se l'ultima versione è stata un po scialba.
sgrinfia
29-08-2018, 22:00
Il fotorealismo e utopia, almeno con i motori grafici attuali.
Certo di motori grafici potenti né abbiamo qualcuno ,basta guardare il Cryengine e perché no anche il Frostbite non è male ,però il fotorealismo e un altra cosa........:)
La pulizia dell'immagine ha altrettanto importanza del dettaglio stesso, forse anche di più.
La performance che sacrifichi è in relazione alla prestazione che riesce a fornire la scheda.
Se usi questo pensiero dovresti fare gli stessi discorsi sulle risoluzioni del passato, dove il 1600 x 1200 sul catodico era visto come il "4K" di adesso, ed io che ambivo il gioco a 1280 x 1024 ....
sul neretto non sono tanto d'accordo, è una cosa che varia a seconda della sensibilità personale, parlando di scalettature.
il mio discorso è che come dici tu oggettivamente un 4k può aiutare molto, soprattutto se con la diagonale del pannello si riescono ad avere più pixel che atomi.
altrettanto oggettivamente non ha senso spendere 3 occhi della testa e sacrificare un'enormità di prestazioni SOLO per non vedere scalette. e ripeto SOLO.
questo considerando che esistono comunque diversi tipi di AA (tutti con pro e contro) e che la percezione di mancata pulizia a video dipende anche da altre cose.
ha invece senso sacrificare un'enormità di prestazioni per realizzare in real time un sistema di illuminazione globale che aspettiamo tutti dai tempi dell'amiga.
il problema, come ho scritto, è che molti gamers che ragionano un po' come te avranno la sensazione di star comprando tecnologia che "non serve" nel momento in cui si dovesse appurare che tale sistema funziona a stento in 1080p e a quel punto non penso che metterai 4 2080ti (se fosse possibile) per avere RT a 4k.
AceGranger
29-08-2018, 23:26
sul neretto non sono tanto d'accordo, è una cosa che varia a seconda della sensibilità personale, parlando di scalettature.
il mio discorso è che come dici tu oggettivamente un 4k può aiutare molto, soprattutto se con la diagonale del pannello si riescono ad avere più pixel che atomi.
altrettanto oggettivamente non ha senso spendere 3 occhi della testa e sacrificare un'enormità di prestazioni SOLO per non vedere scalette. e ripeto SOLO.
questo considerando che esistono comunque diversi tipi di AA (tutti con pro e contro) e che la percezione di mancata pulizia a video dipende anche da altre cose.
ha invece senso sacrificare un'enormità di prestazioni per realizzare in real time un sistema di illuminazione globale che aspettiamo tutti dai tempi dell'amiga.
il problema, come ho scritto, è che molti gamers che ragionano un po' come te avranno la sensazione di star comprando tecnologia che "non serve" nel momento in cui si dovesse appurare che tale sistema funziona a stento in 1080p e a quel punto non penso che metterai 4 2080ti (se fosse possibile) per avere RT a 4k.
hanno intervistato quelli della DICE che hanno spiegato un po come stano le cose e, per quando uscira il gioco, avranno risolto quasi tutti i problemi delle prestazioni; magari non in 4K a 60fps, ma sicuramente al 1440p a piu di 60 fps ci arriveranno easy.
il problema principale che hanno sottolineato è che gli sono arrivate le GPU 2 settimane fa :stordita:
hanno intervistato quelli della DICE che hanno spiegato un po come stano le cose e, per quando uscira il gioco, avranno risolto quasi tutti i problemi delle prestazioni; magari non in 4K a 60fps, ma sicuramente al 1440p a piu di 60 fps ci arriveranno easy.
il problema principale che hanno sottolineato è che gli sono arrivate le GPU 2 settimane fa :stordita:
penso anche che il ray tracing si possa usare in maniera più o meno 'estesa', sulla falsariga del basso/medio/alto...staremo a vedere, manca poco.
in ogni caso questa si che è un'evoluzione quando si parla di fotorealismo.
ma più che fotorealismo parlerei di aderenza alla realtà con effetti che simulano la realtà dal punto di vista fisico al posto di essere artifici che sostituiscono una reale simulazione di come funzionano le sorgenti di luce.
Ma che è tutta sta necessità di fotorealismo?
E poi il fotorealismo non è necessariamente una questione di potenza della gpu, ma anche di saper come creare i giochi.
Il fotorealismo purtroppo è da troppi interpretato come il punto di arrivo, invece sono tutte balle. Sarà il punto di arrivo per chi lo vuole a tutti i costi.
Sappiamo tutti benissimo che ci sono autentici capolavori che con il fotorealismo non hanno nulla a che fare, e che proprio per loro natura invece, è proprio lo stile ''fumettoso'' o ''cartonesco'' ad essere imprescindibile.
Poi che tirano il mercato verso quella direzione ci sono la solita manciata di titoli, dai Far Cry ai Battlefield ecc...che sono sempre la solita manciata di titoli che tirano anche il mercato dei monitor curvi. Però diciamo che oltre, c'è anche molto altro, magari meno pompato dai media, ma c'è.
La storiella dello "sfruttare" l'hardware è una vaccata...
Tutt'altro. Sfruttare l'hardware significa scrivere motori grafici moderni, spendere risorse per ottimizzare gli asset e curare i dettagli, lavorare a modelli di movimento e interazione innovativi che vadano oltre a quelli attuali.
Sono tutte cose che hanno un costo, ed è un costo molto elevato, per cui spesso finiamo di fronte a lavori mediocri, incompleti o comunque legati a forti compromessi.
Ad ogni modo era giusto un appunto, per dire avere tanta potenza è condizione necessaria ma non sufficiente.
Il fotorealismo purtroppo è da troppi interpretato come il punto di arrivo, invece sono tutte balle. Sarà il punto di arrivo per chi lo vuole a tutti i costi.
Sappiamo tutti benissimo che ci sono autentici capolavori che con il fotorealismo non hanno nulla a che fare, e che proprio per loro natura invece, è proprio lo stile ''fumettoso'' o ''cartonesco'' ad essere imprescindibile.
Credo che nessuno neghi questo. Ci sono giochi di tanti tipi, e solo in alcuni casi il fotorealismo potrebbe dare una marcia in più.
Io lo vedo bene in tutti quei giochi che raccontano una storia, e anche nei giochi di simulazione della realtà (gli sportivi per esempio, o i simulatori di guida). Lo vedo meno importante in uno sparatutto (dove ciò che davvero conta è il gameplay), ma anche li poter avere un po' di graficona alla bisogna in fondo non guasta, anche se è la prima cosa che disabiliti quando giochi seriamente. Diventa poi irrilevante in altre categorie di giochi.
Piuttosto, nei caso dei giochi, bisogna tenere conto che non basta avere singole immagini con aspetto fotorealistico ma l'intera animazione deve essere convincente. Ombre e riflessi devono essere coerenti o si noterebbe subito l'artefatto. Lo scorrere dell'ambiente in movimento deve essere anch'esso realistico. Senza questo saremmo ben lontano dalla meta.
Alodesign
30-08-2018, 11:03
Il fotorealismo e utopia, almeno con i motori grafici attuali.
Certo di motori grafici potenti né abbiamo qualcuno ,basta guardare il Cryengine e perché no anche il Frostbite non è male ,però il fotorealismo e un altra cosa........:)
Non ti piace quello fatto in Book of Dead?
Il fotorealismo è necessario, come giustamente qualcuno dice, in alcuni titoli. In altri và benissimo lo stile "fumettoso".
Pensiamo ai giochi di simulazione, automobilistica, aerea etc.
Pensiamo agli fps storici o moderni (a nessuno viene voglia di rivivere l'assalto di Berlino come se fosse li?)
Pensiamo ad alcune avventure grafiche, alcune dico perché se mi fanno Monkey Island come un film... bleah.
Invece giochi come i platform vanno benissimo come sono. O alcune tipologie di giochi online.
AceGranger
30-08-2018, 12:47
Tutt'altro. Sfruttare l'hardware significa scrivere motori grafici moderni, spendere risorse per ottimizzare gli asset e curare i dettagli, lavorare a modelli di movimento e interazione innovativi che vadano oltre a quelli attuali.
la questione è semplice, il tuo discorso si basa sulla tua visione di quello che immagini sia il lavoro di uno sviluppatore e di quali siano isuoi problemi.... non stanno cosi.
Sono tutte cose che hanno un costo, ed è un costo molto elevato, per cui spesso finiamo di fronte a lavori mediocri, incompleti o comunque legati a forti compromessi.
i lavori mediocri ci sono solo per i compromessi dovuti dalle console, PUNTO; perchè tute le tecniche innovative che decanti ci sono eccome ma non possono essere utilizzate perchè le console non ce la fanno e sono pochi i publisher che investono per fare una versione PC specifica.
Ad ogni modo era giusto un appunto, per dire avere tanta potenza è condizione necessaria ma non sufficiente.
a ogni modo le cose non stanno come dici e ad oggi è una condizione che non viene mai rispettata.
comunque fra il ray tracing delle tech demo con UE4/nvidia e bf5 o altri giochi visti alla presentazione c'è un abisso a favore delle tech demo sotto tutti gli aspetti, a partire dalla resa del sistema di illuminazione.
nickname88
30-08-2018, 13:39
sul neretto non sono tanto d'accordo, è una cosa che varia a seconda della sensibilità personale, parlando di scalettature.
il mio discorso è che come dici tu oggettivamente un 4k può aiutare molto, soprattutto se con la diagonale del pannello si riescono ad avere più pixel che atomi.
altrettanto oggettivamente non ha senso spendere 3 occhi della testa e sacrificare un'enormità di prestazioni SOLO per non vedere scalette. e ripeto SOLO.
questo considerando che esistono comunque diversi tipi di AA (tutti con pro e contro) e che la percezione di mancata pulizia a video dipende anche da altre cose.
ha invece senso sacrificare un'enormità di prestazioni per realizzare in real time un sistema di illuminazione globale che aspettiamo tutti dai tempi dell'amiga.
il problema, come ho scritto, è che molti gamers che ragionano un po' come te avranno la sensazione di star comprando tecnologia che "non serve" nel momento in cui si dovesse appurare che tale sistema funziona a stento in 1080p e a quel punto non penso che metterai 4 2080ti (se fosse possibile) per avere RT a 4k.
Quoto in parte, a me le scalettature non piacciono proprio.
I filtri esistono ma andare oltre il canonico MSAA 4x vai incontro a penalizzazioni.
sgrinfia
30-08-2018, 14:04
Non ti piace quello fatto in Book of Dead?
Il fotorealismo è necessario, come giustamente qualcuno dice, in alcuni titoli. In altri và benissimo lo stile "fumettoso".
Pensiamo ai giochi di simulazione, automobilistica, aerea etc.
Pensiamo agli fps storici o moderni (a nessuno viene voglia di rivivere l'assalto di Berlino come se fosse li?)
Pensiamo ad alcune avventure grafiche, alcune dico perché se mi fanno Monkey Island come un film... bleah.
Invece giochi come i platform vanno benissimo come sono. O alcune tipologie di giochi online.
Book of Dead,e solo una demo fino a ora, quindi non la considero nemmeno.
Alodesign
30-08-2018, 14:10
Book of Dead,e solo una demo fino a ora, quindi non la considero nemmeno.
Che sia una demo o meno è molto di più in termini di realismo che qualsiasi gioco abbia mai dato. E qui non si parla di schede grafiche ma di engine e serve per farti capire che questi sono già pronti per il futuro.
la questione è semplice, il tuo discorso si basa sulla tua visione di quello che immagini sia il lavoro di uno sviluppatore e di quali siano isuoi problemi.... non stanno cosi.
Quindi mi conosci e di questo ne hai la certezza, giusto? ;)
Ti posso invece dire che alcuni tra i miei ex colleghi lavorano nel mondo della realizzazione dei videogiochi, e sebbene non abbia esperienza in prima persona in questo campo ho avuto più volte modo di discuterne.
Alla fine è sempre un problema di soldi e risorse. Anche le famigerate consolle sono un limite solo in questo senso: se una software house non avesse limiti di budget non avrebbe difficoltà a realizzare quel che occorre anche su PC. Ma i limiti ci sono, e quindi si fanno delle scelte.
Del resto mi pare che anche tu te ne sia accorto: "e sono pochi i publisher che investono per fare una versione PC specifica". Stiamo davvero quindi dicendo cose tanto differenti? A me pare di no.
Se dico che non basta la potenza di calcolo ma occorre investire nel software, tu me ne stai dando conferma dicendo che in molti casi il problema è proprio legato alle software house che non investono nelle versioni PC che sfruttino questo hardware.
Poi hai tirato in ballo le consolle, ma non si stava parlando di quali fossero le cause di questi investimenti: possono essere le consolle, possono essere semplicemente i risultati che si prefigge una software house sulla base dei costi.
Ovvio che l'attuale generazione di consolle, basata su tecnologia di cinque anni fa, oggi possa risultare limitante. Ma allo stesso tempo, come ho scritto prima, la nuova generazione potrebbe essere un trampolino di lancio per queste tecnologie, sempre che siano state già sviluppate adeguatamente nel momento in cui usciranno.
nickname88
30-08-2018, 20:23
Nei giochi nuovi poi tra il numero più elevato di poligoni, le trasparenze ed altri effetti MSAA va in crisi e diventa pesantissimo, per questo si punta ad altri tipi di AA.Con un 4K basterebbe un AA leggero.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.