View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
Thunder-74
21-08-2018, 16:27
Si ma in quello specifico bench. Per carità è un indizio importante...
Lo so beatl, certo che una rondine non fa primavera, ma attualmente è l'unico bench comune alle due schede..
AceGranger
21-08-2018, 16:39
Comunque rileggevo il tuo commento. Hai sottolineato lightmap baking ma hai ignorato:
and light probe calculation using ray tracing
Qui non parla di baking.
fa sempre tutto parte dell'attuale metodo fake del calcolo dell'illuminazione.
"Similar to lightmaps, light probes store “baked” information about lighting in your scene. The difference is that while lightmaps store lighting information about light hitting the surfaces in your scene, light probes store information about light passing through empty space in your scene."
La 989Ti era su un nodo vecchio di 5 anni, la 2080Ti su un nodo speciale fatto solo per nVidia.
siamo d accordo cosiderando tutti i fattori.
Era per chi sostiene la tesi costo elevato perche tanti mmq alla conta.
L area di stampa le sue dimensioni di per se non sono indicativi del prezzo. gm200 insegna
AceGranger
21-08-2018, 16:47
Sembra peró che la demo usasse il nuovo DLSS (Deep Learning Super-Sampling) che probabilmente si appoggia ai tensor, assenti nella 1080ti ovviamente
eh bè, ma il guadagno è anche quello, sgravare i CUDA core da tutto il lavoro possibile in modo tale che ogni unita faccia quello che le riesce meglio.
Thunder-74
21-08-2018, 16:55
Se vi interessa che la vivisezione di una 2080:
https://www.bilibili.com/video/av29893835
:sofico:
ma la poteva mettere nel pc e testarla...
ma la 1080ti costava di più della 980ti e non consideri che la 980ti è uscita sull'ultimo giro dei 28nm, mentre TitanX al primo giro dei 14nm alla modica cifra di 1200$ la 1080ti al secondo giro al prezzo della 1080 e comunque superiore alla 980ti.
Non vedo come Turing costi come Pascal.
La 1080 è stata lanciata a 599, la 2080 a 100$ in più. (+18%)
La 1080ti è stata lanciata a 699, la 2080ti a 300$ in più. (+42%)
La 1070 è stata lanciata a 379, la 2070 a 120$ in più. (+30%).
di che stai parlando?:D Turing costa tanto quanto Pascal nonostante i Die siano più grossi, nel senso che infatti a parità di dimensioni Die la 2080 da 500mmq costa quanto la 1080ti da 470mmq e la 2080ti da 755mmq quanto la titan da 470mmq, e non come Volta da 815mmq, mi pare che siano allineati ai chip Pascal.
E chi se ne importa?
Io ragiono con il mio portafoglio, non con quello dei produttori di gpu.
Qui, chi più chi meno volevamo dal 25-35% di performance in più con meno calore, consumi e possibilmente prezzo.
Invece abbiamo consumi elevatissimi, prezzi aumentati del 20% minimo, tdp immensamente superiore e prestazioni che forse raggiungeranno quel 30% ma non con le basi desiderate e non secondo il ciclo "normale" di aumento prestazioni.
Io ragiono come un consumatore e la vedo in maniera molto semplice: nessuna delle RTX è in grado di gestire un framerate decente con il rt attivo nemmeno a 1080p.
E per migliorare le prestazioni a 4k ci dobbiamo svenare senza nemmeno, forse, avere incrementi davvero decisi nei giochi tradizionali.
Ergo ci troviamo nella situazione in cui queste schede non vanno bene per rt serio e nemmeno come upgrade su quelle vecchie (a prezzi umani).
Boh sarà ma sulle prestazioni ‘pure’ (senza RT intendo) mi aspetto grandi cose. Invece l’attivazione del raytracing sarà il vero problema, cioè la feature fps-killer purtroppo ...
Boh sarà ma sulle prestazioni ‘pure’ (senza RT intendo) mi aspetto grandi cose. Invece l’attivazione del raytracing sarà il vero problema, cioè la feature fps-killer purtroppo ...
Un po' come inizialmente i 4k e qui stiamo parlando di una feature completamente nuova e rivoluzionaria
ma la 1080ti costava di più della 980ti e non consideri che la 980ti è uscita sull'ultimo giro dei 28nm, mentre TitanX al primo giro dei 14nm alla modica cifra di 1200$ la 1080ti al secondo giro al prezzo della 1080 e comunque superiore alla 980ti.
cut
è cosi questo giro ma non fuziona sempre cosi. leggi meglio.
Infatti con la 980ti non c'è stato il balzo ai mille forte dei suoi 601mmq.
Non sono opinioni è la storia almeno da gm200 ad oggi.
Giovamas
21-08-2018, 17:17
io vorrei tanto vedere i benchs.... :)
Non vedo come Turing costi come Pascal.
La 1080 è stata lanciata a 599, la 2080 a 100$ in più. (+18%)
La 1080ti è stata lanciata a 699, la 2080ti a 300$ in più. (+42%)
La 1070 è stata lanciata a 379, la 2070 a 120$ in più. (+30%).
E chi se ne importa?
Io ragiono con il mio portafoglio, non con quello dei produttori di gpu.
Qui, chi più chi meno volevamo dal 25-35% di performance in più con meno calore, consumi e possibilmente prezzo.
Invece abbiamo consumi elevatissimi, prezzi aumentati del 20% minimo, tdp immensamente superiore e prestazioni che forse raggiungeranno quel 30% ma non con le basi desiderate e non secondo il ciclo "normale" di aumento prestazioni.
Io ragiono come un consumatore e la vedo in maniera molto semplice: nessuna delle RTX è in grado di gestire un framerate decente con il rt attivo nemmeno a 1080p.
E per migliorare le prestazioni a 4k ci dobbiamo svenare senza nemmeno, forse, avere incrementi davvero decisi nei giochi tradizionali.
Ergo ci troviamo nella situazione in cui queste schede non vanno bene per rt serio e nemmeno come upgrade su quelle vecchie (a prezzi umani).
Per parlare cosi suppongo che tu abbia già i test sotto mano e sai di cosa stai parlando vero? correggimi se sbaglio guru.
AceGranger
21-08-2018, 17:21
Comunque il problema è un altro.
Una Vega potrebbe anche essere in grado di eseguire lo stesso ray tracing che fanno le Turing (cioè non tutto ma solo luci e ombre) ma poi non resterebbe hw per fare il resto.
Turing invece è composta da 3 parti per eseguire le 3 operazioni necessarie per fare il rendering ibrido: cuda core per il normale raster, rt core per il ray tracing e tensor per il denoise.
sarebbe in grado di fare tutto tutto, come sarebbero in grado di farlo anche le CPU, il problema non è che non resterebbe hw per il resto, il problema è proprio che anche senza arrivare al resto, non riuscirebbe a tirare fuori abbastanza raggi.
Ma anche se arrivasse domani Navi 7nm da 30 TFlops, sarebbe comunque INEFFICIENTE ai fini del calcolo raytracing, a meno che non riscrivano completamente i CU, ammettendo poi di poter ottenere un'unita unificata che riesca a fare i calcoli in modo efficiente come delle unita dedicate; ma cio vorrebbe dire staccarsi completamente dalle gen precedenti e rifare da zero driver e compatibilita.
la strada della unita dedicate è stata l'unica sensata percorribile.
cioè, immaginiamo pure di avere solo la parte tensor Core, come con Volta, per avere prestazioni simili avrebbero dovuto fare una GPU con +/- 15.000 CUDA Core...
Nhirlathothep
21-08-2018, 17:21
ma la 1080ti costava di più della 980ti e non consideri che la 980ti è uscita sull'ultimo giro dei 28nm, mentre TitanX al primo giro dei 14nm alla modica cifra di 1200$ la 1080ti al secondo giro al prezzo della 1080 e comunque superiore alla 980ti.
msrp
Maxwell 28nm terzo giro
980 400mmq 550$
980ti 600mmq 650$
TitanX 600mmq 1000$
Pascal 14nm primo giro
1080 315mmq 550-700$
TitanX 470mmq 1200$
Pascal 14nm secondo giro
1080ti 470mmq 700$
TitanXp 470mmq 1200$
Volta 12nm primo giro
TitanV 815mmq 3000$ (senza considerare le Quadro e Tesla da over 9000$)
Turing 12nm secondo giro
2080 500mmq 700-800$
2080ti 755mmq 1000-1200$
di che stai parlando?:D Turing costa tanto quanto Pascal nonostante i Die siano più grossi, nel senso che infatti a parità di dimensioni Die la 2080 da 500mmq costa quanto la 1080ti da 470mmq e la 2080ti da 755mmq quanto la titan da 470mmq, e non come Volta da 815mmq, mi pare che siano allineati ai chip Pascal.
I costi dei chip sono aumentati, produrre wafer e scendere di nm costa sempre di più, voi credete che i 7nm saranno economici?
Poi mettiamoci anche che la concorrenza in fascia estrema non esiste e che in fascia alta costa pure lei sulle 600 piotte e il gioco è fatto, la 980ti aveva comunque concorrenza con la FuryX seppur in maniera casuale, cosa che oggi la 1080ti non ha.
ti confondi tra la Titan X pascal e la Titan XP, sono due schede diverse
https://www.tomshw.it/forum/attachments/1-jpg.305983/
Lunar Wolf
21-08-2018, 17:26
Io aspetto Asus poi la prendo, il resto mi interessa poco.
meglio che la prendi da nvidia in quanto loro hanno i chip piu selezionati rispetto ai vari AIB...ogni oem puo pagare qualcosa in piu per avere un chip altrettanto selezionato ergo la asus scegliera quelli piu economici col dissi riciclato della serie 480:mc:
Lunar Wolf
21-08-2018, 17:29
sarebbe in grado di fare tutto tutto, come sarebbero in grado di farlo anche le CPU, il problema non è che non resterebbe hw per il resto, il problema è proprio che anche senza arrivare al resto, non riuscirebbe a tirare fuori abbastanza raggi.
Ma anche se arrivasse domani Navi 7nm da 30 TFlops, sarebbe comunque INEFFICIENTE ai fini del calcolo raytracing, a meno che non riscrivano completamente i CU, ammettendo poi di poter ottenere un'unita unificata che riesca a fare i calcoli in modo efficiente come delle unita dedicate; ma cio vorrebbe dire staccarsi completamente dalle gen precedenti e rifare da zero driver e compatibilita.
la strada della unita dedicate è stata l'unica sensata percorribile.
cioè, immaginiamo pure di avere solo la parte tensor Core, come con Volta, per avere prestazioni simili avrebbero dovuto fare una GPU con +/- 15.000 CUDA Core...
infatti navi dovrebbe avere unita diverse unite con l'infinity fabric come per i vari core delle cpu ryzen...almeno ero rimasto a questi rumor
https://www.techradar.com/reviews/nvidia-geforce-rtx-2080-ti
"Although we haven’t had the chance to benchmark the card thoroughly, we did get to play multiple PC games at 4K and in excess of 60 frames per second (fps) with the RTX 2080 Ti at Nvidia’s GeForce Gaming Celebration event at Gamescom 2018."
...
We also played a variety of other PC games that shall not be named, and saw performance run in excess of 100 fps at 4K and Ultra settings. Unfortunately, we also don’t know how much power these GPUs had to draw to reach this level of performance.
Se le performance in gaming standard sono quelle non sembra male, ma senza dati piú precisi non si puó concludere niente.
Parlano anche della demo con ray tracing di tomb raider, 50fps medi ma non specificata la risoluzione. Probabilmente davvero in 1080p come visto in altri video.
Thunder-74
21-08-2018, 17:45
https://www.techradar.com/reviews/nvidia-geforce-rtx-2080-ti
Se le performance in gaming standard sono quelle non sembra male, ma senza dati piú precisi non si puó concludere niente.
Parlano anche della demo con ray tracing di tomb raider, 50fps medi ma non specificata la risoluzione. Probabilmente davvero in 1080p come visto in altri video.
beh non male questa dichiarazione.
Per Tomb Raider è stato confermato da più fonti del fattoche girava a in FHD. Oltretutto sollevando molte perplessità FONTE (https://www.overclock3d.net/news/software/early_rtx_shadow_of_the_tomb_raider_performance_disappointing_on_rtx_2080_ti/1)
Edit: ho deciso ... se realmente la 2080ti avrà un boost pari o superiore del 40% rispetto ad una 1080ti (dicono di aver giocato a 100fps in 4K), la compro. Spero che presto escano recensioni
meglio che la prendi da nvidia in quanto loro hanno i chip piu selezionati rispetto ai vari AIB...ogni oem puo pagare qualcosa in piu per avere un chip altrettanto selezionato ergo la asus scegliera quelli piu economici col dissi riciclato della serie 480:mc:
Non avendo NVIDIA da un po’ funziona così ora? Quindi sarebbe quasi meglio una FE e se non si è contenti delle prestazioni del dissi liquidarla? Non avendo un sistema a liquido punterei all’AIO. Ma i sistemi tipo NXZT avendo solo il blocco gpu come raffreddano il resto?
Vedo comunque che per il momento anche da parte di EVGA, ASUS e cosi via stanno uscendo solo le versioni custom piu' "blande"
Inviato dal mio iPad utilizzando Tapatalk
i Die sono enormi, a parità di Die le gpu costano uguale se confronti 2080 da 500mmq e 1080ti da 470mmq e anzi addirittura meno se confronti 2080ti 755mmq e TitanV da 815mmq, dei nomi commerciali frega nulla e in più ci sono novità che potenzialmente fanno fare un salto generazionale mai visto prima anche se è da dimostrare, il fatto che se pensiate che nVidia vi regali tutto questo significa che vivete in un mondo irreale e che non è il mio :D
Non funziona così.
Ognuno ha un budget e delle aspettative.
1000$ per una gpu che farà il 30-35% di una 1080ti da 700$ non è il salto che qualcuno si aspettava.
La normalità è 30-40 allo stesso prezzo o poco poco più.
Se mi dai 30% in più con prezzo +40% e 50 fps medi su tomb raider rt on (30 o meno di minimo ;)) che cosa mi stai vendendo?
Mi stai spacciando i tuoi tensore core evidentemente non pronti per il mercato gaming odierno.
Specie visto e considerato che con RT attivo non regge nemmeno a 1080p i primi 3 giochi che lo supporteranno (metro, battlefield, tomb raider).
A noi di quanto siano grandi i chip non ce ne frega nulla, quello che ci interessa è come vanno, quanto consumano e quanto costano.
[/U][/B]
Per parlare cosi suppongo che tu abbia già i test sotto mano e sai di cosa stai parlando vero? correggimi se sbaglio guru.
Passiamo da 11.8 a 14 tflops scarsi.
Puoi inventarti le migliorie architetturali che ti pare e piace, ma con rt disattivato se hai 30% di boost è grasso che cola.
Le FE questo giro hanno dissipatore a doppia ventola con vapor chamber sotto, e l'overclock di fabbrica di +100 mhz.
E ovviamente continuano ad avere i vantaggi di essere il design "reference", quindi massima compatibilità con waterblock, case strani etc etc.
Insomma, sono intetessanti. I partner dovranno darsi da fare per tirar fuori roba migliore...
...più facile forse far roba peggiore e farla pagar di meno!
Inviato dal mio SM-G960F utilizzando Tapatalk
Questo lo hanno gia' fatto, le bellissime versioni Turbo monoventola......:muro:
beh non male questa dichiarazione.
Per Tomb Raider è stato confermato da più fonti del fattoche girava a in FHD. Oltretutto sollevando molte perplessità FONTE (https://www.overclock3d.net/news/software/early_rtx_shadow_of_the_tomb_raider_performance_disappointing_on_rtx_2080_ti/1)
Edit: ho deciso ... se realmente la 2080ti avrà un boost pari o superiore del 40% rispetto ad una 1080ti (dicono di aver giocato a 100fps in 4K), la compro. Spero che presto escano recensioni
Io oramai ho deciso. E porca paletta sono indeciso sullo SLI :muro:
Biscottoman
21-08-2018, 18:10
Non avendo NVIDIA da un po’ funziona così ora? Quindi sarebbe quasi meglio una FE e se non si è contenti delle prestazioni del dissi liquidarla? Non avendo un sistema a liquido punterei all’AIO. Ma i sistemi tipo NXZT avendo solo il blocco gpu come raffreddano il resto?
Vedo comunque che per il momento anche da parte di EVGA, ASUS e cosi via stanno uscendo solo le versioni custom piu' "blande"
Inviato dal mio iPad utilizzando Tapatalk
I sistemi nzxt a cui fai riferimento (immagino il kraken g12, a cui anche io sono interessato e infatti sono già premunito di h90 da abbinarci in configurazione push&pull) dovrebbero garantire un'ottima dissipazione a livello gpu, le altre due componenti che scaldano molto sono le vrm e vengono raffreddate dalla ventola inclusa in bundle da 90mm che da quel che so dovrebbe essere sufficiente a garantire che il sistema rimanga fresco soprattutto in presenza di un buon air flow, io per la vram invece (anche se è una componente che tenzialmente non scalda troppo) abbinerei degli heatsink di alluminio/rame (si trovano a pochi euro in giro) per magari overclock un po' più spinti; ma da quel che so anche senza non dovrebbero essere problematici a livello di calore. Sono solo leggermente in dubbio se questo kit sia compatibile con le nuove gpu, ma penso proprio che lo sia.
Passiamo da 11.8 a 14 tflops scarsi.
Puoi inventarti le migliorie architetturali che ti pare e piace, ma con rt disattivato se hai 30% di boost è grasso che cola.
Quindi a spanne direi appaiata alla Titan V?
Alla fine ha meno cuda ma un clock piu' alto....presupponendo chiaramente lo stesso IPC
@Mikael cosa ne pensi?
I sistemi nzxt a cui fai riferimento (immagino il kraken g12, a cui anche io sono interessato e infatti sono già premunito di h90 da abbinarci in configurazione push&pull) dovrebbero garantire un'ottima dissipazione a livello gpu, le altre due componenti che scaldano molto sono le vrm e vengono raffreddate dalla ventola inclusa in bundle da 90mm che da quel che so dovrebbe essere sufficiente a garantire che il sistema rimanga fresco soprattutto in presenza di un buon air flow, io per la vram invece (anche se è una componente che tenzialmente non scalda troppo) abbinerei degli heatsink di alluminio/rame (si trovano a pochi euro in giro) per magari overclock un po' più spinti; ma da quel che so anche senza non dovrebbero essere problematici a livello di calore. Sono solo leggermente in dubbio se questo kit sia compatibile con le nuove gpu, ma penso proprio che lo sia.
Grazie delle info. Anche se sulla parte VRM visto quanto berra' una 2080ti non mi sento fiducioso con una sola dissipazione ad aria....
Arrow0309
21-08-2018, 18:13
https://www.youtube.com/watch?v=GuKm8z2CGVs
Io aspetto Asus poi la prendo, il resto mi interessa poco.
Hmmmmm, a sto giro non so se scegliere nvidia FE (che trovo sexi), EVGA o Asus :mc:
Anche Aorus :cool: per stare in linea con la mia (futura) mobo Z370 Gaming 7
https://www.youtube.com/watch?v=yokIHPGLZ9E&feature=youtu.be
meglio che la prendi da nvidia in quanto loro hanno i chip piu selezionati rispetto ai vari AIB...ogni oem puo pagare qualcosa in piu per avere un chip altrettanto selezionato ergo la asus scegliera quelli piu economici col dissi riciclato della serie 480:mc:
Dici?
A £1099 e' anche quella che mi costerebbe meno di tutte da subito (o insomma, c'e' il preorder) :fagiano:
Thunder-74
21-08-2018, 18:14
Tutte le nostre riflessioni in questo articolo
https://www.pcgamesn.com/nvidia-rtx-2080-ti-hands-on
Inviato dal mio iPad utilizzando Tapatalk
Ton90maz
21-08-2018, 18:16
Quindi c'è il grosso rischio che tutta la fuffaglia hardware per il raytracing sia un grosso tumore sul chip che non verrà usato se si vuole giocare in modo decente? :mc:
edit_user_name_here
21-08-2018, 18:20
Non funziona così.
Ognuno ha un budget e delle aspettative.
1000$ per una gpu che farà il 30-35% di una 1080ti da 700$ non è il salto che qualcuno si aspettava.
La normalità è 30-40 allo stesso prezzo o poco poco più.
Se mi dai 30% in più con prezzo +40% e 50 fps medi su tomb raider rt on (30 o meno di minimo ;)) che cosa mi stai vendendo?
Mi stai spacciando i tuoi tensore core evidentemente non pronti per il mercato gaming odierno.
Specie visto e considerato che con RT attivo non regge nemmeno a 1080p i primi 3 giochi che lo supporteranno (metro, battlefield, tomb raider).
A noi di quanto siano grandi i chip non ce ne frega nulla, quello che ci interessa è come vanno, quanto consumano e quanto costano.
Si ma ha una nuova tecnologia ed in quei giochi va di più confronto a quelle vecchie.Magari tra del tempo ce ne saranno altre che costeranno meno ed in quel caso ci si aspetta quello.Non è che il mercato deve sempre essere uguale ogni anno.Può fare cattivo e bello tempo.Il mercato non è una beneficenza o un diritto di avere tutto allo stesso prezzo ogni anno :)
Se ad una persona non piace questa tecnologia semplicemente non la compra.O se vuole aspettare.Sinceramente io non capisco ste cose.Prendetela più easy invece di lamentarvi per tutto :)
fabietto27
21-08-2018, 18:20
beh non male questa dichiarazione.
Per Tomb Raider è stato confermato da più fonti del fattoche girava a in FHD. Oltretutto sollevando molte perplessità FONTE (https://www.overclock3d.net/news/software/early_rtx_shadow_of_the_tomb_raider_performance_disappointing_on_rtx_2080_ti/1)
Edit: ho deciso ... se realmente la 2080ti avrà un boost pari o superiore del 40% rispetto ad una 1080ti (dicono di aver giocato a 100fps in 4K), la compro. Spero che presto escano recensioni40% in più della 1080ti mi sembra il minimo sindacale per farti cambiare il tuo sli fortunello.
poi se lo fai a prescindere visto che sei indietro di due gen. ci sta comunque...e lo dico senza sfancularti stavolta sia chiaro.
Inviato dal vivavoce della mia Daf Variomatic
Thunder-74
21-08-2018, 18:21
Quindi c'è il grosso rischio che tutta la fuffaglia hardware per il raytracing sia un grosso tumore sul chip che non verrà usato se si vuole giocare in modo decente? :mc:
Siamo agli albori e quindi è presto. Certo è che se non si riesce a tenere i 60 frames a 1080p, il RT diventa inutile per molti di noi
Oltretutto avevano anche il dubbio che Tomb Raider non fosse neanche impostato al massimo dettaglio ...
Inviato dal mio iPad utilizzando Tapatalk
Biscottoman
21-08-2018, 18:21
Quindi a spanne direi appaiata alla Titan V?
Alla fine ha meno cuda ma un clock piu' alto....
Grazie delle info. Anche se sulla parte VRM visto quanto berra' una 2080ti non mi sento fiducioso con una sola dissipazione ad aria....
volendo molta gente applica gli heatsink anche lì, però a mio avviso diventa un lavoro minuzioso ed esagerato a quel punto se la spesa non è un problema vai decisamente di waterblock che a prescindere è sempre la scelta migliore a livello di performance
SPARTANO93
21-08-2018, 18:22
La rtx 2070 che è l'unica che forse potrei permettermi quanti tflops ha? Perché ho paura che questa scheda non abbia abbastanza potenza per il ray tracing e che non sia in mostro nemmeno con ray tracing off andando peggio di una 1080/1080ti
Inviato dal mio SM-G930F utilizzando Tapatalk
AceGranger
21-08-2018, 18:23
Quindi c'è il grosso rischio che tutta la fuffaglia hardware per il raytracing sia un grosso tumore sul chip che non verrà usato se si vuole giocare in modo decente? :mc:
per un motivo o per l'altro potresti usarli comuqnue, anche senza l'RT.
l'RT core puo venire impiegato anche per il calcolo del suono, mente i Tensor per l'AA.
edit_user_name_here
21-08-2018, 18:24
Quindi c'è il grosso rischio che tutta la fuffaglia hardware per il raytracing sia un grosso tumore sul chip che non verrà usato se si vuole giocare in modo decente? :mc:
Per ora aspettiamo più test.Cmq anche a livello normali dovrebbero essere più potenti, parlo della 2080 ti contro la vecchia ti, ma ad essere veloci saranno veloci più che altro si parla del prezzo non giustificato per gli aumenti che hanno.E specialmente la nuova tecnologia che, sembrerebbe, rallenta i fps ma non si sa ancora molto.
Però le vecchie schede, se usate con la nuova tecnologia, rallentano ancora di più di 8 volte si parla(se non ho capito male ovviamente).Dunque dipende dal gioco e se si abilità la cosa.
Dunque bisogna aspettare per vedere i test per il resto inutile parlarne ora :)
per un motivo o per l'altro potresti usarli comuqnue, anche senza l'RT.
l'RT core puo venire impiegato anche per il calcolo del suono, mente i Tensor per l'AA.
Infatti :)
Thunder-74
21-08-2018, 18:24
40% in più della 1080ti mi sembra il minimo sindacale per farti cambiare il tuo sli fortunello.
poi se lo fai a prescindere visto che sei indietro di due gen. ci sta comunque...e lo dico senza sfancularti stavolta sia chiaro.
Inviato dal vivavoce della mia Daf Variomatic
Grazie Fabié, lo so che per te devo sfoggiare almeno un 9900k :D
Comunque per queste vga bisogna attendere info certe
Inviato dal mio iPad utilizzando Tapatalk
techsaskia
21-08-2018, 18:32
Io oramai ho deciso. E porca paletta sono indeciso sullo SLI :muro:
io sono un sostenitore dello SLI da sempre ma a questo giro
1) prezzi sono troppo folli per fare doppia follia, una follia ci sta, due follie è da pazzi? :D
2) black giacchet non si è degnato nemmeno di parlare di nvlink. proprio un settore completamente dimenticato, non mi fa pensare niente di buono
techsaskia
21-08-2018, 18:36
La rtx 2070 che è l'unica che forse potrei permettermi quanti tflops ha? Perché ho paura che questa scheda non abbia abbastanza potenza per il ray tracing e che non sia in mostro nemmeno con ray tracing off andando peggio di una 1080/1080ti
Inviato dal mio SM-G930F utilizzando Tapatalk
per il RT non basterà nemmeno la ti, figuriamoci la 2070...
al più con la 2070 ci fai un pò di antialiasing modello nuovo, come se ci volesse l'ennesimo metodo di antialias :D
qua ci vuole il 4K no l'antialias e cavolate varie, dateci il 4K 60FPS e poi parliamo del resto
Ton90maz
21-08-2018, 18:38
per un motivo o per l'altro potresti usarli comuqnue, anche senza l'RT.
l'RT core puo venire impiegato anche per il calcolo del suono, mente i Tensor per l'AA.Sì, letto anche quello ma mi chiedo che performance avrebbe avuto una scheda solo con unità di calcolo "normali", stessa dimensione o anche leggermente inferiore per ospitare più ram.
Ton90maz
21-08-2018, 18:41
Siamo agli albori e quindi è presto. Certo è che se non si riesce a tenere i 60 frames a 1080p, il RT diventa inutile per molti di noi
Oltretutto avevano anche il dubbio che Tomb Raider non fosse neanche impostato al massimo dettaglio ...
Inviato dal mio iPad utilizzando Tapatalkper me sarebbe ridicolo anche un 1080p a 60 fos con RT. Cioè non puoi menarla con una scheda da oltre 1000 euro, rivoluzione e andare a una risoluzione più bassa di una console.
edit_user_name_here
21-08-2018, 18:45
io sono un sostenitore dello SLI da sempre ma a questo giro
1) prezzi sono troppo folli per fare doppia follia, una follia ci sta, due follie è da pazzi? :D
2) black giacchet non si è degnato nemmeno di parlare di nvlink. proprio un settore completamente dimenticato, non mi fa pensare niente di buono
Anche io lo ero ma ora basta ma non tanto per queste schede o prezzi(i consumi si invece ma vabbe).Cmq nessuno ti dice di comprarle :)
per il RT non basterà nemmeno la ti, figuriamoci la 2070...
al più con la 2070 ci fai un pò di antialiasing modello nuovo, come se ci volesse l'ennesimo metodo di antialias :D
qua ci vuole il 4K no l'antialias e cavolate varie, dateci il 4K 60FPS e poi parliamo del resto
Prima vediamo i test :)
2) black giacchet non si è degnato nemmeno di parlare di nvlink. proprio un settore completamente dimenticato, non mi fa pensare niente di buono
Lo sli è (fortunatamente) "morto", fatevene una ragione... ;)
edit_user_name_here
21-08-2018, 18:47
Lo sli è (fortunatamente) "morto", fatevene una ragione... ;)
Infatti.Per me è meglio una gpu super veloce è meglio che due in parallelo che consumano di più e non vengono sfruttate a dovere.
Magari il nvlink va meglio per la storia delle memorie unificate ma... boh preferisco evitare per ora :) piuttosto cambio più spesso la scheda grafica al posto di una doppia scheda ora.
techsaskia
21-08-2018, 18:50
Lo sli è (fortunatamente) "morto", fatevene una ragione... ;)
sempre il solito tormentone,
hanno fatto bene a vendervi la scheda di fascia alta al prezzo di due fasce alte in SLI. :rolleyes:
io personalmente da anni gioco solo titoli tripla a e qualche indy e non ho mai visto un titolo tripla a non supportare lo SLI, l'unica eccezione è stata origins.
quindi per la mia esperienza dire che lo SLI è morto è semplicemente inesatto. poi discutete pure quanto vi pare, magari voi giocate il 99% dei giochi in cui lo SLI non funziona.
però non è che se a te non funziona allora lo SLI è morto, non è che ci stanno solo i giochi che giochi tu :D
Nhirlathothep
21-08-2018, 18:50
beh non male questa dichiarazione.
Per Tomb Raider è stato confermato da più fonti del fattoche girava a in FHD. Oltretutto sollevando molte perplessità FONTE (https://www.overclock3d.net/news/software/early_rtx_shadow_of_the_tomb_raider_performance_disappointing_on_rtx_2080_ti/1)
Edit: ho deciso ... se realmente la 2080ti avrà un boost pari o superiore del 40% rispetto ad una 1080ti (dicono di aver giocato a 100fps in 4K), la compro. Spero che presto escano recensioni
avevo detto 50%
lo sentivo da prima del reveal.
vai di acquisto per me!
AceGranger
21-08-2018, 18:50
Sì, letto anche quello ma mi chiedo che performance avrebbe avuto una scheda solo con unità di calcolo "normali", stessa dimensione o anche leggermente inferiore per ospitare più ram.
credo che ci avrebbero potuto infilare +/- 8000 CUDA, ammesso di starci dentro con il TDP.
la ram invece non è un problema di dimensione del chip, potrebbero tranquillamente raddoppiare tutte le ram, visto che stanno usando chip da 1Gb quando in circolazione ci sono quelli da 2 GB.
per me sarebbe ridicolo anche un 1080p a 60 fos con RT. Cioè non puoi menarla con una scheda da oltre 1000 euro, rivoluzione e andare a una risoluzione più bassa di una console.
perchè non c'è ancora abbastanza potenza computazionale, ma se tu avessi un gioco full RT come la demo di Star Wars credo che non staresti li molto a guardare la risoluzione, visto che in linea teorica potresti avere un gioco in qualita cinematografica, se ci fosse abbastanza potenza.....
una risoluzione più bassa di una console.
si ma 4K, con 4 poligoni e texture compresse come se non ci fosse un domani...
Spider-Mans
21-08-2018, 18:50
La rtx 2070 che è l'unica che forse potrei permettermi quanti tflops ha? Perché ho paura che questa scheda non abbia abbastanza potenza per il ray tracing e che non sia in mostro nemmeno con ray tracing off andando peggio di una 1080/1080ti
Inviato dal mio SM-G930F utilizzando Tapatalk
pigliati una 1080ti nuova o usata...hai piu vram e forse piu prestazioni di una 2070..anzi senza forse
2070 e 2080 sono castred in vram
se giochi a 4k
gia ora vi sono giochi che occupano piu di 8gb vram
techsaskia
21-08-2018, 18:51
Infatti.Per me è meglio una gpu super veloce è meglio che due in parallelo che consumano di più e non vengono sfruttate a dovere.
Magari il nvlink va meglio per la storia delle memorie unificate ma... boh preferisco evitare per ora :) piuttosto cambio più spesso la scheda grafica al posto di una doppia scheda ora.
prima con lo SLI spendevi 1200€ e stavi bene 2 anni se non di più,
adesso con la scheda super veloce la devi cambiare ogni anno e spendi sempre 1200€... ottimo affare. :sofico:
techsaskia
21-08-2018, 18:51
pigliati una 1080ti nuova o usata...hai piu vram e forse piu prestazioni di una 2070..anzi senza forse
2070 e 2080 sono castred in vram
se giochi a 4k
gia ora vi sono giochi che occupano piu di 8gb vram
interessante non lo sapevo, mi fai qualche esempio?
però non è che se a te non funziona allora lo SLI è morto, non è che ci stanno solo i giochi che giochi tu :D
buh... io ormai non gioco più a nulla, eh... :O
(mi piace lurkare sta discussione, però! :asd: )
È che mi pare che ogni volta che esce un gioco (anche tripla A) bisogna sempre aspettare qualcuno coi "bit" da settare per lo sli...
ps: lo SLI è peggiorato un casino, sulle schede dopo la serie 9XX (che sono le tue), comunque, sappilo! ;)
techsaskia
21-08-2018, 18:58
buh... io ormai non gioco più a nulla, eh... :O
(mi piace lurkare sta discussione, però! :asd: )
È che mi pare che ogni volta che esce un gioco (anche tripla A) bisogna sempre aspettare qualcuno coi "bit" da settare per lo sli...
ps: lo SLI è peggiorato un casino, sulle schede dopo la serie 9XX (che sono le tue), comunque, sappilo! ;)
i bit servono solo chi vuole il supporto SLI launch day, basta aspettare un mese o due (a volte un pò di +) e ti giochi un gioco patchato, a minor prezzo, con lo SLI ufficiale da nvidia.
diciamo che se non provi meglio non ripetere quello che dice la gente, molti parlano per sentito dire e non conviene mettersi in lista :)
io TW3 me lo sono giocato 4K 60 FPS, chi può dire lo stesso? :D
ai tempi si arrancava ancora in 2K con quel gioco e con le schede del tempo.
basta aspettare un mese o due (a volte un pò di +)
'na bazzeccola proprio! :p
diciamo che se non provi meglio non ripetere quello che dice la gente, molti parlano per sentito dire e non conviene mettersi in lista :)
fa troppo caldo e non c'ho più l'età (ero già vecchio quando mi sono iscritto al forum, eh) per pensare in maniera indipendente... mi adeguo stancamente alla massa, sorry! :O
:sofico:
AceGranger
21-08-2018, 19:02
pigliati una 1080ti nuova o usata...hai piu vram e forse piu prestazioni di una 2070..anzi senza forse
2070 e 2080 sono castred in vram
se giochi a 4k
gia ora vi sono giochi che occupano piu di 8gb vram
basta prenderne 2 e ( al 90% ) hai 16GB :O
appleroof
21-08-2018, 19:03
Guarda Apple...spero che non abbiano veramente solo fatto marketing scalando di classe la nuova 2080 chiamandola 2080Ti e rimandato la vera 2080ti alla 7nm come mi è stato ventilato da persone di solito bene informate.
Si tratta solo di avere pazienza ed aspettare le prove vere.
Inviato dal vivavoce della mia Daf Variomatic
Questo non credo (cit.) :D
Il chip è troppo complesso per essere il #104 però le novità introdotte rispetto alla successione kepler/pascal (rt, tensor core etc) sono tali da "sballare" ogni considerazione, ovviamente qui ci vorrebbero più tecnici di me, tipo Mike
techsaskia
21-08-2018, 19:03
'na bazzeccola proprio! :p
fa troppo caldo e non c'ho più l'età (ero già vecchio quando mi sono iscritto al forum, eh) per pensare in maniera indipendente... mi adeguo stancamente alla massa, sorry! :O
:sofico:
Oh tu hai detto che non giochi più ma nello stesso tempo hai detto che lo SLI è morto, quindi sulla base del sentito dire. Cmq amici come prima, libero pensiero libertà di espressione 😃
techsaskia
21-08-2018, 19:08
Questo non credo (cit.) :D
Il chip è troppo complesso per essere il #104 però le novità introdotte rispetto alla successione kepler/pascal (rt, tensor core etc) sono tali da "sballare" ogni considerazione, ovviamente qui ci vorrebbero più tecnici di me, tipo Mike
Sono impaziente di sapere se rt graverà parecchio sulla CPU.
Sinceramente vorrei aggiornare il mio 5930K ma non sapendo cosa prendere sto aspettando una scusa.
Alla fine i nuovi mainstream vanno bene con i videogiochi ma in ambito produttività/vm vanno come i vecchi haswell-e.
I nuovi hedt per il gaming manco a pensarci che sono peggio dei vecchi.
Che brutto periodo per il PC gaming.
Schede grafiche fuori di melone, CPU troppo focalizzate su un settore particolare, monitor ancora più fuori di melone.
techsaskia
21-08-2018, 19:10
basta prenderne 2 e ( al 90% ) hai 16GB :O
Attenzione che i furbetti di Nvidia hanno rimosso il supporto nvlink con le 2070
Kostanz77
21-08-2018, 19:15
Sono impaziente di sapere se rt graverà parecchio sulla CPU.
Sinceramente vorrei aggiornare il mio 5930K ma non sapendo cosa prendere sto aspettando una scusa.
Alla fine i nuovi mainstream vanno bene con i videogiochi ma in ambito produttività/vm vanno come i vecchi haswell-e.
I nuovi hedt per il gaming manco a pensarci che sono peggio dei vecchi.
Che brutto periodo per il PC gaming.
Schede grafiche fuori di melone, CPU troppo focalizzate su un settore particolare, monitor ancora più fuori di melone.
Ti rispondo dicendoti semplicemente....non te lo sta prescrivendo il medico:D
edit_user_name_here
21-08-2018, 19:16
sempre il solito tormentone,
hanno fatto bene a vendervi la scheda di fascia alta al prezzo di due fasce alte in SLI. :rolleyes:
io personalmente da anni gioco solo titoli tripla a e qualche indy e non ho mai visto un titolo tripla a non supportare lo SLI, l'unica eccezione è stata origins.
quindi per la mia esperienza dire che lo SLI è morto è semplicemente inesatto. poi discutete pure quanto vi pare, magari voi giocate il 99% dei giochi in cui lo SLI non funziona.
però non è che se a te non funziona allora lo SLI è morto, non è che ci stanno solo i giochi che giochi tu :D
Si ma in quelli che funzionano non va il doppio comunque.Dunque non vale sempre la candela.E poi non si può utilizzare il g sync nel vecchio ma sul nuovo non so.
prima con lo SLI spendevi 1200€ e stavi bene 2 anni se non di più,
adesso con la scheda super veloce la devi cambiare ogni anno e spendi sempre 1200€... ottimo affare. :sofico:
Veramente io dopo un anno e l'uscita della 1080 ti ero già lento x) sinceramente preferisco una scheda ora anche se devo prenderla un altra l'anno dopo se ci sono novità generazionale in campo di tecnologie.Come ora.
Sono impaziente di sapere se rt graverà parecchio sulla CPU.
Sinceramente vorrei aggiornare il mio 5930K ma non sapendo cosa prendere sto aspettando una scusa.
Alla fine i nuovi mainstream vanno bene con i videogiochi ma in ambito produttività/vm vanno come i vecchi haswell-e.
I nuovi hedt per il gaming manco a pensarci che sono peggio dei vecchi.
Che brutto periodo per il PC gaming.
Schede grafiche fuori di melone, CPU troppo focalizzate su un settore particolare, monitor ancora più fuori di melone.
Mah io non lo vedo che sia brutto.Magari costa di più, e c'è più incertezza, ma non vuol dire che sia brutto.Ancora non sono usciti i test poi dai :)
Attenzione che i furbetti di Nvidia hanno rimosso il supporto nvlink con le 2070
Vabbe tanto non è che conviene tanto la 2070 :)
Ti rispondo dicendoti semplicemente....non te lo sta prescrivendo il medico:D
L'ho hanno già detto a lui.Forse era un altro utente XD non so se sei tu lol.Ah scritto troppa gente :)
techsaskia
21-08-2018, 19:19
oh domani parto per una minigita di qualche giorno, se non mi sentite sappiate che cmq la mia vena polemica regnerà sul thread...
se escono i bench mandatemi un PVT... :sofico:
https://vignette.wikia.nocookie.net/nonciclopedia/images/d/d7/Jerry_Polemica.jpg
appleroof
21-08-2018, 19:28
Sono impaziente di sapere se rt graverà parecchio sulla CPU.
Sinceramente vorrei aggiornare il mio 5930K ma non sapendo cosa prendere sto aspettando una scusa.
Alla fine i nuovi mainstream vanno bene con i videogiochi ma in ambito produttività/vm vanno come i vecchi haswell-e.
I nuovi hedt per il gaming manco a pensarci che sono peggio dei vecchi.
Che brutto periodo per il PC gaming.
Schede grafiche fuori di melone, CPU troppo focalizzate su un settore particolare, monitor ancora più fuori di melone.
Non credo graverà sulla cpu, sarebbe una spremuta di sangue :D (aspetta conferme però)
Io il mio 5820 lo tengo stretto qualche altro tempo, se però dovessi cambiare oggi forse mi orienterei sui ryzen
amon.akira
21-08-2018, 19:31
perchè non c'è ancora abbastanza potenza computazionale, ma se tu avessi un gioco full RT come la demo di Star Wars credo che non staresti li molto a guardare la risoluzione, visto che in linea teorica potresti avere un gioco in qualita cinematografica, se ci fosse abbastanza potenza.....
se non sbaglio la demo di star wars era sempre raster+rt (gi+shadows+reflections) e giustifica i 22fps a 1080p
edit_user_name_here
21-08-2018, 19:47
oh domani parto per una minigita di qualche giorno, se non mi sentite sappiate che cmq la mia vena polemica regnerà sul thread...
se escono i bench mandatemi un PVT... :sofico:
https://vignette.wikia.nocookie.net/nonciclopedia/images/d/d7/Jerry_Polemica.jpg
Allora dobbiamo stappare una bottiglia di champagne :D
techsaskia
21-08-2018, 19:52
Allora dobbiamo stappare una bottiglia di champagne :D
sei cattivo :sofico:
AceGranger
21-08-2018, 19:53
se non sbaglio la demo di star wars era sempre raster+rt (gi+shadows+reflections) e giustifica i 22fps a 1080p
si con FULL intendevo il pacchetto "FULL" attuale.
un game totalmente RT da capo a piedi non credo sia possibile perchè andrebbero riscritti quasi in toto gli attuali Game Engine; sarebbe come avere un classico motore di render GPGPU
Per Star Wars il pacchetto comprendeva:
● Textured area lights
● Ray-traced area light shadows
● Ray-traced reflections
● Ray-traced ambient occlusion
● Cinematic depth of field (DOF)
● NVIDIA GameWorks ray tracing denoising
e presumo che i materiali fossero BPR in MDL di nVidia che, se va avanti cosi, mi sa che diventeranno lo standard del settore, anche perchè stranamente li ha resi OPEN :asd:
edit_user_name_here
21-08-2018, 20:29
sei cattivo :sofico:
Molto :D
Apparte questo raga ma dicevate che anche the division 2 era con questa tecnologia?Perchè su uplay è uscito il preordine e chi lo fa prova la beta.
Sarebbe curioso provare ste schede su sto gioco per vedere come funziona(se sfrutta la nuova tecnologia intendo).
Sebbene non sia un gioco revoluzionario.
Molto :D
Apparte questo raga ma dicevate che anche the division 2 era con questa tecnologia?Perchè su uplay è uscito il preordine e chi lo fa prova la beta.
Sarebbe curioso provare ste schede su sto gioco per vedere come funziona(se sfrutta la nuova tecnologia intendo).
Sebbene non sia un gioco revoluzionario.
Per quel che costano ste schede, noin meriteberrero nemmeno di esser testate: sono semplicemente un insulto all'intelletto degli acquirenti:mad: :mad: :mad:
edit_user_name_here
21-08-2018, 20:43
Per quel che costano ste schede, noin meriteberrero nemmeno di esser testate: sono semplicemente un insulto all'intelletto degli acquirenti:mad: :mad: :mad:
Come fai a dire che è un insulto se non le provi neanche?Mah sinceramente io non capisco ste cose.Posso capire se non le vuoi provare tu ma fallo provare almeno agli altri.Se poi non vuoi comprarle è una tua scelta.Non bisogna comprare per forza l'ultima cosa uscita top.
techsaskia
21-08-2018, 20:45
Come fai a dire che è un insulto se non le provi neanche?Mah sinceramente io non capisco ste cose.Posso capire se non le vuoi provare tu ma fallo provare almeno agli altri.Se poi non vuoi comprarle è una tua scelta.Non bisogna comprare per forza l'ultima cosa uscita top.
io non capisco invece che senso ha presentare una scheda senza dare un benchmark. poi ovvio che la gentesi arrabbia e sparla :sofico:
ai gamers gli devi tappare la bocca con i benchmark sennò diventano come jerry polemica
edit_user_name_here
21-08-2018, 20:46
io non capisco invece che senso ha presentare una scheda senza dare un benchmark. poi ovvio che la gentesi arrabbia e sparla :sofico:
ai gamers gli devi tappare la bocca con i benchmark sennò diventano come jerry polemica
Sparlare senza sapere cmq non è normale uguale XD
bronzodiriace
21-08-2018, 20:49
Hmmmmm, a sto giro non so se scegliere nvidia FE (che trovo sexi), EVGA o Asus :mc:
Anche Aorus :cool: per stare in linea con la mia (futura) mobo Z370 Gaming 7
https://www.youtube.com/watch?v=yokIHPGLZ9E&feature=youtu.be
Dici?
A £1099 e' anche quella che mi costerebbe meno di tutte da subito (o insomma, c'e' il preorder) :fagiano:
ecco ora mi hai ucciso, ho anche io la aorus gaming 7 z370 e la 1080ti aorus extreme, come potrei mai prendere una 2080ti non aorus?
Già la 1080ti aorus extreme è realmente una delle migliori 1080ti in circolazione se non la migliore e si abbina da dio con la mobo ed il sfotware rgb fusion, ma se penso alla 2080ti vedo i 1500 euro che volano......:sofico: :muro:
AceGranger
21-08-2018, 20:57
Attenzione che i furbetti di Nvidia hanno rimosso il supporto nvlink con le 2070
pensavo parlasse di 1080 :stordita:
bronzodiriace
21-08-2018, 21:07
La vedo così, con le nuove feature attive i 1080p sono lo starting point, ci saranno assolutamente miglioramenti via driver. Successivamente, con il nuovo nodo, possibilità di produrre più GR etc lo scalino del 1080p potrebbe essere superato già dalla next gen passando al quad hd come base per i test.
Se vogliamo qualcosa di altamente sofisticato, come fu crysis all'epoca, ci deve essere sempre un inizio. E' come se dovessimo dimeticare le risoluzioni quad hd e 4k, 120-144hz e compagnia.
Mica si potevano presentare con una gpu da 10k euro per il RT a 4k 60fps
scorpion73
21-08-2018, 21:15
La vedo così, con le nuove feature attive i 1080p sono lo starting point, ci saranno assolutamente miglioramenti via driver. Successivamente, con il nuovo nodo, possibilità di produrre più GR etc lo scalino del 1080p potrebbe essere superato già dalla next gen passando al quad hd come base per i test.
Se vogliamo qualcosa di altamente sofisticato, come fu crysis all'epoca, ci deve essere sempre un inizio. E' come se dovessimo dimeticare le risoluzioni quad hd e 4k, 120-144hz e compagnia.
Mica si potevano presentare con una gpu da 10k euro per il RT a 4k 60fps
Sono d'accordo con te, ma tenere i 1080P in RT a 30 frames o poco più francamente mi sembra ridicolo, sei al limite dell'ingiocabilità specie con alcuni tipi di giochi.
Almeno i 60 frames li devi fare anche perché questi sono i primi giochi che usano la feature, quindi nemmeno in modo spinto.
Con i prossimi che fai, vai al rallentatore?
Poi oh, parliamo della 2080ti, eh, perché la 2080 a sto punto manco la consideri per questa cosa, la 2070 ancora peggio....
Mi auguro che quando la scheda uscirà per le revisioni ci siano giochi ottimizzati e situazioni migliorate via driver: se mi tiene i 50/60 frames in 1080P con RT attivo un pensierino ce lo faccio, altrimenti resto con la 1080TI che mi sta dando grosse soddisfazioni e punto direttamente ai 7nm.
sertopica
21-08-2018, 21:19
Ma poi, chi ha un monitor 2k o piu', gli tocca giocare in res downscalata e blurrata per attivare gli effetti aggiuntivi? Ci deve essere un'altra soluzione al problema... A parte disattivare il RT. :asd:
bronzodiriace
21-08-2018, 21:20
Sono d'accordo con te, ma tenere i 1080P in RT a 30 frames o poco più francamente mi sembra ridicolo, sei al limite dell'ingiocabilità specie con alcuni tipi di giochi.
Almeno i 60 frames li devi fare anche perché questi sono i primi giochi che usano la feature, quindi nemmeno in modo spinto.
Con i prossimi che fai, vai al rallentatore?
Poi oh, parliamo della 2080ti, eh, perché la 2080 a sto punto manco la consideri per questa cosa, la 2070 ancora peggio....
Mi auguro che quando la scheda uscirà per le revisioni ci siano giochi ottimizzati e situazioni migliorate via driver: se mi tiene i 50/60 frames in 1080P con RT attivo un pensierino ce lo faccio, altrimenti resto con la 1080TI che mi sta dando grosse soddisfazioni e punto direttamente ai 7nm.
scorpion a nudo e crudo la demo di tr stava tra i 33 e 41fps, non proprio trenta in croce dai :D
All'uscita sicuramente migliorerà qualcosa, ma non credo che si possa arrivare a 60fps qhd ;)
edit_user_name_here
21-08-2018, 21:21
Mi correggo.The division 2 è solo il preorder sotto, in piccolo, c'è scritto che la beta esce a marzo xD
Sono d'accordo con te, ma tenere i 1080P in RT a 30 frames o poco più francamente mi sembra ridicolo, sei al limite dell'ingiocabilità specie con alcuni tipi di giochi.
Almeno i 60 frames li devi fare anche perché questi sono i primi giochi che usano la feature, quindi nemmeno in modo spinto.
Con i prossimi che fai, vai al rallentatore?
Poi oh, parliamo della 2080ti, eh, perché la 2080 a sto punto manco la consideri per questa cosa, la 2070 ancora peggio....
Mi auguro che quando la scheda uscirà per le revisioni ci siano giochi ottimizzati e situazioni migliorate via driver: se mi tiene i 50/60 frames in 1080P con RT attivo un pensierino ce lo faccio, altrimenti resto con la 1080TI che mi sta dando grosse soddisfazioni e punto direttamente ai 7nm.
Secondo me ci saranno.Devono solo essere ottimizzati.Forse per questo non sono usciti i benchmark.
Cioè che senso ha fare pubblicità a questa tecnologia e poi fare una brutta figura del genere?Non è da nvidia sicuramente sarà meglio quando ottimizzano :)
Edit: Pensa se fa questa figuraccia.Perderebbero troppo nelle clientele e tutti a fare i resi.Secondo me non andrà a finire cosi e penso che ci avranno pensato molto bene ma vedremo poi.
Ragazzi, per caso qualcuno sa indicarmi dove poter vedere la presentazione al Gamescom di ieri sottotitolata in inglese?
Grazie!
Inviato dal mio Mi A1 utilizzando Tapatalk
scorpion73
21-08-2018, 21:31
scorpion a nudo e crudo la demo di tr stava tra i 33 e 41fps, non proprio trenta in croce dai :D
All'uscita sicuramente migliorerà qualcosa, ma non credo che si possa arrivare a 60fps qhd ;)
E dai su, son sempre 35 di media, cambia poco no? Anche perché non sappiamo che settaggio di dettaglio c'era :)
E comunque io non ho detto 60fps qhd, ho detto 60fps fhd
Mi correggo.The division 2 è solo il preorder sotto, in piccolo, c'è scritto che la beta esce a marzo xD
Comunque il gioco merita e quindi l'ho preordinato lo stesso :D
Secondo me ci saranno.Devono solo essere ottimizzati.Forse per questo non sono usciti i benchmark.
Cioè che senso ha fare pubblicità a questa tecnologia e poi fare una brutta figura del genere?Non è da nvidia sicuramente sarà meglio quando ottimizzano :)
Edit: Pensa se fa questa figuraccia.Perderebbero troppo nelle clientele e tutti a fare i resi.Secondo me non andrà a finire cosi e penso che ci avranno pensato molto bene ma vedremo poi.
Eh beh, sinceramente non ci guadagnerebbe d'immagine, certo.
Però mi ricordo che in passato situazioni simili ci sono state: La FX5800, la GTX 480, insomma, di figure barbine ce ne sono state eh, e non è detto che non c'è due senza tre, anche se io mi auguro vivamente di no.
Vedremo le recensioni che diranno, saranno quelle il vero banco di prova.
fireradeon
21-08-2018, 21:32
Our friends over at PCGamesHardware have shared an off-camera video, showing the game running with real-time ray tracing on an NVIDIA GeForce RTX 2080Ti. Thankfully, a FRAPS overlay was present and we can see that this new GPU can run the game with 30-70fps.
For the majority of the short video, Shadow of the Tomb Raider ran with 40fps. Not silky smooth, right? The NVIDIA GeForce RTX 2080Ti was able to push more than 60fps when Lara was facing a wall but I’m pretty sure that PC gamers will want to admire the environments instead of looking at the sky or the ground so that they can run the game smoothly. When solving puzzles and exploring the environments, the framerate was between 30fps and 45fps.
Non dovrei dirlo ma..... ve l'avevo detto!!
:D e tomb raider non ha il ray tracing ma quello che ha chiamato ray shadow o qualcosa di simile cioé incide solo sulle ombre
!!
Con metro Exodus non basterà nemmeno lo SLI di 2080ti a farlo girare decentemente con RTX on.
Ragazzi non fatevi fregare. Tenetevi le 1080 o prendere una 1080 Ti a 500 euro usata. Queste sono schede spenna soldi che scaldano un botto e consumano altrettanto, incapaci di far girare un gioco a 60fps con RTX on (media tra 30 e 45 fps a 1080P :( ).
Se disattivate l'opzione avete un gioco normale che già con la 1080Ti fate girare in 4k magari non a 60fps ma basta levare 2 stronzate inutili e ci arrivate se proprio li volete sti 60fps.
edit_user_name_here
21-08-2018, 21:33
E dai su, son sempre 35 di media, cambia poco no? :)
Comunque il gioco merita e quindi l'ho preordinato lo stesso :D
Eh beh, sinceramente non ci guadagnerebbe d'immagine, certo.
Però mi ricordo che in passato situazioni simili ci sono state: La FX5800, la GTX 480, insomma, di figure barbine ce ne sono state eh, e non è detto che non c'è due senza tre, anche se io mi auguro vivamente di no.
Vedremo le recensioni che diranno, saranno quelle il vero banco di prova.
Non a tutti quelli che hanno giocato the division 1 prendono il 2 perchè non li sono piaciuti la storia dei cheater, dei nerf ed altro che ora non mi ricordo.
Al riguardo della nvidia io non credo che se hanno fatto errori all'epoca, io non ero ancora con nvidia dunque non c'ero, vuol dire che lo rifanno cioè dopo una lezione si impara :) ma secondo me avranno fatto bene in conti.
Comunque vedremo.
Our friends over at PCGamesHardware have shared an off-camera video, showing the game running with real-time ray tracing on an NVIDIA GeForce RTX 2080Ti. Thankfully, a FRAPS overlay was present and we can see that this new GPU can run the game with 30-70fps.
For the majority of the short video, Shadow of the Tomb Raider ran with 40fps. Not silky smooth, right? The NVIDIA GeForce RTX 2080Ti was able to push more than 60fps when Lara was facing a wall but I’m pretty sure that PC gamers will want to admire the environments instead of looking at the sky or the ground so that they can run the game smoothly. When solving puzzles and exploring the environments, the framerate was between 30fps and 45fps.
Non dovrei dirlo ma..... ve l'avevo detto!!
:D e tomb raider non ha il ray tracing ma quello che ha chiamato ray shadow o qualcosa di simile cioé incide solo sulle ombre
!!
Con metro Exodus non basterà nemmeno lo SLI di 2080ti a farlo girare decentemente con RTX on.
Ragazzi non fatevi fregare. Tenetevi le 1080 o prendere una 1080 Ti a 500 euro usata. Queste sono schede spenna soldi che scaldano un botto e consumano altrettanto, incapaci di far girare un gioco a 60fps con RTX on (media tra 30 e 45 fps a 1080P :( ).
Se disattivate l'opzione avete un gioco normale che già con la 1080Ti fate girare in 4k magari non a 60fps ma basta levare 2 stronzate inutili e ci arrivate se proprio li volete sto 60fps.
Per mia esperienza bisogna aspettare i test mi sembra strana sta cosa.Inoltre sicuramente miglioreranno lato driver perchè è una cosa nuova d'altronde.Se non migliorano allora passo anche io ma ricordatevi che non è una buona notizia ugualmente :) meglio se funziona ;)
Thunder-74
21-08-2018, 21:37
E dai su, son sempre 35 di media, cambia poco no? Anche perché non sappiamo che settaggio di dettaglio c'era :)
E comunque io non ho detto 60fps qhd, ho detto 60fps fhd
Comunque il gioco merita e quindi l'ho preordinato lo stesso :D
Eh beh, sinceramente non ci guadagnerebbe d'immagine, certo.
Però mi ricordo che in passato situazioni simili ci sono state: La FX5800, la GTX 480, insomma, di figure barbine ce ne sono state eh, e non è detto che non c'è due senza tre, anche se io mi auguro vivamente di no.
Vedremo le recensioni che diranno, saranno quelle il vero banco di prova.
Forse la figura peggiore la fecero con la 970 e i suoi 4 giga farlocchi
Inviato dal mio iPad utilizzando Tapatalk
scorpion73
21-08-2018, 21:38
Forse la figura peggiore la fecero con la 970 e i suoi 4 giga farlocchi
Inviato dal mio iPad utilizzando Tapatalk
Ah è vero, quella l'avevo rimossa....
edit_user_name_here
21-08-2018, 21:39
Mi ero dimenticato che the division 2 ci sono 3 versioni ma non ho capito niente di cosa aggiungono.Cmq aspetto che arrivi su steam prima :)
Forse la figura peggiore la fecero con la 970 e i suoi 4 giga farlocchi
Inviato dal mio iPad utilizzando Tapatalk
L'ho sentita anche io sta cosa ma non me la ricordo bene :) ho 2 970 ed ancora una in funzione sul secondo pc in full hd.
bronzodiriace
21-08-2018, 21:39
però la 480gtx era una belva, tralasciando calori e consumi.
All'epoca avrei dovuto provare il downvolt su Fermi, come stiamo facendo un po tutti con le pasqual
riguardo TR io credo che a 1080p si avvicineranno ai 50/60fps altrimenti si è tostarella considerato anche il limite minimo del g-sync
fireradeon
21-08-2018, 21:40
Per mia esperienza bisogna aspettare i test mi sembra strana sta cosa.Inoltre sicuramente miglioreranno lato driver perchè è una cosa nuova d'altronde.Se non migliorano allora passo anche io ma ricordatevi che non è una buona notizia ugualmente :) meglio se funziona ;)
Ok aspettiamo ma secondo te via driver in un gioco che esce tra 20 giorni e 7 giorni dopo escono le vga ti fanno passare i fps da 35/45 In 1080P a 50fps in 1440p (perché se va meno su una 2080ti è la scheda pacco per eccellenza)?
L'unica cosa che si può sperare è che sia una notizia fake o semi-fake.
Invece penso che sarà vero e si era capito nella presentazione. Ha dato dei numeri solo per sparare fumo e niente slide se non sul ray tracing che non vuol dire niente perché lo ha paragonato con il niente (2080ti vs 1080ti che non é stata creata per quello e tutti ohhhhh) ha aperto i preorder, la gente tutta a comprare e il 20 quando usciranno le rece ci sarà solo tomb raider con una assaggio del ray tracing (solo sulle ombre) sempre mattone ma ormai il danno per noi sarà fatto.
edit_user_name_here
21-08-2018, 21:43
Ok aspettiamo ma secondo te via driver in un gioco che esce tra 20 giorni e 7 giorni dopo escono le vga ti fanno passare i fps da 35/45 In 1080P a 50fps in 1440p (perché se va meno su una 2080ti è la scheda pacco per eccellenza)?
L'unica cosa che si può sperare è che sia una notizia fake o semi-fake.
Se cmq fallisce l'intento di fare funzionare bene le cose in queste schede non è detto che fixano il problema nelle prossime.Magari migliorano ma non è detto che lo risolve del tutto.
Dunque meglio sperare che funzionano.
sertopica
21-08-2018, 21:47
https://www.dsogaming.com/news/nvidia-geforce-rtx-2080ti-unable-to-run-shadow-of-the-tomb-raider-with-60fps-at-1080p-with-rtx-on/
I programmatori di TR hanno reagito al video, a detta loro si tratta ancora di un'implementazione non ottimizzata delle nuove features, vai a capire se e' vero. :stordita:
Per ora considero questa tecnologia alla stregua di tutte le altre tecnologie proprietarie ammazza frames, per quanto si tratti di un'enorme passo in avanti.
In un paio di generazioni forse se la potranno godere tutti.
scorpion73
21-08-2018, 21:47
però la 480gtx era una belva, tralasciando calori e consumi.
Io ce l'ho avuta, la potenza c'era ma sinceramente non ci si giocava perché scaldava da cuocere le bistecche, e dopo un po' dovevi spegnere perché ti mandava a fuoco il PC e faceva un casino boia.
Il mio acquisto più errato (la FX5800 mi salvai perché intuii che era una cagata pazzesca e non la comprai).
Se non è una FAIL quello allora non so. Infatti quasi subito dopo fecero la 580 che era la vera Fermi ed era una bestia, misi su uno SLI durò quasi tre anni e andava da Dio.
riguardo TR io credo che a 1080p si avvicineranno ai 50/60fps altrimenti si è tostarella considerato anche il limite minimo del g-sync
Ne dubito dai primi test, me lo auguro ma ne dubito fortemente
edit_user_name_here
21-08-2018, 21:51
Io ce l'ho avuta, la potenza c'era ma sinceramente non ci si giocava perché scaldava da cuocere le bistecche, e dopo un po' dovevi spegnere perché ti mandava a fuoco il PC e faceva un casino boia.
Il mio acquisto più errato (la FX5800 mi salvai perché intuii che era una cagata pazzesca e non la comprai).
Se non è una FAIL quello allora non so. Infatti quasi subito dopo fecero la 580 che era la vera Fermi ed era una bestia, misi su uno SLI durò quasi tre anni e andava da Dio.
Ne dubito dai primi test, me lo auguro ma ne dubito fortemente
Il g sync è utilizzabile insieme a questa nuova tecnologia?
Biscottoman
21-08-2018, 21:52
Ragazzi comunque girando un po' sull'internet e sui siti dei vari AIB per quanto ancora si sappia davvero poco delle custom, pare che a sto giro la FE sarà davvero un'alternativa da non sottovalutare in particolar modo non mi pare di vedere (sempre per quel poco che è mostrato) grandi migliorie di clock dei vari partner, un esempio? Il boost clock della 2080ti zotac triple fan (non AMP!) è di appena 1545Mhz o almeno così è indicato sul sito della zotac stessa. Trovo il tutto molto strano, sembra quasi che nvidia si sia messa a fare competizione con i suoi stessi partner.
scorpion73
21-08-2018, 21:53
Ragazzi comunque girando un po' sull'internet e sui siti dei vari AIB per quanto ancora si sappia davvero poco delle custom, pare che a sto giro la FE sarà davvero un'alternativa da non sottovalutare in particolar modo non mi pare di vedere (sempre per quel poco che è mostrato) grandi migliorie di clock dei vari partner, un esempio? Il boost clock della 2080ti zotac triple fan (non AMP!) è di appena 1545Mhz o almeno così è indicato sul sito della zotac stessa. Trovo il tutto molto strano, sembra quasi che nvidia si sia messa a fare competizione con i suoi stessi partner.
Vediamo prima come dissipa e poi ne parliamo
Biscottoman
21-08-2018, 21:56
Vediamo prima come dissipa e poi ne parliamo
Si beh su quel lato è ancora tutto da decidere, ma anzi direi che anche lato specifiche è ancora molto insicura la cosa; però sono dati interessanti
techsaskia
21-08-2018, 21:59
Io ce l'ho avuta, la potenza c'era ma sinceramente non ci si giocava perché scaldava da cuocere le bistecche, e dopo un po' dovevi spegnere perché ti mandava a fuoco il PC e faceva un casino boia.
Il mio acquisto più errato (la FX5800 mi salvai perché intuii che era una cagata pazzesca e non la comprai).
Se non è una FAIL quello allora non so. Infatti quasi subito dopo fecero la 580 che era la vera Fermi ed era una bestia, misi su uno SLI durò quasi tre anni e andava da Dio.
Ne dubito dai primi test, me lo auguro ma ne dubito fortemente
Bei tempi quando con 1200€ compravi uno SLI che ti permetteva di giocare top per anni. Lo SLI era un investimento e soprattutto appena montato sapevi che potevi scordarti i requisiti di sistema per qualche anno tanto tu stavi super pompato.
Mo invece la gente preferisce lo schedine da 1200€ che dura un anno.
Poverannoi. Ma possiamo vincere la guerra noi? Manco a call of duty la vinciamo di questo passo
fireradeon
21-08-2018, 22:04
Se cmq fallisce l'intento di fare funzionare bene le cose in queste schede non è detto che fixano il problema nelle prossime.Magari migliorano ma non è detto che lo risolve del tutto.
Dunque meglio sperare che funzionano.
Secondo me non è questione di fix ma proprio non basta la potenza. Ieri l'unico confronto è stato con sti cacchio di Gigarays che la 2080ti ne ha 10 e la 1080ti 1.2, ma grazie alla Peppa é una scheda non pensata per quello e a cui manca proprio l'architettura adatta.
Allora confrotna pure uno stambecco con una mucca a sto punto, le corna le hanno tutti e due ma guarda lo stambecco come si arrampica. :rolleyes:
edit_user_name_here
21-08-2018, 22:12
Bei tempi quando con 1200€ compravi uno SLI che ti permetteva di giocare top per anni. Lo SLI era un investimento e soprattutto appena montato sapevi che potevi scordarti i requisiti di sistema per qualche anno tanto tu stavi super pompato.
Mo invece la gente preferisce lo schedine da 1200€ che dura un anno.
Poverannoi. Ma possiamo vincere la guerra noi? Manco a call of duty la vinciamo di questo passo
In realtà io ho avuto dei limiti di frame subito dall'inizio con lo sli.
Al riguardo della scheda per me va bene per chi se la cambia più spesso invece di consumare di più con due.Se a te non sta bene non devi comperarlo.Te l'hanno detto anche altre persone :)
Secondo me non è questione di fix ma proprio non basta la potenza. Ieri l'unico confronto è stato con sti cacchio di Gigarays che la 2080ti ne ha 10 e la 1080ti 1.2, ma grazie alla Peppa é una scheda non pensata per quello e a cui manca proprio l'architettura adatta.
Allora confrotna pure uno stambecco con una mucca a sto punto, le corna le hanno tutti e due ma guarda lo stambecco come si arrampica. :rolleyes:
Di queste cose non me ne intendo, intendo di numeri, dunque vediamo quando ci saranno test fatti da persone vere :) o comunque, diciamo, comuni mortali XD
edit_user_name_here
21-08-2018, 22:23
Ci sei andato un po troppo giu pesante secondo me :asd:
Vedetela così Nvidia vi ha fatto un enorme favore, risparmierete fior fior di soldi dato che basterà un monitor full hd :sofico:
edit_user_name_here
21-08-2018, 22:24
Vedetela così Nvidia vi ha fatto un enorme favore, risparmierete fior fior di soldi dato che basterà un monitor full hd :sofico:
Grande XD io cmq, per sfizio, me lo prendo l'omen x65 lo stesso tiè :P
Ton90maz
21-08-2018, 22:26
credo che ci avrebbero potuto infilare +/- 8000 CUDA, ammesso di starci dentro con il TDP.
la ram invece non è un problema di dimensione del chip, potrebbero tranquillamente raddoppiare tutte le ram, visto che stanno usando chip da 1Gb quando in circolazione ci sono quelli da 2 GB.
perchè non c'è ancora abbastanza potenza computazionale, ma se tu avessi un gioco full RT come la demo di Star Wars credo che non staresti li molto a guardare la risoluzione, visto che in linea teorica potresti avere un gioco in qualita cinematografica, se ci fosse abbastanza potenza.....
si ma 4K, con 4 poligoni e texture compresse come se non ci fosse un domani...
Non è per la dimensione in sè ma per il costo delle ram aggiuntive
E' il "4k" ottenibile da una rx 580 non castrata dalla banda passante, da qui possiamo fare qualche stima e vediamo che il 1080p a 60 fps è perfettamente alla portata della gpu (o lo sarebbe con una cpu decente) quindi si finirebbe ad avere circa una grafica da console + raytracing con pure il frame rate castrato.
Ma al di là di tutto, molti la menano sulla putenza senza compromessi, il 1080p è per sfigati, voglio la 1080 ti per il 4kakka ecc e ora si torna al full hd? Per questo penso che anche a 60 fps col rt sarebbe ridicolo.
Our friends over at PCGamesHardware have shared an off-camera video, showing the game running with real-time ray tracing on an NVIDIA GeForce RTX 2080Ti. Thankfully, a FRAPS overlay was present and we can see that this new GPU can run the game with 30-70fps.
For the majority of the short video, Shadow of the Tomb Raider ran with 40fps. Not silky smooth, right? The NVIDIA GeForce RTX 2080Ti was able to push more than 60fps when Lara was facing a wall but I’m pretty sure that PC gamers will want to admire the environments instead of looking at the sky or the ground so that they can run the game smoothly. When solving puzzles and exploring the environments, the framerate was between 30fps and 45fps.
Non dovrei dirlo ma..... ve l'avevo detto!!
:D e tomb raider non ha il ray tracing ma quello che ha chiamato ray shadow o qualcosa di simile cioé incide solo sulle ombre
!!
Con metro Exodus non basterà nemmeno lo SLI di 2080ti a farlo girare decentemente con RTX on.
Ragazzi non fatevi fregare. Tenetevi le 1080 o prendere una 1080 Ti a 500 euro usata. Queste sono schede spenna soldi che scaldano un botto e consumano altrettanto, incapaci di far girare un gioco a 60fps con RTX on (media tra 30 e 45 fps a 1080P :( ).
Se disattivate l'opzione avete un gioco normale che già con la 1080Ti fate girare in 4k magari non a 60fps ma basta levare 2 stronzate inutili e ci arrivate se proprio li volete sti 60fps.
ma scusa, posti una roba in cui si dice che tomb raider usa il ray tracing, e subito sotto dici che non ha il ray tracing? In ogni caso è presto parlare di prestazioni, bisogna vedere appena escono
techsaskia
21-08-2018, 22:27
Grande XD io cmq, per sfizio, me lo prendo l'omen x65 lo stesso tiè :P
Ma come si usa un monitor 65 pollici?
Con la console?
Con il PC si gioca tastiera e mouse quindi ci vuole una scrivania, come si gioca su una scrivania con un 65 pollici? 😂
Sto diventando troppo vecchio per capire queste cose.
edit_user_name_here
21-08-2018, 22:31
ma scusa, posti una roba in cui si dice che tomb raider usa il ray tracing, e subito sotto dici che non ha il ray tracing? In ogni caso è presto parlare di prestazioni, bisogna vedere appena escono
Io ho visto un video che faceva esempi con rtx on e off poi boh non vorrei sbagliarmi :)
Ma come si usa un monitor 65 pollici?
Con la console?
Con il PC si gioca tastiera e mouse quindi ci vuole una scrivania, come si gioca su una scrivania con un 65 pollici?
Sto diventando troppo vecchio per capire queste cose.
Intendevo per pc :) cmq ho una scrivania adatta per fortuna ho il bekant della ieka quella da 80 per 160 centimetri se non erro e ne ho due anche.
techsaskia
21-08-2018, 22:35
Io ho visto un video che faceva esempi con rtx on e off poi boh non vorrei sbagliarmi :)
Intendevo per pc :) cmq ho una scrivania adatta per fortuna ho il bekant della ieka quella da 80 per 160 centimetri se non erro e ne ho due anche.
Poi facci sapere come va il collo
Io pensavo che un 65 pollici richiedesse almeno 3 metri :D
amon.akira
21-08-2018, 22:38
La vedo così, con le nuove feature attive i 1080p sono lo starting point, ci saranno assolutamente miglioramenti via driver. Successivamente, con il nuovo nodo, possibilità di produrre più GR etc lo scalino del 1080p potrebbe essere superato già dalla next gen passando al quad hd come base per i test.
Se vogliamo qualcosa di altamente sofisticato, come fu crysis all'epoca, ci deve essere sempre un inizio. E' come se dovessimo dimeticare le risoluzioni quad hd e 4k, 120-144hz e compagnia.
Mica si potevano presentare con una gpu da 10k euro per il RT a 4k 60fps
allora per ora le cose stanno così
giochi con 1sola opzione raytraced ciascuno (scelta libera ma insidacabile visto la poca potenza attuale)
Shadow of tomb raider (crystal dinamic ha preso le ombre raytraced, ovviamente chiamandosi "shadow...")
battlefieldv (DICE ha pescato il bastoncino con i riflessi raytraced)
metro (si è beccato il bastoncino piu lungo, global illumination raytraced)
ora in ogni caso si parla di 1080p, sopra questa risoluzione non c'è spazio.
con Shadow of tomb raider abbiamo 40fps medi a 1080p con 2080ti con 78T ops, automaticamente la 2080 e 2070 sono fuori dai giochi, potevano imho pensare solo la 2080ti come RTX, gli altri si dovranno accontentare della scritta sulla scatola.
ora consideriamo le % con RT OFF, in ogni caso anche se in guadagno è da considerare che si sta pagando un CHIP che resterà FORSE per il 50% inutilizzato (RT OFF) almeno nella 2080/2070, forse qualche temerario con la 2080ti potrà vedere qualcosa o qualche folle con uno sli forse riuscirà a giocare 1080p 60 XD
aspettiamo i bench :P
edit
sapendo tutto ciò nvidia a maggio ha sponsorizzato i 4k 144hz hdr g-sync a 3000euro XD
Poi facci sapere come va il collo
Io pensavo che un 65 pollici richiedesse almeno 3 metri :D
Ecco
https://www.youtube.com/watch?v=aj6rT_pIbts
Lunar Wolf
21-08-2018, 22:49
ora in ogni caso si parla di 1080p, sopra questa risoluzione non c'è spazio.
con Shadow of tomb raider abbiamo 40fps medi a 1080p con 2080ti con 78T ops, automaticamente la 2080 e 2070 sono fuori dai giochi, potevano imho pensare solo la 2080ti come RTX, gli altri si dovranno accontentare della scritta sulla scatola.
ora consideriamo le % con RT OFF, in ogni caso anche se in guadagno è da considerare che si sta pagando un CHIP che resterà FORSE per il 50% inutilizzato (RT OFF) almeno nella 2080/2070, forse qualche temerario con la 2080ti potrà vedere qualcosa o qualche folle con uno sli forse riuscirà a giocare 1080p 60 XD
aspettiamo i bench :P
edit
sapendo tutto ciò nvidia a maggio ha sponsorizzato i 4k 144hz hdr g-sync a 3000euro XD
:doh:
maxmix65
21-08-2018, 23:14
Ma vuoi mettere.....la Putenza del RTX :cool:
https://s22.postimg.cc/gp4sts0sd/photo_2018-08-22_00-13-19.jpg (https://postimg.cc/image/gp4sts0sd/)
techsaskia
21-08-2018, 23:22
ho smontato le mie 980 Ti per venderle e messo dentro una vecchia GTX580 giusto per usare il PC nel frattempo che arriva Turing...
il mio case è piccolo, è un vecchissimo LianLi PC-7FNWX in alluminio che però ha raffreddato senza problemi i miei SLI in questi anni (anche grazie alla ventola frontale puntata tra le due schede con apposito pannello frontale)...
nonostante il mio case sia piccolo e compatto, vedere il PC con una scheda sola è un cazzotto ad un occhio.
sembra che ci manca un pezzo. c'è un buco orribile.
non è che mi vendono una turing sample non funzionante giusto per riempire il buco?
mamma quanto è brutto il PC singola scheda. :sofico:
ma poi oggi i case sono pure più grandi, tutti grandi, che ci si fa con i case così grandi se poi si mette una scheda sola?
mikael84
21-08-2018, 23:24
Quindi a spanne direi appaiata alla Titan V?
Alla fine ha meno cuda ma un clock piu' alto....presupponendo chiaramente lo stesso IPC
@Mikael cosa ne pensi?
Grazie delle info. Anche se sulla parte VRM visto quanto berra' una 2080ti non mi sento fiducioso con una sola dissipazione ad aria....
Questo non credo (cit.) :D
Il chip è troppo complesso per essere il #104 però le novità introdotte rispetto alla successione kepler/pascal (rt, tensor core etc) sono tali da "sballare" ogni considerazione, ovviamente qui ci vorrebbero più tecnici di me, tipo Mike
Non dovete nel modo più assoluto paragonare i TF di un'architettura con un'altra:)
Prendete ad esempio Maxwell, dove cambiò tutto sulle unità funzionali e la schedulazione senza dipendenze.
La 970 ha 3,8 TF default, ma supera ormai la 780ti con circa 6tf.
I TF sono solo un dato teorico, che non sta a significare nulla.
Volta/touring, integra i sub warp, dimezza i cicli, ogni cuda può processare il doppio delle istruzioni, ha la l1 unificata (sembra poco ma è tanta roba), e la L2 è doppia, parliamo di 3mbl2 contro 6mbl2, questo sgrava completamente la banda.
Pensate che Maxwell passò dagli 1,5mb ai 2mb, qua si passa dai 3mb (anzi 2,75mb per la 1080ti) a 6mb
-----
Cambia completamente anche la schedulazione interna. Se prima vari cuda lavorano su piccole operazioni, ora un Cuda, può allocarsi tutto il carico sgravando le ALU libere.
----
E' difficile quantificare quanto possa andare, ma se ad oggi, ragionassimo in soli TF e BW, la 2080ti, passerebbe di un 10% la 1080ti:p
-----
Se dovessimo fare un reale paragone alla pari, la 2080ti dovrebbe avere, per mantenere un 20% dalla 1080ti, 4858cc/120 rop's e BW uguale (oltre 600 gb/s):)
Sì, letto anche quello ma mi chiedo che performance avrebbe avuto una scheda solo con unità di calcolo "normali", stessa dimensione o anche leggermente inferiore per ospitare più ram.
Uno schema 14mmq2 inferiore ad un chip da ben 7168cc, con TDP base 400 watt e frequenze estremamente basse.
Per farla girare a 1500 ti sarebbe servito un 2x8 pin + 6 pin, più downclock.
Impossibile da realizzare.:)
Kostanz77
21-08-2018, 23:25
@techsaskia Chiudi il buco con una scheda audio.....😂
Inviato dal mio iPad utilizzando Tapatalk Pro
appleroof
21-08-2018, 23:26
Non dovete nel modo più assoluto paragonare i TF di un'architettura con un'altra:)
Prendete ad esempio Maxwell, dove cambiò tutto sulle unità funzionali e la schedulazione senza dipendenze.
La 970 ha 3,8 TF default, ma supera ormai la 780ti con circa 6tf.
I TF sono solo un dato teorico, che non sta a significare nulla.
Volta/touring, integra i sub warp, dimezza i cicli, ogni cuda può processare il doppio delle istruzioni, ha la l1 unificata (sembra poco ma è tanta roba), e la L2 è doppia, parliamo di 3mbl2 contro 6mbl2, questo sgrava completamente la banda.
Pensate che Maxwell passò dagli 1,5mb ai 2mb, qua si passa dai 3mb (anzi 2,75mb per la 1080ti) a 6mb
-----
Cambia completamente anche la schedulazione interna. Se prima vari cuda lavorano su piccole operazioni, ora un Cuda, può allocarsi tutto il carico sgravando le ALU libere.
----
E' difficile quantificare quanto possa andare, ma se ad oggi, ragionassimo in soli TF e BW, la 2080ti, passerebbe di un 10% la 1080ti:p
-----
Se dovessimo fare un reale paragone alla pari, la 2080ti dovrebbe avere, per mantenere un 20% dalla 1080ti, 4858cc/120 rop's e BW uguale (oltre 600 gb/s):)
Uno schema 14mmq2 inferiore ad un chip da ben 7168cc, con TDP base 400 watt e frequenze estremamente basse.
Per farla girare a 1500 ti sarebbe servito un 2x8 pin + 6 pin, più downclock.
Impossibile da realizzare.:)
Grandissimo Mike, ma quando quoti cerca di cogliere il filo del discorso :sofico:
.:Sephiroth:.
21-08-2018, 23:30
mamma che prezzi...
punterò alla 2070, si sà quando verrà fatta uscire?
c'è già qualche bench in giro che si possa vedere? anche delle 2080/Ti
mikael84
21-08-2018, 23:36
Grandissimo Mike, ma quando quoti cerca di cogliere il filo del discorso :sofico:
Ma si tranquillo Apple:p
Giusto per rendere l'idea.:p
techsaskia
21-08-2018, 23:41
@techsaskia Chiudi il buco con una scheda audio.....😂
Inviato dal mio iPad utilizzando Tapatalk Pro
ma io tengo un altoparlante bluetooth da 20€ e delle cuffie wireless da 180€,
che ci devo fare con la scheda audio? :sofico:
Kostanz77
21-08-2018, 23:49
ma io tengo un altoparlante bluetooth da 20 e delle cuffie wireless da 180,
che ci devo fare con la scheda audio? :sofico:
Almeno fa volume e tappa il buco della 2ª vga mancante😂
Inviato dal mio iPad utilizzando Tapatalk Pro
Non dovete nel modo più assoluto paragonare i TF di un'architettura con un'altra:)
Prendete ad esempio Maxwell, dove cambiò tutto sulle unità funzionali e la schedulazione senza dipendenze.
La 970 ha 3,8 TF default, ma supera ormai la 780ti con circa 6tf.
I TF sono solo un dato teorico, che non sta a significare nulla.
Volta/touring, integra i sub warp, dimezza i cicli, ogni cuda può processare il doppio delle istruzioni, ha la l1 unificata (sembra poco ma è tanta roba), e la L2 è doppia, parliamo di 3mbl2 contro 6mbl2, questo sgrava completamente la banda.
Pensate che Maxwell passò dagli 1,5mb ai 2mb, qua si passa dai 3mb (anzi 2,75mb per la 1080ti) a 6mb
-----
Cambia completamente anche la schedulazione interna. Se prima vari cuda lavorano su piccole operazioni, ora un Cuda, può allocarsi tutto il carico sgravando le ALU libere.
----
E' difficile quantificare quanto possa andare, ma se ad oggi, ragionassimo in soli TF e BW, la 2080ti, passerebbe di un 10% la 1080ti:p
-----
Se dovessimo fare un reale paragone alla pari, la 2080ti dovrebbe avere, per mantenere un 20% dalla 1080ti, 4858cc/120 rop's e BW uguale (oltre 600 gb/s):)
Uno schema 14mmq2 inferiore ad un chip da ben 7168cc, con TDP base 400 watt e frequenze estremamente basse.
Per farla girare a 1500 ti sarebbe servito un 2x8 pin + 6 pin, più downclock.
Impossibile da realizzare.:)Ma infatti il mio paragone era tra volta e turing. Le migliorie che hai descritto presenti in turing non ho capito se erano già presenti in volta o sono una novità? (Non ho seguito la presentazione della titan V e non conosco Volta)
Chiaramente da Pascal le modifiche architetturali non permettono un paragone sensato tra TF.
Inviato dal mio ZTE A2017G utilizzando Tapatalk
techsaskia
21-08-2018, 23:55
Non dovete nel modo più assoluto paragonare i TF di un'architettura con un'altra:)
Prendete ad esempio Maxwell, dove cambiò tutto sulle unità funzionali e la schedulazione senza dipendenze.
La 970 ha 3,8 TF default, ma supera ormai la 780ti con circa 6tf.
I TF sono solo un dato teorico, che non sta a significare nulla.
Volta/touring, integra i sub warp, dimezza i cicli, ogni cuda può processare il doppio delle istruzioni, ha la l1 unificata (sembra poco ma è tanta roba), e la L2 è doppia, parliamo di 3mbl2 contro 6mbl2, questo sgrava completamente la banda.
Pensate che Maxwell passò dagli 1,5mb ai 2mb, qua si passa dai 3mb (anzi 2,75mb per la 1080ti) a 6mb
-----
Cambia completamente anche la schedulazione interna. Se prima vari cuda lavorano su piccole operazioni, ora un Cuda, può allocarsi tutto il carico sgravando le ALU libere.
----
E' difficile quantificare quanto possa andare, ma se ad oggi, ragionassimo in soli TF e BW, la 2080ti, passerebbe di un 10% la 1080ti:p
-----
Se dovessimo fare un reale paragone alla pari, la 2080ti dovrebbe avere, per mantenere un 20% dalla 1080ti, 4858cc/120 rop's e BW uguale (oltre 600 gb/s):)
Uno schema 14mmq2 inferiore ad un chip da ben 7168cc, con TDP base 400 watt e frequenze estremamente basse.
Per farla girare a 1500 ti sarebbe servito un 2x8 pin + 6 pin, più downclock.
Impossibile da realizzare.:)
alla luce di quanto scrivi, quale potrebbe essere un "educated guess" delle prestazioni non RT rispetto a pascal?
techsaskia
22-08-2018, 00:00
Almeno fa volume e tappa il buco della 2ª vga mancante😂
Inviato dal mio iPad utilizzando Tapatalk Pro
tu per esempio tieni quel bestione dell'obsidian che ci metti dentro quel cassone? :D
mikael84
22-08-2018, 00:24
Ma infatti il mio paragone era tra volta e turing. Le migliorie che hai descritto presenti in turing non ho capito se erano già presenti in volta o sono una novità? (Non ho seguito la presentazione della titan V e non conosco Volta)
Chiaramente da Pascal le modifiche architetturali non permettono un paragone sensato tra TF.
Inviato dal mio ZTE A2017G utilizzando Tapatalk
Molte delle migliorie sono presenti nella Volta, sopratutto via sub warp, cicli dimezzati, unità INT FP32 contemporanee, però, c'è un però.
Volta non è un chip gaming, ha una potenza troppo scarsa via geometrica (4 SM accedono ad un P.E), i clock troppo bassi non impegnano le ALU.
Il gigathread deve fare salti mortali, ed i driver non sono pensati proprio per il gaming.
La Titan V vola solo dove il software, devasta gli shader.
Con Touring cambieranno varie cose.:)
alla luce di quanto scrivi, quale potrebbe essere un "educated guess" delle prestazioni non RT rispetto a pascal?
E' praticamente impossibile calcolarlo così, qua non rientriamo più in calcoli matematici a livello di ALU. Bisogna vedere quanto l'efficienza dell'architettura inciderà sul campo.:)
...cmq boh, a me sembrano gli stessi prezzi di lancio di Pascal.
800 euro gp104 full, 600 gp104 tagliato, 1200 la Titan.
Hanno solo rinominato la Titan.
....e aggiunto un porcocane di funzionalità interessanti.
Che erano esagerati, ragion per cui molta gente, incluso il sottoscritto, non le ha prese al lancio, aspettando il naturale deprezzamento nei mesi successivi, che però non è avvenuto a causa del boom mining. Stavolta il fenomeno non dovrebbe ripetersi.
Il resto è storia.
poi adesso che le founders hanno la doppia vapor chamber e le due ventole che senso ha prendere le schede di terze parti?
Le ventole si fermano in idle/basse temp?
E cmq le custom meno spinte costeranno uguale o meno delle founders.
Ale55andr0
22-08-2018, 00:35
Queste sono schede spenna soldi che scaldano un botto e consumano altrettanto, incapaci di far girare un gioco a 60fps con RTX on (media tra 30 e 45 fps a 1080P :( ).
.
bon, quindi o si gioca coi 4 giochi in croce che usano rtx e lo si attiva o non si gioca perchè ste schede sono inusabilii in altri contesti perchè si' :asd: facessero il 100% (demo infiltrator) più di una ti in 4k farebbero schifo uguale perchè oramai a leggervi rtx is the new 3d come per i tv qualche anno fa :D sarà perchè a me ste famigerate ombre non mi fanno impazzire e ai tempi dell'hardware che inseguiva il software erano la prima cosa che spegnevo senza colpo ferire lato eye candy (ma che razzo hanno di speciale spiegatemi? sono una proiezione scura in base a una fonte di luce, che c'è di così menoso? :D) ..nel frattempo però mentre si gioca su ste cose che non mi cambiano na mazza continuo a vedere acqua fatta col culo nella maggior parte dei titoli (di cui nessuno si lamenta), fisica inesistente e aliasing a manetta coi merdosi filtri via shader che hanno introdotto ai tempi del deferred rendering e che sono diventati una tassa ormai :sbonk:
PS: detto da uno che considera ste schede una meteora in attesa dei 7nm venduta a prezzi da denuncia :read: per la prima volta da secoli mi viene da dire che nvidia ha cannato del tutto tempi e pp come amd fece ai tempi della fury X (solo che quella si permetteva pure il lusso di NON battere il top rivale uscito prima :asd: )
amon.akira
22-08-2018, 00:47
bon, quindi o si gioca coi 4 giochi in croce che usano rtx e lo si attiva o non si gioca perchè ste schede sono inusabilii in altri contesti perchè si' :asd: facessero il 100% (demo infiltrator) più di una ti in 4k farebbero schifo uguale perchè oramai a leggervi rtx is the new 3d come per i tv qualche anno fa :D sarà perchè a me ste famigerate ombre non mi fanno impazzire e ai tempi dell'hardware che inseguiva il software erano la prima cosa che spegnevo senza colpo ferire lato eye candy (ma che razzo hanno di speciale spiegatemi? sono una proiezione scura in base a una fonte di luce, che c'è di così menoso? :D) ..nel frattempo però mentre si gioca su ste cose che non mi cambiano na mazza continuo a vedere acqua fatta col culo nella maggior parte dei titoli (di cui nessuno si lamenta), fisica inesistente e aliasing a manetta coi merdosi filtri via shader che hanno introdotto ai tempi del deferred rendering e che sono diventati una tassa ormai :sbonk:
PS: detto da uno che considera ste schede una meteora in attesa dei 7nm venduta a prezzi da denuncia :read:
IT JUST WORKS!!!
UMBRA
PENUMBRA
GIGARAYS...
...I LOVE GIGARAYS
techsaskia
22-08-2018, 00:51
Che erano esagerati, ragion per cui molta gente, incluso il sottoscritto, non le ha prese al lancio, aspettando il naturale deprezzamento nei mesi successivi, che però non è avvenuto a causa del boom mining. Stavolta il fenomeno non dovrebbe ripetersi.
Il resto è storia.
Si ma mesi dopo la scheda vale proprio meno.
In un mercato dove dopo 9 mesi è uscito già il modello nuovo, se la compri mesi dopo stai comprando una cosa vecchia e possibilmente già sorpassata nel giro dei prossimi mesi.
Le ventole si fermano in idle/basse temp?
E cmq le custom meno spinte costeranno uguale o meno delle founders.
Non saprei, se non fanno rumore però che girano a me non disturba 😃
ho smontato le mie 980 Ti per venderle e messo dentro una vecchia GTX580 giusto per usare il PC nel frattempo che arriva Turing...
il mio case è piccolo, è un vecchissimo LianLi PC-7FNWX in alluminio che però ha raffreddato senza problemi i miei SLI in questi anni (anche grazie alla ventola frontale puntata tra le due schede con apposito pannello frontale)...
nonostante il mio case sia piccolo e compatto, vedere il PC con una scheda sola è un cazzotto ad un occhio.
sembra che ci manca un pezzo. c'è un buco orribile.
non è che mi vendono una turing sample non funzionante giusto per riempire il buco?
mamma quanto è brutto il PC singola scheda. :sofico:
ma poi oggi i case sono pure più grandi, tutti grandi, che ci si fa con i case così grandi se poi si mette una scheda sola?
il case grande ti da libertà di fare quello che vuoi e di metterci dentro quello che vuoi,io ho un 900d e quando prenderò la nuova scheda non andrò a misurare se ci entra,poi raffreddi meglio tutto,semmai la doppia scheda non ha senso se oltre al gioco il pc lo usi per tutto il resto ma io ho risolto prendendo un secondo pc più proporzionato al lavoro e del consumo me ne scordo,solo il peso per spostarlo è diventato un fottischiena per il resto più sono grandi e meglio è!
techsaskia
22-08-2018, 01:07
il case grande ti da libertà di fare quello che vuoi e di metterci dentro quello che vuoi,io ho un 900d e quando prenderò la nuova scheda non andrò a misurare se ci entra,poi raffreddi meglio tutto,semmai la doppia scheda non ha senso se oltre al gioco il pc lo usi per tutto il resto ma io ho risolto prendendo un secondo pc più proporzionato al lavoro e del consumo me ne scordo
Un po' come comprare una garage da 100 metri quadri per non fare manovra 😂
Sui gusti non si discute, quindi l'importante è che piaccia a te. :)
edit_user_name_here
22-08-2018, 01:41
Poi facci sapere come va il collo
Io pensavo che un 65 pollici richiedesse almeno 3 metri :D
Per vedere una tv magari.Per un monitor non riusciresti a vedere le cose piccole mentre giochi specialmente :) cmq ok.Ma ho già un 34 pollici a metà della distanza che metterei il 65 ;)
ho smontato le mie 980 Ti per venderle e messo dentro una vecchia GTX580 giusto per usare il PC nel frattempo che arriva Turing...
il mio case è piccolo, è un vecchissimo LianLi PC-7FNWX in alluminio che però ha raffreddato senza problemi i miei SLI in questi anni (anche grazie alla ventola frontale puntata tra le due schede con apposito pannello frontale)...
nonostante il mio case sia piccolo e compatto, vedere il PC con una scheda sola è un cazzotto ad un occhio.
sembra che ci manca un pezzo. c'è un buco orribile.
non è che mi vendono una turing sample non funzionante giusto per riempire il buco?
mamma quanto è brutto il PC singola scheda. :sofico:
ma poi oggi i case sono pure più grandi, tutti grandi, che ci si fa con i case così grandi se poi si mette una scheda sola?
In quel buco facci un salvadanaio e mettici i soldini che ti conservi :) cosi quando apri il case hai i soldi pronti per un altra scheda XD magari passa qualcuno e li mette di nascosto ;)
bon, quindi o si gioca coi 4 giochi in croce che usano rtx e lo si attiva o non si gioca perchè ste schede sono inusabilii in altri contesti perchè si' :asd: facessero il 100% (demo infiltrator) più di una ti in 4k farebbero schifo uguale perchè oramai a leggervi rtx is the new 3d come per i tv qualche anno fa :D sarà perchè a me ste famigerate ombre non mi fanno impazzire e ai tempi dell'hardware che inseguiva il software erano la prima cosa che spegnevo senza colpo ferire lato eye candy (ma che razzo hanno di speciale spiegatemi? sono una proiezione scura in base a una fonte di luce, che c'è di così menoso? :D) ..nel frattempo però mentre si gioca su ste cose che non mi cambiano na mazza continuo a vedere acqua fatta col culo nella maggior parte dei titoli (di cui nessuno si lamenta), fisica inesistente e aliasing a manetta coi merdosi filtri via shader che hanno introdotto ai tempi del deferred rendering e che sono diventati una tassa ormai :sbonk:
PS: detto da uno che considera ste schede una meteora in attesa dei 7nm venduta a prezzi da denuncia :read: per la prima volta da secoli mi viene da dire che nvidia ha cannato del tutto tempi e pp come amd fece ai tempi della fury X (solo che quella si permetteva pure il lusso di NON battere il top rivale uscito prima :asd: )
Dipende dai gusti.Per chi ama vedere spettacoli, diciamo cosi, nei giochi e si ferma nei dettagli fa al caso suo.D'altronde le schede grafiche costose la gente la compra anche per quello non solo per passione per montare la gpu :)
Un po' come comprare una garage da 100 metri quadri per non fare manovra
Sui gusti non si discute, quindi l'importante è che piaccia a te. :)
Non ha tutti i torti passa più aria ed è più spazioso per metterci cose :)
Un po' come comprare una garage da 100 metri quadri per non fare manovra
Sui gusti non si discute, quindi l'importante è che piaccia a te. :)
sono un tecnico informatico da più di 25 anni la cosa che ho sempre odiato sono i case piccoli,ti posso garantire che è uno schifo quando becchi quei case fatti male e devi fare entrare tutto,e magari ti arriva il cliente che vuole 4 hd e case piccolo ecc...,per questi motivi,per le svariate volte che maledicevo i vari vultech e cinesi vari,per le volte che mi sono pure tagliato (lo so ma odio i guanti),mi sono promesso di comprare sempre case grandi per me,su questo pc venivo da un haf 922 che incominciava a starmi stretto e ho optato per il 900d,ho un altro pc con stacker 832 molto meno spazioso del 900d ma a quei tempi i case questi erano,mentre in ufficio ho il primo stacker!ultimamente ho preso un cm mini per uso ufficio e non avendo pretese di hardware potente non ho problemi,la tranquillità che qualsiasi cosa prendi va bene non ha prezzo.io per esempio non concepisco lo sli:
1)è ottimizzato male e spesso da molte rogne
2)spesso non è supportato
3)consuma parecchio e stressa l'alimentatore
4)maggiori temperature nel case,io infatti pur prendendo una sola 2080ti deve essere la più fresca perchè ho paura per l'ssd m2
5) con quello che paghi all'inizio puoi prendere una seconda scheda a distanza di qualche anno
Molte delle migliorie sono presenti nella Volta, sopratutto via sub warp, cicli dimezzati, unità INT FP32 contemporanee, però, c'è un però.
Volta non è un chip gaming, ha una potenza troppo scarsa via geometrica (4 SM accedono ad un P.E), i clock troppo bassi non impegnano le ALU.
Il gigathread deve fare salti mortali, ed i driver non sono pensati proprio per il gaming.
La Titan V vola solo dove il software, devasta gli shader.
Con Touring cambieranno varie cose.:)
E' praticamente impossibile calcolarlo così, qua non rientriamo più in calcoli matematici a livello di ALU. Bisogna vedere quanto l'efficienza dell'architettura inciderà sul campo.:)Molto molto chiaro! Thanks!
Inviato dal mio ZTE A2017G utilizzando Tapatalk
Spider-Mans
22-08-2018, 07:17
Si, é uscita la nuova generazione di hardware che rende obsoleta la merda che avete nel case.
Si, costa cara (come al solito).
No, non é obbligatorio comprarla.
No, non diventate cittadini di serie b del forum se non aggiornate perché costa troppo cara.
Piantarla di whinare però vi farebbe fare miglior figura... e io che credevo fosse un'esclusiva dei rossi! :D
Inviato dal mio SM-G960F utilizzando Tapatalk
si ok ma non ti allargare eh
alla fine hai nel case due economiche 1070 :asd:
:ciapet:
avessi uno sli di 1080ti....
Spider-Mans
22-08-2018, 07:25
PS: detto da uno che considera ste schede una meteora in attesa dei 7nm venduta a prezzi da denuncia :read: per la prima volta da secoli mi viene da dire che nvidia ha cannato del tutto tempi e pp come amd fece ai tempi della fury X (solo che quella si permetteva pure il lusso di NON battere il top rivale uscito prima :asd: )
la penso uguale :D
fra un anno ste schede saranno stra svalutate (a causa del prezzo alto di lancio) dall avvento dei 7nm e delle molte migliorie che si apporteranno al rtx col nuovo processo produttivo
il fatto che nvidia dopo anni lanci la nuova TI insieme alle versioni castred è la conferma che non passera molto tempo dalle nuove schede 7nm....quindi meglio mungere subito....dagli torto xD
p.s ma amd dorme? :asd: ah progetta i chip delle nuove console... xD
fraussantin
22-08-2018, 07:33
la penso uguale :D
fra un anno ste schede saranno stra svalutate (a causa del prezzo alto di lancio) dall avvento dei 7nm e delle molte migliorie che si apporteranno al rtx col nuovo processo produttivo
il fatto che nvidia dopo anni lanci la nuova TI insieme alle versioni castred è la conferma che non passera molto tempo dalle nuove schede 7nm....quindi meglio mungere subito....dagli torto xD
p.s ma amd dorme? :asd: ah progetta i chip delle nuove console... xDGià secondo me amd smette di fare schede gaming.
Già c'erano voci strane a riguardo qualche mese fa.
Boh.
Tanto arriverà intel a salvarci :doh:
appleroof
22-08-2018, 07:43
Ma si tranquillo Apple:p
Giusto per rendere l'idea.:p
:D ;)
fraussantin
22-08-2018, 08:14
Mah, non credo... a breve faranno Vega a 7nm con qualche miglioria, che in fascia media andrà bene, e si inventeranno qualcosa per il medio termine con Navi.
Sarebbero pazzi a mollare un settore strategico come quello delle VGA.
Inviato dal mio SM-G960F utilizzando TapatalkPremesso che ad amd già con vega del gaming gliene è fregato il giusto .. ma vega 7 nm a quanto la venderebbe ? E che prestazioni avrà? Sempre vega è ..
Boh.. vedremo con navii ma mi sa che sarà basata su pro anche quella con costi esagerari
Speriamo di no.
Sopratutto per la fascia x70 serve qualcosina di competitivo
Il nabbo di turno
22-08-2018, 08:23
https://i.redd.it/eypw5ts1tih11.png
Magari era già stata postata, in caso la cancello...
fraussantin
22-08-2018, 08:29
Vega 7nm è roba per il mercato professionale non gaming, non c'è nessuna voce che parla di una vega 7nm gaming.
AMD non mollerà di certo il mercato gaming anche perchè sfruttando la stessa architettura che poi va su console sarebbero pazzi.
Quello che potrebbe fare sarebbe mollare il colpo sulla fascia alta se non ha pronto in tempi brevi qualcosa da paragonare a RT core, ecc.
Cioè come ha fatto 2 anni fa con Polaris che dopo tutto è la fascia che vende di più per AMD, in realtà vende di più anche per Nvidia come numeri ma Nvidia sulla fascia alta ha dei margini enormi e ci guadagna di più.
P.S: comunque converrebbe a tutti che AMD abbia qualcosa di pronto entro 1 annetto che riguardi il raytracing altrimenti niente raytracing nelle prossime console e il raytracing rischierebbe di fare la fine del Physix, una bella cosa ma solo per Nvidia e per cui gli sviluppatori devono sbattersi troppo.Quindi se ne riparla con ps5 , navii e sperando che facciano anche un chip dedicato e non solo un apu.
Thunder-74
22-08-2018, 08:33
ragionando sugli elementi che si hanno a disposizione ora, per chi si trova a dover cambiare VGA, probabilmente le scelte migliori sono 2070/2080.
Se tanto la 2080ti arranca con il RT in FHD, inutile abilitarlo. Sembra che anche BFV non riesca a girare sui 60FPS a tale risoluzione.
Aspettiamo reviews per varie conferme...
fraussantin
22-08-2018, 08:35
ragionando sugli elementi che si hanno a disposizione ora, per chi si trova a dover cambiare VGA, probabilmente le scelte migliori sono 2070/2080.
Se tanto la 2080ti arranca con il RT in FHD, inutile abilitarlo. Sembra che anche BFV non riesca a girare sui 60FPS a tale risoluzione.
Aspettiamo reviews per varie conferme...Se non hai intezione di attivare rtx tanto vale puntare sulla vecchia gen e risparmiare a sto punto.
Il nabbo di turno
22-08-2018, 08:35
Molti non hanno capito che navi è solo un altro rework di vega, che a sua volta è un rework di polaris, che a sua volta è tonga die shrinkato, che a sua volta è hawaii con la delta color compression, che a sua volta è gcn 1.0 con il truaudio, il crossfire senza bridge e qualche altra robetta.
Ma si dai continuiamo ad alzare l'hype, poi escono con una fascia media che se la gioca con la 1080/2070(se va grassa poi) e la gente dirà "bruh muh volevo che andasse come la 2080 costando 1/3"....
Thunder-74
22-08-2018, 08:42
Se non hai intezione di attivare rtx tanto vale puntare sulla vecchia gen e risparmiare a sto punto.
Si anche. Ci sono persone che pensano magari di prendere un prodotto nuovo per avere più facilità di rivendita fra un anno. Certo tutto dipende da prestazioni/costi. Se non fossi stato con uno Sli di 980ti, già da tempo avrei acquistato una 1080ti e oggi sarei stato tranquillo in un angolo a guardare lo svolgersi degli eventi.
Io penso che se la 2080Ti non fa almeno un 50% di prestazioni in piú rispetto la 1080Ti rimango con quest'ultima. Vorrá dire che i soldi della 2080Ti li uso per upgradare la piatta. E mi avanzano pure:sofico:
Bravo :D
Se non conviene abilitare RT su una 2080ti che me la prendo a fare una 2070/2080?
Allora prendo un 1080/1080ti che la pago uguale anzi forse meno e rischia di andare di più.
Conto a spanne fatto sui Tflops, dove la 1080 ne ha di più della 2070 e la 1080ti ne ha di più della 2080.
So bene che non è necessariamente indicativo delle prestazioni in gaming ma per ora questo abbiamo su cui basarci.
Vedremo poi le recensioni.
Ragionavo in base alle nuove offerte nvidia e non in senso assoluto. Era può come dire... la 2080ti non ha senso se proposta a questo prezzo...
Io penso che se la 2080Ti non fa almeno un 50% di prestazioni in piú rispetto la 1080Ti rimango con quest'ultima. Vorrá dire che i soldi della 2080Ti li uso per upgradare la piatta. E mi avanzano pure:sofico:
50% non li farà mai e poi mai, forse nei titoli rt.
https://www.dsogaming.com/news/nvidia-geforce-rtx-2080ti-unable-to-run-shadow-of-the-tomb-raider-with-60fps-at-1080p-with-rtx-on/
I programmatori di TR hanno reagito al video, a detta loro si tratta ancora di un'implementazione non ottimizzata delle nuove features, vai a capire se e' vero. :stordita:
Per ora considero questa tecnologia alla stregua di tutte le altre tecnologie proprietarie ammazza frames, per quanto si tratti di un'enorme passo in avanti.
In un paio di generazioni forse se la potranno godere tutti.
Non se la godrà nessuno se rimarrà un esclusiva Nvidia che Intel e AMD non integreranno.
Thunder-74
22-08-2018, 08:53
Non se la godrà nessuno se rimarrà un esclusiva Nvidia che Intel e AMD non integreranno.
Comunque non è proprio così, da quello che ho capito, sfruttano le API Microsoft DXR e imminente dovrebbero uscire anche le API Vulkan ray tracing
fraussantin
22-08-2018, 08:54
Non se la godrà nessuno se rimarrà un esclusiva Nvidia che Intel e AMD non integreranno.Non è neanche il godersela , o si mettono in testa di implementarla in maniera" leggera" nelle possibilità della gpu stessa o non ha senso.
Chi da via una titan per la 2080ti ( perche il target è quello ) ha uno schermo minimo 1440p@120 se non direttamente 4k.
Non gli sta bene di appannarsi la vista per 2 riflessi. E manco si compra un monitor 1080p .
Che si sperano che la gente faccia uno triplo sli con nvlink ...
Mah, con tutte le migliorie che ci sono nei TPC potrebbe anche farlo +50%, io credo che l'IPC di Turing sia superiore a Pascal, e parlo del core classico RT a parte.
Se avesse avuto tutto questo distacco (altamente improbabile) Jensen non avrebbe fatto tutto quel discorso sul "nuovo modo di calcolare le performance".
RTX è una gen di prova in cui Nvidia vuole spingere il deep learning nel mercato gpu.
Chi si comprerà le RTX farà nient'altro che l'early adopter.
E si, potete dire quanto vi pare che "architettura bla bla bla non puoi paragonare i tflops", sono d'accordo, non puoi nemmeno paragonare le macchine in base ai cavalli, ma è pur sempre un numero puro e crudo molto indicativo:"quante operazioni in virgola mobile può fare al secondo questa gpu?".
E poi non è che cambiare architettura implica sempre e comunque migliore efficienza e prestazioni sotto tutti i punti di vista. Ci sono sempre dei tradeoff per cui se fai qualcosa meglio di prima, rinunci ad altro (che siano latenze interne, clock, velocità d'esecuzione di istruzioni specifiche, ecc).
Il nabbo di turno
22-08-2018, 08:56
Se leggi su un forum che la prossima gpu amd dovrebbe andare come 2080ti costando 1/3 e ci credi non puoi dare la colpa ad amd, se lo fai sei un bimbominkia o un disadattato.
Detto questo e non voglio fare molto OT, ma Navi 7nm secondo te andrà soltanto come 1080/2070? sei serio? già da un anno lo fa Vega da 470mmq, pensa a 7nm...
Simpatica la cosa del rework :D
Non hai colto il punto, amd sta facendo progetti in economia da un po' di anni, polaris non è altro che tonga xt shrinkato a 14nm, ha più cache e qualche cu in più, ma sostanzialmente di quello parliamo.
Vega sulla carta ha roba bella quanto inutile attualmente, e notizia di ieri.
https://www.mail-archive.com/amd-gfx@lists.freedesktop.org/msg24458.html
Quindi vega attualmente va poco lontano.
Prendendo il caso peggiore, cioè una gpu < 250 mm^2 con 48 vega cu,gddr6 e un bus di 256 bit, su un pp 40% più denso andresti a giocartela ipoteticamente con vega 64/1080, se ti va bene anche con la 2070(che dalle specifiche tolto il rt mi sembra veramente una 1070 ti boostata).
Non è poco ma se gli sforzi di amd stanno andando sul settore professionale con la vega 20, dubito che esca un chip più grosso di quest'ultimo per giocatori nel 2019.
Domandina.
Ma per giocare in 4k a 60fps la maggior parte dei giochi, anche con RayTracing spento, serve a forza una rtx 2080Ti o una GTX 1080 Ti ad oggi è già sufficiente?
Perchè leggo di diversi titoli che su quest'ultima i 60fps fanno fatica ad essere raggiunti.
sertopica
22-08-2018, 09:00
Non se la godrà nessuno se rimarrà un esclusiva Nvidia che Intel e AMD non integreranno.
Beh aspetta, in linea di massima come gia' sai si dovrebbe trattare di una tecnologia aperta a tutti, essendo questa resa disponibile prima di tutto dalle DX12, quello che ha fatto nVidia e' stato creare una unita' dedicata esclusivamente a questi calcoli, con i Tensor Cores che fungono da filtro denoiser. Insomma sta anche alla concorrenza darsi eventualmente una mossa, ammesso e non concesso che sia il momento giusto per tirare fuori dal cilindro il RT in real time (e chiaramente, per quanto il salto in prestazioni sia notevole, non si e' ancora in grado di far girare il tutto in modo decente come sospettavo, a giudicare dalle prime impressioni).
E comunque, se dovessi abilitare il RT per giocare a 1080p su un monitor 2k ne farei volentieri a meno, mi e' bastato Quantum Break con il suo upscaling interno e relativo blur a palate per farmi venire la nausea al tempo, giusto per fare un esempio.
Una soluzione forse sarebbe il rendering degli effetti RT ad una res inferiore mentre il motore raster renderizza la scena a 2k o 4k per esempio, ma non so assolutamente se una cosa del genere sia possibile, e comunque una perdita di qualita' si noterebbe.
fraussantin
22-08-2018, 09:02
Domandina.
Ma per giocare in 4k a 60fps la maggior parte dei giochi, anche con RayTracing spento, serve a forza una rtx 2080Ti o una GTX 1080 Ti ad oggi è già sufficiente?
Perchè leggo di diversi titoli che su quest'ultima i 60fps fanno fatica ad essere raggiunti.:asd:
Servono un paio di tesla
Thunder-74
22-08-2018, 09:03
Si ma se veramente una 2080ti fatica a farlo andare a 1080p con i core dedicati e le turing sono le uniche GPU ad avere questi core è come se fosse un'esclusiva Nvidia.
Non lo è sulla carta ma lo è in pratica.
oggi assolutamente si. Ma il fatto che non sia un'esclusiva nVidia come PhysX per intenderci, potrà essere una strada più facilmente percorribile dalle SH e dai competitors di nVidia. Potrà essere portata sulle future consoles a beneficio di tutto il settore Gaming. Del resto è innegabile che la strada intrapresa per un miglioramento grafico, è corretta.
Thunder-74
22-08-2018, 09:19
Certo ma come ho già scritto se AMD non ha qualche unità dedicata al RT in tempo reale che vedrà la luce entro un anno non la vedremo nelle prossime console e quindi del RT nei giochi se ne riparlerà da 6-7 anni.
E avere un'architettura AMD che comprenda una sorta di RT core o qualcosa di equivalente vuol dire che devono essere già presenti in Navi.
Del resto le voci vogliono l'hw della futura ps5 già deciso a tavolino con Navi e Zen.
Quando viene introdotta una nuova tecnologia da un’azienda è questa viene considerata valida , si corre ai ripari . Io spero che venga colta ed il fatto che dietro ci sia Microsoft e Vulkan, la vedo fattibile. Poi o che vi devo dire , continuassero con sulla vecchia strada e zero innovazione...
Inviato dal mio iPhone X utilizzando Tapatalk
fraussantin
22-08-2018, 09:21
Certo ma come ho già scritto se AMD non ha qualche unità dedicata al RT in tempo reale che vedrà la luce entro un anno non la vedremo nelle prossime console e quindi del RT nei giochi se ne riparlerà da 6-7 anni.
E avere un'architettura AMD che comprenda una sorta di RT core o qualcosa di equivalente vuol dire che devono essere già presenti in Navi.
Del resto le voci vogliono l'hw della futura ps5 già deciso a tavolino con Navi e Zen.
Non è detto.
Se flopperà o ritarderà sarà per altri motivi abbastanza chiari.
Ad aggiungere rtx e togliere altri effetti si può fare agevolmente se nvidia finanzia il tutto.
Non mi pare nuova come cosa.
Certo non serve che lo abbiano su tutti i giochi , ma quei 5 6 l'anno che smuovono il mondo
( Gta 6 , cod , bf fc6 assasi n creed )
sertopica
22-08-2018, 09:22
a me sembra così assurdo che nvidia passi dalla vga 4k 60fps (diciamo) come la 1080ti alla vga 1080p + RT... cioè le persone secondo me la prenderebbero male.
o tarano questi RT per non appesantire troppo le unità di calcolo o credo che chi sia abituato al 4k e la 1080ti non so quanto possa aver piacere a scendere sul 1080p magari a framerate ballerino per il raytracing.
Ma infatti sarebbe darsi una martellata sui denti, dopo aver spinto g-sync, 2/4k e compagnia bella si fanno due passi avanti e uno indietro? Non penso siano cosi' scemi da non averci pensato. C'e' anche da dire che tutt'oggi stando alle statistiche di Steam molti utilizzano ancora monitor 1080p, ma nessuno si comprerebbe una 2080Ti per giocare a quella res, soprattutto dopo che gli occhi si sono "viziati" con la qualita' che un 2k o un 4k possono dare.
Tocca semplicemente aspettare e vedere com'e' realmente la situazione.
PS: anche il prossimo titolo Remedy supportera' (come sospettavo :D ) il RT https://www.youtube.com/watch?v=sI7wLXrul7w E pure sto video e' in 1080p :asd:
Comunque non è proprio così, da quello che ho capito, sfruttano le API Microsoft DXR
Guarda che avere un API non significa poterla sfruttare.
e imminente dovrebbero uscire anche le API Vulkan ray tracing
Hmm? Io lo seguo lo sviluppo Vulkan su github e per imminente intendi che non è stata scritta una singola riga?
https://github.com/KhronosGroup/Vulkan-Docs/issues/686
Nvidia vuole proporre un API al gruppo Khronos, ma dubito altamente gliela faranno passare.
Thunder-74
22-08-2018, 09:29
Anche il multi-GPU esplicito è nelle DX12, e infatti è stato implementato in tutti i titoli DX12, no, solo in AotS. Ed è una tecnologia applicabile a qualunque scheda video, addirittura anche alle integrate sia Intel che AMD.
Il punto è che anche gli standard richiedono programmazione, e non mi pare che gli sviluppatori stiano facendo a schiaffi per cambiare paradigmi di programmazione da quelli DX11.
Come già detto anche sull'RT faranno così, e amaggior ragione visto che è una tecnologia disponibile su schede da 800€ in su. Come con tutti gli altri GameWorks quando nVidia pagherà lo sviluppo avremo giochi con queste tecnologie (non è beneficienza, serve ad nVidia a promuovere i propri prodotti), altrimenti continueremo in DX11. Anche perché se le prestazioni sono quelle che si sono intraviste vuol dire che oltre al software manca anche l'hardware, ad oggi, per supportar quella tecnologia.
Il multiGPU DX12 è presente anche in Gears of war 4, tomb raider e deus ex. Provati personalmente e ottenuti aumenti anche del 30% rispetto al canonico Sli in dx11. Qui sono le SH a doverci lavorare
Inviato dal mio iPhone X utilizzando Tapatalk
sertopica
22-08-2018, 09:33
Un conto e' la risoluzione di output, un'altra e' quella interna delle ombre che e' indipendente dalla res a cui giochi. Forse con le ombre RT questo non sara' piu' possibile, da qui i gameplay a 1080p.
L'unico video con RT che ho visto girare a piu' di 1080p e' questa tech demo: https://www.youtube.com/watch?v=KJRZTkttgLw
Lunar Wolf
22-08-2018, 09:41
Un conto e' la risoluzione di output, un'altra e' quella interna delle ombre che e' indipendente dalla res a cui giochi. Forse con le ombre RT questo non sara' piu' possibile, da qui i gameplay a 1080p.
L'unico video con RT che ho visto girare a piu' di 1080p e' questa tech demo: https://www.youtube.com/watch?v=KJRZTkttgLwAttualmente al gamescom alcuni stanno testando la 2080ti..col rt on è difficile avere i 60fps su un full hd...
Direi che ammazza abbastanza
scorpion73
22-08-2018, 09:50
Ribadisco, a me delle cose messe lì per fare i fighi non frega nulla, il discorso per quanto mi riguarda è semplice: se la scheda con RT attivo mi tiene i 60fps in FHD ci posso anche pensare, sennò mi tengo la mia 1080TI che in QHD rulla una schiccheria e non ho necessità al momento di cambiare.
Io non gioco in 4k, per cui l'unico motivo per cambiare sarebbe avere gli effetti in più del RT: al momento le prestazioni sui giochi "tradizionali" sono perfette non mi frega niente se faccio 120 o 150 frames. Me ne bastano anche 60.
Aspetto i 7nm, dove sono convinto che i RT core saranno in grado di gestire bene la situazione, perché:
1- Essendo il die più piccolo, potranno essere più potenti senza che la GPU scaldi e consumi un botto
2- Secondo me questa feature è pensata per i 7nm: inserirla ora è solo una forzatura fatta come ha detto qualcuno per fare apripista
3- I 7nm a mio avviso arriveranno a settembre del prossimo anno, come dimostra l'introduzione immediata della padella
Non vorrei anticipare le recensioni, ma la mia sensazione è di un mezzo fail: consumi e calore alle stelle e prestazioni adeguate solo sui giochi classici ma comunque non tali da spingere chi ha una 1080ti e non gioca in 4k a cambiare scheda. Mentre le nuove features arrancano abbastanza evidentemente. E parlo della 2080ti, quelle prima non le commento nemmeno...
sertopica
22-08-2018, 09:51
Attualmente al gamescom alcuni stanno testando la 2080ti..col rt on è difficile avere i 60fps su un full hd...
Direi che ammazza abbastanza
...E questo con l'attuale top di gamma. :stordita:
Boh, non credo a drivers miracolosi e ottimizzazioni dell'ultimo minuto. Ovviamente resto ancora col beneficio del dubbio finche' sti giochi con relativi test non escono e ci saranno dati univoci.
Se non hai intezione di attivare rtx tanto vale puntare sulla vecchia gen e risparmiare a sto punto.
Io gioco in fullhd per il momentoi (e penso di aspettare ancora un annetto minimo per cambiare il monitor). Ho appena preso una evga 1080ti SC a 515 euro
Thunder-74
22-08-2018, 09:55
Guarda che avere un API non significa poterla sfruttare.
Hmm? Io lo seguo lo sviluppo Vulkan su github e per imminente intendi che non è stata scritta una singola riga?
https://github.com/KhronosGroup/Vulkan-Docs/issues/686
Nvidia vuole proporre un API al gruppo Khronos, ma dubito altamente gliela faranno passare.
Ti riporto uno stralcio di un articolo dove AMD esprime interesse per il RT, oltre al fatto che tutte le schede DX12 posso supportare il RT (ovviamente di m... se non accelerato in HW):
Il 2018 è l'anno di Ray Tracing, con AMD e Nvidia che stanno facendo un grande affare della tecnologia sia nel mercato della produzione che dei giochi, con Nvidia che spinge la tecnologia particolarmente forte attraverso la loro esclusiva tecnologia RTX Volta.
La maggior parte del focus su Ray Tracing nel mercato dei giochi proviene dall'estensione API DirectX 12 DXR (DirectX Raytracing) di Microsoft. Ogni scheda grafica con supporto DX12 può utilizzare DXR Ray Tracing, sebbene la tecnica di accelerazione del tracciamento dei raggi RTX di Nvidia sia esclusiva per l'architettura Volta dell'azienda al momento della stesura. Ray Tracing è un processo complesso e ad alta intensità di elaborazione, che rende difficile persino l'hardware più potente di oggi.
A GDC 2018 sia AMD che Nvidia hanno espresso interesse per l'aggiunta del supporto Ray Tracing a Vulkan, con Nvidia che ha lavorato su una nuova estensione VK_NV_raytracing per adattarsi all'API Vulkan. Nvidia ha anche dichiarato di essere "pienamente impegnata a lavorare con Khronos sulla standardizzazione multi-vendor" e di cercare una "Struttura simile a quella del DXR di Microsoft" per consentire a DirectX 12 e Vulkan di funzionare allo stesso modo.
È facile capire perché Nvidia voglia una struttura simile alla tecnologia DXR di Microsoft, che già supporta la tecnologia di accelerazione del tracciamento dei raggi RTX di Nvidia, anche se l'allineamento a questo riguardo renderebbe lo sviluppo del gioco molto più semplice attraverso entrambe le API.
FONTE (https://www.overclock3d.net/news/gpu_displays/nvidia_plans_to_bring_ray_tracing_to_vulkan_with_a_new_extension/1)
Ovvio che nVidia sta spingendo a morte il RT...
Boh, io faccio un ragionamento molto pratico, senza stare a fare troppi calcoli. Al momento con la 1080Ti alla mia risoluzione non ho alcun problema con i giochi che possiedo. Quando invece questo succederà, per l'implementazione massiccia delle DX12 o per l'RT a cui magari mi dispiacerà rinunciare, faccio l'upgrade! Però lo farò al momento in cui ho il gioco installato nell'HD e vedo che la 1080Ti non ce la fa, non prima.
mirkonorroz
22-08-2018, 10:06
Non so che intenzioni abbiano con le ombre, ma penso che all'inizio continueranno ad implementare una cosa tipo QUESTA (https://www.google.com/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&uact=8&ved=2ahUKEwjN_O2tpIDdAhXOzqQKHb6xCwUQFjAAegQICBAC&url=https%3A%2F%2Fdeveloper.download.nvidia.com%2Fassets%2Fevents%2FGDC15%2Fhybrid_ray_traced_GDC_2015.pdf&usg=AOvVaw379uTaRToeK05jDa727HlW), ove la parte raytracing verrebbe accelerata in HW.
E' del 2015.
Ora a parita' di qualita' dovrebbe essere piu' veloce, ma bisogna vedere se la qualita' in assoluto sia soddisfacente.
A meno che non vogliano proprio gia' implementare le soft shadows totalmente raytracing che pesano un botto.
raiden_master_v5
22-08-2018, 10:11
Che poi a che pro mettere quelle uscite (hdmi 2.1, display port 1.4) se poi hai giochi in full HD? Per me l'RTX lo vedo come Nvidia hairworks che nessuno di noi la implementa.
ps: Qualcuno è rimasto impressionato dai giochi con RT? Io non di certo.
amon.akira
22-08-2018, 10:14
Boh, io faccio un ragionamento molto pratico, senza stare a fare troppi calcoli. Al momento con la 1080Ti alla mia risoluzione non ho alcun problema con i giochi che possiedo. Quando invece questo succederà, per l'implementazione massiccia delle DX12 o per l'RT a cui magari mi dispiacerà rinunciare, faccio l'upgrade! Però lo farò al momento in cui ho il gioco installato nell'HD e vedo che la 1080Ti non ce la fa, non prima.
allora non lo vedrai mai perchè non saranno attivabili su pascal, anche perchè li vedresti a diapositive
Non so che intenzioni abbiano con le ombre, ma penso che all'inizio continueranno ad implementare una cosa tipo QUESTA (https://www.google.com/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&uact=8&ved=2ahUKEwjN_O2tpIDdAhXOzqQKHb6xCwUQFjAAegQICBAC&url=https%3A%2F%2Fdeveloper.download.nvidia.com%2Fassets%2Fevents%2FGDC15%2Fhybrid_ray_traced_GDC_2015.pdf&usg=AOvVaw379uTaRToeK05jDa727HlW), ove la parte raytracing verrebbe accelerata in HW.
E' del 2015.
Ora a parita' di qualita' dovrebbe essere piu' veloce, ma bisogna vedere se la qualita' in assoluto sia soddisfacente.
A meno che non vogliano proprio gia' implementare le soft shadows totalmente raytracing che pesano un botto.
su tomb raider mi sembravano soft shadows
https://i.redd.it/eypw5ts1tih11.png
Magari era già stata postata, in caso la cancello...
No, hai fatto benissimo. Ho saltato una 50ina di pagine non trovando bench ufficiali.
Da questo grafico la 2080 ne esce molto male. Hanno dovuto per forza far uscire subito anche la Ti.
Il nabbo di turno
22-08-2018, 10:28
No, hai fatto benissimo. Ho saltato una 50ina di pagine non trovando bench ufficiali.
Da questo grafico la 2080 ne esce molto male. Hanno dovuto per forza far uscire subito anche la Ti.
Io ho l'impressione, come molti del resto, che lo stacco sarà nei titoli con il rt attivo, ma per il resto prevedo un minor upgrade a parità di fascia con le gtx 1000.
Thunder-74
22-08-2018, 10:28
No, hai fatto benissimo. Ho saltato una 50ina di pagine non trovando bench ufficiali.
Da questo grafico la 2080 ne esce molto male. Hanno dovuto per forza far uscire subito anche la Ti.
Questo grafico si basa solamente sui TFlops, ci sono altre variabili in gioco che non danno modo di poter trarre conclusioni sulla base di questo dato.
(discorso fatto nella 50ina di pagine da te saltate ;) )
djmatrix619
22-08-2018, 10:31
Quel grafico, se veritiero, mi ha appena convinto che se passo da 970 a 1080 appena tra qualche mese (se scende come spero), faccio la miglior cosa, non giocando/usando la risoluzione 4k.
Oltre, secondo me, ha senso solo andare se si gioca a 4K a frequenza di aggiornamento alta.
No, hai fatto benissimo. Ho saltato una 50ina di pagine non trovando bench ufficiali.
Da questo grafico la 2080 ne esce molto male. Hanno dovuto per forza far uscire subito anche la Ti.Guarda che quella tabella esprime i TF. Abbastanza inutile visto il cambio di architettura.
Inviato dal mio ZTE A2017G utilizzando Tapatalk
Il nabbo di turno
22-08-2018, 10:34
Questo grafico si basa solamente sui TFlops, ci sono altre variabili in gioco che non danno modo di poter trarre conclusioni sulla base di questo dato.
(discorso fatto nella 50ina di pagine da te saltate ;) )
Il problema è sempre li, nella presentazione è stato fatto un ampio focus sul rt, ma delle performance reali vi è traccia, imho è presto per fare giudizi senza neanche qualche 3mark sotto mano.
CiccoMan
22-08-2018, 10:35
Qualcuno ha qualche informazione riguardo alla data di disponibilità della Asus RTX 2080 Ti Strix O11G ?
Qualcuno ha qualche informazione riguardo alla data di disponibilità della Asus RTX 2080 Ti Strix O11G ?
Drako la da per il 17 settembre ma lo vedo difficile ...
djmatrix619
22-08-2018, 10:36
il 4k maxato forse, per il 4k quasi uguale al maxato a 60fps, ci arriva la xbox one x con una cpu jaguar, figurati se non ci arriveresti con una 1080 ;)
Per questo ho detto a frequenza di aggiornamento alta.. :asd:
A 60FPS ormai non ci giocherei piú ne ora ne mai nella vita.. :asd:
Ti riporto uno stralcio di un articolo dove AMD esprime interesse per il RT, oltre al fatto che tutte le schede DX12 posso supportare il RT (ovviamente di m... se non accelerato in HW):
Il 2018 è l'anno di Ray Tracing, con AMD e Nvidia che stanno facendo un grande affare della tecnologia sia nel mercato della produzione che dei giochi, con Nvidia che spinge la tecnologia particolarmente forte attraverso la loro esclusiva tecnologia RTX Volta.
La maggior parte del focus su Ray Tracing nel mercato dei giochi proviene dall'estensione API DirectX 12 DXR (DirectX Raytracing) di Microsoft. Ogni scheda grafica con supporto DX12 può utilizzare DXR Ray Tracing, sebbene la tecnica di accelerazione del tracciamento dei raggi RTX di Nvidia sia esclusiva per l'architettura Volta dell'azienda al momento della stesura. Ray Tracing è un processo complesso e ad alta intensità di elaborazione, che rende difficile persino l'hardware più potente di oggi.
A GDC 2018 sia AMD che Nvidia hanno espresso interesse per l'aggiunta del supporto Ray Tracing a Vulkan, con Nvidia che ha lavorato su una nuova estensione VK_NV_raytracing per adattarsi all'API Vulkan. Nvidia ha anche dichiarato di essere "pienamente impegnata a lavorare con Khronos sulla standardizzazione multi-vendor" e di cercare una "Struttura simile a quella del DXR di Microsoft" per consentire a DirectX 12 e Vulkan di funzionare allo stesso modo.
È facile capire perché Nvidia voglia una struttura simile alla tecnologia DXR di Microsoft, che già supporta la tecnologia di accelerazione del tracciamento dei raggi RTX di Nvidia, anche se l'allineamento a questo riguardo renderebbe lo sviluppo del gioco molto più semplice attraverso entrambe le API.
FONTE (https://www.overclock3d.net/news/gpu_displays/nvidia_plans_to_bring_ray_tracing_to_vulkan_with_a_new_extension/1)
Ovvio che nVidia sta spingendo a morte il RT...
Nvidia può spingere quello che vuole, dev'esserci un accordo fra i maggiori vendor per implementare delle API in Vulkan e per ora non è stata scritta una riga. Le discussioni riguardanti lo sviluppo Vulkan sono pubbliche, è un API open source e io non vedo assolutamente nulla, nè nelle pull requests nè nelle issues. Tra l'altro Vulkan tutt'ora non implementa FP16 come primitiva quindi per ora il RT non è ancora implementabile (se non in FP32).
Il fatto che Nvidia implementi la sua libreria/wrapper in Vulkan è una cosa che interessa e riguarda solo Nvidia.
Per il ray tracing, AMD non ha nulla di paragonabile in real time, come spiegato più volte credo da AceGranger.
DJurassic
22-08-2018, 10:44
Scusate ma nessuno di voi ha notato che in questa demo (https://www.youtube.com/watch?v=mlKGctu7OC8) oltre al frame rate osceno (parliamo di 40fps di media in fullhd con 2080Ti) c'e' qualcosa che non va?
Se il RT in TR dovrebbe far schizzare gli occhi fuori dalle orbite in fattore di ombre possibile che la corda del rampino non ne proietti mai una sulle superfici?
Addirittura al minuto 6:25 Lara passa sopra una pozza di luce ma non vi e' nessuna ombra proiettata della sua figura. A me sembra che tante cose siano ancora precalcolate e non propriamente in real time. Sinceramente non vedo una mazza di cosi stratosferico finora. Sono aperto ad ogni plausibile smentita.
Thunder-74
22-08-2018, 10:50
Scusate ma nessuno di voi ha notato che in questa demo (https://www.youtube.com/watch?v=mlKGctu7OC8) oltre al frame rate osceno (parliamo di 40fps di media in fullhd con 2080Ti) c'e' qualcosa che non va?
Se il RT in TR dovrebbe far schizzare gli occhi fuori dalle orbite in fattore di ombre possibile che la corda del rampino non ne proietti mai una sulle superfici?
Addirittura al minuto 6:25 Lara passa sopra una pozza di luce ma non vi e' nessuna ombra proiettata della sua figura. A me sembra che tante cose siano ancora precalcolate e non propriamente in real time. Sinceramente non vedo una mazza di cosi stratosferico finora. Sono aperto ad ogni plausibile smentita.
Comunque riguardando il video, è veramente triste a livello grafico... era più bello il precedete capitolo... boh...
Arrow0309
22-08-2018, 10:52
https://wccftech.com/nvidia-rtx-2080-ti-2080-already-in-the-hands-of-a-lucky-few-benchmarks-due-soon/
DJurassic
22-08-2018, 10:53
Comunque riguardando il video, è veramente triste a livello grafico... era più bello il precedete capitolo... boh...
Non saprei. Finche' non lo faro' girare sulla mia config non mi esprimo a riguardo. Dico solo che sta cosa del RT e' una grossa perculata atta solo a spillare palate di bei soldini.
Vedrete che questa storia non finira' bene. Magari al prossimo round le cose miglioreranno ma questo lo vedo come un no contest secco.
CiccoMan
22-08-2018, 10:55
Drako la da per il 17 settembre ma lo vedo difficile ...
Da Drako, così come da Ak e Next la 2080Ti Strix non è disponibile al preorder. Sul sito Asus Rog USA c'è una nota in grigetto che recità così:
Additional models will hit shelves in the coming months, including a hot-clocked version of the ROG Strix GeForce RTX 2080 Ti. Check with your local ASUS ROG representative for details on availability and pricing in your region.
Volevo sapere se qualche utente più informato avesse idea su cosa significasse quel "in the coming months" :D
Thunder-74
22-08-2018, 10:59
Nvidia può spingere quello che vuole, dev'esserci un accordo fra i maggiori vendor per implementare delle API in Vulkan e per ora non è stata scritta una riga. Le discussioni riguardanti lo sviluppo Vulkan sono pubbliche, è un API open source e io non vedo assolutamente nulla, nè nelle pull requests nè nelle issues. Tra l'altro Vulkan tutt'ora non implementa FP16 come primitiva quindi per ora il RT non è ancora implementabile (se non in FP32).
Il fatto che Nvidia implementi la sua libreria/wrapper in Vulkan è una cosa che interessa e riguarda solo Nvidia.
Per il ray tracing, AMD non ha nulla di paragonabile in real time, come spiegato più volte credo da AceGranger.
Comunque, subito dopo l' annuncio di nVidia RTX a marzo, AMD ha annunciato il proprio motore di ray tracing in tempo reale basato su Vulkan open source: Radeon Rays 2.0
FONTE (https://wccftech.com/amds-open-source-vulkan-ray-tracing-engine-debuting-in-games-this-year/)
FONTE 2 (https://www.techpowerup.com/242615/amd-announces-radeon-rays-and-radeon-gpu-profiler-1-2-at-gdc-2018)
Ripeto, non è solo nVidia a voler percorrere la strada del RT, AMD si rende conto che deve fare altrettanto
djmatrix619
22-08-2018, 11:00
Volevo sapere se qualche utente più informato avesse idea su cosa significasse quel "in the coming months" :D
Nei prossimi mesi, non lo sanno manco loro.
É presto ragazzi, almeno fino al 20 Settembre riposatevi.. non ha senso stressare questi siti web per preordinare una scheda che costerá piú del mio PC, monitor inclusi. :asd:
mirkonorroz
22-08-2018, 11:09
Scusate ma nessuno di voi ha notato che in questa demo (https://www.youtube.com/watch?v=mlKGctu7OC8) oltre al frame rate osceno (parliamo di 40fps di media in fullhd con 2080Ti) c'e' qualcosa che non va?
Se il RT in TR dovrebbe far schizzare gli occhi fuori dalle orbite in fattore di ombre possibile che la corda del rampino non ne proietti mai una sulle superfici?
Addirittura al minuto 6:25 Lara passa sopra una pozza di luce ma non vi e' nessuna ombra proiettata della sua figura. A me sembra che tante cose siano ancora precalcolate e non propriamente in real time. Sinceramente non vedo una mazza di cosi stratosferico finora. Sono aperto ad ogni plausibile smentita.
Per dosare la pesantezza computazionale, ci sono dei parametri legati agli oggetti tipo receiveShadows o receiveSoftShadows che abilitano o no il calcolo dell'ombra sull'oggetto o lo rendono trasparente alla feature.
Poi stai a vedere se la cosa e' stata fatta apposta o e' stata una svista (probabile).
Certo che se vi e' un prato e si abilitano le soft shadows RT ad una qualita' decente... auguri :)
Ma al raytracing gli frega qualcosa della risoluzione?
Cioè gli RT core dovrebbero lavorare in base al numero di sample e non dovrebbe interessare più di tanto al risoluzione a cui lavora la parte raster.
Non si può far lavorare i cuda per il raster a 4k e bilanciare i sample del RT perchè pesino come in 1080p?Dipende da due fattori: il primo è la dipendenza della parte raster da quella rt, se le unità coinvolte nei due rendering non operano in modalità asincrona, giocoforza il tempo di rendering delle unità rt farà da collo di bottiglia, il secondo è ammesso che ci siano dipendenze, quanto nel complesso incide il collo di bottiglia.Questo grafico si basa solamente sui TFlops, ci sono altre variabili in gioco che non danno modo di poter trarre conclusioni sulla base di questo dato.
(discorso fatto nella 50ina di pagine da te saltate ;) )I flops no, ma ci sono altri aspetti che spesso vengono ignorati, mickael prima ha confrontato 970 e 780ti, se guardiamo i flops il ragionamento nn fa una piega, ma se prendiamo in considerazione le rops che sono aumentate, e le frequenze operative ?
Ad esempio la 1080ti va il 50% in più rispetto ad una 980ti, ottenuto come: aumentando del 50% il numero di transistors e del 20/30% le frequenze.
La 2080ti ha il 50% di transistors in più rispetto ad una 1080ti dei quali probabilmente la metà dedicati alle unità rt, e frequenze simili ma di boost massimo probabilmente inferiori causa vincoli energetici sul consumo, potrà mai andare il 50% in più ?
Io penso di no, sul sito ufficiale nella pagina dedicata alla 1080ti c'è un confronto con la 980ti https://www.nvidia.it/geforce/products/10series/geforce-gtx-1080-ti/ mentre la 2080ti, perché non la confrontano sul sito ufficiale con la 1080ti in giochi senza rt ?
Inviato dal mio BTV-DL09 utilizzando Tapatalk
AceGranger
22-08-2018, 11:15
Comunque, subito dopo l' annuncio di nVidia RTX a marzo, AMD ha annunciato il proprio motore di ray tracing in tempo reale basato su Vulkan open source: Radeon Rays 2.0
FONTE (https://wccftech.com/amds-open-source-vulkan-ray-tracing-engine-debuting-in-games-this-year/)
FONTE 2 (https://www.techpowerup.com/242615/amd-announces-radeon-rays-and-radeon-gpu-profiler-1-2-at-gdc-2018)
Ripeto, non è solo nVidia a voler percorrere la strada del RT, AMD si rende conto che deve fare altrettanto
vedremo questo come sara, perchè quello pubblicizzato fino ad ora da AMD è fuffa
DJurassic
22-08-2018, 11:15
Io penso di no, sul sito ufficiale nella pagina dedicata alla 1080ti c'è un confronto con la 980ti https://www.nvidia.it/geforce/products/10series/geforce-gtx-1080-ti/ mentre la 2080ti, perché non la confrontano sul sito ufficiale con la 1080ti in giochi senza rt ?
Ehmmmmmm :mc: :mc: :mc: :mc:
Thunder-74
22-08-2018, 11:39
Dipende da due fattori: il primo è la dipendenza della parte raster da quella rt, se le unità coinvolte nei due rendering non operano in modalità asincrona, giocoforza il tempo di rendering delle unità rt farà da collo di bottiglia, il secondo è ammesso che ci siano dipendenze, quanto nel complesso incide il collo di bottiglia.I flops no, ma ci sono altri aspetti che spesso vengono ignorati, mickael prima ha confrontato 970 e 780ti, se guardiamo i flops il ragionamento nn fa una piega, ma se prendiamo in considerazione le rops che sono aumentate, e le frequenze operative ?
Ad esempio la 1080ti va il 50% in più rispetto ad una 980ti, ottenuto come: aumentando del 50% il numero di transistors e del 20/30% le frequenze.
La 2080ti ha il 50% di transistors in più rispetto ad una 1080ti dei quali probabilmente la metà dedicati alle unità rt, e frequenze simili ma di boost massimo probabilmente inferiori causa vincoli energetici sul consumo, potrà mai andare il 50% in più ?
Io penso di no, sul sito ufficiale nella pagina dedicata alla 1080ti c'è un confronto con la 980ti https://www.nvidia.it/geforce/products/10series/geforce-gtx-1080-ti/ mentre la 2080ti, perché non la confrontano sul sito ufficiale con la 1080ti in giochi senza rt ?
Inviato dal mio BTV-DL09 utilizzando Tapatalk
E' questo che spaventa.... si sono sempre pavoneggiati da una generazione all'altra per gli incrementi ottenuti...
OPPURE VERSIONE BICCHIERE MEZZO PIENO
Non vogliono calcare troppo la mano visto le scorte di Pascal da smaltire... della serie, lanciamo le nuove sottolineando le nuove features, senza dire che sono bombe rispetto a Pascal. Ci prendiamo un altro mesetto nella speranza di smaltire quest'ultime visto i prezzi esosi di Turing, ma poi una volta arrivate le recensioni vedrete che Turing venderà...
Del resto credo che molti visti i prezzi, possano realmente essersi dirottati su Pascal... lo stiamo dicendo anche qui.
bronzodiriace
22-08-2018, 11:43
https://i.redd.it/eypw5ts1tih11.png
Magari era già stata postata, in caso la cancello...
Questi grafici non dicono molto sopratutto nel confronto Turing/Pascal.
I TFLOPS non sono il miglior modo di misurare la potenza di una vga.
Biscottoman
22-08-2018, 11:45
E' questo che spaventa.... si sono sempre pavoneggiati da una generazione all'altra per gli incrementi ottenuti...
OPPURE VERSIONE BICCHIERE MEZZO PIENO
Non vogliono calcare troppo la mano visto le scorte di Pascal da smaltire... della serie, lanciamo le nuove sottolineando le nuove features, senza dire che sono bombe rispetto a Pascal. Ci prendiamo un altro mesetto nella speranza di smaltire quest'ultime visto i prezzi esosi di Turing, ma poi una volta arrivate le recensioni vedrete che Turing venderà...
Del resto credo che molti visti i prezzi, possano realmente essersi dirottati su Pascal... lo stiamo dicendo anche qui.
Questa visione mi piace molto di più :asd:
techsaskia
22-08-2018, 11:48
Ci metti questa e sei a posto :>
https://uploads.tapatalk-cdn.com/20180822/093e2cc2319d95496219eb8279065b4d.jpg
mamma mia, siamo finiti a mettere le schede in verticale :D
Spider-Mans
22-08-2018, 11:50
Questi grafici non dicono molto sopratutto nel confronto Turing/Pascal.
I TFLOPS non sono il miglior modo di misurare la potenza di una vga.
vero
attendiamo
cmq dubito che 2080 eguagli la 1080ti
2070 sicuro sotto
entrambe con solo 8gb vram le sconsiglierei in ottica 4k.....meglio una 1080ti che ha piu vram
la 2080ti sara ovviamente superiore...20% o 40% ? se fosse 40% diventerebbe interessante per chi ha la 1080ti.....ora una 1080ti la vendi bene a 700 euro.....fra un mese chissa
ma il prezzo della 2080ti è folle ... fosse 900 euro..
mikael84
22-08-2018, 11:50
I flops no, ma ci sono altri aspetti che spesso vengono ignorati, mickael prima ha confrontato 970 e 780ti, se guardiamo i flops il ragionamento nn fa una piega, ma se prendiamo in considerazione le rops che sono aumentate, e le frequenze operative ?
Ad esempio la 1080ti va il 50% in più rispetto ad una 980ti, ottenuto come: aumentando del 50% il numero di transistors e del 20/30% le frequenze.
La 2080ti ha il 50% di transistors in più rispetto ad una 1080ti dei quali probabilmente la metà dedicati alle unità rt, e frequenze simili ma di boost massimo probabilmente inferiori causa vincoli energetici sul consumo, potrà mai andare il 50% in più ?
Io penso di no, sul sito ufficiale nella pagina dedicata alla 1080ti c'è un confronto con la 980ti https://www.nvidia.it/geforce/products/10series/geforce-gtx-1080-ti/ mentre la 2080ti, perché non la confrontano sul sito ufficiale con la 1080ti in giochi senza rt ?
Inviato dal mio BTV-DL09 utilizzando Tapatalk
La 1080ti è ben sopra il 50%, nelle medie default per default si tocca, ed a volte si superano mediamente i 75%.;)
https://s15.postimg.cc/h1zjd8onf/1080ti.png
Chiaramente questi numeri con questo chip possiamo scordarceli.
Infatti se analizzassimo il rapporto con SM uguali a Pascal la 2080ti passerebbe circa il 10/12% la 1080ti.
Su Kepler è Maxwell, non ho fatto un preciso confronto flops per flops, ma ho lasciato intravedere che le schede non si misurano solo in base a quello, ma a tutta una serie di fattori.;)
techsaskia
22-08-2018, 11:52
Il multiGPU DX12 è presente anche in Gears of war 4, tomb raider e deus ex. Provati personalmente e ottenuti aumenti anche del 30% rispetto al canonico Sli in dx11. Qui sono le SH a doverci lavorare
Inviato dal mio iPhone X utilizzando Tapatalk
si ma usano tutti AFR quindi niente di diverso dal vecchio SLI DX11.
la vera rivoluzione stava nell'SFR ma purtroppo pare che nessuno lo usi.
techsaskia
22-08-2018, 11:54
Io gioco in fullhd per il momentoi (e penso di aspettare ancora un annetto minimo per cambiare il monitor). Ho appena preso una evga 1080ti SC a 515 euro
mi rincuora sapere che non sono l'unico pollo ad avere un full hd con gpu capaci di 4K 60FPS.
ma usi il DSR o preferisci i 200FPS?
Thunder-74
22-08-2018, 11:56
si ma usano tutti AFR quindi niente di diverso dal vecchio SLI DX11.
la vera rivoluzione stava nell'SFR ma purtroppo pare che nessuno lo usi.
questo è vero, ma già così con le DX!2, lo SLi scala molto di più. Me ne rendevo conto dal raggiungimento del power limit, cosa che in DX11 non avveniva.
techsaskia
22-08-2018, 11:59
questo è vero, ma già così con le DX!2, lo SLi scala molto di più. Me ne rendevo conto dal raggiungimento del power limit, cosa che in DX11 non avveniva.
io il power limit lo raggiungevo pure su DX11 in molti giochi però concordo che il DX12 quando funziona funziona bene.
a questo punto però nvlink non mi da nessuna speranza di miglioramento.
DX12 SFR c'era da una vita, non l'ha mai usato nessuno, forse troppo lavoro per un'orda di persone che ripete le stesse cose di chi lo SLI non lo ha mai provato.
Vedo orde di enthusiast sperculare le nuove RTX :eek:
Forse stavolta ci siamo davvero, ma non ne sono così certo :asd: manca solo il competitor :stordita:
bronzodiriace
22-08-2018, 12:15
La 1080ti è ben sopra il 50%, nelle medie default per default si tocca, ed a volte si superano mediamente i 75%.;)
https://s15.postimg.cc/h1zjd8onf/1080ti.png
Chiaramente questi numeri con questo chip possiamo scordarceli.
Infatti se analizzassimo il rapporto con SM uguali a Pascal la 2080ti passerebbe circa il 10/12% la 1080ti.
Su Kepler è Maxwell, non ho fatto un preciso confronto flops per flops, ma ho lasciato intravedere che le schede non si misurano solo in base a quello, ma a tutta una serie di fattori.;)
Anche perchè la 780TI ha più TF della 980TI
fabietto27
22-08-2018, 12:29
Io penso che se la 2080Ti non fa almeno un 50% di prestazioni in piú rispetto la 1080Ti rimango con quest'ultima. Vorrá dire che i soldi della 2080Ti li uso per upgradare la piatta. E mi avanzano pure:sofico:Dottore come al solito la stimo!
Inviato dal vivavoce della mia Daf Variomatic
edit_user_name_here
22-08-2018, 12:38
sono un tecnico informatico da più di 25 anni la cosa che ho sempre odiato sono i case piccoli,ti posso garantire che è uno schifo quando becchi quei case fatti male e devi fare entrare tutto,e magari ti arriva il cliente che vuole 4 hd e case piccolo ecc...,per questi motivi,per le svariate volte che maledicevo i vari vultech e cinesi vari,per le volte che mi sono pure tagliato (lo so ma odio i guanti),mi sono promesso di comprare sempre case grandi per me,su questo pc venivo da un haf 922 che incominciava a starmi stretto e ho optato per il 900d,ho un altro pc con stacker 832 molto meno spazioso del 900d ma a quei tempi i case questi erano,mentre in ufficio ho il primo stacker!ultimamente ho preso un cm mini per uso ufficio e non avendo pretese di hardware potente non ho problemi,la tranquillità che qualsiasi cosa prendi va bene non ha prezzo.io per esempio non concepisco lo sli:
1)è ottimizzato male e spesso da molte rogne
2)spesso non è supportato
3)consuma parecchio e stressa l'alimentatore
4)maggiori temperature nel case,io infatti pur prendendo una sola 2080ti deve essere la più fresca perchè ho paura per l'ssd m2
5) con quello che paghi all'inizio puoi prendere una seconda scheda a distanza di qualche anno
Concordo :) anche se di solito con i tecnici ci ho sempre litigato :asd: apparte questo :D non credo che quel utente capisca.Diceva che non gradiva cambiare una scheda ogni anno ma averne 2 che duravano anni xD
Vega 7nm è roba per il mercato professionale non gaming, non c'è nessuna voce che parla di una vega 7nm gaming.
AMD non mollerà di certo il mercato gaming anche perchè sfruttando la stessa architettura che poi va su console sarebbero pazzi.
Quello che potrebbe fare sarebbe mollare il colpo sulla fascia alta se non ha pronto in tempi brevi qualcosa da paragonare a RT core, ecc.
Cioè come ha fatto 2 anni fa con Polaris che dopo tutto è la fascia che vende di più per AMD, in realtà vende di più anche per Nvidia come numeri ma Nvidia sulla fascia alta ha dei margini enormi e ci guadagna di più.
P.S: comunque converrebbe a tutti che AMD abbia qualcosa di pronto entro 1 annetto che riguardi il raytracing altrimenti niente raytracing nelle prossime console e il raytracing rischierebbe di fare la fine del Physix, una bella cosa ma solo per Nvidia e per cui gli sviluppatori devono sbattersi troppo.
Non ho capito.Se amd non fa raytracing la nvidia ci perde?
Se non hai intezione di attivare rtx tanto vale puntare sulla vecchia gen e risparmiare a sto punto.
Più che altro non ho capito se funziona solo su windows 10.Io devo ancora fare il passaggio lol.
Se avesse avuto tutto questo distacco (altamente improbabile) Jensen non avrebbe fatto tutto quel discorso sul "nuovo modo di calcolare le performance".
RTX è una gen di prova in cui Nvidia vuole spingere il deep learning nel mercato gpu.
Chi si comprerà le RTX farà nient'altro che l'early adopter.
E si, potete dire quanto vi pare che "architettura bla bla bla non puoi paragonare i tflops", sono d'accordo, non puoi nemmeno paragonare le macchine in base ai cavalli, ma è pur sempre un numero puro e crudo molto indicativo:"quante operazioni in virgola mobile può fare al secondo questa gpu?".
E poi non è che cambiare architettura implica sempre e comunque migliore efficienza e prestazioni sotto tutti i punti di vista. Ci sono sempre dei tradeoff per cui se fai qualcosa meglio di prima, rinunci ad altro (che siano latenze interne, clock, velocità d'esecuzione di istruzioni specifiche, ecc).
Sicuramente è un punto di partenza ma aspettiamo prima i test e poi vediamo se veramente è solo per full hd :) se no nessuno le comprerebbe.
a me sembra così assurdo che nvidia passi dalla vga 4k 60fps (diciamo) come la 1080ti alla vga 1080p + RT... cioè le persone secondo me la prenderebbero male.
o tarano questi RT per non appesantire troppo le unità di calcolo o credo che chi sia abituato al 4k e la 1080ti non so quanto possa aver piacere a scendere sul 1080p magari a framerate ballerino per il raytracing.
E' quello che dico anche io percui mi sembra assai strano :) che senso ha fare una nuova tecnologia, anche solo per partire o per test, se poi tutti rimangono delusi?Dobbiamo aspettare i test.
Ribadisco, a me delle cose messe lì per fare i fighi non frega nulla, il discorso per quanto mi riguarda è semplice: se la scheda con RT attivo mi tiene i 60fps in FHD ci posso anche pensare, sennò mi tengo la mia 1080TI che in QHD rulla una schiccheria e non ho necessità al momento di cambiare.
Io non gioco in 4k, per cui l'unico motivo per cambiare sarebbe avere gli effetti in più del RT: al momento le prestazioni sui giochi "tradizionali" sono perfette non mi frega niente se faccio 120 o 150 frames. Me ne bastano anche 60.
Aspetto i 7nm, dove sono convinto che i RT core saranno in grado di gestire bene la situazione, perché:
1- Essendo il die più piccolo, potranno essere più potenti senza che la GPU scaldi e consumi un botto
2- Secondo me questa feature è pensata per i 7nm: inserirla ora è solo una forzatura fatta come ha detto qualcuno per fare apripista
3- I 7nm a mio avviso arriveranno a settembre del prossimo anno, come dimostra l'introduzione immediata della padella
Non vorrei anticipare le recensioni, ma la mia sensazione è di un mezzo fail: consumi e calore alle stelle e prestazioni adeguate solo sui giochi classici ma comunque non tali da spingere chi ha una 1080ti e non gioca in 4k a cambiare scheda. Mentre le nuove features arrancano abbastanza evidentemente. E parlo della 2080ti, quelle prima non le commento nemmeno...
Secondo me hanno sbagliato ad a fare i test in full hd dovevano aspettare di consolidarlo via driver per il raytracing e mostrarlo dopo.
Se sarà un fail lo vedremo sarò anche io qua a dirlo :D
Boh, io faccio un ragionamento molto pratico, senza stare a fare troppi calcoli. Al momento con la 1080Ti alla mia risoluzione non ho alcun problema con i giochi che possiedo. Quando invece questo succederà, per l'implementazione massiccia delle DX12 o per l'RT a cui magari mi dispiacerà rinunciare, faccio l'upgrade! Però lo farò al momento in cui ho il gioco installato nell'HD e vedo che la 1080Ti non ce la fa, non prima.
Fai bene ma per chi approfitta di uno sconto o deve cambiare una scheda grafica più vecchia può pensare diversamente :)
Quel grafico, se veritiero, mi ha appena convinto che se passo da 970 a 1080 appena tra qualche mese (se scende come spero), faccio la miglior cosa, non giocando/usando la risoluzione 4k.
Oltre, secondo me, ha senso solo andare se si gioca a 4K a frequenza di aggiornamento alta.
60 fps su 120hz cmq hai sempre un miglioramento.Ovviamente in 120 fps li vedi meglio gli hz ma non è un obbiettivo da raggiungere per forza che io sappia :) però non ho ancora avuto esperienza al riguardo.
Giovamas
22-08-2018, 12:58
Nei prossimi mesi, non lo sanno manco loro.
É presto ragazzi, almeno fino al 20 Settembre riposatevi.. non ha senso stressare questi siti web per preordinare una scheda che costerá piú del mio PC, monitor inclusi. :asd:
e senza benchs "ufficiali" tra l'altro....
RTX 2070 al 90 % mia appena disponibile in zona (spero non troppo tardi). Arrivando da una GTX 750 TI dovrei avere un leggero stacco prestazionale.......benebene amo Ray Traceareeeee......:D
fireradeon
22-08-2018, 13:26
ma scusa, posti una roba in cui si dice che tomb raider usa il ray tracing, e subito sotto dici che non ha il ray tracing? In ogni caso è presto parlare di prestazioni, bisogna vedere appena escono
Ti ha risposto amon.akira qui......
allora per ora le cose stanno così
giochi con 1sola opzione raytraced ciascuno (scelta libera ma insidacabile visto la poca potenza attuale)
Shadow of tomb raider (crystal dinamic ha preso le ombre raytraced, ovviamente chiamandosi "shadow...")
battlefieldv (DICE ha pescato il bastoncino con i riflessi raytraced)
metro (si è beccato il bastoncino piu lungo, global illumination raytraced)
ora in ogni caso si parla di 1080p, sopra questa risoluzione non c'è spazio.
con Shadow of tomb raider abbiamo 40fps medi a 1080p con 2080ti con 78T ops, automaticamente la 2080 e 2070 sono fuori dai giochi, potevano imho pensare solo la 2080ti come RTX, gli altri si dovranno accontentare della scritta sulla scatola.....
L'unico che userà la CICCIA vera del ray tracing sarà Metro Exodus ed è anche normale perchè lo avranno sviluppato con quell'obiettivo e anche per questo rinviato (secondo me).
bon, quindi o si gioca coi 4 giochi in croce che usano rtx e lo si attiva o non si gioca perchè ste schede sono inusabilii in altri contesti perchè si' :asd: facessero il 100% (demo infiltrator) più di una ti in 4k farebbero schifo uguale perchè oramai a leggervi rtx is the new 3d come per i tv qualche anno fa :D sarà perchè a me ste famigerate ombre non mi fanno impazzire e ai tempi dell'hardware che inseguiva il software erano la prima cosa che spegnevo senza colpo ferire lato eye candy (ma che razzo hanno di speciale spiegatemi? sono una proiezione scura in base a una fonte di luce, che c'è di così menoso? :D) ..nel frattempo però mentre si gioca su ste cose che non mi cambiano na mazza continuo a vedere acqua fatta col culo nella maggior parte dei titoli (di cui nessuno si lamenta), fisica inesistente e aliasing a manetta coi merdosi filtri via shader che hanno introdotto ai tempi del deferred rendering e che sono diventati una tassa ormai :sbonk:
PS: detto da uno che considera ste schede una meteora in attesa dei 7nm venduta a prezzi da denuncia :read: per la prima volta da secoli mi viene da dire che nvidia ha cannato del tutto tempi e pp come amd fece ai tempi della fury X (solo che quella si permetteva pure il lusso di NON battere il top rivale uscito prima :asd: )
Parliamo sempre senza dati alla mano e su un test leaked (che poi test non è) di Tomb Raider, ma se fossero confermati ti do ragione, sono le schede pacco per eccellenza, alla fine queste vga sono fatte per sfruttare il ray tracing, se non lo sfrutti a che servono? A sto punto visto che prima di Ottobre/Novembre non troverai le custom a prezzi umani, bisogna aspettare ed entro 6 mesi usciranno le nuove, ne sono stra convinto a maggior ragione se arrancano con il ray tracing.
Ma vi immaginate se quando esce Metro Exodus non gira nemmeno sulla 2080ti? Normale che ci voglia la nuova vga e taaak escono le nuove (la butto lì, entro Maggio/Giugno 2019).
P.S. Io sono poco informato sui dati tecnici etc. ma ho imparato che la Nvidia sa come e quando vendere e sa che se c'è un gioco pesante e c'è sete di VGA loro arrivano per dissetarci (a prezzi modici :D ) e così sarà! Io aspetto solo di vedere i test di Shadow of the Tomb Raider con RTX on e se sono confermati stappo lo champagne perchè vuol dire che entro metà 2019 esce qualcosa.
ragionando sugli elementi che si hanno a disposizione ora, per chi si trova a dover cambiare VGA, probabilmente le scelte migliori sono 2070/2080.
Se tanto la 2080ti arranca con il RT in FHD, inutile abilitarlo. Sembra che anche BFV non riesca a girare sui 60FPS a tale risoluzione.
Aspettiamo reviews per varie conferme...
Ora come ora le 2070 e le 2080 sono inutili e la 2080Ti costa troppo ergo vai di 1080Ti usata a 500 euro che giochi alla grande, tanto il ray tracing non lo attiverai.
Se i test confermano la pesantezza, questo è lo scenario più logico.
Se non hai intezione di attivare rtx tanto vale puntare sulla vecchia gen e risparmiare a sto punto.
Amen
RTX 2070 al 90 % mia appena disponibile in zona (spero non troppo tardi). Arrivando da una GTX 750 TI dovrei avere un leggero stacco prestazionale.......benebene amo Ray Traceareeeee......:D
Ami il Ray trace con una 2070 che ti andrà forse a 25 30 fps in FHD per dei dettagli in più che non servono a oggi giorno? contento te.
Nessuno ha leakato una recensione ? .
amon.akira
22-08-2018, 13:39
Ami il Ray trace con una 2070 che ti andrà forse a 25 30 fps in FHD per dei dettagli in più che non servono a oggi giorno? contento te.
se ripeto SE fosse vero che la 2080ti con 78t ops scende a 33fps, una 2070 con il 75% (45t ops) in meno andrebbe a 19fps
IT JUST WORKS! (Jensen cit. :D )
fireradeon
22-08-2018, 13:48
Certo che sulla carta è assurdo pensare che ste schede annunciate in pompa magna come RT capable, di fatto non potranno usarlo. Mi sembra una "amdiata" e non ci credo. Cioè qua la maggior parte dei commenti è "prendi pascal che tanto l'rt manco sulla 2080ti lo puoi attivare"... caspita è uno scenario poco credibile ma nVidia in tal senso non ci sta dando granché a cui aggrapparci, battute a parte :D
Ma sai in questo momento è tutto un rischio e si va a :ciapet: perchè ci sono diverse opzioni:
1) Resti così come sei e aspetti recensioni e poi decidi.
2) Preordini e se le info leaked sono vere allora ti hanno fregato.
3) Preordini e se le info leaked sono false hai indovinato (lasciando stare il discorso prezzo che può essere soggettivo).
4) Prendi una 1080Ti a 500/550 euro e se le info leaked sono vere stappi lo champagne, perchè se davvero l'RTX non lo sfrutti allora i prezzi dell'usato delle 1080Ti aumentano perchè il divario non è poi così netto e addirittura converrebbe la 1080Ti rispetto alla 2080 o 2070 considerando che ne trovi a prezzo stracciato una marea per ora.
5) Prendi una 1080Ti a 500/550 euro e se le info leaked sono false ti è andata "male" ma almeno hai risparmiato.
Legolas84
22-08-2018, 13:49
Certo che sulla carta è assurdo pensare che ste schede annunciate in pompa magna come RT capable, di fatto non potranno usarlo. Mi sembra una "amdiata" e non ci credo. Cioè qua la maggior parte dei commenti è "prendi pascal che tanto l'rt manco sulla 2080ti lo puoi attivare"... caspita è uno scenario poco credibile ma nVidia in tal senso non ci sta dando granché a cui aggrapparci, battute a parte :D
Tieni presente che di qualcosa bisogna pur parlare... Voglio dire per ora ci sono ben pochi elementi per valutare realmente la situazione. Quando usciranno le recensioni si potrà sentenziare tranquillamente.
Mikael ha più volte detto che oltre a Cuda Core in più Turing può contare su ottimizzazioni importanti rispetto a Pascal. Quindi ora non resta che vedere i numeri. È ovvio che della 2080Ti bisogna aspettarsi almeno un +50% sulla 1080Ti al netto del RT, altrimenti vuol dire che su questo processo produttivo non si poteva fare di più.
Legolas84
22-08-2018, 13:51
Ma sai in questo momento è tutto un rischio e si va a :ciapet: perchè ci sono diverse opzioni:
1) Resti così come sei e aspetti recensioni e poi decidi.
2) Preordini e se le info leaked sono vere allora ti hanno fregato.
3) Preordini e se le info leaked sono false hai indovinato (lasciando stare il discorso prezzo che può essere soggettivo).
4) Prendi una 1080Ti a 500/550 euro e se le info leaked sono vere stappi lo champagne, perchè se davvero l'RTX non lo sfrutti allora i prezzi dell'usato delle 1080Ti aumentano perchè il divario non è poi così netto e addirittura converrebbe la 1080Ti rispetto alla 2080 o 2070 considerando che ne trovi a prezzo stracciato una marea per ora.
5) Prendi una 1080Ti a 500/550 euro e se le info leaked sono false ti è andata "male" ma almeno hai risparmiato.
Bo io penso che aspettare almeno le review non costi niente :) Però ragazzi c'è gente che ha comprato delle Vega64 pagandole quanto una 1080Ti... quindi è ovvio che ci sarà chi comprerà delle RTX 2080Ti a scatola chiusa... a volte il cuore comanda sulla ragione.
ultimate trip
22-08-2018, 13:53
Certo che sulla carta è assurdo pensare che ste schede annunciate in pompa magna come RT capable, di fatto non potranno usarlo. Mi sembra una "amdiata" e non ci credo. Cioè qua la maggior parte dei commenti è "prendi pascal che tanto l'rt manco sulla 2080ti lo puoi attivare"... caspita è uno scenario poco credibile ma nVidia in tal senso non ci sta dando granché a cui aggrapparci, battute a parte :D
intanto chi l'ha solo provata con un po' di giochi parla di oltre 100 fps a 4k con setting alti su AAA
https://wccftech.com/nvidia-geforce-rtx-2080-ti-performance-preview-4k-100-fps/
mi rincuora sapere che non sono l'unico pollo ad avere un full hd con gpu capaci di 4K 60FPS.
ma usi il DSR o preferisci i 200FPS?
Preferisco gli fps, ma l'ho presa anche nell'ottica di cambiare monitor fra un pò. Ma le nuove non mi convincevano e i prezzi li trovo esagerati.
Alla fine gioco, ma non dedico così tanto tempo da avere il top del top
Come fai a dire che è un insulto se non le provi neanche?Mah sinceramente io non capisco ste cose.Posso capire se non le vuoi provare tu ma fallo provare almeno agli altri.Se poi non vuoi comprarle è una tua scelta.Non bisogna comprare per forza l'ultima cosa uscita top.
Te lo ricordi che stai sempre parlando di una scheda per "giocare ai giochini" vero?!? :mbe:
Non è che stai parlando di un nuovo macchinario che salva la vita ai cristiani sai :doh:
Thunder-74
22-08-2018, 14:03
intanto chi l'ha solo provata con un po' di giochi parla di oltre 100 fps a 4k con setting alti su AAA
https://wccftech.com/nvidia-geforce-rtx-2080-ti-performance-preview-4k-100-fps/
Volendo possiamo anche aggiungere che alcune quelli di DICE hanno tranquillizzato dicendo che il supporto RT è ancora acerbo è che all’uscita dei titoli il tutto sarà molto meglio gestito tanto da rimanere sorpresi
https://wccftech.com/tomb-raider-nvidia-rtx-gamescom-demo/
Inviato dal mio iPad utilizzando Tapatalk
CiccoMan
22-08-2018, 14:14
edit
Arrow0309
22-08-2018, 14:16
edit
Edit :D
Concordo :) anche se di solito con i tecnici ci ho sempre litigato :asd: apparte questo :D non credo che quel utente capisca.Diceva che non gradiva cambiare una scheda ogni anno ma averne 2 che duravano anni xD
Non ho capito.Se amd non fa raytracing la nvidia ci perde?
Più che altro non ho capito se funziona solo su windows 10.Io devo ancora fare il passaggio lol.
Sicuramente è un punto di partenza ma aspettiamo prima i test e poi vediamo se veramente è solo per full hd :) se no nessuno le comprerebbe.
E' quello che dico anche io percui mi sembra assai strano :) che senso ha fare una nuova tecnologia, anche solo per partire o per test, se poi tutti rimangono delusi?Dobbiamo aspettare i test.
Secondo me hanno sbagliato ad a fare i test in full hd dovevano aspettare di consolidarlo via driver per il raytracing e mostrarlo dopo.
Se sarà un fail lo vedremo sarò anche io qua a dirlo :D
Fai bene ma per chi approfitta di uno sconto o deve cambiare una scheda grafica più vecchia può pensare diversamente :)
60 fps su 120hz cmq hai sempre un miglioramento.Ovviamente in 120 fps li vedi meglio gli hz ma non è un obbiettivo da raggiungere per forza che io sappia :) però non ho ancora avuto esperienza al riguardo.
volendo pure una dura anni,uno si arrangia,io sono contrario ai pc "caldi" passatemi il termine,lo so che forse è una fissazione sbagliata ma non sopporto il pensiero di certe temperature,ho avuto in passato la seconda scheda video e non l'ho montata,se la 2080ti dovesse essere un forno e non posso trovare una soluzione ragionevole opterò per la prima scheda video "fresca"magari sacrificando qualche filtro,forse una 2070 oppure salto al 2019.maledetti m2 che scaldano pure loro
Verissimo, il Samsung Q9F ha il VRR e un input lag di 15ms e funziona con la Xbox One X.
Il TV costicchia ma ha un'ottima immagine, un HDR con qualche ombra ma un prezzo leggermente alto se paragonato agli Oled (anche il TV LG C8 ha un basso input lag ed è oled).
Concordo sul Q9F, ma non lo prenderei mai, al pari di qualsiasi TV 2018. Per me il vero salto sono i 120hz, prendere una nuova tv oggi equivale a prenderla castrata e quindi già "vecchia" ancor prima di sballarla.
L'obiettivo sarebbe un OLED 2019 con HDMI 2.1 se il budget lo consente, altrimenti un Sony o Samsung FALD.
edit_user_name_here
22-08-2018, 14:36
Lascia perdere AMD. Se le nVidia hanno un RT core solo per SKU da 800€ in su pensi che gli sviluppatori si taglino via il 99% del mercato programmando per quelle oppure programmeranno per tutte le altre schede, comprese TUTTE le vecchie generazioni e quelle della concorrenza?
Beh bisogna vedere se le prossime schede nvidia magari le faranno anche per tagli più bassi, costo più bassi, e magari anche amd dopo.
Secondo me cosi facendo obbligheranno il cambio di scheda dopo un tot di tempo anche per chi ha schede che non se le cambia da 10 anni perchè non funzioneranno più bene.
Come si fece per il digitale terrestre.Tutti se la dovevano cambiare o comprare per forza il digitale terrestre per continuare a vedere.Anche chi il tv non se lo cambiava da decine di anni e li durava.Cosa voglio dire?Che non mi meraviglio se potrebbe andare a finire cosi sinceramente.Loro vogliono vendere d'altronde :)
E chissà che magari escono anche delle console, più economiche, con quell'effetto tra un paio di anni poi.
No, ci perdiamo noi giocatori :)
Perchè la diffusione sarebbe molto bassa.
Ah ok :) beh cmq io credo sia presto per dirlo magari poi ci passano(la amd) anche loro.Intanto che ci siano già una decina di giochi e passa che lo faranno già un inizio buono.
Ti ha risposto amon.akira qui......
L'unico che userà la CICCIA vera del ray tracing sarà Metro Exodus ed è anche normale perchè lo avranno sviluppato con quell'obiettivo e anche per questo rinviato (secondo me).
Parliamo sempre senza dati alla mano e su un test leaked (che poi test non è) di Tomb Raider, ma se fossero confermati ti do ragione, sono le schede pacco per eccellenza, alla fine queste vga sono fatte per sfruttare il ray tracing, se non lo sfrutti a che servono? A sto punto visto che prima di Ottobre/Novembre non troverai le custom a prezzi umani, bisogna aspettare ed entro 6 mesi usciranno le nuove, ne sono stra convinto a maggior ragione se arrancano con il ray tracing.
Ma vi immaginate se quando esce Metro Exodus non gira nemmeno sulla 2080ti? Normale che ci voglia la nuova vga e taaak escono le nuove (la butto lì, entro Maggio/Giugno 2019).
P.S. Io sono poco informato sui dati tecnici etc. ma ho imparato che la Nvidia sa come e quando vendere e sa che se c'è un gioco pesante e c'è sete di VGA loro arrivano per dissetarci (a prezzi modici :D ) e così sarà! Io aspetto solo di vedere i test di Shadow of the Tomb Raider con RTX on e se sono confermati stappo lo champagne perchè vuol dire che entro metà 2019 esce qualcosa.
Ora come ora le 2070 e le 2080 sono inutili e la 2080Ti costa troppo ergo vai di 1080Ti usata a 500 euro che giochi alla grande, tanto il ray tracing non lo attiverai.
Se i test confermano la pesantezza, questo è lo scenario più logico.
Amen
Veramente se fa un fail la nvidia difficilmente la clientela comprerà al day one la 7 nm con stessa tecnologia perchè avrà dei dubbi.Dunque bisogna sperare positivo.Non è detto cmq che escono cosi presto le prossime e, cmq , non a prezzi bassi.
Ma sai in questo momento è tutto un rischio e si va a :ciapet: perchè ci sono diverse opzioni:
1) Resti così come sei e aspetti recensioni e poi decidi.
2) Preordini e se le info leaked sono vere allora ti hanno fregato.
3) Preordini e se le info leaked sono false hai indovinato (lasciando stare il discorso prezzo che può essere soggettivo).
4) Prendi una 1080Ti a 500/550 euro e se le info leaked sono vere stappi lo champagne, perchè se davvero l'RTX non lo sfrutti allora i prezzi dell'usato delle 1080Ti aumentano perchè il divario non è poi così netto e addirittura converrebbe la 1080Ti rispetto alla 2080 o 2070 considerando che ne trovi a prezzo stracciato una marea per ora.
5) Prendi una 1080Ti a 500/550 euro e se le info leaked sono false ti è andata "male" ma almeno hai risparmiato.
Veramente io la vedo diversamente.Se fai un preordine puoi recedere e non hai perso granchè.
Se hai preso una 1080 ti usata non la puoi rimandare indietro e rimani fregato e non hai risparmiato perchè è quello il prezzo e può anche diminuire sull'usato :) se vanno bene intendo le 2000.Se invece non vanno bene le 2000 allora il prezzo delle 1080 possono sempre rimanere quelle ma non di certo aumentare.Perchè, alla fin fine, può diminuire il prezzo delle 2000 e dunque la 1080, essendo più lenta cmq sia, non può aumentare di certo.
Dunque non è cosi scontato.
Te lo ricordi che stai sempre parlando di una scheda per "giocare ai giochini" vero?!? :mbe:
Non è che stai parlando di un nuovo macchinario che salva la vita ai cristiani sai :doh:
Ogni hobby ha i suoi costi ma non per questo ho detto che è un macchinario salvavita.Semplicemente se per te è assurdo perchè pensi che devono costare solo i macchinari che salvano la vita di più beh... non sai molto del mercato e della vita :) la vita non è fatta solo di vivacchiare e mangiare e bere e dormire XD ma sei libero di non comprarlo se vuoi.Nessuno ti obbliga(ne tanto meno informarti al riguardo se ti da fastidio).
volendo pure una dura anni,uno si arrangia,io sono contrario ai pc "caldi" passatemi il termine,lo so che forse è una fissazione sbagliata ma non sopporto il pensiero di certe temperature,ho avuto in passato la seconda scheda video e non l'ho montata,se la 2080ti dovesse essere un forno e non posso trovare una soluzione ragionevole opterò per la prima scheda video "fresca"magari sacrificando qualche filtro,forse una 2070 oppure salto al 2019.maledetti m2 che scaldano pure loro
Infatti io ho 2 1080 attualmente ma non ho mai avuto problemi di surriscaldamento perchè il case è pieno di ventole.Non è uno dei case più grandi, è un semplice e vecchio coolermaster che non ricordo il nome ora.
Cmq funziona bene e lo pulisco pure poco dalla polvere :) ad aprirlo ancora meno.
Mi hanno detto, ma non sono sicuro, che le 2070 non ha la tecnologia nvlink comunque per il nuovo sli.Lo so che non ti interessa ma volevo dirtelo ma prima aspetta i test per quasiasi scheda vuoi prendere.
edit_user_name_here
22-08-2018, 14:54
We have multiple reports on the performance of the new cards with RTX enabled and the game ran at around 50-60 FPS on average on a single GPU. No resolution or settings are mentioned
Si ma i 50/60 fps sono senza risoluzione...ovvero in fhd. Fare 50/60 fps in FHD dopo aver speso 1000 e passa euro un pò tira il qulo. Calcolando che come minimo chi ha quella scheda ha anche gli ultimi processori, memorie, etc. Parliamo di pc da almeno 5000/6000 euro...
Edit
You can also check out a detailed video of Shadow of the Tomb Raider running with RTX enabled on a single RTX 2080 Ti graphics card. The card was running a resolution of 1080p and managed around 30-40 FPS.
30 fps dover aver speso 700 euro di scheda se permettete fanno un pò girare...
Infatti per me non è possibile.Li hanno fatto girare senza ottimizzare le cose.Qualcuno diceva nei post precedenti che dopo ottimizzando i driver dovrebbero essere molto più veloci(da uno che aveva la scheda ma non so se sia vero).Un po come speravo io e vediamo se è vero a fine settembre :)
We have multiple reports on the performance of the new cards with RTX enabled and the game ran at around 50-60 FPS on average on a single GPU. No resolution or settings are mentioned
Si ma i 50/60 fps sono senza risoluzione...ovvero in fhd. Fare 50/60 fps in FHD dopo aver speso 1000 e passa euro un pò tira il qulo. Calcolando che come minimo chi ha quella scheda ha anche gli ultimi processori, memorie, etc. Parliamo di pc da almeno 5000/6000 euro...
Edit
You can also check out a detailed video of Shadow of the Tomb Raider running with RTX enabled on a single RTX 2080 Ti graphics card. The card was running a resolution of 1080p and managed around 30-40 FPS.
30 fps dover aver speso 700 euro di scheda se permettete fanno un pò girare...
Mai sentito un pc da 5000\6000€.. daje... mettici 1200 per una 2080ti e altri 2500 massimo per tutto il resto.. troppo esagerato.
Ho speso io per il pc in firma 1700 euro, basta e avanza sia per le 2080ti o le future 7nm -.-
edit_user_name_here
22-08-2018, 14:56
Mai sentito un pc da 5000\6000€.. daje... mettici 1200 per una 2080ti e altri 2500 massimo per tutto il resto.. troppo esagerato.
Ho speso io per il pc in firma 1700 euro e bast e avanza sia per le 2080ti o le future 7nm -.-
In internet avevo sentito pc da 7500 e passa ma cmq concordo che basta molto meno :)
In internet avevo sentito pc da 7500 e passa ma cmq concordo che basta molto meno :)
Con 3000€ riesci ad equipaggiare un pc con una 2080 e tutto il resto.. NUOVO
Comunque, subito dopo l' annuncio di nVidia RTX a marzo, AMD ha annunciato il proprio motore di ray tracing in tempo reale basato su Vulkan open source: Radeon Rays 2.0
FONTE (https://wccftech.com/amds-open-source-vulkan-ray-tracing-engine-debuting-in-games-this-year/)
FONTE 2 (https://www.techpowerup.com/242615/amd-announces-radeon-rays-and-radeon-gpu-profiler-1-2-at-gdc-2018)
Ripeto, non è solo nVidia a voler percorrere la strada del RT, AMD si rende conto che deve fare altrettanto
Voglio proprio vedere.
edit_user_name_here
22-08-2018, 15:00
Con 3000€ riesci ad equipaggiare un pc con una 2080 e tutto il resto.. NUOVO
Ma infatti.Ora non ricordo cosa ci aveva messo nel pc quello da 7500, era andrea galeazzi ora che ricordo il video, e ci aveva messo uno sli di 1080 ti ed altro tipo processore extreme o cose del genere.
Concordo sempre che 3000 euro basti :) anche il mio è costato circa quello escluso il monitor ovviamente :D
DJurassic
22-08-2018, 15:02
intanto chi l'ha solo provata con un po' di giochi parla di oltre 100 fps a 4k con setting alti su AAA
https://wccftech.com/nvidia-geforce-rtx-2080-ti-performance-preview-4k-100-fps/
Dipende dai giochi. Per dire, piu' di 100fps in 4K li faccio anche io con la 1080Ti se gioco a FM7...
Simedan1985
22-08-2018, 15:05
..la questione del pc che più spendi e più hai in termini di esperienza videoludica è molto relativa (e chi monta pc da una vita lo sa)
Tra due pc , uno da 700 euro e uno da 1500 euro , può esserci una differenza abissale nel esperienza di uso ...mentre tra uno di 1500 e uno di 3000 molto marginali . E in genere più si sale e più si paga tanto solo per le sottigliezze!!
bronzodiriace
22-08-2018, 15:11
Effettivamente è assurdo come ancora oggi si legge di confronti sui TF per le GPU, siete imbarazzanti :D
Davvero, questo sarebbe stato un ottimo caso per recuperare terreno, ma invece :p
Ma anche no.
la 980ti ha di poco TF superiori sulla carta, a stock 5.6 vs 5.0, ma ovviamente su strada va molto meglio la 980ti per i discorsi relativi all'architettura.
Grid se leggevi meglio davo ragione a Mikael
5.4 di kepler vs 5.63 di maxwell e c'è un abisso, in termini di performance, tra le due. Quindi mi sa che avevi frainteso ;)
Io non capisco il problema di prendersi la fascia media o medio-alta e cambiare ogni qualche anno sinceramente. Ho sempre fatto così e mi sono trovato sempre benissimo spendendo poco e nulla e rinunciando a poco e nulla.
A meno di non avere esigenze chissà quanto precise (non so vi siete comprati il monitor 4k hdr super uber) che volete sfruttare al massimo io tutta questa pressione per avere sempre l'ultima cosa più potente la capisco e no (anche se vabbè, siamo su un forum di hardware).
Anche perchè non siamo più nel 2008 o nel 1998.
Fra qualità media e qualità elevata ci passano abissi di prestazioni, ma non di resa grafica.
"ai bei tempi", se non avevi l'ultimo hardware non giocavi proprio per nulla o giocavi con un gioco che sembrava totalmente diverso (pensate ad half life..).
Ora "se non hai l'hardware" o hai hardware datato (un i5 e una 7970 con 8gb di ram di 7 anni fa) giochi a qualità media senza troppi problemi.
Fra The Witcher 3 in medio e ultra ci passa quasi l'80% di fps...Ma visivamente? Te le devi andare a cercare con gli screenshot e i paragoni 1:1 le differenze e farci davvero caso.
Ma ne vale davvero la pena?
Io credo che l'ultimo gioco che mi abbia fatto cambiare gpu per essere godibile con hardware semirecent fosse stato Arkham City visto che venivo da una gtx 260...Ma da quanto presi la gtx 670 ho cambiato più per sfizio che non per reale necessità..
A volte davvero non capisco.
Io non capisco il problema di prendersi la fascia media o medio-alta e cambiare ogni qualche anno sinceramente. Ho sempre fatto così e mi sono trovato sempre benissimo spendendo poco e nulla e rinunciando a poco e nulla.
A meno di non avere esigenze chissà quanto precise (non so vi siete comprati il monitor 4k hdr super uber) che volete sfruttare al massimo io tutta questa pressione per avere sempre l'ultima cosa più potente la capisco e no (anche se vabbè, siamo su un forum di hardware).
Anche perchè non siamo più nel 2008 o nel 1998.
Fra qualità media e qualità elevata ci passano abissi di prestazioni, ma non di resa grafica.
"ai bei tempi", se non avevi l'ultimo hardware non giocavi proprio per nulla o giocavi con un gioco che sembrava totalmente diverso (pensate ad half life..).
Ora "se non hai l'hardware" o hai hardware datato (un i5 e una 7970 con 8gb di ram di 7 anni fa) giochi a qualità media senza troppi problemi.
Fra The Witcher 3 in medio e ultra ci passa quasi l'80% di fps...Ma visivamente? Te le devi andare a cercare con gli screenshot e i paragoni 1:1 le differenze e farci davvero caso.
Ma ne vale davvero la pena?
Io credo che l'ultimo gioco che mi abbia fatto cambiare gpu per essere godibile con hardware semirecent fosse stato Arkham City visto che venivo da una gtx 260...Ma da quanto presi la gtx 670 ho cambiato più per sfizio che non per reale necessità..
A volte davvero non capisco.
Devi capire che ci sono certi malati che giocano esclusivamente se hanno l'ultimo grido in fattori di gpu 4k cpu pompata etc.. sbattendosene del gioco nel vero senso della parola, per loro e una questione di dettagli e basta, poi del gioco frega nulla..
Io la penso come te, con una modica rx 580 faccio girare ancora TUTTO e per tutto intendo tutto anche se non con i massimi dettagli in tutti i giochi, ma a discapito loro, gioco e mi godo l'esperienza video ludica anche senza settaggi a fior di pelle e del 4k. Tutti soldi buttati secondo me. La vita è fuori non il pc :)
DJurassic
22-08-2018, 15:29
Devi capire che ci sono certi malati che giocano esclusivamente se hanno l'ultimo grido in fattori di gpu 4k cpu pompata etc.. sbattendosene del gioco nel vero senso della parola, per loro e una questione di dettagli e basta, poi del gioco frega nulla..
Io la penso come te, con una modica rx 580 faccio girare ancora TUTTO e per tutto intendo tutto anche se non con i massimi dettagli in tutti i giochi, ma a discapito loro, gioco e mi godo l'esperienza video ludica anche senza settaggi a fior di pelle e del 4k. Tutti soldi buttati secondo me. La vita è fuori non il pc :)
Dunque perche' seguire discussioni come questa?
edit_user_name_here
22-08-2018, 15:29
..la questione del pc che più spendi e più hai in termini di esperienza videoludica è molto relativa (e chi monta pc da una vita lo sa)
Tra due pc , uno da 700 euro e uno da 1500 euro , può esserci una differenza abissale nel esperienza di uso ...mentre tra uno di 1500 e uno di 3000 molto marginali . E in genere più si sale e più si paga tanto solo per le sottigliezze!!
Concordo ma poi bisogna anche vedere cosa ci si deve fare con il pc :)
Io non capisco il problema di prendersi la fascia media o medio-alta e cambiare ogni qualche anno sinceramente. Ho sempre fatto così e mi sono trovato sempre benissimo spendendo poco e nulla e rinunciando a poco e nulla.
A meno di non avere esigenze chissà quanto precise (non so vi siete comprati il monitor 4k hdr super uber) che volete sfruttare al massimo io tutta questa pressione per avere sempre l'ultima cosa più potente la capisco e no (anche se vabbè, siamo su un forum di hardware).
Anche perchè non siamo più nel 2008 o nel 1998.
Fra qualità media e qualità elevata ci passano abissi di prestazioni, ma non di resa grafica.
"ai bei tempi", se non avevi l'ultimo hardware non giocavi proprio per nulla o giocavi con un gioco che sembrava totalmente diverso (pensate ad half life..).
Ora "se non hai l'hardware" o hai hardware datato (un i5 e una 7970 con 8gb di ram di 7 anni fa) giochi a qualità media senza troppi problemi.
Fra The Witcher 3 in medio e ultra ci passa quasi l'80% di fps...Ma visivamente? Te le devi andare a cercare con gli screenshot e i paragoni 1:1 le differenze e farci davvero caso.
Ma ne vale davvero la pena?
Io credo che l'ultimo gioco che mi abbia fatto cambiare gpu per essere godibile con hardware semirecent fosse stato Arkham City visto che venivo da una gtx 260...Ma da quanto presi la gtx 670 ho cambiato più per sfizio che non per reale necessità..
A volte davvero non capisco.
Ho scoperto un troll su steam che diceva che con un i3 di 10 anni fa ed una scheda grafica di 4, mi pare ma non ricordo il modello ma economica, giocava tutto al massimo a ghost in full hd con tanti fps :asd: io che faccio fatica già con il mio anche se a risoluzione superiore XD vabbe era giusto come esempio.Perchè mi hai fatto ricordare questo tizio eheh.
Apparte questo ognuno si permette ciò che può.Io che vengo sempre da counter strike 1, come te, mi aspetto una buona esperienza visiva anche se non cambia cose epocali, non so ora con la nuova tecnologia, ma a volte mi fermo ad apprezzare la grafica sensazionale con i miei amici online :) per me non è poco sinceramente.Però, il mio amico, non ha un pc potente.Ma cmq anche lui rimane a guardare i dettagli per quel che può.
Giusto per farti un esempio che ci si ferma a guardare i dettagli a volte e se uno può fare di meglio è anche buono per me :)
Devi capire che ci sono certi malati che giocano esclusivamente se hanno l'ultimo grido in fattori di gpu 4k cpu pompata etc.. sbattendosene del gioco nel vero senso della parola, per loro e una questione di dettagli e basta, poi del gioco frega nulla..
Io la penso come te, con una modica rx 580 faccio girare ancora TUTTO e per tutto intendo tutto anche se non con i massimi dettagli in tutti i giochi, ma a discapito loro, gioco e mi godo l'esperienza video ludica anche senza settaggi a fior di pelle e del 4k. Tutti soldi buttati secondo me. La vita è fuori non il pc :)
Posso capire che ci sono malati, io che sono volontario lo so e ne conosco qualcuno, ma non sono d'accordo che se uno ha un hobby deve solo pensare che la vita è fuori dal pc.Sinceramente ognuno ha i suoi problemi ed i suoi piaceri poi.Se uno preferisce passare la giornata al computer invece che uscire non è automaticamente malato ma semplicemente piace cosi come a te piace uscire invece che stare al pc.Ma non ti do del ambientalista tanto per farti un esempio :D
Dunque perche' seguire discussioni come questa?
Infatti :asd: io sono l'unico che li prende troppo sul serio a volte XD
TigerTank
22-08-2018, 15:30
Mamma mia ragazzi, quanto scrivete!
Nvidia nel bene o nel male crea sempre molto hype ed interesse...ecco perchè poi tira fuori dei prezzi mostruosi :sofico:
Fortuna che al momento sono perso tra Netflix e i miei tank di WOT(dove lo SLi ora funziona benone) per cui senza esiti pratici al momento evito di farmi venire troppa scimmia/troppo sangue amaro :asd:
Comunque, subito dopo l' annuncio di nVidia RTX a marzo, AMD ha annunciato il proprio motore di ray tracing in tempo reale basato su Vulkan open source: Radeon Rays 2.0
FONTE (https://wccftech.com/amds-open-source-vulkan-ray-tracing-engine-debuting-in-games-this-year/)
FONTE 2 (https://www.techpowerup.com/242615/amd-announces-radeon-rays-and-radeon-gpu-profiler-1-2-at-gdc-2018)
Ripeto, non è solo nVidia a voler percorrere la strada del RT, AMD si rende conto che deve fare altrettanto
E' indubbiamente il futuro, il punto semmai è la maturazione della cosa e secondo me si arriverà ad un buon consolidamento e sfruttamento solo con le prossime schede. Le RTX saranno un costoso banco di sperimentazione e raffinazione.
Anche perchè come sappiamo...il ray tracing più che da nvidia stessa(cosa che garantirebbe una maggior efficacia) dipenderà dai produttori vari...per cui se il supporto sarà penoso, i drivers non potranno fare miracoli.
albero77
22-08-2018, 15:41
Supponiamo che riescano ad ottimizzare i driver e i giochi che supportano rtx ottimisticamente a cosa si potrebbe arrivare? 1080p 60fps rock solid?
Inviato dal mio SM-G935F utilizzando Tapatalk
...E questo con l'attuale top di gamma. :stordita:
Boh, non credo a drivers miracolosi e ottimizzazioni dell'ultimo minuto. Ovviamente resto ancora col beneficio del dubbio finche' sti giochi con relativi test non escono e ci saranno dati univoci.
Al momento la penso alla stessa maniera, per qul che si vede non conviene minimamente la nuova gen come prestazioni nel ray tracing e prezzi:
. sono schede estremamente costose che faranno da early adopters per una nuova tecnologia nel quale la top (da quasi 1300€) sembra arrancare a risoluzioni che per un utente che punta a spendere cifre del genere su una scheda video neanche considera più da anni, salvo quelli che cercano i 144/200/240fps e anche in quel caso se ne fanno dai 30 ai 50 altalenanti....:mc: :mc: :mc:
. com'è normale che sia, dalla prossima gen o al massimo tra 2, se il discorso RTX non muore (e non credo) avrà potenze di calcolo nettamente superiori da far sembrare la 2080Ti (1200-1300€) un integrata e a quel punto la cosa potrebbe farsi interessante
. finchè non si avrà abbastanza potenza di calcolo da poter far girare il ray tracing anche su schede di fascia medio/bassa (xx60?), sarà sempre un'aspetto di nicchia, visto che chi sviluppa i giochi vorrà anche venderli al restante 90% del mercato e non solo a quel 5 forse 10% che può permettersi di spendere da un minimo di 650€ a 1300€ di schede video
amon.akira
22-08-2018, 15:46
Supponiamo che riescano ad ottimizzare i driver e i giochi che supportano rtx ottimisticamente a cosa si potrebbe arrivare? 1080p 60fps rock solid?
Inviato dal mio SM-G935F utilizzando Tapatalk
si forse 1080p rock solid 60 su 2080ti con 1solo effetto raytraced, dipende da quanto era acerbo il codice, insomma da 33fps a 60 significa quasi l 80% in piu e cmq le 2080/2070 sono fuori
CiccoMan
22-08-2018, 15:51
... e poi escono i bench e la 2080Ti migliora del 100% rispetto alla 1080Ti... sta a vedre eh :D
Stregoneria ingegneristica :sofico:
edit_user_name_here
22-08-2018, 15:52
si forse 1080p rock solid 60 su 2080ti con 1solo effetto raytraced, dipende da quanto era acerbo il codice, insomma da 33fps a 60 significa quasi l 80% in piu e cmq le 2080/2070 sono fuori
Secondo me arrivano anche a 4k a 30 fps :) se non ci arrivano allora salto la generazione.Se proprio la devo comprare, al massimo, la compro scontata per disfarmi le mie sli ed aspettare le/a prossime/a in su ;)
... e poi escono i bench e la 2080Ti migliora del 100% rispetto alla 1080Ti... sta a vedre eh :D
Stregoneria ingegneristica :sofico:
Lol ci pensi se davvero succede?Tutti a rimangiarsi il discorso :asd: sarebbe da vedere in modo da dire: io c'ero :D
amon.akira
22-08-2018, 15:53
... e poi escono i bench e la 2080Ti migliora del 100% rispetto alla 1080Ti... sta a vedre eh :D
Stregoneria ingegneristica :sofico:
se ero jensen l avrei sbandierato, cmq anche se fosse rimane il fatto che l rtx non è usabile tranne forse dalla 2080ti
amon.akira
22-08-2018, 15:58
Secondo me arrivano anche a 4k a 30 fps :) se non ci arrivano allora salto la generazione.Se proprio la devo comprare, al massimo, la compro scontata per disfarmi le mie sli ed aspettare le/a prossime/a in su ;)
allora non hai capito che la demo di star wars girava a 1080p 22fps sulla quadro 6000
Con 3000€ riesci ad equipaggiare un pc con una 2080 e tutto il resto.. NUOVO
Me ne incarti quattro grazie.....
DJurassic
22-08-2018, 16:14
Secondo me arrivano anche a 4k a 30 fps :) se non ci arrivano allora salto la generazione.Se proprio la devo comprare, al massimo, la compro scontata per disfarmi le mie sli ed aspettare le/a prossime/a in su ;)
Beh ma pure 4k @30fps non mi pare ci sia da esserne felici. Magari qualcuno potrebbe gioire ma io personalmente non ci giocherei mai a quel frame rate, posso chiudere un occhio con GOW su PS4 Pro ma su PC proprio no. Specie dopo aver cacciato fuori l'equivalente di 3 Playstation 4 Pro solo per la scheda video.
Torno a dire che a me del RT frega al momento quasi nulla. Quello che aspetto di vedere sono i test sui giochi piu' avanzati senza RT e capire se queste schede frullano fps in uhd senza rinunciare a nulla oppure se siano solo un pelo meglio della 1080Ti. Perche' se cosi fosse posso fare decisamente a meno.
Nel frattempo questo e' il primo gameplay di RE 2 Remake pubblicato da Nvidia:
https://www.youtube.com/watch?v=thwrK4tHbwo
techsaskia
22-08-2018, 16:18
cmq secondo me se alla fine di tutto questo cinema uscirà fuori che queste schede non sono buone per il 4K 60FPS con raytracing si devono solo vergognare. ci sta poco da discutere.
che poi alla fine è tutta una tecnica per spremere i polli,
magari tombraider con due obre rifatte girerà pure bene, la gente vedrà i primi titoli girare bene e tutti a comprare le schede, fra 6 mesi alzano di una tacca la precisione del raytracing e le nostre schede non varranno + niente.
ormai nvidia è a stretto contatto con i principali sviluppatori, vuoi che non ci siano accordi commerciali del genere?
cmq secondo me se alla fine di tutto questo cinema uscirà fuori che queste schede non sono buone per il 4K 60FPS con raytracing si devono solo vergognare. ci sta poco da discutere.
che poi alla fine è tutta una tecnica per spremere i polli,
magari tombraider con due obre rifatte girerà pure bene, la gente vedrà i primi titoli girare bene e tutti a comprare le schede, fra 6 mesi alzano di una tacca la precisione del raytracing e le nostre schede non varranno + niente.
ormai nvidia è a stretto contatto con i principali sviluppatori, vuoi che non ci siano accordi commerciali del genere?
Ma è ovvio che non reggono i 4k 60 fps con ray tracing :asd:
C'è da sperare reggano i 4k 60 fps senza ray tracing.
Ragazzi se da una parte e' vero che ci sono indizi per pensare a un incremento prestazioni su titoli non RT non clamoroso, da come sono state prezzate, non ci sarebbe da stupirsi se le migliorie architetturali portino ad un radicale incremento IPC unito al discorso (importantissimo se codato bene) dell'uso parallelo fra INT ed FP32 come anticipato dal Prof Mikael.
Cosa che se sfruttata a dovere potrebbe essere un gamechanger.
I Tflops non contano niente, i prezzi sono quelli di una nuova tecnologia e di un monopolio, niente di troppo strano.
Ami il Ray trace con una 2070 che ti andrà forse a 25 30 fps in FHD per dei dettagli in più che non servono a oggi giorno? contento te.
Mi accontento di giocare a 1080p e piuttosto lascio perdere AA e altre amenità, ma con RayTrace attivato. Bisogner vedere i benchmarks su suddetti giochi, ma nn credo che andranno così male, d'altronde non si toglie nulla agli altri reparti della gpu, ci sono unità dedicate, quindi......inoltre te lo dice uno che ha finit e gioca tuttora DOOM in Ultra su una Geforce GTX 750 Ti senza AA, quindi si, contento io, contentissimo!:D
se ripeto SE fosse vero che la 2080ti con 78t ops scende a 33fps, una 2070 con il 75% (45t ops) in meno andrebbe a 19fps
IT JUST WORKS! (Jensen cit. :D )
SE fosse vero. Vedremo. 1080p.... mi bastano e avanzano. 20 fps? pure (leggi sopra) ;)
DJurassic
22-08-2018, 16:31
Ma è ovvio che non reggono i 4k 60 fps con ray tracing :asd:
C'è da sperare reggano i 4k 60 fps senza ray tracing.
Quello lo fanno anche le 1080Ti con una decente ottimizzazione del gioco.
bronzodiriace
22-08-2018, 16:32
si si l'avevo capito :) , ma comunque era per puntualizzare che maxwell ha comunque più TF anche se di poco, scusa :D
Ma figurati ;)
ROBHANAMICI
22-08-2018, 16:34
Scusate ma non mi è una chiara una cosa: le 2080 usciranno a settembre e le 2070 a novembre? Grazie mille.
Poi spero che venga aperto un thread ufficiale :p
Thunder-74
22-08-2018, 16:38
Che dite, vi piace?
https://www.ocaholic.ch/uploads/extgallery/public-photo/medium/evgartx_642_f23a6.jpg
Inviato dal mio iPad utilizzando Tapatalk
CiccoMan
22-08-2018, 16:41
Che dite, vi piace?
[IMG]
Inviato dal mio iPad utilizzando Tapatalk
Di sicuro meglio di quella cover trasparente che sta sotto... a questo giro le Evga non mi piacciono proprio :(
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.