View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
Lunar Wolf
26-08-2018, 21:53
Che poi anche l'RXT on mostrato in alcuni video è assurdo.
Auto e pozzanghere che riflettono come uno specchio dove cavolo mai le avete viste?
La pozzanghere di battlefield sono più realistiche in RTX off perchè sono pozzanghere appunto, mica specchi.
appunto...di quel poco che ho visto di bf 5 se veramente ne fanno abuso di quei effetti luminosi per me scaffale a vita... il binocolo di un cecchino ti accecherebbe...
TigerTank
26-08-2018, 21:55
Raga mettetevi l'anima in pace...comprate queste schede se avete urgente necessità di maggiore forza bruta. Il ray tracing pensatelo già ora come plus che si sfrutterà al meglio con la serie 3000, così non resterete delusi :D
P.S. Tanto Lara Croft sarà gnocca comunque :asd:
Nhirlathothep
26-08-2018, 21:58
che prezzo aspettarsi per la nuova titan?
e qualche data?
nonostante le prestazioni ho in mente di saltare la 2080ti, non mi sembra un upgrade utile (e poi le titan mantengono molto meglio il valore) :
1080p senza rt: è uguale alla titanxp (120fps costanti)
1080p con rt : non ce la fa come la titanxp (entrambe sotto i 60)
DJurassic
26-08-2018, 22:00
Si chiama marketing :mc:
Anche con le ombre software avevano fatto la stessa propaganda, peccato che il più delle volte si potevano disattivare tranquillamente senza patemi d'animo, guadagnando però un sacco di fps :asd:
Ancora oggi, con una 1080Ti, attivare le ombre fighe Nvidia equivale a non arrivare ai 60fps o dover rinunciare a tutto il resto. Idem per l'occlusione ambientale VXAO che da sola si ciuccia 15fps rappresentando solo un leggero miglioramento rispetto all'HBAO+
Certo tecnologie, non importa da quanto tempo esistono, sono sempre state introdotte male dagli sviluppatori e prontamente rimosse una volta in gioco dagli utenti. Forse con RT sara' diverso ma personalmente non credo ai miracoli.
AceGranger
26-08-2018, 22:01
https://youtu.be/QQH8SFN_Ud4
Minuto 1.54 riflessi sul cofano
Minuto 5.23 riflessi sull'acqua nell'asfalto
Domani fanno una patch che abilita RT e non si vedranno più senza :D
Oh, io sono pro RT, dico solo che le demo mostrate sono ridicole (nella comparativa)
la cosa che non avete capito di quelle demo, non è che se non attivi l'RT non hai le riflessioni, è che con l'RT hai sempre e ovunque i riflessi, da ogni angolazione e quelli veri, mentre negli altri casi hai dei riflessi fake solo dove i programmatori decidono che tu li debba vedere.
nella prima parte del video li vedi sul cofano, perchè hanno deciso che in quella particolare vista tu li debba vedere, ma solo e soltanto sul cofano, perchè poi nel resto del gioco sono totalmente assenti; tu sul cofano vedi le macchine riflesse ma nelle loro carrozzerie la tua macchina non c'è, come non esistono riflessioni di nessun tipo sulle auto, fra di loro, quando sono affiancate o si sorpassano; come non esitono riflessioni sulla tua carrozzeria quando si mette nella vista esterna, arriva la macchina gialla dal retro e non si modifica ne la tua carrozzeria ne quell'altra.
vedi i riflessi solo in prossimita delle travi reticolari perchè li sotto hanno piazzato i globi riflettenti....
nella seconda parte del video, al minuto 5.23 e successivi, i riflessi delle piante sul'acqua sono totalmente senza senso e in fondo al rettilineo a 5.34 hai dei riflessi inesistenti con un bosco volante riflesso a caso...
ora, a me frega nulla dei giochi, che solo i riflessi non possano fare miracoli ci sta, che ti vadano bene quei riflessi ok, ma santo cielo, sentire quello del video che sbava dietro a quella merda di effetti mi fa abbastanza ridere;ah gia, fantastiche anche le ombre delle auto sempre identiche in ogni parte del tracciato e in ogni condizione.
queste GPU costano un botto, l'RT per questa generazione sara sicuramente poco sfruttabile, ma prima o poi si dovra pur partire e non hanno MAI, MAI, introdotto una nuova tecnologia gia sfruttabile al 100% e da una entry lvl... a maggior ragione del salto fatto ora.
DJurassic
26-08-2018, 22:08
la cosa che non avete capito di quelle demo, non è che se non attivi l'RT non hai le riflessioni, è che con l'RT hai sempre e ovunque i riflessi, da ogni angolazione e quelli veri, mentre negli altri casi hai dei riflessi fake solo dove i programmatori decidono che tu li debba vedere.
nella prima parte del video li vedi sul cofano, perchè hanno deciso che in quella particolare vista tu li debba vedere, ma solo e soltanto sul cofano, perchè poi nel resto del gioco sono totalmente assenti; tu sul cofano vedi le macchine riflesse ma nelle loro carrozzerie la tua macchina non c'è, come non esistono riflessioni di nessun tipo sulle auto, fra di loro, quando sono affiancate o si sorpassano; come non essitono riflessioni sulla tua carrozzeria quando si mette nella vista esterna, arriva la macchina gialla dal retro e non si modifica ne la tua carrozzeria ne quell'altra.
vedi i riflessi solo in prossimita delel travi reticolari perchè li sotto hanno piazzato le i globi riflettenti....
nella seconda parte del video, al minuto 5.23 e successivi, i riflessi delle piante sul'acqua sono totalmente senza senso e in fondo al rettilineo a 5.34 hai dei riflessi inesistenti con un bosco volante riflesso a caso...
ora, a me frega nulla dei giochi, che solo i riflessi non possano fare miracoli ci sta, ceh ti vadano bene quei riflessi ok, ma santo cielo, sentire quello del video che sbava dietro a quella merda di effetti mi fa abbastanza ridere;ah gia, fantastiche anche le ombre delle auto sempre identiche in ogni parte del tracciato e in ogni condizione.
queste GPU costano un botto, l'RT sara per questa generazione sara sicuramente poco sfruttabile, ma prima o poi si dovra pur partire e non hanno MAI, MAI, introdotto una nuova tecnologia gia sfruttabile al 100% e da una entry lvl... a maggior ragione del salto fatto ora.
Tutto giusto ma che FM7 sia ora una merda non si puo' proprio sentire. Magari aspettiamo AC e vediamo complessivamente come sara' il gioco. Perche' a me dei soli riflessi ultra dettagliati (peraltro che mai attiverei visto che non ho nessuna intenzioni di rinunciare a tutto il resto per averli) fotte proprio zero se poi nello stesso contesto mi devo sorbire pubblico in bitmap, tracciati desertici, e nessuna ripeto nessuna fisica realistica per la gestione delle collisioni.
Raga mettetevi l'anima in pace...comprate queste schede se avete urgente necessità di maggiore forza bruta. Il ray tracing pensatelo già ora come plus che si sfrutterà al meglio con la serie 3000, così non resterete delusi :D
P.S. Tanto Lara Croft sarà gnocca comunque :asd:
a me onestamente del ray tracing interessa poco, ma essendo nata la possibilta' a causa di un coupon sconto ricevuto, con una settantina di sterline aggiunte alla vendita della mia 1080 ti, mi prenderei una 2080 gaming x trio. Onestamente la vedo come un downgrade , ma metterei nel case una tecnologia nuova e un 10/15 % di performance(si spera) in piu che sul mio 1440p 165hz non guasterebbe.
AceGranger
26-08-2018, 22:20
Tutto giusto ma che FM7 sia ora una merda non si puo' proprio sentire. Magari aspettiamo AC e vediamo complessivamente come sara' il gioco.
sara bello quanto vuoi rispetto ai giochi precendeti perchè eri abituato a roba ancora piu ridicola, ma dietro a quella roba li c'è tutto fuorchè da sbavarci.
poi oh, i gusti son gusti e uno giudica in base ai propri, se ti piace nulla da dire, ma la differenza con riflessi RT in quel caso sarebbe stata evidente.
mi devo sorbire pubblico in bitmap, tracciati desertici, e nessuna ripeto nessuna fisica realistica per la gestione delle collisioni.
ah per quello devi lamentarti con quei cessi di console e con quelli che elogiano quei rottami; buona parte delle limitazioni che vedi oggi nei giochi sono dovuti a quello, perchè nessuno sviluppatore si mette a fare doppi modelli e doppio lavoro per un gioco solo.
l'RT è una di quelle cose che puoi implementare partendo da asset adatti alle console.
Nhirlathothep
26-08-2018, 22:23
l'RT è una di quelle cose che puo implementare partendo da asset adatti alle console.
puoi implementarlo per tutti gli utenti pc con una gtx 2080ti.
cioè meno di quelli che hanno hairworks o physx
sulle console rt nn si vedrà, quindi dovranno cmq fare tutto il lavoro per i riflessi finti.
non preferiranno semplicemente scordarsene ?
Thunder-74
26-08-2018, 22:29
Ragazzi, nel tardo pomeriggio ho fatto un esperimento... ho chiuso il browser con la finestra del forum e mi sono messo a giocare a PES... zero pensieri RT, tutta goduria ... fatelo anche voi, non ve ne pentirete... ah ovviamente cambiando PES con altro titolo, il risultato non cambia :D
AceGranger
26-08-2018, 22:30
puoi se vuoi implementarlo per tutti gli utenti pc con una gtx 2080ti.
cioè meno di quelli che hanno hairworks o physx
attualmente è tutto riservato e stanno usando SDK alpha e solo publisher selezionati, ma quando verra integralmente inserito nelle prossime release ufficiali dei Game Engine sara di piu semplice utilizzo.
non mi pare che pero manchino giochi con Gameworks; ci sono piu giochi annunciati e in lavorazione con RT e le altre feature nuove, che veri giochi DX12 dal lancio di queste ultime....
sulle console rt nn si vedrà, quindi dovranno cmq fare tutto il lavoro per i riflessi finti
non preferiranno semplicemente scordarsene ?
a differenza del passato con l'RT nVidia ci ha puntato il futuro delle proprie architetture; sta facendo talmente tanti soldi che potrebbe mettersi a sviluppare lei direttamente n° giochi tripla AAA ogni anno; tranquillo che investira ancora piu soldi di prima.
sul fatto che sulle console non si vedra non lo so, vedremo come si evolvera il mercato e quando hanno intenzione di mandare fuori le nuove console, perchè se Microsoft continuera a puntare sulla sua idea di fondere sempre piu console e mondo PC è probabile che vorra puntare sulle DX 12 e magari anche sull'RT e, visto che la vaccata di puntare su un hardware inferiore al concorrente lo ha gia fatto con al prima Xbox One, non credo che vorra rifarlo nella successiva.
amon.akira
26-08-2018, 23:03
https://youtu.be/QQH8SFN_Ud4
Minuto 1.54 riflessi sul cofano
Minuto 5.23 riflessi sull'acqua nell'asfalto
Domani fanno una patch che abilita RT e non si vedranno più senza :D
Oh, io sono pro RT, dico solo che le demo mostrate sono ridicole (nella comparativa)
questi sono in screen, allora se ascolti la presentazione nvidia quando mostrano battlefield ti fanno capire che gli screen space reflection sono dinamici e anche se fake hanno il limite di mostrarti specularmente solo quelli nella scena, con l RT oltre a vederli precisi possono mostrarti riflessi di oggetti che non stai visualizzando, ecco perchè giustamente dite che anche prima giocavamo con i riflessi perchè bisogna capire come funziona.
nel video di assetto corsa ti fa vedere che riflette ciò che non è inquadrato poi e logico che se alza la visuale anche con rtx off li vedrai come li hai sempre visti.
https://www.reddit.com/r/nvidia/comments/99onhf/a_supercomputer_ai_will_power_nvidia_rtx_gpus/
Non so se fosse già stato postato. Ma è un intervista su DLSS.
Inviato dal mio iPad utilizzando Tapatalk
Kostanz77
26-08-2018, 23:19
a me onestamente del ray tracing interessa poco, ma essendo nata la possibilta' a causa di un coupon sconto ricevuto, con una settantina di sterline aggiunte alla vendita della mia 1080 ti, mi prenderei una 2080 gaming x trio. Onestamente la vedo come un downgrade , ma metterei nel case una tecnologia nuova e un 10/15 % di performance(si spera) in piu che sul mio 1440p 165hz non guasterebbe.Quello che sto facendo io......visto che ho già venduto la 1080Ti e preordinato una 2080 MSI TRIO
Inviato dal mio Huawei P8 Lite 2017 utilizzando Tapatalk
amon.akira
26-08-2018, 23:24
A me va benissimo che l'rt sia meglio e vero, ma la monnezza comparata a RT on è robba da ps3 e quello fake visto fino ad ora ha comunque gratificato tutti.
allora non è difficile (non sto sfottendo) esempio
battlefield (https://youtu.be/8H0czanVspM?t=1h25m13s)
se ascolti ti dice la fiamma nell occhio non è possibile con gli screenspace reflection perchè non è inquadrata, quindi l alternativa è mettercela a mano fake, ma nessuno lo fa...infatti tutti i giochi riflettono quello che c'è a schermo e
non offscreen.
se continui a vedere per 1min fino a quando si muove dietro al carro vedrai che con rtx off come avanza e rende la fiamma visibile inscreen compare nella portiera e quelli sono i riflessi che abbiamo visto finora. quindi non è che l hanno disattivata.
idem
assetto corsa (https://youtu.be/FW7ipSpwYwo)
come vedi qui su rtx off vedi il riflesso ma solo della parte visibile (la O tagliata) quando sposta giu la visuale (e lo fa apposta x far capire il vantaggio dell RT) tu non vedi il riflesso perchè è offscreen, stesso esempio viene ripetuto con il cofano.
poi oltre al vedere/non vedere c'è anche la questione accuratezza, chi dice che la pozzanghera X non dovrebbe riflettere in quel modo con la luce in posizione Y e con l angolo di visuale Z dovrebbe dimostrarlo matematicamente perchè farebbe comodo a molti nel settore :D
Quello che sto facendo io......visto che ho già venduto la 1080Ti e preordinato una 2080 MSI TRIO
Inviato dal mio Huawei P8 Lite 2017 utilizzando Tapatalk
te hai trovato qualche informazione in piu' o brancoli anche te nel buio?
amon.akira
26-08-2018, 23:41
Ragazzi, nel tardo pomeriggio ho fatto un esperimento... ho chiuso il browser con la finestra del forum e mi sono messo a giocare a PES... zero pensieri RT, tutta goduria ... fatelo anche voi, non ve ne pentirete... ah ovviamente cambiando PES con altro titolo, il risultato non cambia :D
ah qui si sta giocando a Monkey Island quindi figurati :D
edit_user_name_here
27-08-2018, 00:11
A me interessano le rt ma non in full hd perchè non me ne faccio niente.Ok rinunciare dei fps ma solo una manciata non a scalare la risoluzione.
Sarei curioso quanti fps fa in 4k cmq.Per esempio ci arriva a 15 fps almeno la 2080 ti?
Giusto per farmi un idea se i 7nm ce la faranno magari spinti al massimo.
Comunque io non aggiungo tutti i filtri.Per esempio io tolgo sempre il bloom se si può deselezionare o diminuire perchè non si riesce a vedere il nemico.
Un altra cosa se poi ce l'hanno tutti forzatamente allora li almeno è bilanciato ma se no lo tolgo.Per tutto il resto cerco di mettere al massimo dove possibile.
amon.akira
27-08-2018, 00:34
Dice la verita', ci chiamano SCREEN SPACE per un motivo. :asd:
Comunque il punto di quei video dimostrativi, infarciti di marketing quanto vogliamo, e' mostrare unicamente la differenza fra SSR e riflessi RT, proprio perche' i primi sono piuttosto limitati e compromettono talvolta la qualita' finale della scena a schermo.
grande sertopica, sembravo il pazzo che urla a whiterun a skyrim XD
Kostanz77
27-08-2018, 00:40
te hai trovato qualche informazione in piu' o brancoli anche te nel buio?Sono messo come te.....ma alla fine penso che quel 10-20% in più ci possa stare rispetto alla 1080Ti....e poi avendo un ROG PG278QR 1440P, anche con la scheda liscia dovrei essere a posto
Inviato dal mio Huawei P8 Lite 2017 utilizzando Tapatalk
DJurassic
27-08-2018, 00:49
sara bello quanto vuoi rispetto ai giochi precendeti perchè eri abituato a roba ancora piu ridicola, ma dietro a quella roba li c'è tutto fuorchè da sbavarci.
poi oh, i gusti son gusti e uno giudica in base ai propri, se ti piace nulla da dire, ma la differenza con riflessi RT in quel caso sarebbe stata evidente.
Sara' ma io a differenza tua vivo nel presente e non nel futuro. E per inciso, io non ho certo detto che i riflessi con RT siano inferiori o di uguale impatto, tutt'altro.
non mi pare che pero manchino giochi con Gameworks;
E una volta attivi infatti non ne gira bene mezzo di quelli :asd:
Sono messo come te.....ma alla fine penso che quel 10-20% in più ci possa stare rispetto alla 1080Ti....e poi avendo un ROG PG278QR 1440P, anche con la scheda liscia dovrei essere a posto
Inviato dal mio Huawei P8 Lite 2017 utilizzando Tapatalk
a me la da come consegna prevista il 29 agosto ma nn e' che ci tanto credo
Kostanz77
27-08-2018, 01:12
a me la da come consegna prevista il 29 agosto ma nn e' che ci tanto credopresa dove?
Inviato dal mio Huawei P8 Lite 2017 utilizzando Tapatalk
presa dove?
Inviato dal mio Huawei P8 Lite 2017 utilizzando Tapatalk
scan.co.uk
Kostanz77
27-08-2018, 01:29
scan.co.ukPer curiosità, quanto l'hai pagata?
Inviato dal mio Huawei P8 Lite 2017 utilizzando Tapatalk
Per curiosità, quanto l'hai pagata?
Inviato dal mio Huawei P8 Lite 2017 utilizzando Tapatalk
con lo sconto che avevo intorno ai 680 (sterline ovviamente) praticamente ho piazzato la 1080ti a 600 piu un 80/90 sterline di tasca mia.
Kostanz77
27-08-2018, 01:47
con lo sconto che avevo intorno ai 680 (sterline ovviamente) praticamente ho piazzato la 1080ti a 600 piu un 80/90 sterline di tasca mia.è affidabile come shop?.....costi spedizione?
Inviato dal mio Huawei P8 Lite 2017 utilizzando Tapatalk
è affidabile come shop?.....costi spedizione?
Inviato dal mio Huawei P8 Lite 2017 utilizzando Tapatalk
ci ho preso un bel di roba e' uno dei migliori in uk, ma io vivo qui in inghilterra non so quanto convega dall'italia.
Kostanz77
27-08-2018, 02:06
ci ho preso un bel di roba e' uno dei migliori in uk, ma io vivo qui in inghilterra non so quanto convega dall'italia.ah ok.....a sto punto mantengo il preordine su AK
Inviato dal mio Huawei P8 Lite 2017 utilizzando Tapatalk
fabietto27
27-08-2018, 06:58
Effettivamente è ai limiti della prostituzione... :DLui lo sapeva già https://uploads.tapatalk-cdn.com/20180827/6d12370da3cfab544746b128ff2acaf2.jpg
Inviato dal vivavoce della mia Daf Variomatic
sara bello quanto vuoi rispetto ai giochi precendeti perchè eri abituato a roba ancora piu ridicola, ma dietro a quella roba li c'è tutto fuorchè da sbavarci.
poi oh, i gusti son gusti e uno giudica in base ai propri, se ti piace nulla da dire, ma la differenza con riflessi RT in quel caso sarebbe stata evidente.
ah per quello devi lamentarti con quei cessi di console e con quelli che elogiano quei rottami; buona parte delle limitazioni che vedi oggi nei giochi sono dovuti a quello, perchè nessuno sviluppatore si mette a fare doppi modelli e doppio lavoro per un gioco solo.
l'RT è una di quelle cose che puoi implementare partendo da asset adatti alle console.
non fossero mai esistite le console staremmo ancora a giocare a prendere il legnetto al volo :rolleyes:
giocavamo prima senza, giocheremo ora senza , giocheremo in futuro con RT? Amen, giocheremo con quello che c'è senza ringraziare nvidia per aver inventato la ruota o scoperto che l'acqua è bagnata..... passeremo anche questa campagna di marketing dai.....sopravviveremo.....
non fossero mai esistite le console staremmo ancora a giocare a prendere il legnetto al volo :rolleyes:
giocavamo prima senza, giocheremo ora senza , giocheremo in futuro con RT? Amen, giocheremo con quello che c'è senza ringraziare nvidia per aver inventato la ruota o scoperto che l'acqua è bagnata..... passeremo anche questa campagna di marketing dai.....sopravviveremo.....
Leggevo il tuo pc in firma ( il primo i5 e 290 ) , una curiosità , ma riesci ancora a giocare ai giochi 2018 in 1080p a 60 fps tutto maxato ? o cmq scendi a compromessi e ti accontenti dei 30 fps ( non ti parlo ne di 2k ne di 4k perchè sarebbero impossibili per la tua config ) .
fraussantin
27-08-2018, 08:23
non fossero mai esistite le console staremmo ancora a giocare a prendere il legnetto al volo :rolleyes:
I giochi sono nati su pc.
Se non ci fossero le console probabilmente non,avremmo i giochi senza le limitazioni date dall'hw di un tempo ( ormai rimansto come moda) , prima di tutte il quicksave.
TigerTank
27-08-2018, 08:25
non fossero mai esistite le console staremmo ancora a giocare a prendere il legnetto al volo :rolleyes:
giocavamo prima senza, giocheremo ora senza , giocheremo in futuro con RT? Amen, giocheremo con quello che c'è senza ringraziare nvidia per aver inventato la ruota o scoperto che l'acqua è bagnata..... passeremo anche questa campagna di marketing dai.....sopravviveremo.....
Anche perchè mi sa che se le cose andranno come già visto in passato, essendo ormai i giochi il più delle volte dei porting da console, sarà l'eventuale uscita di nuove scatolette avanzate a dare la vera spinta propulsiva all'integrazione di nuove features perchè gli sviluppatori devono inserirle di base.
Io comunque più che all'RT al momento sono interessato al vedere le prestazioni e la resa del DLSS.
Ciao, mi è venuto in mente :doh: un particolare sulla gestione RT, magari è già stato scritto e me ne scuso anticipatamente :stordita: :
questi "RTX ON" sono sincronizzati con il frame rate o viaggiano per conto loro (ad esempio a velocità dimezzata)? Non so se mi sono spiegato bene :muro:
Grazie ciao
JohnWayneBobbit
27-08-2018, 08:39
Quello che sto facendo io......visto che ho già venduto la 1080Ti e preordinato una 2080 MSI TRIO
Inviato dal mio Huawei P8 Lite 2017 utilizzando Tapatalk
Anche io venduto la 1080TI per la MSI 20180TI Duke.
Mi serve quel 25% di potenza in più per il Rift perché credo che Assetto Corsa Competizione sarà più pesante di Project Cars 2.
Leggevo il tuo pc in firma ( il primo i5 e 290 ) , una curiosità , ma riesci ancora a giocare ai giochi 2018 in 1080p a 60 fps tutto maxato ? o cmq scendi a compromessi e ti accontenti dei 30 fps ( non ti parlo ne di 2k ne di 4k perchè sarebbero impossibili per la tua config ) .
lo uso poco e nulla, è il pc muletto diciamo.... lo porto ai lan party e visto che stiamo usando BF4 va ancora a cannone.....i giochi recenti li uso sull'altro che è appena stato refreshato con ryzen, manca una gpu un po' più potente per avvicinarmi ai 100hz del monitor essendo wide qhd....ma non mi posso proprio lamentare anzi....
Il tutto maxato con me non attacca, il più delle volte serve solo a giustificare esborsi in gpu che non hanno senso.....cerco il miglior rapporto qualità\fps in base al titolo e la sua tipologia, 30 fps su un FPS non esistono ma magari su un gioco a turni ci stanno benissimo...
interessante articolo su tomshw dove uno sviluppatore physx nvidia parla di rt e physx rispondendo a critiche e confronti.
interessante soprattutto la parte sull'uso di physx.
sono evoluti dal "compratele e state zitti"? :O
p.s: c'è la risposta su youtube di Steve-belli-capelli all'articolo scandalo per eccellenza di tom's-marchetta-hardware, ha sempre più la mia stima (oltre che per la barba e capelli intendo)
"What Nvidia is basically saying is that they now have proper running Asynchronous Compute - FP32 and INT32 at the same time, as Jensen said in the presentation, hence why they chose mostly AMD DX 12 optimized games to showcase this; they caught up to AMD in this respect and Turing is thus Nvidia's first true DX 12 and Vulkan optimized GPU, marking the true start of DX 12 and Vulkan for Nvidia, and well, for these close to the metal APIs themselves, as Nvidia is the market leader.
But that also means that that 50% shader performance increase vs Pascal (or 1.5x as Jensen says in the video) is mostly only valid for games that have DX 12 and use Async Compute, so in current games, take that 50% increase as a best case scenario, in others it will be less."
Oh finalmente nvidia ha sbloccato il mercato (a forza di innovare sai...) e anche noi poveri consumatori avremo dei benefici dopo nove anni di DX11 :O
:eek:
Quindi finalmente Nvidia ha raggiunto AMD e si è abbassata ad utilizzare le tech-demo AMD per dimostrarlo :asd:
Rallegratevi tutti, essendo loro il principale freno a mano a tutto lo sviluppo dell'industria bhe non può che essere una buona notizia.....probabile che ora mi tengo la fury per altri sei mesi, chi lo sa :asd: (a Hunt faccio 40 fps :cry: )
p.s: ah già , si sono inventati sto ray tracing, così tarpano le ali subito a tutto ciò che non è "nuovo" :asd:
JohnWayneBobbit
27-08-2018, 09:40
Ma scusate, ma non esiste tipo qualcosa come abuso di posizione dominante?
se davvero nVidia avesse bloccato in qualche modo lo sviluppo del settore videoludico verso le DX12, potrebbe essere accusata di questo.
lungi da me il difendere nVidia eh, per carità :p
:confused: :confused: :confused:
bagnino89
27-08-2018, 10:00
"What Nvidia is basically saying is that they now have proper running Asynchronous Compute - FP32 and INT32 at the same time, as Jensen said in the presentation, hence why they chose mostly AMD DX 12 optimized games to showcase this; they caught up to AMD in this respect and Turing is thus Nvidia's first true DX 12 and Vulkan optimized GPU, marking the true start of DX 12 and Vulkan for Nvidia, and well, for these close to the metal APIs themselves, as Nvidia is the market leader.
But that also means that that 50% shader performance increase vs Pascal (or 1.5x as Jensen says in the video) is mostly only valid for games that have DX 12 and use Async Compute, so in current games, take that 50% increase as a best case scenario, in others it will be less."
Oh finalmente nvidia ha sbloccato il mercato (a forza di innovare sai...) e anche noi poveri consumatori avremo dei benefici dopo nove anni di DX11 :O
Ma chi ha fatto quella affermazione? Lucusta in inglese? :asd:
Legolas84
27-08-2018, 10:07
Dai ragazzi ottimo, finalmente dopo anni di rincorsa tecnologica e di nessuna innovazione, NVIDIA si è messa in pari con AMD.... non posso crederci ma è così... ora che NVIDIA è in pari potremo finalmente comprare anche qualche GeForce e vederla andare come le AMD e con le nuove tecnologie....
Non se ne poteva più di tutta questa arretratezza da parte delle verdi....
Legolas84
27-08-2018, 10:09
ah ma non sei Gyammy, niente non rispondo allora :D
Tranquillo però se noti gli utenti che se la cantano e se la suonano sono sempre quelli, solo che siccome ora sono uscite nuove schede verdi sono tutti di qua :asd:
JohnWayneBobbit
27-08-2018, 10:16
Ma tu dopo che viene bannato ripetutamente, cosa ti porta a iscriverti di nuovo con nickname sempre più stravaganti? :D
Seguo questo forum da due settimane, mi sono iscritto solo perché ho preordinato.
Se ho scritto qualcosa di sbagliato scusami e se vuoi torno solo in lettura.
AceGranger
27-08-2018, 10:20
Scusa ma questo per metà è una fesserie.
Pensi veramente che con RT avrai riflessi ovunque?
La tua auto riflessa nella loro carrozzeria la avrai solo se i programmatori decideranno di mettercela proprio come nei riflessi fake di cui parli.
Perchè prima di tutto il RT decidono i programmatori dove metterlo e dove no e poi anche in RT possono impostare livelli e quantità di riflessi.
Sali troppo in complessità e il gioco diventa un mattone.
Stessa cosa le luci e le ombre.
ma hai capito o no di come funziona l'RT ? sia che si sia il riflesso, sia che non ci sia, il calcolo è il medesimo, perchè il raggio e i suoi rimbalzi vengono comuqnue calcolati, solo che in un caso dara risultato positivo sulla superficie riflettente, mentre nell'altro dara risultato negativo sulla superficie opaca, ma il calcolo del rimbalzo lo hai comuqnue.
invece con le tecniche attuali devi forzare qualsiasi cosa e alcune hanno seri problemi di implementazione, come quello di avere i globi riflettenti attaccati all'auto in movimento.
ma cosa c'è di serio fammi capire? se tu fossi uno sviluppatore e dovessi sviluppare un gioco, al netto di mazzette o partnership, considerata la base installata di vga nvidia e di quelle amd, su quale ti sbatteresti di più per far si che il tuo prodotto sia appetibile? certe uscite sono da www.segnidalcielo.it
Poche storie (al netto di posizioni dominanti o a smorzacandela che non mi tange):
nvidia come riferimento dal 2009 ad oggi ha avuto in testa "per favorire il suo vino" le DX11 si o no?
Legolas84
27-08-2018, 10:27
ma hai capito o no di come funziona l'RT ? sia che si sia il riflesso, sia che non ci sia, il calcolo è il medesimo, perchè il raggio e i suoi rimbalzi vengono comuqnue calcolati, solo che in un caso dara risultato positivo nell'altro dara risultato negativo, ma il calcolo del rimbalzo lo hai comuqnue.
invece con le tecniche attuali devi forzare qualsiasi cosa e alcune hanno seri problemi di implementazione, come quello di avere i globi riflettenti attaccati all'auto in movimento.
Il problema attuale per la maggior parte dell'utenza penso sia proprio capire come funziona il RT, in quanto non è un semplice effetto da abilitare o meno ma proprio un cambiamento molto più profondo nel modo di programmare l'illuminazione di un videogame.
Il problema attuale per la maggior parte dell'utenza penso sia proprio capire come funziona il RT, in quanto non è un semplice effetto da abilitare o meno ma proprio un cambiamento molto più profondo nel modo di programmare l'illuminazione di un videogame.
tu incluso? mi sembrano le paroline che si imparavano a memoria a scuola però tratte da un comunicato JHH approved......
"La vispa teresa corea fra l'erbetta"
"RT è un cambio di paradigma nel mondo della computer grafica"
"L'industria non sarà più la stessa e le mezze stagioni .... machetelodicoafare"
AceGranger
27-08-2018, 10:37
"What Nvidia is basically saying is that they now have proper running Asynchronous Compute - FP32 and INT32 at the same time, as Jensen said in the presentation, hence why they chose mostly AMD DX 12 optimized games to showcase this; they caught up to AMD in this respect and Turing is thus Nvidia's first true DX 12 and Vulkan optimized GPU, marking the true start of DX 12 and Vulkan for Nvidia, and well, for these close to the metal APIs themselves, as Nvidia is the market leader.
But that also means that that 50% shader performance increase vs Pascal (or 1.5x as Jensen says in the video) is mostly only valid for games that have DX 12 and use Async Compute, so in current games, take that 50% increase as a best case scenario, in others it will be less."
Oh finalmente nvidia ha sbloccato il mercato (a forza di innovare sai...) e anche noi poveri consumatori avremo dei benefici dopo nove anni di DX11 :O
e chi avrebbe tratto queste "conclusioni" dal discorso ?
Adesso chiamiamo la maestra che vi sistema il grembiulino
Legolas84
27-08-2018, 10:44
Adesso chiamiamo la maestra che vi sistema il grembiulino
No dai :asd:
No dai :asd:
:D ho appena visto il tuo thread sul mercatino, loooool :sofico:
Legolas84
27-08-2018, 10:45
:D ho appena visto il tuo thread sul mercatino, loooool :sofico:
Ma perchè non lo sapevi che le 1080Ti le danno con le pizzette surgelate? :asd:
forse mi sbagliavo! :sofico:
FroZen suvvia, metti da parte l'astio per un greenarmy, ma mi vuoi spiegare concretamente cosa ha fatto amd in questi anni? ogni presentazione di vga vuoi per un motivo o per un altro qualche fail di mezzo pompato giustamente dalla stampa di settore, aveva mantle che ha fatto diventare vulkan e dx12, ha milioni di console con il suo hardware e praticamente il suo software e mo la colpa è di nvidia che "favorisce il suo vino"?
amd ha avuto grosse lacune sul piano marketing, sul piano software, casini economici, ristrutturazioni interne, ha dovuto combattere per tornare a grandi livelli sulle cpu, riuscendoci e sperperando molte energie e risorse economiche... ma certo se la situazione in campo vga è quella che è sia dal punto di vista hardware che da quello software e di sviluppo non è colpa ne della cattivona nvidia, ne degli utenti che se comprano nvidia sono dei coglioni.
sti discorsi li potevamo fare (e li facevo anche io!) anni fa, quando eravamo più piccoli, spensierati ma soprattutto quando la situazione non era ne chiara ne soprattutto delineata ed amd non era così "indietro" per cui venendo da schede gloriose come 4870 e 7970 uno si aspettava sempre il colpo di coda rosso... ma è stato un susseguirsi di delusioni a piccole dosi che hanno rinverdito il sangue di molti.
Non mi interessa la storia degli ultimi dieci anni, mi interessa solo capire se quando uno scrive A l'altro risponde ad A non tira in ballo B e via così fino alla Z..... appunto, non ho più 20 anni e ho perso interesse nelle analisi chilometriche da forum per poi convincere chi? lol ma almeno non prendiamoci in giro su.
Io sono un videogiocatore, voglio giocare, come e con che soldi lo decido di volta in volta..... ma far passare nvidia come quella che ha inventato il gioco su pc e che innova, bhe, cari miei...... ce ne passa.
La mia domanda era semplice: un produttore innova se tiene l'industria sulla stessa API per dieci anni? Dell'opportunità me ne frego..... rispondi SI o NO.
techsaskia
27-08-2018, 10:53
Cmq questo rt è stata proprio una manna dal cielo per Nvidia.
Adesso che le schede si apprestavano a gestire il 4k 60fps, boom si torna anni e anni indietro dove si doveva pregare per i 1080p 60fps.
Qualcosa mi dice che più che una reale innovazione sarà una carota.
Alla fine prima del rt dovevamo ancora 'rimettere la fisica" nei videogiochi ormai sparita da anni, aumentare la potenza per i voxel, aggiungere vram per texture decenti.
Io non vedo l'ora di vedere sul mio monitor la differenza qualitativa tra
1080p raytracing on + dlss
e
4k raytracing off.
Per me la differenza tra 1080p e 4k è troppo abissale per poter essere rimpiazzata da due riflessi ed un illuminazione meglio gestita.
e chi avrebbe tratto queste "conclusioni" dal discorso ?
https://www.overclock.net/forum/27596290-post462.html
E' l'analisi di un tizio in base ai titoli scelti da nvidia nei suoi bench "dell'oste che ha il miglior vino" per sbandierare il +50% di efficienza shader su pascal (che è magicamente diventato lammerda vista la velocità con le quali si riempiono i mercatini di mezzo mondo o per non rinunciare a un rene :asd: )
ovviamente non è la bibbia
ovviamente NON se ne può discutere, lo so lo so :asd:
AceGranger
27-08-2018, 10:57
Ma tu hai capito come funziona questa implementazione del RT?
Il gioco è tutto completamente in raster, solo i riflessi sono i RT.
I calcoli per superfici opache non esistono altrimenti avremmo un RT completo e non sarebbe più necessario il raster, ma a questo ci arriveremo tra anni con gpu più potenti e pensate diversamente.
P.S: ma dirò di più le ombre in RT saranno solo sulle sorgenti luminose prestabilite dallo sviluppatore, gli oggetti riflessi in RT sono solo quelli prestabiliti dallo sviluppatore e così via.
https://devblogs.nvidia.com/wp-content/uploads/2018/03/fig4_simple_vs_complex-768x375.png
indipendentemente dai materiali e dalle superfici che ci saranno nella scena, il CORE RT spara sempre e comunque i raggi, e poi raccoglie le informazioni sui rimbalzi; è proprio quella la differenza fra il raster e l'RT, che l'RT è pesante a prescindere, indipendentemente dal numero di oggetti riflettenti in scena; idem per le fonti luminose.
https://www.overclock.net/forum/27596290-post462.html
E' l'analisi di un tizio in base ai titoli scelti da nvidia nei suoi bench "dell'oste che ha il miglior vino" per sbandierare il +50% di efficienza shader su pascal (che è magicamente diventato lammerda vista la velocità con le quali si riempiono i mercatini di mezzo mondo o per non rinunciare a un rene :asd: )
ovviamente non è la bibbia
ovviamente NON se ne può discutere, lo so lo so :asd:
quando il gioco è DX12 lui dice che va meglio perchè c'è l'ASync, mentre quando c'è il gioco DX 11 che va meglio uguale bè, non essendoci l'Async, va meglio perchè ci sono la L1 e la L2 piu veloci....
"Asynchronous Shaders—the Asynchronous Compute Engines in AMD’s GCN and Polaris architectures can submit commands without waiting for other tasks to complete."
Se Turing è in grado di gestire thread paralleli contemporanei su 3 unita dedicate perchè dovrebbe essere merito dell'async che dovrebbe invece migliorare le prestazioni dei calcoli sulla singola unita ?
Secondo me è un NO.
Perfetto, grazie. La seduta è tolta. :O
bagnino89
27-08-2018, 11:01
https://www.overclock.net/forum/27596290-post462.html
E' l'analisi di un tizio in base ai titoli scelti da nvidia nei suoi bench "dell'oste che ha il miglior vino" per sbandierare il +50% di efficienza shader su pascal (che è magicamente diventato lammerda vista la velocità con le quali si riempiono i mercatini di mezzo mondo o per non rinunciare a un rene :asd: )
ovviamente non è la bibbia
ovviamente NON se ne può discutere, lo so lo so :asd:
E' lucusta sicuroooo :asd:
Avrei detto "è suonata la campanella", come si fa a rispondere ad una domanda che non ha senso? La tua non è una domanda, è un'accusa.
accipicchiolina, allora mi scuso...... :eek:
scorpion73
27-08-2018, 11:19
Aspettiamo i test, il resto secondo me sono solo indiscrezioni: le uniche cose certe sono le dichiarazioni delle software house sul RT, che ci dicono che la scheda al massimo può fare i 60fps in FullHD: se ci riesce o meno forse i test ce lo diranno o forse dovremo aspettare la pubblicazione dei giochi.
Per le prestazioni sul resto però i test ce lo diranno sicuramente, quindi alla fine si sta discutendo di aria fritta secondo me: aspettiamo le prove e vediamo....
DJurassic
27-08-2018, 11:22
Siete spassosi ma ora vi suggerisco di tornare sui binari.
Tornando al RT, secondo voi e dopo tutto cio' che si e' visto negli ultimi anni, quanti sviluppatori implementeranno il Ray Tracing nei loro vg sapendo che solamente il 5% a dire tanto potra' usufruire di questi contenuti?
Mi vengono appunto in mente gli effetti Nvidia Gameworks che nonostante potevano contare su una base molto piu' ampia di utenti non hanno mai trovato terreno fertile nei VG e quasi sempre erano inseriti malissimo e di conseguenza rappresentavano l'opzione ammazza frame che nessuno voleva abilitare.
Facendo un discorso un po' piu' ampio a me sembra che tutte le cartucce sparate da nvidia, innovative o meno non e' questo il punto, alla fine si siano tutte esaurite in pochi anni o quasi. Vedi PhysX, lo SLi, il VXAO, il FurTech, il Turfeffect, o le Hybrid Frustum Traced Shadows (HFTS). Tutte tecnologie per certi versi rivoluzionarie che anno dopo anno hanno perso definitivamente di significato e che vengono ormai implementate nei giochi solo a babbo morto e spesso male. Le uniche tecnologie che sono sopravvissute sono quelle che hanno ricevuto il consenso della stragrande maggioranza della community e che non comportano ulteriore mole di lavoro da parte degli sviluppatori, che di certo non hanno i PC topgear come destinatari finali. Il GSync e' appunto uno di quelli.
A monte di questa storia la vedo dura per l'ultimo arrivato, che si affaccia sul mercato come il serial killer per eccellenza e che debutta su schede grafiche top gamma di fatto massacrandone gli attributi. Non so' quanta strada dovra' fare per diventare lo standard in termini visivi, ma ho il vago sospetto che non sara' il PC il suo trampolino di lancio.
amon.akira
27-08-2018, 11:41
Ma tu hai capito come funziona questa implementazione del RT?
Il gioco è tutto completamente in raster, solo i riflessi sono i RT.
I calcoli per superfici opache non esistono altrimenti avremmo un RT completo e non sarebbe più necessario il raster, ma a questo ci arriveremo tra anni con gpu più potenti e pensate diversamente.
P.S: ma dirò di più le ombre in RT saranno solo sulle sorgenti luminose prestabilite dallo sviluppatore, gli oggetti riflessi in RT sono solo quelli prestabiliti dallo sviluppatore e così via.
sbagliato non c entra nulla con il full rt
https://devblogs.nvidia.com/wp-content/uploads/2018/03/fig4_simple_vs_complex-768x375.png
indipendentemente dai materiali e dalle superfici che ci saranno nella scena, il CORE RT spara sempre e comunque i raggi, e poi raccoglie le informazioni sui rimbalzi; è proprio quella la differenza fra il raster e l'RT, che l'RT è pesante a prescindere, indipendentemente dal numero di oggetti riflettenti in scena; idem per le fonti luminose.
esatto
Siete spassosi ma ora vi suggerisco di tornare sui binari.
Tornando al RT, secondo voi e dopo tutto cio' che si e' visto negli ultimi anni, quanti sviluppatori implementeranno il Ray Tracing nei loro vg sapendo che solamente il 5% a dire tanto potra' usufruire di questi contenuti?
5 10 20 50 e poi tutti, è il progresso :)
amon.akira
27-08-2018, 11:48
Cmq questo rt è stata proprio una manna dal cielo per Nvidia.
Adesso che le schede si apprestavano a gestire il 4k 60fps, boom si torna anni e anni indietro dove si doveva pregare per i 1080p 60fps.
Qualcosa mi dice che più che una reale innovazione sarà una carota.
Alla fine prima del rt dovevamo ancora 'rimettere la fisica" nei videogiochi ormai sparita da anni, aumentare la potenza per i voxel, aggiungere vram per texture decenti.
Io non vedo l'ora di vedere sul mio monitor la differenza qualitativa tra
1080p raytracing on + dlss
e
4k raytracing off.
Per me la differenza tra 1080p e 4k è troppo abissale per poter essere rimpiazzata da due riflessi ed un illuminazione meglio gestita.
non so che display hai ma un paragone alla parti lo dovrai fare con entrambi a res native, ovviamente se metti 1080p+rt su un display 4k avrai un immagine sfocata.
inoltre poi subentrerà anche la bonta del pannello, uno può avere un contrasto e colori migliori e vincere a mani basse sull altro :)
JohnWayneBobbit
27-08-2018, 11:50
Scusate ma perché parlate di FULL RT o MIXED RT?
AceGranger
27-08-2018, 11:50
Se così fosse il raster diventerebbe inutile.
Tu stai ragionando su un rendering in ray tracing ma qui abbiamo il rendering in raster con l'aggiunta di alcuni elementi in ray tracing, il così detto rendering ibrido.
Se per aggiungere questi elementi calcolasse veramente tutti i rimbalzi si luce su tutte le superfici non ci sarebbe bisogno del raster ma il calcolo diventerebbe oneroso al punto da non poterlo più fare in tempo reale.
no, perchè in questo caso il cacolo RT si occupera solo di "tracciare" la posizione degli oggetti.
se viene impegato solo per i riflessi, il calcolo della luce verra comunque fatto in baking, gli shader verranno comunque calcolati nel solito modo solo che invece di "sommare" il valore del riflesso dei classici globi, sommerai il valore del riflesso tirato fuori dall'RT.
bene o male, i vari bench parlavano similmente di 1080p 60 fps, indipendentemente che si trattasse di RT applicato alle ombre o ai riflessi, perchè alla fine il collo di bottiglia è il calcolo della traiettoria dei raggi.
amon.akira
27-08-2018, 11:54
Sbagliato cosa?
Ho sbagliato a dire che il gioco è in raster con aggiunta dei soli riflessi o le ombre in RT?
O forse ho sbagliato a dire che se calcolasse i rimbalzi di tutte le superfici non avrebbe bisogno del raster?
ovviamente se il materiale è opaco avrai solo una variazione di colore nel rimbalzo, poi dipende per ora non abbiamo riflessi,ombre,gi rt tutti insieme...anzi atomic heart mi ha meravigliato che ha sia ombre e riflessi.
secondo me già dalla prossima gen se nvidia riesce a raddoppiare i gigaray con un rapport rt/sm 2:1 (qui potrebbe rispondere mikael :P) potremmo avere un grande incremento nella qualità immagine con tutti e 3attivi
amon.akira
27-08-2018, 11:58
Allora tutte le volte che ci hai detto che il ray tracing annunciato da AMD è finto perchè "sempre baking rimane" (cit. AceGranger) ci prendevi per il sedere perchè Nvidia fa la stessa cosa?
Fonte:
è vero se si parla di riflessi, è vero se si parla di ombre, è vero se si parla di illuminazione, sarà notevole quando li avremo tutti insieme :P
AceGranger
27-08-2018, 12:05
Allora tutte le volte che ci hai detto che il ray tracing annunciato da AMD è finto perchè "sempre baking rimane" (cit. AceGranger) ci prendevi per il sedere perchè Nvidia fa la stessa cosa?
Fonte:
evidentemente stai andando un po troppo con lo zoppo e inizi a zoppicare anche tu :sofico: ... non so, fai finta di non capire o inizierai anche tu a fare post senza senso ?
- se ti dicono che l'RT verra impiegato sui riflessi verra impiegato sui riflessi... quindi avrai illuminazione baking ma sopra si sommeranno riflessi reali RT, mentre con AMD rimarrai con con i riflessi fake.
- se ti dicono che l'RT verra usato per le ombre, avrai un calcolo RT per l'illuminazione.
in ogni caso, avrai sempre e comunque una resa grafica migliore.
ah, e comunque, dopo aver ricevuto poco fa un messaggio privato da un utente che mi ha diferito info sul DLSS sono andato a cercare e, a differenza di quello che credevi tu, il DLSS sara gratuito.
"We should note that NVIDIA will enable DLSS in games for developers for free, if a dev just sends them their code for processing on an NVIDIA DGX supercomputer. NVIDIA will hand back that code, which is reportedly just megabytes in incremental size, and enable the feature in their driver for that game. And, as with anything AI and machine learning, the more you feed the beast, the better it gets at the task at hand moving forward, in this case with a wider swath of game engines and visuals."
https://hothardware.com/news/nvidia-geforce-rtx-2080-performance-and-dlss
"DLSS is a specific NVIDIA function that will have to be coded game-by-game, but NVIDIA will do it for free if developers send them the code."
https://www.engadget.com/2018/08/25/nvidia-rtx-speed-claims-rt-turing-cores-video/
quindi bastera essere un developer registrato.
Allora la mia domanda/affermazione precedente ( ... "non ho ancora capito in cosa realmente consista il RayTracing") non è così campata in aria leggendo le ultime pagine della discussione. Oh intendiamoci .. mica è u'accusa verso nessuno. Probabilmente non è stato esplicitato troppo bene da parte di Nvidia
amon.akira
27-08-2018, 12:13
Allora la mia domanda/affermazione precedente ( ... "non ho ancora capito in cosa realmente consista il RayTracing") non è così campata in aria leggendo le ultime pagine della discussione. Oh intendiamoci .. mica è u'accusa verso nessuno. Probabilmente non è stato esplicitato troppo bene da parte di Nvidia
permette di avere illuminazione/ombre/riflessi realistici e fisicamente corretti ma è molto pesante a livello computazionale
DJurassic
27-08-2018, 12:24
Allora la mia domanda/affermazione precedente ( ... "non ho ancora capito in cosa realmente consista il RayTracing") non è così campata in aria leggendo le ultime pagine della discussione. Oh intendiamoci .. mica è u'accusa verso nessuno. Probabilmente non è stato esplicitato troppo bene da parte di Nvidia
Forse non lo sanno nemmeno loro :asd:
Scherzi a parte per una rapida diffusione di questa tecnologia e un netto miglioramento delle performance c'e' solo da sperare che la prossima generazione di console ne faccia uso. Altrimenti fara' la fine di tutto il resto di cui poco fa' facevo menzione.
techsaskia
27-08-2018, 12:32
evidentemente stai andando un po troppo con lo zoppo e inizi a zoppicare anche tu :sofico: ... non so, fai finta di non capire o inizierai anche tu a fare post senza senso ?
- se ti dicono che l'RT verra impiegato sui riflessi verra impiegato sui riflessi... quindi avrai illuminazione baking ma sopra si sommeranno riflessi reali RT, mentre con AMD rimarrai con con i riflessi fake.
- se ti dicono che l'RT verra usato per le ombre, avrai un calcolo RT per l'illuminazione.
in ogni caso, avrai sempre e comunque una resa grafica migliore.
ah, e comunque, dopo aver ricevuto poco fa un messaggio privato da un utente che mi ha diferito info sul DLSS sono andato a cercare e, a differenza di quello che credevi tu, il DLSS sara gratuito.
"We should note that NVIDIA will enable DLSS in games for developers for free, if a dev just sends them their code for processing on an NVIDIA DGX supercomputer. NVIDIA will hand back that code, which is reportedly just megabytes in incremental size, and enable the feature in their driver for that game. And, as with anything AI and machine learning, the more you feed the beast, the better it gets at the task at hand moving forward, in this case with a wider swath of game engines and visuals."
https://hothardware.com/news/nvidia-geforce-rtx-2080-performance-and-dlss
"DLSS is a specific NVIDIA function that will have to be coded game-by-game, but NVIDIA will do it for free if developers send them the code."
https://www.engadget.com/2018/08/25/nvidia-rtx-speed-claims-rt-turing-cores-video/
quindi bastera essere un developer registrato.
Un altro modo ancora per Nvidia per fare obsolescenza programmata
edit_user_name_here
27-08-2018, 12:35
Comunque su eprice sono uscite anche le msi e zotac diversi modelli.Solo che ho visto che un rma ora costa a mandarlo indietro di spedizione ma io ricordavo che era gratis tempo fa eccetto al pick e pay.Forse dipende dal peso del pacco?Perchè sto per mandare un monitor in rma(anche se al pick e pay ma per chi non ce l'ha?).
Apparte questo ho visto che tutti i grandi monitor sono 120 hz e penso di prendere sempre l'omen perchè l'asus mi pare che il piede arriva troppo dietro e non potrei metterlo più dietro possibile.Lo stesso acer.E mi pare anche più bello poi.
Ma scusate, ma non esiste tipo qualcosa come abuso di posizione dominante?
se davvero nVidia avesse bloccato in qualche modo lo sviluppo del settore videoludico verso le DX12, potrebbe essere accusata di questo.
lungi da me il difendere nVidia eh, per carità :p
Dunque per te dovrebbe fermarsi perchè ha scelto una strada da percorrere? :D non ho ben capito.Posizione dominate era microsoft quando aveva oltre 500 euro di software perchè metteva i prezzi che voleva lui.
Cioè sicuramente ha una posizione dominante nvidia ma non credo abuso.
Un altro modo ancora per Nvidia per fare obsolescenza programmata
Bentornato ;) qua abbiamo consumato tanti champagne l'altro giorno :D
AceGranger
27-08-2018, 13:03
Non sono io che faccio post senza senso, semplicemente volevo farti render conto della contraddizione che hai scritto.
non mi sono contraddetto in nessun modo, e quel post è tutto corretto come è corretto quello che ho scritto negli altri post; in quel post ho scritto tecnicamente perchè il Ray-Tracing di AMD non sia un Ray-tracing real-time in Game.
Se non capisci la differenza fra i 2 metodi, e mischi l'implementazione dell'RT con le ombre con quello dei riflessi non e colpa mia.
I riflessi sono in RT e questo è il punto, solo i riflessi sono in RT, quindi perchè dovrebbe calcolare tutti i rimbalzi di luce anche di oggetti che non riflettono?
O ombre ovviamente visto che c'è anche quello.
Questo è molto diverso da tutti i rimbalzi su tutti gli oggetti, altrimenti come ho detto non sarebbe servito il raster.
con la parola "raggio" non si intende solo e soltanto un "raggio di luce"... diventa raggio di luce se lo sviluppatore ha intenzione di utilizzare quel calcolo per l'illuminazione.
Quando applicato ai riflessi, lui usa i raggi per sapere quali oggetti sono "collegati" fra di loro con i rimbalzi e sapere cosi se un oggetto è in traiettoria o meno; l'RT in sostanza ti calcola la traiettoria e lo fa anche gli oggetti fuori dalla telecamera.
mi sembra chiaro che tu non abbia ancora capito che il render raster parte dalla proiezione dagli oggetti verso la telecamera, quindi piu elementi hai e piu proiezioni avrai, ed è per questo che oltre un certo numero è problematico gestire le luci, rifelssioni e oggetti; nell'RT la proiezione avviene al contrario, e avviene a prescindere dal numero degli oggetti/elementi in scena, quindi sia che tu l'oggetto lo farai riflettente, sia che lo farai opaco, il calcolo dell'interazione degli oggetti lo hai comunque fatto.
https://images.slideplayer.com/26/8456919/slides/slide_9.jpg
Ale55andr0
27-08-2018, 13:25
non mi sono contraddetto in nessun modo, e quel post è tutto corretto come è corretto quello che ho scritto negli altri post; in quel post ho scritto tecnicamente perchè il Ray-Tracing di AMD non sia un Ray-tracing real-time in Game.
Se non capisci la differenza fra i 2 metodi, e mischi l'implementazione dell'RT con le ombre con quello dei riflessi non e colpa mia.
aaarghhh!!!! dopo lo spiegone mi sei cascato sul rasterizzatore senza il rendering accentato :eek:
:D
CiccoMan
27-08-2018, 13:30
Boh evidentemente non ci capiamo.
Facciamo un salto indietro lasciando perdere amd e il baking.
Questa implementazione di RT calcola tutti i rimbalzi di luce per tutte le superfici per tutti gli oggetti?
Te pensi sempre che io non abbia capito delle cose, provare a pensare che non le hai capite tu ogni tanto?
Scusate se mi intrometto, ma qui è nato un eqiovoco... RT non calcola i rimbalzi di luce. RT determina la posizione degli oggetti tramite vettori prendendendo come riferimento il punto POV. Questo lo puoi applicare (dipendentemente da come gestisci il dato vi asw) a qualsiasi cosa, luci, ombre riflessi o altre robe che con la luce non c'entrano nulla.
amon.akira
27-08-2018, 13:31
aaarghhh!!!! dopo lo spiegone mi sei cascato sul rasterizzatore :eek:
:D
ma quale rasterizzazione, qua fino a ieri gridavate al gomblotto perchè sparivano i riflessi offscreen salvo poi scoprire che non li avete mai visti e forse c'è ancora chi nn l ha capito nonostante è stato spiegato in tutti i video...ah già sono in inglese :asd:
amon.akira
27-08-2018, 13:34
Scusate se mi intrometto, ma qui è nato un eqiovoco... RT non calcola i rimbalzi di luce. RT determina la posizione degli oggetti tramite vettori prendendendo come riferimento il punto POV. Questo lo puoi applicare a qualsiasi cosa, luci, ombre riflessi o altre robe che con la luce non c'entrano nulla.
altrimenti non avremmo la global illumination rt solo su metro
AceGranger
27-08-2018, 13:36
Boh evidentemente non ci capiamo.
Facciamo un salto indietro lasciando perdere amd e il baking.
Questa implementazione di RT calcola tutti i rimbalzi di luce per tutte le superfici per tutti gli oggetti?
Si, e ti da anche l'informazioen degli oggetti fuori scena, MA, a seconda di come lo sviluppatore decide di usare questi calcoli, li usa O per fare ombre migliori, O per farci i riflessi, O per entrambi.
quando tu parli di raggi di luce, non è detto che vengano obbligatoriamente usati per l'illuminazione, perchè attualmente illuminazione e riflessi vengono calcolati in "2 passaggi differenti" e poi sommati.
ora: Luce Fake + Riflessi Fake
domani: Luce Fake + Riflessi RT
domani: Luce RT + Riflessi Fake
in futuro: Luce RT + Riflessi RT
gli sviluppatori hanno iniziato a usare l'RT solo per una cosa iniziando a capire come gestirla e, a seconda del gioco, hanno deciso di implementare quella piu di impatto visivo fra le 2; presumo che in Tomb Raider con tanti sfondi e vegetazione, e tanti luoghi bui e angusti sia piu figo far vedere le luci, mentre in BF con i vetri degli edifici, le strade bagnate e la vernice dei veicoli sia piu figo fare vedere i riflessi.
ora, ovviamente la parte RT io te l'ho semplificata con solo la proiezione dei raggi ma ci sara ovviamente dietro il resto del lavoro dei CUDA e che il tutto deve essere effettuato "in sincrono" durante la generazione del frame, ma imho, fra i 2, il collo di bottiglia nei frame io la piazzo nettamente a colpa della parte RT Core.
P.S: rileggendo comunque così si capisce meglio, nei post precedenti scrivevi solo "raggi" e sembrava parlassi di elaborazione del riflesso/ombra, se invece intento anche quello che viene prima e cioè il calcolo della posizione degli oggetti sono d'accordo con te, ma questa è un'operazione molto più leggere del rendering in ray tracing che utilizza appunto i "raggi di luce".
I riflessi di fatto vengono calcolati o meglio renderizzati solo dove dice il programmatore e solo sulle superfici interessate, il resto e in raster.
non so e ho frainteso io quello che ha iscritto qui, ma è proprio il calcolo della posizione con i rimbalzi che è la parte complessa da fare, e per la quale hanno fatto l'RT Core...
quello di cui tu parli è lo shading finale, ma lo shading finale lo fai con i CUDA e solo quando hai in mano tutti i dati dei vari colori da sommare e derivati dal calcolo delle traiettorie
la differenza rispetto ad ora è, che se tu non metti i globi riflettenti nelle zone di interesse, il calcolo delle traiettorie non lo fai proprio, mentre con l'RT i raggi partono comunque, poi quella superficie viene letta come non riflettente e quei raggi vengono scartati ai fine dello shading finale, ma li hai gia tutti e belli che calcolati
quindi, a meno che la suddetta superficie non dia particolari problemi, sarebbero stupidi a disattivare un riflesso sul quale hanno gia calcolato le traiettorie... e sul quale non possono decidere di NON calcolarle...
Però torno a dire che invece di accusare gli altri di non aver capito cosa si il ray tracing o il raster forse dovresti anche preoccuparti di come esprimi tu i concetti.
eh oh, se credi di non aver capito mi dici, "non ho capito ", non mi dici che scrivo sbagliato postando un post di un'altro discorso... anche perchè io non sono un docente, li spiego per come li uso io lavorando...
poi intendiamoci, io non porto la verita assoluta e potrei anche aver sbagliato dei passaggi, ma questo è come dovrebbe funzionare.
aaarghhh!!!! dopo lo spiegone mi sei cascato sul rasterizzatore senza il rendering accentato :eek:
:D
sono razzista verso quei tasti brutti della tastiera e mi viene da usarli poco:p
DJurassic
27-08-2018, 14:01
ma quale rasterizzazione, qua fino a ieri gridavate al gomblotto perchè sparivano i riflessi offscreen salvo poi scoprire che non li avete mai visti e forse c'è ancora chi nn l ha capito nonostante è stato spiegato in tutti i video...ah già sono in inglese :asd:
Menomale che abbiamo i professoroni come te che spiegano a noi bambini stupidi le cose. Magari dacci anche un infarinata di inglese cosi la prossima volta non facciamo brutte figuracce. The cat is on the table, robba cosi...non troppo complicata pero' mi raccomando.
Arrow0309
27-08-2018, 14:03
scan.co.uk
Wella, dimmi, cos'hai preso stavolta da Scan? :sofico:
amon.akira
27-08-2018, 14:04
Menomale che abbiamo i professoroni come te che spiegano a noi bambini stupidi le cose. Magari dacci anche un infarinata di inglese cosi la prossima volta non facciamo brutte figuracce. The cat is on the table, robba cosi...non troppo complicata pero' mi raccomando.
ma l hai scoperto poi che la 2070 è rtx? :D
DJurassic
27-08-2018, 14:12
ma l hai scoperto poi che la 2070 è rtx? :D
Penso che il senso si era capito. Avevo sbagliato il termine implementa, ma di fatto l'RTX su quella scheda non lo vedrai mai se non a 1024x768. Quindi cambia nulla. Poi se c'e' gente che senza uno straccio di bench corre a fare i preorder e addirittura da consigli su un qualcosa che ancora nessuno ha finora testato caxxi loro.
DJurassic
27-08-2018, 14:22
Prevedo killstreak facili facili di players fermi come bambocci a cercare di scorgere la fiamma nella pupilla del soldato di fronte in BFV :asd:
Nhirlathothep
27-08-2018, 14:25
per i pc fissi è facile, avremo tutti casa piena di monitor, ma per i Notebook gaming alla luce del rt sorge il dubbio :
prenderlo 1080p?
la gpu max è la 2080 e forse è anche troppo
amon.akira
27-08-2018, 14:25
Ok, ma tu giochi con gli occhi puntati sul cofano o guardi davanti anche quando sei in visuale dal cofano?
Per quello pare un video marketta, se fai la comparativa si onesto e fai vedere in condizioni reali e non forzando oggetti off-screen con visuali ad minchiam, solo per dire guarda si vedono i riflessi di oggetti che manco si vedono a schermo.
Inutile
Tipo il riflesso dell'esplosione di BF è sensato, visuale corretta, solo che con RT si vede il riflesso del fuoco che non vedi direttamente, ma riflesso sulla carrozzeria.
Utile
ma ti devono mostrare cosa è possibile fare in piu rispetto alla vecchia tecnologia, spiegandolo per giunta, poi se sia bello, se sia inutile, se sia pesante, se sia usabile se ne può discutere. invece bugiardi io li vedevo anche prima mi vogliono fregare.
Wella, dimmi, cos'hai preso stavolta da Scan? :sofico:
https://www.scan.co.uk/products/msi-geforce-rtx-2080-gaming-x-trio-8gb-gddr6-vr-ready-graphics-card-2944-core
La mail di conferma la da in consegna programmata per il 29 agosto ma mi sembra un errore.
amon.akira
27-08-2018, 14:39
Come preferisci, non ti devo mica convincere.
esatto, ma nel momento in cui fai disinformazione non conoscendo come funziona la tech permetti che vi si corregga
Come preferisci, non ti devo mica convincere.
ma anche 500 mmq su un notebook, oltretutto si parla di soli 90watt di tpd, circa metà della 2070... magari esiste una variante apposta per il mobile, magari una 2080M con RT da 300~350mmq e clock da 28nm.
comunque ho notato che su wikipedia è apparso le dimensioni del Die Size, 530mmq... sti cheiz
Ormai da Pascal usano i Chip pari pari a quelli desktop. Ovviamente selezionati, e castrati in frequenza. Se sono Max-Q, poi, ancora più castrati in frequenza :asd:
sui notebook la prezzi meglio, però ecco 530mmq su un notebook di sola gpu e farla clockare per 90 watt... uhm
:confused: :confused: :confused:
va beh, lasciamo perdere va... ho toccato mamma nVidia, capisco.
Probabilmente quella da 90W è la Max-Q. Castratissima in frequenza e con una gestione aggressiva dei clock.
Tanto per avere un'idea, la 1080 mobile aveva 150W (fino a 200W su alcuni modelli patacca), mentre la versione Max-Q da 90W a 110W, e infatti andava come una 1070 mobile.
CiccoMan
27-08-2018, 15:00
Si in effetti è così e lo so, ci siamo deviati a chiamarli "rimbalzi di luce" perchè qui si parla solo di riflessi :)
Che poi è comunque corretto, perchè alla fine gli algoritmi che definiscono il tragitto dei vettori nascono dalla simulazione degli effetti naturali di riflessione, rifrazione e ombra... che poi tutto questo ambaradan applicato al rendering 3D si traduce nella visualizzazione degli effetti che la luce produce su un oggetto. Quindi non è che sia sbagliato, solo che se si ragiona solo in termini di "riflessi" si rischia di equivocare il senso generale del render in Ray Tracing :)
CiccoMan
27-08-2018, 15:33
eh ma infatti per quello ci suonava strano.
Capisci che utilizzare gp104 da 315mmq e tagliarlo un po' in frequenza è fattibile, un'altra cosa sarebbe farlo con una gpu grossa quasi il doppio (530mmq) :sofico:
senza contare il costo che avranno :D
vedi sopra.
castrare la 1080 a 150w ci va poco, castrare una 2080 da +215watt e 90... pare proprio essere un chip fuori luogo, continuo a credere che vedremo un chip dedicato al mobile.
Probabilmente si chiamerà GTX 2080 e sarà una RTX 2080 con la parte RT disabilitata/assente... sempre che si possa fare :D
Sogno ad occhi aperti: sarebbe bello se la 2060 fosse la 2070 senza i tensor core...
Avremmo prestazioni comprese fra 1080 e 1080ti nella fascia dei 300 euro...
Fine sogno...
Realisticamente, se ci va bene, avremo le prestazioni dell'ex 1070...
p.s.
Se la fascia media non avrà rtx, Nvidia ha trovato un modo brillante per vendere rtx a tanti utenti Nvidia: pagare il premium o rimanere indietro tecnologicamente. E anche il fatto che la fascia media nvidia a 7nm dovrà per forza contenere rtx per non perdere clienti.
Hanno trovato un modo brillante per vendere rtx e farlo desiderare: "se non lo hai, sei un gamer di serie b".
Brillante.
edit_user_name_here
27-08-2018, 15:48
La mia era una considerazione, e non un affermazione, a seguito di questi post:
Come li interpreteresti?
Io li interpreto che secondo loro nVidia in questi anni abbia cercato di frenare lo sviluppo delle DX12 dato che non avevano una architettura realmente DX12, per avvantaggiarsene dato che in DX11 vanno meglio delle rivali, ma adesso che con Turing ce l'hanno allora si può esclamare "grazie nvidia che innovi".
Questo, se fosse vero, sarebbe abuso di posizione dominante, ma non credo che siano stati così stupidi da farlo realmente.
Se ha fatto accordi con altri non so dirti io di queste cose non mi intendo ma non sono neanche sicuro se sia abuso perchè è normale mettersi d'accordo per fare funzionare al meglio una tecnologia che su un altra.Cioè è difficile fare andare due prodotti diversi allo stesso tempo.Accontentare tutti a volte è difficile secondo me ma non essendo esperto sia in settore cosi tecnico, che di leggi, non so dirti ma al mio punto di vedere mettersi d'accordo dovrebbe essere normale.
p.s.
Se la fascia media non avrà rtx, Nvidia ha trovato un modo brillante per vendere rtx a tanti utenti Nvidia: pagare il premium o rimanere indietro tecnologicamente. E anche il fatto che la fascia media nvidia a 7nm dovrà per forza contenere rtx per non perdere clienti.
Hanno trovato un modo brillante per vendere rtx e farlo desiderare: "se non lo hai, sei un gamer di serie b".
Brillante.
Si ma tanto se non funziona in 4k non serve a nulla e posso anche essere serie b.Secondo me chi si fa problemi di essere serie b non è la nvidia ma la persona stessa :asd: non mi fare ragionamenti che sia una cosa psicologia per favore :D già ho avuto tanti discorsi sul gioco d'azzardo e sugli oggetti virtuali su steam e non se ne usciva più :asd:
Oppure potrebbero tranquillamente aspettare e fare i tagli piccoli anno prossimo direttamente a 7nm, continuando a vendere le Pascal che ci sono in giro (anche se sono sul groppone dei distributori se ho letto bene)...
PS Nvidia da denunciare per violazione dei diritti umani e' gia' stato detto ?
edit_user_name_here
27-08-2018, 15:50
Oppure potrebbero tranquillamente aspettare e fare i tagli piccoli anno prossimo direttamente a 7nm, continuando a vendere le Pascal che ci sono in giro (anche se sono sul groppone dei distributori se ho letto bene)...
PS Nvidia da denunciare per violazione dei diritti umani e' gia' stato detto ?
E mamma mia addittura diritti umani :asd: neanche fosse scritto dal dottore che bisogna avere una scheda top di gamma :D
maxmix65
27-08-2018, 15:58
Sono usciti i driver nuovi con supporto a RTX
p.s.
Se la fascia media non avrà rtx, Nvidia ha trovato un modo brillante per vendere rtx a tanti utenti Nvidia: pagare il premium o rimanere indietro tecnologicamente. E anche il fatto che la fascia media nvidia a 7nm dovrà per forza contenere rtx per non perdere clienti.
Hanno trovato un modo brillante per vendere rtx e farlo desiderare: "se non lo hai, sei un gamer di serie b".
Brillante.
Il marketing di Nvidia sbaglia raramente. Per carità .. in monopolio è anche più facile. Però condivido la tua analisi
scorpion73
27-08-2018, 16:06
In quanti utenti qui sul forum hanno fino a qui preordinato la 2080TI?
Sarei curioso di sapere in quanti sono ad aver dato fiducia "alla cieca" ad nvidia ed in quanti siamo invece che, come me, aspettano le review.
JohnWayneBobbit
27-08-2018, 16:08
In quanti utenti qui sul forum hanno fino a qui preordinato la 2080TI?
Sarei curioso di sapere in quanti sono ad aver dato fiducia "alla cieca" ad nvidia ed in quanti siamo invece che, come me, aspettano le review.
Io ho preordinato ma non alla cieca, so benissimo cosa sto comprando a livello di nuove features e prestazioni rispetto alla 1080TI con e senza RTX (già venduta non mi contattate).
Kostanz77
27-08-2018, 16:10
io ho preordinato una MSI TRIO 2080
Inviato dal mio Huawei P8 Lite 2017 utilizzando Tapatalk
scorpion73
27-08-2018, 16:16
Io ho preordinato ma non alla cieca, so benissimo cosa sto comprando a livello di nuove features e prestazioni rispetto alla 1080TI con e senza RTX (già venduta non mi contattate).
Scusa come fai a sapere le prestazioni senza review? Hai per caso una fonte attendibile che ti ha dato qualche info?
nagashadow
27-08-2018, 16:20
magari gioca in 4k e ha bisgno di piu fps....altre alternative non ne hai per questa risoluzione
in 4k sicuramente fará piu fps della 1080 ti
Arrow0309
27-08-2018, 16:26
https://www.scan.co.uk/products/msi-geforce-rtx-2080-gaming-x-trio-8gb-gddr6-vr-ready-graphics-card-2944-core
La mail di conferma la da in consegna programmata per il 29 agosto ma mi sembra un errore.
Bella custom e ti basterà per una 2080 sicuro.
Io ho speso meno di te, £749 da nvidia.co.uk. :p
Ovv preorder, me la davano disponibile per il 20 settembre.
Non ho tutta sta fretta e mi voglio leggere con calma pure parecchie review quando escono.
Btw:
Ricorda che abbiamo pure il 3d ufficiale. ;)
https://www.hwupgrade.it/forum/showthread.php?t=2861362
edit_user_name_here
27-08-2018, 16:32
In quanti utenti qui sul forum hanno fino a qui preordinato la 2080TI?
Sarei curioso di sapere in quanti sono ad aver dato fiducia "alla cieca" ad nvidia ed in quanti siamo invece che, come me, aspettano le review.
Vuoi vedere i polli? :D io cmq non l'ho presa :) ma anche per altri miei motivi.
Io ho preordinato la 2080ti ben sapendo che mi arriverà una scheda capace di gestire il 4k a 60hz in vsync senza sbavature *nel peggiore dei casi*. Tutto quello che arriva in più è grasso che cola.
Il raytracing lo vedo come una cosa carina che sicuramente proverò usando un monitor "a caso" giusto per capire la resa grafica. Se sarà amore comprerò un 24" gsync coi controcazzi da torneo e lo terrò per giocare online a MOBA e sparatutto nei secoli dei secoli amen. Ma in realtà la userò prevalentemente per l'Oculus Rift e per dar da mangiare al monitor 4k.
...se poi ci fosse qualche misteriosa fregatura ho cmq 30 giorni per fare il reso, e l'intera storia mi sarà costata il costo del corriere che riporta la scheda a nVIDIA. Ho corso rischi peggiori nella mia vita... :)
Hai ragione :) concordo.Purtroppo altre persone non capiscono che c'è il recesso ma forse li danno fastidio quei soldi del corriere :asd:
Bella custom e ti basterà per una 2080 sicuro.
Io ho speso meno di te, £749 da nvidia.co.uk. :p
Ovv preorder, me la davano disponibile per il 20 settembre.
Non ho tutta sta fretta e mi voglio leggere con calma pure parecchie review quando escono.
Btw:
Ricorda che abbiamo pure il 3d ufficiale. ;)
https://www.hwupgrade.it/forum/showthread.php?t=2861362
Finalmente XD grazie.
scorpion73
27-08-2018, 16:36
Vuoi vedere i polli? :D io cmq non l'ho presa :) ma anche per altri miei motivi.
No, nessuno è pollo, chi l'ha preordinata avrà i suoi buoni motivi, chi non lo ha fatto pure.
Volevo solo capire come era divisa l'utenza fra chi pensa che questa scheda sarà ottima e chi invece ha qualche dubbio e attende.
Volevo capire un pò quale delle due parti era in "maggioranza" per capire più o meno rispetto alla solita massa che tipo di successo in sede di preorder questa scheda poteva avere avuto visto le titubanze iniziali
JohnWayneBobbit
27-08-2018, 16:41
No, nessuno è pollo, chi l'ha preordinata avrà i suoi buoni motivi, chi non lo ha fatto pure.
Volevo solo capire come era divisa l'utenza fra chi pensa che questa scheda sarà ottima e chi invece ha qualche dubbio e attende.
Volevo capire un pò quale delle due parti era in "maggioranza" per capire più o meno rispetto alla solita massa che tipo di successo in sede di preorder questa scheda poteva avere avuto visto le titubanze iniziali
Io sarei curioso di sapere invece se c'è qualcuno che non la reputa ottima a prescindere dal discorso prezzo.
edit_user_name_here
27-08-2018, 16:43
No, nessuno è pollo, chi l'ha preordinata avrà i suoi buoni motivi, chi non lo ha fatto pure.
Volevo solo capire come era divisa l'utenza fra chi pensa che questa scheda sarà ottima e chi invece ha qualche dubbio e attende.
Volevo capire un pò quale delle due parti era in "maggioranza" per capire più o meno rispetto alla solita massa che tipo di successo in sede di preorder questa scheda poteva avere avuto visto le titubanze iniziali
Si era uno scherzo cmq neanche io penso che siano polli ognuno ha i suoi motivi :)
Comunque ovvio che c'è molta gente che l'ha preordinata non credo che sia marketing che mettono "sold out" come complotto per venderla dopo :D
Io sarei curioso di sapere invece se c'è qualcuno che non la reputa ottima a prescindere dal discorso prezzo.
Non so ancora su questa cosa dunque non posso risponderti fino a quando non vedo i test :)
DJurassic
27-08-2018, 16:45
Io la prendero' solo se mi garantira' i 60fps fissi non a 4K ma bensi a 5160x2160 perche' avendo un 21:9 3440x1440 e' quello l'obiettivo piu' prelibato.
E dal momento che riesco a giocare al single player di BF1 a 60fps abbassando un paio di opzioni con questa risoluzione con la 1080ti, per quello che costa spero proprio che la 2080Ti mi faccia fare definitivamente il salto
Thunder-74
27-08-2018, 16:48
Fatto l’ordine !!!!
Preso Commodore 64 mini .... :Prrr:
Stiamo parlando del nulla da troppo tempo a mio avviso...
Inviato dal mio iPhone X utilizzando Tapatalk
scorpion73
27-08-2018, 16:53
Fatto l’ordine !!!!
Preso Commodore 64 mini .... :Prrr:
Grande Thunder! Io ce l'ho dall'uscita, non te ne pentirai specie dopo che arriverà l'upgrade che ti consentirà di caricare i giochi da USB (su Facebook hanno fatto vedere il progress status di questa update con un post il 17/08. Presumo che sarà disponibile dopo il debutto del C64 in America ad ottobre...).
Altro che RT!!! Giocare a Larry vs Bird One On One non ha prezzo :D :D .. per tutto il resto c'è Mastercard (nel vero senso della parola visto il prezzo) :D :D
Thunder-74
27-08-2018, 16:54
Dai che ci sono miglioramenti...
Nuovo video di BFV, ora è bellissimo ed è Rock solid a 60 frames a.....1080P....
https://wccftech.com/geforce-rtx-2080-ti-new-battlefield-v-raytraced-footage-leaked/
Inviato dal mio iPhone X utilizzando Tapatalk
scorpion73
27-08-2018, 17:00
Non vorrei sbagliarmi, ma non indica se questo framerate lo stanno avendo su una 2080 o su una 2080ti.
E se il rock solid 60fps fosse su una 2080 normale?
Secondo voi è possibile?
Thunder-74
27-08-2018, 17:03
Non vorrei sbagliarmi, ma non indica se questo framerate lo stanno avendo su una 2080 o su una 2080ti.
E se il rock solid 60fps fosse su una 2080 normale?
Secondo voi è possibile?
In neretto ... Stunningly beautiful, raytraced footage of Battlefield V Alpha leaks out – running on an NVIDIA RTX 2080 Ti... :fagiano:
Però in effetti non viene specificato...
Altra cosa che non avevo colto e qui lo riporta , che un titolo interamente in RT sarebbe pensatissimo da far girare con una 2080ti. La demo di Star Wars lo era e girava a 22fps a 1080p...
Inviato dal mio iPhone X utilizzando Tapatalk
maxmix65
27-08-2018, 17:09
Mi sembra una comica :p
Rilasciano i driver e li tolgono subito in attesa di un hotfix
https://forums.geforce.com/default/topic/1069520/geforce-drivers/geforce-399-07-error-quot-nvidia-graphics-driver-is-not-compatible-with-this-version-of-windows-quot-/
Thunder-74
27-08-2018, 17:10
Si saranno dimenticati di togliere la modalità “ombre off” se non usi RT hahahah
Thunder-74
27-08-2018, 17:40
Comunque i nuovi drivers 399.07 non supportano le RTX... ci speravo, magari poteva uscire qualche test in anticipo...
DJurassic
27-08-2018, 17:45
Dai che ci sono miglioramenti...
Nuovo video di BFV, ora è bellissimo ed è Rock solid a 60 frames a.....1080P....
https://wccftech.com/geforce-rtx-2080-ti-new-battlefield-v-raytraced-footage-leaked/
Inviato dal mio iPhone X utilizzando Tapatalk
Ora datemi di nuovo del pazzo ma come diavolo e' possibile che nonostante l'esplosione, i detriti e il polverone derivato dalla detonazione del carro i riflessi sulla pozza non risentano minimamente della scena e i bagliori dei fari dietro rimangano inalterati e accesi in quel modo?
https://i.imgur.com/GQlA6nr.jpg
Sicuramente ora qualcuno mi maledira' ma voglio seriamente capire sta cosa.
techsaskia
27-08-2018, 17:49
Hanno corretto il tiro cmq:
https://www.tomshardware.com/news/wait-to-buy-nvidia-geforce-rtx-gpus,37673.html
ma che è sta buffonata?
prima il direttore dice just buy it adesso ci hanno ripensato?
come sono caduti in basso
techsaskia
27-08-2018, 17:50
ma riguardo ai monitor cosa succederà?
chi ha comprato il monitor 4K sarà costretto a renderizzare a 1080P e poi a riscalare in 4K con conseguente perdita di qualità?
torneremo indietro ai monitor fullHD?
Bella custom e ti basterà per una 2080 sicuro.
Io ho speso meno di te, £749 da nvidia.co.uk. :p
Ovv preorder, me la davano disponibile per il 20 settembre.
Non ho tutta sta fretta e mi voglio leggere con calma pure parecchie review quando escono.
Btw:
Ricorda che abbiamo pure il 3d ufficiale. ;)
https://www.hwupgrade.it/forum/showthread.php?t=2861362
Ho preferito andare di questa non avendo alcun dato sulle temperature, tenendo pure conto che non liquido.
Però c'è da considerare il TDP di 215 Watt è inferiore a quello della 1080 ti quindi non credo ci sia tutto questa preoccupazione riguardo le temperature.
techsaskia
27-08-2018, 18:06
Ma se hanno inventato il DLSS apposta.
allora non ho capito cos'è il DLSS...
il DLSS non serve solo a fare antialiasing?
cosa fa il DLSS e come si inserisce nel mio discorso?
SPARTANO93
27-08-2018, 18:06
Ma la memoria gddr6 ha un incremento prestazionale nei giochi attuali? Perché nella scelta che valuterò di fare tra 2070 e 1080ti c'è anche questo fattore ,11gb gddr5x o meglio 8gb gddr6?
Inviato dal mio SM-G930F utilizzando Tapatalk
Thunder-74
27-08-2018, 18:06
Ora datemi di nuovo del pazzo ma come diavolo e' possibile che nonostante l'esplosione, i detriti e il polverone derivato dalla detonazione del carro i riflessi sulla pozza non risentano minimamente della scena e i bagliori dei fari dietro rimangano inalterati e accesi in quel modo?
https://i.imgur.com/GQlA6nr.jpg
Sicuramente ora qualcuno mi maledira' ma voglio seriamente capire sta cosa.
Aspetta, un conto è il comportamento della luce sulle superfici, un conto è programmare la fisica dei singoli elementi soggetta agli accadimenti... se ho capito bene il tuo discorso, ti aspetti che le luci e l'acqua risentano dell'esplosione, giusto? Altra cosa, probabile che le particelle di polvere, volutamente non interagiscono con la luce, per non appesantire troppo il tutto... Ricordati che non stiamo parlando di un titolo interamente RT....
DJurassic
27-08-2018, 18:11
Aspetta, un conto è il comportamento della luce sulle superfici, un conto è programmare la fisica dei singoli elementi soggetta agli accadimenti... se ho capito bene il tuo discorso, ti aspetti che le luci e l'acqua risentano dell'esplosione, giusto? Altra cosa, probabile che le particelle di polvere, volutamente non interagiscono con la luce, per non appesantire troppo il tutto... Ricordati che non stiamo parlando di un titolo interamente RT....
No ma da quello che hanno detto almeno i riflessi in RT dovrebbero esserci. Quindi le luci riflesse nella pozza d'acqua non ci devono stare. Altrimenti da tutti i riflessi siamo passati ad alcuni riflessi.. Cioe' sempre meno robba.
Thunder-74
27-08-2018, 18:15
No ma da quello che hanno detto almeno i riflessi in RT dovrebbero esserci. Quindi le luci riflesse nella pozza d'acqua non ci devono stare. Altrimenti da tutti i riflessi siamo passati ad alcuni riflessi.. Cioe' sempre meno robba.
non ti seguo, perché pensi che non ci debbano stare? Perché c'è il polverone?
SPARTANO93
27-08-2018, 18:22
Ovviamente si. Guarda i dati di banda dalle vecchie schede alle nuove.Sui dati di banda non ho dubbi, però ho il dubbio se quella banda venga già tutta sfruttata con un conseguente incremento di fps
Inviato dal mio SM-G930F utilizzando Tapatalk
DJurassic
27-08-2018, 18:29
non ti seguo, perché pensi che non ci debbano stare? Perché c'è il polverone?
Ovvio. Se sono riflessi in real time perfetti come nella realta' che sono quei 2 riflessi cosi accesi? Infatti se ci fai caso quando il carro passa scompaiono.
Dal momento che facevano vedere l'effettistica quali fiamme ed esplosioni riprodotte nei riflessi, credevo si trattasse di tutta l'effettistica e invece cosi non e'.
Thunder-74
27-08-2018, 18:36
Ovvio. Se sono riflessi in real time perfetti come nella realta' che sono quei 2 riflessi cosi accesi? Infatti se ci fai caso quando il carro passa scompaiono.
Dal momento che facevano vedere l'effettistica quali fiamme ed esplosioni riprodotte nei riflessi, credevo si trattasse di tutta l'effettistica e invece cosi non e'.
Come ti dicevo, potrebbero non aver considerato il polverone come un "oggetto" con il quale la luce possa interagire. E' in alpha , già zoppia così... comunque mi sono messo a vedere il gameplay , dopo un po' mi sono dimenticato di questi effetti, perchè se ti concentri sull'azione, non hai tempo.
Vero è che se ti apposti magari in prossimità di una vetrata, potresti scorgere i nemici dal riflesso...
Alla fine credo che questi primi tempi, sarà un elemento più da disattivare che altro... forse se si si vuole fare delle istantanee con Ansel, poi un domani, quando tutto sarà in RT, allora godremo come ricci, ma ci vorranno almeno 2 gen di console che lo implementino... ovviamente tutto imho ...
scorpion73
27-08-2018, 19:03
In neretto ... Stunningly beautiful, raytraced footage of Battlefield V Alpha leaks out – running on an NVIDIA RTX 2080 Ti... :fagiano:
Però in effetti non viene specificato...
Altra cosa che non avevo colto e qui lo riporta , che un titolo interamente in RT sarebbe pensatissimo da far girare con una 2080ti. La demo di Star Wars lo era e girava a 22fps a 1080p...
Inviato dal mio iPhone X utilizzando Tapatalk
Scusami hai ragione, ho letto l'articolo e ho ignorato il titolo... :fagiano:
Che niubbata :)
techsaskia
27-08-2018, 19:14
allora non ho capito cos'è il DLSS...
il DLSS non serve solo a fare antialiasing?
cosa fa il DLSS e come si inserisce nel mio discorso?
cmq leggendo meglio il DLSS è semplicemente un antialiasing, quindi che c'entra con il discorso che facevo io dei 4K?
se le texture le renderizzi a 1080P sempre schifo fanno...
DJurassic
27-08-2018, 19:56
Come ti dicevo, potrebbero non aver considerato il polverone come un "oggetto" con il quale la luce possa interagire. E' in alpha , già zoppia così... comunque mi sono messo a vedere il gameplay , dopo un po' mi sono dimenticato di questi effetti, perchè se ti concentri sull'azione, non hai tempo.
Vero è che se ti apposti magari in prossimità di una vetrata, potresti scorgere i nemici dal riflesso...
Alla fine credo che questi primi tempi, sarà un elemento più da disattivare che altro... forse se si si vuole fare delle istantanee con Ansel, poi un domani, quando tutto sarà in RT, allora godremo come ricci, ma ci vorranno almeno 2 gen di console che lo implementino... ovviamente tutto imho ...
Sono d'accordissimo con te. Senza contare che dovrei rimediare un fullhd anche solo per provarla sta tecnologia. Oltre a dover sganciare 1400€ (piccolo dettaglio) :asd:
edit_user_name_here
27-08-2018, 20:06
Sono d'accordissimo con te. Senza contare che dovrei rimediare un fullhd anche solo per provarla sta tecnologia. Oltre a dover sganciare 1400€ (piccolo dettaglio) :asd:
Mi pare che si trovi anche a meno di 1400 cmq ti capisco :)
Annamaria
27-08-2018, 20:10
Sono convinto che entro fine anno usciranno le eredi delle Titan e che le inferiori subiranno un riposizionamento dei prezzi, essendo i 1400,00€ ad appannaggio della futura top!
Thunder-74
27-08-2018, 20:27
Non so se avete letto...giusto per cambiare un attimo argomento... se si utilizza una cpu AMD con apu integrata, si può usare una scheda nVidia con il Freesync...
https://wccftech.com/freesync-working-with-geforce-gtx-cards-but-there-is-a-catch/
Inviato dal mio iPhone X utilizzando Tapatalk
Non si sa ancora esattamente cosa sia DLSS.
Lo hanno confrontato con un antialiasing (TAA) ma non hanno mai detto che sia effettivamente un antialiasing, hanno solo detto che "migliora le immagini".
Io visto che da quanto dice Nvidia aumenta le prestazioni oltre la soglia del NOAA ho ipotizzato che sia una sorta di upscaler che sfrutta il deep learning.
Questa è una mia ipotesi non confermata sia chiaro, ma vedo che anche su reddit molti si sono chiesti la stessa cosa.
P.S: dopo tutto DLSS vuole dire questo no: Deep Learning Super Sampling.
È un supersampling fatto tramite DL, quindi dovrebbe prendere un'immagine a 1080 e trasformarla in un immagine sempre a 1080 ma come se fosse renderizzata a risoluzione doppia o qualcosa di simile.
Credo che come avevi ipotizzato inizialmente sia un approccio simile a quello del ckeckerboard rendering utilizzato nella ps4 pro, renderizzano l'immagine lasciando dei buchi, che poi riempiono usando una tecnica di ricostruzione dell'immagine probabilmente mutuata da questa https://www.hwupgrade.it/news/skvideo/da-nvidia-nuova-tecnica-ia-per-ricostruire-le-immagini-danneggiate_75550.html
AceGranger
27-08-2018, 20:49
Credo che come avevi ipotizzato inizialmente sia un approccio simile a quello del ckeckerboard rendering utilizzato nella ps4 pro, renderizzano l'immagine lasciando dei buchi, che poi riempiono usando una tecnica di ricostruzione dell'immagine probabilmente mutuata da questa https://www.hwupgrade.it/news/skvideo/da-nvidia-nuova-tecnica-ia-per-ricostruire-le-immagini-danneggiate_75550.html
HotHadware:
"NVIDIA notes that its new DLSS anti-aliasing technique, however, uses machine learning of scenes and images (called inferencing) to improve image quality without the large performance hit associated with some traditional AA methods."
nVidia:
"Powered by Turing’s Tensor Cores, which perform lightning-fast deep neural network processing, GeForce RTX GPUs also support Deep Learning Super-Sampling (DLSS), a technology that applies deep learning and AI to rendering techniques, resulting in crisp, smooth edges on rendered objects in games."
in sostanza è una nuova tecnica per ottenere bordi nitidi non seghettati che va, facendo lo stesso lavoro, a sostituire l'AA classico.
HotHadware:
"NVIDIA notes that its new DLSS anti-aliasing technique, however, uses machine learning of scenes and images (called inferencing) to improve image quality without the large performance hit associated with some traditional AA methods."
nVidia:
"Powered by Turing’s Tensor Cores, which perform lightning-fast deep neural network processing, GeForce RTX GPUs also support Deep Learning Super-Sampling (DLSS), a technology that applies deep learning and AI to rendering techniques, resulting in crisp, smooth edges on rendered objects in games."
in sostanza è una nuova tecnica per ottenere bordi nitidi non seghettati che va, facendo lo stesso lavoro, a sostituire l'AA classico.
Ah ok, mi era sfuggito il Super-Sampling
Nn capisco una cosa. Ma se la Quadro RTX 8000 con bus a 384 bit calcola 10 GigaRays/sec (che poi sarebbero 10 miliardi di raggi al secondo?) con 4608 Cuda Core e 576 Tensor Core, la 2080Ti come fa a fare 10 GigaRays/Sec che ha meno Cuda Core?
Mi aspetterei quel risultato dalla futura Titan con 4608 Core e 576 TC? O sbaglio qualcosa?
AceGranger
27-08-2018, 21:16
Nn capisco una cosa. Ma se la Quadro RTX 8000 con bus a 384 bit calcola 10 GigaRays/sec (che poi sarebbero 10 miliardi di raggi al secondo?) con 4608 Cuda Core e 576 Tensor Core, la 2080Ti come fa a fare 10 GigaRays/Sec che ha meno Cuda Core?
Mi aspetterei quel risultato dalla futura Titan con 4608 Core e 576 TC? O sbaglio qualcosa?
perchè i GigaRays/sec ( si corretto sono Miliardi ) escono dai 72 RT Core, non dai CUDA ne dai Tensor.
se li processassero con i 4608 CUDA credo farebbero intorno agli 1,6-1,8 Miliardi.
RT Core: raggi
CUDA: compongono il tutto
Tensor Core: Anti-Aliasing
Thunder-74
27-08-2018, 21:19
perchè i GigaRays/sec ( si corretto sono Miliardi ) escono dai 72 RT Core, non dai CUDA ne dai Tensor.
se li processassero con i 4608 CUDA credo farebbero intorno agli 1,6-1,8 Miliardi.
RT Core: raggi
CUDA: compongono il tutto
Tensor Core: Anti-Aliasing
Giustissimo
Inviato dal mio iPhone X utilizzando Tapatalk
E quanti RT core ha una Quadro 8000?
AceGranger
27-08-2018, 21:46
E quanti RT core ha una Quadro 8000?
la Quadro RTX 6000, RTX 8000 e la 2080Ti hanno tutte e tre 72 RT Core.
perchè i GigaRays/sec ( si corretto sono Miliardi ) escono dai 72 RT Core, non dai CUDA ne dai Tensor.
se li processassero con i 4608 CUDA credo farebbero intorno agli 1,6-1,8 Miliardi.
RT Core: raggi
CUDA: compongono il tutto
Tensor Core: Anti-Aliasing
Aggiungi anche il De-Noise ai TC
Inviato dal mio iPad utilizzando Tapatalk
amon.akira
27-08-2018, 22:01
la Quadro RTX 6000, RTX 8000 e la 2080Ti hanno tutte e tre 72 RT Core.
no la 2080ti ha 68rt 1:1 rt/sm
cmq per non dire fa 10 e qualcosa la quadro o quasi 10 la ti dicono ad entrambe 10gigaray visto che sono quasi vicine 68 vs 72
AceGranger
27-08-2018, 22:16
Aggiungi anche il De-Noise ai TC
si anche, poi fanno anche un paio di altre cose, come pure l'audio sui core RT, ma era giusto per semplificare :D
no la 2080ti ha 68rt 1:1 rt/sm
cmq per non dire fa 10 e qualcosa la quadro o quasi 10 la ti dicono ad entrambe 10gigaray visto che sono quasi vicine 68 vs 72
si, effettivamente si vocifera 544 Tensor core e 68 RT core, pero non avendo conferma per ora tenevo buono il valore ti 72, anche se è realistico pensare che avendo tagliato i CUDA taglieranno tutta la "striscia"
Thunder-74
27-08-2018, 22:51
NOTIZIA MOLTO IMPORTANTE!!!!
Può cambiare lo scenario 2019....
https://www.overclock3d.net/news/audio/globalfoundries_halts_7nm_developments_-_refocuses_on_high-growth_markets/1
Inviato dal mio iPad utilizzando Tapatalk
Biscottoman
27-08-2018, 23:17
NOTIZIA MOLTO IMPORTANTE!!!!
Può cambiare lo scenario 2019....
https://www.overclock3d.net/news/audio/globalfoundries_halts_7nm_developments_-_refocuses_on_high-growth_markets/1
Inviato dal mio iPad utilizzando Tapatalk
Questo sicuramente mi spinge di più su queste nuove gpu
mikael84
27-08-2018, 23:19
secondo me già dalla prossima gen se nvidia riesce a raddoppiare i gigaray con un rapport rt/sm 2:1 (qui potrebbe rispondere mikael :P) potremmo avere un grande incremento nella qualità immagine con tutti e 3attivi
Sarebbe un buon salto di qualità, ma temo che i 7nm porteranno qualche TPC e clock, ne più ne meno.:)
Attualmente il rapporto tra RT e tensor core è di 8:1
I nuovi SM, non sono ancora presentati ma ho già calcolato tutto io, c'è poco da capire.:)
Un SM da 64 thread, viene suddiviso in 4 thread.
4 scheduler e 4 D.U per le funzionali
16 thread vengono eseguiti con 4 cicli e non più 8.
Con la RT un SM da 64cc, una volta che il giga thread invia i comandi, questo è capace di 1 RT core, 8 Tensor core ed un rapporto INT32/FP32 con 1024 indirizzi, l1 unificata ed l maestosa.
Int32/FP32 ed LDS 1:2, rispetto al 1:4 di Pascal
Già questo serve a far capire quanta differenza ci passi tra vecchie gen a livello di cuda.
1 SM calcola da 0,3 a 0,33 (in casi migliori) 0,33mrays (uguale praticamente al calcolo dei P.E (0,3/0,33)
Con 3 SMM si arriva ad 1 grays, ed 1 triangolo per ciclo.
Ogni SMM calcola 2,5 trix-ops.
Una volta calcolati questi, con i 7nm, ti ritrovi con:
Nvidia ha già sperimentato l'architettura a 7 TPC/SMM, quindi potresti lanciare una GPU con netto clock ed ovviamente mantenere il rapporto RT, solo che una 3080 aumenterebbe i core RT e tensor, oppure passare direttamente ad 8 TPC, li si che ci sarebbe un salto netto, però con 8 TPC puoi chiudere il raster a 32 pixel e raddoppiare le rop's per fascia.:)
scorpion73
27-08-2018, 23:25
Sarebbe un buon salto di qualità, ma temo che i 7nm porteranno qualche TPC e clock, ne più ne meno.:)
Attualmente il rapporto tra RT e tensor core è di 8:1
I nuovi SM, non sono ancora presentati ma ho già calcolato tutto io, c'è poco da capire.:)
Un SM da 64 thread, viene suddiviso in 4 thread.
4 scheduler e 4 D.U per le funzionali
16 thread vengono eseguiti con 4 cicli e non più 8.
Con la RT un SM da 64cc, una volta che il giga thread invia i comandi, questo è capace di 1 RT core, 8 Tensor core ed un rapporto INT32/FP32 con 1024 indirizzi, l1 unificata ed l maestosa.
Int32/FP32 ed LDS 1:2, rispetto al 1:4 di Pascal
Già questo serve a far capire quanta differenza ci passi tra vecchie gen a livello di cuda.
1 SM calcola da 0,3 a 0,33 (in casi migliori) 0,33mrays (uguale praticamente al calcolo dei P.E (0,3/0,33)
Con 3 SMM si arriva ad 1 grays, ed 1 triangolo per ciclo.
Ogni SMM calcola 2,5 trix-ops.
Una volta calcolati questi, con i 7nm, ti ritrovi con:
Nvidia ha già sperimentato l'architettura a 7 TPC/SMM, quindi potresti lanciare una GPU con netto clock ed ovviamente mantenere il rapporto RT, solo che una 3080 aumenterebbe i core RT e tensor, oppure passare direttamente ad 8 TPC, li si che ci sarebbe un salto netto, però con 8 TPC puoi chiudere il raster a 32 pixel e raddoppiare le rop's per fascia.:)
Quanti RT potrebbe avere una 3080 in più?
amon.akira
27-08-2018, 23:38
Sarebbe un buon salto di qualità, ma temo che i 7nm porteranno qualche TPC e clock, ne più ne meno.:)
Attualmente il rapporto tra RT e tensor core è di 8:1
I nuovi SM, non sono ancora presentati ma ho già calcolato tutto io, c'è poco da capire.:)
Un SM da 64 thread, viene suddiviso in 4 thread.
4 scheduler e 4 D.U per le funzionali
16 thread vengono eseguiti con 4 cicli e non più 8.
Con la RT un SM da 64cc, una volta che il giga thread invia i comandi, questo è capace di 1 RT core, 8 Tensor core ed un rapporto INT32/FP32 con 1024 indirizzi, l1 unificata ed l maestosa.
Int32/FP32 ed LDS 1:2, rispetto al 1:4 di Pascal
Già questo serve a far capire quanta differenza ci passi tra vecchie gen a livello di cuda.
1 SM calcola da 0,3 a 0,33 (in casi migliori) 0,33mrays (uguale praticamente al calcolo dei P.E (0,3/0,33)
Con 3 SMM si arriva ad 1 grays, ed 1 triangolo per ciclo.
Ogni SMM calcola 2,5 trix-ops.
Una volta calcolati questi, con i 7nm, ti ritrovi con:
Nvidia ha già sperimentato l'architettura a 7 TPC/SMM, quindi potresti lanciare una GPU con netto clock ed ovviamente mantenere il rapporto RT, solo che una 3080 aumenterebbe i core RT e tensor, oppure passare direttamente ad 8 TPC, li si che ci sarebbe un salto netto, però con 8 TPC puoi chiudere il raster a 32 pixel e raddoppiare le rop's per fascia.:)
un altra domanda, secondo te attualmente in rt 1080p 60 il collo è sui gigaray (rt core) e i cuda sono sgravati (liberi)o il tutto è bilanciato?
mikael84
27-08-2018, 23:42
forse mi sbagliavo! :sofico:
FroZen suvvia, metti da parte l'astio per un greenarmy, ma mi vuoi spiegare concretamente cosa ha fatto amd in questi anni? ogni presentazione di vga vuoi per un motivo o per un altro qualche fail di mezzo pompato giustamente dalla stampa di settore, aveva mantle che ha fatto diventare vulkan e dx12, ha milioni di console con il suo hardware e praticamente il suo software e mo la colpa è di nvidia che "favorisce il suo vino"?
amd ha avuto grosse lacune sul piano marketing, sul piano software, casini economici, ristrutturazioni interne, ha dovuto combattere per tornare a grandi livelli sulle cpu, riuscendoci e sperperando molte energie e risorse economiche... ma certo se la situazione in campo vga è quella che è sia dal punto di vista hardware che da quello software e di sviluppo non è colpa ne della cattivona nvidia, ne degli utenti che se comprano nvidia sono dei coglioni.
sti discorsi li potevamo fare (e li facevo anche io!) anni fa, quando eravamo più piccoli, spensierati ma soprattutto quando la situazione non era ne chiara ne soprattutto delineata ed amd non era così "indietro" per cui venendo da schede gloriose come 4870 e 7970 uno si aspettava sempre il colpo di coda rosso... ma è stato un susseguirsi di delusioni a piccole dosi che hanno rinverdito il sangue di molti.
Le 7970 erano schede gloriose come ben sai, ma per 2 anni aveva seri problemi di latenza, alcuni giochi erano un disastro, tanto che vendeva dual GPU senza frame pacing (una truffa quasi ed io ne ho avute 4, tra 7970 e 7950, tu forse di più ancora).:p
Anche le 4870 stesso problema, ma erano core da 220mmq2 per quello costavano poco, non che AMD le regalasse, si è salvata grazie al WCK delle ddr5, altrimenti era una 250 nvidia.:)
Stessa cosa con le 5870, AMD brava e regala i chip, beh, chip da 330mmq, contro i GPGPU con FP64 da 500 e passa mmq2 della 480.
Sulle dx12, Touring sarà effettivamente molto meglio, ma è una fesseria che AMD diventa superman.
AMD e nVidia di pari fascia nei calcolo intensivi sono simili.
Se prendiamo un unigine superposition o un 3dmark, ti mostrano una situazione di pareggio.
La differenza la fa che nVidia su Pascal, ha un contattore nel warp, ed in base a quello decide quali thread (gruppi da 4), devono essere eseguiti, costringendo il motore warp a lasciare gruppi di 4 thread in idle fino a ricongiungersi, servendosi del conservative rasterizzer, cosa che una Fury non aveva (ad esempio).
Con Volta, hanno levato il contattore, e si può garantire una flessibilità pazzesca, ed ogni thread può lavorare indipendentemente, cercando di sfruttare l'architettura al 100% o quasi.
AMD non aveva i conservative, non a caso, buttare tutto sullo shader core, creava problemi di latenza, tanto da dover utilizzare le dx11 (vedi bf):)
techsaskia
27-08-2018, 23:48
Non si sa ancora esattamente cosa sia DLSS.
Lo hanno confrontato con un antialiasing (TAA) ma non hanno mai detto che sia effettivamente un antialiasing, hanno solo detto che "migliora le immagini".
Io visto che da quanto dice Nvidia aumenta le prestazioni oltre la soglia del NOAA ho ipotizzato che sia una sorta di upscaler che sfrutta il deep learning.
Questa è una mia ipotesi non confermata sia chiaro, ma vedo che anche su reddit molti si sono chiesti la stessa cosa.
P.S: dopo tutto DLSS vuole dire questo no: Deep Learning Super Sampling.
È un supersampling fatto tramite DL, quindi dovrebbe prendere un'immagine a 1080 e trasformarla in un immagine sempre a 1080 ma come se fosse renderizzata a risoluzione doppia o qualcosa di simile.
una pagina dietro mi scrivi che hanno inventato il DLSS apposta e adesso non si sa cosa sia esattamente? :D
vabbè stiamo a vedere.
cmq come tutti i supersampling se sono lossless sono pesanti come se si renderizzasse a risoluzione superiore, se sono più leggeri non possono essere lossless...
staremo a vedere.
mikael84
27-08-2018, 23:50
Quanti RT potrebbe avere una 3080 in più?
Dai 56 ai max 64
un altra domanda, secondo te attualmente in rt 1080p 60 il collo è sui gigaray (rt core) e i cuda sono sgravati (liberi)o il tutto è bilanciato?
I cuda non sono sgravati, ma il peso maggiore passa alla RT core.:)
amon.akira
27-08-2018, 23:56
una pagina dietro mi scrivi che hanno inventato il DLSS apposta e adesso non si sa cosa sia esattamente? :D
vabbè stiamo a vedere.
cmq come tutti i supersampling se sono lossless sono pesanti come se si renderizzasse a risoluzione superiore, se sono più leggeri non possono essere lossless...
staremo a vedere.
dato l aumento di fps in DLSS si suppone un rendering a risoluzione inferiore (non si sa la %) e poi una ricostruzione dell immagine alla risoluzione nativa (pixel mancanti) usando l algoritmo AI decodificato dai Tensor core.
bisogna vedere il risultato, ma dallo screen nella presentazione nvidia ho visto parecchio blur... da testare sul campo vs un rendering nativo.
scorpion73
27-08-2018, 23:59
Dai 56 ai max 64
Cioé passeremmo da 68 RT a un minimo di 124 RT?
Sostanzialmente mi stai dicendo performance doppie su questo fronte... insomma dà da pensare eh....
Io ero indeciso in caso di test positivi fra la FE e la EVGA dual fan (2 slot - di più non posso per via dello spazio nel case) - soprattutto per via del fatto che la EVGA ha 16 fasi contro le 13 di nvidia - ma se la 3080 può di fatto raddoppiare le prestazioni, insomma, un pensierino ad aspettare ce lo faccio....
amon.akira
27-08-2018, 23:59
Dai 56 ai max 64
I cuda non sono sgravati, ma il peso maggiore passa alla RT core.:)
si ovvio, ma se ti dovessi esprimere in %, non penso siano tutti al 100% in rt 1080p 60 :P
amon.akira
28-08-2018, 00:00
Cioé passeremmo da 68 RT a un minimo di 124 RT?
Sostanzialmente mi stai dicendo performance doppie su questo fronte... insomma dà da pensare eh....
no intende proprio da da 54 a 64 quindi +10
techsaskia
28-08-2018, 00:02
NOTIZIA MOLTO IMPORTANTE!!!!
Può cambiare lo scenario 2019....
https://www.overclock3d.net/news/audio/globalfoundries_halts_7nm_developments_-_refocuses_on_high-growth_markets/1
Inviato dal mio iPad utilizzando Tapatalk
Cioé passeremmo da 68 RT a un minimo di 124 RT?
Sostanzialmente mi stai dicendo performance doppie su questo fronte... insomma dà da pensare eh....
Io ero indeciso in caso di test positivi fra la FE e la EVGA dual fan (2 slot - di più non posso per via dello spazio nel case) - soprattutto per via del fatto che la EVGA ha 16 fasi contro le 13 di nvidia - ma se la 3080 può di fatto raddoppiare le prestazioni, insomma, un pensierino ad aspettare ce lo faccio....
dove hai letto che EVGA ha 16 fasi contro le 13 della founders?
sul sito EVGA non riportano nemmeno il clock, come fai ad avere questi dettagli?
una pagina dietro mi scrivi che hanno inventato il DLSS apposta e adesso non si sa cosa sia esattamente? :D
vabbè stiamo a vedere.
cmq come tutti i supersampling se sono lossless sono pesanti come se si renderizzasse a risoluzione superiore, se sono più leggeri non possono essere lossless...
staremo a vedere.Il rendering ad altissima risoluzione quello che ho capito è fatto nei datacenter Nvidia grazie al codice inviato dagli sviluppatori. Nvidia usa immagini a risoluzione fino a 64 volte maggiore, a sentire l'intervista che ho postato ieri da reddit,per "istruire" l'IA e poi usa i tensor core in locale per ricostruire l'immagine renderizzata migliorandola basandosi sui riferimenti in super sampling usando appunto l'IA.
Solo che non e chiaro se questo faccia solo AA oppure anche una sorta di upscaling/checkerboarding. Anche se propendo per quest'ultima vedendo l'aumento di performance.
Inviato dal mio ZTE A2017G utilizzando Tapatalk
mikael84
28-08-2018, 00:04
Ma la memoria gddr6 ha un incremento prestazionale nei giochi attuali? Perché nella scelta che valuterò di fare tra 2070 e 1080ti c'è anche questo fattore ,11gb gddr5x o meglio 8gb gddr6?
Inviato dal mio SM-G930F utilizzando Tapatalk
Se ti serve la ram, 11 vs 8gb ok, ma lascia perdere il resto, visto che non ha alcuna rilevanza. Non guardare i numeri teorici.
La BW di una 2070 può essere ben più efficiente di quella della 1080ti.
Mediamente la BW è sempre sfruttata per 1/3, con l'aggravante che chip più esosi a livello di ALU, necessitano di una maggior BW.
Insomma in due parole, evita i teorici.:)
mikael84
28-08-2018, 00:12
Cioé passeremmo da 68 RT a un minimo di 124 RT?
Sostanzialmente mi stai dicendo performance doppie su questo fronte... insomma dà da pensare eh....
Io ero indeciso in caso di test positivi fra la FE e la EVGA dual fan (2 slot - di più non posso per via dello spazio nel case) - soprattutto per via del fatto che la EVGA ha 16 fasi contro le 13 di nvidia - ma se la 3080 può di fatto raddoppiare le prestazioni, insomma, un pensierino ad aspettare ce lo faccio....
No, dai 56 ai max 64 su una 3080, mentre su una 3080ti aumenteranno abbastanza.
Chiaro che potrebbero anche rivedere alcune cose, e magari raddoppiare il rapporto con i 7nm, ma questa è pura speculazione.:)
Riguardo le fasi, se non si può effettuare overvolt ed il chip mura ad un certo clock, non cambia molto.
Avere 15 o 20A per fase, è nulla, con saturazioni sopra i 52A. La media standard, per cavo e pci express e 30A.:)
si ovvio, ma se ti dovessi esprimere in %, non penso siano tutti al 100% in rt 1080p 60 :P
Gli RT sono schedulati e spremuti, lo stesso i CC, poi bisogna vedere sul campo, come il tutto gira:p
scorpion73
28-08-2018, 00:15
dove hai letto che EVGA ha 16 fasi contro le 13 della founders?
sul sito EVGA non riportano nemmeno il clock, come fai ad avere questi dettagli?
https://eu.evga.com/articles/01249/evga-geforce-rtx-20-series/
sezione SPECS
sto parlando della base ovviamente, la FTW3 ne avrà 19
amon.akira
28-08-2018, 00:15
No, dai 56 ai max 64 su una 3080, mentre su una 3080ti aumenteranno abbastanza.
Chiaro che potrebbero anche rivedere alcune cose, e magari raddoppiare il rapporto con i 7nm, ma questa è pura speculazione.:)
Gli RT sono schedulati e spremuti, lo stesso i CC, poi bisogna vedere sul campo, come il tutto gira:p
guarda lo spero vivamente altrimenti in RT si avanzerebbe troppo lentamente, visto che siamo al minimo sindacale
grazie x le risposte come sempre :)
scorpion73
28-08-2018, 00:16
No, dai 56 ai max 64 su una 3080, mentre su una 3080ti aumenteranno abbastanza.
Scusami io intendevo sulla TI perché è a quel tipo di scheda che mi rivolgo.
Quindi sulla TI secondo te potrebbero passare da 68 a ?
So che è speculazione ma è più o meno per avere una idea e capire, detto da uno che ci capisce di queste cose come te uso queste info per mie valutazioni su queste schede :)
scorpion73
28-08-2018, 00:17
guarda lo spero vivamente altrimenti in RT si avanzerebbe troppo lentamente, visto che siamo al minimo sindacale
grazie x le risposte come sempre :)
Però duplicare il rapporto non significa fare un refresh ma cambiare architettura, no? Dubito così presto lo facciano ma tutto può essere.
Chiaro che se raddoppiano significa di fatto performance doppie, è come se duplicassero gli RT core...
amon.akira
28-08-2018, 00:18
Però duplicare il rapporto non significa fare un refresh ma cambiare architettura, no? Dubito così presto lo facciano ma tutto può essere
io lo spero, ma potrebbe succedere piu avanti chissà :/
techsaskia
28-08-2018, 00:20
https://eu.evga.com/articles/01249/evga-geforce-rtx-20-series/
sezione SPECS
sto parlando della base ovviamente, la FTW3 ne avrà 19
sul sito parlano ancora di SLI ready, andiamo bene.
cmq pure io voglio prendere un paio di EVGA, magari inizio con una...
hai idea di dove trovarle?
scorpion73
28-08-2018, 00:23
Sul loro sito.
mikael84
28-08-2018, 00:24
Scusami io intendevo sulla TI perché è a quel tipo di scheda che mi rivolgo.
Quindi sulla TI secondo te potrebbero passare da 68 a ?
So che è speculazione ma è più o meno per avere una idea e capire, detto da uno che ci capisce di queste cose come te uso queste info per mie valutazioni su queste schede :)
84/96 (teoricamente si dovrebbe sfiorare il doppio della 2080 o quasi).
Chiaro poi a livello di cc le prestazioni potrebbero aumentare di molto.
Con i 7nm aumenteranno anche gli MC al 100%, quindi 3080 da 16gb e 3080ti da 24/22gb:)
Però duplicare il rapporto non significa fare un refresh ma cambiare architettura, no? Dubito così presto lo facciano ma tutto può essere.
Chiaro che se raddoppiano significa di fatto performance doppie, è come se duplicassero gli RT core...
Teoricamente si, ma noi possiamo vederlo anche come un ritocco (come dice anche il buon Amon.Akira, e ci vede bene), in stile GCN, dove rilasciano sempre la stessa architettura con alcuni cambiamenti.
Già una Vega tra HWS e Culling, in alcuni titoli distrugge la fury, pur essendo sempre la stessa cosa. :)
Quindi non è tutto scontato.
techsaskia
28-08-2018, 00:25
Sul loro sito.
ma spediscono in italia? :eek:
DJurassic
28-08-2018, 00:28
ma spediscono in italia? :eek:
E' cosi da oltre 10 anni.
techsaskia
28-08-2018, 00:29
E' cosi da oltre 10 anni.
non lo sapevo grazie :D
AceGranger
28-08-2018, 00:58
Le 7970 erano schede gloriose come ben sai, ma per 2 anni aveva seri problemi di latenza, alcuni giochi erano un disastro, tanto che vendeva dual GPU senza frame pacing (una truffa quasi ed io ne ho avute 4, tra 7970 e 7950, tu forse di più ancora).:p
Anche le 4870 stesso problema, ma erano core da 220mmq2 per quello costavano poco, non che AMD le regalasse, si è salvata grazie al WCK delle ddr5, altrimenti era una 250 nvidia.:)
Stessa cosa con le 5870, AMD brava e regala i chip, beh, chip da 330mmq, contro i GPGPU con FP64 da 500 e passa mmq2 della 480.
Sulle dx12, Touring sarà effettivamente molto meglio, ma è una fesseria che AMD diventa superman.
AMD e nVidia di pari fascia nei calcolo intensivi sono simili.
Se prendiamo un unigine superposition o un 3dmark, ti mostrano una situazione di pareggio.
La differenza la fa che nVidia su Pascal, ha un contattore nel warp, ed in base a quello decide quali thread (gruppi da 4), devono essere eseguiti, costringendo il motore warp a lasciare gruppi di 4 thread in idle fino a ricongiungersi, servendosi del conservative rasterizzer, cosa che una Fury non aveva (ad esempio).
Con Volta, hanno levato il contattore, e si può garantire una flessibilità pazzesca, ed ogni thread può lavorare indipendentemente, cercando di sfruttare l'architettura al 100% o quasi.
AMD non aveva i conservative, non a caso, buttare tutto sullo shader core, creava problemi di latenza, tanto da dover utilizzare le dx11 (vedi bf):)
centra qualche cosa con l'Async o è una cosa totalmente separata e quindi la GPu nVidia si gestisce i singoli thread per i cavoli suoi ?
una pagina dietro mi scrivi che hanno inventato il DLSS apposta e adesso non si sa cosa sia esattamente? :D
vabbè stiamo a vedere.
cmq come tutti i supersampling se sono lossless sono pesanti come se si renderizzasse a risoluzione superiore, se sono più leggeri non possono essere lossless...
staremo a vedere.
non mi intendo di supersampling ma se lo hanno mandato sui Tensor credo sia proprio per poterlo calcolare senza compressione utilizzando l'efficienza di questi ultimi.
amon.akira
28-08-2018, 02:11
non mi intendo di supersampling ma se lo hanno mandato sui Tensor credo sia proprio per poterlo calcolare senza compressione utilizzando l'efficienza di questi ultimi.
DLSS (https://multiplayer.net-cdn.it/thumbs/images/2018/08/22/turingvspascal_editorsday_aug22_2_png_800x0_crop_upscale_q85.jpg)
si parla di rendering a risoluzione inferiore altrimenti non si avrebbe un aumento degli fps e poi supersampled dai tensor core.
potrebbe però essere usato in un impostazione quality a parità di fps
esempio
4k 60fps no aa
4k 60fps dlss (8k downsampled)
amon.akira
28-08-2018, 02:18
Teoricamente si, ma noi possiamo vederlo anche come un ritocco (come dice anche il buon Amon.Akira, e ci vede bene), in stile GCN, dove rilasciano sempre la stessa architettura con alcuni cambiamenti.
Già una Vega tra HWS e Culling, in alcuni titoli distrugge la fury, pur essendo sempre la stessa cosa. :)
Quindi non è tutto scontato.
dopo il fanboy e chissà cos altro di oggi, un tuo complimento fa sempre piacere :)
Sui 14nm nVidia ha usato GF solo dalle 1060 in giù, per il segmento a performance maggiori ha usato TSMC. AMD ha già due tapeout fatti (e una SKU in HVM) sui 7nm di TSMC. Secondo me lo scenario è lo stesso di prima, i tempi con cui nVidia potrà uscire con le G/RTX30 non cambiano.
Anche perché è ovvio che AMD sapesse di questa cosa da tempo, visti gli accordi in essere con GF.
Certo che ne avrà di chip da fare TSMC, fra tutti :D
The Pein
28-08-2018, 08:54
e niente, ho preso il Case EVGA dg-86 a un prezzo molto buono....adesso non vedo l'ora che sia fine settembre per la 2080, vedo se prendere la TI...adesso ho la 560gtx di 7 anni fa.... :sofico:
Thunder-74
28-08-2018, 09:00
Sui 14nm nVidia ha usato GF solo dalle 1060 in giù, per il segmento a performance maggiori ha usato TSMC. AMD ha già due tapeout fatti (e una SKU in HVM) sui 7nm di TSMC. Secondo me lo scenario è lo stesso di prima, i tempi con cui nVidia potrà uscire con le G/RTX30 non cambiano.
Non vorrei che possano aumentare i prezzi, visto che in molti si spostano suo 7nm (AMD,Apple,nVidia ecc.) e in meno li producono ...
Inviato dal mio iPhone X utilizzando Tapatalk
Posso soltanto immaginare il prezzo di una 3080TI :asd:
Arrow0309
28-08-2018, 09:25
Early 3DMark Time Spy sulla 2080:
https://wccftech.com/nvidia-geforce-rtx-2080-3dmark-timespy-score-leaked-clocked-at-2ghz-and-beats-a-gtx-1080-ti-without-ai-cores/
Interessante anche la "smentita" di Tom's su Physics:
https://www.tomshw.it/ray-tracing-come-physx-altri-giudizi-sulle-nvidia-rtx-96991
Arrow0309
28-08-2018, 10:22
Rtx 2080 sotto titan xp:doh: :doh: con 2/3 del chip spento ok!!!
37% da 1080 è pochino, mi aspettavo 40-45% almeno
È ancora presto (lato driver) e solo Time Spy non vuol dire tutto come %.
Aspettiamo ancora (con o senza dlaa) ;)
È ancora presto (lato driver) e solo Time Spy non vuol dire tutto come %.
Aspettiamo ancora (con o senza dlaa) ;)
Infatti nell'articolo è specificato, aspettiamo le prove sui giochi.
JohnWayneBobbit
28-08-2018, 10:49
Rtx 2080 sotto titan xp:doh: :doh: con 2/3 del chip spento ok!!!
37% da 1080 è pochino, mi aspettavo 40-45% almeno
37% SENZA driver è un aumento assurdo.
DJurassic
28-08-2018, 10:49
https://www.dsogaming.com/news/cyberpunk-2077-will-support-both-real-time-ray-tracing-and-nvidias-hairworks/
Non oso immaginare quante 2080Ti ci vorranno per goderselo a frame rate accettabili considerando che il gameplay mostrato ieri girava in fullhd su una 1080ti e 8700K ovviamente senza RT :asd:
https://i.imgur.com/6XOUrKT.png
Thunder-74
28-08-2018, 11:04
https://www.dsogaming.com/news/cyberpunk-2077-will-support-both-real-time-ray-tracing-and-nvidias-hairworks/
Non oso immaginare quante 2080Ti ci vorranno per goderselo a frame rate accettabili considerando che il gameplay mostrato ieri girava in fullhd su una 1080ti e 8700K ovviamente senza RT :asd:
https://i.imgur.com/6XOUrKT.png
Si. 30fps su 1080ti FHD.... ricordo quando uscì la 1080ti e si leggeva che era un insulto usarla per la FHD hahahahahah
Inviato dal mio iPhone X utilizzando Tapatalk
Forse la 4080ti sarà quella definitiva per il fullhd.
Almeno per giochi a dettagli medio-alti con ray tracing attivo.
https://www.dsogaming.com/news/cyberpunk-2077-will-support-both-real-time-ray-tracing-and-nvidias-hairworks/
Non oso immaginare quante 2080Ti ci vorranno per goderselo a frame rate accettabili considerando che il gameplay mostrato ieri girava in fullhd su una 1080ti e 8700K ovviamente senza RT :asd:
https://i.imgur.com/6XOUrKT.png
Considera pure che esce tra un paio d'anni ed è già giocabile eh.
Paio d'anni? Ma non esce a giugno 2019?
Giugno?ero convinto uscisse con le nuove console:confused:
Io avevo sentito giugno 2019 ma posso pure sbagliare. Anche perché cercando non trovo piú la notizia :doh:
Sicuramente sbaglio io.
DJurassic
28-08-2018, 11:26
Io avevo sentito giugno 2019 ma posso pure sbagliare. Anche perché cercando non trovo piú la notizia :doh:
Fine 2019 o poco prima. Non c'e' ancora una data ufficiale ma in ogni caso non uscira' con le nuove console.
Si. 30fps su 1080ti FHD.... ricordo quando uscì la 1080ti e si leggeva che era un insulto usarla per la FHD hahahahahah
Inviato dal mio iPhone X utilizzando Tapatalk
Tra 4 anni la 2080Ti subira' lo stesso destino non temere :asd:
Poi ricorda sempre che parliamo di un alpha di un gioco che uscira' a fine 2019 di cui ancora non esistono driver ad oc e per cui la fase di ottimizzazione ancora non e' stata avviata paragonado le performance ottenute con una scheda che e' uscita a inizio 2017.
Biscottoman
28-08-2018, 11:32
https://www.dsogaming.com/news/cyberpunk-2077-will-support-both-real-time-ray-tracing-and-nvidias-hairworks/
Non oso immaginare quante 2080Ti ci vorranno per goderselo a frame rate accettabili considerando che il gameplay mostrato ieri girava in fullhd su una 1080ti e 8700K ovviamente senza RT :asd:
https://i.imgur.com/6XOUrKT.png
Si però questa io la chiamo pessima ottimizzazione, per quanto il gioco non sia ancora stato rilasciato non si possono vedere certi framerate con certe schede in full hd
Il gioco uscira' nel 2020 (cosi' dicono i rumors), siamo in pre Alpha e come oramai dovrebbe essere noto a tutti l'ottimizzazione viene fatta nei mesi finali, mettetevi il cuore in pace...
appleroof
28-08-2018, 11:38
Si però questa io la chiamo pessima ottimizzazione, per quanto il gioco non sia ancora stato rilasciato non si possono vedere certi framerate con certe schede in full hd
Ottimizzazione? Credo sia appena in stato beta il gioco...
appleroof
28-08-2018, 11:39
Dai su é una pre alpha :sofico:
Ecco, sono pure stato ottimista (è che non vedo l'ora esca :D)
DJurassic
28-08-2018, 11:42
Ecco, sono pure stato ottimista (è che non vedo l'ora esca :D)
:mano:
Tra un paio di anni torneremo a giocare in VGA a 50hz interlacciati:sofico:
Avremo però tutti i filtri ON:eek:
:rolleyes: :sofico:
In tutto questo calderone di news, tra uscita imminente delle nuove schede NVdia, Ray Tracing che forse forse si riesce a giocare a 60 fps in fullhd e vari video, ( soprattutto quest'ultimo di CP2077), ho come l'impressione che rimanderò seriamente il totale upgrade dell'hardware..
Il problema è chissà tra quanto..
Al limite potrei mandare in pensione solo la 980TI mantenendo tutto il resto..
Il resto non ha bisogno nessun upgrade.
Dici..?
Ma se parliamo per esempio tra 1 anno , anno e mezzo..?
Quel 6700k un altro paio di anni li fai tranquillamente sulla gran parte dei giochi.
Ma presto o tardi il numero di core e thread deve aumentare..
Thunder-74
28-08-2018, 12:40
A beh un 6700 va benissimo per i futuri titoli in fhd a 60fps... ti dirò di più anche un 2600k :fagiano:
Dici..?
Ma se parliamo per esempio tra 1 anno , anno e mezzo..?
Anche star citizen sul primo post del thread ufficiale (datato 2012) dice che gira su una gtx670! :O
Anche quando doveva uscire doom3 c'erano i gasati che dicevano che la loro geforce 3 non vedeva l'ora di macinarlo (salvo averlo giocato 3 anni dopo con tutt'altro hardware! :asd: )
Quando uscirà CP2077 la serie 2xxx non sarà più la gamma in vendita in quel momento, tranquilli... ;)
Il nabbo di turno
28-08-2018, 12:44
A beh un 6700 va benissimo per i futuri titoli in fhd a 60fps... ti dirò di più anche un 2600k :fagiano:
Uno non va a spendere 1000 euro di gpu e poi lascia una cpu di 7/8 anni fa.
https://www.guru3d.com/index.php?ct=articles&action=file&id=39018&admin=0a8fcaad6b03da6a6895d1ada2e171002a287bc1
Questa storia che sb va ancora bene deve finire, perchè all'atto pratico, qualsiasi cpu da 200 euro(che sia un 8600 o un 2600x) lo pialla malamente.
Uno non va a spendere 1000 euro di gpu e poi lascia una cpu di 7/8 anni fa.
https://www.guru3d.com/index.php?ct=articles&action=file&id=39018&admin=0a8fcaad6b03da6a6895d1ada2e171002a287bc1
Questa storia che sb va ancora bene deve finire, perchè all'atto pratico, qualsiasi cpu da 200 euro(che sia un 8600 o un 2600x) lo pialla malamente.
Dipende davvero dai giochi.
Si, in qualcosa perderà. Quanto sia quel qualcosa è difficile da dire visto l'attuale mercato dei giochi. E sia battlefield che tomb raider sono serie note per avere comportamenti molto estremi con le cpu.
Il nabbo di turno
28-08-2018, 13:02
Dipende davvero dai giochi.
Si, in qualcosa perderà. Quanto sia quel qualcosa è difficile da dire visto l'attuale mercato dei giochi. E sia battlefield che tomb raider sono serie note per avere comportamenti molto estremi con le cpu.
Non è solo nei giochi, ma anche nei sintetici, li è proprio un bagno di sangue.
E' una piattaforma che ha senso se si trova a poco usata, ma di certo non ci vai a montare qualcosa di più di una 1070...
Comunque "Sandy bridge va ancora bene" è il nuovo "Gli fx miglioreranno con i nuovi giochi"
Ale55andr0
28-08-2018, 13:03
Si però questa io la chiamo pessima ottimizzazione, per quanto il gioco non sia ancora stato rilasciato non si possono vedere certi framerate con certe schede in full hd
più che altro le texture sono molto piatte e l'aliasing persistente :stordita:
Posso soltanto immaginare il prezzo di una 3080TI :asd:Dai 1500 ai 1800 😉
Inviato dal mio SM-G935F utilizzando Tapatalk
Non è solo nei giochi, ma anche nei sintetici, li è proprio un bagno di sangue.
E' una piattaforma che ha senso se si trova a poco usata, ma di certo non ci vai a montare qualcosa di più di una 1070...
Comunque "Sandy bridge va ancora bene" è il nuovo "Gli fx miglioreranno con i nuovi giochi"
Si ma i sintetici...
Usa il pc diversamente da quando l'ha comprato quel 6700k? Sta sempre a fare rendering o comprimere cartelle da 20GB?
I sintetici influiscono davvero poco sull'esperienza d'uso del pc.
Io sono passato da un i3 4160 a questo 8600 perchè compilo molto. Altrimenti, se era per i giochi o l'utilizzo "comune", quell'i3 durava ancora qualche anno.
Il nabbo di turno
28-08-2018, 13:13
Si ma i sintetici...
Usa il pc diversamente da quando l'ha comprato quel 6700k? Sta sempre a fare rendering o comprimere cartelle da 20GB?
I sintetici influiscono davvero poco sull'esperienza d'uso del pc.
Io sono passato da un i3 4160 a questo 8600 perchè compilo molto. Altrimenti, se era per i giochi o l'utilizzo "comune", quell'i3 durava ancora qualche anno.
Guarda, ho venduto un blocco 2500k 3 mesetti fa, so come andava.
https://www.hwupgrade.it/forum/showthread.php?t=2851543
Anche da overcloccato, negli ultimi titoli soffre, il 2600k va meglio ma non ti fa miracoli, soprattutto in fhd con gpu di fascia medio/alta.
Di ipc sandy paga un buon 20% dai lake, e circa un 15% da ryzen+, significa che nei casi in cui la cpu viene messa sotto torchio puoi perdere tranquillamente un 20% da un 6700k o 7700k, significa che se ci metti una 1080, ti ritrovi con delle performance da 1070.
A certi livelli non è proprio della partita.
Thunder-74
28-08-2018, 13:22
Uno non va a spendere 1000 euro di gpu e poi lascia una cpu di 7/8 anni fa.
https://www.guru3d.com/index.php?ct=articles&action=file&id=39018&admin=0a8fcaad6b03da6a6895d1ada2e171002a287bc1
Questa storia che sb va ancora bene deve finire, perchè all'atto pratico, qualsiasi cpu da 200 euro(che sia un 8600 o un 2600x) lo pialla malamente.
hai ragione se il tuo obiettivo è fare i 100 e più frames, ma arrivare a 60 può bastare tranquillamente . Difatti ll grafico da te postato, vede un 2600k fare 109 frames... Poi sono d'accordo con te, a tal punto che voglio prendere un 9900k anche se non mi serve per stare a 3440x1440 a 60fps ... ma lo prenderei anche per altro ;)
Se scrivi "fhd a 60hz" potrebbe sembrare che se sali in 1440p o 4k non va più bene, invece va ancora meglio :asd:
È se sali a 144hz che potrebbe cominciare a sentire un po' la fatica.
esatto !! per 60 frames, ci stai alla grande hahhaha
Il nabbo di turno
28-08-2018, 13:28
hai ragione se il tuo obiettivo è fare i 100 e più frames, ma arrivare a 60 può bastare tranquillamente . Difatti ll grafico da te postato, vede un 2600k fare 109 frames... Poi sono d'accordo con te, a tal punto che voglio prendere un 9900k anche se non mi serve per stare a 3440x1440 a 60fps ... ma lo prenderei anche per altro ;)
Il problema è anche legato ai minimi e al frame time che si abbassa di conseguenza, non è detto che un 2600k e un 7700k con una rx 580/1060 offrano la stessa esperienza.
Che poi è una piattaforma che a causa delle patch anti spectre/meltdown ha avuto un calo abbastanza pesante in i/o, quindi zoppica pure in altri ambiti.
Il nabbo di turno
28-08-2018, 13:29
Lo davo per scontato ma dopo gli ultimi post non ne sono più sicuro quindi rischio di fare il capitan ovvio della situazione.
Eri ironico vero? :fagiano:
Visto che il 6700K fa 2 fps in meno del massimo in quell'immagine che hai linkato.
Il 6700k è un lake, a parità di frequenza con gli ultimi i5 se la gioca senza problemi, ma già nel caso di sandy/ivy bridge la situazione è parecchio peggiore.
Nhirlathothep
28-08-2018, 14:05
Si ma i sintetici...
Usa il pc diversamente da quando l'ha comprato quel 6700k? Sta sempre a fare rendering o comprimere cartelle da 20GB?
I sintetici influiscono davvero poco sull'esperienza d'uso del pc.
Io sono passato da un i3 4160 a questo 8600 perchè compilo molto. Altrimenti, se era per i giochi o l'utilizzo "comune", quell'i3 durava ancora qualche anno.
i sandy vanno ancora alla grande come prestazioni, ho il top dei sandy-e (3970x@5ghz) e non mi sembra limitare nemmeno la titanxp.
però se parliamo di calore sviluppato e temperature ... :)
l' i9 del notebook va di più e sembra spento
Thunder-74
28-08-2018, 14:07
Non volevo creare un caso, il fatto non era mettere l’accento sulla cpu, poi che altro è perché stiamo avendo un’invenzione di tendenza con i frames, visto che stiamo parlando da giorni di ottenere i 60 fissi... il 2600k era un modo di dire... :)
Tanto se tutto viene confermato, quando attivi RT va bene pure Bulldozer :asd:
scorpion73
28-08-2018, 15:08
Tanto se tutto viene confermato, quando attivi RT va bene pure Bulldozer :asd:
Lo chiamavano Bulldozer....
Lo chiamavano Bulldozer....
Yes it's fantasyyyyy...:sofico:
scorpion73
28-08-2018, 15:45
Yes it's fantasyyyyy...:sofico:
Quello era Bomber :D :D
Bulldozer faceva: "You can see a mountain here comes bulldozers..."
Legolas84
28-08-2018, 15:46
bellissimo bomber :eek: :D :D :D :D
Giovamas
28-08-2018, 15:48
Quello era Bomber :D :D
Bulldozer faceva: "You can see a mountain here comes bulldozers..."
..... e il terzo... lo chiamavano Bulldozer :D
VanCleef
28-08-2018, 15:49
Quello era Bomber :D :D
Oliver Onions facevano: "You can see a mountain here comes bulldozers..."
Fixed! :)
edit_user_name_here
28-08-2018, 16:01
Ragazzi mi fate ricordare troppo i vecchi tempi :D e mi fate ricordare anche il picchia duro come game di bud e hill su steam, che non ricordo come si chiama, ma non l'ho mai preso :D
scorpion73
28-08-2018, 16:05
Slaps and Beans
Io l'ho preso: è un picchiaduro all'antica a scorrimento, modello Double Dragon per capirci ma a me è piaciuto :)
Quello era Bomber :D :D
Bulldozer faceva: "You can see a mountain here comes bulldozers..."
Perdonami ma i titoli li ho sempre confusi:stordita: :muro:
Thunder-74
28-08-2018, 16:15
Allora non sono solo io a stare alla frutta :D
Inviato dal mio iPhone X utilizzando Tapatalk
edit_user_name_here
28-08-2018, 16:26
Slaps and Beans
Io l'ho preso: è un picchiaduro all'antica a scorrimento, modello Double Dragon per capirci ma a me è piaciuto :)
Già :D beh cmq ha il suo fascino :)
oZonoRobotics
28-08-2018, 18:09
https://s25.postimg.cc/uw11o77ez/22291237_529758484044326_2817619192824283754_o.jpg (https://postimg.cc/image/uw11o77ez/)
hey la, guardando tra le mie "foto" ho trovato questo riflesso su project cars 2 con il gioco a palla o giù di li, effettivamente c'è una bella differenza tra il cartellone riflesso nel vetro rispetto al fuoco nelle finestre di battlefield 5 :P
poi son d'accordo pure io che non mi metto a giocare a 1080p per quell'effetto, ma almeno fanno qualcosa di nuovo, io è dal 2013 che ho pc "gaming", e dal 2013 non ho visto niente di nuovo, beh se tralasciamo il gsync che è l'invenzione del secolo :P
DarkNiko
28-08-2018, 18:46
Ma infatti bisognerebbe essere onesti fino in fondo (sia NVidia che l'utenza in generale) e dire chiaro e tondo che a parte il Ray Tracing sono anni che dura una situazione di stallo sul piano delle innovazioni grafiche.
Gsync, VR (Oculus), 144 Hz, 3D, HDR sono tutte chicche per carità, ma pensate esclusivamente per distogliere l'opinione pubblica da quello che rimane un problema che dura da anni e cioè che tolti 5 giochi in croce che si differenziano per maggiore realismo o tocchi di classe grafica, il resto è uno schifo totale che dura così da anni.
Quanti titoli escono all'anno degni di essere giocati e soprattutto dall'alto impatto visivo ? Io li conto sulle dita di una mano, anzi a volte manco li conto. :D
Io mi sono appena sparato tutti e 48 i minuti di gameplay di Cyberpunk 2077 e avevo detto solo 5 giusto per farmi un'idea.... :sbavvv:
mi sono trasferito su divano e 4K, patatine pop corn, sembrava un anime e di quelli belli, credo che dirò addio alla mia vita sociale, famiglia e gatto. E se conosco un pelo i CDP tra Ray Tracing e chicche varie quello sarà il gioco su cui riparametrerò il mio sistema per il prossimo upgrade!
Finalmente un gioco dopo anni ed anni, dai tempi di Mass Effect.
Free Gordon
28-08-2018, 22:19
Quello era Bomber :D :D
Bulldozer faceva: "You can see a mountain here comes bulldozers..."
mitici Oliver Onions!!! :winner: :cincin:
scorpion73
28-08-2018, 22:46
mitici Oliver Onions!!! :winner: :cincin:
Un vero mito, che bei tempi. Quanto mi manca l'uscita al cinema di film come quelli con quelle musiche fantastiche. Quanto manca il mitico Bud, un attore che era il mio mito da bambino e anche da grande.
Scusate l'OT
Rumpelstiltskin
28-08-2018, 23:13
Io mi sono appena sparato tutti e 48 i minuti di gameplay di Cyberpunk 2077 e avevo detto solo 5 giusto per farmi un'idea.... :sbavvv:
mi sono trasferito su divano e 4K, patatine pop corn, sembrava un anime e di quelli belli, credo che dirò addio alla mia vita sociale, famiglia e gatto. E se conosco un pelo i CDP tra Ray Tracing e chicche varie quello sarà il gioco su cui riparametrerò il mio sistema per il prossimo upgrade!
Finalmente un gioco dopo anni ed anni, dai tempi di Mass Effect.
Oddio, la mia prima impressione è stata : oh no ... oh no... si muove come su un binario!
Oddio, la mia prima impressione è stata : oh no ... oh no... si muove come su un binario!
ma non è nemmeno in beta.... non era quella la cosa da guardare...:doh: il lore, il gameplay, la location...per me TOP!
mikael84
28-08-2018, 23:27
centra qualche cosa con l'Async o è una cosa totalmente separata e quindi la GPu nVidia si gestisce i singoli thread per i cavoli suoi ?
Teoricamente è un qualcosa di simile.
Con Pascal il gigathread lasciava il compito al warp (32 thread), questo comandava tutte le operazioni.
Spezzettava i cuda in blocchi da 4, alcuni effettuavano lavori divergenti, altri blocchi, rimanevano in idle. Quelli che lavoravano per conto proprio, dovevano mettersi in coda con gli altri e completare l'operazione.
Non è proprio una formula vincente.
Con Volta/Touring, il thread, è capace di lavorare come se fosse un warp da 32.
Ogni thread viene completamente schedulato, quindi in caso di lavori divergenti possono scambiarsi dati anche via sub warp , nessun thread rimane in idle, e nel caso un solo thread lo rimanesse, può accodarsi con un altro thread, senza che rimangano blocchi da 4 thread in coda.
Per i programmatori è molto meglio:)
AceGranger
29-08-2018, 00:59
Con Volta/Touring, il thread, è capace di lavorare come se fosse un warp da 32.
Ogni thread viene completamente schedulato, quindi in caso di lavori divergenti possono scambiarsi dati anche via sub warp , nessun thread rimane in idle, e nel caso un solo thread lo rimanesse, può accodarsi con un altro thread, senza che rimangano blocchi da 4 thread in coda.
Per i programmatori è molto meglio:)
quindi non c'entra l'Async, è una cosa a parte gestita da nVidia e presumo attraverso un nuovo SDK, o lo fanno direttamente i driver ?
Ecco il vincitore di oggi
https://s6.postimg.cc/z6gnvvfy9/40164232_2175060262735575_940636608493780992_n.jpg
Temporalmente errata :O
I reni li aveva già impegnati per la titan XP e passaggio obbligato alla Xp
Per RTX sta decidendo fra cuore e intestino :O
JohnWayneBobbit
29-08-2018, 08:18
Uno non va a spendere 1000 euro di gpu e poi lascia una cpu di 7/8 anni fa.
https://www.guru3d.com/index.php?ct=articles&action=file&id=39018&admin=0a8fcaad6b03da6a6895d1ada2e171002a287bc1
Questa storia che sb va ancora bene deve finire, perchè all'atto pratico, qualsiasi cpu da 200 euro(che sia un 8600 o un 2600x) lo pialla malamente.
Mio fratello ha un 4770 liscio con la 1080ti e in 2k fa gli stessi identici frame nei giochi che usiamo (pochi in realtà ma non credo sia un caso) rispetto a me che ho (avevo) la stessa identica vga ma su un 2700x.
Se poi nei benchmark io faccio di più amen, a me il pc serve a giocare non a fare gara a chi ce l'ha meno corto.
Mio fratello ha un 4770 liscio con la 1080ti e in 2k fa gli stessi identici frame nei giochi che usiamo (pochi in realtà ma non credo sia un caso) rispetto a me che ho (avevo) la stessa identica vga ma su un 2700x.
Se poi nei benchmark io faccio di più amen, a me il pc serve a giocare non a fare gara a chi ce l'ha meno corto.
Vinco io
Ce l'ho cortissimo :O
Mio fratello ha un 4770 liscio con la 1080ti e in 2k fa gli stessi identici frame nei giochi che usiamo (pochi in realtà ma non credo sia un caso) rispetto a me che ho (avevo) la stessa identica vga ma su un 2700x.
Se poi nei benchmark io faccio di più amen, a me il pc serve a giocare non a fare gara a chi ce l'ha meno corto.I7-6700K
Fu un buon acquisto, che garantisce un'ottima durata nel tempo.
Inviato dal mio SM-G935F utilizzando Tapatalk
fabietto27
29-08-2018, 09:14
Yes it's fantasyyyyy...:sofico:E non solo per Bomber ma con testo in italiano anche come sigla di uno degli Anime più belli di sempre insieme a Capitan Harlock: Galaxy 999.
Fine del momento nostalgia canaglia.
Inviato dal vivavoce della mia Daf Variomatic
Temporalmente errata :O
I reni li aveva già impegnati per la titan XP e passaggio obbligato alla Xp
Per RTX sta decidendo fra cuore e intestino :O
Ed io che credevo che bastava una settimana a 90° qua c'è gente più disperata
JohnWayneBobbit
29-08-2018, 09:43
Ed io che credevo che bastava una settimana a 90° qua c'è gente più disperata
E qui il forum è relativamente maturo.
In altri lidi c'è chi ancora non ha capito che si può disabilitare l'RTX ed avere il tanto agognato 4k@144
sertopica
29-08-2018, 10:14
Addirittura 144? E chi te l'ha detto? :D
Duncandg
29-08-2018, 10:21
Stavo pensando di fare un upgrade dalle due attuali 1080 strix A8G (in SLI) a due 2080 RTX O8G sempre da mettere in SLI.
Dite che conviene? Quanto sarà secondo voi il boost prestazionale, dato che gioco in 4K ?
JohnWayneBobbit
29-08-2018, 10:26
Addirittura 144? E chi te l'ha detto? :D
Metodi di Analisi Matematica per l’Ingegneria
di Marco Bramanti
circa 30€
JohnWayneBobbit
29-08-2018, 10:36
Stavo pensando di fare un upgrade dalle due attuali 1080 strix A8G (in SLI) a due 2080 RTX O8G sempre da mettere in SLI.
Dite che conviene? Quanto sarà secondo voi il boost prestazionale, dato che gioco in 4K ?
No, ti conviene la singola 2080TI
sertopica
29-08-2018, 10:43
Metodi di Analisi Matematica per l’Ingegneria
di Marco Bramanti
circa 30€
Bah, se anche ci fosse un 50% in piu' non si raggiungerebbe quel framerate. Aspettiamo che finisca il NDA prima di tirar fuori l'analisi matematica.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.