PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 [263] 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346

Raven
28-10-2020, 18:26
Riduce la qualità d'immagine non mi sembra il termine più corretto, sicuramente non la peggiora poi c'è da discutere se eventualmente la migliori poichè dipende come fanno le comparative.

La mgliora NO, e questo è un fatto fisico e matematico... certo che se mi metti un filtro TAA sull'immagine a risoluzione nativa per smerdarla, allora...

Razorx92
28-10-2020, 18:26
bisogna differenziare se si sta parlando del "G-Sync compatilibity mode" o del G-Sync originale. Perchè la prima non è altro che il nome commerciale del supporto Nvidia ad Adaptive Sync (quindi è FreeSync dei verdi).

goma76
28-10-2020, 18:26
Quindi NON è un monitor Gsync, ma Gsync compatibile... ;)
Se fosse Gsync NON sarebbe freesync (il modulino proprietario lo rende "esclusivo" gsync)
Esattamente

Raven
28-10-2020, 18:27
Funziona con entrambe le tecnologie, al momento usiamo GSync dato che abbiamo una scheda Nvidia, semplice

No... la scheda nvidia usa il vega adaptive sync (freesync e gsync compatibile).... e non il Gsync

Free Gordon
28-10-2020, 18:27
esatto

Beh è una bella invenzione per l'utente medio.. :rotfl:

goma76
28-10-2020, 18:27
No
Come no? Spiegati meglio

smoicol
28-10-2020, 18:27
A forza bruta AMD è tornata, poi sulle features bisogna accontentarsi un po', ma un recupero così evidente erano anni che non si vedeva e questo non si può che evidenziare

X360X
28-10-2020, 18:28
Che ci crediate o no...

presentate le 6800XT e 6900XT? Palit 3090 usata su amazon a 1617€... :D :D :D si parte con la roulette dei resi... sopratutto per chi si prese la 3090

Ma che la 3090 fosse il tipico prodotto dal rapporto prezzo-prestazioni quasi demenziale era ovvio pure prima eh.
L'ha presa chi di soldi da buttare a ste cose ne ha tanti e voleva la top NVIDIA, ne più ne meno. Sono VGA che si fanno prima a non calcolare (ma anche la 6900XT non converrà mai costa 1000 euro)

Free Gordon
28-10-2020, 18:29
A forza bruta AMD è tornata, poi sulle features bisogna accontentarsi un po', ma un recupero così evidente erano anni che non si vedeva e questo non si può che evidenziare

Dipende da quali features intendi. :)

StylezZz`
28-10-2020, 18:29
Ok, ma dire che è morto è una sparata esagerata e non ha nessuna attinenza con quello che giustamente hai appena scritto. Le 2 cose secondo me possono benissimo coesistere come già fanno da qualche anno a questa parte.

Non a caso ho appena acquistato un LG CX46'' che è pienamente compatibile sia con Freesync che con Gsync.

È morto, tu lo compreresti un monitor che supporta solo gsync? Pagheresti di più? E per avere cosa?

Il tuo monitor supporta entrambi ok, ma di fatto non ti serve a nulla, a meno che non vuoi collegarci schede nvidia dalla serie 900 in giù.

DJurassic
28-10-2020, 18:29
Quindi NON è un monitor Gsync, ma Gsync compatibile... ;)
Se fosse Gsync NON sarebbe freesync (il modulino proprietario lo rende "esclusivo" gsync)

Esatto. Ma è solo l'ultimo arrivato, come schermo ho un PG348Q. Ripeto, per me possono coesistere tranquillamente e sta poi al giocatore fare una o l'altra scelta. Morto vorrebbe dire che scompare, come è successo a PhysX.

È morto, tu lo compreresti un monitor che supporta solo gsync? Pagheresti di più? E per avere cosa?

Il tuo monitor supporta entrambi ok, ma di fatto non ti serve a nulla, a meno che non vuoi collegarci schede nvidia dalla serie 900 in giù.

Avendo da sempre Nvidia non mi cambierebbe più di tanto. Detto questo più scelta c'è meglio è per noi.

StylezZz`
28-10-2020, 18:30
Morto vorrebbe dire che scompare, come è successo a PhysX.

Questione di tempo.

Raven
28-10-2020, 18:30
Come no? Spiegati meglio

Ho scritto sopra... il monitor è adaptrive sync... freesync utilizza adpative sync, mente gsync no.
Poi coi nuovi driver nvidia ha permesso alle sue schede di utilizzare l'adaptive sync (quindi molti monitor freesync sono diventati "gsync compatibili"), ma se un monitor è freesync/gsync compatibile vuol dire che NON è gsync nativo (per cui occorre la certificazione=modulino e la NON compatibilità con freesync/adaptive sync)

ps: ho una 1080ti su un dell s2719dgf freesync/gsync compatibile per cui sono solo contento, eh! :D

mikael84
28-10-2020, 18:31
Dove l'hai letto dei 6 miliardi?

Con la cache avrebbero preso due piccioni con una fava: meno consumi e più BVH...

Lo riportava anandtech.
Beh diciamo che quais 1,7tb/s teorico, neppure con un 768bit lo raggiungi con le g6 lisce.

Cmq non ho notizie sul die, perchè la densità su un 540 va a circa 49mt, su un 505 sale a ben 53.

G80
28-10-2020, 18:31
Molto molto bene.
Onestamente non mi aspetto grandi prestazioni in RT nel nuovo Cyberpunk, specie dato lo sviluppo a braccetto con Nvidia, che tenterà di azzoppare le schede Amd al massimo (almeno fino a quando Amd non avrà il tempo di ottimizzare il gioco per la nuova architettura). In compenso mi aspetto molto di meglio dai giochi con supporto RT che usciranno il prossimo anno, perchè con l avvento delle console basate su coppia Ryzen+RDNA2 per forza di cose l'ottimizzazione del RT sarà ottima sulle 6800-6900. E tutta quella succosa cache da 128 mb?? eh si, potrebbe davvero tornare utile proprio per l'RT :p Bel lavoro, sopra le aspettative (le mie sicuramente).

goma76
28-10-2020, 18:32
Ho scritto sopra... il monitor è adaptrive sync... freesync utilizza adpative sync, mente gsync no.
Poi coi nuovi driver nvidia ha permesso alle sue schede di utilizzare l'adaptive sync (quindi molti monitor freesync sono diventati "gsync compatibili"), ma se un monitor è freesync/gsync compatibile vuol dire che NON è gsync nativo(per cui occorre la certificazione=modulino e la NON compatibilità con freesync/adaptive sync)

ps: ho una 1080ti su un dell s2719dgf freesync compatibile per cui sono solo contento, eh! :D
Sì ok, ma la ciccia è che funziona sia con AMD e Nvidia poi la tecnologia chiamala come vuoi tu, il succo è questo

Raven
28-10-2020, 18:33
Sì ok, ma la ciccia è che funziona sia con AMD e Nvidia poi la tecnologia chiamala come vuoi tu, il succo è questo

ok ok... ma tecnicamente non è corretto dire che sia un monitor gsync, ecco... :sofico:

StylezZz`
28-10-2020, 18:35
ok ok... ma tecnicamente non è corretto dire che sia un monitor gsync, ecco... :sofico:

Quindi allora non funziona nemmeno con la serie GTX 900 in giù? Avevo capito che fosse freesync/gsync e non semplicemente ''compatibile''.

X360X
28-10-2020, 18:36
Sì ok, ma la ciccia è che funziona sia con AMD e Nvidia poi la tecnologia chiamala come vuoi tu, il succo è questo

ma non è giusto mischiare le cose, esistono due tecnologie diverse non è solo un nome.

Freesync utilizzabile da AMD (su tutti i monitor Freesync) e da NVIDIA (su tutti quelli ufficialmente compatibili e quelli dove gli utenti hanno testato vada bene, perché è attivabile su tutti in realtà)

Gsync utilizzabile solo da NVIDIA su specifici monitor gsync (e non sui freesync)

Tu usi il freesync di AMD (come detto credo senza supporto HDR ed lfc) con NVIDIA, e non il gsync

Piedone1113
28-10-2020, 18:38
Sì ok, ma la ciccia è che funziona sia con AMD e Nvidia poi la tecnologia chiamala come vuoi tu, il succo è questo

Veramente è Nvidia che ha chiamato l'adaptive-sync Gsync compatible.
Se invece di Gsync compatible nvidia lo avrebbe chiamato Alabarda Spaziale ti saresti sentito Acturus, ma sempre Adaptive-sync è

Cfranco
28-10-2020, 18:40
No... la scheda nvidia usa il vega adaptive sync (freesync e gsync compatibile).... e non il Gsync
Il gsync è solo l'adaptative sync con in più un drm hardware da pagare a nVidia
Tanto che nei portatili dove lo schermo non lo puoi cambiare manco ci mettono il drm, sono schermi adaptive sync in tutto e per tutto.

mircocatta
28-10-2020, 18:44
ma non è giusto mischiare le cose, esistono due tecnologie diverse non è solo un nome.

Freesync utilizzabile da AMD (su tutti i monitor Freesync) e da NVIDIA (su tutti quelli ufficialmente compatibili e quelli dove gli utenti hanno testato vada bene, perché è attivabile su tutti in realtà)

Gsync utilizzabile solo da NVIDIA su specifici monitor gsync (e non sui freesync)

Tu usi il freesync di AMD (come detto credo senza supporto HDR ed lfc) con NVIDIA, e non il gsync

funzionano anche sulle gpu nvidia (almeno sulla mia 1080ti funzionava, era attivo anche a 25fps), il freesync2 è un gioiello ;)

StylezZz`
28-10-2020, 18:47
Giusto per ritornare in topic...ma la 6900 XT in 8k come la vedete? Ha ''solo'' 16GB :stordita:

Antostorny
28-10-2020, 18:47
Ragazzi mi sono perso la live causa lavoro :(

Da quello che ho letto in giro la mia scimmia per la RTX 3080 è definitivamente morta: dopo anni penso proprio ritornerò ad AMD anche lato GPU.

Volevo chiedervi..ma hanno fatto vedere anche una tecnologia simil-DLSS?

@ndrey
28-10-2020, 18:51
doppia incul@ta per chi ha svenduto 2800ti per le 3900 :asd:

smoicol
28-10-2020, 18:53
Stasera mi studio le slide oggi ho guardato la presentazione al volo, ma ho visto cose che un po' ci speravamo e non facciamo una guerra tra utenti pro e contro, facciamo che la guerra la fanno AMD vs Nvidia solo così ne beneficiamo tutti.

StylezZz`
28-10-2020, 18:57
Volevo chiedervi..ma hanno fatto vedere anche una tecnologia simil-DLSS?

Si è parlato del FidelityFX migliorato, ma ancora di fatto non abbiamo visto nulla.

MrBrillio
28-10-2020, 18:58
Sulla carta son delle grandi schede (6800XT e 6900XT), però voglio vedere test reali e soprattutto comportamenti con RT attivo.
Però sicuramente AMD ha fatto un gran bel lavoro! Non avessi avuto la 3080 probabilmente mi sarei fiondato su una 6900XT :fagiano:

goma76
28-10-2020, 18:59
Ragazzi mi sono perso la live causa lavoro :(

Da quello che ho letto in giro la mia scimmia per la RTX 3080 è definitivamente morta: dopo anni penso proprio ritornerò ad AMD anche lato GPU.

Volevo chiedervi..ma hanno fatto vedere anche una tecnologia simil-DLSS?
No ed è proprio questa la principale mancanza della conferenza. Si sa che stanno sviluppando qualche cosa di simile che probabilmente useranno anche per le consolle ma non hanno detto niente circa le tempistiche.
Aspetta i bench per la scimmia, soprattutto (se ti interessa) quelli con RT attivo.

ionet
28-10-2020, 19:03
-costo ben superiore alla rivale direttissima della 6800, che è la 3070

-mutismo assoluto sulle prestazioni RT

-tutta una serie di prerogative tipo la piattaforma per cavar fuori, si suppone, i numeri che han mostrato che quindi sono in uno scenario possibile a una esigua minoranza di macchine.

Cmq avevano ragione, hanno sfornato almeno con quel modello il ryzen delle gpu, solo dovevano specificare che si riferivano alla serie 5600/5800x...

la 6800 pero' non e' proprio la rivale diretta della 3070,e' basato su big navi lo stesso della 6800xt/6900xt,con la stessa quantita' di ram 16Gb, stessa BW, freq in oc probabilmente simili
dai test(dell'oste ok)e' superiore alla 3070,con potenzialita' superiori in futuro
per amd significa margini risicatissimi se taglia i prezzi, se lo facesse la domanda sale ben oltre la produzione dei chip, cioe' poi non se ne trovano per produzione scarsa o a prezzi gonfiati, figurati se amd mette in crisi le cpu che mai fino adesso ha visto guadagni stellari

poi aggiungi che il prezzo della 3070 e' per la FE, leggasi paper launch a tiratura mooolto limitata, ma ai piu' se ne vogliono una dovranno accontentarsi delle custom a prezzi nettamente superiori

quindi se stai pensando di prenderti una 3070,prova a partecipare al click day di domani, forse sei fortunato chi sa, se ti dice male probabilmente rivaluterai questa presa di posizione :stordita:

Psiche
28-10-2020, 19:03
-tutta una serie di prerogative tipo la piattaforma per cavar fuori, si suppone, i numeri che han mostrato che quindi sono in uno scenario possibile a una esigua minoranza di macchine.

Su questo punto ti invito a riflettere, "le prerogative" sono un di più
https://i.imgur.com/Hc89mTO.pngSe togli la parte bianca (Rage mode e smart access memory)

Leva la parte bianca...
Giocando ad armi pari, la 6800XT se la gioca con la 3080 ma consuma meno e costa meno

zerotre
28-10-2020, 19:04
https://i.postimg.cc/k57xz7QZ/photo-2020-10-28-20-03-39.jpg (https://postimages.org/)

Ale55andr0
28-10-2020, 19:12
la 6800 pero' non e' proprio la rivale diretta della 3070,e' basato su big navi lo stesso della 6800xt/6900xt,con la stessa quantita' di ram 16Gb, stessa BW, freq in oc probabilmente simili
dai test(dell'oste ok):


stiamo parlando di uno scarto, dello scarto: 5120cu/128rop>4608cu/128rop>3840cu/96rop, praticamente il figlio non solo scemo, ma pure storpio di tre nati (manco 64cu ma 60, persino peggio di quel che credessi :asd:).

Quel prezzo di 579$, che su strada sarà sui 600 (non inteso come cresta dei rivenditori, ma la sola conversione euro+iva, quindi è pure ottimistico perchè sto fingendo che non ci lucreranno :fagiano: ), per me è pura demenza

Blee
28-10-2020, 19:17
la 6800 pero' non e' proprio la rivale diretta della 3070,e' basato su big navi lo stesso della 6800xt/6900xt,con la stessa quantita' di ram 16Gb, stessa BW, freq in oc probabilmente simili
dai test(dell'oste ok)e' superiore alla 3070,con potenzialita' superiori in futuro
per amd significa margini risicatissimi se taglia i prezzi, se lo facesse la domanda sale ben oltre la produzione dei chip, cioe' poi non se ne trovano per produzione scarsa o a prezzi gonfiati, figurati se amd mette in crisi le cpu che mai fino adesso ha visto guadagni stellari

poi aggiungi che il prezzo della 3070 e' per la FE, leggasi paper launch a tiratura mooolto limitata, ma ai piu' se ne vogliono una dovranno accontentarsi delle custom a prezzi nettamente superiori

quindi se stai pensando di prenderti una 3070,prova a partecipare al click day di domani, forse sei fortunato chi sa, se ti dice male probabilmente rivaluterai questa presa di posizione :stordita:

D'accordo, ma fino a che non vedo dei test fatti a casa anche con altri processori e con RT , resto in forse tra 6800/6800xt/3070/3080, perchè c'è sempre la possibilità che senza processori 5000 la 6800 resti dietro alla 3070 e al pari di una 2080TI e in quel caso sarebbe da rivedere un po' di cose

Hadar
28-10-2020, 19:18
6800 liscia senza senso, la 6800 XT è quella più appetibile.
Però non hanno mostrato nulla di RT e alternativa al dlss, meh
Wait for benchmarks

Inviato dal mio Pixel 2 XL utilizzando Tapatalk

ghiltanas
28-10-2020, 19:21
L'Xbox series x in pratica monta una 6700xt...non male

The_SaN
28-10-2020, 19:24
Su questo punto ti invito a riflettere, "le prerogative" sono un di più
https://i.imgur.com/Hc89mTO.pngSe togli la parte bianca (Rage mode e smart access memory)

Leva la parte bianca...
Giocando ad armi pari, la 6800XT se la gioca con la 3080 ma consuma meno e costa meno

Comunque vedo un bel Ray Tracing nel pavimento, speriamo nelle prestazioni.

razor820
28-10-2020, 19:25
6800 liscia senza senso, la 6800 XT è quella più appetibile.
Però non hanno mostrato nulla di RT e alternativa al dlss, meh
Wait for benchmarks

Inviato dal mio Pixel 2 XL utilizzando Tapatalk


Ma come mai tutto questo interesse per il ray tracing?
Ma avete visto quello su wd legions?? Scandaloso. Per non parlare dei precedenti..

Auto specchiate ed irreali

Andy1111
28-10-2020, 19:27
Ma come mai tutto questo interesse per il ray tracing?
Ma avete visto quello su wd legions?? Scandaloso. Per non parlare dei precedenti..

Auto specchiate ed irreali

è sponsorizzato nvidia legions o sbaglio?!

Blee
28-10-2020, 19:29
6800 liscia senza senso, la 6800 XT è quella più appetibile.
Però non hanno mostrato nulla di RT e alternativa al dlss, meh
Wait for benchmarks

Inviato dal mio Pixel 2 XL utilizzando Tapatalk

LA 6800xt senza smart memory access si contende le prestazioni con la 3080, in alcune sta pari, in altre leggermente sopra, in altre leggermente sotto. Possibile che con RT si posizioni leggermente sotto la 3080. Devo dire che io a 600 E. l'avrei presa ad occhi chiusi, ma visti i prezzi voglio vederci più chiaro mi dispiace

OvErClOck82
28-10-2020, 19:31
Comunque vedo un bel Ray Tracing nel pavimento, speriamo nelle prestazioni.:rotfl:

Inviato dal mio Redmi Note 8 Pro utilizzando Tapatalk

nessuno29
28-10-2020, 19:36
LA 6800xt senza smart memory access si contende le prestazioni con la 3080, in alcune sta pari, in altre leggermente sopra, in altre leggermente sotto. Possibile che con RT si posizioni leggermente sotto la 3080. Devo dire che io a 600 E. l'avrei presa ad occhi chiusi, ma visti i prezzi voglio vederci più chiaro mi dispiace

A 600 euro c'è la 6800

Andy1111
28-10-2020, 19:37
A 600 euro c'è la 6800

era meglio la 6800 xt a 600 :cry:

fraussantin
28-10-2020, 19:48
era meglio la 6800 xt a 600 :cry:Esatto e la 6800 liscia a 499..

Io mi sarei aspettato questi prezzi , ma boh...forse vuol trottare sul fatto che le verdi non ci sono

Ale55andr0
28-10-2020, 19:48
era meglio la 6800 xt a 600 :cry:

"arresto momentum" (cit.)

https://youtu.be/Vj9eO0OXXpI?t=2300

sniperspa
28-10-2020, 19:49
Direi proprio che a sto giro AMD ci è riuscita a tornare in partita pure sulle GPU

Brava Lisona!

Ryo Hazuki
28-10-2020, 19:49
Sei molto giovane.. :asd:

Ops :D Con che modello?

Ryo Hazuki
28-10-2020, 19:53
L'Xbox series x in pratica monta una 6700xt...non male

Non credo proprio,visto che una 6800 ha 30 e più tf contro i 12 della series x

Andy1111
28-10-2020, 19:55
"arresto momentum" (cit.)

https://youtu.be/Vj9eO0OXXpI?t=2300

volevo fare il pc nuovo ryzen 5900 con la 6800 XT reference con mobo x570 e 32gb 3600 tutto a liquido..... mi sa dovrò aspettare anno nuovo

Ale55andr0
28-10-2020, 19:55
Non credo proprio,visto che una 6800 ha 30 e più tf contro i 12 della series x

ehm, la 6800 ha 16.17 tflop :read:

ninja750
28-10-2020, 19:56
a mente fredda è facile capire quanto sia un mezzo fail a livello di marketing questa presentazione, perchè capiamoci a livello tecnico finalmente AMD è tornata alla grandissima. hanno finalmente un chip scalabile che può coprire 3 fasce (o 2 dipende dai punti di vista) costruite con un processo produttivo (si vocifera) di minor costo:

la 6900XT batte ovunque la 3090 con un prezzo 999$ vs 1499$ (-500$)

la 6800XT batte la 3080 quasi ovunque con un prezzo 649$ vs 719$ (-70$)

la 6800 batte la 3070 di qualcosa come 10% con un prezzo 579$ vs 519$ (+60$)

proprio nella fascia dei grandi volumi che saranno quelle dei 400$ e dei 500$ AMD NON ha/avrà di fatto un prodotto competitivo. la 6800 a quel prezzo è totalmente fuori mercato tanto che fossi in JHH non starei nemmeno a scomodare una 3070ti. Previa (in)disponibilità la fascia 500$ sarà in balia delle 3070 che oltre ad offrire prestazioni RT sicure più DLSS hanno pur sempre in più l'appeal verde che pariprezzo spiace ma fa ancora la differenza ai più

AMD poteva e doveva presentare una 6800 con meno vram con taglio 10 o 12gb per posizionarsi proprio in quella fascia, invece adesso subito sotto ci saranno le navi22 che con 40cu saranno prestazionalmente BEN al di sotto della 3070 e con la stessa quantità di memoria (479$? LOL), con la 3060ti che sta per essere presentata. che poi questa 6800 abbia 16gb direi un bel chissene frega, che li mettano sulle due top, ma sulle medie e a scendere il prezzo è sempre più fondamentale e non è certo il 10% a spostare l'ago della bilancia

l'unica mossa che se vorrà farà JHH sarà presentare la 3080ti per riprendersi leadership in una fascia, tanto in quella uber le schede sono talmente poche che manco si contano e in fascia media e bassa venderanno vagonate di 3070 e 3060ti

i 579$ (reference?) che diventeranno minimo 599€ in italia (al netto di balzelli) come prezzo suggerito diventeranno 630/640€ per le custom buone (nitro, gamingx..) AL NETTO DELLE SPECULAZIONI che abbiamo visto con ampere quindi non mi stupirei prezzi DISPONIBILI come 650€/750€/1100€ per 6800/6800XT/6900XT

l'unica mossa (marketing) furba l'hanno fatta con sto rage mode per fare spostare di fatto gli utenti su piattaforma unica AMD

Ale55andr0
28-10-2020, 19:57
volevo fare il pc nuovo ryzen 5900 con la 6800 XT reference con mobo x570 e 32gb 3600 tutto a liquido..... mi sa dovrò aspettare anno nuovo

se il procione lo prendi per passione e non per necessita di multitasking estremo, puoi "accontentarti" di un 5800x 8/16, visto che tanto i giochi non useranno più degli 8 core delle console e riversare risparmio sulla 6800xt. O almeno, io farei così.

ispgadget88
28-10-2020, 19:57
Che dire, AMD è tornata finalmente competitiva anche sul fronte GPU, purtroppo nel mio caso questi primi prodotti sono fuori budget, ma ci sono tutti i presupposti per sperare in ottime schede anche per le fasce inferiori nei mesi a venire.

Scarse informazioni sul ray tracing, ma personalmente non la vedo come una killer feature nel breve termine, probabilmente riceverà una spinta decisiva nei prossimi anni grazie alle nuove console.

Ora non resta che attendere le recensioni per capire se i numeri tornano...

Ale55andr0
28-10-2020, 19:59
la 6800 batte la 3070 di qualcosa come 10% con un prezzo 579$ vs 519$ (+60$)



sono 499 vs 579, cioè 79 dollari. 519 sono gli euro convertiti dal dollaro più tasse...fai lo stesso sui 579 dollari della 6800...

Verro
28-10-2020, 19:59
Sono d'accordo.
Speravamo tutti che facesse una politica piu aggressiva stile Ryzen 1 in virtù del fatto che deve recuperare moltissime quote di mercato, purtroppo non mi sembra che a questo giro possa fare granché.
Si, sicuramente sono ottime e sono un'ottima alternativa alle verdi finalmente, però molti preferiscono Nvidia perché "è Nvidia" e con questa politica di prezzi non te li porti a casa.

Andy1111
28-10-2020, 20:00
se il procione lo prendi per passione e non per necessita di multitasking estremo, puoi "accontentarti" di un 5800x 8/16, visto che tanto i giochi non useranno più degli 8 core delle console e riversare risparmio sulla 6800xt. O almeno, io farei così.

ora ho un 5820k passare da un 6 a un 8 core mi sta un po strettino sinceramente e salterei del tutto la prossima generazione

Ryo Hazuki
28-10-2020, 20:04
ehm, la 6800 ha 16.17 tflop :read:

la serie 3000 parte dai 20 ai 40 tf circa, shader tf, contro i 10\12 delle console

Andy1111
28-10-2020, 20:06
la serie 3000 parte dai 20 ai 40 tf circa, shader tf, contro i 10\12 delle console

Dichiarati ma utilizzati realmente molto meno

ninja750
28-10-2020, 20:08
cioè non mi sembra difficile da cogliere la piccola questione che la gente pariprestazioni nel dubbio ha sempre comprato verde anche se questo voleva dire pagare di più, se addirittura adesso 3070 vs 6800 la verde COSTA MENO che mercato potrà mai avere questa 6800? un tafazzismo inconcepibile. e la questione della vram in sta fascia conta molto meno se non si traducono in prestazioni, chi vuole 4k senza compromessi andrà su 6800XT/3080 dove i 16gb invece possono servire

Ryo Hazuki
28-10-2020, 20:09
Dichiarati ma utilizzati realmente molto meno

Che vuol dire, ancora con la favola dell'ottimizzazione?? Con la 6900xt si parla di 4 volte la potenza delle console al loro debutto, tra 2 anni con le prossime vga,saranno preistoria

Blee
28-10-2020, 20:09
era meglio la 6800 xt a 600 :cry:

Esattamente...

FroZen
28-10-2020, 20:10
128 ROPS confermate tranne per la 6800 che ne ha 96

https://www.amd.com/en/products/specifications/compare/graphics/10516%2C10521%2C10526

https://media3.giphy.com/media/Um3ljJl8jrnHy/200.gif

Therinai
28-10-2020, 20:12
Gran bella botta di AMD, sono contento che finalmente ci sia un ventaglio di proposte di alto livello concorrenti a nvidia.
Ma come quasi tutti non capisco il posizionamento di prezzo della 6800 liscia a 580$, e con soli 70 in più prendi la 6800XT... inoltre se i volumi della 3070 saranno buoni e veramente sarà possibile comprarla a 512€ c'è il rischio che per poche decine di euro perda appeal la 6800.
Io a sto punto attendo le recensioni delle 6800 e poi decido cosa comprare, disponibilità nei negozi permettendo.
Certo che ora che dopo tanti anni di intel sono tornato in amd con ryzen, è stupidamente forte la tentazione di passare da nvidia a amd anche per la grafica, a prescindere dai prezzi (visto che le performance saranno in ogni caso buone) :asd:

Blee
28-10-2020, 20:13
A 600 euro c'è la 6800

Si ma il prezzo prestazioni non mi convince come altre soluzioni purtroppo.

FroZen
28-10-2020, 20:15
[url]https://www.youtube.com/watch?v=8KAnebwCAaA[/url

la versione con kit EK :eek:

https://i.postimg.cc/XvPS6Qy3/image.png

https://media3.giphy.com/media/w9xG5hsxZlqtevPlJQ/giphy.gif

HadesSaint
28-10-2020, 20:18
i prezzi sono al day 1 ma magari ci saranno delle limate chissa...

Blee
28-10-2020, 20:18
a mente fredda è facile capire quanto sia un mezzo fail a livello di marketing questa presentazione, perchè capiamoci a livello tecnico finalmente AMD è tornata alla grandissima. hanno finalmente un chip scalabile che può coprire 3 fasce (o 2 dipende dai punti di vista) costruite con un processo produttivo (si vocifera) di minor costo:

la 6900XT batte ovunque la 3090 con un prezzo 999$ vs 1499$ (-500$)

la 6800XT batte la 3080 quasi ovunque con un prezzo 649$ vs 719$ (-70$)

la 6800 batte la 3070 di qualcosa come 10% con un prezzo 579$ vs 519$ (+60$)

proprio nella fascia dei grandi volumi che saranno quelle dei 400$ e dei 500$ AMD NON ha/avrà di fatto un prodotto competitivo. la 6800 a quel prezzo è totalmente fuori mercato tanto che fossi in JHH non starei nemmeno a scomodare una 3070ti. Previa (in)disponibilità la fascia 500$ sarà in balia delle 3070 che oltre ad offrire prestazioni RT sicure più DLSS hanno pur sempre in più l'appeal verde che pariprezzo spiace ma fa ancora la differenza ai più

AMD poteva e doveva presentare una 6800 con meno vram con taglio 10 o 12gb per posizionarsi proprio in quella fascia, invece adesso subito sotto ci saranno le navi22 che con 40cu saranno prestazionalmente BEN al di sotto della 3070 e con la stessa quantità di memoria (479$? LOL), con la 3060ti che sta per essere presentata. che poi questa 6800 abbia 16gb direi un bel chissene frega, che li mettano sulle due top, ma sulle medie e a scendere il prezzo è sempre più fondamentale e non è certo il 10% a spostare l'ago della bilancia

l'unica mossa che se vorrà farà JHH sarà presentare la 3080ti per riprendersi leadership in una fascia, tanto in quella uber le schede sono talmente poche che manco si contano e in fascia media e bassa venderanno vagonate di 3070 e 3060ti

i 579$ (reference?) che diventeranno minimo 599€ in italia (al netto di balzelli) come prezzo suggerito diventeranno 630/640€ per le custom buone (nitro, gamingx..) AL NETTO DELLE SPECULAZIONI che abbiamo visto con ampere quindi non mi stupirei prezzi DISPONIBILI come 650€/750€/1100€ per 6800/6800XT/6900XT

l'unica mossa (marketing) furba l'hanno fatta con sto rage mode per fare spostare di fatto gli utenti su piattaforma unica AMD

Tieni presente che i risultati ottimi si hanno insieme al smart memory access ryzen 5000. Senza questo mi pare che la 6800xt se la batte con 3080 e non è sempre sopra, alcune volte è giù. Mentre la 6800 liscia senza ryzen 5000 si allinea alla 2080ti circa e in alcuni casi sta a livello 3070 più o meno. Tutto questo ad onore del vero.

marbasso
28-10-2020, 20:21
Tieni presente che i risultati ottimi si hanno insieme al smart memory access ryzen 5000. Senza questo mi pare che la 6800xt se la batte con 3080 e non è sempre sopra, alcune volte è giù. Mentre la 6800 liscia senza ryzen 5000 si allinea alla 2080ti circa e sta a livello 3070 più o meno. Tutto questo ad onore del vero.

Ottimizzazione driver le prime settimane e vedi come si sistema.
Le nvidia serie 3000 con i driver per risolvere il problema della stabilità sai come son salite di fps? E la serie 2000 le ha seguite...
C'è margine come sempre.

Crysis90
28-10-2020, 20:21
Non avessi avuto la 3080 probabilmente mi sarei fiondato su una 6900XT :fagiano:

Sei ancora in tempo per vendermi la tua 3080 e passare ad AMD. :asd: :read: :D :O

tra 2 anni con le prossime vga,saranno preistoria

Sono già preistoria anche oggi.
Tutto il marketing attorno al 4K 60/120 fps è fatto volutamente solo su titoli old-gen che hanno la retro-compatibilità e/o su titoli stile DIRT 5, che hanno si e no 1/5 dei poligoni e delle features grafiche che hanno giochi tripla A come RDR2 o CyberPunk 2077 e che quindi girano "facilmente" sopra ai 30 fps.

razor820
28-10-2020, 20:27
I test su quale piattaforma, cpu e company sono stati fatti?

Possibile che il pci 4.0 faccia la differenza?
Upgradare a quel bus, significherebbe cambiare mobo e cpu visto che da parte Intel se non erro forse solo la decima generazione ha quel tipo di supporto??

FroZen
28-10-2020, 20:30
Thread ufficiale rdna2 quando?

https://i.postimg.cc/d0KKXZxN/Die-Shot-Color-Front.jpg

:oink: :oink: :oink: :oink:

Rikardobari
28-10-2020, 20:30
mi iscrivo :oink:

FroZen
28-10-2020, 20:39
Comunque vedo un bel Ray Tracing nel pavimento, speriamo nelle prestazioni.

Chiudete internet :O :O

Se leggo ancora che una 6800 liscia avrebbe dovuto avere 10 o 12gb prendo mano alla pistola

Gigibian
28-10-2020, 20:42
Comunque vedo un bel Ray Tracing nel pavimento, speriamo nelle prestazioni.

si beh, è supportato nelle specifiche stavolta. ma non nei giochi probabilmente: tutte le implementazioni che troviamo sono proprietarie rtx...

cmq prezzo troppo alto per la 6800 liscia.
non penso sia il prezzo della ram ad incidere, ma se con 8 o 12 GB riuscivano a tenere il prezzo di 100$ più basso sarebbe stato molto meglio.
E' l'unica versione che costa PIU' della controparte nvidia. wtf.

ghiltanas
28-10-2020, 20:45
Non credo proprio,visto che una 6800 ha 30 e più tf contro i 12 della series x

Io invece credo proprio di sì, 60cu vs 52 e i tf della 6800 non mi pare siano 30:

https://www.anandtech.com/show/16202/amd-reveals-the-radeon-rx-6000-series-rdna2-starts-at-the-highend-coming-november-18th

marbasso
28-10-2020, 20:47
si beh, è supportato nelle specifiche stavolta. ma non nei giochi probabilmente: tutte le implementazioni che troviamo sono proprietarie rtx...

cmq prezzo troppo alto per la 6800 liscia.
non penso sia il prezzo della ram ad incidere, ma se con 8 o 12 GB riuscivano a tenere il prezzo di 100$ più basso sarebbe stato molto meglio.
E' l'unica versione che costa PIU' della controparte nvidia. wtf.

Si ma hai 16gb...non state a lamentarvi sempre.
500 euro che problema c'è ci vai a cenare 2 volte fuori...

Anidees
28-10-2020, 20:48
Quindi la 6900xt va leggermente piu del doppio della RX5700xt

marbasso
28-10-2020, 20:50
https://www.amd.com/en/products/graphics/amd-radeon-rx-6900-xt

https://i.postimg.cc/brMHzBsz/Screenshot-357.png

https://i.postimg.cc/T1910LvB/Screenshot-358.png

Ale55andr0
28-10-2020, 20:50
cioè non mi sembra difficile da cogliere la piccola questione che la gente pariprestazioni nel dubbio ha sempre comprato verde anche se questo voleva dire pagare di più, se addirittura adesso 3070 vs 6800 la verde COSTA MENO che mercato potrà mai avere questa 6800?

e niente, lo abbiamo capito solo in 4 :rolleyes:

Gran bella botta di AMD, sono contento che finalmente ci sia un ventaglio di proposte di alto livello concorrenti a nvidia.
Ma come quasi tutti non capisco il posizionamento di prezzo della 6800 liscia a 580$, e con soli 70 in più prendi la 6800XT...

ah no, adesso almeno siamo in 5 dai :asd:

Si ma il prezzo prestazioni non mi convince come altre soluzioni purtroppo.

siamo addirittura in 6 adesso :eek:

magnusll
28-10-2020, 20:52
La butto la': non e' che hanno sparato alto sulla 6800 liscia cosi' dopodomani rispondono alla risposta di giacchetta nera di domani :asd:

:eek: *gombloddo* :eek:

Gigibian
28-10-2020, 20:54
Si ma hai 16gb...non state a lamentarvi sempre.
500 euro che problema c'è ci vai a cenare 2 volte fuori...

con 16gb mi ci pulisco il :ciapet: oggi :fagiano:

ora che saranno diventati necessari avrò rivenduto e ricomprato vga 4 volte!

Oggi non c'è nessun gioco che satura 8 GB.

Ale55andr0
28-10-2020, 20:54
La butto la': non e' che hanno sparato alto sulla 6800 liscia cosi' dopodomani rispondono alla risposta di giacchetta nera di domani :asd:

:eek: *gombloddo* :eek:

ma lo sai che niente niente l'ho pensato anche io? :asd:

problem is: giacchetta con la 3070 a 499 comodi comodi non ha mezzo motivo per abbassarla di prezzo perchè costa già ben 80 carte meno. Diverso il discorso per la 3090, ma che fosse una scheda semplicemente insensata credo lo sappia pure lui :asd:

Beseitfia
28-10-2020, 20:56
finalmente amd torna competitiva lato gpu, aspetto bench effettivi, ma non vedo l'ora di montare una fiammante 6800 xt nella config ryzen :D ..
Mi orienterei sicuramente su qualche custom pero', speriamo solo la disponibilità sia maggiore rispetto ad ampère

Ale55andr0
28-10-2020, 20:58
Si ma hai 16gb...non state a lamentarvi sempre.
500 euro che problema c'è ci vai a cenare 2 volte fuori...

peccato che ci sia chi per metter da parte quei soldi non è che evita di cenare fuori due volte, ma mangia pane e cipolla per mesi :asd:

DJurassic
28-10-2020, 20:58
a mente fredda è facile capire quanto sia un mezzo fail a livello di marketing questa presentazione, perchè capiamoci a livello tecnico finalmente AMD è tornata alla grandissima. hanno finalmente un chip scalabile che può coprire 3 fasce (o 2 dipende dai punti di vista) costruite con un processo produttivo (si vocifera) di minor costo:

la 6900XT batte ovunque la 3090 con un prezzo 999$ vs 1499$ (-500$)

la 6800XT batte la 3080 quasi ovunque con un prezzo 649$ vs 719$ (-70$)

la 6800 batte la 3070 di qualcosa come 10% con un prezzo 579$ vs 519$ (+60$)

proprio nella fascia dei grandi volumi che saranno quelle dei 400$ e dei 500$ AMD NON ha/avrà di fatto un prodotto competitivo. la 6800 a quel prezzo è totalmente fuori mercato tanto che fossi in JHH non starei nemmeno a scomodare una 3070ti. Previa (in)disponibilità la fascia 500$ sarà in balia delle 3070 che oltre ad offrire prestazioni RT sicure più DLSS hanno pur sempre in più l'appeal verde che pariprezzo spiace ma fa ancora la differenza ai più

AMD poteva e doveva presentare una 6800 con meno vram con taglio 10 o 12gb per posizionarsi proprio in quella fascia, invece adesso subito sotto ci saranno le navi22 che con 40cu saranno prestazionalmente BEN al di sotto della 3070 e con la stessa quantità di memoria (479$? LOL), con la 3060ti che sta per essere presentata. che poi questa 6800 abbia 16gb direi un bel chissene frega, che li mettano sulle due top, ma sulle medie e a scendere il prezzo è sempre più fondamentale e non è certo il 10% a spostare l'ago della bilancia

l'unica mossa che se vorrà farà JHH sarà presentare la 3080ti per riprendersi leadership in una fascia, tanto in quella uber le schede sono talmente poche che manco si contano e in fascia media e bassa venderanno vagonate di 3070 e 3060ti

i 579$ (reference?) che diventeranno minimo 599€ in italia (al netto di balzelli) come prezzo suggerito diventeranno 630/640€ per le custom buone (nitro, gamingx..) AL NETTO DELLE SPECULAZIONI che abbiamo visto con ampere quindi non mi stupirei prezzi DISPONIBILI come 650€/750€/1100€ per 6800/6800XT/6900XT

l'unica mossa (marketing) furba l'hanno fatta con sto rage mode per fare spostare di fatto gli utenti su piattaforma unica AMD

Ma quando dici batte quasi ovunque ti riferisci alle slide messe su da Lisa o hai altre fonti? Chiedo per un amico. :fagiano:

smoicol
28-10-2020, 21:04
Comunque ho riguardato le slide e hanno tutte le ottimizzazioni smart access Memory e fate mode, per cui i valori reali sono al ribasso, questo non pregiudica nulla, siamo solo alla presentazione.

Blee
28-10-2020, 21:09
Si ma hai 16gb...non state a lamentarvi sempre.
500 euro che problema c'è ci vai a cenare 2 volte fuori...

A 500 conviene la console se la differenza con la 6800 è marginale.... Scusate eh

Blee
28-10-2020, 21:11
Comunque ho riguardato le slide e hanno tutte le ottimizzazioni smart access Memory e fate mode, per cui i valori reali sono al ribasso, questo non pregiudica nulla, siamo solo alla presentazione.

Ci sono anche quelle normali, guarda il video.

marbasso
28-10-2020, 21:12
peccato che ci sia chi per metter da parte quei soldi non è che evita di cenare fuori due volte, ma mangia pane e cipolla per mesi :asd:

E va be...buonanotte...ha sbagliato hobby allora.

marbasso
28-10-2020, 21:14
con 16gb mi ci pulisco il :ciapet: oggi :fagiano:

ora che saranno diventati necessari avrò rivenduto e ricomprato vga 4 volte!

Oggi non c'è nessun gioco che satura 8 GB.

Ce ne + di uno... e molto sopra gli 8gb...anche 14 o 15gb
Vedi Star citizen, e l' utenza non è proprio marginale.
Ma ce ne sono altri che con filtri e risoluzioni alte 8gb li usano come stipetto...
Poi ram video ok ma meglio abbondare sempre. Io sotto gli 11 starei in ansia.

leoneazzurro
28-10-2020, 21:15
Comunque ho riguardato le slide e hanno tutte le ottimizzazioni smart access Memory e fate mode, per cui i valori reali sono al ribasso, questo non pregiudica nulla, siamo solo alla presentazione.

Le slide con la 6800XT sono a) normali e b) con Rage+SMA, la 6900XT è con Rage+SMA attivato, la 6800 è solo con SMA attivato.

marbasso
28-10-2020, 21:16
Speriamo che i bios editor funzionino e che non abbian messo limiti tipo nvidia.
Quindi liquido e via...

leoneazzurro
28-10-2020, 21:22
Speriamo che i bios editor funzionino e che non abbian messo limiti tipo nvidia.
Quindi liquido e via...

Paradossalmente quella che si dovrebbe overcloccare di più rispetto alla base è proprio la 6800... dato che il chip è probabilmente in grado di passare i 2,25 GHz (e più) e dovrebbe anche avere il PCB delle sorelle più grandi

Ale55andr0
28-10-2020, 21:24
E va be...buonanotte...ha sbagliato hobby allora.

sicuro, il 95% degli italiani spende 500 euro in due cene fuori :O

tobyax
28-10-2020, 21:27
cioe ma che numeri ha fatto AMD oggi???? PAURA E DELIRIO IN AMD ....

6800 che va piu di una 3070 a 50 euro in piu,

6800xt che va quanto se non piu di una 3080 a 699 dollari che poi magari fanno cambio 1:1 e sono 699 euro

6900xt un mostro , batte la 3090 (in gaming eh) e costa 999 dollari...

che delirioooooooo

ancora tremo dall emozione..

cmq 6800 xt mia sicuro.

a proposito non so se e' gia stato chiesto ma le founders in italia si troveranno? se si secondo voi dove???

marbasso
28-10-2020, 21:30
sicuro, il 95% degli italiani spende 500 euro in due cene fuori :O

Due cene non son 2 panini e patatine.

Cmq, riformuliamo.
Chi dall' uscita delle 5700 non ha messo da parte 500 euro per una 6800 liscia ha fatto male.
16gb e performance sopra la 2080ti a quel prezzo è + che ottimo...
:)

Gigibian
28-10-2020, 21:30
E va be...buonanotte...ha sbagliato hobby allora.

ah perchè mo videogiocare al PC è una lobby ? :sofico:

marbasso
28-10-2020, 21:32
Non è una giornata da dimenticare di sicuro.
AMD, NVIDIA, Juve...

fraussantin
28-10-2020, 21:32
sicuro, il 95% degli italiani spende 500 euro in due cene fuori :O

il 95 % degli italiani va dal cinese ''all you abbuff it'' e con 15 euro ci mangia tanto che gli basta per 2 giorni ..

marbasso
28-10-2020, 21:33
ah perchè mo videogiocare al PC è una lobby ? :sofico:

No ma cambiare una vga ad ogni release non è necessario, soprattutto se non si sa fare la formica, e poi ci si lamenta.

marbasso
28-10-2020, 21:34
il 95 % degli italiani va dal cinese ''all you abbuff it'' e con 15 euro ci mangia tanto che gli basta per 2 giorni ..

LOL...poi va in ospedale con l' anisakis 3 giorni dopo.

Ale55andr0
28-10-2020, 21:34
Due cene non son 2 panini e patatine.

Cmq, riformuliamo.
Chi dall' uscita delle 5700 non ha messo da parte 500 euro per una 6800 liscia ha fatto male.
16gb e performance sopra la 2080ti a quel prezzo è + che ottimo...
:)

non sono manco andare da cracco o cannavacciuolo. Se vai in un ristorante di pesce anche "pettinato" spendi 70-80 euro, mica 250 a botta, a meno che paghi la scena ad altri.

/OT va'


e comunque... mumble mumble...mettere da parte 500 = 579+tasse :what:. Uhm, qualquadra non cosa :stordita:

il 95 % degli italiani va dal cinese ''all you abbuff it'' e con 15 euro ci mangia tanto che gli basta per 2 giorni ..

adesso nemmeno quello: tutti a casa e cibo da asporto, al max :asd:

marbasso
28-10-2020, 21:37
non sono manco andare da cracco o cannavacciuolo. Se vai in un ristorante di pesce anche "pettinato" spendi 70-80 euro, mica 250 a botta, a meno che paghi la scena ad altri.

/OT va'

Hai ragione, se vado minimo siamo in 2 o 4...e se invito qualcuno pago io.
OT hai ragione.
Sorry.

Thhh
28-10-2020, 21:39
Peccato non aver visto qualcosa di più sul ray tracing... comunque se dovessi azzardare l'acquisto a me attira decisamente la 6800 xt... comunque sicuri che la 6800 è una rivale della 3070? Come posizione forse e ok, ma come performance mi sembra decisamente superiore.

marbasso
28-10-2020, 21:41
Peccato non aver visto qualcosa di più sul ray tracing... comunque se dovessi azzardare l'acquisto a me attira decisamente la 6800 xt... comunque sicuri che la 6800 è una rivale della 3070? Come posizione forse e ok, ma come performance mi sembra decisamente superiore.

Poi magari come per le vecchie vega flashi e porti la 6800 sotto la 6900...
Che bei ricordi.

Blee
28-10-2020, 21:44
Due cene non son 2 panini e patatine.

Cmq, riformuliamo.
Chi dall' uscita delle 5700 non ha messo da parte 500 euro per una 6800 liscia ha fatto male.
16gb e performance sopra la 2080ti a quel prezzo è + che ottimo...
:)

Non è sopra la 2080ti, non sempre e con ryzen 5000, senza non lo sappiamo. Probabilmente sarà simile alla 2080ti all'incirca.

marbasso
28-10-2020, 21:47
Non è sopra la 2080ti, non sempre e con ryzen 5000, senza non lo sappiamo. Probabilmente sarà simile alla 2080ti all'incirca.

Da quei all' uscita han tempo per affinare parecchie cose ci vuole fiducia.

Ale55andr0
28-10-2020, 21:52
https://videocardz.com/newz/amd-ray-accelerator-appear-to-be-slower-than-nvidia-rt-core-in-this-dxr-ray-tracing-benchmark

Crysis90
28-10-2020, 21:55
il 95 % degli italiani va dal cinese ''all you abbuff it''

Per fortuna io sono in quel rimanente 5%. :asd:

Ale55andr0
28-10-2020, 21:57
Per fortuna io sono in quel rimanente 5%. :asd:

però non vuoi pagare l'equivalente di "tre cene" per la 3080 a quanto sembra, e speri cali (...JJH ha lasciato la chat) al prezzo di due cene virgola qualcosa come la restante plebaglia :O

scorpion73
28-10-2020, 22:02
https://videocardz.com/newz/amd-ray-accelerator-appear-to-be-slower-than-nvidia-rt-core-in-this-dxr-ray-tracing-benchmark

AMD Ray Accelerator risulta essere più lento di NVIDIA RT Core in questo benchmark DXR (Ray Tracing).In quel test la 3090 presa come riferimento è il 59% piu' veloce della 6800XT. La 3080 registra un + 33% sempre sulla XT.
E' solo un test ma il divario è importante.

Gigibian
28-10-2020, 22:03
No ma cambiare una vga ad ogni release non è necessario, soprattutto se non si sa fare la formica, e poi ci si lamenta.

guarda che l'unico che si lamenta mi pare che sei tu, dei post altrui.

Ho solo detto quello che stanno dicendo in molti: a pari performance prendo la scheda che costa meno, tutto qua.

Se decido di andare sulla fascia 6800/3070 spero che la 6800 costi di meno, altrimenti si va di 3070. Visto che è l'unica fascia in cui la controparte AMD costa di più.

Thhh
28-10-2020, 22:04
https://videocardz.com/newz/amd-ray-accelerator-appear-to-be-slower-than-nvidia-rt-core-in-this-dxr-ray-tracing-benchmark

E' attendibile? Comunque era previsto fosse sotto e nemmeno di pochissimo... boh a me la scheda non dispiace però devo dire, aspettavo questa conferenza per togliermi un pò di dubbi e niente non ho risolto moltissimo.

fraussantin
28-10-2020, 22:04
https://videocardz.com/newz/amd-ray-accelerator-appear-to-be-slower-than-nvidia-rt-core-in-this-dxr-ray-tracing-benchmark

AMD Ray Accelerator risulta essere più lento di NVIDIA RT Core in questo benchmark DXR (Ray Tracing).In quel test la 3090 presa come riferimento è il 59% piu' veloce della 6800XT. La 3080 registra un + 33% sempre sulla XT

cmq non è male come risultato è , credevo peggio.

se riescono a boostare con il fidality fx potrebbero recuperare .. a scapito della qualità ovvio ma potrebbero farcela

scorpion73
28-10-2020, 22:05
cmq non è male come risultato è , credevo peggio.

se riescono a boostare con il fidality fx potrebbero recuperare .. a scapito della qualità ovvio ma potrebbero farcela

Si ma non la preferisco ad Ampere che globalmente per me è più bilanciato in termini prestazionali.
Considerando tutto dico, raster ed rtx

Ale55andr0
28-10-2020, 22:07
E' attendibile? Comunque era previsto fosse sotto e nemmeno di pochissimo... boh a me la scheda non dispiace però devo dire, aspettavo questa conferenza per togliermi un pò di dubbi e niente non ho risolto moltissimo.

Diciamo che videocardz è serio, ma va comunque preso con le pinse, e poi è solo UN test. A ogni modo amd NON ci ha fatto vedere che fanno in RT...

ma, alla luce di cio' (prendendo per buono) la 6800 quanto performerebbe? Mah...sempre più perplesso...

cmq non è male come risultato è , credevo peggio.

se riescono a boostare con il fidality fx potrebbero recuperare .. a scapito della qualità ovvio ma potrebbero farcela

:stordita:

Antostorny
28-10-2020, 22:17
Scusate ma c'è un embargo per le recensioni o si dovrà aspettare il 18 novembre per vedere come andranno realmente? :stordita:

Gyammy85
28-10-2020, 22:18
Far Cry 6 ha rt, Godfall rt, Dirt 5 il vrs, e tutto senza passare da rtx di nvidia

floop
28-10-2020, 22:23
Scusate ma c'è un embargo per le recensioni o si dovrà aspettare il 18 novembre per vedere come andranno realmente? :stordita:

bella domanda!

e poi leggevo 11 novembre sul sito AMD...:confused:

mircocatta
28-10-2020, 22:29
https://videocardz.com/newz/amd-ray-accelerator-appear-to-be-slower-than-nvidia-rt-core-in-this-dxr-ray-tracing-benchmark

AMD Ray Accelerator risulta essere più lento di NVIDIA RT Core in questo benchmark DXR (Ray Tracing).In quel test la 3090 presa come riferimento è il 59% piu' veloce della 6800XT. La 3080 registra un + 33% sempre sulla XT.
E' solo un test ma il divario è importante.

non vorrei dire una cazzata ma questi test dicono poco, non siamo in game dove parte della gpu deve gestire anche altro, no? magari il buon mikael potrebbe dirci di più
comunque vedendo come scalano le 3080/3090 in quella tabella, a spanne la 3070 dovrebbe fare un punteggio inferiore alla 6800xt

Diciamo che videocardz è serio, ma va comunque preso con le pinse, e poi è solo UN test. A ogni modo amd NON ci ha fatto vedere che fanno in RT...



è anche vero che non puoi mostrare come va in rt se non ci sono giochi RT non RTX :asd:
ah no, c'è crysis remastered :O

Mallardo
28-10-2020, 22:33
Non è sopra la 2080ti, non sempre e con ryzen 5000, senza non lo sappiamo. Probabilmente sarà simile alla 2080ti all'incirca.

Dalle slide che han fatto vedere il vantaggio sembra consistente.

https://www.tomshw.it/images/images/2020/10/amd-radeon-rx-6000-122480.jpg

fraussantin
28-10-2020, 22:35
non vorrei dire una cazzata ma questi test dicono poco, non siamo in game dove parte della gpu deve gestire anche altro, no? magari il buon mikael potrebbe dirci di più
comunque vedendo come scalano le 3080/3090 in quella tabella, a spanne la 3070 dovrebbe fare un punteggio inferiore alla 6800xt



è anche vero che non puoi mostrare come va in rt se non ci sono giochi RT non RTX :asd:
ah no, c'è crysis remastered :O

hanno provato quel coso li ... a proposito dove si scarica?

affiu
28-10-2020, 22:37
stiamo parlando di uno scarto, dello scarto: 5120cu/128rop>4608cu/128rop>3840cu/96rop, praticamente il figlio non solo scemo, ma pure storpio di tre nati (manco 64cu ma 60, persino peggio di quel che credessi :asd:).

Quel prezzo di 579$, che su strada sarà sui 600 (non inteso come cresta dei rivenditori, ma la sola conversione euro+iva, quindi è pure ottimistico perchè sto fingendo che non ci lucreranno :fagiano: ), per me è pura demenza

...Ok d'accordo...però, permettimi, ''santo ragazzo'' :D ....non puoi paragonare una 6800 con la 3070 quando la 6800 sta sopra la 2080ti.

Che dici...magari è una tua visione, nel senso che vuoi vederla cosi e ci può anche stare, ma per 79$ in meno prnderesti una 8giga anzichè 16giga ed almeno un CIRCA 10-20% di frame in meno???

...alla fine era solo per ricordarti del post di ieri: https://www.hwupgrade.it/forum/showpost.php?p=47059882&postcount=66040 ...in cui avevi ''poca fede'' ...ed invece la 6900xt ha fatto cambiare colore dal verde al verdello!! :read: :D :sofico:

...la questione che resta ''non discussa'', secondo me, sarebbe questa: ''quale sarebbe la scheda più veloce la 3090 o la 6900xt''??? (solo frame) :read: ;)

scorpion73
28-10-2020, 22:38
non vorrei dire una cazzata ma questi test dicono poco, non siamo in game dove parte della gpu deve gestire anche altro, no? magari il buon mikael potrebbe dirci di più
comunque vedendo come scalano le 3080/3090 in quella tabella, a spanne la 3070 dovrebbe fare un punteggio inferiore alla 6800xt

Non ti so dire la differenza fra questo e il gaming.
E' l'unica cosa che gira per avere una vaga idea delle RTX by AMD e l'ho postata.
Lì comunque la tendenza sembra quella che si diceva, ovvero RTX come Turing, il che sarebbe comunque indietro perché Turing senza DLSS poteva molto poco a certe risoluzioni e anche a 1080p non è che brillasse.
Poi però saranno le recensioni che ci diranno quanto va effettivamente, magari devono anche lavorarci a livello di driver, che non sono maturi, ci sta anche quello.

Ale55andr0
28-10-2020, 22:38
non vorrei dire una cazzata ma questi test dicono poco, non siamo in game dove parte della gpu deve gestire anche altro, no? magari il buon mikael potrebbe dirci di più
comunque vedendo come scalano le 3080/3090 in quella tabella, a spanne la 3070 dovrebbe fare un punteggio inferiore alla 6800xt



è anche vero che non puoi mostrare come va in rt se non ci sono giochi RT non RTX :asd:
ah no, c'è crysis remastered :O

na botta di port royal potevano farla...

Blee
28-10-2020, 22:40
Dalle slide che han fatto vedere il vantaggio sembra consistente.

https://www.tomshw.it/images/images/2020/10/amd-radeon-rx-6000-122480.jpg

Quello è con smart access memory ryzen 5000. Senza dovrebbero essere simili.

Ale55andr0
28-10-2020, 22:46
...Ok d'accordo...però, permettimi, ''santo ragazzo'' :D ....non puoi paragonare una 6800 con la 3070 quando la 6800 sta sopra la 2080ti.


sono li' lato prestazioni, e le misure le ha prese l'oste con le sue tecnologie ottimizzate che ne innalzano il percentile che non è quello che potranno avere tutti (o siamo tutti con zen 5000?)... e poi la 3070 è una 2080ti like al capello quasi.
Ergo non sconfesso nemmeno una virgola di quello che ho detto: a quel prezzo se la danno sui denti dallo spigolo della staffa di fissaggio, gli altri facciano come credono.

devAngnew
28-10-2020, 22:51
Dalle slide che han fatto vedere il vantaggio sembra consistente.

https://www.tomshw.it/images/images/2020/10/amd-radeon-rx-6000-122480.jpg

https://www.tomshw.it/images/images/2020/10/amd-radeon-rx-6000-122480.jpg

Qualcuno è riuscito a sentire se i giochi sono stati impostati al max incluso rt?

Mallardo
28-10-2020, 22:53
Qualcuno è riuscito a sentire se i giochi sono stati impostati al max incluso rt?

Molti di quei giochi non hanno RT.

Chief
28-10-2020, 23:03
Quello è con smart access memory ryzen 5000. Senza dovrebbero essere simili.

Mah direi proprio di no visto che il boost dello smart memory si aggira intorno al 2% 4% 8% almeno dalle slide amd, secondo me saranno superiori le rx 6800 anche senza smart memory ma c'è da attendere le recensioni.

affiu
28-10-2020, 23:04
sono li' lato prestazioni, e le misure le ha prese l'oste con le sue tecnologie ottimizzate che ne innalzano il percentile che non è quello che potranno avere tutti (o siamo tutti con zen 5000?)... e poi la 3070 è una 2080ti like al capello quasi.
Ergo non sconfesso nemmeno una virgola di quello che ho detto: a quel prezzo se la danno sui denti dallo spigolo della staffa di fissaggio, gli altri facciano come credono.

...Tranquillo, ok ci mancherebbe....

L' importante è che io so che se uno venisse da te o da me e ci dicesse: ''voglio il top cpu + gpu senza nessun budget'' la NOSTRA risposta sarebbe certamente:.....semplicemente e senza nessun dubbio o pentimento.

amd ryzen 5950x + 6900xt

amd ryzen 5900x + 6800xt

amd ryzen 5800x + 6800. ;) ...oltre non saprei!(figuriamoci con zen4 + RDNA3...:eek: ...che fa scherzì!!!;) )

devAngnew
28-10-2020, 23:09
Molti di quei giochi non hanno RT.

OK, ma in BF5, tombraider e wolfenstein JB c'è. Qundi la domanda resta ...

Vash88
28-10-2020, 23:28
https://www.tomshw.it/images/images/2020/10/amd-radeon-rx-6000-122480.jpg

Qualcuno è riuscito a sentire se i giochi sono stati impostati al max incluso rt?

Wolfenstein Youngblood in 1440p sta sui 120-140 fps con rtx abilitato su una 3080 a quella risoluzione. I risultati sono fatti SENZA raytracing

Free Gordon
29-10-2020, 00:57
Lo riportava anandtech.
Beh diciamo che quais 1,7tb/s teorico, neppure con un 768bit lo raggiungi con le g6 lisce.
Cmq non ho notizie sul die, perchè la densità su un 540 va a circa 49mt, su un 505 sale a ben 53.

la densità media è paragonabile agli 8nm, dato che in N21 c'è una cache molto densa ;-)

Free Gordon
29-10-2020, 01:02
https://i.postimg.cc/k57xz7QZ/photo-2020-10-28-20-03-39.jpg

:rotfl: :rotfl: :rotfl: :rotfl:

mikael84
29-10-2020, 01:06
la densità media è paragonabile agli 8nm, dato che in N21 c'è una cache molto densa ;-)

Non abbiamo la controprova ovviamente, Ampere 7nm HPC è 65mt, Samsung 8nm arriva a 64max.
Cmq si, Ampere 8nm sta a 44mt, navi 21, dovrebbe stare a 54 su un 505 o 49 su un 540.
Le dimensioni del die non le hanno mostrate, o almeno non le ho viste.:)

Free Gordon
29-10-2020, 01:23
https://videocardz.com/newz/amd-ray-accelerator-appear-to-be-slower-than-nvidia-rt-core-in-this-dxr-ray-tracing-benchmark
AMD Ray Accelerator risulta essere più lento di NVIDIA RT Core in questo benchmark DXR (Ray Tracing).In quel test la 3090 presa come riferimento è il 59% piu' veloce della 6800XT. La 3080 registra un + 33% sempre sulla XT.
E' solo un test ma il divario è importante.

Un bench con cui potremmo anche pulirci le natiche per quanto ne sappiamo oggi... :asd:

NAP.
29-10-2020, 01:45
Avete visto come sono stati bravi a sbandierare presunti numeretti e barrette colorate? Ecco fosse stato per il raytracing adesso tra quelle barrette c'erano Control, metro exodus, death stranding etc. Invece non c'erano, un motivo c'è

Ryo Hazuki
29-10-2020, 02:00
Complotto

LentapoLenta
29-10-2020, 05:41
Diciamo che videocardz è serio, ma va comunque preso con le pinse, e poi è solo UN test. A ogni modo amd NON ci ha fatto vedere che fanno in RT...

ma, alla luce di cio' (prendendo per buono) la 6800 quanto performerebbe? Mah...sempre più perplesso...



:stordita:

Yum yum!!

https://it.wikipedia.org/wiki/Pinsa

Hadar
29-10-2020, 05:56
https://twitter.com/_rogame/status/1321576494251020288?s=19

Qua una comparativa con e senza rage mode + smart access, tutto preso dalle slide amd di ieri.
Sono curioso di vedere le recensioni senza rage mode e smart access, in un parco di titoli generale e non pickati a puntino, oltre al raytracing e dlss by amd.
Se devo spendere solo 50€ in meno per avere un ray tracing inferiore e mancanza di una feature come il dlss, non se sia così worth onestamente.

Ripeto, wait for benchmarks.


Edit:

https://twitter.com/patrickschur_/status/1321597146991333376?s=19

Ecco che si ritorna a parlare della toxic


Inviato dal mio Pixel 2 XL utilizzando Tapatalk

smoicol
29-10-2020, 06:05
Infatti trovo assurdo che si conosce la data di vendita e non quella delle review, così per effetto hype tutti ad acquistare al day one, spero che non si facciano attendere, perché la controparte Nvidia ha messo le mani avanti e abbiamo le idee chiare delle prestazioni Ampère.

Cfranco
29-10-2020, 06:41
con 16gb mi ci pulisco il :ciapet: oggi :fagiano:

ora che saranno diventati necessari avrò rivenduto e ricomprato vga 4 volte!

Oggi non c'è nessun gioco che satura 8 GB.

con RT mi ci pulisco il :ciapet: oggi :fagiano:

ora che sarà diventato necessario avrò rivenduto e ricomprato vga 4 volte!

Oggi non c'è nessun gioco che usa RT.

Crysis90
29-10-2020, 06:59
però non vuoi pagare l'equivalente di "tre cene" per la 3080 a quanto sembra, e speri cali (...JJH ha lasciato la chat) al prezzo di due cene virgola qualcosa come la restante plebaglia :O

Io dai cinesi non ci vado per 2 validi motivi:

- per principio
- perchè la cucina italiana non ha eguali nel mondo

Poi ci sei tu, che non si capisce in che "fascia" stai se non che nel tuo limbo personale.

E prima NVidia fail perchè non ha la disponibilità delle schede.
E poi AMD fail perchè adesso è diventata cara.

Tu stai sempre a frignare per tutto, lascia questo forum e trova la pace dei sensi. :asd: :asd:

600/650 euro per una 3080 rappresentano il best-buy di questa gen.
Abbi fede e vedrai che verso la fine di Novembre qualcuno che la vende usata lo trovi.

RoUge.boh
29-10-2020, 07:10
Non so se già postata:

https://i.redd.it/zyzg46064wv51.png
è sempre più piccolina di una 3080 :D

Thricome82
29-10-2020, 07:14
Figa è sempre così:
1- AMD esce con la fascia medio bassa: "ehhh fail perchè non ha puntato alla fascia alta"...
2- AMD esce con la fascia alta: "eehhh fail perchè la fascia alta costa solo 50€ in meno di Nvidia e non ha fatto uscire la fascia bassa"

Fate pace con il cervello va...

sertopica
29-10-2020, 07:18
Ma infatti. Finalmente sono uscite delle ottime schede, c'e' solo da essere contenti. Fra l'altro trovo davvero interessante questa nuova funzione che rende interconnesse cpu e gpu. In pratica vogliono far lavorare il pc come una console.

Predator_1982
29-10-2020, 07:18
...ed invece la 6900xt ha fatto cambiare colore dal verde al verdello!! :read: :D :sofico:


sinceramente la situazione non è proprio questa. Lasciando in cantina fanboysmi hype, adesso abbiamo schede che grossomodo in raster si equivalgono (e tanto di cappello ad AMD per il lavoro fatto) ma con la concreta possibilità che in RT si abbia un netto vantaggio delle soluzioni Nvidia.

Anche in termini di consumi siamo li, non grido al miracolo. AMD ha un pp migliore e lo ha sfruttato a dovere, spingendo tantissimo sul clock ma portandosi quasi agli stessi consumi della controparte.

Se Nvidia dovesse fare in futuro un refresh di Ampere su nuovo nodo produttivo si porterebbe facilmente avanti anche in raster, mi sembra ovvio.

Ludus
29-10-2020, 07:20
Avete visto come sono stati bravi a sbandierare presunti numeretti e barrette colorate? Ecco fosse stato per il raytracing adesso tra quelle barrette c'erano Control, metro exodus, death stranding etc. Invece non c'erano, un motivo c'è

Forse perché quei giochi implementano il solo raytracing di nvidia e non lo standard previsto dalle dx12 ultimate ?

fraussantin
29-10-2020, 07:20
Figa è sempre così:

1- AMD esce con la fascia medio bassa: "ehhh fail perchè non ha puntato alla fascia alta"...

2- AMD esce con la fascia alta: "eehhh fail perchè la fascia alta costa solo 50€ in meno di Nvidia e non ha fatto uscire la fascia bassa"



Fate pace con il cervello va...Scusa , ma fra le 2 cose è più un idiozia questa.

Cioè la fascia alta è importante ,per immagine e per tutto il resto , ma se non mi copri quella dove di solito vende di più ...

Considerato anche che molti enthusiast hanno un monitor gsync e che prob compreranno lo stesso la 3090.

Io un refrash in rdna2 2 della 5700xt me lo sarei aspettato

Ludus
29-10-2020, 07:23
sinceramente la situazione non è proprio questa. Lasciando in cantina fanboysmi hype, adesso abbiamo schede che grossomodo in raster si equivalgono (e tanto di cappello ad AMD per il lavoro fatto) ma con la concreta possibilità che in RT si abbia un netto vantaggio delle soluzioni Nvidia.

Anche in termini di consumi siamo li, non grido al miracolo. AMD ha un pp migliore e lo ha sfruttato a dovere, spingendo tantissimo sul clock ma portandosi quasi agli stessi consumi della controparte.

Se Nvidia dovesse fare in futuro un refresh di Ampere su nuovo nodo produttivo si porterebbe facilmente avanti anche in raster, mi sembra ovvio.
Il problema è che le schede verdi non si trovano in commercio e non si troveranno per altri 4/5 mesi almeno.

Ad oggi se voglio giocare trovo solo la serie 2xxx praticamente in commercio, se amd riesce a mettere le schede sugli scaffali ha vinto...

Predator_1982
29-10-2020, 07:25
Il problema è che le schede verdi non si trovano in commercio e non si troveranno per altri 4/5 mesi almeno.

Ad oggi se voglio giocare trovo solo la serie 2xxx praticamente in commercio, se amd riesce a mettere le schede sugli scaffali ha vinto...

Si chiaro, non parlavo delle disponibilità...anche se, fino a prova contraria, non sappiamo ancora quanto lo saranno anche le schede AMD. Il periodo contingente è triste per tutti.

Piedone1113
29-10-2020, 07:26
sinceramente la situazione non è proprio questa. Lasciando in cantina fanboysmi hype, adesso abbiamo schede che grossomodo in raster si equivalgono (e tanto di cappello ad AMD per il lavoro fatto) ma con la concreta possibilità che in RT si abbia un netto vantaggio delle soluzioni Nvidia.

Anche in termini di consumi siamo li, non grido al miracolo. AMD ha un pp migliore e lo ha sfruttato a dovere, spingendo tantissimo sul clock ma portandosi quasi agli stessi consumi della controparte.

Se Nvidia dovesse fare in futuro un refresh di Ampere su nuovo nodo produttivo si porterebbe facilmente avanti anche in raster, mi sembra ovvio.


Con i se non si va lontano, perchè se nvidia potrebbe fare un refresh sui 7nm amd potrebbe farlo sui 5nm ( con gli slot di produzione gia prenotati).
La verità è che RNDA2 è un'architettura bilanciata ma allo stesso tempo votata al risparmio.
Ci sono molti punti dove si possono migliorare, e succederà esattamante come con ryzen.
In casa nvidia invece non so cosa pensare.
Chip costosi e alti consumi, con rt core da sviluppare:
Servirebbe una nuova architettura, ma non credo la si vedrà alla prossima gen, ma forse nemmeno tra 2 gen

Predator_1982
29-10-2020, 07:27
Forse perché quei giochi implementano il solo raytracing di nvidia e non lo standard previsto dalle dx12 ultimate ?

il RT di Nvidia poggia già su API DX...chi lo dice che sia proprietario?

Predator_1982
29-10-2020, 07:32
Con i se non si va lontano, perchè se nvidia potrebbe fare un refresh sui 7nm amd potrebbe farlo sui 5nm ( con gli slot di produzione gia prenotati).
La verità è che RNDA2 è un'architettura bilanciata ma allo stesso tempo votata al risparmio.
Ci sono molti punti dove si possono migliorare, e succederà esattamante come con ryzen.
In casa nvidia invece non so cosa pensare.
Chip costosi e alti consumi, con rt core da sviluppare:
Servirebbe una nuova architettura, ma non credo la si vedrà alla prossima gen, ma forse nemmeno tra 2 gen

Piedone, resta comunque da valutare che l'assenza di una tecnologia simil DLSS (che non è FidelityFX per inciso..) e che da, laddove previsto adesso e su tutti i giochi con TAA in futuro, un boost non raggiungibile ne con il clock nel con le ottimizzazioni drivers.

Che RDNA2 sia votata al risparmio non sono convinto, i consumi di una 6800XT differiscono nella teoria di 20 W da quelli di una 3080 (che ha un pp scabroso a dir poco), a fronte di prestazioni molto vicine non ti nego che una 50 di watt in meno (come minimo) me li sarei aspettati.

Predator_1982
29-10-2020, 07:34
Con i se non si va lontano, perchè se nvidia potrebbe fare un refresh sui 7nm amd potrebbe farlo sui 5nm ( con gli slot di produzione gia prenotati).


i 5nm credo saranno prerogativa di RDNA 3. Sino ad allora penso che anche Nvidia ormai si sarà affidata a quel pp con Hopper, per lo meno per alcune sezioni della GPU dato che, presumo, utilizzeranno una architettura MCM

Credo che, sia per Nvidia che per AMD queste siano generazioni di transizione verso le prossime architetture che, son convinto, faranno il botto. La cosa davvero buona è che finalmente è tornata un minimo di concorrenza.

Ludus
29-10-2020, 07:36
il RT di Nvidia poggia già su API DX...chi lo dice che sia proprietario?

Nvidia ha implementato delle api per il SUO raytracing, prima ancora che ci fosse quello più standard implementato delle dx12ultimate.

Cfranco
29-10-2020, 07:37
il RT di Nvidia poggia già su API DX...chi lo dice che sia proprietario?

RTX è proprietario ;)
https://www.nvidia.com/it-it/geforce/rtx/

Attualmente non ci sono giochi che supportino RT non nVidia

fraussantin
29-10-2020, 07:37
Con i se non si va lontano, perchè se nvidia potrebbe fare un refresh sui 7nm amd potrebbe farlo sui 5nm ( con gli slot di produzione gia prenotati).

La verità è che RNDA2 è un'architettura bilanciata ma allo stesso tempo votata al risparmio.

Ci sono molti punti dove si possono migliorare, e succederà esattamante come con ryzen.

In casa nvidia invece non so cosa pensare.

Chip costosi e alti consumi, con rt core da sviluppare:

Servirebbe una nuova architettura, ma non credo la si vedrà alla prossima gen, ma forse nemmeno tra 2 gen

Oddio non è che rdna2 scaldi poco è .. 300W..

Se ampere ( tanto per rimanere nei se :asd:) lo porti a 7nm per il quale è progettato e lo fai boostare perbene sali un bel po' è..( che poi con certe cuwtom già boost già 2.2 è più ora)


Il problema è il costo ...

Sono delle patacche enormi ..

Predator_1982
29-10-2020, 07:38
Nvidia ha implementato delle api per il SUO raytracing, prima ancora che ci fosse quello più standard implementato delle dx12ultimate.

mi sembra molto strano, ci sono fonti in merito? Nvidia ha sempre parlato di DXR

Predator_1982
29-10-2020, 07:39
RTX è proprietario ;)
https://www.nvidia.com/it-it/geforce/rtx/

Attualmente non ci sono giochi che supportino RT non nVidia

ok ,ricordavo male allora ma, all'atto pratico, credo cambi poco in termini di prestazioni finali.

Ludus
29-10-2020, 07:44
ok ,ricordavo male allora ma, all'atto pratico, credo cambi poco in termini di prestazioni finali.

Ma che vuol dire che cambia poco a livello prestazionale? Come lo misuri se sono api proprietarie?

L’unico ambito di confronto saranno giochi dx12 ultimate

Blee
29-10-2020, 07:48
con RT mi ci pulisco il :ciapet: oggi :fagiano:

ora che sarà diventato necessario avrò rivenduto e ricomprato vga 4 volte!

Oggi non c'è nessun gioco che usa RT.

Si, ma chi se la vuole tenere per 3 anni si e come.

Cfranco
29-10-2020, 07:51
Si, ma chi se la vuole tenere per 3 anni si e come.

fra 3 anni 100% di ram in più saranno molto più utili di un 20% di RT in più

Blee
29-10-2020, 07:58
Ad ogni modo io vedo le prestazioni nude e crude, senza smart memory e secondo me , per il prezzo che hanno voluto fissare non sono molto competitive. Senza queste ottimizzazioni la 6800 sta con la 2080TI e la 6800xt è altalenante con la 3080, il tutto senza RT , tecnologia che può o non può interessare, ma non va ignorata alla luce delle concorrenti. Il punto è che avrebbero dovuto presentare le GPU e non LE GPU+CPU, se non in modo marginale. Poi vedremo i bench definitivi all'uscita, ma io sono davvero indeciso viste le prestazioni e il costo. Sono sicuro che un ulteriore 50 in meno avrebbe facilitato la scelta in me e in molti altri. Parlo da possessore di un PC AMD

Mallardo
29-10-2020, 07:59
Io non credo che abbiano prezzato a caso queste gpu, visti i prezzi non di certo bassi, pensano di poter competere con la proposta di nvidia un po' su tutti i fronti. Specialmente la 6800, stando a +80$ dalla 3070 se la dovrebbe mangiare. L'altra possibilità è che sappiano che le disponibilità delle schede verdi non ci sarà ancora per molto tempo, in qual caso possono sparare il prezzo che vogliono, tanto non c'è concorrenza.

Ale55andr0
29-10-2020, 07:59
Ad ogni modo io vedo le prestazioni nude e crude, senza smart memory e secondo me , per il prezzo che hanno voluto fissare non sono molto competitive. Senza queste ottimizzazioni la 6800 sta con la 2080TI e la 6800xt è altalenante con la 3080, il tutto senza RT , tecnologia che può o non può interessare, ma non va ignorata alla luce delle concorrenti. Il punto è che avrebbero dovuto presentare le GPU e non LE GPU+CPU, se non in modo marginale. Poi vedremo i bench definitivi all'uscita, ma io sono davvero indeciso viste le prestazioni e il costo. Sono sicuro che un ulteriore 50 in meno avrebbe facilitato la scelta in me e in molti altri.

che stai dicendo? l'RT c'è eccome. Per il resto concordo

Predator_1982
29-10-2020, 08:01
Ma che vuol dire che cambia poco a livello prestazionale? Come lo misuri se sono api proprietarie?

L’unico ambito di confronto saranno giochi dx12 ultimate

Non lo misuro, ma dubito che poggiarsi sul DXR Microsoft penalizzerà più di tanto le prestazioni RT. Sarà sufficiente un 3dmark (che se non erro usa già le api dxr di microsoft) per capire le reali prestazioni di BigNavi rispetto ad Ampere in tale ambito.

Resta il fatto che, se avesse avuto prestazioni paragonabili anche in tal senso (non nei giochi per ovvi motivi), nelle slide di ieri lo avrebbero messo in netta evidenza, anche solo in termini di Gigarays per avere un metro di paragone..il nulla.

Può essere anche che mi sbagli ovviamente e che al primo test ci sorprenderà anche in tale ambito. Sinceramente guarda, lo scrivo con un po' di delusione credimi...avendo un sistema AMD con x570 e con tutta l'intenzione di upgradare al 5900XT non appena disponibile, non mi sarebbe dispiaciuta l'idea di sostituire la 3080 con la 6800XT se non fosse stato per questo amletico dubbio...per me, aimè, RT è importante.

Blee
29-10-2020, 08:03
che stai dicendo? l'RT c'è eccome. Per il resto concordo

Non sto dicendo che non c'è , scusate forse mi sono spiegato male. Dico che le prestazioni di confronto con le 3000 presentate , non menzionano il RT

OvErClOck82
29-10-2020, 08:04
Figa è sempre così:

1- AMD esce con la fascia medio bassa: "ehhh fail perchè non ha puntato alla fascia alta"...

2- AMD esce con la fascia alta: "eehhh fail perchè la fascia alta costa solo 50€ in meno di Nvidia e non ha fatto uscire la fascia bassa"



Fate pace con il cervello va...Quotone. Ma tanto è una battaglia persa

Inviato dal mio Redmi Note 8 Pro utilizzando Tapatalk

Mallardo
29-10-2020, 08:04
Non lo misuro, ma dubito che poggiarsi sul DXR Microsoft penalizzerà più di tanto le prestazioni RT. Sarà sufficiente un 3dmark (che se non erro usa già le api dxr di microsoft) per capire le reali prestazioni di BigNavi rispetto ad Ampere in tale ambito.

Resta il fatto che, se avesse avuto prestazioni paragonabili anche in tal senso, nelle slide di ieri lo avrebbero messo in netta evidenza.

Non ci resta che aspettare i giochi e le reviews, tanto non c'é molto da comprare al momento. Con i bench alla mano ognuno potrà fare le proprie valutazioni.

ghiltanas
29-10-2020, 08:05
per me comunque se nè riparlerà a marzo probabilmente, aspetto le varie 6700, sperando riescano a tenere alti fps a 3440*1440

goma76
29-10-2020, 08:06
Non sto dicendo che non c'è , scusate forse mi sono spiegato male. Dico che le prestazioni di confronto con le 3000 presentate , non menzionano il RT
E per una scheda di fascia alta è una mancanza importante, che se ne dicano...

Ludus
29-10-2020, 08:07
Non lo misuro, ma dubito che poggiarsi sul DXR Microsoft penalizzerà più di tanto le prestazioni RT. Sarà sufficiente un 3dmark (che se non erro usa già le api dxr di microsoft) per capire le reali prestazioni di BigNavi rispetto ad Ampere in tale ambito.

Resta il fatto che, se avesse avuto prestazioni paragonabili anche in tal senso (non nei giochi per ovvi motivi), nelle slide di ieri lo avrebbero messo in netta evidenza, anche solo in termini di Gigarays per avere un metro di paragone..il nulla. Può essere anche che mi sbagli ovviamente e che al primo test ci sorprenderà anche in tale ambito.

Ma

Port royale si può usare per paragone, visto che si basa su api microsoft. I giochi che hai citato te hanno il raytracing nvidia...

Ludus
29-10-2020, 08:08
E per una scheda di fascia alta è una mancanza importante, che se ne dicano...

Ma se devono uscire i giochi dx12ultimate :rolleyes: dove sarebbe la mancanza

Raven
29-10-2020, 08:08
Non sto dicendo che non c'è , scusate forse mi sono spiegato male. Dico che le prestazioni di confronto con le 3000 presentate , non menzionano il RT

ovvio... non possono manco volendo, visto cher l'attuale RT dei giochi è quello "proprietario" di nvidia e non il DXR che ancora non c'è in nessun gioco... come facevano a testarlo?! :stordita:

Predator_1982
29-10-2020, 08:10
ovvio... non possono manco volendo, visto cher l'attuale RT dei giochi è quello "proprietario" di nvidia e non il dxrt che ancora non c'è in nessun gioco... come facevano a testarlo?! :stordita:

un 3dmark port royal? Un numeretto che indicasse la misura in gigarays, una tech demo? Anche Nvidia quando presentò Turing non aveva modo di mostrar nulla. Se fosse stato un dato significativo avrebbero trovato un modo per dichiararlo e pubblicizzarlo.

Raven
29-10-2020, 08:10
Ma se devono uscire i giochi dx12ultimate :rolleyes: dove sarebbe la mancanza

Lascia stare, vah... eppure non mi sembra un concetto di difficile comprensione... :fagiano:

OrazioOC
29-10-2020, 08:12
https://videocardz.com/newz/amd-is-working-on-ai-powered-supersampling-nvidia-dlss-alternative

Blee
29-10-2020, 08:13
Non ci resta che aspettare i giochi e le reviews, tanto non c'é molto da comprare al momento. Con i bench alla mano ognuno potrà fare le proprie valutazioni.

-chiaramente, anche se dipende anche dal monitor che uno ha secondo me. Ad esempio a me on serve una scheda che faccia più di 60 in 4k. Quindi probabilmente andrei su una 6800 , oppure su una 3080

OvErClOck82
29-10-2020, 08:14
Lascia stare, vah... eppure non mi sembra un concetto di difficile comprensione... :fagiano:Io sono basito, forse alla 35esima volta che verrà ripetuto il concetto qualcuno lo capirà :asd:



Inviato dal mio Redmi Note 8 Pro utilizzando Tapatalk

leoneazzurro
29-10-2020, 08:15
Più che le prestazioni e le librerie, il problema del RT sono le ottimizzazioni: il modo in cui "lavorano" RDNA2 e Ampere è diverso, e il sistema di memoria è pure profondamente diverso. Se da un lato probabilmente come "throughput teorico" Ampere è avanti, come sottosistema memoria la situazione è opposta, con Navi21 con la sua grande cache potrebbe avere dei vantaggi in determinate situazioni di calcolo reale... un po' come fare i paragoni tra i TeraFLOPs delle due GPU ora come ora.
Piuttosto questa sarà tristemente la prossima frontiera del "tale gioco gira meglio su" anche in RT: port da console probabilmente gireranno meglio su AMD, per esclusive su PC si potrebbe avere il contrario, senza contare i giochi sponsorizzati dove probabilmente avremo, per la parte Nvidia, Ray Tracing utilizzato anche magari oltre ogni ragionevole punto (e chi si ricorda del "mare tessellato" di un gioco anni fa, mi pare fosse Crysis)

Predator_1982
29-10-2020, 08:19
Più che le prestazioni e le librerie, il problema del RT sono le ottimizzazioni: il modo in cui "lavorano" RDNA2 e Ampere è diverso, e il sistema di memoria è pure profondamente diverso. Se da un lato probabilmente come "throughput teorico" Ampere è avanti, come sottosistema memoria la situazione è opposta, con Navi21 con la sua grande cache potrebbe avere dei vantaggi in determinate situazioni di calcolo reale... un po' come fare i paragoni tra i TeraFLOPs delle due GPU ora come ora.

vero, come del resto è sempre stato...ma alla fine ciò che conta è il risultato finale ovviamente.

DjLode
29-10-2020, 08:22
Più che le prestazioni e le librerie, il problema del RT sono le ottimizzazioni: il modo in cui "lavorano" RDNA2 e Ampere è diverso, e il sistema di memoria è pure profondamente diverso. Se da un lato probabilmente come "throughput teorico" Ampere è avanti, come sottosistema memoria la situazione è opposta, con Navi21 con la sua grande cache potrebbe avere dei vantaggi in determinate situazioni di calcolo reale... un po' come fare i paragoni tra i TeraFLOPs delle due GPU ora come ora.
Piuttosto questa sarà tristemente la prossima frontiera del "tale gioco gira meglio su" anche in RT: port da console probabilmente gireranno meglio su AMD, per esclusive su PC si potrebbe avere il contrario, senza contare i giochi sponsorizzati dove probabilmente avremo, per la parte Nvidia, Ray Tracing il più possibile diffuso.

Ammetto di essere un pò fuori dal giro e quindi magari dico una castroneria. Se non ricordo male, anche se con implementazioni diverse, sia Nvidia che Amd supportano il ray tracing delle DX, quindi un gioco sviluppato aderendo a tali specifiche (al netto di ottimizzazioni che possono farlo rendere meglio/peggio su una o l'altra) dovrebbe essere "ugualmente funzionante".
Sbaglio io?

nessuno29
29-10-2020, 08:28
Questo tread ad ogni uscita di nuove gpu AMD è sempre la fiera degli eterni insoddisfatti!

C'è quello che aveva i soldi pronti ma ora non più per il motivo x
Quello che voleva un +20% sulla 3080 a 399 euro
Quello che se devo spendere solo 50 euro in meno a sto punto prendo Nvidia
Quello che voleva la fascia bassa ma l'anno prima quella alta
Quello che voleva la fascia alta lo scorso anno ma ora la media
Il complottaro
E via discorrendo

Io vedo una AMD che è passata con RDNA2 dal rivaleggiare contro una 2070s, al raggiungere con la 6900 xt la 3090 (una scheda da 1,5k euro) me cojoni, tutto condito da feature interessanti come antilag, il RT ( che APPENA ci saranno giochi in dxr vedremo all'opera), il fidelity fx e soprattutto lo smart access memory che se supportato è geniale (praticamente una console uber). A chi piacciono le compra a chi no c'è la 3070 a 519 euro ma quanti piagnistei....

Raven
29-10-2020, 08:29
Ammetto di essere un pò fuori dal giro e quindi magari dico una castroneria. Se non ricordo male, anche se con implementazioni diverse, sia Nvidia che Amd supportano il ray tracing delle DX, quindi un gioco sviluppato aderendo a tali specifiche (al netto di ottimizzazioni che possono farlo rendere meglio/peggio su una o l'altra) dovrebbe essere "ugualmente funzionante".
Sbaglio io?

E' corretto! :)

Infatti secondo me succederà quello che successe eoni fa con 3dfx e le librerie glide vs D3D... le schede 3dfx ovviamente andavano anche in D3D (seppur non a livello delle glide), ma lo standard divenne de facto il D3D... ;)

ninja750
29-10-2020, 08:31
Chiudete internet :O :O

Se leggo ancora che una 6800 liscia avrebbe dovuto avere 10 o 12gb prendo mano alla pistola

prendila pure, ma intendiamoci, non è la questione dei 10 o 12 o 16 la questione E' IL PREZZO va benissimo 16 ma con un prezzo ALMENO alla pari della concorrenza, sopra di 80$ rimarrà sullo scaffale e diventerà magicamente quella più disponibile sul mercato perchè non la vorrà nessuno, anzi forse la compreranno quelli che non troveranno la XT o la 3070


non penso sia il prezzo della ram ad incidere, ma se con 8 o 12 GB riuscivano a tenere il prezzo di 100$ più basso sarebbe stato molto meglio.
E' l'unica versione che costa PIU' della controparte nvidia. wtf.

sicuramente è alto per la ram. se non è alto per la ram e l'hanno messa a quel prezzo per controbattere la 3070ti sono doppiamente pirloni perchè a sto punto la 3070 liscia non avrà mai concorrenza nella fascia di prezzo fondamentale

La butto la': non e' che hanno sparato alto sulla 6800 liscia cosi' dopodomani rispondono alla risposta di giacchetta nera di domani :asd:

vadiamo oggi.. qui lo dico qui lo nego, se da oggi sono disponibili le 3070 lisce a 519 la prendo


problem is: giacchetta con la 3070 a 499 comodi comodi non ha mezzo motivo per abbassarla di prezzo perchè costa già ben 80 carte meno.

esattamente, la lascia a 499 e sarà di fatto senza concorrenza

Ma quando dici batte quasi ovunque ti riferisci alle slide messe su da Lisa o hai altre fonti? Chiedo per un amico. :fagiano:

ovviamente alle fonti dell'oste così come guardavamo le slide nvidia alla presentazione di ampere con minecraft e fortnite rtx

Comunque ho riguardato le slide e hanno tutte le ottimizzazioni smart access Memory e fate mode, per cui i valori reali sono al ribasso, questo non pregiudica nulla, siamo solo alla presentazione.

se senza quello la liscia si sovrappone alla 3070 è l'ecatombe finale :asd:

Ce ne + di uno... e molto sopra gli 8gb...anche 14 o 15gb
Vedi Star citizen, e l' utenza non è proprio marginale.
Ma ce ne sono altri che con filtri e risoluzioni alte 8gb li usano come stipetto...
Poi ram video ok ma meglio abbondare sempre. Io sotto gli 11 starei in ansia.

bigger is better, ok. ma uan volta saturata la ram il gioco diventa ingiocabile o si perdono tipo 10fps?

No ma cambiare una vga ad ogni release non è necessario, soprattutto se non si sa fare la formica, e poi ci si lamenta.

sto facendo la formica da 2 anni e sto ancora con una 580, con 500€ (e sono già sopra budget) non hanno presentato nulla

https://videocardz.com/newz/amd-ray-accelerator-appear-to-be-slower-than-nvidia-rt-core-in-this-dxr-ray-tracing-benchmark

https://videocardz.com/newz/amd-ray-accelerator-appear-to-be-slower-than-nvidia-rt-core-in-this-dxr-ray-tracing-benchmark

AMD Ray Accelerator risulta essere più lento di NVIDIA RT Core in questo benchmark DXR (Ray Tracing).In quel test la 3090 presa come riferimento è il 59% piu' veloce della 6800XT. La 3080 registra un + 33% sempre sulla XT.
E' solo un test ma il divario è importante.

altro punto a sfavore.. ma aspettiamo le review per questo

Io non credo che abbiano prezzato a caso queste gpu, visti i prezzi non di certo bassi, pensano di poter competere con la proposta di nvidia un po' su tutti i fronti. Specialmente la 6800, stando a +80$ dalla 3070 se la dovrebbe mangiare. L'altra possibilità è che sappiano che le disponibilità delle schede verdi non ci sarà ancora per molto tempo, in qual caso possono sparare il prezzo che vogliono, tanto non c'è concorrenza.

ok, beneficio del dubbio

da oggi vediamo le disponibilità delle 3070

Ryo Hazuki
29-10-2020, 08:31
Mi piace vedere le scusette bbk di rt e dlss per non accettare il fatto che Amd sia superiore ad Nvidia :asd:

ghiltanas
29-10-2020, 08:35
visti i bus da 256 bit per le 6800 e 6900, è plausibile che le 6700 siano a 192bit con tagli di memoria da 12 giga?

mircocatta
29-10-2020, 08:37
https://videocardz.com/newz/amd-is-working-on-ai-powered-supersampling-nvidia-dlss-alternative

ottimo

Blee
29-10-2020, 08:38
....ma questi sfoghi a cosa servono? Non credo che Nvidia o AMD vi diano da mangiare.. Ognuno compra ciò che soddisfa al meglio le proprie esigenze.

Il fanboysmo e lo sventolio di bandiere in tale ambito non lo capirò mai, almeno ché uno non sia dipendente di queste aziende e cerca di screditare la controparte (squallido...ma ci può stare)

Infatti io pomeriggio potrei anche fare la mattata e provare a prendere un FE 3070, provarla e poi capire se rivenderla o meno, chiaramente la prezzo delle FE

FroZen
29-10-2020, 08:39
visti i bus da 256 bit per le 6800 e 6900, è plausibile che le 6700 siano a 192bit con tagli di memoria da 12 giga?

si

ed è per quello che quando leggo 10 o 12gb su un 256 bit mi prudono le mani..... non siamo su yahoo answers, o almeno pensavo.....

raga tranquilli, le schede ampere e navi2 saranno sul mercato per i prossimi DUE anni, DUEEE ANNIIIII..... non hanno mai presentato tutto insieme...non capisco sti conpulsivismi ..... a meno che siate senza VGA e bhe indovinate di chi è la colpa? :fagiano:

p.s: i risultati di quel bench raytracing citato nelle news è dell'8 Agosto, poco significativo

Ryo Hazuki
29-10-2020, 08:40
....ma questi sfoghi a cosa servono? Non credo che Nvidia o AMD vi diano da mangiare.. Ognuno compra ciò che soddisfa al meglio le proprie esigenze.

Il fanboysmo e lo sventolio di bandiere in tale ambito non lo capirò mai, almeno ché uno non sia dipendente di queste aziende e cerca di screditare la controparte (squallido...ma ci può stare)

Dopo anni di dominio e fanboysmo verde,è più che giusto umiliarli allo stesso modo.

Il mangiare che c'entra? Si parla di hardware,non di valori umani

Predator_1982
29-10-2020, 08:40
Infatti io pomeriggio potrei anche fare la mattata e provare a prendere un FE 3070, provarla e poi capire se rivenderla o meno, chiaramente la prezzo delle FE

e mi sembra pure giusto, io per primo (e non lo nego) sarei pronto a rivendere la 3080 per andare di 6800XT se mi convicesse al massimo...tra l'altro godendo anche delle ottimizzazioni specifiche per un sistema full AMD.

Inmotion
29-10-2020, 08:42
Ma davvero speravate in una scheda da parte di AMD che andasse più di nvidia e costasse moooolto meno?
Un conto è essere concorrenziali e un'altro essere fessi, le schede le progettano e producono per fare soldi non beneficenza alla fine la 6900xt costa 500$ meno e va uguale alla 3090 e la 6800 va abbondantemente più di una 3070, se è stata prezzata a +70$ sicuramente sanno il fatto loro e a questo giro se esce una 3070 super non credo venga prezzata uguale ma forse qualcosa in più.

Predator_1982
29-10-2020, 08:43
Dopo anni di dominio e fanboysmo verde,è più che giusto umiliarli allo stesso modo.

Il mangiare che c'entra? Si parla di hardware,non di valori umani

ma chi devi umiliare? Io ho comprato per anni Nvidia ma mica mi sento umiliato da un commento del genere...umiliare gli ingegneri Nvidia? il CEO? Mi sembra ridicolo...che siano dell'una o dell'altra azienda parliamo di persone che in un verso o nell'altro stanno creando il futuro...io sarei più umile.

ghiltanas
29-10-2020, 08:43
si

ed è per quello che quando leggo 10 o 12gb su un 256 bit mi prudono le mani..... non siamo su yahoo answers, o almeno pensavo.....

raga tranquilli, le schede ampere e navi2 saranno sul mercato per i prossimi DUE anni, DUEEE ANNIIIII..... non hanno mai presentato tutto insieme...non capisco sti conpulsivismi ..... a meno che siate senza VGA e bhe indovinate di chi è la colpa? :fagiano:

p.s: i risultati di quel bench raytracing citato nelle news è dell'8 Agosto, poco significativo

i 16 giga sono una manna dal cielo e si lamentano? :asd:
in ottica longevità è uno dei dati + importanti.

non sai quanto sono contento di aver speso qualche euro in + a suo tempo con la 580 e aver preso la 8 giga invece della 4

leoneazzurro
29-10-2020, 08:44
Ammetto di essere un pò fuori dal giro e quindi magari dico una castroneria. Se non ricordo male, anche se con implementazioni diverse, sia Nvidia che Amd supportano il ray tracing delle DX, quindi un gioco sviluppato aderendo a tali specifiche (al netto di ottimizzazioni che possono farlo rendere meglio/peggio su una o l'altra) dovrebbe essere "ugualmente funzionante".
Sbaglio io?

Non sbagli, in teoria. In pratica, dipende da cosa ci fai e da come forzi il calcolo, perché magari uno stesso effetto lo puoi ottenere in maniera diversa e/o con un diverso pattern di accesso ai dati. Non so se ricordi ad esempio quando uscì 3Dmark Timespy, ci fu un bel po' di discussione per il modo in cui implementa gli Asyncronous shaders: in pratica utilizza la metodologia pre-emptive (tutti gli shader eseguono un pezzo del lavoro1, poi passano al lavoro2) invece del parallel (Parte degli shader eseguono il lavoro1, parte il lavoro2) - e la metodologia 1 girava meglio su Nvidia, la seconda su AMD...
Della serie: sono aumentate le complessità dei calcoli e quindi anche degli algoritmi che li eseguono, che non girano quasi mai nello stesso modo tra le varie architetture. Ad esempio, un programmatore "pigro" potrebbe forzare sempre l'accesso ai dati non in L0-L1 verso la memoria esterna. Questo approccio girerebbe bene su Nvidia ma non su AMD, in quel caso serve che il driver "intercetti la chiamata" e faccia in modo da avere il dato disponibile nella cache L3... Insomma, le GPU stanno diventando sempre più come le CPU con annesse diversità di risposta ai vari workload.

Blee
29-10-2020, 08:44
e mi sembra pure giusto, io per primo (e non lo nego) sarei pronto a rivendere la 3080 per andare di 6800XT se mi convicesse al massimo...tra l'altro godendo anche delle ottimizzazioni specifiche per un sistema full AMD.

Non contando che ho una nitro 5700 xt che va benone in 1440p, potrei anche optare per avere sia AMD per 1440p che Nvidia per 4k.
Non ho un Ryzen 5000 e non prevedo l'acquisto, ho acquistato 4 mesi fa un 3700x

Ryo Hazuki
29-10-2020, 08:44
Ma davvero speravate in una scheda da parte di AMD che andasse più di nvidia e costasse moooolto meno?
Un conto è essere concorrenziali e un'altro essere fessi, le schede le progettano e producono per fare soldi non beneficenza alla fine la 6900xt costa 500$ meno e va uguale alla 3090 e la 6800 va abbondantemente più di una 3070, se è stata prezzata a +70$ sicuramente sanno il fatto loro e a questo giro se esce una 3070 super non credo venga prezzata uguale ma forse qualcosa in più.

Il realtà ti contraddici da solo :asd: la 6900 va leggermente più della 3900 con 500euro in meno

Predator_1982
29-10-2020, 08:45
i 16 giga sono una manna dal cielo e si lamentano? :asd:
in ottica longevità è uno dei dati + importanti.



poco importante nella fascia alta per chi cambia scheda ad ogni gen...me compreso. Se invece le si mantiene per anni allora il tuo ragionamento ha senso. Ma non baserei la scelta solo sul quantitativo di memoria.

Ryo Hazuki
29-10-2020, 08:47
ma chi devi umiliare? Io ho comprato per anni Nvidia ma mica mi sento umiliato da un commento del genere...umiliare gli ingegneri Nvidia? il CEO? Mi sembra ridicolo...che siano dell'una o dell'altra azienda parliamo di persone che in un verso o nell'altro stanno creando il futuro...io sarei più umile.

Stai prendendo troppo sul serio la questione,parlando addirittura di alimenti. Il suo pèost ha il valore che trova,ma ci sta visto i comportamenti altezzosi negli anni da parte dei verdi :asd: Abbassare le orecchie è dura :asd:

argez
29-10-2020, 08:52
I prezzi di 6800 e 6800xt sono penosi.

mircocatta
29-10-2020, 08:52
poco importante nella fascia alta per chi cambia scheda ad ogni gen...me compreso. Se invece le si mantiene per anni allora il tuo ragionamento ha senso. Ma non baserei la scelta solo sul quantitativo di memoria.

beh perdonami ma credo siano molte più le persone che fanno acquisti lungimiranti che quelle che cambiano ogni 3x2, non siamo tutti inscimmiati da forum (anche se ammetto che, con l'avvento degli youtubers che tartassano di video ad ogni gen, la scimmia in generale è aumentata)

ghiltanas
29-10-2020, 08:53
poco importante nella fascia alta per chi cambia scheda ad ogni gen...me compreso. Se invece le si mantiene per anni allora il tuo ragionamento ha senso. Ma non baserei la scelta solo sul quantitativo di memoria.

solo ovviamente no, ma per me è importante

magic carpet
29-10-2020, 08:54
Buongiorno ragazzi,
sapreste dirmi se le nuove AMD supporteranno il VRR su HDMI?

DjLode
29-10-2020, 08:55
Non sbagli, in teoria. In pratica, dipende da cosa ci fai e da come forzi il calcolo, perché magari uno stesso effetto lo puoi ottenere in maniera diversa e/o con un diverso pattern di accesso ai dati. Non so se ricordi ad esempio quando uscì 3Dmark Timespy, ci fu un bel po' di discussione per il modo in cui implementa gli Asyncronous shaders: in pratica utilizza la metodologia pre-emptive (tutti gli shader eseguono un pezzo del lavoro1, poi passano al lavoro2) invece del parallel (Parte degli shader eseguono il lavoro1, parte il lavoro2) - e la metodologia 1 girava meglio su Nvidia, la seconda su AMD...
Della serie: sono aumentate le complessità dei calcoli e quindi anche degli algoritmi che li eseguono, che non girano quasi mai nello stesso modo tra le varie architetture. Ad esempio, un programmatore "pigro" potrebbe forzare sempre l'accesso ai dati non in L0-L1 verso la memoria esterna. Questo approccio girerebbe bene su Nvidia ma non su AMD, in quel caso serve che il driver "intercetti la chiamata" e faccia in modo da avere il dato disponibile nella cache L3... Insomma, le GPU stanno diventando sempre più come le CPU con annesse diversità di risposta ai vari workload.

Ricordo vagamente la diatriba, così come quello che successe ai tempi dei primi shader programmabili, con le Ati/Amd che dovevano aggiornare i driver per far sì che le chiamate/operazioni fossero ottimizzate/ordinate in un certo modo per rendere meglio.
E' che sono veramente fuori dal giro delle schede discrete da eoni ma ogni tanto leggo perchè mi interessa vedere a che livelli siamo arrivati :)
Presumo che giochi di un certo spessore saranno ancora "Nvidia compliant" per via di accordi commerciali, ma quelli multi piattaforma che si troveranno anche nelle patatine, saranno ottimizzati per le console e probabilmente gireranno bene anche su AMD.
Sono comunque curioso di vedere i benchamrk, sinceramente non pensavo che Amd potesse recuperare lo svantaggio sopratutto nella fascia più alta (fascia che precedentemente ha sempre lasciato scoperto) :)

leoneazzurro
29-10-2020, 09:02
Ricordo vagamente la diatriba, così come quello che successe ai tempi dei primi shader programmabili, con le Ati/Amd che dovevano aggiornare i driver per far sì che le chiamate/operazioni fossero ottimizzate/ordinate in un certo modo per rendere meglio.

O quando Nvidia doveva ridurre la precisione dei calcoli a FP16 perchè la 5800FX lavorava solo in FP16/FP32 e ATI all'epoca utilizzava una "FP24" che girava molto più veloce delle FP32 con qualità (all'epoca) simile alla FP32...
Eh, di "magagne" ne sono venute fuori tante negli anni lol.


Sono comunque curioso di vedere i benchamrk, sinceramente non pensavo che Amd potesse recuperare lo svantaggio sopratutto nella fascia più alta (fascia che precedentemente ha sempre lasciato scoperto) :)

Beh, devo dire che hanno creato un'architettura che sembra molto scalabile e "modulare", vedremo con RDNA3 cosa combineranno.

Gyammy85
29-10-2020, 09:08
Buongiorno ragazzi,
sapreste dirmi se le nuove AMD supporteranno il VRR su HDMI?

Si lo supporta, ora non trovo il link ma lo avevo letto
Hanno pure la porta usb-c per i visori

Predator_1982
29-10-2020, 09:11
beh perdonami ma credo siano molte più le persone che fanno acquisti lungimiranti che quelle che cambiano ogni 3x2, non siamo tutti inscimmiati da forum (anche se ammetto che, con l'avvento degli youtubers che tartassano di video ad ogni gen, la scimmia in generale è aumentata)

:D io ormai acquisto hw dai tempi della S3 trio...faccio specie a se

I video degli youtuber manco li guardo e sono 10 anni che bazzico sul forum di questo sito perchè ho sempre pensato che, il confronto con altri, sia arricchente. Mai mi sognerei di alimentare flame o esaltare una build...mifregacippa

Per me il pc non ha ne colore (se non quello dei dannati led :D ) ne bandiera.

Gyammy85
29-10-2020, 09:13
I prezzi di 6800 e 6800xt sono penosi.

E perché, non puoi pretendere che le diano allo stesso prezzo di una 2070s custom

Vorrei far notare che allo stato attuale a 4k la 6800 in tomb raider va come la 3070 col DLSS attivo, e ha 16 giga, con 60 cu che indicano chiaramente rese alte, non credo si possa pretendere di più
Poi se credete che la 3070 la venderanno esattamente a 519 euro con le 3080 a 900 e le 3090 a 2000...

ghiltanas
29-10-2020, 09:14
Si lo supporta, ora non trovo il link ma lo avevo letto
Hanno pure la porta usb-c per i visori

è indicato anche nella pagina ufficiale:

https://www.amd.com/en/graphics/amd-radeon-rx-6000-series

per la usb-c ottimo, non l'avevo visto

FroZen
29-10-2020, 09:15
Buongiorno ragazzi,
sapreste dirmi se le nuove AMD supporteranno il VRR su HDMI?

E' da sempre supportato sul freesync....va verificato sulle nuove 2.1 ma se andavano sulle vecchie non vedo perchè non dovrebbe andare su quello nuovo visto che le stesse TV ormai lo supportano....

argez
29-10-2020, 09:18
E perché, non puoi pretendere che le diano allo stesso prezzo di una 2070s custom

Vorrei far notare che allo stato attuale a 4k la 6800 in tomb raider va come la 3070 col DLSS attivo, e ha 16 giga, con 60 cu che indicano chiaramente rese alte, non credo si possa pretendere di più
Poi se credete che la 3070 la venderanno esattamente a 519 euro con le 3080 a 900 e le 3090 a 2000...

E allora perchè non hanno fatto lo stesso sulla 6900xt che costa 500-600 dollari meno della controparte? E' amd che insegue e deve recuperare mercato. Adesso hanno le prestazioni ma i prezzi son chiaramente da cartello per non far guerra con nvidia nelle fasce che contano.

Inmotion
29-10-2020, 09:21
Il realtà ti contraddici da solo :asd: la 6900 va leggermente più della 3900 con 500euro in meno

Non ho capito dove mi contraddico da solo ma partendo dal fatto che sono benchmark di parte e che erano con feature che non ha nvidia secondo me, 3090 e 6900xt, sono alla pari in raster poi in rt non si sa ma comunque sono 500€ in meno.

StylezZz`
29-10-2020, 09:22
I prezzi di 6800 e 6800xt sono penosi.

Quoto, credevo che amd fosse dalla parte dei bisognosi e permettesse a tutti di giocare decentemente a prezzi convenienti, e invece è l'ennesima azienda cattiva. Aspetto le schede Intel.

ninja750
29-10-2020, 09:23
I prezzi di 6800 e 6800xt sono penosi.
Quoto, credevo che amd fosse dalla parte dei bisognosi e permettesse a tutti di giocare decentemente, e invece è l'ennesima azienda cattiva. Aspetto le schede Intel.


6800xt mi pare sensato, soprattutto se saranno disponibili a quel prezzo vorrà dire 649$ vs 800+$ a cui stanno "vendendo" oggi le ampere

se *oggi* metteranno disponibili in volumi le 3070, per AMD quella fascia sarà roba morta prima ancora di essere nata

se *oggi* annunciassero la 3070ti con 16gb a 699$, per AMD quella fascia sarà roba morta prima ancora di essere nata^2

goma76
29-10-2020, 09:25
Ma se devono uscire i giochi dx12ultimate :rolleyes: dove sarebbe la mancanza
Si perchè non abbiamo già una serie di giochi in RT da testare, no?

O ci mettiamo a benchare solo i giochi della passata gen? Ricordo che parliamo di fascia alta del mercato

Ale55andr0
29-10-2020, 09:27
esattamente, la lascia a 499 e sarà di fatto senza concorrenza

ma siamo noi quelli che non capiamo :rolleyes:


se senza quello la liscia si sovrappone alla 3070 è l'ecatombe finale :asd:

su drako una tuf custom 3070 stava 549, e parliamo di un'ottima custom e di uno shop non economico...se la 6800 andrà ancora più vicina che no nsopra senza tutte le feature pizzo solo su 5x00x/570x partendo da 570 tasse escluse....no ma siamo sempre noi ad avere torto :rolleyes:


sto facendo la formica da 2 anni e sto ancora con una 580, con 500€ (e sono già sopra budget) non hanno presentato nulla


presente, ma sono un PEZZENTE e non so fare la formichina perchè posso spendere "solo" CINQUECENTO euro di scheda, mi è stato fatto gentilmente notare, mentre amd coi 5600x/5800x/6800 liscia ha fatto prezzi onestissimi e logicissimi e devo solo chinare il capo dinanzi la sua magnanimità e acume del marketing.

Pensare che qualcuno mi disse pure "ma vuoi che non facciano una gpu da 499 per competere con 3070"?

Ecco, NON l'han fatta :rolleyes:

StylezZz`
29-10-2020, 09:28
6800xt mi pare sensato, soprattutto se saranno disponibili a quel prezzo vorrà dire 649$ vs 800+$ a cui stanno "vendendo" oggi le ampere

Anche la 6800 lo è, basta aspettare qualche mese e poi si va di OC o flash bios se sarà possibile farlo come con la 5700 e la XT, può diventare un best buy.

FroZen
29-10-2020, 09:30
I prezzi di 6800 e 6800xt sono penosi.

https://i.kym-cdn.com/entries/icons/mobile/000/001/007/WAT.jpg

Mallardo
29-10-2020, 09:30
Si perchè non abbiamo già una serie di giochi in RT da testare, no?

O ci mettiamo a benchare solo i giochi della passata gen? Ricordo che parliamo di fascia alta del mercato

A quanto ho capito, tutti i giochi usciti finora supportano RT con le api proprietarie nvidia, quindi non ci sono giochi da testare con la serie 6000 di amd.

Ale55andr0
29-10-2020, 09:32
visti i bus da 256 bit per le 6800 e 6900, è plausibile che le 6700 siano a 192bit con tagli di memoria da 12 giga?

penso proprio di si perchè hanno detto che coi 256bit hanno tipo il doppio della banda effettiva che avrebbero avuto senza Infinty Cache ma con bus a 384 e sempre con gddr6, ergo i 192bit dovrebbero essere sufficienti se la useranno anche nei chip di fascia inferiore

OvErClOck82
29-10-2020, 09:34
Si perchè non abbiamo già una serie di giochi in RT da testare, no?



O ci mettiamo a benchare solo i giochi della passata gen? Ricordo che parliamo di fascia alta del mercatoAd oggi i giochi RT usano il sistema proprietario Nvidia, ergo no, non ci sono giochi da testare

Inviato dal mio Redmi Note 8 Pro utilizzando Tapatalk

Ale55andr0
29-10-2020, 09:35
si

ed è per quello che quando leggo 10 o 12gb su un 256 bit mi prudono le mani..... non siamo su yahoo answers, o almeno pensavo.....



a me prudono quando certe menti supreme non capiscano che uno intende ovviamente con un chip pensato appositamente per poter essere tagliato così, pensa te :)

Vul
29-10-2020, 09:38
Una 6700 con prestazioni da 2080/2080super sotto i 400 dite la vedremo mai?

Possibilmente sotto i 225W.

goma76
29-10-2020, 09:38
Ad oggi i giochi RT usano il sistema proprietario Nvidia, ergo no, non ci sono giochi da testare

Inviato dal mio Redmi Note 8 Pro utilizzando Tapatalk
Quindi facciamo finta che non esistano, perchè la controparte non ha ancora sviluppato la tecnologia...annamo bene :O
Ricordo che le tecnologie RT fan parte del pacchetto DX12U disponibile per tutti.

Blee
29-10-2020, 09:38
E perché, non puoi pretendere che le diano allo stesso prezzo di una 2070s custom

Vorrei far notare che allo stato attuale a 4k la 6800 in tomb raider va come la 3070 col DLSS attivo, e ha 16 giga, con 60 cu che indicano chiaramente rese alte, non credo si possa pretendere di più
Poi se credete che la 3070 la venderanno esattamente a 519 euro con le 3080 a 900 e le 3090 a 2000...

Vero, ma presa a 519 a parità prestazionale conviene. E comunque ha lo stesso punteggio 78 con rtx e DLSS disattivati. Attivando il DLSS immagino un po' di più. Non per difendere Nvidia ovviamente...

Vul
29-10-2020, 09:40
Peccato che quei prezzi non si vedranno fino a settembre 2021 :asd:

Raven
29-10-2020, 09:40
Quindi facciamo finta che non esistano, perchè la controparte non ha ancora sviluppato la tecnologia...annamo bene :O
Ricordo che le tecnologie RT fan parte del pacchetto DX12U disponibile per tutti.

:muro: vabbeh...

OvErClOck82
29-10-2020, 09:41
Quindi facciamo finta che non esistano, perchè la controparte non ha ancora sviluppato la tecnologia...annamo bene :O
Ricordo che le tecnologie RT fan parte del pacchetto DX12U disponibile per tutti.Ma cosa c'entra ? La controparte ha sviluppato la tecnologia ma se fino ad oggi esisteva solo l'rtx proprietario cosa confronti ?

Inviato dal mio Redmi Note 8 Pro utilizzando Tapatalk

ninja750
29-10-2020, 09:43
Una 6700 con prestazioni da 2080/2080super sotto i 400 dite la vedremo mai?

Possibilmente sotto i 225W.

se la 40cu navi22 full 6700XT andrà come una 2080/2080s può essere che una 6700 liscia vada come una attuale 2070s/5700xt

fine 2021? bah.. fai prima a guardare 3060ti

Crysis90
29-10-2020, 09:43
Sai quando vieni bannato perchè dai fastidio a quelli protetti, quando leggi di continuo attacchi dei vari trolloni e fanboy Verdi, questo momento me lo godo tutto e gli ritorna con gli interessi.


Il bello è che pensi pure di essere migliore.

Sei fanboy tanto quanto gli altri, e il tuo post ne è la conferma.
Della serie "cencio dice male di straccio".

Ora che ti sei sfogato, puoi tornare nella tua tana. :asd:

RoUge.boh
29-10-2020, 09:46
Mia valutazione personale... stavo valutando cosa prendere... tra 6800 e 6800xt aspetto di vedere la differenza reale differenza se ha realmente senso l'investimento...

Il secondo problema è... un 5600X basterà per una 6800xt? :stordita:
più che altro perchè il 5800X sono 250€ di sola CPU.... :stordita: (uso principalmente gaming..

Attualmente sono con una 1060 in attesa proprio di questa serie 6X00

nickname88
29-10-2020, 09:47
A quanto ho capito, tutti i giochi usciti finora supportano RT con le api proprietarie nvidia, quindi non ci sono giochi da testare con la serie 6000 di amd.API Nvidia ? Da quando Nvidia adesso ha lanciato delle API proprietarie ?

Il Ray Tracing è possibile con le API Microsoft DXR che sono una feature delle DX12.

leoneazzurro
29-10-2020, 09:47
Una 6700 con prestazioni da 2080/2080super sotto i 400 dite la vedremo mai?

Possibilmente sotto i 225W.

La 6700 (Navi22) è già in preparazione, si parla di 40 CU con frequenze ancora più alte (e QUANTO più alte lo si può desumere dalla presentazione di ieri: +30% a iso power con la 5700XT, quindi game clock probabile di 2,4-2,5GHz per la full) bus a 192 bit e probabilmente meno cache on die, prestazioni vociferate più alte della 2080 Super ma inferiori alla 2080Ti. 12 Gbytes di RAM.

Piedone1113
29-10-2020, 09:49
Che RDNA2 sia votata al risparmio non sono convinto, i consumi di una 6800XT differiscono nella teoria di 20 W da quelli di una 3080 (che ha un pp scabroso a dir poco), a fronte di prestazioni molto vicine non ti nego che una 50 di watt in meno (come minimo) me li sarei aspettati.

Perchè il risparmio si misura in watt?
Io il risparmio lo misuro in $ di costo produttivo, i W al massimo possono comparire nell'efficienza energetica, che nulla ha a che vedere con il costo.

Nessuna nuova soluzione degna di nota, ed anzi l'uso di Gddr6 invece che le X contenendo anche i costi.
Un Rt poco più che abbozzato ( nella stessa percentuale presumibile delle console) ed un implementazione quasi fotocopia delle consolle anche a livello hardware.
Se non è risparmio questo cosa dovrebbe esserlo?

goma76
29-10-2020, 09:50
API Nvidia ? Da quando Nvidia adesso ha lanciato delle API proprietarie ?

Il Ray Tracing è possibile con le API Microsoft DXR che sono una feature delle DX12.
Sono pagine che lo scrivo! E qualcuno continua a sostenere il contrario.
DLSS è una tecnologia proprietaria invece

Gyammy85
29-10-2020, 09:53
Vero, ma presa a 519 a parità prestazionale conviene. E comunque ha lo stesso punteggio 78 con rtx e DLSS disattivati. Attivando il DLSS immagino un po' di più. Non per difendere Nvidia ovviamente...

E no, la 3070 fa 63 fps dlss off

https://www.guru3d.com/articles_pages/geforce_rtx_3070_founder_review,16.html

Jeetkundo
29-10-2020, 09:53
Ma se la 6800xt = 2080ti in raytracing (stando ai rumor eh), la 6900xt dove può arrivare? Quelle CU extra serviranno?

Inviato dal mio LYA-L09 utilizzando Tapatalk

Gyammy85
29-10-2020, 09:57
Ma se la 6800xt = 2080ti in raytracing (stando ai rumor eh), la 6900xt dove può arrivare? Quelle CU extra serviranno?

Inviato dal mio LYA-L09 utilizzando Tapatalk

Allo stato attuale con bench puramente teorici sta fra 2080ti e 3080 con 72 ray acc, qualcosa in più immagino con 80, ma nei giochi sicuro il gap si riduce con ampere

FroZen
29-10-2020, 09:59
Ogni CU ha un engine gigarays quindi si più CU e più prestazioni rt

Cfranco
29-10-2020, 10:00
Quindi facciamo finta che non esistano, perchè la controparte non ha ancora sviluppato la tecnologia...annamo bene :O
Ricordo che le tecnologie RT fan parte del pacchetto DX12U disponibile per tutti.
Quale parte della frase :
Nvidia RTX is a proprietary hardware ray tracing acceleration technology available in Vulkan and DirectX APIs
non ti è chiara ?
Al momento è supportata da 4 giochi in croce pagati da nVidia per incorporare qualche pezzo di RTX

mircocatta
29-10-2020, 10:02
https://www.youtube.com/watch?v=fy-tubbJ2Vo&ab_channel=NikTek
lol

e i classici
https://www.youtube.com/watch?v=tTlWjLhqfKk&ab_channel=Robtech
https://www.youtube.com/watch?v=hOC-lSVlF9s&ab_channel=Robtech

quella di hitler è uscita proprio bene :asd:

-NINGEN-
29-10-2020, 10:02
Per quanto riguarda il bench raytracing, questo tizio dice (https://twitter.com/DanielMDAx/status/1321744506253959170) che il punteggio basso della 6800XT è dovuto all'uso le DXR 1.0 dove Nvidia è avvantaggiata, si presume quindi che su test che usano le DXR 1.1 ("la nuova implementazione AMD/MS") dovrebbe dare risultati migliori :boh:

Blee
29-10-2020, 10:02
E no, la 3070 fa 63 fps dlss off

https://www.guru3d.com/articles_pages/geforce_rtx_3070_founder_review,16.html

Guarda ho visto altri bench e la danno a 78 senza rt e a 55 con dlss e rt. Molto dipende anche da come sono stati fatti i test, me lo avete insegnato voi. Il punto è che la 6800 è performante come una 2080TI numero più , numero meno, senza smart memory ok? Bene la 3070 è performante come la 2080TI numero più e numero meno. Una costa 580 e l'altra costa 519, parliamo di FE ovviamente, poi le custom vedremo, ma verrà mantenuta la proporzione dei prezzi. Quindi onestamente, per le mie tasche cosa conviene? E' una scelta da fare. Io ho un monitor 4k 60hz. quindi oltre 60fps non vado, ho un monitor 2k da 144 hz e oltre 144 fps non vado. Quale scheda prendere? AMD ha il doppio della meoria, mentre Nvidia ha dei software interessanti e un hardware dedicato per il RT, può anche non interessarmi il RT, ma va considerato nel momento in cui apro il portafogli. Ricordo che sono possessore di una scheda AMD e avrei tutto il desiderio di restare con AMD, ma questa è una scelta che devo fare in base al "giocare" con la migliore resa al minor prezzo.

goma76
29-10-2020, 10:03
Quale parte della frase :
Nvidia RTX is a proprietary HARDWARE ray tracing acceleration technology available in Vulkan and DirectX APIs
non ti è chiara ?
Al momento è supportata da 4 giochi in croce pagati da nVidia per incorporare qualche pezzo di RTX
technology available in Vulkan and DirectX APIs ... a me sembra chiaro

o anche quelle sono esclusiva Nvidia?

OvErClOck82
29-10-2020, 10:05
available in Vulkan and DirectX APIs ...

o anche quelle sono esclusiva Nvidia?

oh ma neppure davanti all'evidenza, incredibile :stordita:

L'RTX è proprietario, amd non può usare la stessa implementazione. Con le 6800 non potevano prendere battlefield e attivare l'RTX per far contenti voi, punto.

goma76
29-10-2020, 10:06
oh ma neppure davanti all'evidenza, incredibile :stordita:

L'RTX è proprietario, amd non può usare la stessa implementazione.

Ho capito quello! Ma che si svegli e ne faccia una pure lei, questo è il succo, il risultato finale

leoneazzurro
29-10-2020, 10:06
Non so se era stato postato (si fa per ridere, eh)
https://www.youtube.com/watch?v=hOC-lSVlF9s