PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 [300] 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346

VanCleef
03-11-2022, 22:18
Ma c'è un articolo dove riporta l'iva al 23% ? Perché domani io devo emettere alcune fatture ed ho ancora il gestionale con l'iva al 22% e nessuno mi ha detto niente :⁠0 :⁠-⁠(

faknews.pol :D

FaTcLA
03-11-2022, 22:20
Perdonate la domanda già fatta.. a quando le sorelline?

Mallardo
03-11-2022, 22:23
Perdonate la domanda già fatta.. a quando le sorelline?

2023, a gennaio potrebbe esserci la presentazione se non sbaglio.

Psiche
03-11-2022, 22:24
Due conti fatti da _rogame in un tweet QUI (https://twitter.com/_rogame/status/1588287945500262401) e stando ai dati forniti da AMD

More comparisons

Cyberpunk 2077 4K max settings

RX 7900 XTX = 1.7x 6950 XT = 1.7x 49fps = 83.3fps
RTX 4090 = 83 fps

Watch dogs: Legion max settings

RX 7900 XTX = 1.5x 6950 XT = 1.5x 88fps = 132fps
RTX 4090 = 141 fps

FYI: RTX 4090 using 5800X3D vs 7900X with RX 7900 XTX


Con un risparmio che sfiora i 1000€ è tanta ma tanta roba

Mallardo
03-11-2022, 22:28
Due conti fatti da _rogame in un tweet QUI (https://twitter.com/_rogame/status/1588287945500262401) e stando ai dati forniti da AMD

More comparisons

Cyberpunk 2077 4K max settings

RX 7900 XTX = 1.7x 6950 XT = 1.7x 49fps = 83.3fps
RTX 4090 = 83 fps

Watch dogs: Legion max settings

RX 7900 XTX = 1.5x 6950 XT = 1.5x 88fps = 132fps
RTX 4090 = 141 fps

FYI: RTX 4090 using 5800X3D vs 7900X with RX 7900 XTX


Con un risparmio che sfiora i 1000€ è tanta ma tanta roba

C'è da dire che se sei interessato principalmente ai tripla A ha poco senso guardare le prestazioni raster, ma conta davvero tanto l'RT.

Maury
03-11-2022, 22:31
Io però francamente tutto sto consumo non lo noto…non molto di più per lo meno di quando avevo la 3080ti… in ogni caso torno a dire che sembra quasi stiate confrontando 2 schede alla pari come prestazioni, cosa non vera.

XTX andrà confrontata con la 4080 16gb sia in termini di prestazioni che di efficienza e prezzi

Si è quello il suo target, la 4080 16. Intanto ha già più ram che francamente fa gola.

Nvidia non vende solo ai gamers quelle schede, può permettersi di farle. Io spero solo che sia valida questa 7900xtx, aspetto di vedere le recensioni e vediamo se ci scappa un bel regalo per i miei 40 anni che cade giusto il 10 dicembre. Ma quando è prevista l'uscita della 4080?

Infatti in realtà sono schede nate per altri ambiti, e si vede lontano un miglio.

Queste Radeon andranno valutate in overclock, Amd è stata veramente bassa con il clock, li ci sono 500 o 600 mhz easy da tirar fuori.

davide155
03-11-2022, 22:32
Una sapphire la troverai a circa 1200/1250 che è una custom con le contropalle.
Le custom della 4090 partono da 2300, e quelle da 2300 sono di sughero o cartonato. Manli o gainward. LOL
Sono circa 1050 euro in meno, mica pizza e fichi.

La 4090 gainword su ldlc la vendono a 1929€, puoi verificarlo tu stesso. E boosta a 3ghz con un pò di voltaggio sfruttando tutti i 450w.

Pensi che la 7900xtx tuf con 3x8pin consumerà tanto meno? In questa configurazione rischia di arrivare a 430w teorici. E pensi che le venderanno a meno delle reference?

Dove avete vissuto negli ultimi due anni?

La 7900xtx tuf costerà minimo 1400-1500€. A quel prezzo converrà comunque la 4080 16gb ad MSRP, che in RT se la mangia.
O reference dal sito amd, oppure nulla.

mircocatta
03-11-2022, 22:36
Stare in mezzo alla natura con una canna in mano è una sensazione paradisiaca che avevo dimenticato.

non sono molto aggiornato ma con 500€ di canne te ne compri parecchie, ma concordo che con quella in mano si sta in paradiso, soprattutto in mezzo alla natura












ah ma si parla di pesca?:ops:

Mallardo
03-11-2022, 22:39
O reference dal sito amd, oppure nulla.
Questo è sicuro, tra l'altro sembrano anche particolarmente belle. Certo ormai le custom hanno un minimo senso solo per la top di gamma.

craesilo
03-11-2022, 22:40
ma perchè non hanno annunciato i prezzi in €???

mircocatta
03-11-2022, 22:41
La gainword su ldlc la vendono a 1929€. E boosta a 3ghz con un pò di voltaggio sfruttando tutti i 450w.

Pensi che la 7900xtx tuf con 3x8pin consumerà tanto meno? In questa configurazione rischia di arrivare a 430w teorici. E pensi che le venderanno a meno delle reference?


così mi fai emozionare, amd fa ancora schede con waterblock annesso?
ma perchè non hanno annunciato i prezzi in €???


perchè non l'hanno mai fatto, manco nvidia se non erro (i prezzi in euro apparirono solo sul sito post presentazione)

Kvarat
03-11-2022, 22:43
ma perchè non hanno annunciato i prezzi in €???

Tra qualche giorno li vedrai spuntare sui vari shop in versione custom. Sul sito Amd non si sa nulla.

narniagreen
03-11-2022, 22:44
Lisa ha appena cagato sulla giacca di pelle di Jensen :asd:
Presentazione all'insegna del trollaggio, Easy upgrade e il cap limiter del DP 1.4 :D

Battute a parte, tecnicamente dal punto di vista aziendale AMD sta almeno una generazione avanti, di fatto sforna un chip che è di appena 300mmq, un chip di fascia media collegandolo a delle cache da 37mmq che costano meno delle patatine di sottomarca del Lidl in sconto.

Di fatto rendono la 4090 una scheda vecchia di 10 anni come concezione, ridicola dal punto di vista ingegneristico con i suoi 600mmq monolitici e un sistema di dissipazione che come volume "costa" 2 schede video, da 4 slot 33cm e 2,2 kg di peso.

A livello tecnico il dual motor issue CU costa ad AMD parecchio clock, di fatto si torna in pari con Nvidia, ma questo porta incrementi di IPC mostruosi, praticamente RDNA3 assieme alla logica del GCD e MCD è di fatto lo Zen1 delle GPU.

Sicuramente c'è dello spazio per una uber 7950XTX da 450watt a 3ghz, ma hanno fatto bene a non perdere efficienza per un 10 o 15% di prestazioni, tanto usciranno le custom da 3x8pin a quei clock da 1500€ iva compresa.

Come prestazioni Raster, pare essere una 4080ti, quelle RT una 4070ti/3090ti, la cosa ottima è che costa molto meno di una ipotetica 4080ti e meno o come una 4070/ti, in pratica la 4080 a 1200$ di msrp nasce già fuori mercato.

Sono contento che in RT vada meno, i prezzi rimarranno sensibilmente più bassi oltre che al discorso ingegneristico dove i costi che AMD deve sostenere sono più bassi addirittura di ADA103, anche per le prestazioni RT.

la 7900XTX a 1000$ msrp, 1250€ iva compresa, non se lo aspettava più nessuno, ottimo lavoro.

scorpion73
03-11-2022, 22:45
No No, era piuttosto chiaro il reale motivo.
Io comunque della presentazione sono contento, mi sembrano prodotti validi con prezzi "ragionevoli". Che non raggiungano le performance della 4090 poco importa, io tanto 2000 euro per una VGA non ce li spendo, aspettiamo le recensioni e vediamo un po` come si comportano nel dettaglio, personalmente vorrei poter giocare in 4k con RT stando sui 60fps, che sia verde o rossa la scheda che me lo permetterà al giusto prezzo (per me) poco mi importa.

Secondo me questa non è scheda da 4K in RT.
E' perfetta per il 2k ma sul 4k la scheda migliore è la 4090 che però ovviamente viene penalizzata dal prezzo.
E' chiaro che giochi in 4K anche con questa, ma in RT starai sui 60fps sui giochi con RT leggero usando FSR (da capire poi la qualità che è usata).
Sui giochi pesanti a mio avviso non ce la fai. Cyberpunk non è ovviamente leggero ma quella è una media di 62fps, non li avrà costanti.

scorpion73
03-11-2022, 22:47
Una sapphire la troverai a circa 1200/1250 che è una custom con le contropalle.
Le custom della 4090 partono da 2300, e quelle da 2300 sono di sughero o cartonato. Manli o gainward. LOL
Sono circa 1050 euro in meno, mica pizza e fichi.

Ma che stai a di... parli proprio senza sapere che dici. La mia Zotac 4090 l'ho pagata 2180 e non è per niente di sughero, anzi è bella potente.
Che so sempre tante ma non è una Manli.
E non lo è nemmeno la Gainward Phantom che costa 1950€.
Rivedi i listini perché sei fuori portata.

Le nuove Radeon sembrano essere ottime schede concorrenti della 4080, rispetto alla quale vince a mani basse anche per il prezzo più basso - ovviamente previo conferma recensioni - ma la 4090 è un altro pianeta, per il 4K è la scheda di riferimento.

craesilo
03-11-2022, 22:47
Tra qualche giorno li vedrai spuntare sui vari shop in versione custom. Sul sito Amd non si sa nulla.

sarebbe stato normale che spuntassero dopo qualche ora come sempre
ps: in effetti non servono, basta vedere la 6900xt prezzata = in $


La 4090 gainword su ldlc la vendono a 1929€, puoi verificarlo tu stesso. E boosta a 3ghz con un pò di voltaggio sfruttando tutti i 450w.

Pensi che la 7900xtx tuf con 3x8pin consumerà tanto meno? In questa configurazione rischia di arrivare a 430w teorici. E pensi che le venderanno a meno delle reference?

Dove avete vissuto negli ultimi due anni?

La 7900xtx tuf costerà minimo 1400-1500€. A quel prezzo converrà comunque la 4080 16gb ad MSRP, che in RT se la mangia.
O reference dal sito amd, oppure nulla.

ma lui è un ultras rosso, non lo conosci? :asd:

Gigibian
03-11-2022, 22:50
Lisa ha appena cagato sulla giacca di pelle di Jensen :asd:
Presentazione all'insegna del trollaggio, Easy upgrade e il cap limiter del DP 1.4 :D

Battute a parte, tecnicamente dal punto di vista aziendale AMD sta almeno una generazione avanti, di fatto sforna un chip che è di appena 300mmq, un chip di fascia media collegandolo a delle cache da 37mmq che costano meno delle patatine di sottomarca del Lidl in sconto.

Di fatto rendono la 4090 una scheda vecchia di 10 anni come concezione, ridicola dal punto di vista ingegneristico con i suoi 600mmq monolitici e un sistema di dissipazione che come volume "costa" 2 schede video, da 4 slot 33cm e 2,2 kg di peso.

A livello tecnico il dual motor issue CU costa ad AMD parecchio clock, di fatto si torna in pari con Nvidia, ma questo porta incrementi di IPC mostruosi, praticamente RDNA3 assieme alla logica del GCD e MCD è di fatto lo Zen1 delle GPU.

Sicuramente c'è dello spazio per una uber 7950XTX da 450watt a 3ghz, ma hanno fatto bene a non perdere efficienza per un 10 o 15% di prestazioni, tanto usciranno le custom da 3x8pin a quei clock da 1500€ iva compresa.

Come prestazioni Raster, pare essere una 4080ti, quelle RT una 4070ti/3090ti, la cosa ottima è che costa molto meno di una ipotetica 4080ti e meno o come una 4070/ti, in pratica la 4080 a 1200$ di msrp nasce già fuori mercato.

Sono contento che in RT vada meno, i prezzi rimarranno sensibilmente più bassi oltre che al discorso ingegneristico dove i costi che AMD deve sostenere sono più bassi addirittura di ADA103, anche per le prestazioni RT.

la 7900XTX a 1000$ msrp, 1250€ iva compresa, non se lo aspettava più nessuno, ottimo lavoro.

Non sono 1250, sono 1180 euri cambio e iva alla mano.

stefano192
03-11-2022, 22:54
Al di là delle schede, han detto qualcosa riguardo l'fsr oppure nada? :D

narniagreen
03-11-2022, 22:54
Non sono 1250, sono 1180 euri cambio e iva alla mano.

Eh no, devi calcola 1000 x 1,25, al cambio adesso siamo in negativo, 0.98 più iva sei intorno a 1250€.

Ma comunque di tutto quello che ho scritto, è il meno.

Nvidia si trova un po' come era Intel con Zen1 :read:

Gigibian
03-11-2022, 22:56
Eh no, devi calcola 1000 x 1,25, al cambio adesso siamo in negativo, 0.98 più iva sei intorno a 1250€.

Ma comunque di tutto quello che ho scritto, è il meno.

Nvidia si trova un po' come era Intel con Zen1 :read:

S scusa i siamo a 0.97. io consideravo 1.03.

Arrow0309
03-11-2022, 22:57
Al di là delle schede, han detto qualcosa riguardo l'fsr oppure nada? :D

Si, il 3.0 verrà nel 2023
Non hanno detto che sara' o non sara' un'esclusiva delle 7000

Nerd1
03-11-2022, 22:58
Chi mi può aiutare?

Configurazione bus 384bit 20gb ddr6 (no clamshell?) = 960GB/s per arrivare ai 5.3tb/s, rapporto di 5,52x…. Se ricordo bene la 6900xt veniva riportata 2.1tb/s quindi un rapporto di 4.1x su un bus 256bit 16gb = 512GB/s

occorre una bella modifica alla infinity cache o mi sono perso qualcosa?

Consumi/pcb:
2x8pin reference (aib saranno due o tre) max 75 + 300w = 375w e 500w le custom spinte

Suppongo alte temp hotspot ma si giocherà al solito giochino downvolt-boost massimo… servira un bel fullcover per lanciarla comunque

Clock:

Gaming clock 2300

La 6900Xt era data per 2105 …

Mi aspetto quindi boost senza limiti vari all’intorno dei 2700-2800 … oc sulle custom oltre i 3000, in rt o carichi pesanti shader meno

Se tanto mi da tanto per i prossimi zen 3d potrebbero parcheggiare l’extra cache sul modulino i/o evitando di farlo sopra i cluster core con tutte le conseguenze termiche e di dissipazione del caso

Nerd1
03-11-2022, 22:59
Si, il 3.0 verrà nel 2023
Non hanno detto che sara' o non sara' un'esclusiva delle 7000

Ecco anche questo…
Me lo sono dimenticato

davide155
03-11-2022, 23:00
Non sono 1250, sono 1180 euri cambio e iva alla mano.

Secondo il lancio della 6950xt lanciata a 1099dollari e prezzata a 1364€ sul sito amd italia è corretto dire che la 7900xtx avrà un prezzo di 1250€.

sniperspa
03-11-2022, 23:04
C'è da dire che se sei interessato principalmente ai tripla A ha poco senso guardare le prestazioni raster, ma conta davvero tanto l'RT.

Io ci credo poco che chi spende 2000€ per la solo scheda video è interessato a giocare ai giochi tripla A con RT

O è gente che ci lavora o è gente che gioca competitivo/streamer

Mi son fatto un'idea sbagliata?

Daedra007
03-11-2022, 23:04
Quando saranno acquistabili queste nuove 7900?

narniagreen
03-11-2022, 23:06
S scusa i siamo a 0.97. io consideravo 1.03.

Gigi, mannaggia la puttana lo leggi al contrario :D

per comprare 1 dollaro ti servono 1,03 euro!

quindi 1000 dollari valgono 1030€, più iva fanno 1260€

con 1 euro compri 0,97 dollari, è così da fine agosto.

davide155
03-11-2022, 23:06
Io ci credo poco che chi spende 2000€ per la solo scheda video è interessato a giocare ai giochi tripla A con RT

O è gente che ci lavora o è gente che gioca competitivo/streamer

Mi son fatto un'idea sbagliata?

Mah guarda ne ho spesi 1500 a gennaio e non sono uno streamer competitivo, ne ci lavoro con la gpu.
Semplicemente passione.
Però effettivamente 2mila euro iniziano ad essere eccessivi. Soprattutto in un momento come questo dove per giocare al 99% dei giochi a catalogo Steam basta ed avanza una 3080/6900xt.

devAngnew
03-11-2022, 23:07
La 4090 gainword su ldlc la vendono a 1929€, puoi verificarlo tu stesso. E boosta a 3ghz con un pò di voltaggio sfruttando tutti i 450w.

Pensi che la 7900xtx tuf con 3x8pin consumerà tanto meno? In questa configurazione rischia di arrivare a 430w teorici. E pensi che le venderanno a meno delle reference?

Dove avete vissuto negli ultimi due anni?

La 7900xtx tuf costerà minimo 1400-1500€. A quel prezzo converrà comunque la 4080 16gb ad MSRP, che in RT se la mangia.
O reference dal sito amd, oppure nulla.

Il confronto ha poco senso perchè la tuf 4080 16 costerà 2000 € visto l'andazzo.

Cmq in raster Cyberpunk NV 4090 = amd 7900xtx 1 a 0 per AMD
Stiamo sempre parlando di un gioco a favore di nvidia.
Vediamo le recensioni che saranno il 12 Dicembre ?

narniagreen
03-11-2022, 23:08
Quando saranno acquistabili queste nuove 7900?

13 dicembre

Gyammy85
03-11-2022, 23:11
Si va bene ma non devi dimostrarci ad ogni post che non capisci una mazza.
Che senso ha raffrontare nativa contro non nativa?
Capisco che sei a pezzi ma non sarebbe meglio simulare un malore e stare un paio di giorni lontano dal forum?
Così, giusto per evitare di affondare ancora di più nelle sabbie mobili, stai fermo cazzo.

Mi prendi in giro? lo ha mostrato amd, se poi non ti va bene frigna con Lisa.
Se poi andrà il doppio meglio per tutti

Inviato dal mio ONEPLUS A6013 utilizzando Tapatalk

I miei confronti sono a pari condizioni e con numeri mostrati durante la presentazione, poi non ci vuole niente a farsi un giro su youtube a vedere quanto va una 4090, con i tanto sbandierati 500 fps su overwatch 2 che ohibò sono 600 per la 7900xtx, che raggiunge pure il frame cap

Nerd1
03-11-2022, 23:12
Ufff altro particolare interessante

Dual clock

Shader a 2300 il resto a 2500mhz

E anche questo:

“All'interno di ogni Compute Unit, e ve ne sono 96 nell'attuale implementazione più complessa di questa GPU, troviamo quale principale novità 64 stream processors di tipo dual issue: di fatto questi operano come se fossero 128 stream processors tradizionali, portando ad un raddoppio nel numero di istruzioni gestite per ciclo di clock.”

La reference sarà 2,5 slot x 28(?) cm ….

Mallardo
03-11-2022, 23:12
Secondo me questa non è scheda da 4K in RT.
E' perfetta per il 2k ma sul 4k la scheda migliore è la 4090 che però ovviamente viene penalizzata dal prezzo.
E' chiaro che giochi in 4K anche con questa, ma in RT starai sui 60fps sui giochi con RT leggero usando FSR (da capire poi la qualità che è usata).
Sui giochi pesanti a mio avviso non ce la fai. Cyberpunk non è ovviamente leggero ma quella è una media di 62fps, non li avrà costanti.

Che la scheda migliore sia la 4090 ci son pochi dubbi, ma 2k euro io non ce li spedo per la GPU. Non resta che aspettare le recensioni e capire cosa offre questo FSR3. L'alternativa per me è virare sulla vecchia gen e prendere una 3080 a prezzo decente.

davide155
03-11-2022, 23:12
Il confronto ha poco senso perchè la tuf 4080 16 costerà 2000 € visto l'andazzo.

Cmq in raster Cyberpunk NV 4090 = amd 7900xtx 1 a 0 per AMD
Stiamo sempre parlando di un gioco a favore di nvidia.
Vediamo le recensioni che saranno il 12 Dicembre ?

Io parlo solo ed esclusivamente di schede founders/reference.
E la 4080 16gb verrà venduta a 1.469 euro.
Le custom arrivano anche a 3mila euro, ma non possono esser prese come metro di paragone unilaterale. Troppe variabili.

Comunque son d'accordo di vedere bene le recensioni quando saranno testa a testa. Ad ora sono solo congetture su 1.5x, 1.7x, che possono voler dire tutto e niente.
Le custom rdna3 avranno più margine di miglioramento rispetto alle ada lovelace, su questo ne sono fiducioso. Hanno un TGP troppo conservativo.

narniagreen
03-11-2022, 23:13
Ufff altro particolare interessante

Dual clock

Shader a 2300 il resto a 2500mhz

E anche questo:

“All'interno di ogni Compute Unit, e ve ne sono 96 nell'attuale implementazione più complessa di questa GPU, troviamo quale principale novità 64 stream processors di tipo dual issue: di fatto questi operano come se fossero 128 stream processors tradizionali, portando ad un raddoppio nel numero di istruzioni gestite per ciclo di clock.”

si era il focus del mio post, per quello i clock sono rimasti alla gen 7nm, lavoro mostruoso sul Core.

Mallardo
03-11-2022, 23:16
Io ci credo poco che chi spende 2000€ per la solo scheda video è interessato a giocare ai giochi tripla A con RT

O è gente che ci lavora o è gente che gioca competitivo/streamer

Mi son fatto un'idea sbagliata?

Se giochi competitivo te ne fai di poco, tanto devi abbassare gli effetti per avere pulizia a schermo e di certo non giochi in 4k. Chi si prende una scheda come quella è per maxare la resa visiva, oltre a quelli che ci lavorano ovviamente.

Nerd1
03-11-2022, 23:17
Non necessariamente uguali, dovrebbero essere mediamente un +100/200mhz

Dovrebbero essere a pari con nvidia adesso (maxare intorno ai 3000-3100 a liquido)

Tuvok-LuR-
03-11-2022, 23:19
Mi son fatto un'idea sbagliata?

Direi di si :asd:

Nerd1
03-11-2022, 23:20
Sono molto curioso di vedere una reference XT liscia a liquido che numeri tirerebbe fuori

Ma giusto per la scienza, io punto inizio anno prossimo a una 6900XT … una H se sono fortunato.

Daedra007
03-11-2022, 23:20
13 dicembre

Ottimo:) speriamo che saranno disponibili in quantita' buone

Psycho77
03-11-2022, 23:22
Io ci credo poco che chi spende 2000€ per la solo scheda video è interessato a giocare ai giochi tripla A con RT

O è gente che ci lavora o è gente che gioca competitivo/streamer

Mi son fatto un'idea sbagliata?

Mi sa che è ora che ti affacci da sto balcone, perchè chi ha preso di la una 4090, non sa aprire manco paint.:sofico:

Ma che stai a di... parli proprio senza sapere che dici. La mia Zotac 4090 l'ho pagata 2180 e non è per niente di sughero, anzi è bella potente.
Che so sempre tante ma non è una Manli.
E non lo è nemmeno la Gainward Phantom che costa 1950€.
Rivedi i listini perché sei fuori portata.

Le nuove Radeon sembrano essere ottime schede concorrenti della 4080, rispetto alla quale vince a mani basse anche per il prezzo più basso - ovviamente previo conferma recensioni - ma la 4090 è un altro pianeta, per il 4K è la scheda di riferimento.

Ho avuto una gtx 1080 della zotac e toccava gli 89 gradi a case aperto.
Auguri.

Con 2180 euro mi faccio tutto il pc nuovo con rx 7900 xtx e cpu ryzen nuova di pacca.
Ci vediamo poi sui benchmarks, ma se dovessi perdere di un 10/15% non ne farei di certo un dramma.

sniperspa
03-11-2022, 23:23
Se giochi competitivo te ne fai di poco, tanto devi abbassare gli effetti per avere pulizia a schermo e di certo non giochi in 4k. Chi si prende una scheda come quella è per maxare la resa visiva, oltre a quelli che ci lavorano ovviamente.

Eh appunto, però faccio fatica a figurare quali sono i clienti tipo per queste VGA onestamente

Mi importa anche relativamente tanto io guardo solo alla fascia media, al limite medio alta, ma faccio proprio fatica a capire

TheBack
03-11-2022, 23:23
"Furthermore, AMD is introducing a major update for its graphic drivers. A technology called HYPER-RX is a one-click performance and latency improvement feature. In games such a Dying Light 2, AMD claims up to 85% better performance with 1/3 of the latency. This technology should be a competitor for NVIDIA Reflex and DLSS technologies combined."

Aspettavo con ansia qualcosa di alternativo al Reflex di nvidia, ma non hanno detto altro? Perchè se si è obbligati ad usare anche l'fsr può perdere un pò di senso nei giochi dove già si gioca a dettagli bassi/res basse per avere latenze basse/fps alti. Dovrebbe essere anche retrocompatibile con le vecchie gpu?

stefano192
03-11-2022, 23:35
Si, il 3.0 verrà nel 2023
Non hanno detto che sara' o non sara' un'esclusiva delle 7000

Ottimo grazie, ora cerco qualche news a riguardo :)

Vul
03-11-2022, 23:58
Sbaglio o in base ai numeri della preview dovrebbe stare ad un 3-5% in raster a 4k da una 4090, se non addirittura meno? E il tutto in 350w?

Se sarà cosi mi faccio tante di quelle risate a pensare a quanti hanno speso quasi 3000 euro di upgrade fra gpu e alimentatori.

Mi goderò l'inevitabile negazionismo di tutti questi utenti che si arrampicheranno sugli specchi per spiegarti perché hanno fatto un affare con le loro 4090. Quei 3 fps in più che faranno in 3 giochi in croce ne sarà valsa la pena (degli azionisti Nvidia che si sfregano a vedere una società che fa il 40% di utile sul profitto).

StylezZz`
04-11-2022, 00:06
E iniziamo con i video/meme :asd:

https://www.youtube.com/watch?v=SRx8JkxzIO8

Freisar
04-11-2022, 00:12
Me la son vista adesso però mi son perso, quanto è lunga la xtx e il mio ali 750w regge 355w?

mikael84
04-11-2022, 00:14
prevedi un OC generoso? sarebbe l'unico modo per farmi pensare a fare la follia, waterblock annesso

i cari vecchi ricordi della 7950 a 1250mhz liquidata me li tengo ancora belli vivi in mente :D

Diciamo che qua, al momento, l'unico che potrebbe dare una risposta accurata è il progettista, ovvero quello che si occupa di instradare transistor a bassa ed alta dispersione... viene difficile dirti quanto potrà clockare. I clock dei PP teorici sono a tot. tensione, di certo, essendo fuori dal progetto, pensavo che si sarebbero spinti oltre. Probabilmente il progettista, o ha avuto difficoltà con ste rese, o per salire sale troppo il consumo.
A livello teorico, il n5 HP permette +15% di clock in base alla tensione migliore isa sotto il volt. Era logico aspettarsi almeno 2,8.:)
Penso che i 3ghz siano alla portata per uno che liquida.

Sulle 7970, ammazza quanto tempo, ti ricordi quanto eravamo attivi la... io avevo 2 7970 sapphire con regolatore sbloccato e salivano a 1200, asic 58, 1,3v, reali 1,23v.:p

insomma tu che fai?

Avendo G-sync nativo e con il cambio attuale, l'unica scheda è la 3080, magari usata.;)

Chi mi può aiutare?

Configurazione bus 384bit 20gb ddr6 (no clamshell?) = 960GB/s per arrivare ai 5.3tb/s, rapporto di 5,52x…. Se ricordo bene la 6900xt veniva riportata 2.1tb/s quindi un rapporto di 4.1x su un bus 256bit 16gb = 512GB/s

occorre una bella modifica alla infinity cache o mi sono perso qualcosa?

Consumi/pcb:
2x8pin reference (aib saranno due o tre) max 75 + 300w = 375w e 500w le custom spinte



Navi 21 aveva il bus cache a 1024bit (1900if/1,99tf), ora è raddoppiato, 2x bus x 384bit.
Non è specificato come e che clock avrà l'IF... dovremo essere sui 2560bit x2100 = 5,3gb/s

mikael84
04-11-2022, 00:35
Usata per pagare meno o per non dare soldi alla nvidia? :D

Per pagare il giusto in questo mercato marcio (se si può parlare di giusto).:)

MirkoHU
04-11-2022, 00:55
La valutazione errata é pensare che che sarà 1.7 su tutti i giochi.
Invece quello è stato annunciato come il rapporto massimo.
Mediamente sarà tra 1.5 e è 1.6

Inviato dal mio ONEPLUS A6013 utilizzando Tapatalk


Già. Spero comunque che quel +50-60% rispetto la 6950x sia in raster e non in RT :\ Se fosse in raster sarebbe un'ottima scheda, con un super rapporto qualità prezzo.

amon.akira
04-11-2022, 01:01
Già. Spero comunque che quel +50-60% rispetto la 6950x sia in raster e non in RT :\ Se fosse in raster sarebbe un'ottima scheda, con un super rapporto qualità prezzo.

si raster 1,7x cyberpunk, in rt ultra è 1,5x 62fps.vs.42fps con fsr

Vul
04-11-2022, 01:16
Boh io ho preso giochi in rt e puntavo su quello dunque non mi sono pentito :)

Si chiaro, ho specificato raster appositamente, in RT il confronto è inesistente.

amon.akira
04-11-2022, 01:38
Si chiaro, ho specificato raster appositamente, in RT il confronto è inesistente.

in gpu da 1200euro vorresti anche abilitare effetti grafici come il raytracing, ora ce l hanno quasi tutti e chi non lo ha lo aggiunge in seguito...cmq non è male per niente dovrebbe stare a lv 3090ti in rt piu esigenti

mikael84
04-11-2022, 02:37
in gpu da 1200euro vorresti anche abilitare effetti grafici come il raytracing, ora ce l hanno quasi tutti e chi non lo ha lo aggiunge in seguito...cmq non è male per niente dovrebbe stare a lv 3090ti in rt piu esigenti

Lato raster, pensavo in caso di basse prestazioni per flops, in uno scaling non ottimale, in delle latenze più elevate (ancora da analizzare), o in una falla microarchitetturale.
Ne ho beccato una grossa microarchitetturale.
Lo stravolgimento di RDNA va a donnine. Un bel passo indietro.
Il ray ora è condiviso in un dual CU e non in una CU classica, questo è un bene, 96 ray vs 80 con 1,5 g/rays di picco per unità.
Quindi a pari ray, 1,5 medio.

Il problema è che perde IPC, sia raster che RT.

Per come sono organizzate le DCU a doppia istruzione, l'hardware e il software devono cercare di parallelizzare al massimo il lavoro di esecuzione, o si rischiano code, o meglio è quasi impossibile far lavorare 12288 shader. Se l'istruzione successiva non può essere eseguita in parallelo (nel DCU), il CU rimane in attesa, fattore migliorato in rdna1 e 2, tanto da raggiungere nvidia.

Ecco che i TF tornano ad essere imprecisi, malgrado vengano dichiarati 60 e passa TF, questi sono variabili e legati ad attese.
Si ritorna in parte al metodo GCN.

Questo vale anche in RT. Sballando il lato raster, fa sbandare anche il RT, in cui è necessaria una parallelizzazione ottimale.
Insomma un bel passo indietro, per semplificare le CU.

Qua è semplificato, prima potevi fare tutto contemporaneamente, ora ti ritrovi con delle sorte di dipendenze, quindi i 60tf, diventano 30-40-50-60, in base al grado di parallelizzazione.
https://i.postimg.cc/qRQ7KS46/istruioni.png

Verro
04-11-2022, 02:43
Per il momento il rt è inutile. Implementato male e inutilmente, quindi una Amd potrebbe andare più che bene

MirkoHU
04-11-2022, 05:22
si raster 1,7x cyberpunk, in rt ultra è 1,5x 62fps.vs.42fps con fsrMmmh.. non é strano che rispetto la 6950, in ray tracing vada meno rispetto al raster?
Mi sarei aspettato l'1,5x in raster e 1,7x in rt, dato che in quest'ultimo caso si aggiunge anche l'ottimizzazione fatta per le prestazioni in ray tracing (mi pare si parlasse di un 50% in più rispetto rdna2?)


Inviato dal mio SM-N960F utilizzando Tapatalk

Feidar
04-11-2022, 05:24
Lato raster, pensavo in caso di basse prestazioni per flops, in uno scaling non ottimale, in delle latenze più elevate (ancora da analizzare), o in una falla microarchitetturale.
Ne ho beccato una grossa microarchitetturale.
Lo stravolgimento di RDNA va a donnine. Un bel passo indietro.
Il ray ora è condiviso in un dual CU e non in una CU classica, questo è un bene, 96 ray vs 80 con 1,5 g/rays di picco per unità.
Quindi a pari ray, 1,5 medio.

Il problema è che perde IPC, sia raster che RT.

Per come sono organizzate le DCU a doppia istruzione, l'hardware e il software devono cercare di parallelizzare al massimo il lavoro di esecuzione, o si rischiano code, o meglio è quasi impossibile far lavorare 12288 shader. Se l'istruzione successiva non può essere eseguita in parallelo (nel DCU), il CU rimane in attesa, fattore migliorato in rdna1 e 2, tanto da raggiungere nvidia.

Ecco che i TF tornano ad essere imprecisi, malgrado vengano dichiarati 60 e passa TF, questi sono variabili e legati ad attese.
Si ritorna in parte al metodo GCN.

Questo vale anche in RT. Sballando il lato raster, fa sbandare anche il RT, in cui è necessaria una parallelizzazione ottimale.
Insomma un bel passo indietro, per semplificare le CU.

Qua è semplificato, prima potevi fare tutto contemporaneamente, ora ti ritrovi con delle sorte di dipendenze, quindi i 60tf, diventano 30-40-50-60, in base al grado di parallelizzazione.
https://i.postimg.cc/qRQ7KS46/istruioni.png

Che lavoro fai? E perché proprio l'ingegnere architetturale informatico? :D

fraussantin
04-11-2022, 06:06
Cmq ella fine pesando tutto , mi aspettavo di più.

Frequenze un po troppo basse per il pp ,dissipatore un po preciso per 355w.

Rt ormai presente in molti giochi e implementato bene non più trascurabile

La battaglia è si tra 4080 e 7900xtx, ma dove per 130 euro meno probabilmente la spunterà la liscia

Aspetto le recensioni vere per farmi un idea precisa di quanto ci passa fra le 2 .


La 4090 rimane fuori dai giochi , una scheda folle ( prezzi ingombri tdp....) Con prezzi folli per gente folle;)
Ma inarrivabile.

Al netto che per i miei gusti e il mio portafoglio rimane una follia anche spendere 1100 euro per una scheda ( la xt)

3080 mia tieni duro !

Ps anche perche nei gioconi , quindi con rt , quanto andrebbe di più la 7900xt?

Hadar
04-11-2022, 06:33
Io mi aspettavo molto di più lato RT, ormai tutti i tripla A escono con opzioni ray tracing, peccato.
La scheda rimane valida per quanto visto, aspettiamo le recensioni.

Inviato dal mio Pixel 2 XL utilizzando Tapatalk

Ale55andr0
04-11-2022, 06:45
in gpu da 1200euro vorresti anche abilitare effetti grafici come il raytracing, ora ce l hanno quasi tutti e chi non lo ha lo aggiunge in seguito...cmq non è male per niente dovrebbe stare a lv 3090ti in rt piu esigenti

andare meno della 4090 in RT non vol mica dire mica non poter abilitare l'RT, se no stiamo dicendo che non lo puoi abilitare con una 3080/90 perchè dovrebbe essersi portata da quelle parti. A ogni modo RT continua ad essere inusabile in 4k senza "trucchi" anche sulla 4090....e non tutti i giochi RT sono CP2077 :asd:. Per me ad godersi l'RT 4k/60frame solidi in titoli next gen (UE5 et simili) senza porcate di mezzo (fake resolution/frames) mancano altre due generazioni minimo

fraussantin
04-11-2022, 06:46
andare meno della 4090 in RT non vol mica dire mica non poter abilitare l'RT, se no stiamo dicendo che non lo puoi abilitare con una 3080/90 perchè dovrebbe essersi portata da quelle partiIl punto è : una 3080 da 720 euro 2 anni fa nei giochi moderni ( quindi con rt attivo) quanto fa peggio di una 7900xt da 1100?

Asgard2022
04-11-2022, 06:48
Quando escono le recensioni?

Ale55andr0
04-11-2022, 06:52
Il punto è : una 3080 da 720 euro 2 anni fa nei giochi moderni ( quindi con rt attivo) quanto fa peggio di una 7900xt da 1100?

la 3080 resta "limitata" dai 10gb. E poi puoi sempre rigirarla: quanto fa meglio una 4090 in raster che continua ad essere stra-maggiormente diffuso? e quanti giochi avranno l'rt "a la CP2077" e saranno sponsorizzati nvidia con RT sparato in modo che pure su una 4090 devi andare di DLSS 3.0 per non fare 40fps? Sono tante le considerazioni, imho un mattone da +2kg con un connettore spininculo a 2k non giustifica la differenza in Rt su qualche game oliato da giacchetto. Poi se uno è "ricco" nulla da dire :) nessuno dice che la 4090 non è più performante ;)

Ale55andr0
04-11-2022, 06:56
Sinceramente? Schede che non mi hanno scaldato per nulla.

Vediamo le recensioni ma mi sa che sto giro lo salto tranquillamente.

se un +50/60% sia in RT che in raster allo stesso prezzo di lancio della tua 6900 non ti bastano non so che ti aspettavi. Oggi solo il camabio ci fotte. Io auspicavo solo un RT fra 4090 e 3090 invece che simil 3090. Ma globalmente non c'è proprio da lamentarsi imho. Ovvio che solo la XTX ha senso la cugina scema a soli 100 in meno per me è un errore. Dovevano piazzarla a 799, così non ha senso

fraussantin
04-11-2022, 06:59
la 3080 resta "limitata" dai 10gb. E poi puoi sempre rigirarla: quanto fa meglio una 4090 in raster che continua ad essere stra-maggiormente diffuso? e quanti giochi avranno l'rt "a la CP2077" e saranno sponsorizzati nvidia con RT sparato in modo che pure su una 4090 devi andare di DLSS 3.0 per non fare 40fps? Sono tante le considerazioni, imho un mattone da +2kg con un connettore spininculo a 2k non giustifica la differenza in Rt su qualche game oliato da giacchetto. Poi se uno è "ricco" nulla da dire :)

Per i 10 giga basta togliere una tacca alle texture. O spingere con dlss. Si parla di 400-500 euro in più dopo 2 anni

Tanto andra cmq tolto almeno una tacca di rt nei giochi moderni ma probabilmente anche qualcos'altro sia con ampere che con amd

Se non abiliti rt fai 800mila fps con tutte mille in più mille in meno cambia poco. I giochi spinti hanno tutti rt ormai.

Gyammy85
04-11-2022, 06:59
Nel 90% dei prossimi giochi RT starà più vicina alla 4090 che non ad ampere

fraussantin
04-11-2022, 07:01
Nel 90% dei prossimi giochi RT starà più vicina alla 4090 che non ad ampereÈ quello che vorrei vedere dalle recensioni.
Se fosse cosí sarebbe bene.

Ma lo sarà?

Ps ah sei gyammy , visto solo adesso :asd:

necromantis
04-11-2022, 07:01
Ma l fsr 3 e l’altra tecnologia che non ricordo il nome saranno compatibili con le 6000?


Inviato dal mio iPhone utilizzando Tapatalk

Freisar
04-11-2022, 07:02
A me vanno bene il punto è se il mio ali c'è la fa con la xtx!?
Se no ripiego sulla XT!

Ale55andr0
04-11-2022, 07:03
Alessandro mi aspettavo facessero vedere i giochi un po' più insistentemente.

Hanno fatto vedere due slide del cazzo con fsr.

Aspetto le recensioni. Magari mi scaldo la :asd:

così come nvidia ha fatto solo vedere CP 2077 e qualcosina con flight simulator, tutto in DLSS3 performance mode :asd:
I grafichetti su 4/5 titoli li han messi cmq, vederli girare o meno cambia nulla, sono ovviamente titoli cherry picked in condizioni cherry picked esattamente come nvidia, per quel che dici ci vogliono le review! quando usciranno, sapremo, non mancano mica 6 mesi ;)

Ale55andr0
04-11-2022, 07:17
Ma a me di quello che fa nvidia fottesega in caso non l'avessi capito :asd:

Nvidia ha fatto più ridere di AMD ma non è quello il punto.

Sta conferenza ha fatto cagare dai, non hanno fatto vedere NIENTE.

non fanno MAI vedere niente, entrambe, dai di che parliamo? :D

cioè conosci qualcuno, a parte gli inscimmiati, che comprano a scatola chiusa prima delle review vere e proprie? Il problema vero sarà scindere le review prezzolate da quelle oneste, perchè ogni santa volta ci stanno sbalzi del tutto anomali fra le une e le alte a pari titoli e configurazioni simili

Ale55andr0
04-11-2022, 07:22
Per i 10 giga basta togliere una tacca alle texture. O spingere con dlss. Si parla di 400-500 euro in più dopo 2 anni

Tanto andra cmq tolto almeno una tacca di rt nei giochi moderni ma probabilmente anche qualcos'altro sia con ampere che con amd

Se non abiliti rt fai 800mila fps con tutte mille in più mille in meno cambia poco. I giochi spinti hanno tutti rt ormai.

:Puke: :Puke: :Puke: :Puke: :Puke: :Puke: :Puke: :Puke: :Puke: :Puke:



...togliere una tacca sulle texture nel 2022/23? :sbonk:


ah già, quello dovrò farlo pure io, col roito :muro: :muro: :muro:


I titoli spinti non hanno però tutti l'RT come voluto da giacchetto....

ray_hunter
04-11-2022, 07:29
Un po' deluso della presentazione di ieri.
Speravo in prestazioni RT nettamente superiori, ma anche in raster. Io credevo avrebbe superato la 4090 in raster.
Con i numeri che c'erano era lecito aspettarsi un +80/+100% di prestazioni in raster ma invece siamo tra il 50 e il 70%.
Altra cosa che mi ha indispettito è la quasi totale mancanza di informazioni sull'utilizzo di FSR: spesso non era specificato se era l'1 o il 2 e se era impostato a qualità o prestazioni.
Stessa cosa mi manda in bestia di Nvidia che nei video promozionali non ti dice mai che impostazione di DLSS usa.

Di positivo della presentazione invece l'annuncio dell'FSR 3.0. Io sto provando il DLSS 3 e lo sto trovando davvero eccezionale. Penso AMD possa fare altrettanto bene.

Altra cosa che mi ha infastidito è che hanno parlato di unità di calcolo AI. Secondo uno screen di AMD sono stati introdotti proprio in RDNA3 ma non dicono a cosa servono: vogliono usarlo nell'FSR 3? Permetteranno un incremento delle prestazioni e/o un incremento qualitativo?
Ho visto l'altro giorno su HW Unboxed che XeSS quando usato con una ARC restituisce un notevole miglioramento prestazionale e qualitativo: sarà cosi anche con le nuove iterazioni di FSR?

Altra cosa che mi è piaciuta è come si stanno muovendo con le partnership di modo da diffondere le loro tecnologie software: oramai questo aspetto è diventato fondamentale tanto quanto un buon hardware.
Mi sembra si stia andando verso una forte integrazione con UE5 e col prossimo Snowdrop che potrebbe essere usato da Ubi in modo più massiccio che in passato.

Sarei altresì curioso di sapere se AC Valhalla usava FSR 1 o 2. Sarebbe figo se implementassero il 2 in questo gioco che ne gioverebbe parecchio.

Altra cosa positiva è il prezzo: se guardiamo alle prestazioni raster il prezzo è davvero ottimo. Lato RT invece rimango perplesso. Un appassionato non spende tutti quei soldi per dover fare rinunce in RT.
62 fps in CP2077 con RT su ultra ed FSR, presumibilmente 2.0 in performance modo sono le prestazioni di una RTX 3090/3080TI, ne più ne meno. Meglio DL2 che guadagna un 80% rispetto alla 6950XT però siamo sempre sui livelli di una RTX 3090/3080TI.
Chiaro che l'RT non è precluso, anzi è ben usabile però ci si deve spingere troppo con l'upscaling.
Da ultimo dico che in bench erano davvero troppo, troppo pochi. La presentazione di RDNA2 è stata di altro livello.

rickiconte
04-11-2022, 07:39
Quando saranno acquistabili queste nuove 7900?

Amd durante la presentazione ha detto a partire dal 13 dicembre.
Altro non si sa.

Ale55andr0
04-11-2022, 07:44
Con i numeri che c'erano era lecito aspettarsi un +80/+100% di prestazioni in raster ma invece siamo tra il 50 e il 70%.

quindi in pari con una 4090 che costa 2k


Sull'RT, si' anche io avrei auspicato qualcosina in più, diciamo un 1.8x medio sarebbe stato perfetto per piazzarla a cavallo fra 3090 e 4090, ma non si può avere tutto dalla vita, se le se mette nel complesso fra prezzo, consumo etc resta validissima. Magari gli AIB con 3*8 pin caverano fuori altri 4-500mhz sul core e le portano a +1.7x medio in RT, we will see :boh:

Cmq com'è sicuro che nvidia avrà la 4090ti amd avrà la 7950XTX, quindi se s vuole di più iin RT sul rosso si può

rickiconte
04-11-2022, 07:46
quindi in pari con una 4090 che costa 2k


Sull'RT, si' anche io avrei auspicato qualcosina in più, diciamo un 1.8x medio sarebbe stato perfetto per piazzarla a cavallo fra 3090 e 4090, ma non si può avere tutto dalla vita, se le se mette nel complesso fra prezzo, consumo etc resta validissima. Magari gli AIB con 3*8 pin caverano fuori altri 4-500mhz sul core e le portano a +1.7x medio in RT, we will see :boh:
L'iva non è al 23% ma bensì al 24%:O

mircocatta
04-11-2022, 07:48
è la fiera di chi ha una 4090 e casualmente sono delusi dalla presentazione di ieri LOL

Ale55andr0
04-11-2022, 07:50
è la fiera di chi ha una 4090 e casualmente sono delusi dalla presentazione di ieri LOL

vabè dai c'è anche del "fuoco amico" :D.

VanCleef
04-11-2022, 07:50
L'iva non è al 23% ma bensì al 24%:O

:asd:

Gigibian
04-11-2022, 07:51
Certo che le 6800 xt a 570 euro su Amazon...

StylezZz`
04-11-2022, 07:55
Certo che le 6800 xt a 570 euro su Amazon...

La XFX? Occhio che è la 6800 liscia, il titolo è sbagliato.

Gigibian
04-11-2022, 07:59
La XFX? Occhio che è la 6800 liscia, il titolo è sbagliato.

Ah, grazie!

mircocatta
04-11-2022, 08:00
Lato RT invece rimango perplesso. Un appassionato non spende tutti quei soldi per dover fare rinunce in RT.

spero tu stia scherzando

chi prese la 2080ti a 1300€ (con cambio ancora favorevole e senza questa inflazione, altrimenti anche per questa erano 1700/1800€ per la FE) giocava tutto maxato con rt attivo all'uscita? o fece rinunce? (non ti so rispondere manco io, visto che alla sua uscita non c'erano giochi in RT, tant'è che per testarne le superqualità in RT su twchpowerup hanno testato dei benchmark, ma oh! andava comprata perchè FUTURE PROOF!)

chi prese le 3090ti giocava tutto maxxato RT incluso quando uscì, o fece rinunce?
https://www.techpowerup.com/review/nvidia-geforce-rtx-3090-ti-founders-edition/34.html



dai valà:ciapet:

Ale55andr0
04-11-2022, 08:00
udite udite, l'amico di mio cugggino (:O) quello col negozio che mi ha fatto prendere la 3070 a prezzo da distributore durante il pandemio ha i listini ufficiali delle ASUS TUF: la 7900XTX TUF Asus viene a 1299 al pubblico :eek: 1199 la cugina scema

Gigibian
04-11-2022, 08:01
quindi in pari con una 4090 che costa 2k


Sull'RT, si' anche io avrei auspicato qualcosina in più, diciamo un 1.8x medio sarebbe stato perfetto per piazzarla a cavallo fra 3090 e 4090, ma non si può avere tutto dalla vita, se le se mette nel complesso fra prezzo, consumo etc resta validissima. Magari gli AIB con 3*8 pin caverano fuori altri 4-500mhz sul core e le portano a +1.7x medio in RT, we will see :boh:

Cmq com'è sicuro che nvidia avrà la 4090ti amd avrà la 7950XTX, quindi se s vuole di più iin RT sul rosso si può

Mi sembra una scheda con moltissime potenzialità in OC. Custom con 3 connettori, +500mhz e +20% di performance.

Gigibian
04-11-2022, 08:01
udite udite, l'amico di mio cugggino (:O) quello col negozio che mi ha fatto prendere la 3070 a prezzo da distributore ha i listini ufficiali delle ASUS UF: la 7900XTX TUF Asus viene a 1299 al pubblico :eek: 1199 la cugina scema

Minchia:fagiano:

scorpion73
04-11-2022, 08:02
Nel 90% dei prossimi giochi RT starà più vicina alla 4090 che non ad ampere

Si come no, e mio nonno ritorna dall'aldilà...

Ale55andr0
04-11-2022, 08:05
Minchia:fagiano:

già, ottimi prezzi per delle custom, chiederò anche in merito alla disponibilità...cmq mio cugino a Gennaio la prenderà, e pure senza iva, in amicizia, ergo a 1k :sofico:

Gyammy85
04-11-2022, 08:06
È quello che vorrei vedere dalle recensioni.
Se fosse cosí sarebbe bene.

Ma lo sarà?

Ps ah sei gyammy , visto solo adesso :asd:

Le perf in rt vanno da un MINIMO della 3090ti a salire, mi sembra chiaro
Per il resto, io la vedo andare sopra alla 4090 in raster, magari appaiata a 4k, ma stiamo sempre parlando di driver day 0 su architettura completamente nuova, esce a dicembre infatti per essere sicuri di avere i driver ottimizzati per le review

udite udite, l'amico di mio cugggino (:O) quello col negozio che mi ha fatto prendere la 3070 a prezzo da distributore durante il pandemio ha i listini ufficiali delle ASUS TUF: la 7900XTX TUF Asus viene a 1299 al pubblico :eek: 1199 la cugina scema

Mi sembra buono no? asus è sempre più cara, ma venderanno le reference dal sito come prima?

scorpion73
04-11-2022, 08:07
Le perf in rt vanno da un MINIMO della 3090ti a salire, mi sembra chiaro
Per il resto, io la vedo andare sopra alla 4090 in raster, magari appaiata a 4k, ma stiamo sempre parlando di driver day 0 su architettura completamente nuova, esce a dicembre infatti per essere sicuri di avere i driver ottimizzati per le review



Mi sembra buono no? asus è sempre più cara, ma venderanno le reference dal sito come prima?

Sostituisci MINIMO con MASSIMO va... dalle prove di ieri io non ho visto livelli minimi ma piuttosto i casi sui giochi migliori, e non hanno specificato nemmeno se FSR era in qualità o performance.

In RT la scheda è indietro e parecchio pure rispetto a Nvidia, in raster si posiziona fra 4080 e 4090, con alcuni giochi dove probabilmente si avvicina di parecchio a quest'ultima. Potrà ovviamente crescere un pò con la maturazione dei drivers, ma non sperare in miracoli da Santa Claus.
Il suo punto di favore è che la 4080 è a un prezzo da suicidio e quindi la XTX diventa senza concorrenza.
Se la 4080 fosse stata a un prezzo normale, se la sarebbero giocata su base preferenza di ciascuno.
Contiamo che la 7900 ha anche il connettore non da sbattimento, consumi umani e dimensioni perfette. A livello di progettazione è veramente fatta bene, e non è un plus da poco che me la farebbe preferire anche a me alla 4080.
Ma la 4090 è di un altro pianeta. Poi per carità, ognuno la vede come vuole, anche la mia 500 può sembrare una ferrari se la dipingo di rosso...

devil_mcry
04-11-2022, 08:10
Le perf in rt vanno da un MINIMO della 3090ti a salire, mi sembra chiaro
Per il resto, io la vedo andare sopra alla 4090 in raster, magari appaiata a 4k, ma stiamo sempre parlando di driver day 0 su architettura completamente nuova, esce a dicembre infatti per essere sicuri di avere i driver ottimizzati per le review



Mi sembra buono no? asus è sempre più cara, ma venderanno le reference dal sito come prima?

le tuf non sono care, sono delle base customizzate, probabilmente la strix sarà a 1500€

Gigibian
04-11-2022, 08:11
Le perf in rt vanno da un MINIMO della 3090ti a salire, mi sembra chiaro
Per il resto, io la vedo andare sopra alla 4090 in raster, magari appaiata a 4k, ma stiamo sempre parlando di driver day 0 su architettura completamente nuova, esce a dicembre infatti per essere sicuri di avere i driver ottimizzati per le review



Mi sembra buono no? asus è sempre più cara, ma venderanno le reference dal sito come prima?

Esatto quindi superiore alla 4090 in raster e vicina alla 4080 in RT.

Consideriamo che hanno triplicato (!) I Tflop e raddoppiato la bandwidth (!) rispetto alla 6950, e c'è tanto margine di salita con i clock che hanno tenuto bassi(!).

Secondo me a regime, staremo tranquillamente su un 2x performance della 6950.

Ale55andr0
04-11-2022, 08:12
le tuf non sono care, sono delle base customizzate, probabilmente la strix sarà a 1500€

restano schede migliori delle reference, e se il prezzo che mi ha dato è vero sono praticamente prezzate MSRP come le reference di AMD e su un rivenditore col "negozio sotto casa", di solito ben più cari degli shop online...

TRUTEN
04-11-2022, 08:13
udite udite, l'amico di mio cugggino (:O) quello col negozio che mi ha fatto prendere la 3070 a prezzo da distributore durante il pandemio ha i listini ufficiali delle ASUS TUF: la 7900XTX TUF Asus viene a 1299 al pubblico :eek: 1199 la cugina scema

Mi sembra quanto ipotizzato come prezzo: 999$ = 1021€+22% = 1245€
La 4080 dovrebbe costare almeno 1500€ (1199$=1225+22%).

Praticamente la XTX costa il 20% in meno e dovrebbe stargli sopra senza problemi.
Nell'ottica di questi prezzi folli per le schede video è un prodotto con un ottimo rapporto prezzo/prestazioni.

Gigibian
04-11-2022, 08:13
Sostituisci MINIMO con MASSIMO va...

In RT la scheda è indietro e parecchio pure rispetto a Nvidia, in raster si posiziona fra 4080 e 4090, con alcuni giochi dove probabilmente si avvicina di parecchio a quest'ultima.
Il suo punto di favore è che la 4080 è a un prezzo da suicidio e quindi la XTX diventa senza concorrenza.
Se la 4080 fosse stata a un prezzo normale, se la sarebbero giocata su base preferenza di ciascuno.
Ma la 4090 è di un altro pianeta. Poi per carità, ognuno la vede come vuole, anche la mia 500 può sembrare una ferrari se la dipingo di rosso...

La 4090 é di un altro pianeta perché ha le stesse performance al doppio del prezzo sono d'accordo :fagiano:

Seriamente: in raster 4k sarà appaiata alla 4090, in raster 1440p sarà nettamente sopra. Aspetta le review di dicembre e vediamo ;)

In RT si avvicinerà molto alla 4080.

Tutto a 1000 euri in meno della 4090.:O

ray_hunter
04-11-2022, 08:13
spero tu stia scherzando

chi prese la 2080ti a 1300€ (con cambio ancora favorevole e senza questa inflazione, altrimenti anche per questa erano 1700/1800€ per la FE) giocava tutto maxato con rt attivo all'uscita? o fece rinunce? (non ti so rispondere manco io, visto che alla sua uscita non c'erano giochi in RT, tant'è che per testarne le superqualità in RT su twchpowerup hanno testato dei benchmark, ma oh! andava comprata perchè FUTURE PROOF!)

chi prese le 3090ti giocava tutto maxxato RT incluso quando uscì, o fece rinunce?
https://www.techpowerup.com/review/nvidia-geforce-rtx-3090-ti-founders-edition/34.html

dai valà:ciapet:

Scusami ma il tuo discorso trascende dal periodo, giochi disponibili e hardware disponibile.
E' del tutto decontestualizzato caspita...

Ci sta che tu faccia delle valutazioni diverse dalle mie, ognuno ha punti di vista ed esigenze diverse. Dare per scontato che il proprio punto di vista sia quello giusto anche no...;)

Freisar
04-11-2022, 08:15
Immagino che per la xtx ci voglia un 850w!?

scorpion73
04-11-2022, 08:16
La 4090 é di un altro pianeta perché ha le stesse performance al doppio del prezzo sono d'accordo :fagiano:

Seriamente: in raster 4k sarà appaiata alla 4090, in raster 1440p sarà nettamente sopra. Aspetta le review di dicembre e vediamo ;)

In RT si avvicinerà molto alla 4080.

Tutto a 1000 euri in meno della 4090.:O

Ma infatti guarda che io la XTX la reputo una ottima scheda, pefetta per giocare in 2K.
Ma sul 4K non c'è storia: non che non ci giochi ovviamente con la radeon, ma dovrai scendere a compromessi, come lo avresti fatto sulla 4080, soprattutto se usi RT. Dire che sta al livello della 4090 onestamente non mi trova affatto d'accordo.
Per me, provenendo io da una 3090 non la reputo globalmente un upgrade da fare per chi era con la top nvidia; viceversa per chi ha fino alla 3080 diventa un upgrade molto allettante rispetto alla 4080.

Felice di ricredermi se le prove poi mi smentirano ovviamente.

egounix
04-11-2022, 08:17
Immagino che per la xtx ci voglia un 850w!?

se la metti su una cpu da 15w, stai anche con un 550 a regola

Ale55andr0
04-11-2022, 08:17
Scusami ma il tuo discorso trascende dal periodo, giochi disponibili e hardware disponibile.
E' del tutto decontestualizzato caspita...

Ci sta che tu faccia delle valutazioni diverse dalle mie, ognuno ha punti di vista ed esigenze diverse. Dare per scontato che il proprio punto di vista sia quello giusto anche no...;)

sto thread è diventato come quello delle cpu AMD: li gli intellisti a difendere intel, qui i 4090 dotati a intendere le loro ragioni :asd:

egounix
04-11-2022, 08:19
sto thread è diventato come quello delle cpu AMD: li gli intellisti a difendere intel, qui i 4090 dotati a intendere le loro ragioni :asd:

per me la 7900 xtx è perfetta per l'hd ready 60hz e la 4090 xtx per il fullhd competitivo 120hz

non di piu' :O

Ale55andr0
04-11-2022, 08:20
Ma infatti guarda che io la XTX la reputo una ottima scheda, pefetta per giocare in 2K.
Ma sul 4K non c'è storia: non che non ci giochi ovviamente con la radeon, ma dovrai scendere a compromessi, come lo avresti fatto sulla 4080, soprattutto se usi RT. Dire che sta al livello della 4090 onestamente non mi trova affatto d'accordo.
Per me, provenendo io da una 3090 non la reputo globalmente un upgrade da fare per chi era con la top nvidia; viceversa per chi ha fino alla 3080 diventa un upgrade molto allettante rispetto alla 4080.

Felice di ricredermi se le prove poi mi smentirano ovviamente.

Dipende: in raster non c'è storia che... siamo a livello 4090 a 7/800 euro in meno e con 100w in meno :D. IN RT si vedrà a quanto si rinuncia anche se, certo, sarà inferiore alla 4090 in quel frangente no doubt

Yota79
04-11-2022, 08:20
Secondo me i prezzi saranno più alti di quello che si suppone qua. Non ci sarà la conversione 1:1 + iva come sarebbe lecito.

Se prendiamo la 6950x in USA, dove vanno comunque aggiunte le tasse per stato, che variano dal 7% all'11% se non ricordo male, e il prezzo ivato in italia attuale, io mi aspetto che la 7900xtx da 999$ starà sopra i 1500€ mentre la 7900xt starà sopra 1400...

se facciamo un rapporto i prezzi che mi vengono sono:

899$ = 1477€
999$ = 1630€

https://i.ibb.co/2sTWqwy/Screenshot-2022-11-04-alle-09-14-59.png (https://ibb.co/k9t5Kpx)https://i.ibb.co/5k9zMD8/Screenshot-2022-11-04-alle-09-11-28.png (https://ibb.co/Scx1sTn)

Gyammy85
04-11-2022, 08:20
Esatto quindi superiore alla 4090 in raster e vicina alla 4080 in RT.

Consideriamo che hanno triplicato (!) I Tflop e raddoppiato la bandwidth (!) rispetto alla 6950, e c'è tanto margine di salita con i clock che hanno tenuto bassi(!).

Secondo me a regime, staremo tranquillamente su un 2x performance della 6950.

Se la 4080 da 16 va +30% la 3090 in rt sarebbero quelle le perf
Comunque non so se avete notato callisto protocol o come si chiama, la grafica era pazzesca, non quattro riflessi a specchio, ci sarà da ridere ci sarà

ray_hunter
04-11-2022, 08:20
quindi in pari con una 4090 che costa 2k


Sull'RT, si' anche io avrei auspicato qualcosina in più, diciamo un 1.8x medio sarebbe stato perfetto per piazzarla a cavallo fra 3090 e 4090, ma non si può avere tutto dalla vita, se le se mette nel complesso fra prezzo, consumo etc resta validissima. Magari gli AIB con 3*8 pin caverano fuori altri 4-500mhz sul core e le portano a +1.7x medio in RT, we will see :boh:

Cmq com'è sicuro che nvidia avrà la 4090ti amd avrà la 7950XTX, quindi se s vuole di più iin RT sul rosso si può

Sinceramente, con 12288 contro 5120 shader core, una frequenza maggiore e maggiore bandwidth non era lecito aspettarsi ben altre performance?

L'analisi di Mikael è ficcante e fa capire che c'è stato un notevole ridimensionamento dell'IPC che sinceramente non mi sarei mai aspettato.

Che ci sia del margine per una 7950 e che gli AIB garantiranno degli OC mostruosi ne sono convinto anch'io!

scorpion73
04-11-2022, 08:21
Dipende: in raster non c'è storia che... siamo a livello 4090 a 7/800 euro in meno e con 100w in meno :D. IN RT si vedrà a quanto si rinuncia anche se, certo, sarà inferiore alla 4090 in quel frangente no doubt

Riporto una frase a conferma di quello che dici: piccolo esempio dalle loro slide, in 4k god of war amd 98 fps, 4090 160+ senza dlss.
Ma di che parliamo dai..

Ale55andr0
04-11-2022, 08:22
Sarebbe il mio? :asd:

Comunque sta gen, visti i prezzi, nvidia per me è fuori dai giochi.

Non gli compro una 4080 a 1.500 euro, può andare in RT quanto vuole ma i miei soldi non glieli do.

Valuterò solo AMD.

Poi se nvidia taglia sostanzialmente la 4080 allora si può ragionare.

4090 manco a parlarne, 2k di scheda.

Per carità.

cmq amd di fatto non ha prezzato UN dollaro in più, è la conversione che ci fotte :muro:. Accidenti al :oink: "denazificatore" :rolleyes:

craesilo
04-11-2022, 08:22
sto thread è diventato come quello delle cpu AMD: li gli intellisti a difendere intel, qui i 4090 dotati a intendere le loro ragioni :asd:

e i rosciiii? :stordita:

Riporto una frase a conferma di quello che dici: piccolo esempio dalle loro slide, in 4k god of war amd 98 fps, 4090 160+ senza dlss.
Ma di che parliamo dai..

sicuro non sia 198?

Gyammy85
04-11-2022, 08:23
Sinceramente, con 12288 contro 5120 shader core, una frequenza maggiore e maggiore bandwidth non era lecito aspettarsi ben altre performance?

L'analisi di Mikael è ficcante e fa capire che c'è stato un notevole ridimensionamento dell'IPC che sinceramente non mi sarei mai aspettato.

Che ci sia del margine per una 7950 e che gli AIB garantiranno degli OC mostruosi ne sono convinto anch'io!

Si ma 355 watt sono niente per quelle perf, e scommetto che la 7900xt faccia lo stesso guadagno sulla 6900xt, di che stiamo parlando?
Sono si 12288 sp ma in configurazione doppia, in pratica sarebbero 6144 con smt se ho capito bene...pure nvidia millanta up to 4x performance, siamo andati col calibro a misurare che non fa 4x su tutto o ci siamo limitati a sbrodolare sul dlss3 con pezzi di frame che vanno per margherite? ok che dobbiamo giustificare i 2500 prezzo regalo, però

ray_hunter
04-11-2022, 08:24
sto thread è diventato come quello delle cpu AMD: li gli intellisti a difendere intel, qui i 4090 dotati a intendere le loro ragioni :asd:

Fermo li!!! La 4090 come sta in firma può essere anche cambiata domani se trovo qualcosa di meglio!

Per questo seguo il thread ed ero trepidante per la presentazione di ieri

Poi per carità, avrò magari fatto male io a farmi aspettative troppo alte. Questo si.

Ale55andr0
04-11-2022, 08:25
Sinceramente, con 12288 contro 5120 shader core, una frequenza maggiore e maggiore bandwidth non era lecito aspettarsi ben altre performance?

L'analisi di Mikael è ficcante e fa capire che c'è stato un notevole ridimensionamento dell'IPC che sinceramente non mi sarei mai aspettato.

Che ci sia del margine per una 7950 e che gli AIB garantiranno degli OC mostruosi ne sono convinto anch'io!

Non ho considerato la conta dei core perchè a cambio architetturale è come paragonare mele e pere, si, anche io speravo qualcosa in più in RT, ma mica il doppio, diciamo un 15/20% in più di quanto ce la racconta AMD ecco :)

Gyammy85
04-11-2022, 08:25
Riporto una frase a conferma di quello che dici: piccolo esempio dalle loro slide, in 4k god of war amd 98 fps, 4090 160+ senza dlss.
Ma di che parliamo dai..

Veramente quello è ac valhalla 8k fsr on, 96 fps e la 4090 arriva al massimo a 80 medi

Ale55andr0
04-11-2022, 08:27
Fermo li!!! La 4090 come sta in firma può essere anche cambiata domani se trovo qualcosa di meglio!

Per questo seguo il thread ed ero trepidante per la presentazione di ieri

Poi per carità, avrò magari fatto male io a farmi aspettative troppo alte. Questo si.

parlo in generale, anche se certo come possessore ne fai parte, ma è curioso come chi ha la 4090 venga a mettere punti sulle i come a dover giustificare/spiegonare qualcosa qui dai :D

Freisar
04-11-2022, 08:27
se la metti su una cpu da 15w, stai anche con un 550 a regola

Io ho il 5800x in eco mode dici che regge il 750gold?

mircocatta
04-11-2022, 08:28
Scusami ma il tuo discorso trascende dal periodo, giochi disponibili e hardware disponibile.
E' del tutto decontestualizzato caspita...

Ci sta che tu faccia delle valutazioni diverse dalle mie, ognuno ha punti di vista ed esigenze diverse. Dare per scontato che il proprio punto di vista sia quello giusto anche no...;)

capisco il tuo punto di vista, tu cerchi il massimo e difatti il tuo sfizio te lo sei bello che già levato senza troppo tergiversare.
ma dire che questa conferenza è insoddisfacente boh, mi sembra esagerato, quando stampa o canali YT vari stanno impazzendo (in positivo)
io vedo una scheda che al prezzo che verrà venduta non ha concorrenza in RT (o quasi) , in raster ciaone proprio, dimensioni, consumi, fsr3 (che promette quello che hanno fatto con il dlss3 per accontentare quelli a cui non danno fastidio queste fantasmagoriche tecniche, tipo alessandro :asd: ) e accessori annessi quali case/alimentatore nuovo. imho tanto basta :stordita:
l'unica cosa negativa è che ... ora la mia 3080ti se la voglio vendere la dovrò svendere:muro: :cry:

ray_hunter
04-11-2022, 08:29
Si ma 355 watt sono niente per quelle perf, e scommetto che la 7900xt faccia lo stesso guadagno sulla 6900xt, di che stiamo parlando?
Sono si 12288 sp ma in configurazione doppia, in pratica sarebbero 6144 con smt se ho capito bene...pure nvidia millanta up to 4x performance, siamo andati col calibro a misurare che non fa 4x su tutto o ci siamo limitati a sbrodolare sul dlss3 con pezzi di frame che vanno per margherite? ok che dobbiamo giustificare i 2500 prezzo regalo, però

Fermo li, non cominciare con i soliti tuoi discorsi di parte senza senso.

Ripeto che io, da quelle specifiche mi ero fatto ben altre aspettative.
Nessuno sbrodola DLSS3, io la reputo una gran feature come reputo una mossa eccellente quella di implementare il Fluid motion Engine con FSR3.
Apprezzo entrambe le iniziative e credo e spero che FSR3 sarà all'altezza come credo che FSR2 sia all'altezza di DLSS2. Le recensioni dove dipingono DLSS nettamente migliore di FSR sono, a mio avviso faziose. All'analisi al microscopio è migliore DLSS ma all'atto pratico nell'esperienza di gaming sono del tutto uguali...
Ti dirò poi che non vedo l'ora implementi FSR 2 in CP2077 perché il DLSS sporca tanto l'immagine e non la trovo una gran implementazione (a differenza di quello che dicono sul tuo o nel web).

Bloodline Limit
04-11-2022, 08:29
bho a questo punto misà che tutto sommato prendere una 3080 nuova a 600€ non è stato poi così sbagliato :fagiano:

pace all'anima loro, poca spesa massima resa :gluglu:

ray_hunter
04-11-2022, 08:31
capisco il tuo punto di vista, tu cerchi il massimo e difatti il tuo sfizio te lo sei bello che già levato senza troppo tergiversare.
ma dire che questa conferenza è insoddisfacente boh, mi sembra esagerato, quando stampa o canali YT vari stanno impazzendo (in positivo)
io vedo una scheda che al prezzo che verrà venduta non ha concorrenza in RT (o quasi) , in raster ciaone proprio, dimensioni, consumi e accessori annessi quali case/alimentatore nuovo e tanto basta, o anche questo è un parere soggettivo? :stordita:

Infatti non ho scritto insoddisfacente ma un po' deludente.
Mi riferivo alla conferenza in generale e non tanto ai prodotti...
Come sono rimasto deluso di quella delle RTX 4000.
Al contrario le presentazioni di RTX 3000 e RDNA2 mi avevano davvero entusiasmato.

Per quanto riguarda la scheda condivido quello che dici. Se il budget che uno ha è di ~1200-1300€ è una scheda da prendere al volo!
La 7900XT invece la trovo una fregatura: 100€ in meno della XTX e andrà circa un 15% in meno. A mio avviso non sense

Gyammy85
04-11-2022, 08:31
bho a questo punto misà che tutto sommato prendere una 3080 nuova a 600€ non è stato poi così sbagliato :fagiano:

pace all'anima loro, poca spesa massima resa :gluglu:

Quella da 10 giga magari, che le prende pure da una 6800 liscia :asd:

Dai su, la sbornia passerà

egounix
04-11-2022, 08:34
Io ho il 5800x in eco mode dici che regge il 750gold?

mah per me sì, a sto giro cambio ali pure io - se non erro il corsair sotto è il 750 platinum, ultima recensione di jonnyguru prima che andasse all'altro mondo -, ma giusto per stare tranquillo

non so che offerte ci siano tra 850 e 1000w sfx, se esiste un buon 1000w mi sa che uno bel millino ci stia tutto

e niente, la 6900xt finisce nel 10400F, non riesco a vendere la build... non me la compra nessuno :asd:

Ale55andr0
04-11-2022, 08:35
Fermo li, non cominciare con i soliti tuoi discorsi di parte senza senso.

Ripeto che io, da quelle specifiche mi ero fatto ben altre aspettative.
Nessuno sbrodola DLSS3, io la reputo una gran feature come reputo una mossa eccellente quella di implementare il Fluid motion Engine con FSR3.
Apprezzo entrambe le iniziative e credo e spero che FSR3 sarà all'altezza come credo che FSR2 sia all'altezza di DLSS2. Le recensioni dove dipingono DLSS nettamente migliore di FSR sono, a mio avviso faziose. All'analisi al microscopio è migliore DLSS ma all'atto pratico nell'esperienza di gaming sono del tutto uguali...
Ti dirò poi che non vedo l'ora implementi FSR 2 in CP2077 perché il DLSS sporca tanto l'immagine e non la trovo una gran implementazione (a differenza di quello che dicono sul tuo o nel web).


Ti plaudo. In CP 2077 è una vera merda il DLSS. In RDR2 e Horizon è sicuramente implementato meglio. Che cacchio hanno combinato con quel motore ancora non l'ho capito. Io cmq resto fedele al "come la nativa c'è solo la nativa"

narniagreen
04-11-2022, 08:37
...
Qua è semplificato, prima potevi fare tutto contemporaneamente, ora ti ritrovi con delle sorte di dipendenze, quindi i 60tf, diventano 30-40-50-60, in base al grado di parallelizzazione.
https://i.postimg.cc/qRQ7KS46/istruioni.png

Con le architetture moderne oramai parlare di TFlops non ha più senso, Ampere lo ha ampiamente dimostrato 2 anni fa, tra l'altro.
Praticamente è come se fosse una specie Zen1, dove nel HT prendeva il buono di Bulldozer ed aumentavano drasticamente l'IPC, non lo diminuivano.
Di fatto li chiamano Dual Issue SIMD, non sono dei veri e propri 12200sp, e non è un male.
Oltretutto bisogna vedere come lavorano quei core AI, e qual è l'intento di AMD nell'andare in quella direzione...

udite udite, l'amico di mio cugggino (:O) quello col negozio che mi ha fatto prendere la 3070 a prezzo da distributore durante il pandemio ha i listini ufficiali delle ASUS TUF: la 7900XTX TUF Asus viene a 1299 al pubblico :eek: 1199 la cugina scema

Tanta roba, la 4090 Asus costa esattamente 2x e la 7900XTX sulla carta dichiara Raster -10%, RT -30%, -100watt, dimensioni alla "Trentalance" e connettori che non si fondono.

egounix
04-11-2022, 08:38
Ti plaudo. In CP 2077 è una vera merda il DLSS. In RDR2 e Horizon è sicuramente implementato meglio. Che cacchio hanno combinato con quel motore ancora non l'ho capito. Io cmq resto fedele al "come la nativa c'è solo la nativa"

in warzone verdansk faceva un gran lavoro, immagine pulitissima, poi hanno deciso di rimuovere verdansk e di fare un disastro dopo l'altro :asd: quindi bye bye dlss

vedremo con warzone 2

su mw2 hanno implementato solo fsr 1.0... mi parlano di 3.0, ma ancora molti giochi hanno l'1.0... per carità, giocando competitivo a velocità ipersoniche si nota solo qualche momento in cui fa tutto cagare, è tutto sgranato, poi si riprende e non ci fai piu' caso, guardi solo gli fps che volano volano volanooooooooooooooooooooooo :O

Ale55andr0
04-11-2022, 08:39
Quella da 10 giga magari, che le prende pure da una 6800 liscia :asd:

Dai su, la sbornia passerà

In quale pianeta la 3080 10gb le prende dalla 6800 liscia? La incula a sangue in ogni contesto, per cortesia, non facciamo disinformazione

ray_hunter
04-11-2022, 08:40
Ti plaudo. In CP 2077 è una vera merda il DLSS. In RDR2 e Horizon è sicuramente implementato meglio. Che cacchio hanno combinato con quel motore ancora non l'ho capito. Io cmq resto fedele al "come la nativa c'è solo la nativa"

Se mi parli di RDR2 la nativa fa cagare e il DLSS o FSR a quality sono migliori.
In alcuni casi le native sono flagellate da TAA che blurra veramente da schifo...
Di casi ce ne son diversi!
In altri invece la nativa è indubbiamente migliore.

egounix
04-11-2022, 08:41
In quale pianeta la 3080 10gb le prende dalla 6800 liscia? La incula a sangue in ogni contesto, per cortesia, non facciamo disinformazione

sì ma tu hai la 3070 :stordita:

VanCleef
04-11-2022, 08:42
Si parla più di RTX in questo Thread che nell'altro :D
Nell'altro son passati al tema carte di credito vs carte di debito :p

egounix
04-11-2022, 08:43
Si parla più di RTX in questo Thread che nell'altro :D
Nell'altro son passati al tema carte di credito vs carte di debito :p

se avete bisogno di chiarimenti ho lavorato e tutt'ora faccio dei lavoretti per una banca :stordita:

OvErClOck82
04-11-2022, 08:45
Riporto una frase a conferma di quello che dici: piccolo esempio dalle loro slide, in 4k god of war amd 98 fps, 4090 160+ senza dlss.
Ma di che parliamo dai..

non era AC a 8k quello ?

nel caso spiegacelo tu di cosa parliamo :asd:

egounix
04-11-2022, 08:46
non era AC a 8k quello ?

nel caso spiegacelo tu di cosa parliamo :asd:

non era god of warro a 8kakka fsr quello a 98?

Ale55andr0
04-11-2022, 08:46
sì ma tu hai la 3070 :stordita:

rispondevo a giammy che diceca che la 3080 10gb le prende dalla 6800 liscia. Si' la mia 3070 le prende dalla liscia in raster, ma in RT "spinto" va meglio posto che osno entrambe inadeguate in quel contesto

Ale55andr0
04-11-2022, 08:47
chiesto a mio cugino sulla disponibilità udite udite:

il rivenditore amico di mio cugggino (:O) rivenditore ufficiale di Asus e Zotac dice che non c'è ALCUN problema di disponibilità sia per le AMD che per le nvidia MA che su nvidia hanno però ordini dall'alto: se hanno 20 schede rtx 4000 in magazzino, ma ne vogliono ordinare altre 10 per averne 30 in magazzino DEVONO ordinare ANCHE 15 RTX3000 o non gliele concedono perchè hanno i magazzini STRACOLMI di serie 3000 ancora :rotfl:

in soldoni per "sbloccare" più ordini di serie 4000 devono anche sciropparsi un tot di 3000 :asd:

Nerd1
04-11-2022, 08:50
Lato raster, pensavo in caso di basse prestazioni per flops, in uno scaling non ottimale, in delle latenze più elevate (ancora da analizzare), o in una falla microarchitetturale.
Ne ho beccato una grossa microarchitetturale.
Lo stravolgimento di RDNA va a donnine. Un bel passo indietro.
Il ray ora è condiviso in un dual CU e non in una CU classica, questo è un bene, 96 ray vs 80 con 1,5 g/rays di picco per unità.
Quindi a pari ray, 1,5 medio.

Il problema è che perde IPC, sia raster che RT.

Per come sono organizzate le DCU a doppia istruzione, l'hardware e il software devono cercare di parallelizzare al massimo il lavoro di esecuzione, o si rischiano code, o meglio è quasi impossibile far lavorare 12288 shader. Se l'istruzione successiva non può essere eseguita in parallelo (nel DCU), il CU rimane in attesa, fattore migliorato in rdna1 e 2, tanto da raggiungere nvidia.

Ecco che i TF tornano ad essere imprecisi, malgrado vengano dichiarati 60 e passa TF, questi sono variabili e legati ad attese.
Si ritorna in parte al metodo GCN.

Questo vale anche in RT. Sballando il lato raster, fa sbandare anche il RT, in cui è necessaria una parallelizzazione ottimale.
Insomma un bel passo indietro, per semplificare le CU.

Qua è semplificato, prima potevi fare tutto contemporaneamente, ora ti ritrovi con delle sorte di dipendenze, quindi i 60tf, diventano 30-40-50-60, in base al grado di parallelizzazione.
https://i.postimg.cc/qRQ7KS46/istruioni.png

Interessante

Ora entrambe le architetture hanno un numero variabile di TF in base al tipo di carico, la spunterà chi programmerà meglio a livello driver e "allungherà le giuste raccomandazioni" agli sviluppatori

Posizionamento del prodotto ottimo sinceramente da un punto di vista "fisico" (scheda montabile ovunque sia per ingombri che requisiti energetici) e di prezzo (cura "ryzen"). La DP2.1 poi è la ciliegina.

La 7800XT ipotizzabile a 699$ e la liscia poco sotto saranno delle belle bestioline per il wQHD e si alimenteranno con un accendino

ray_hunter
04-11-2022, 08:52
non era AC a 8k quello ?

nel caso spiegacelo tu di cosa parliamo :asd:

AC Valhalla in 8K con FSR a performance (bisogna leggere le note di fine presentazione per scoprirlo), praticamente 4K di res interna. Fatevi due conti e ditemi se è così strabiliate! Secondo me una 6950Xt ne fa tranquillamente 60 a quelle impostazioni...

chiesto a mio cugino sulla disponibilità udite udite:

il rivenditore amico di mio cugggino (:O) rivenditore ufficiale di Asus e Zotac dice che non c'è ALCUN problema di disponibilità sia per le AMD che per le nvidia MA che su nvidia hanno però ordini dall'alto: se hanno 20 schede rtx 4000 in magazzino, ma ne vogliono ordinare altre 10 per averne 30 in magazzino DEVONO ordinare ANCHE 15 RTX3000 o non gliele concedono perchè hanno i magazzini STRACOLMI di serie 3000 ancora :rotfl:

Vergognoso caspita!

Gigibian
04-11-2022, 08:53
https://www.hwupgrade.it/articoli/6414/slide_13.jpg

Se vedete il grafico, in rt SENZA FSR (barre scure) in dying light 2 ad esempio c'è stato un +120% di performance circa!
Cyberpunk vicino al raddoppio...

egounix
04-11-2022, 08:53
Interessante

Ora entrambe le architetture hanno un numero variabile di TF in base al tipo di carico, la spunterà chi programmerà meglio a livello driver e "allungherà le giuste raccomandazioni" agli sviluppatori

Posizionamento del prodotto ottimo sinceramente da un punto di vista "fisico" (scheda montabile ovunque sia per ingombri che requisiti energetici) e di prezzo (cura "ryzen"). La DP2.1 poi è la ciliegina.

La 7800XT ipotizzabile a 699$ e la liscia poco sotto saranno delle belle bestioline per il wQHD e si alimenteranno con un accendino

https://nella34a.francescomastrorizzi.it/wp-content/uploads/2016/12/auguri_coca_cola-649x487.jpg

Gyammy85
04-11-2022, 08:53
chiesto a mio cugino sulla disponibilità udite udite:

il rivenditore amico di mio cugggino (:O) rivenditore ufficiale di Asus e Zotac dice che non c'è ALCUN problema di disponibilità sia per le AMD che per le nvidia MA che su nvidia hanno però ordini dall'alto: se hanno 20 schede rtx 4000 in magazzino, ma ne vogliono ordinare altre 10 per averne 30 in magazzino DEVONO ordinare ANCHE 15 RTX3000 o non gliele concedono perchè hanno i magazzini STRACOLMI di serie 3000 ancora :rotfl:

in soldoni per "sbloccare" più ordini di serie 4000 devono anche sciropparsi un tot di 3000 :asd:

I casi sono due, o ne hanno vendute pochine o ne hanno prodotte tantissime credendo agli utenti dei forum che dicono "se non è di verde huang noi di sicuro non compriam!!"

ray_hunter
04-11-2022, 08:54
Interessante

Ora entrambe le architetture hanno un numero variabile di TF in base al tipo di carico, la spunterà chi programmerà meglio a livello driver e "allungherà le giuste raccomandazioni" agli sviluppatori

Posizionamento del prodotto ottimo sinceramente da un punto di vista "fisico" (scheda montabile ovunque sia per ingombri che requisiti energetici) e di prezzo (cura "ryzen"). La DP2.1 poi è la ciliegina.

La 7800XT ipotizzabile a 699$ e la liscia poco sotto saranno delle belle bestioline per il wQHD e si alimenteranno con un accendino

Se c'è qualcosa su cui ben sperare è lato driver. Con AMD mi aspetto di veder upgrade molto consistenti dopo un anno dall'immissione della scheda sul mercato. I margini li li vedo eccome, mentre con Nvidia spesso è vero il contrario. Non appena escono schede nuove l'ottimizzazione delle vecchie va a ramengo

Nerd1
04-11-2022, 08:54
chiesto a mio cugino sulla disponibilità udite udite:

il rivenditore amico di mio cugggino (:O) rivenditore ufficiale di Asus e Zotac dice che non c'è ALCUN problema di disponibilità sia per le AMD che per le nvidia MA che su nvidia hanno però ordini dall'alto: se hanno 20 schede rtx 4000 in magazzino, ma ne vogliono ordinare altre 10 per averne 30 in magazzino DEVONO ordinare ANCHE 15 RTX3000 o non gliele concedono perchè hanno i magazzini STRACOLMI di serie 3000 ancora :rotfl:

in soldoni per "sbloccare" più ordini di serie 4000 devono anche sciropparsi un tot di 3000 :asd:

era palese, sono almeno un trimestre che sono sottotono ergo non stanno spedendo ai partner perchè già pieni da almeno tre mesi ed è una buona notizia per il consumatoooooooooore

Ale55andr0
04-11-2022, 08:55
Vergognoso caspita!

yep, come spiegato meglio hanno un meccanismo degli ordini a "sblocco": vuoi altre 4000 in magazzino oltre quelle già concesse? allora ordinami anche un tot di 3000 o non te le do'...come detto lui è rivenditore ufficiale Asus sia per gpu AMD che nvdia e di Zotac (solo su nvdia ovviamente)

RoUge.boh
04-11-2022, 08:57
Secondo me i prezzi saranno più alti di quello che si suppone qua. Non ci sarà la conversione 1:1 + iva come sarebbe lecito.

Se prendiamo la 6950x in USA, dove vanno comunque aggiunte le tasse per stato, che variano dal 7% all'11% se non ricordo male, e il prezzo ivato in italia attuale, io mi aspetto che la 7900xtx da 999$ starà sopra i 1500€ mentre la 7900xt starà sopra 1400...

se facciamo un rapporto i prezzi che mi vengono sono:

899$ = 1477€
999$ = 1630€

https://i.ibb.co/2sTWqwy/Screenshot-2022-11-04-alle-09-14-59.png (https://ibb.co/k9t5Kpx)https://i.ibb.co/5k9zMD8/Screenshot-2022-11-04-alle-09-11-28.png (https://ibb.co/Scx1sTn)

cosi tanta differenza?:( porca pupazza

Gigibian
04-11-2022, 08:58
https://www.hwupgrade.it/articoli/6414/slide_13.jpg

Se vedete il grafico, in rt SENZA FSR (barre scure) in dying light 2 ad esempio c'è stato un +120% di performance circa!
Cyberpunk vicino al raddoppio...

@mikael84

É corretta secondo te l'interpretazione di questo grafico?

Legolas84
04-11-2022, 09:01
chiesto a mio cugino sulla disponibilità udite udite:

il rivenditore amico di mio cugggino (:O) rivenditore ufficiale di Asus e Zotac dice che non c'è ALCUN problema di disponibilità sia per le AMD che per le nvidia MA che su nvidia hanno però ordini dall'alto: se hanno 20 schede rtx 4000 in magazzino, ma ne vogliono ordinare altre 10 per averne 30 in magazzino DEVONO ordinare ANCHE 15 RTX3000 o non gliele concedono perchè hanno i magazzini STRACOLMI di serie 3000 ancora :rotfl:

in soldoni per "sbloccare" più ordini di serie 4000 devono anche sciropparsi un tot di 3000 :asd:


Ahahah e meno male che fino a qualche mese fa non si trovavano schede :asd:

Non è che in Cina hanno smontato le mining Farm, hanno rimpacchettato tutte le schede e le hanno rimesse sul mercato come nuove? Se no davvero non si spiega..


Inviato dal mio iPhone utilizzando Tapatalk Pro

Legolas84
04-11-2022, 09:02
Quella da 10 giga magari, che le prende pure da una 6800 liscia :asd:

Dai su, la sbornia passerà


Ma lo sai che con tutte le corbellerie che scrivi ottieni l effetto opposto? Cioè io ti leggo e mi passa la voglia di comprare AMD, vuoi mai che divento come te :asd:


Inviato dal mio iPhone utilizzando Tapatalk Pro

Ale55andr0
04-11-2022, 09:03
Ahahah e meno male che fino a qualche mese fa non si trovavano schede :asd:

Non è che in Cina hanno smontato le mining Farm, hanno rimpacchettato tutte le schede e le hanno rimesse sul mercato come nuove? Se no davvero non si spiega..


Inviato dal mio iPhone utilizzando Tapatalk Pro

boh, questa è la sua situazione, non so se è una cosa che riguarda solo il distributore del brand specifico o se riguarda tutte le nvidia in generale. Ma il succo è: le schede ci sono NON fatevi inculare che non c'è ALCUN motivo di sovrapagarle

narniagreen
04-11-2022, 09:03
Ma non siete mai stati migliori di lui, basta ignorarlo quando scrive stronzate.

Nerd1
04-11-2022, 09:06
Ahahah e meno male che fino a qualche mese fa non si trovavano schede :asd:

Non è che in Cina hanno smontato le mining Farm, hanno rimpacchettato tutte le schede e le hanno rimesse sul mercato come nuove? Se no davvero non si spiega..


Inviato dal mio iPhone utilizzando Tapatalk Pro

no semplicemente hanno fatto lo stesso errore del 2016 (se non sbaglio, c'era una causa contro nvidia se ricordate) con la prima ondata di mining, cavalcando l'onda di una domanda drogata e calibrando la produzione su una domanda che si è sgonfiata terribilmente (-> magazzini pieni)....le schede delle mining farm usate le trovi nei mercatini orientali a tanto al chilo, cercate in giro le foto, non te le rivendono in una nuova scatola :stordita:

OvErClOck82
04-11-2022, 09:06
Ma non siete mai stati migliori di lui, basta ignorarlo quando scrive stronzate.

il problema è che sono meno cazzate le sue di quelle che vengono partorite da gente che ci crede sul serio :sofico:

o meglio, lui usa iperboli ma il problema è quando certe cose le leggi sul serio (vedasi il delirio post 4090)...

deadbeef
04-11-2022, 09:07
@mikael84

É corretta secondo te l'interpretazione di questo grafico?

Non sono mikael ma se guardi bene il grafico le 'barre scure' non indicano le perf SENZA FSR, bensi' le perf della 6950 CON FSR

tobyax
04-11-2022, 09:09
hanno presentato 2 capolavori di scheda, il prezzo in usa é molto interessante .

speriamo in una conversione umana e potrei pure prendere una 7900xtx......

Gigibian
04-11-2022, 09:09
Non sono mikael ma se guardi bene il grafico le 'barre scure' non indicano le perf SENZA FSR, bensi' le perf della 6950 CON FSR

No, le barre grigie sono le performance della 6950.
Quelle scure dovrebbero essere le rispettive performance senza fsr.

narniagreen
04-11-2022, 09:10
il problema è che sono meno cazzate le sue di quelle che vengono partorite da gente che ci crede sul serio :sofico:

o meglio, lui usa iperboli ma il problema è quando certe cose le leggi sul serio (vedasi il delirio post 4090)...

Beh onestamente dopo tutto sto tempo non è che uno ci dovrebbe più nemmeno fare a caso alle puttanate che scrive la gente, lo Zen1 delle GPU è arrivato, buona nuova Era tecnologica.

Vedremo se Nvidia starà a guardare come Intel o si darà da fare post ADA, perché la ADA102 è diventata preistoria, Nvidia ha solo RT come vantaggio già oggi.

deadbeef
04-11-2022, 09:11
saro' cecato io ma in quel grafico per ogni gioco sono riportati 2 valori in fps, non ho capito dove stanno queste 'barre scure' :fagiano:

ray_hunter
04-11-2022, 09:12
https://i.ibb.co/fG6hcy0/rt-perf.jpg (https://ibb.co/4gv6QXN)

Riassumo
CP2077 nativo
RX 6950XT = 12.5fps
RX 7900XTX = 20.7fps
+65.6%

DL2 nativo
RX 6950XT = 11.9fps
RX 7900XTX = 23.65ps
+98.7%

Hitman3 nativo
RX 6950XT = 23fps
RX 7900XTX = 37.8ps
+64.3%

Gigibian
04-11-2022, 09:13
saro' cecato io ma in quel grafico per ogni gioco sono riportati 2 valori in fps, non ho capito dove stanno queste 'barre scure' :fagiano:

Non c'è il numero. Ma mi sembra abbastanza ovvio.
Per ogni barra, c'è una base scura (che secondo me rappresentano le performance normali) ed un delta chiaro sopra che é il guadagno con fsr.

Altrimenti a che pro fare 2 colori per ogni barra ?

Gigibian
04-11-2022, 09:14
https://i.ibb.co/fG6hcy0/rt-perf.jpg (https://ibb.co/4gv6QXN)

Riassumo
CP2077 nativo
RX 6950XT = 12.5fps
RX 7900XTX = 20.7fps
+65.6%

DL2 nativo
RX 6950XT = 11.9fps
RX 7900XTX = 23.65ps
+98.7%

Hitman3 nativo
RX 6950XT = 23fps
RX 7900XTX = 37.8ps
+64.3%

Grazie!

Io fatto a manina con Paint mi veniva 120% dl2 :D vabbè!

Però il guadagno in ray é netto! Arriva anche ad un raddoppio!

deadbeef
04-11-2022, 09:15
....ora che lo fate notare...avete ragione, certo che sti grafici in cui devi usare il calibro se li possono pure evitare, nella foschia mentale del venerdi' mattina io ero convinto che quella parte scura fosse un effetto grafico tipo riflesso... :stordita:

Probabilmente con rdna3 hanno aggiunto o riarchitettato delle componenti che accelerano l'upscaling, stile Intel Arc con XeSS che su intel usa hw specializzato e su altre schede si appoggia a dp4a

ray_hunter
04-11-2022, 09:16
Grazie!

Io fatto a manina con Paint mi veniva 120% dl2 :D vabbè!

Però il guadagno in ray é netto! Arriva anche ad un raddoppio!

Io mi ero illuso che sarebbero andate da 2.5 a 3 volte.
Lato raster la 4090 è OP e questa è sicuramente più bilanciata lato prezzo prestazioni ma RT caspita soffre. Non mi alletta il dover mettere l'FSR a perf così come non mi alleta il DLSS a perf

Predator_1982
04-11-2022, 09:17
Le perf in rt vanno da un MINIMO della 3090ti a salire, mi sembra chiaro
Per il resto, io la vedo andare sopra alla 4090 in raster, magari appaiata a 4k,

come fate ad avere un quadro certo di prestazioni con le quattro slide in croce della presentazione? Non potevano certo presentare scenari "sconvenienti" e non ci sono confronti diretti con le nvidia.

Attendiamo le prove sul campo e poi potremo valutare quanto bene abbiano lavorato su raster e rt e sull'impatto delle tecnologie a contorno. Considerando che nessuna azienda è una onlus, ne tantomeno AMD, la fascia di prezzo mi sembra spiegare chiaramente quale sia il segmento della controparte con cui una XTX si andrà a confrontare.

Legolas84
04-11-2022, 09:20
come fate ad avere un quadro certo di prestazioni con le quattro slide in croce della presentazione? Non potevano certo presentare scenari "sconvenienti" e non ci sono confronti diretti con le nvidia.

Attendiamo le prove sul campo e poi potremo valutare quanto bene abbiano lavorato su raster e rt e sull'impatto delle tecnologie a contorno.


Questo sicuro.. chi ci si può fare un idea con quello che ci hanno voluto far vedere sicuramente arrotondato per eccesso.

Dobbiamo aspettare le review e valutare, fa ridere che ci hanno portato ad essere contenti che una scheda costi 1300 euro..


Inviato dal mio iPhone utilizzando Tapatalk Pro

deadbeef
04-11-2022, 09:21
Certo che oramai si e' arrivati ad una situazione in cui chi comprava Nvidia because...reasons, continua a farlo, a qualsiasi cifra.

Chi comprava AMD uguale pero' con una aumentata percezione di 'affare' visto che oramai si e' sdoganata l'idea che spendere mille e passa euro per una gpu e' diventato normale.

E pensare che nel 2016 spendere 600€ per una gtx 1080 gia' mi sembrava esagerato

Favuz
04-11-2022, 09:22
Schede molto interessanti, attendiamo le recensioni tra 40 giorni per vedere come vanno realmente ma secondo me AMD ha centrtato il punto, lasciare la 4090 ai fanboy danarosi che non hanno problemi di budget (cambio alimentatore, case etc. ) e puntare a battere nettamente la 4080 16 rapporto performance prezzo.

Attendiamo la battaglia sulle fasce inferiori, ma se il trend è questo...

Predator_1982
04-11-2022, 09:27
Questo sicuro.. chi ci si può fare un idea con quello che ci hanno voluto far vedere sicuramente arrotondato per eccesso.

Dobbiamo aspettare le review e valutare, fa ridere che ci hanno portato ad essere contenti che una scheda costi 1300 euro..


Inviato dal mio iPhone utilizzando Tapatalk Pro

beh ovvio, quando hai un mercato stra pompato è cosi...Nvidia ci ha marciato brutto e non lo nego, lo dico da possessore di una 4090 FE. Sarei contento di vedere un prodotto equivalente a 360° a 700 euro in meno, non per altro per far ridimensionare giacchetta. Ma il buon senso mi porta a pensare che la top rossa si scontrerà con la 4080 16gb e non con la 4090...fosse stato cosi, per il principio ribadito, non avremmo visto il 999 ieri...


Certo che oramai si e' arrivati ad una situazione in cui chi comprava Nvidia because...reasons, continua a farlo, a qualsiasi cifra.

Chi comprava AMD uguale pero' con una aumentata percezione di 'affare' visto che oramai si e' sdoganata l'idea che spendere mille e passa euro per una gpu e' diventato normale.

E pensare che nel 2016 spendere 600€ per una gtx 1080 gia' mi sembrava esagerato

è sempre stato così, dai tempi di ATI. Però sarò sincero, per quanto mi riguarda 700 euro valgono la differenza in RT e in possibilità d'uso della scheda in ottica pro (considerando che Ada è hopper con la parrucca e per l'ecosistema che ci gira intorno). Non è di certo il connettore o la dimensione o il consumo (per altro nella sostanza nemmeno cosi elevato nonostante i dati di targa) a deviarmi.

davide155
04-11-2022, 09:27
chiesto a mio cugino sulla disponibilità udite udite:

il rivenditore amico di mio cugggino (:O) rivenditore ufficiale di Asus e Zotac dice che non c'è ALCUN problema di disponibilità sia per le AMD che per le nvidia MA che su nvidia hanno però ordini dall'alto: se hanno 20 schede rtx 4000 in magazzino, ma ne vogliono ordinare altre 10 per averne 30 in magazzino DEVONO ordinare ANCHE 15 RTX3000 o non gliele concedono perchè hanno i magazzini STRACOLMI di serie 3000 ancora :rotfl:

in soldoni per "sbloccare" più ordini di serie 4000 devono anche sciropparsi un tot di 3000 :asd:Plausibile, nulla di cui stranirsi. Si sapeva da mesi che i wafer di ampere erano stati prodotti in quantità esorbitanti.
Il problema è che i wafer di ada lovelace sono anche di più in quanto ad ordini a tsmc :asd:
Quindi se non vogliono avere padelloni da due mila baiocchi sul groppone dovranno per forza di cose abbassare i prezzi.
Comunque resta il fatto che le ampere rimangono ottime gpu. Quindi nvidia comunque può vendere bene lo stesso, ovviamente ad un prezzo più accattivante.

ninja750
04-11-2022, 09:30
allora, considerazioni a freddo dopo la presentazione di ieri, divido in pro e contro tanto per leggibilità

PRO

abbiamo una vga quattro o cinque anni avanti come concezione rispetto alle padelle della controparte, questo però non vuol dire che resteranno con le padelle in mano e lo sviluppo deve continuare, ci arriveranno anche loro o ci stanno già addirittura lavorando. i consumi sono confermati come molto buoni 355 e 300 con queste performance si sono confermati perfetti per questa fascia, fanno ben sperare per quelle sotto, non da meno non si devono usare dissipatori da meme anche se sicuramente gli AIB ricicleranno per grossa parte quelli 4090. i prezzi sono uno schiaffo alla 4090 e identici alla 6900XT. quantitativo di ram in aumento vs RDNA2. feature finalmente interessanti si parla di FSR 3.0 che fa quasi 2x su FSR 2.0 pari qualità (!!) almeno su UE5, fluid motion frames technology sembra una supercazzola ma ci scommetto il pene che sia una duplicazione di quanto visto con il frame inventato da nvidia (e le tv con il motion+) speriamo sia compatibile con tutte le RDNA come il FSR2.0 e non una esclusiva delle 7000. hyper-x non ho capito a cosa serva, ok la latenza ma non ho capito come possa impattare sulle prestazioni, questo sarà da verificare con mano

CONTRO

i clock sembrano bassi per questo PP, vedremo in boost dove arriveranno ma siamo solo a +10% su RDNA2 suppongo per non fare esplodere i consumi visto che abbiamo visto che il PP è promettente, ma minimo mi aspettavo di vederli nell'intorno della concorrenza cosa che non è, chissà le custom con 3x8pin. le prestazioni sulla carta davano praticamente per sicuri 2x visto i miglioramenti in ogni aspetto tra ipc e clock aumentati invece siamo a mediamente a 1.5x o 1.7x max, questo come scritto da altri si traduce in un -10% in raster, chissene del 30% che manca in RT ma in effetti spendendo più di un millino avrebbero potuto spingere di più sotto questo aspetto, anche livello marketing avrebbe aiutato avere per una volta la vga più veloce. i prezzi di fascia sono rimasti alti, mi riferisco più che altro alla XT, vedremo come prezzeranno le fasce più in basso.

Pc84P
04-11-2022, 09:31
Qua è semplificato, prima potevi fare tutto contemporaneamente, ora ti ritrovi con delle sorte di dipendenze, quindi i 60tf, diventano 30-40-50-60, in base al grado di parallelizzazione.

Ecco questo era l'unica cosa che non volevo leggere. Nel mio caso è un problema enorme.

ninja750
04-11-2022, 09:35
ah vergognoso per non dire truffaldino (lo dissi anche per nvidia) che per le perf hanno messo tre grafici in croce con tanto di FSR a inquinare e nessun confronto con la controparte ma solo vs generazione precedente, e prestazioni RT da ricavare con righelli e compassi

se hai in mano un buon prodotto non servono questi giochetti

narniagreen
04-11-2022, 09:42
https://i.ibb.co/fG6hcy0/rt-perf.jpg (https://ibb.co/4gv6QXN)

Riassumo
CP2077 nativo
RX 6950XT = 12.5fps
RX 7900XTX = 20.7fps
+65.6%

DL2 nativo
RX 6950XT = 11.9fps
RX 7900XTX = 23.65ps
+98.7%

Hitman3 nativo
RX 6950XT = 23fps
RX 7900XTX = 37.8ps
+64.3%
Bravo ottima reppresentazione
avevo intravisto un 2x li in DL.
allora, considerazioni a freddo dopo la presentazione di ieri, divido in pro e contro tanto per leggibilità

PRO

abbiamo una vga quattro o cinque anni avanti come concezione rispetto alle padelle della controparte, questo però non vuol dire che resteranno con le padelle in mano e lo sviluppo deve continuare, ci arriveranno anche loro o ci stanno già addirittura lavorando. i consumi sono confermati come molto buoni 355 e 300 con queste performance si sono confermati perfetti per questa fascia, fanno ben sperare per quelle sotto, non da meno non si devono usare dissipatori da meme anche se sicuramente gli AIB ricicleranno per grossa parte quelli 4090. i prezzi sono uno schiaffo alla 4090 e identici alla 6900XT. quantitativo di ram in aumento vs RDNA2. feature finalmente interessanti si parla di FSR 3.0 che fa quasi 2x su FSR 2.0 pari qualità (!!) almeno su UE5, fluid motion frames technology sembra una supercazzola ma ci scommetto il pene che sia una duplicazione di quanto visto con il frame inventato da nvidia (e le tv con il motion+) speriamo sia compatibile con tutte le RDNA come il FSR2.0 e non una esclusiva delle 7000. hyper-x non ho capito a cosa serva, ok la latenza ma non ho capito come possa impattare sulle prestazioni, questo sarà da verificare con mano

CONTRO

i clock sembrano bassi per questo PP, vedremo in boost dove arriveranno ma siamo solo a +10% su RDNA2 suppongo per non fare esplodere i consumi visto che abbiamo visto che il PP è promettente, ma minimo mi aspettavo di vederli nell'intorno della concorrenza cosa che non è, chissà le custom con 3x8pin. le prestazioni sulla carta davano praticamente per sicuri 2x visto i miglioramenti in ogni aspetto tra ipc e clock aumentati invece siamo a mediamente a 1.5x o 1.7x max, questo come scritto da altri si traduce in un -10% in raster, chissene del 30% che manca in RT ma in effetti spendendo più di un millino avrebbero potuto spingere di più sotto questo aspetto, anche livello marketing avrebbe aiutato avere per una volta la vga più veloce. i prezzi di fascia sono rimasti alti, mi riferisco più che altro alla XT, vedremo come prezzeranno le fasce più in basso.

Lato clock è perchè la dual issue instruction aumenta l'ipc, c'è stato un impacchettamento del +165% di transistors!
è mostruoso con un solo salto di nodo.

Lato prezzi non capisco le lamentele, costa come la 6900XT al lancio, negli ultimi 2 anni o siete stati su Marte, oppure avete visto che è aumentato tutto, l'acciaio da costruzione costa 2x, per esempio.

Predator_1982
04-11-2022, 09:44
PRO

abbiamo una vga quattro o cinque anni avanti come concezione rispetto alle padelle della controparte, questo però non vuol dire che resteranno con le padelle in mano e lo sviluppo deve continuare, ci arriveranno anche loro o ci stanno già addirittura lavorando. i consumi sono confermati come molto buoni 355 e 300 con queste performance si sono confermati perfetti per questa fascia, fanno ben sperare per quelle sotto, non da meno non si devono usare dissipatori da meme anche se sicuramente gli AIB ricicleranno per grossa parte quelli 4090. i prezzi sono uno schiaffo alla 4090 e identici alla 6900XT. quantitativo di ram in aumento vs RDNA2. feature finalmente interessanti si parla di FSR 3.0 che fa quasi 2x su FSR 2.0 pari qualità (!!) almeno su UE5, fluid motion frames technology sembra una supercazzola ma ci scommetto il pene che sia una duplicazione di quanto visto con il frame inventato da nvidia (e le tv con il motion+) speriamo sia compatibile con tutte le RDNA come il FSR2.0 e non una esclusiva delle 7000. hyper-x non ho capito a cosa serva, ok la latenza ma non ho capito come possa impattare sulle prestazioni, questo sarà da verificare con mano



permettimi di dissentire su alcuni punti: il prodotto non è 5 anni avanti solo perché hanno usato un approccio già noto nel mondo CPU (anche Zen 4 non è di certo 5 anni avanti ad un processore Alder o Raptor).
Per altro, se dovessimo parlare di ecosistema sw a contorno, potrei dire il contrario. I consumi sono un mezzo spauracchio, una 4090 in game realmente non supera praticamente mai i 350 W (sperimentato di persona), i bench sono storia a parte e sappiamo tutti non "rilevanti".

I prezzi sono aggressivi (per l'attuale standard di mercato), ma dobbiamo confrontarli con quelli della 4080 16gb e non della 4090 (che è la vecchia titan), anche perché ti garantisco che in RT difficilmente ci sarà storia, in raster vedremo con le review.

Per come la vedo io: se avessero avuto una scheda in mano evidentemente capace di vedersela ad armi pari con la 4090 ieri ci avrebbero fatto gli striscioni, altro chè confronti con la 6950 e battutine su connettori e alimentatori....per altro prima o poi anche loro ricorreranno allo standard ATX 3.0...

egounix
04-11-2022, 09:49
mani sopra: https://www.youtube.com/watch?v=8eSzDVavC-U

ray_hunter
04-11-2022, 09:51
permettimi di dissentire su alcuni punti: il prodotto non è 5 anni avanti solo perché hanno usato un approccio già noto nel mondo CPU (anche Zen 4 non è di certo 5 anni avanti ad un processore Alder o Raptor).
Per altro, se dovessimo parlare di ecosistema sw a contorno, potrei dire il contrario. I consumi sono un mezzo spauracchio, una 4090 in game realmente non supera praticamente mai i 350 W (sperimentato di persona), i bench sono storia a parte e sappiamo tutti non "rilevanti".

I prezzi sono aggressivi, ma dobbiamo confrontarli con quelli della 4080 16gb e non della 4090 (che è la vecchia titan), anche perché ti garantisco che in RT difficilmente ci sarà storia, in raster vedremo con le review.

Per come la vedo io: se avessero avuto una scheda in mano evidentemente capace di vedersela ad armi pari con la 4090 ieri ci avrebbero fatto gli striscioni, altro chè confronti con la 6950 e battutine su connettori e alimentatori....per altro prima o poi anche loro ricorreranno allo standard ATX 3.0...

Secondo me AMD ha capito che la parte software è fondamentale tanto quanto il silicio e questa volta si sta muovendo per tempo. Molto bene da questo punto di vista.

Predator_1982
04-11-2022, 09:54
Secondo me AMD ha capito che la parte software è fondamentale tanto quanto il silicio e questa volta si sta muovendo per tempo. Molto bene da questo punto di vista.

era ora, anche perchè Nvidia su questo ha giocato in anticipo, AMD la sta ovviamente seguendo a ruota...non è plausibile pensare oggi di far a meno di "escamotage" software per ottenere certe rese prestazionali...che piaccia o no, con il tempo le prestazioni computazionali pure saranno sempre meno rilevanti. Oggi non si paga solo il silicio, ma anche le tecnologie a contorno. Non è che tra DLSS 3 e FSR 3 ci passi tutta questa differenza di concetto eh

Gyammy85
04-11-2022, 10:02
Io devo ancora capire quali sono questi importanti lavori pro che si fanno con le nvidia consumer con i driver consumer limitatissimi, forse il benchmark cuda fatto per far vedere quanto cuda va forte se si attiva cuda rispetto alle vecchie cuda, boh

egounix
04-11-2022, 10:05
Io devo ancora capire quali sono questi importanti lavori pro che si fanno con le nvidia consumer con i driver consumer limitatissimi, forse il benchmark cuda fatto per far vedere quanto cuda va forte se si attiva cuda rispetto alle vecchie cuda, boh

streaming su TTV con obs è un lavoro serio

Gigibian
04-11-2022, 10:12
mani sopra: https://www.youtube.com/watch?v=8eSzDVavC-U

figo! ha una sonda di temperatura sul dissipatore di alluminio che puo' essere utilizzata per ottimizzare le build guidando le ventole in base a quel sensore.

Posso confermare che è utilissimo, nel mio PC ne ho inserita una ad-hoc per gestire il flusso aria verso la scheda video.

rickiconte
04-11-2022, 10:15
Immagino che per la xtx ci voglia un 850w!?

Dal sito AMD:

per la XTX:
Requirements
Typical Board Power (Desktop)
355 W
Minimum PSU Recommendation
800 W

per la XT:
Typical Board Power (Desktop)
300 W
Minimum PSU Recommendation
750 W

Siccome non me ne intendo presumo che un 850W possa bastare per la XTX. Voi che dite?

Pc84P
04-11-2022, 10:16
Mi fa ridere e piangere come la suppostona Nvidia sia già stata assimilata ed è diventata metro di misura.

Chippini/prestazione della classe xx80 a 799 dollari non è regalo, è giusta fascia di prezzo.

Una 7900 xtx rimane una scheda di classe xx80 perchè nella media tra Raster ed RT è quello il suo livello.

999 dollari è regalata in rapporto alle Ada Lovelace Pablo Escobar Edition.

Poi la puoi chiamare anche 7999 XXTTXXXXT ma se la performance non rivaleggia con la top avversaria rimane una fascia sotto.

Phopho
04-11-2022, 10:17
Dal sito AMD:

per la XTX:
Requirements
Typical Board Power (Desktop)
355 W
Minimum PSU Recommendation
800 W

per la XT:
Typical Board Power (Desktop)
300 W
Minimum PSU Recommendation
750 W

Siccome non me ne intendo presumo che un 850W possa bastare per la XTX. Voi che dite?

un 750w gold di buona fattura per la XTX e vai serenissimo.

Gigibian
04-11-2022, 10:18
i prezzi dei saldi o degli svuotamagazzino non centrano con gli msrp che purtroppo sono scolpiti nella pietra

ribadisco i miei pronostici in dollari (segnate) :O

7950XT 24gb 1299$
7900XT 20gb 1199$
7800XT 749$
7700XT 549$
7600XT 449$

la 7800 potrebbe nemmeno esserci al lancio ma tanto dei nomi commerciali frega poco

300 dollari di offset :D A favore nostro! :sofico: :sofico:

ninja750
04-11-2022, 10:19
permettimi di dissentire su alcuni punti: il prodotto non è 5 anni avanti solo perché hanno usato un approccio già noto nel mondo CPU (anche Zen 4 non è di certo 5 anni avanti ad un processore Alder o Raptor).
Per altro, se dovessimo parlare di ecosistema sw a contorno, potrei dire il contrario. I consumi sono un mezzo spauracchio, una 4090 in game realmente non supera praticamente mai i 350 W (sperimentato di persona), i bench sono storia a parte e sappiamo tutti non "rilevanti".

I prezzi sono aggressivi (per l'attuale standard di mercato), ma dobbiamo confrontarli con quelli della 4080 16gb e non della 4090 (che è la vecchia titan), anche perché ti garantisco che in RT difficilmente ci sarà storia, in raster vedremo con le review.

Per come la vedo io: se avessero avuto una scheda in mano evidentemente capace di vedersela ad armi pari con la 4090 ieri ci avrebbero fatto gli striscioni, altro chè confronti con la 6950 e battutine su connettori e alimentatori....per altro prima o poi anche loro ricorreranno allo standard ATX 3.0...

il prodotto che hanno presentato oggi è concettualmente 5 anni avanti rispetto al prodotto che ha presentato nvidia, è un dato di fatto, da dove poi arrivi l'idea o fare paragoni con cpu ha poco senso. oggi abbiamo 7900XTX e 4090, una è concettualmente avanti, l'altra no

l'ecosistema software con la presentazione di FSR3 e l'equivalente del motion+, tutto ovviamente da toccare e verificare con mano, praticamente pareggia quanto presentato da JHH. io punterei più a guardare le prestazioni senza magheggi di upscale o simili perchè come ha già fatto vedere intel è pssibile adottare standard open che vanno bene su tutte le schede del mondo quindi se domani uscirà un cinese chinchunwang con la sua vga penosa ma una super idea di supersampling/upscaling la potranno adottare tutti a prescindere

i consumi sono anche questi da verificare ma i connettori scelti dalle due soluzioni parlano da soli, bisogna vedere quelli medi e quelli di picco che sicuro 100% sono più contenuti su AMD e tutto questo non dimentichiamo che si traduce in meno rumore meno calore meno costi di dissipazione per cui mi aspetto un delta tra reference e custom molto minore di quanto visto tra founders e aib

i prezzi per forza li paragoni alla 4090, perchè alla 4080? allora paragoniamoci pure le prestazioni alla 4080 e adios amigos, detto che questa costerà pure meno della 4080 full

Predator_1982
04-11-2022, 10:21
Io devo ancora capire quali sono questi importanti lavori pro che si fanno con le nvidia consumer con i driver consumer limitatissimi, forse il benchmark cuda fatto per far vedere quanto cuda va forte se si attiva cuda rispetto alle vecchie cuda, boh

io la uso per accelerare algoritmii machine learning usati nel campo dei processi petroliferi, posso usare la 4090 senza ricorrere ad HPC... i bench non servono a nulla.

ray_hunter
04-11-2022, 10:23
il prodotto che hanno presentato oggi è concettualmente 5 anni avanti rispetto al prodotto che ha presentato nvidia, è un dato di fatto, da dove poi arrivi l'idea o fare paragoni con cpu ha poco senso. oggi abbiamo 7900XTX e 4090, una è concettualmente avanti, l'altra no

l'ecosistema software con la presentazione di FSR3 e l'equivalente del motion+, tutto ovviamente da toccare e verificare con mano, praticamente pareggia quanto presentato da JHH. io punterei più a guardare le prestazioni senza magheggi di upscale o simili perchè come ha già fatto vedere intel è pssibile adottare standard open che vanno bene su tutte le schede del mondo quindi se domani uscirà un cinese chinchunwang con la sua vga penosa ma una super idea di supersampling/upscaling la potranno adottare tutti a prescindere

i consumi sono anche questi da verificare ma i connettori scelti dalle due soluzioni parlano da soli, bisogna vedere quelli medi e quelli di picco che sicuro 100% sono più contenuti su AMD e tutto questo non dimentichiamo che si traduce in meno rumore meno calore meno costi di dissipazione per cui mi aspetto un delta tra reference e custom molto minore di quanto visto tra founders e aib

i prezzi per forza li paragoni alla 4090, perchè alla 4080? allora paragoniamoci pure le prestazioni alla 4080 e adios amigos, detto che questa costerà pure meno della 4080 full

Io credo che la 4080 sarà sotto in raster ma sopra in RT, pertanto il paragone tra la 7900XTX e la 4080 ci sta tutto. Si parte da un vantaggio di prezzo da parte AMD ma sulle perf secondo me se la giocano

ninja750
04-11-2022, 10:24
300 dollari di offset :D A favore nostro! :sofico: :sofico:

no beh i miei pronostici erano da prendere ovviamente nel caso che 7900XTX = 4090 che (per poco) non è stato

togli quel 10%/15% di delta prestazioni dai prezzi e ci ho più o meno preso (cit.) :O

rickiconte
04-11-2022, 10:25
Interessante

Ora entrambe le architetture hanno un numero variabile di TF in base al tipo di carico, la spunterà chi programmerà meglio a livello driver e "allungherà le giuste raccomandazioni" agli sviluppatori

Posizionamento del prodotto ottimo sinceramente da un punto di vista "fisico" (scheda montabile ovunque sia per ingombri che requisiti energetici) e di prezzo (cura "ryzen"). La DP2.1 poi è la ciliegina.

La 7800XT ipotizzabile a 699$ e la liscia poco sotto saranno delle belle bestioline per il wQHD e si alimenteranno con un accendino

In raster si può ipotizzare andrà come una 3090TI?
In RT invece?

Rikardobari
04-11-2022, 10:27
Ma per i benchmark bisognerà aspettare il 13/12?

ninja750
04-11-2022, 10:27
Io credo che la 4080 sarà sotto in raster ma sopra in RT, pertanto il paragone tra la 7900XTX e la 4080 ci sta tutto. Si parte da un vantaggio di prezzo da parte AMD ma sulle perf secondo me se la giocano

paragonare le schede in raytracing è un po di parte ma ci sta, per come la vedo io meglio il raster ma è oggettivamente opinabile

però a sto punto perchè non paragonarle con le prestazioni finali ottenibili con DLSS3.0 e FSR3.0 entrambi abilitati tanto per dire? non trovi?

narniagreen
04-11-2022, 10:28
il prodotto che hanno presentato oggi è concettualmente 5 anni avanti rispetto al prodotto che ha presentato nvidia, è un dato di fatto, da dove poi arrivi l'idea o fare paragoni con cpu ha poco senso. oggi abbiamo 7900XTX e 4090, una è concettualmente avanti, l'altra no

l'ecosistema software con la presentazione di FSR3 e l'equivalente del motion+, tutto ovviamente da toccare e verificare con mano, praticamente pareggia quanto presentato da JHH. io punterei più a guardare le prestazioni senza magheggi di upscale o simili perchè come ha già fatto vedere intel è pssibile adottare standard open che vanno bene su tutte le schede del mondo quindi se domani uscirà un cinese chinchunwang con la sua vga penosa ma una super idea di supersampling/upscaling la potranno adottare tutti a prescindere

i consumi sono anche questi da verificare ma i connettori scelti dalle due soluzioni parlano da soli, bisogna vedere quelli medi e quelli di picco che sicuro 100% sono più contenuti su AMD e tutto questo non dimentichiamo che si traduce in meno rumore meno calore meno costi di dissipazione per cui mi aspetto un delta tra reference e custom molto minore di quanto visto tra founders e aib

i prezzi per forza li paragoni alla 4090, perchè alla 4080? allora paragoniamoci pure le prestazioni alla 4080 e adios amigos, detto che questa costerà pure meno della 4080 full

Quoto

no beh i miei pronostici erano da prendere ovviamente nel caso che 7900XTX = 4090 che (per poco) non è stato

togli quel 10%/15% di delta prestazioni dai prezzi e ci ho più o meno preso (cit.) :O

Lol :D

ray_hunter
04-11-2022, 10:37
paragonare le schede in raytracing è un po di parte ma ci sta, per come la vedo io meglio il raster ma è oggettivamente opinabile

però a sto punto perchè non paragonarle con le prestazioni finali ottenibili con DLSS3.0 e FSR3.0 entrambi abilitati tanto per dire? non trovi?

Credo che se vogliamo misurare la potenza bruta ed oggettiva si debba farlo a nativa raster ma anche in RT.

Se invece devo fare una scelta sull'acquisto devo guardare i bench con le feature disponibili basandomi sui gusti personali e soggettivi e sui giochi che prediligo

Per questo motivo penso sia impossibile dire cosa sia meglio o peggio. Dipende dall'uso che se ne fa!

Pc84P
04-11-2022, 10:42
Il RayTracing può essere usato oppure no, ma è parte integrante del chip, è hardware, sono mm2.
A me interessa zero, meglio per me.
Però se devo valutare una scheda la valuto per quello che offre e nel bilancio totale se sta sopra il 20% in raster e sotto del 20% in RT, ha prestazioni pari ad una 4080.

narniagreen
04-11-2022, 10:42
In raster si può ipotizzare andrà come una 3090TI?
In RT invece?

la 7800XT come 3090ti forse con il freno a mano tirato a 200watt.
Su TPU in QHD tra la 6800XT e la 3090ti in raster ci passa un 15% medio, considerando +50~60% medio per fascia preso presumo che la 7800XT in Raster farà la barba alla 4080, in RT difficile dirlo, direi nella forbice una 3090/4070.

Il prezzo, bella domanda, credo 700$ msrp.

narniagreen
04-11-2022, 10:45
Infine, io aspetto bellamente la 7700XT a 500€ e 200watt tra un annetto, cioè esce penso Q2 e la prendo fine Q3.

"Easy upgrade" cit.

:D

Gyammy85
04-11-2022, 10:47
Nessuno ha notato i ben 2 ai accelerators? avremo finalmente fsr3 fatto con l'ai come le schede buone :O :O

craesilo
04-11-2022, 10:48
paragonare le schede in raytracing è un po di parte ma ci sta, per come la vedo io meglio il raster ma è oggettivamente opinabile

però a sto punto perchè non paragonarle con le prestazioni finali ottenibili con DLSS3.0 e FSR3.0 entrambi abilitati tanto per dire? non trovi?

eh ma questo dipende da gioco a gioco

crossi81
04-11-2022, 10:51
io la uso per accelerare algoritmii machine learning usati nel campo dei processi petroliferi, posso usare la 4090 senza ricorrere ad HPC... i bench non servono a nulla.

Scusate l'OT ma... anche io come Predator, ML per computer vision

In campo Deep Learning (training di reti neurali) fa comodissimo avere uno schedozzo unico con tanta vram e i tensor core di nvidia per prototipare i modelli di reti

Poi li si manda a fare training "serio" su workstation/server HPC o sui servizi cloud

Questo è un utilizzo tipicamente prosumer o semi-professionale che dir si voglia

Poi in realtà tornando un pò IT, ultimamente i framework più famosi stanno iniziando a supportare DirectML e si stanno levando dalla dipendenza storica di CUDA, quindi guardo con interesse sia AMD sia Intel. Certo è che se le cosiddette unità AI sono per INT8 e BFLOAT16 non ci faccio nulla, servono per inference e non per training...

Legolas84
04-11-2022, 10:53
Nessuno ha notato i ben 2 ai accelerators? avremo finalmente fsr3 fatto con l'ai come le schede buone :O :O


Ma non era inutile l IA per queste cose? :asd:


Inviato dal mio iPhone utilizzando Tapatalk Pro

egounix
04-11-2022, 10:56
Ma non era inutile l IA per queste cose? :asd:


Inviato dal mio iPhone utilizzando Tapatalk Pro

disse la vacca al mulo, ti puzza il culo...

disse il mulo alla vacca, hai fatto la cacca!

:O

piu' AI piu' ray accelerators piu' pilupittutti

FSRLSS 3 :O

abemus anche amd-reflex!

la domanda è in quanti e quali giochi verranno implementati? :stordita:

ray_hunter
04-11-2022, 10:58
Io vorrei proprio capire quale sarebbe lo scopo delle 2 unità AI.

Uno scenario potrebbe essere per l'esclusività su RDNA3 di FSR3,
oppure la possibilità che FSR3 scali verso il basso e le unità AI ne incrementino le prestazioni, sia per l'upscaling che per il frame motion, oppure che intervengano sia per le prestazioni che per la qualità...

Legolas84
04-11-2022, 10:59
Ora diventano tutte cose importanti finalmente :D

Comunque da qui al 13 dicembre è lunga uff.. voglio le review..


Inviato dal mio iPhone utilizzando Tapatalk Pro

narniagreen
04-11-2022, 11:01
Bullismo come alle medie da gente di 40 anni.
OK che se le cerca, però...

Predator_1982
04-11-2022, 11:01
il prodotto che hanno presentato oggi è concettualmente 5 anni avanti rispetto al prodotto che ha presentato nvidia, è un dato di fatto, da dove poi arrivi l'idea o fare paragoni con cpu ha poco senso. oggi abbiamo 7900XTX e 4090, una è concettualmente avanti, l'altra no


come da dove arriva l'idea? da dove arriva quella che sia concettualmente 5 anni avanti se non dall'approccio MCM che, preso da se, non è sufficiente per dire che un prodotto è generazionalmente avanti? L'approccio, che sia MCM o monolitico, è una scelta costruttiva, è l'architettura che fa la differenza nel concreto.

Certo, esistono altri aspetti come l'efficienza, ma da questo punto di vista anche la GPU Nvidia ha dimostrato di esserlo in termini di performance / watt.

Con questo non voglio dire che RDNA 3 non sia valida ma, per alcune caratteristiche spiegate ottimamente anche dal buon Mikael qualche post fa, non è di certo un salto generazionale di questo calibro o tale da dire che sia "anni luce" avanti rispetto ad Ada. Per altro, la superiorità generazionale, va poi confermata dalle prestazioni sul campo.

Questo è il mio pensiero.

Io vorrei proprio capire quale sarebbe lo scopo delle 2 unità AI.

Uno scenario potrebbe essere per l'esclusività su RDNA3 di FSR3,
oppure la possibilità che FSR3 scali verso il basso e le unità AI ne incrementino le prestazioni, sia per l'upscaling che per il frame motion, oppure che intervengano sia per le prestazioni che per la qualità...

mi sembra abbastanza chiaro, gettare le basi per una futura implementazione di un FSR o tecnologia simil DLSS sfruttando algoritmi accelerati da una sorta di tensor, magari tra un po' ci sorprende implementando anche lei la famosa generazione di frames via IA. Comunque in generale l'approccio ormai è questo, vale per AMD, per Nvidia e per Intel.

ninja750
04-11-2022, 11:20
Però se devo valutare una scheda la valuto per quello che offre e nel bilancio totale se sta sopra il 20% in raster e sotto del 20% in RT, ha prestazioni pari ad una 4080.

questo lo potremo vedere solo con tutte e due le schede in mano, poi ognuno che pesi come meglio crede quel +20 -20

io mi terrei stretto quel +20 ovunque

Gyammy85
04-11-2022, 11:25
Dovevano dare spazio alla 7900xt secondo me, che ha 192 rops come la xtx e boost 2400 mhz, starà +70% sulla 6900xt, in 300 watt...spacca tutto a partire dalla 4080 16 gb

giangi989
04-11-2022, 11:26
https://www.techpowerup.com/300655/amds-navi-31-might-clock-to-3-ghz-partner-cards-will-be-able-to-overclock

"Based on details from a PCWorld livestream following AMD's launch of the Radeon RX 7000-series, it was revealed that AMD has designed the Navi 31 GPU to be able to scale as high as 3 GHz. In other words, it appears that AMD has power limited its cards, at least for the SKUs that the company has announced so far. This could be for many reasons, but most likely to try to find a balance between power and performance. The details of the 3 GHz scaling did however not come from AMD directly, but rather from Jarred Walton over at Tom's Hardware. That said, the information was apparently shared with the media by AMD at the event."

ninja750
04-11-2022, 11:30
L'approccio, che sia MCM o monolitico, è una scelta costruttiva, è l'architettura che fa la differenza nel concreto.

no perchè il limite per nvidia è vicino, per AMD solo l'inizio, non puoi aumentare all'infinito il die size, e non si sfornano nuovi processi produttivi ogni anno

se AMD se ne fregasse dei consumi potrebbe potenzialmente fare uscire oggi una 2x 7900XTX aggiungendo UN GCD in quella arch (e probabilmente conseguentemente altri 6 MCD)

nvidia semplicemente non può farlo, potrebbe solo mettere sul PCB un altro AD102 completo, ma a quel punto lo potrebbe fare pure AMD facendo un potenziale 4x

egounix
04-11-2022, 11:31
Dovevano dare spazio alla 7900xt secondo me, che ha 192 rops come la xtx e boost 2400 mhz, starà +70% sulla 6900xt, in 300 watt...spacca tutto a partire dalla 4080 16 gb

sento la 7950xtx-tx con il fiato sul collo, come un avvoltoio sulle spalle... sarà mica meglio aspettare fine 2023 per buyare?

ninja750
04-11-2022, 11:31
https://www.techpowerup.com/300655/amds-navi-31-might-clock-to-3-ghz-partner-cards-will-be-able-to-overclock

"Based on details from a PCWorld livestream following AMD's launch of the Radeon RX 7000-series, it was revealed that AMD has designed the Navi 31 GPU to be able to scale as high as 3 GHz. In other words, it appears that AMD has power limited its cards, at least for the SKUs that the company has announced so far. This could be for many reasons, but most likely to try to find a balance between power and performance. The details of the 3 GHz scaling did however not come from AMD directly, but rather from Jarred Walton over at Tom's Hardware. That said, the information was apparently shared with the media by AMD at the event."

già smentito, cioè chi ha la scheda in mano riferisce solo +3%

Gyammy85
04-11-2022, 11:39
no perchè il limite per nvidia è vicino, per AMD solo l'inizio, non puoi aumentare all'infinito il die size, e non si sfornano nuovi processi produttivi ogni anno

se AMD se ne fregasse dei consumi potrebbe potenzialmente fare uscire oggi una 2x 7900XTX aggiungendo UN GCD in quella arch (e probabilmente conseguentemente altri 6 MCD)

nvidia semplicemente non può farlo, potrebbe solo mettere sul PCB un altro AD102 completo, ma a quel punto lo potrebbe fare pure AMD facendo un potenziale 4x

Niente impedisce a nvidia di andare a 800 mm2 (tanto 600-700-800 che cambia, mica la tieni in mano) sfruttando il pp per infilare dentro di tutto e di più, dlss4, neural organic quantic ia mainframe, la mod di cp 2077, ecc...
Costerà 5k e tdp 750 watt, ma vuoi mettere la soddisfazione? qualcuno l'anno scorso avrebbe pensato che potessero vendere una vga a 2k con 450 watt di tdp? erano solo trollate da gyammy

narniagreen
04-11-2022, 11:41
no perchè il limite per nvidia è vicino, per AMD solo l'inizio, non puoi aumentare all'infinito il die size, e non si sfornano nuovi processi produttivi ogni anno

se AMD se ne fregasse dei consumi potrebbe potenzialmente fare uscire oggi una 2x 7900XTX aggiungendo UN GCD in quella arch (e probabilmente conseguentemente altri 6 MCD)

nvidia semplicemente non può farlo, potrebbe solo mettere sul PCB un altro AD102 completo, ma a quel punto lo potrebbe fare pure AMD facendo un potenziale 4x

Dipende dal fatto se si possa già adesso o meno mettere insieme 2 GCD su unico interposer.

Se si potesse già adesso collegare due Chiplet Core, sulla carta 2 GCD N32 + 8 MCD costano meno di ADA 102, andando più forte, in 400watt.

Ma non si sa se MCM lo possano già fare adesso con il Core.

Pc84P
04-11-2022, 11:41
questo lo potremo vedere solo con tutte e due le schede in mano, poi ognuno che pesi come meglio crede quel +20 -20

io mi terrei stretto quel +20 ovunque

Anch'io, infatti la 7900xtx sarà probabilmente la mia nuova scheda, ma non posso valutarla sul mio bene stare. Se prendiamo ad esempio chi reputa il rt assolutamente irrinunciabile potrebbe dirti che per lui la 7900 xtx vale quanto una futura rtx 4700 e starebbe dicendo bene.
Fra l'altro sia questa che le Nvidia riesco a comprarle in dollari e senza iva ma per la garanzia potrei avere qualche difficoltà

Gyammy85
04-11-2022, 11:45
Dipende dal fatto se si possa già adesso o meno mettere insieme 2 GCD su unico interposer.

Se si potesse già adesso collegare due Chiplet Core, sulla carta 2 GCD N32 + 8 MCD costano meno di ADA 102, andando più forte, in 400watt.

Ma non si sa se MCM lo possano già fare adesso con il Core.

Evidentemente il problema col gcd rimane quello simile al crossfire, devi trovare un modo per far lavorare due entità grafiche sullo stesso frame, perché se no ci sono grosse inefficienze

Predator_1982
04-11-2022, 11:45
no perchè il limite per nvidia è vicino, per AMD solo l'inizio, non puoi aumentare all'infinito il die size, e non si sfornano nuovi processi produttivi ogni anno

se AMD se ne fregasse dei consumi potrebbe potenzialmente fare uscire oggi una 2x 7900XTX aggiungendo UN GCD in quella arch (e probabilmente conseguentemente altri 6 MCD)

nvidia semplicemente non può farlo, potrebbe solo mettere sul PCB un altro AD102 completo, ma a quel punto lo potrebbe fare pure AMD facendo un potenziale 4x

in realtà quello che può fare Nvidia lo sa solo lei, potrebbe andare oltre con un pp più evoluto oppure svoltarla anche lei a MCM (cosa più plausibile), per quanto possiamo saperne magari l'architettura MCM è già in studio ed uscirà già ottimizzata, magari non hanno ritenuto opportuno farlo adesso con Ada o in ambito pro con Hopper....secondo me al prossimo giro ce ne saranno delle belle. AMD ha già intrapreso la strada, Nvidia magari ci mostrerà qualcosa di diverso

Ale55andr0
04-11-2022, 11:48
come fate ad avere un quadro certo di prestazioni con le quattro slide in croce della presentazione? Non potevano certo presentare scenari "sconvenienti" e non ci sono confronti diretti con le nvidia.

.

si guarda, tipicamente cp2077 è un titolo che strizza l'occhio ad AMD nonchè leggerissimo in se' :D

narniagreen
04-11-2022, 11:50
si guarda, tipicamente cp2077 è un titolo che strizza l'occhio ad AMD nonchè leggerissimo in se' :D

:asd:

MetalAxe79
04-11-2022, 11:51
Anch'io, infatti la 7900xtx sarà probabilmente la mia nuova scheda, ma non posso valutarla sul mio bene stare. Se prendiamo ad esempio chi reputa il rt assolutamente irrinunciabile potrebbe dirti che per lui la 7900 xtx vale quanto una futura rtx 4700 e starebbe dicendo bene.
Fra l'altro sia questa che le Nvidia riesco a comprarle in dollari e senza iva ma per la garanzia potrei avere qualche difficoltàStessa cosa per me, 7900xtx sarà la mia nuova scheda e pensionerò la 5700xt. Poi com giustamente dici ognuno si prende la scheda in base a quello che cerca, a me interessano più che altro le prestazioni in raster e non spenderei mai 2000 euro per una scheda video, quindi per me la scheda amd è perfetta, era proprio quello che speravo, prestazioni simil 4900 in raster e prezzo sui 1300, quindi aggiudicata! Finalmente sfrutterò bene l'oled lg c1 55"

ninja750
04-11-2022, 11:52
in realtà quello che può fare Nvidia lo sa solo lei, potrebbe andare oltre con un pp più evoluto oppure svoltarla anche lei a MCM (cosa più plausibile), per quanto possiamo saperne magari l'architettura MCM è già in studio ed uscirà già ottimizzata, magari non hanno ritenuto opportuno farlo adesso con Ada o in ambito pro con Hopper....secondo me al prossimo giro ce ne saranno delle belle. AMD ha già intrapreso la strada, Nvidia magari ci mostrerà qualcosa di diverso

il PP adesso è lo stesso per tutti

io sono sicuro 100% che la prossima verde sarà concettualmente uguale ad AMD

Ale55andr0
04-11-2022, 11:55
Ora diventano tutte cose importanti finalmente :D

Comunque da qui al 13 dicembre è lunga uff.. voglio le review..


Inviato dal mio iPhone utilizzando Tapatalk Pro

io continuo a considerarle merda inutile se per fare upscale :read:

Gyammy85
04-11-2022, 11:57
il PP adesso è lo stesso per tutti

io sono sicuro 100% che la prossima verde sarà concettualmente uguale ad AMD

Eh no, nvidia ha il 4 nm, sta avanti, il super pp fatto apposta

Ale55andr0
04-11-2022, 11:58
già smentito, cioè chi ha la scheda in mano riferisce solo +3%

3% che?

OvErClOck82
04-11-2022, 11:59
3% che?

di OC credo

Raven
04-11-2022, 12:01
in soldoni per "sbloccare" più ordini di serie 4000 devono anche sciropparsi un tot di 3000 :asd:

tra questa vaccata, i connettori che vanno in meltdown, i dictat di nvidia, etc... devo dire che capisco la mossa di EVGA

NODREAMS
04-11-2022, 12:03
Certo che ora non sentire NULLA per 1 mese e affidarsi a 4 slides in croce, è dura....:D :D :D :D

Ale55andr0
04-11-2022, 12:04
di OC credo

vabè dai non è credibile

Ale55andr0
04-11-2022, 12:05
tra questa vaccata, i connettori che vanno in meltdown, i dictat di nvidia, etc... devo dire che capisco la mossa di EVGA

è il POV del negoziante, non del produttore, insomma sono Asus/nvidia che dicono al rivenditore vendimi anche delle 3000 o non ti diamo oltre un tot di 4000...

Ale55andr0
04-11-2022, 12:08
https://www.hwupgrade.it/news/skvideo/asus-tuf-gaming-radeon-rx-7900-xtx-con-tre-connettori-a-8-pin_111552.html


3x8 pin sento odore di OC....

Freisar
04-11-2022, 12:08
un 750w gold di buona fattura per la XTX e vai serenissimo.

Per evitare casini siccome ha cmq i suoi anni l'ali mi sa punterò alla 7900xt risparmiando in generale, tanto mi interessa il raster che sia sopra la 6900xt l'rt non è che mi interessa particolarmente!

Andy1111
04-11-2022, 12:11
Secondo me i prezzi saranno più alti di quello che si suppone qua. Non ci sarà la conversione 1:1 + iva come sarebbe lecito.

Se prendiamo la 6950x in USA, dove vanno comunque aggiunte le tasse per stato, che variano dal 7% all'11% se non ricordo male, e il prezzo ivato in italia attuale, io mi aspetto che la 7900xtx da 999$ starà sopra i 1500€ mentre la 7900xt starà sopra 1400...

se facciamo un rapporto i prezzi che mi vengono sono:

899$ = 1477€
999$ = 1630€

https://i.ibb.co/2sTWqwy/Screenshot-2022-11-04-alle-09-14-59.png (https://ibb.co/k9t5Kpx)https://i.ibb.co/5k9zMD8/Screenshot-2022-11-04-alle-09-11-28.png (https://ibb.co/Scx1sTn)

Quello il prezzo non è aggiornato perchè non la vendono più, guarda quello del 5800x3d come è stato aggiornato ultimamente.

Verro
04-11-2022, 12:21
62 fps in CP2077 con RT su ultra ed FSR, presumibilmente 2.0 ...

Cyberpunk non supporta il 2.0 ufficialmente. C'è una mod non ufficiale (che a me non si attiva, per dire) quindi penso che fosse l'1.0 (che a livello qualitativo è osceno).
Se così fosse ci sarebbe tantissimo margine di miglioramento

Kvarat
04-11-2022, 12:22
Niente impedisce a nvidia di andare a 800 mm2 (tanto 600-700-800 che cambia, mica la tieni in mano) sfruttando il pp per infilare dentro di tutto e di più, dlss4, neural organic quantic ia mainframe, la mod di cp 2077, ecc...
Costerà 5k e tdp 750 watt, ma vuoi mettere la soddisfazione? qualcuno l'anno scorso avrebbe pensato che potessero vendere una vga a 2k con 450 watt di tdp? erano solo trollate da gyammy

Io c'è una cosa che non capirò mai. Ma perchè devono creare schede enormi, bollenti, che consumano un botto e inserirle nel case? Non facevano prima, nel corso degli ultimi anni, ha realizzare una struttura parallela al case del desktop dove inserire una scheda? Io ho avuto per 1 anno la 3070ti Aorus ed era qualcosa di osceno sia per le temperature che per lo spazio occupato. Fosse stata al di fuori del case avrei avuto un'ambiente di lavoro con temperature umane e una scheda video da usare all'occorrenza quando e come volevo. Ho visto dal vivo la Strix 4090. E' imbarazzante e oscena. Sembra un case con la scheda video dentro. :rolleyes:

giangi989
04-11-2022, 12:27
già smentito, cioè chi ha la scheda in mano riferisce solo +3%

Ti posso chiedere la fonte? (Non è che non ci creda ma vorrei sapere chi ha già le schede in mano :D)

OvErClOck82
04-11-2022, 12:31
Io c'è una cosa che non capirò mai. Ma perchè devono creare schede enormi, bollenti, che consumano un botto e inserirle nel case? Non facevano prima, nel corso degli ultimi anni, ha realizzare una struttura parallela al case del desktop dove inserire una scheda? Io ho avuto per 1 anno la 3070ti Aorus ed era qualcosa di osceno sia per le temperature che per lo spazio occupato. Fosse stata al di fuori del case avrei avuto un'ambiente di lavoro con temperature umane e una scheda video da usare all'occorrenza quando e come volevo. Ho visto dal vivo la Strix 4090. E' imbarazzante e oscena. Sembra un case con la scheda video dentro. :rolleyes:

i box esterni per le vga esistono, solo che sono parecchio costosi.. a me hanno sempre intrigato, però la vedo come soluzione né carne né pesce, se non per chi ha solo un portatile

Ale55andr0
04-11-2022, 12:35
Cyberpunk non supporta il 2.0 ufficialmente. C'è una mod non ufficiale (che a me non si attiva, per dire) quindi penso che fosse l'1.0 (che a livello qualitativo è osceno).
Se così fosse ci sarebbe tantissimo margine di miglioramento

in ultra quality l'FSR 1 mi leva le scalette meglio del DLSS in CP2077, altro che osceno :asd:

Andy1111
04-11-2022, 12:46
Lato raster, pensavo in caso di basse prestazioni per flops, in uno scaling non ottimale, in delle latenze più elevate (ancora da analizzare), o in una falla microarchitetturale.
Ne ho beccato una grossa microarchitetturale.
Lo stravolgimento di RDNA va a donnine. Un bel passo indietro.
Il ray ora è condiviso in un dual CU e non in una CU classica, questo è un bene, 96 ray vs 80 con 1,5 g/rays di picco per unità.
Quindi a pari ray, 1,5 medio.

Il problema è che perde IPC, sia raster che RT.

Per come sono organizzate le DCU a doppia istruzione, l'hardware e il software devono cercare di parallelizzare al massimo il lavoro di esecuzione, o si rischiano code, o meglio è quasi impossibile far lavorare 12288 shader. Se l'istruzione successiva non può essere eseguita in parallelo (nel DCU), il CU rimane in attesa, fattore migliorato in rdna1 e 2, tanto da raggiungere nvidia.

Ecco che i TF tornano ad essere imprecisi, malgrado vengano dichiarati 60 e passa TF, questi sono variabili e legati ad attese.
Si ritorna in parte al metodo GCN.

Questo vale anche in RT. Sballando il lato raster, fa sbandare anche il RT, in cui è necessaria una parallelizzazione ottimale.
Insomma un bel passo indietro, per semplificare le CU.

Qua è semplificato, prima potevi fare tutto contemporaneamente, ora ti ritrovi con delle sorte di dipendenze, quindi i 60tf, diventano 30-40-50-60, in base al grado di parallelizzazione.
https://i.postimg.cc/qRQ7KS46/istruioni.png

Non credo sia come dici tu, mi sembra strano e Locuza ha confermato il tutto:

Direi, invece di 2x CU per WGP, come su RDNA1/2, RDNA3 ha "semplicemente" rimosso la seconda CU e migliorato la restante CU con la pianificazione a doppio problema, un file Reg più grande, una cache L0$ più grande, da 16KB a 32 KB e un migliore acceleratore RT.

https://twitter.com/Locuza_/status/1588366052333096960

https://twitter.com/Kepler_L2/status/1565627241937108992

mikael84
04-11-2022, 12:48
Interessante

Ora entrambe le architetture hanno un numero variabile di TF in base al tipo di carico, la spunterà chi programmerà meglio a livello driver e "allungherà le giuste raccomandazioni" agli sviluppatori

Posizionamento del prodotto ottimo sinceramente da un punto di vista "fisico" (scheda montabile ovunque sia per ingombri che requisiti energetici) e di prezzo (cura "ryzen"). La DP2.1 poi è la ciliegina.

La 7800XT ipotizzabile a 699$ e la liscia poco sotto saranno delle belle bestioline per il wQHD e si alimenteranno con un accendino

Nvidia è pensata per i pro, dove non hai interi puoi utilizzare il ratio full fp32, come blender, vray.
Nei giochi le fp sono divise in 2 datapath, uno solo fp32, l'altro condiviso con gli interi.
Quindi una 4090 avrebbe 16384 ( 8192fp + 8192fp + int).
Gli interi sono variabili, ad esempio tomb raider calcola 38% di interi, quindi il datapath 2, usa una piccola parte di fp + le 8192fp.

-------
AMD è un dual issue, ovvero i 12288 shader sono una sorta di calcolo teorico, magari ridondante. Ha 6144 shader totali ma in modalità dual issue legate al ILP. Affinchè ILP funzioni perfettamente i comandi di calcolo e le istruzioni devono essere identiche, se hai comandi divergenti, ti ritrovi con delle risorse inutilizzate.
Quindi si tratta di una situazione in cui quei 60tf, difficilmente lo potrai calcolare contemporaneamente.
Nei giochi ci saranno sempre istruzioni o comandi divergenti.

Nerd1
04-11-2022, 12:48
Non vedo nessun motivo per il quale una 7900 non possa boostare a stock a 2600-2700 (anche se da ora in avanti bisognerà parlare di boost shader e di boost "del resto", sono disaccoppiati in stile Fermi anche se non c'entra nulla)

Ripeto, la 6900XT era data per un game clock di 2105 e sappiamo tutti che è praticamente in idle a quella frequenza

La XTX viene data con game clock 2300 :stordita: sono 200mhz in più a pari (o quasi) TDP di default.....

Maury
04-11-2022, 12:57
in ultra quality l'FSR 1 mi leva le scalette meglio del DLSS in CP2077, altro che osceno :asd:

Quoto l'fsr in cyberpunk è migliore del dlss provato in tutti i modi. Si vede meglio e fa anche più fps.

No Life King
04-11-2022, 12:59
https://www.techpowerup.com/300655/amds-navi-31-might-clock-to-3-ghz-partner-cards-will-be-able-to-overclock

"Based on details from a PCWorld livestream following AMD's launch of the Radeon RX 7000-series, it was revealed that AMD has designed the Navi 31 GPU to be able to scale as high as 3 GHz. In other words, it appears that AMD has power limited its cards, at least for the SKUs that the company has announced so far. This could be for many reasons, but most likely to try to find a balance between power and performance. The details of the 3 GHz scaling did however not come from AMD directly, but rather from Jarred Walton over at Tom's Hardware. That said, the information was apparently shared with the media by AMD at the event."

Ottima notizia per me, al 99% prenderò una custom con alimentazione 3x8 pin
Per quanto il design delle reference sia di gran lunga il mio preferito, non è un fattore determinante visto che che ci schiafferò sopra un WB appena saranno disponibili

mikael84
04-11-2022, 13:03
Non credo sia come dici tu, mi sembra strano e Locuza ha confermato il tutto:

Direi, invece di 2x CU per WGP, come su RDNA1/2, RDNA3 ha "semplicemente" rimosso la seconda CU e migliorato la restante CU con la pianificazione a doppio problema, un file Reg più grande, una cache L0$ più grande, da 16KB a 32 KB e un migliore acceleratore RT.

https://twitter.com/Locuza_/status/1588366052333096960

https://twitter.com/Kepler_L2/status/1565627241937108992

E' giusto, vedi sopra, nella mia testa stavo ancora ragionando a DCU/WGP, il chè ora non ha più senso.;)
Torniamo a parlare di CU
Se fossero 12288 effettivi, avresti 60tf di base

Ale55andr0
04-11-2022, 13:03
Sento odore di silicio piombatoi:D

https://videocardz.com/newz/amd-radeon-rx-7900-gpus-are-designed-to-scale-up-to-3-0-ghz

Ormai é finita da un pezzo la storia dell'oc, sia per nvidia che per amd, ormai tutti si ostinano a vendere prodotti tirati fino al collo per recuperare anche quel 1-2% di performance, di conseguenza la fame di watt é tanta (vedasi 4090) finiti i tempi del doppio delle perfomance con lo stesso consumo, bei tempi quelli del passaggio 28nm/16nm

parlavo di OC "manuale", ovvio che gli AIB out of the box più di 50/75mhz non daranno :D

Ale55andr0
04-11-2022, 13:05
Quoto l'fsr in cyberpunk è migliore del dlss provato in tutti i modi. Si vede meglio e fa anche più fps.

ecco, mo' dillo pure a di Caprio :asd:

Nerd1
04-11-2022, 13:07
Bisognerà vedere come si comporta la curva frequenza/voltaggio......perchè se scalasse bene verso l'alto rimarresti a bocca asciutta per i soli 2x8PIN ....a specifica ovvio, visto che già in passato avevamo mostri (es. 295X2) che tiravano ben più di 300W da 2x8PIN ma qui poi ognuno si prende le proprie responsabilità....

Al massimo andrebbero indagati i pcb di qualche custom 3x8pin "scrausa" cercandone uno che ti permette il montaggio di wb fullcover specifici senza pagare un premium eccessivo....e così saresti sicuro anche nell'intorno dei 500W

Andy1111
04-11-2022, 13:09
parlavo di OC "manuale", ovvio che gli AIB out of the box più di 50/75mhz non daranno :D

Se non sbaglio tutte e due le reference sono 2x8pin quindi totale 375W, la XTX ha meno margine di salire, un leggero UV sulle tensioni e una bella manciata di MHZ li prendi, sicuramente le custom con 3x8pin saliranno molto di più

mikael84
04-11-2022, 13:10
Quoto l'fsr in cyberpunk è migliore del dlss provato in tutti i modi. Si vede meglio e fa anche più fps.

Non si vede male il FSR, anzi.
Cmq anche RDNA3 ha delle matrici, prese da CDNA, come JHH ha messo i tensor di Ampere HPC, con annessi calcoli a matrice mista come bfloat.

Levax
04-11-2022, 13:10
La buona notizia è che Amd non ha deciso di seguire i prezzi di Nvidia, chiaramente perché hanno un prodotto meno performante...quanto esattamente di meno lo scopriremo con le recensioni.
La cattiva notizia è che ormai si è completamente sdoganata l'idea che 1000 e rotti euro sono un buon prezzo per una gpu e che dovremo aspettare il prossimo anno per vedere prodotti a prezzi più umani. Anche qui, vedremo con le recensioni quali saranno i compromessi fatti in cambio del prezzo minore.

No Life King
04-11-2022, 13:10
Bisognerà vedere come si comporta la curva frequenza/voltaggio......perchè se scalasse bene verso l'alto rimarresti a bocca asciutta per i soli 2x8PIN ....a specifica ovvio, visto che già in passato avevamo mostri (es. 295X2) che tiravano ben più di 300W da 2x8PIN ma qui poi ognuno si prende le proprie responsabilità....

Al massimo andrebbero indagati i pcb di qualche custom 3x8pin "scrausa" cercandone uno che ti permette il montaggio di wb fullcover specifici senza pagare un premium eccessivo....e così saresti sicuro anche nell'intorno dei 500W

Sbloccando il PL con il MorePowerTool dalla mia reference son riuscito a tirarci fuori 435W, quindi volendo si può :asd:

Andy1111
04-11-2022, 13:12
Cyberpunk non supporta il 2.0 ufficialmente. C'è una mod non ufficiale (che a me non si attiva, per dire) quindi penso che fosse l'1.0 (che a livello qualitativo è osceno).
Se così fosse ci sarebbe tantissimo margine di miglioramento

Quale hai provato? c'è questa che dovrebbe funzionare aggiornata 2.1.2

https://www.nexusmods.com/cyberpunk2077/mods/3001/?tab=description

Quella di PotatoOfDoom1337 impossibile che non funziona

Andy1111
04-11-2022, 13:13
Sbloccando il PL con il MorePowerTool dalla mia reference son riuscito a tirarci fuori 435W, quindi volendo si può :asd:

Si ma è un bel rischio , io con la mia sopra i 360 non ci vado, e sono a liquido.

Maury
04-11-2022, 13:15
Non si vede male il FSR, anzi.
Cmq anche RDNA3 ha delle matrici, prese da CDNA, come JHH ha messo i tensor di Ampere HPC, con annessi calcoli a matrice mista come bfloat.

No infatti, diciamo che sto testando le tecnologie Amd in vista di un possibile cambio in rosso, non si perde niente, freesync è una lama, funziona a bomba sul mio c1 lg, fsr 1 e soprattutto 2 vanno benone. Temevo di dover rinunciare au benefici di gsync e dlss ma in realtà non si perde nulla. Se poi fsr 3 diventa ai power... :)

No Life King
04-11-2022, 13:16
Si ma è un bel rischio , io con la mia sopra i 360 non ci vado, e sono a liquido.

Certamente e come detto sopra ognuno si prende le proprie responsabilità
Alla fine il mio è stato un esperimento per vedere fin dove riuscivo ad arrivare e a 1.2v sono arrivato a 2910 mhz stabili (e li mi sono fermato)
Finito il tutto l'ho riportata a stock che per il mio uso normale è più che abbastanza

mikael84
04-11-2022, 13:18
La buona notizia è che Amd non ha deciso di seguire i prezzi di Nvidia, chiaramente perché hanno un prodotto meno performante...quanto esattamente di meno lo scopriremo con le recensioni.
La cattiva notizia è che ormai si è completamente sdoganata l'idea che 1000 e rotti euro sono un buon prezzo per una gpu e che dovremo aspettare il prossimo anno per vedere prodotti a prezzi più umani. Anche qui, vedremo con le recensioni quali saranno i compromessi fatti in cambio del prezzo minore.

Bisogna dire una cosa in difesa di AMD. E' vero che non è organizzata per competere con AD102, ricordando che la 4090 è pure uno scarto, però AD102 è pensato principalmente per i prosumer, le cui prestazioni pro, blender, vray permettono di utilizzare tutte le fp32.
Il mercato pro è una grossa fetta, ed nvidia scrive le microarchitetture per loro, poi le adatta ai gamer, che si ritrovano una scheda di cui sfruttano solo per giocare, poi se la scheda può calcolare 1600tf fp16 via tensor, sono dettagli.

Lui chiaramente fa padelloni, ma fa margine con i pro, con i gamer, e con le quadro.
Una AD102 full quadro, costa almeno 6000$.

Maury
04-11-2022, 13:23
Bisogna dire una cosa in difesa di AMD. E' vero che non è organizzata per competere con AD102, ricordando che la 4090 è pure uno scarto, però AD102 è pensato principalmente per i prosumer, le cui prestazioni pro, blender, vray permettono di utilizzare tutte le fp32.
Il mercato pro è una grossa fetta, ed nvidia scrive le microarchitetture per loro, poi le adatta ai gamer, che si ritrovano una scheda di cui sfruttano solo per giocare, poi se la scheda può calcolare 1600tf fp16 via tensor, sono dettagli.

Lui chiaramente fa padelloni, ma fa margine con i pro, con i gamer, e con le quadro.
Una AD102 full quadro, costa almeno 6000$.

Amd ha finalmente fatto uscire delle schede da game, la top costa il giusto e a scalare tutta la linea avrà pezzi stra aggressivi. NVidia stava facendo deragliare il tutto, faccia le sue schede pro poi però non le spacci per prodotti da 'gioco'.