PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 [324] 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348

Gyammy85
03-05-2024, 11:53
Aridaje con sta storia. La 4070 super va 20-30 fps in più in RT rispetto ad una 7800xt.
https://www.youtube.com/watch?v=wM53zKzTZfg
https://www.youtube.com/watch?v=lJz2NedX7EI
https://www.techpowerup.com/review/nvidia-geforce-rtx-4070-super-founders-edition/35.html


In media la 4070 super va di più in raster della 7800 xt e molto di più in RT. Fonti più o meno autorevoli sopra. Ma perchè devi fare disinformazione così? Ora, hai letto quello che ti ho detto, hai visto il video, apprendi i dati. La prossima volta non mi puoi risaltare fuori con sta cosa. Cioè, una volta che si mostrano i dati, anche basta dai. Non è che si fa finta di nulla e la volta dopo si rifà la stessa disinformazione come se nulla fosse successo.

Detto questo, se vceramente AMD nella fascia media si avvicinerà ad Nvidia come parrebbe, sarebbe un peccato la sua rinuncia alla fascia alta

Si lo so che su cyberpunk ci vuole una nvidia, grazie, ma generalmente io vedo i miei risultati rispetto alle 4070 super e siamo lì, frame in più o in meno, potendo contare su più vram che fa sempre comodo, e una forza bruta anche superiore in molti casi, che se uno ha un monitor veloce si sentono

Come ho detto "it's over" ma riguardo la statistica hw di Steam mi riferivo alla top10:

NVIDIA GeForce RTX 3060

NVIDIA GeForce GTX 1650

NVIDIA GeForce RTX 3060 Ti

NVIDIA GeForce RTX 2060

NVIDIA GeForce RTX 3070

NVIDIA GeForce GTX 1060

NVIDIA GeForce RTX 3060 Laptop GPU

NVIDIA GeForce RTX 4060 Laptop GPU

NVIDIA GeForce RTX 3050

NVIDIA GeForce GTX 1050 Ti

siamo qui a romperci la testa con "la salcazzo super va il 20% in più della pallatoXt" quando il mondo gioca con schede che la maggior parte di noi metterebbe nel citofono :rotfl:

Nessuna 4000, forse non hanno l'account di steam, stanno su jensen play

1) A me non sembra che ci sia quello sconto. Ma poi, se permetti, si sarà anche "rotta" AMD di passare per la sorella sfigata che deve "svendere" le cose. per la questione dei GB ok hai ragione ma se NVIDIA riesce a vendere 12 GB a 900 è colpa sua vero? non di chi la pubblicizza e chi la compra? (che poi magari ne rimane piacevolmente soddisfatto?). I test ci sono e parlano chiaro che il gap performace/money hanno sempre fatto vincere..... la serie 6X000.... quindi di che stiamo parlando?

2) Il marketing muove TUTTO, puoi fare prodotti discreti e fare una campagna marketing mostruosa e vendi!. ma ci vogliono i fatti!

Si lo so che FSR lo usi nei giochi che lo supporti (E funziona bene) ma se NVIDIA lo utilizza come punta di diamente DEVI replicare non promettere fumo!



Esatto...la penso uguale.

Ma nulla mi toglie dalla testa che AMD del gaming gli importa il "giusto".

Non è uno sconto, per prendere una 7800xt o una 7900 gre buona cioè le varie sapphire bastano 530-580 euro, per prendere la scrausa 4070 super devi cacciare 700 euro quasi, a meno che uno non vuole prendere le asus e allora si sale ancora
Se qualcuno compra le 4070ti a 900 euro non vuol dire che è la cosa più figa del mondo, a restare piacevolmente soddisfatti ci vuole poco, come quelli che spendevano 350 euro per la 1650 in periodo stopbuy, ma sai che c'è il gioco parte, wow non me l'aspettavo, bello soddisfatto mi sento :O

La campagna marketing per una scheda video risale probabilmente al 2004 l'ultima, poi più niente, a meno che tu intenda techtuber e gente che va in giro da vent'anni a dire che sta scheda regalata da nvidia è proprio bella, amd non ci ha mandato neanche una 6500xt da testare l'abbiamo dovuta comprare, eppure sono solo due mesi che ci spaliamo il fango sopra, cattivi cattivi

Cutter90
03-05-2024, 11:57
Si lo so che su cyberpunk ci vuole una nvidia, grazie, ma generalmente io vedo i miei risultati rispetto alle 4070 super e siamo lì, frame in più o in meno, potendo contare su più vram che fa sempre comodo, e una forza bruta anche superiore in molti casi, che se uno ha un monitor veloce si sentono



Nessuna 4000, forse non hanno l'account di steam, stanno su jensen play



Non è uno sconto, per prendere una 7800xt o una 7900 gre buona cioè le varie sapphire bastano 530-580 euro, per prendere la scrausa 4070 super devi cacciare 700 euro quasi, a meno che uno non vuole prendere le asus e allora si sale ancora
Se qualcuno compra le 4070ti a 900 euro non vuol dire che è la cosa più figa del mondo, a restare piacevolmente soddisfatti ci vuole poco, come quelli che spendevano 350 euro per la 1650 in periodo stopbuy, ma sai che c'è il gioco parte, wow non me l'aspettavo, bello soddisfatto mi sento :O

La campagna marketing per una scheda video risale probabilmente al 2004 l'ultima, poi più niente, a meno che tu intenda techtuber e gente che va in giro da vent'anni a dire che sta scheda regalata da nvidia è proprio bella, amd non ci ha mandato neanche una 6500xt da testare l'abbiamo dovuta comprare, eppure sono solo due mesi che ci spaliamo il fango sopra, cattivi cattivi

In RT la 4070 super va di più della 7800 xt, non fa "frame più o frame meno": Va di più a molto di più. In TUTTi i giochi con RT.
In raster se tu avessi aperto la Review di Powerup avresti visto che la 7800 xt va meno della 4070 super nella maggior parte dei giochi.
La vram sarà anche "comoda", ma conta zero per ora, i risultati sono lì.
Quindi ci sta tutto spendere quei 150 euro in più per la 4070 super IMHO.
Cmq non so che giochi hai tu, ma i tuoi risultati non coincidono affatto con tutte le recensioni. Ma andiamo avanti....

cody19
03-05-2024, 12:10
https://media1.tenor.com/m/Ygq-215oQ8kAAAAd/wanna-marchi-coglioni.gif

scusate la citazione pesante, va presa a ridere eh ;)

ok ma tu hai speso 1000 per una scheda da quasi solo raster...non vedo tanta differenza

belta
03-05-2024, 12:12
Nessuna 4000, forse non hanno l'account di steam, stanno su jensen play



hehehehe ;)

ok ma tu hai speso 1000 per una scheda da quasi solo raster...non vedo tanta differenza

viaggio a 90 fps con le texture a 4k nei giochi bench Nvidia :cool: :O

Vul
03-05-2024, 12:29
Nessuna 4000, forse non hanno l'account di steam, stanno su jensen play


La serie 4000 offre davvero poco al gamer mainstream.

Prezzi alti, pochi vantaggi in raster (i giochi online piu popolari non usano RT, e se sono online si disattiva comunque perche' gli fps sono piu importanti).

Se non hai monitor 4k campi tranquillo con gpu piu vecchie.

Su hwupgrade si sottovaluta sempre che i fissati della risoluzione e del dettaglio massimo sono una minoranza dei gamer.

AMD idem ha dato pochi motivi ad aggiornare, chi doveva farlo l'ha fatto con le 5000 e 6000.

StylezZz`
03-05-2024, 12:53
Non è uno sconto, per prendere una 7800xt o una 7900 gre buona cioè le varie sapphire bastano 530-580 euro, per prendere la scrausa 4070 super devi cacciare 700 euro quasi, a meno che uno non vuole prendere le asus e allora si sale ancora

La 4070 Super scrausa la trovi a 600€ spedita.

Sto ancora cercando di capire dove hai visto quei 200-500€ in meno per fascia :stordita:

argez
03-05-2024, 13:06
In RT la 4070 super va di più della 7800 xt, non fa "frame più o frame meno": Va di più a molto di più. In TUTTi i giochi con RT.
In raster se tu avessi aperto la Review di Powerup avresti visto che la 7800 xt va meno della 4070 super nella maggior parte dei giochi.
La vram sarà anche "comoda", ma conta zero per ora, i risultati sono lì.
Quindi ci sta tutto spendere quei 150 euro in più per la 4070 super IMHO.
Cmq non so che giochi hai tu, ma i tuoi risultati non coincidono affatto con tutte le recensioni. Ma andiamo avanti....

Quindi, seguendo la tua logica e quello che hai scritto sul forum, se una 5700xt va il 10% in più di una 2070 in raster, la 2070 è da considerarsi paritaria o uguale. Ma, attenzione entrino siori e siore, se la 7800xt va il 10% meno della 4070super (sempre parlando di raster, non vorrei tu fossi capace di equivocare anche questo) allora quest'ultima va di più. Direi che non fa una piega. E poi non saresti fazioso o di parte? Suvvia la coerenza, manco ti rendi conto di quello che scrivi a distanza di pochi giorni :asd:.

RoUge.boh
03-05-2024, 13:14
https://media1.tenor.com/m/Ygq-215oQ8kAAAAd/wanna-marchi-coglioni.gif

scusate la citazione pesante, va presa a ridere eh ;)

beh ma fino a quando non sai...non puoi dirlo :sofico: (si scherza)

Pero seriamente io di lamentele non è che ne ho sentite dagli utenti comuni e che continuano a consigliare i loro acquisti.

Non è uno sconto, per prendere una 7800xt o una 7900 gre buona cioè le varie sapphire bastano 530-580 euro, per prendere la scrausa 4070 super devi cacciare 700 euro quasi, a meno che uno non vuole prendere le asus e allora si sale ancora
Se qualcuno compra le 4070ti a 900 euro non vuol dire che è la cosa più figa del mondo, a restare piacevolmente soddisfatti ci vuole poco, come quelli che spendevano 350 euro per la 1650 in periodo stopbuy, ma sai che c'è il gioco parte, wow non me l'aspettavo, bello soddisfatto mi sento :O

La campagna marketing per una scheda video risale probabilmente al 2004 l'ultima, poi più niente, a meno che tu intenda techtuber e gente che va in giro da vent'anni a dire che sta scheda regalata da nvidia è proprio bella, amd non ci ha mandato neanche una 6500xt da testare l'abbiamo dovuta comprare, eppure sono solo due mesi che ci spaliamo il fango sopra, cattivi cattivi


Guarda, hai preso le due schede più bilanciate che però agli occhi di un utente comune che viene bombardato dalla pubblicità attiva/passiva NVIDIA preferisce spendere di più per un prodotto, che lui, reputa di qualità.

Anni fa quando proponevo postazioni con AMD tutti mi dicevano NO voglio Intel 1 su 10 si fidava e la risposta era la solita (ho SEMPRE avuto intel, c'è l'hanno tutti ecc..)

Stessa cosa succede adesso l'utente medio usa il pc fino alla "morte" quindi 100€ su un investimento di 1500 e su 8 anni di utilizzo? sai che gli importa?

Si apre un dibattito più profondo che va al di la degli aspetti tecnici.

Io penso come dice Vul AMD sta investendo poco nel settore delle VGA ha slot limitati quindi sta dirottando tutto sul MI300 .

Anche se sono sincero sta gen è stata una sconfitta sotto TUTTI i punti di vista sia AMD che NVIDIA:rolleyes: (non inteso a livello di performace ma inteso a livello di utenti e portafoglio..)

ninja750
03-05-2024, 13:42
Ma, attenzione entrino siori e siore

:help:

Cutter90
03-05-2024, 15:02
Quindi, seguendo la tua logica e quello che hai scritto sul forum, se una 5700xt va il 10% in più di una 2070 in raster, la 2070 è da considerarsi paritaria o uguale. Ma, attenzione entrino siori e siore, se la 7800xt va il 10% meno della 4070super (sempre parlando di raster, non vorrei tu fossi capace di equivocare anche questo) allora quest'ultima va di più. Direi che non fa una piega. E poi non saresti fazioso o di parte? Suvvia la coerenza, manco ti rendi conto di quello che scrivi a distanza di pochi giorni :asd:.

Si, peccato che le differenze non erano proprio queste. Ma molto inferiori, fonte
https://www.techpowerup.com/review/amd-radeon-rx-5700-xt/28.html
Quindi hai già detto una cosa errata.
Ogni modo anche se va il 10% in più va di più eh. Poi ognuno di noi può considerare le differenze marginali.
cmq questo il grafico in raster di Tecnopowerup
https://i.imgur.com/C4LyZUd.png

Ma è inutile che cerchi di spostare il discorso. Si parlava di come la 4070 super andasse uguale e un pelo di più in RT della 7800xt. E questo è sbagliato, come dimostrato. Inutile che tu provi ad attaccarti sul contorno solo per avere una freccia da scagliare.

marbasso
03-05-2024, 16:30
Ambiente sempre scoppiettante qua, fa bene all' umore :)

belta
03-05-2024, 16:32
Ambiente sempre scoppiettante qua, fa bene all' umore :)

:asd:

OvErClOck82
03-05-2024, 17:32
Si, peccato che le differenze non erano proprio queste. Ma molto inferiori, fonte

https://www.techpowerup.com/review/amd-radeon-rx-5700-xt/28.html

Quindi hai già detto una cosa errata.

Ogni modo anche se va il 10% in più va di più eh. Poi ognuno di noi può considerare le differenze marginali.

cmq questo il grafico in raster di Tecnopowerup

https://i.imgur.com/C4LyZUd.png



Ma è inutile che cerchi di spostare il discorso. Si parlava di come la 4070 super andasse uguale e un pelo di più in RT della 7800xt. E questo è sbagliato, come dimostrato. Inutile che tu provi ad attaccarti sul contorno solo per avere una freccia da scagliare.per andare di più va di più, ma che ci sia la tendenza a pesare in modo diverso quel "di più" in base alla situazione è conclamato da decenni :D

per un 10-15% di differenza si passa alternativamente da "distrugge, devasta, obliterahhh!!!!1" a "ma si, vanno più o meno uguali"

lascio a te indovinare in quale caso Nvidia va di più e in quale meno :asd:

argez
03-05-2024, 17:56
Si, peccato che le differenze non erano proprio queste. Ma molto inferiori, fonte
https://www.techpowerup.com/review/amd-radeon-rx-5700-xt/28.html
Quindi hai già detto una cosa errata.
Ogni modo anche se va il 10% in più va di più eh. Poi ognuno di noi può considerare le differenze marginali.
cmq questo il grafico in raster di Tecnopowerup
https://i.imgur.com/C4LyZUd.png

Ma è inutile che cerchi di spostare il discorso. Si parlava di come la 4070 super andasse uguale e un pelo di più in RT della 7800xt. E questo è sbagliato, come dimostrato. Inutile che tu provi ad attaccarti sul contorno solo per avere una freccia da scagliare.

Ma questi sono numeri di magia incredibbili siore e siori :eek:. Siamo passati dal confronto tra 5700xt/2070 del 2024 di hu, alla review originale della 5700xt di tpu del 2019, cosa non si farebbe per far tornare qualche numerello :rolleyes:!

E come mai tra 7800xt e 4070s (raster)non metti il grafichetto delle medie :rolleyes:? Quello non ci piace? Rotta la calcolatrice? Peccato :cry:.

Ma ti prego, illuminami pure con i tuoi dati incontrovertibili, sono qui che aspetto l'abbronzatura, rigorosamente verde mela, fa tendenza quest'anno.

Cutter90
04-05-2024, 08:27
Ma questi sono numeri di magia incredibbili siore e siori :eek:. Siamo passati dal confronto tra 5700xt/2070 del 2024 di hu, alla review originale della 5700xt di tpu del 2019, cosa non si farebbe per far tornare qualche numerello :rolleyes:!

E come mai tra 7800xt e 4070s (raster)non metti il grafichetto delle medie :rolleyes:? Quello non ci piace? Rotta la calcolatrice? Peccato :cry:.

Ma ti prego, illuminami pure con i tuoi dati incontrovertibili, sono qui che aspetto l'abbronzatura, rigorosamente verde mela, fa tendenza quest'anno.

https://i.imgur.com/yMOWQiG.png
Ops, davo per scontato che te li andassi a cercare tu. Ma tranquillo, i dati li porto eccome, eccoli.
Conclusione in raster. Tra 4070 super e 7800 xt c'è 7/8% in favore della super. Tra 5700 xt e 2070 c'è l' 1% in favore della 5700 xt. Quindi il gap tra la 4070 super e la 7800 xt è più ampio di quello che c'è tra la 2070 e la 5700 xt.
Penso che ora possiamo finire questa discussione. Però, cerca di capire eh. non è che tra 2 settimane risbuchi fuori con la tua disinformazione però. Pensavi in un modo, hai sbagliato,. ti ho dimostrato argomentando e dati alla mano il perchè, quindi ora direi che puoi acquisire quello che hai appreso e non "ricascarci" più.

Chiudo dicendo che non considerare il RT sta diventando sempre più "problematico", visto che ormai ci sono parecchi giochi che ne fanno uso, più o meno "vero" e che la direzione è inevitabilmente che aumentino. Per cui, a meno di esigenze super particolari di budget e/o di giochi competitivi, ritengo che la variabile RT non sia più ignorabile.

Ale55andr0
04-05-2024, 14:36
Ambiente sempre scoppiettante qua, fa bene all' umore :)

più che altro c'è la singolarità di chi ha evidentemente sposato il proprio pezzo di silicio/brand/ceo preferito. Uno a thread di "singolari" però basterebbe, due sono troppi :mc:. Ma qualcuno in particolare evidentemente (probabilmente l'atto sessuale con la propria GPU non gli riesce e deve soddisfarsi in altro modo) deve sempre "migrare" e venire a rompere i cabasi, rigirando di continuo frittate peraltro dovendo, ancora un volta, cercare di convincere qualcuno di qualcosa di cui non frega nulla a nessuno qui.

Segnalate pure "no ho problema" (semicit.)


scusate la citazione pesante, va presa a ridere eh ;)


Nulla di cui scusarti. E speriamo che al prossimo giro incrementino il diametro del palo.

argez
04-05-2024, 15:16
https://i.imgur.com/yMOWQiG.png
Ops, davo per scontato che te li andassi a cercare tu. Ma tranquillo, i dati li porto eccome, eccoli.
Conclusione in raster. Tra 4070 super e 7800 xt c'è 7/8% in favore della super. Tra 5700 xt e 2070 c'è l' 1% in favore della 5700 xt. Quindi il gap tra la 4070 super e la 7800 xt è più ampio di quello che c'è tra la 2070 e la 5700 xt.
Penso che ora possiamo finire questa discussione. Però, cerca di capire eh. non è che tra 2 settimane risbuchi fuori con la tua disinformazione però. Pensavi in un modo, hai sbagliato,. ti ho dimostrato argomentando e dati alla mano il perchè, quindi ora direi che puoi acquisire quello che hai appreso e non "ricascarci" più.

Chiudo dicendo che non considerare il RT sta diventando sempre più "problematico", visto che ormai ci sono parecchi giochi che ne fanno uso, più o meno "vero" e che la direzione è inevitabilmente che aumentino. Per cui, a meno di esigenze super particolari di budget e/o di giochi competitivi, ritengo che la variabile RT non sia più ignorabile.

Nero su "bianco":
A me sembra di sognare. Ma secondo te non l'ho visto il video?
come media abbiamo la
5700 xt che fa 80 fps in 1080 vs 73 fps della 2070 (9.5%)
5700 xt che fa 57 fps in 1440p vs 53 in 1440p (7%)

Poi ho postato pure un videoconfronto di 9 mesi fa in cui si vede chiaramente che vanno uguali.

Cioè, questi valori e differenze non significa "andare uguali"? Come si può non definire che sommariamente le due schede si equivalgono? Ci sono 7 fps e 4 fps in media. Se per te andare uguale significa fare gli stessi identici fps in una media allora nessuna scheda va uguale ad un altra. Quindi una scheda che fa 1 fps di più va di più di un altra? Cioè, questo è il modo giusto di ragionare e di valutare le performance delle vga secondo voi?
Se per voi questo è "andare di più" (poi con una frase come se andasse molto di più) alzo le mano. IMHO non è affatto così.

Non penso ci sia da aggiungere molto, visto che ti contraddici da solo.

Qui per magia la 4070s va di più (in raster) nonostante il grafico delle medie dimostri che la distanza con la 7800xt è quasi la stessa del confronto di hu tra 5700xt e 2070.
Ma, a costo di non ammettere il conflitto evidente nei tuoi discorsi, hai avuto addirittura il coraggio di andare a rispolverare la review originale della 5700xt di 5 anni fa di techpowerup per far tornare i conti.

Tranquillo, "i fatti ti cosano (cit.)", continua pure con i tuoi vaneggiamenti monocorda, spero solo che la gente che ti legge si renda conto delle baggianate che scrivi.


Chiudo dicendo che non considerare il RT sta diventando sempre più "problematico", visto che ormai ci sono parecchi giochi che ne fanno uso, più o meno "vero" e che la direzione è inevitabilmente che aumentino. Per cui, a meno di esigenze super particolari di budget e/o di giochi competitivi, ritengo che la variabile RT non sia più ignorabile.

Ed eccolo qua, il classico motivetto pubblicitario, ripetuto a pappagallo da almeno un paio d'anni. Attenzione l'importante è rimanere sul vago, altrimenti non funziona. Certo è che deve essere stancante la fidelizzazione del cliente.

belta
04-05-2024, 15:31
Chiudo dicendo che non considerare il RT sta diventando sempre più "problematico", visto che ormai ci sono parecchi giochi che ne fanno uso, più o meno "vero" e che la direzione è inevitabilmente che aumentino. Per cui, a meno di esigenze super particolari di budget e/o di giochi competitivi, ritengo che la variabile RT non sia più ignorabile.

Soliti discorsi, l'RT pesante fa la differenza in CP2077 e Alan Wake e servono comunque Pc di una certa fascia che sono in mano a una percentuale di persone giocanti molto bassa rispetto al totale, senza considerare che i suddetti giochi (salvo conflitti mondiali :asd: ) saranno disponibili anche negli anni a venire, quando probabilmente l'RT verrà macinato bene anche dalle rosse e dalle blu sperando che non chiudano baracca e burattini e che resti solo Nvidia con l'abbonamento al mainframe effetti grafici + schede di fascia Aldi vendute a 800€

DANY 76
04-05-2024, 15:41
ma qui veramente si discute su vga che fra loro la media nn differisce nemmeno del 10%?
ma poi anche fosse che la 70 super va meglio costa anche decisamente di più e dovrebbe essere paragonata più alla 7900GRE,inatti la 7800xt è la concorrente della 70 liscia e non super.
cmq si discute di quisquiglie e aria fritta.

l'unica discriminante tra verde e rosso è solo l'RT e quanto gli si da importanza a livello individuale.

belta
04-05-2024, 15:50
l'unica discriminante tra verde e rosso è solo l'RT e quanto gli si da importanza a livello individuale.

Quoto e aggiungo:
- quantitativo vRAM;
- consumi;
- pacchetto software.
in particolare la vRAM se si gioca con le mod si fa presto a farla fuori, mi trovai KO con una GTX 970 in Skyrim :rotfl:

DANY 76
04-05-2024, 16:07
Quoto e aggiungo:
- quantitativo vRAM;
- consumi;
- pacchetto software.
in particolare la vRAM se si gioca con le mod si fa presto a farla fuori, mi trovai KO con una GTX 970 in Skyrim :rotfl:

si ok queste sono caratteristiche di un brand o dell'altro e si prende la vga associata alla build adatta ma alla fine al gamer gli si chiede a che riso vuole giocare e se gli interessa l'RT,se tra due pari fascia una vga consuma 300watt e l'altra 250 frega a pochissima gente.
le vecchie vga poi erano avare di v-ram avevo anch'io una 970 e in full HD ancora se cavava su giochi nn pesanti ma quella poca v-ram l'ha messa ko.

Cutter90
04-05-2024, 17:13
Quoto e aggiungo:
- quantitativo vRAM;
- consumi;
- pacchetto software.
in particolare la vRAM se si gioca con le mod si fa presto a farla fuori, mi trovai KO con una GTX 970 in Skyrim :rotfl:

Eh ma la vram diventa utile solo quando serve, ossia attualmente molto poco, oppure è inutile ferma lì.
I consumi.... in che senso? Le 4000 da quello che so vanno benissimo anche rispetto alle amd.
- pacchetto software: se intendo i driver, nvidia è da sempre un gradino sopra. Lato software di gestione lato amd è davvero ottimo e sicuramente migliore di nvidia.Ma nvidia sta recuperando con una ottima app in beta. E per me è un aspetto davvero secondario.
Secondo me il vero vantaggio di amd è il prezzo a pari fascia, andando magari simili in raster e molto meno in rt.

DANY 76
04-05-2024, 18:27
Eh ma la vram diventa utile solo quando serve, ossia attualmente molto poco, oppure è inutile ferma lì.

attualmente molto poco?ma ne sei sicuro?giocando sopra il 1080p ci sono molti giochi che usano molto più di 8gb e arrivano a saturare i 16...
prima della 7900 avevo la 6800 liscia e svariati giochi in quad hd occupavano oltre 12gb di v-ram e alcuni mi saturavano i 16.

ma poi si è sempre criticata nvidia che ha poca vram(che portava a qualche problema vedesi sopratutto la serie 3000)e mo nn serve?

Cutter90
04-05-2024, 21:48
attualmente molto poco?ma ne sei sicuro?giocando sopra il 1080p ci sono molti giochi che usano molto più di 8gb e arrivano a saturare i 16...
prima della 7900 avevo la 6800 liscia e svariati giochi in quad hd occupavano oltre 12gb di v-ram e alcuni mi saturavano i 16.

ma poi si è sempre criticata nvidia che ha poca vram(che portava a qualche problema vedesi sopratutto la serie 3000)e mo nn serve?

Sopra 1080p più di 8 gb? Ma dove? Su che giochi? Perché in 1440p sono rari i giochi in cui una 3070, ad esempio, soffre di poca vram. La normalità è che le performance della scheda degradano in maniera superiore rispetto alla vram. La 3070 è una scheda da 1080p nei giochi pesanti ormai, soprattutto in rt.
Occhio che i gb occupati non sono quelli che servono. Ne alloca di più di quelli che servono.
La vram di Nvidia la critica amd e chi ha amd. Ma la verità non è affatto quella. Nvidia non ha assolutamente poca vram e si riesce a giocare tutto tranquillamente nelle rispettive fasce.

DANY 76
04-05-2024, 22:17
Sopra 1080p più di 8 gb? Ma dove? Su che giochi? Perché in 1440p sono rari i giochi in cui una 3070, ad esempio, soffre di poca vram. La normalità è che le performance della scheda degradano in maniera superiore rispetto alla vram. La 3070 è una scheda da 1080p nei giochi pesanti ormai, soprattutto in rt.
Occhio che i gb occupati non sono quelli che servono. Ne alloca di più di quelli che servono.
La vram di Nvidia la critica amd e chi ha amd. Ma la verità non è affatto quella. Nvidia non ha assolutamente poca vram e si riesce a giocare tutto tranquillamente nelle rispettive fasce.

sono rari i giochi che usano più di 8 gb sopra il 1080p?ne sei veramente sicuro?

cyberpunk mi usa 14gb di vram.
AW II mi usa 18gb di vram
poi il meglio è d4 che mi occupa tutta la vram della mia 7900(già con la 6800 mi occupava tutti e 16 i gb)
poi c'è per esempio hoguarts legacy dove si è visto svariate volte che vga con 8 gb di vram oltre il 1080p soffrono e ce ne sono anche altri.

bobby10
04-05-2024, 23:29
Sopra 1080p più di 8 gb? Ma dove? Su che giochi? Perché in 1440p sono rari i giochi in cui una 3070, ad esempio, soffre di poca vram. La normalità è che le performance della scheda degradano in maniera superiore rispetto alla vram. La 3070 è una scheda da 1080p nei giochi pesanti ormai, soprattutto in rt.
Occhio che i gb occupati non sono quelli che servono. Ne alloca di più di quelli che servono.
La vram di Nvidia la critica amd e chi ha amd. Ma la verità non è affatto quella. Nvidia non ha assolutamente poca vram e si riesce a giocare tutto tranquillamente nelle rispettive fasce.

https://www.youtube.com/watch?v=8IyNullMD9M&ab_channel=AldoGiovannieGiacomoUfficiale

;)

Cutter90
05-05-2024, 08:28
sono rari i giochi che usano più di 8 gb sopra il 1080p?ne sei veramente sicuro?

cyberpunk mi usa 14gb di vram.
AW II mi usa 18gb di vram
poi il meglio è d4 che mi occupa tutta la vram della mia 7900(già con la 6800 mi occupava tutti e 16 i gb)
poi c'è per esempio hoguarts legacy dove si è visto svariate volte che vga con 8 gb di vram oltre il 1080p soffrono e ce ne sono anche altri.

Ripeto, quella è la vram allocata, che è di più di quella che realmente serve.
Qui abbiamo la 3070 8 gb che in 1440p in cp 2077 viene saturata solo con rt ultra e pt. Ma fa cmq 30-40 fps. Quindi in cp 2077 se lo si vuole giocare decentemente bisogna togliere il RT (minuto 20) o passare al 1080p.
https://youtu.be/PdO6WBbAqWk
Cmq cp 2077 anche in 4k con pt non alloca nemmeno 14 gb ma 13. Ma ovviamente siamo su tutto un altro target dove una 7900 non arriva nemmeno e una 3070 da 8gb idem
https://youtu.be/c6-FQUOcXWs
Alan wake 2 si, usa tanta vram ma anche qui si parla di Path tracing. Ingiocabile per via delle performance sia sulla 3070 che sulla tua. Solo in 4k con PT consuma 17 gb. Con 1080p/1440p ne consuma molti meno. Una scheda da 8 gb dovrebbe cmq fare compromessi lato texture qui. Il che ci può pure stare visto che stiamo parlando di uno dei giochi più avanzati tecnicamente.
Diablo 4 in 1440p la 3070 supera i 100 fps e consuma 7,5 gb. Quindi nessun problema, perfettamente giocabile.
https://youtu.be/bqrMerKEVlQ
Chiaro che se lo si vuole giocare con rt tutto al max allora 8 gb non bastano, ma nemmeno una 3070 tiene i 60 fps così. E allora in un gioco come Diablo 4 non ha senso.
HL ci posso pure credere anche perché è programmato malissimo quel gioco. Basta pensare il RT sulle ombre rotto e mai sistemato.
Insomma, il concetto è stato affrontato più volte. Se nel 95% dei giochi anche 8gb vanno benissimo, ci sono dei giochi in cui non bastano. Ma in quei giochi sono le performance della scheda a non bastare, non la vram.
Perché se attivare il RT a 1440p con una 3070 ti porterebbe a giocare a 30/40 fps quelle di certo non sono performance accettabili per giocare indipendentemente dalla vram.
Per quello che dico che per il suo target una scheda da 8 gb va beneone anche ora. Una 3070 in 1440p in raster e in 1080p con rt con i suoi 8 gb va benissimo anche ora e andrà bene anche in seguito

A64FX+DFI nF4
05-05-2024, 08:56
e nel 99.9% dei giochi non c'è RT o è ininfluente azzoppando il framerate

Cutter90
05-05-2024, 11:18
e nel 99.9% dei giochi non c'è RT o è ininfluente azzoppando il framerate

In linea generale si (anche de la % non èsicuro quella vista la diffusione sempre maggiore). Ma nei giochi in cui funziona la differenza la fa e si parla di AAA mainstream. Quindi sicuramente più giocati e noti. Dipende uno da cosa gioca alla fine
Però non c'entra con la vram

DANY 76
05-05-2024, 12:35
Ripeto, quella è la vram allocata, che è di più di quella che realmente serve.
Qui abbiamo la 3070 8 gb che in 1440p in cp 2077 viene saturata solo con rt ultra e pt. Ma fa cmq 30-40 fps. Quindi in cp 2077 se lo si vuole giocare decentemente bisogna togliere il RT (minuto 20) o passare al 1080p.
https://youtu.be/PdO6WBbAqWk
Cmq cp 2077 anche in 4k con pt non alloca nemmeno 14 gb ma 13. Ma ovviamente siamo su tutto un altro target dove una 7900 non arriva nemmeno e una 3070 da 8gb idem
https://youtu.be/c6-FQUOcXWs
Alan wake 2 si, usa tanta vram ma anche qui si parla di Path tracing. Ingiocabile per via delle performance sia sulla 3070 che sulla tua. Solo in 4k con PT consuma 17 gb. Con 1080p/1440p ne consuma molti meno. Una scheda da 8 gb dovrebbe cmq fare compromessi lato texture qui. Il che ci può pure stare visto che stiamo parlando di uno dei giochi più avanzati tecnicamente.
Diablo 4 in 1440p la 3070 supera i 100 fps e consuma 7,5 gb. Quindi nessun problema, perfettamente giocabile.
https://youtu.be/bqrMerKEVlQ
Chiaro che se lo si vuole giocare con rt tutto al max allora 8 gb non bastano, ma nemmeno una 3070 tiene i 60 fps così. E allora in un gioco come Diablo 4 non ha senso.
HL ci posso pure credere anche perché è programmato malissimo quel gioco. Basta pensare il RT sulle ombre rotto e mai sistemato.
Insomma, il concetto è stato affrontato più volte. Se nel 95% dei giochi anche 8gb vanno benissimo, ci sono dei giochi in cui non bastano. Ma in quei giochi sono le performance della scheda a non bastare, non la vram.
Perché se attivare il RT a 1440p con una 3070 ti porterebbe a giocare a 30/40 fps quelle di certo non sono performance accettabili per giocare indipendentemente dalla vram.
Per quello che dico che per il suo target una scheda da 8 gb va beneone anche ora. Una 3070 in 1440p in raster e in 1080p con rt con i suoi 8 gb va benissimo anche ora e andrà bene anche in seguito

è incredibile la moltitudine di supercazzole che intorti e con gli stessi video che hai postato tu dimostri che 8gb di vram nn bastano...però o la vram nn serve.
vabbè già ho capito come sarà l'andazzo meglio che chiudo qui.

StylezZz`
05-05-2024, 13:25
La vram di Nvidia la critica amd e chi ha amd. Ma la verità non è affatto quella. Nvidia non ha assolutamente poca vram e si riesce a giocare tutto tranquillamente nelle rispettive fasce

Ma siamo sicuri che la critica solo chi ha aemmeddì?

Per quello che dico che per il suo target una scheda da 8 gb va beneone anche ora. Una 3070 in 1440p in raster e in 1080p con rt con i suoi 8 gb va benissimo anche ora e andrà bene anche in seguito

Quei video non possono mostrarti il quadro completo, i giochi vanno provati e giocati dall'inizio alla fine per poi potersi permettere di dire che ''va benissimo'', anche le recensioni dove spesso vengono provati solo brevi spezzoni lasciano il tempo che trovano.

Cutter90
05-05-2024, 16:19
Ma siamo sicuri che la critica solo chi ha aemmeddì?



Quei video non possono mostrarti il quadro completo, i giochi vanno provati e giocati dall'inizio alla fine per poi potersi permettere di dire che ''va benissimo'', anche le recensioni dove spesso vengono provati solo brevi spezzoni lasciano il tempo che trovano.
Potrei amche essere d'accordo ma.. allora come comproviamo le ipotesi?
Io vedo video e recensioni che restituiscono quello che ho descritto. Io finché non vedo altro perché dovrei pensarla diversamente? Cioè non so se hai capito il mio discorso

Cutter90
05-05-2024, 16:20
è incredibile la moltitudine di supercazzole che intorti e con gli stessi video che hai postato tu dimostri che 8gb di vram nn bastano...però o la vram nn serve.
vabbè già ho capito come sarà l'andazzo meglio che chiudo qui.

Ma non è assolutamente vero scusa. E i video sono lì. Boh.

LurenZ87
05-05-2024, 16:41
Scusate se interrompo questa "interessante" diatriba che ai fini del thread c'entra come Lisa nelle sfilate di moda...

La mia domanda è la seguente, quando è prevista l'uscita delle nuove Radeon??? Infine le prestazioni saranno da 7900 XTX con meno watt (avevo letto una cosa del genere), cosa si sa di più o meno preciso??? Grazie.

Inviato dal mio ThinkPhone utilizzando Tapatalk

belta
05-05-2024, 17:27
Scusate se interrompo questa "interessante" diatriba che ai fini del thread c'entra come Lisa nelle sfilate di moda...

La mia domanda è la seguente, quando è prevista l'uscita delle nuove Radeon??? Infine le prestazioni saranno da 7900 XTX con meno watt (avevo letto una cosa del genere), cosa si sa di più o meno preciso??? Grazie.

Inviato dal mio ThinkPhone utilizzando Tapatalk

Non si sa nulla di preciso, lato prestazioni le varie voci riportano solo gpu di fascia bassa e media con prestazioni massime equiparabili a 7900xt/xtx con più unità di calcolo per il ray tracing e consumi inferiori, data di uscita fine anno primo trimestre 2025.
Personalmente mi aspetto una campagna marketing e pubblicitaria stile "è arrivata la scheda del popolo", e chiamerei Gorbaciov non fosse morto due anni fa.

mikael84
05-05-2024, 18:16
Scusate se interrompo questa "interessante" diatriba che ai fini del thread c'entra come Lisa nelle sfilate di moda...

La mia domanda è la seguente, quando è prevista l'uscita delle nuove Radeon??? Infine le prestazioni saranno da 7900 XTX con meno watt (avevo letto una cosa del genere), cosa si sa di più o meno preciso??? Grazie.

Inviato dal mio ThinkPhone utilizzando Tapatalk

Al momento so solo questo::)
https://www.hwupgrade.it/forum/showpost.php?p=48509141&postcount=80735

Non si sa nulla di preciso, lato prestazioni le varie voci riportano solo gpu di fascia bassa e media con prestazioni massime equiparabili a 7900xt/xtx con più unità di calcolo per il ray tracing e consumi inferiori, data di uscita fine anno primo trimestre 2025.
Personalmente mi aspetto una campagna marketing e pubblicitaria stile "è arrivata la scheda del popolo", e chiamerei Gorbaciov non fosse morto due anni fa.

Non più unità, ma specializzate in BVH ed equivalente ser (che AMD originariamente chiamava OREO, ma non se ne fece nulla).
Per il discorso PT, se eseguito in wave64 totalmente le prestazioni saranno sempre dimezzate per via della metà di thread in calcolo vettoriale consecutivamente da 10 a 5 su 16 per SIMD.:)

LurenZ87
05-05-2024, 18:17
Non si sa nulla di preciso, lato prestazioni le varie voci riportano solo gpu di fascia bassa e media con prestazioni massime equiparabili a 7900xt/xtx con più unità di calcolo per il ray tracing e consumi inferiori, data di uscita fine anno primo trimestre 2025.

Personalmente mi aspetto una campagna marketing e pubblicitaria stile "è arrivata la scheda del popolo", e chiamerei Gorbaciov non fosse morto due anni fa.Ottimo, grazie :)

PS: AMD per le campagne di marketing è allucinante, ricordo ancora quella del Fixer, della Revolution e il poster "a caccia dei Titani", ai tempi delle prime GTX Titan :asd:

Inviato dal mio ThinkPhone utilizzando Tapatalk

LurenZ87
05-05-2024, 18:21
Al momento so solo questo::)

https://www.hwupgrade.it/forum/showpost.php?p=48509141&postcount=80735







Non più unità, ma specializzate in BVH ed equivalente ser (che AMD originariamente chiamava OREO, ma non se ne fece nulla).

Per il discorso PT, se eseguito in wave64 totalmente le prestazioni saranno sempre dimezzate per via della metà di thread in calcolo vettoriale consecutivamente da 10 a 5 su 16 per SIMD.:)Grazie, molto interessante :D

Inviato dal mio ThinkPhone utilizzando Tapatalk

Vik94
05-05-2024, 18:58
e nel 99.9% dei giochi non c'è RT o è ininfluente azzoppando il framerate

Si spendono anche migliaia di euro di componenti pc per giocare al 99.9% di titoli vecchi o a basso budged o allo 0.1% di titoli moderni e tripla A?

belta
05-05-2024, 19:02
PS: AMD per le campagne di marketing è allucinante, ricordo ancora quella del Fixer, della Revolution e il poster "a caccia dei Titani", ai tempi delle prime GTX Titan :asd:

Inviato dal mio ThinkPhone utilizzando Tapatalk

https://i.postimg.cc/htXX8pBW/30kyb2d.png

LurenZ87
05-05-2024, 19:28
https://i.postimg.cc/htXX8pBW/30kyb2d.png:asd: :asd: :asd:

Questa non la ricordavo, però ricordo benissimo il rumore della 290X reference in game, sicuramente era correlato :sofico:

Inviato dal mio ThinkPhone utilizzando Tapatalk

A64FX+DFI nF4
05-05-2024, 20:22
Si spendono anche migliaia di euro di componenti pc per giocare al 99.9% di titoli vecchi o a basso budged o allo 0.1% di titoli moderni e tripla A?

solo Cyberpunk 2077 e Alan Wale 2

floop
06-05-2024, 08:02
Si spendono anche migliaia di euro di componenti pc per giocare al 99.9% di titoli vecchi o a basso budged o allo 0.1% di titoli moderni e tripla A?

chi lo dice?

Gyammy85
06-05-2024, 08:47
e nel 99.9% dei giochi non c'è RT o è ininfluente azzoppando il framerate

E se caliamo le texture a medio hai voglia quanto bastano 8 giga, e poi diciamola tutta, se avere tanta vram fosse importante nvidia la metterebbe :O

Scusate se interrompo questa "interessante" diatriba che ai fini del thread c'entra come Lisa nelle sfilate di moda...

La mia domanda è la seguente, quando è prevista l'uscita delle nuove Radeon??? Infine le prestazioni saranno da 7900 XTX con meno watt (avevo letto una cosa del genere), cosa si sa di più o meno preciso??? Grazie.

Inviato dal mio ThinkPhone utilizzando Tapatalk

Per RDNA4 credo se ne parli a ottobre, cioè a 2 anni dalle 7000, che erano state presentate 2 anni dopo le 6000, diciamo molto probabile

CtrlAltSdeng!
06-05-2024, 09:35
Sperando arrivi a una 3060 (ma con più ram, questo è sicuro :asd: ) :O

Intel al momento è in zona medio-bassa performance wise ma fortunatamente è migliorata molto la parte driver al di fuori del "minimo sindacale" su windows....non ho ben capito se la nuova serie sarà solo un affinamento hardware della precedente o una nuova architettura. Nel primo caso a fare da concorrenza rimarrà ancora la sola AMD e se sarà veramente solo una media bhe vedremo le rtx 4000 in giro ancora per molto :asd: nel secondo caso vedremo se intele amd facessero a botte per una fascia media decente che tolto due effetti rt e tre titoli AAA in croce all'anno (giocabili dopo sei mesi ovvio) permetteranno di giocare a tutto e bene :fagiano: relegando le medie nvidia con la ram ritagliata al kb al destino che meritano.

ninja750
06-05-2024, 11:38
Scusate se interrompo questa "interessante" diatriba

interessantissima :rolleyes: e alimentata purtroppo dai soliti

portando a zero conclusioni e dieci pagine off topic

Cutter90
06-05-2024, 11:47
interessantissima :rolleyes: e alimentata purtroppo dai soliti

portando a zero conclusioni e dieci pagine off topic

Le conclusioni sono arrivate eccome. Bisogna solo vederle e assimilarle per non ripresentarsi la prossima volta con le solite frasi. Se non sei interessato ignorala, come faccio io per tante altre discussioni. Non c'è nulla di male.:)

ninja750
06-05-2024, 13:58
Le conclusioni sono arrivate eccome

aiutami

queste?

https://www.hwupgrade.it/forum/showpost.php?p=48510539&postcount=80773


Se non sei interessato ignorala, come faccio io per tante altre discussioni. Non c'è nulla di male.:)

se non sei interessato al topic (cit.) ignora questo thread no?

sai com'è, uno apre il forum ASPETTANDO LA NUOVE VGA RADEON e puntualmente deve scorrere post e post e post di offtopic fino a trovare poco (o nulla) sulle NUOVE VGA RADEON. che poi mi sta benissimo una volta tanto ci mancherebbe ma questa è diventata la regola. e non posso non leggere tutto ignorando come dici tu, non posso ignorare perchè per cercare quello che mi interessa sono costretto a leggere tutti i post sperando di trovare qualcosa in topic

Cutter90
06-05-2024, 14:04
aiutami

queste?

https://www.hwupgrade.it/forum/showpost.php?p=48510539&postcount=80773



se non sei interessato al topic (cit.) ignora questo thread no?

sai com'è, uno apre il forum ASPETTANDO LA NUOVE VGA RADEON e puntualmente deve scorrere post e post e post di offtopic fino a trovare poco (o nulla) sulle NUOVE VGA RADEON. che poi mi sta benissimo una volta tanto ci mancherebbe ma questa è diventata la regola. e non posso non leggere tutto ignorando come dici tu, non posso ignorare perchè per cercare quello che mi interessa sono costretto a leggere tutti i post sperando di trovare qualcosa in topic

Quelle del mio post originale

Del resto è la stessa cosa che faccio io. Entro qui sperando che si parli delle nuove e invece è sempre e solo un paragone con le Nvidia, dicendo per altro cose sbagliate, faziose e/o false proprio.
Quindi come vedi anche io sono nella tua situazione. Ma chiudiamola qui. Altrimenti non si finisce più.

argez
06-05-2024, 14:32
aiutami

queste?

https://www.hwupgrade.it/forum/showpost.php?p=48510539&postcount=80773



se non sei interessato al topic (cit.) ignora questo thread no?

sai com'è, uno apre il forum ASPETTANDO LA NUOVE VGA RADEON e puntualmente deve scorrere post e post e post di offtopic fino a trovare poco (o nulla) sulle NUOVE VGA RADEON. che poi mi sta benissimo una volta tanto ci mancherebbe ma questa è diventata la regola. e non posso non leggere tutto ignorando come dici tu, non posso ignorare perchè per cercare quello che mi interessa sono costretto a leggere tutti i post sperando di trovare qualcosa in topic

Io alla fine ho seguito il consiglio dell'ignore list che mi è stato dato da altri perchè tanto non ci si ragiona. Mi spiace solo aver protratto l'ot inutilmente.

ninja750
06-05-2024, 16:03
aggiornamento di MAGGIO computerbase perf/prezzo QHD

https://www.computerbase.de/2024-02/grafikkarten-preis-leistungs-verhaeltnis/#abschnitt_fps_pro_euro_in_wqhd

https://i.postimg.cc/yNTNS8Xw/Immagine-2024-05-06-165911.png

continuo a vedere 7900XT e XTX ancora un po' fuori scala, vedremo come cambierà tutto ciò con RDNA4

CtrlAltSdeng!
06-05-2024, 16:31
"Non c'è concorrenza", olio su tela, 2024 :O

DANY 76
06-05-2024, 18:34
aggiornamento di MAGGIO computerbase perf/prezzo QHD

https://www.computerbase.de/2024-02/grafikkarten-preis-leistungs-verhaeltnis/#abschnitt_fps_pro_euro_in_wqhd

https://i.postimg.cc/yNTNS8Xw/Immagine-2024-05-06-165911.png

continuo a vedere 7900XT e XTX ancora un po' fuori scala, vedremo come cambierà tutto ciò con RDNA4

le fascia alta nn hanno mai un buon rapporto prezzo/fps.

ionet
06-05-2024, 19:25
sui test in RT e consumi, poi trovi i motivi..:(

curioso che nei test per il FHD con RT, al primo posto non figura la solita nvidia, e nemmeno amd..
l'ultima arrivata Intel batte entrambi i veterani:yeah:
con una sku nata per confrontarsi con la precedente gen, al suo primo progetto e senza esperienza..

basta tagliare i prezzi per scalare le classifiche:D

Vik94
06-05-2024, 19:41
aggiornamento di MAGGIO computerbase perf/prezzo QHD

https://www.computerbase.de/2024-02/grafikkarten-preis-leistungs-verhaeltnis/#abschnitt_fps_pro_euro_in_wqhd

https://i.postimg.cc/yNTNS8Xw/Immagine-2024-05-06-165911.png

continuo a vedere 7900XT e XTX ancora un po' fuori scala, vedremo come cambierà tutto ciò con RDNA4

E' incredibile come l'azienda dei chippini, approccio che serve ad abbattere i costi della fascia alta, si faccia ancora pagare la fascia alta a peso d'oro. Come se non dovesse recuperare quote di mercato.

Ale55andr0
06-05-2024, 19:56
aggiornamento di MAGGIO computerbase perf/prezzo QHD

https://www.computerbase.de/2024-02/grafikkarten-preis-leistungs-verhaeltnis/#abschnitt_fps_pro_euro_in_wqhd

https://i.postimg.cc/yNTNS8Xw/Immagine-2024-05-06-165911.png

continuo a vedere 7900XT e XTX ancora un po' fuori scala, vedremo come cambierà tutto ciò con RDNA4

sono perfettamente nella media mediata, claro? :O Ed in medium stat virtus :O

Cutter90
06-05-2024, 20:21
sui test in RT e consumi, poi trovi i motivi..:(

curioso che nei test per il FHD con RT, al primo posto non figura la solita nvidia, e nemmeno amd..
l'ultima arrivata Intel batte entrambi i veterani:yeah:
con una sku nata per confrontarsi con la precedente gen, al suo primo progetto e senza esperienza..

basta tagliare i prezzi per scalare le classifiche:D

Intel per forza di cose deve essere aggressiva suo prezzi se vuole fare breccia un minimo sul mercato.
La prima non è andata affatto male secondo me. Con tra l altro XSS sempre in evoluzione e secondo attualmente come upscaling dietro al Dlss.
Ovviamente il rapporto fps/euro penso sia il grafico più inutile di sempre. Non comprerei mai una gpu in base a quello.

ninja750
07-05-2024, 08:23
non avevamo dubbi :O e lo capisco per la fascia uber dove uno vuole il top a prescindere

ma dalla fascia uber -1 a scendere se uno posa il fiasco le bandierine partigiane dovrebbe essere l'unico metro di confronto, aggiungiamoci con il giusto peso i consumi

belta
07-05-2024, 08:44
Io che ho preso la 7900XTX per il QHD https://i.postimg.cc/t4dvgsrJ/237qf2ea6.gif :asd:

LurenZ87
07-05-2024, 08:57
Io che ho preso la 7900XTX per il QHD https://i.postimg.cc/t4dvgsrJ/237qf2ea6.gif :asd:Lo sapete che le top di gamma sono così :D

PS: se la devi "buttare" fammi un fischio :asd:

Inviato dal mio ThinkPhone utilizzando Tapatalk

belta
07-05-2024, 09:03
Lo sapete che le top di gamma sono così :D

PS: se la devi "buttare" fammi un fischio :asd:

Inviato dal mio ThinkPhone utilizzando Tapatalk

ma si, si scherza ;) :asd:

mi segno di mandarti un PM appena esce la 5070 12 gb :O

Cutter90
07-05-2024, 09:08
non avevamo dubbi :O e lo capisco per la fascia uber dove uno vuole il top a prescindere

ma dalla fascia uber -1 a scendere se uno posa il fiasco le bandierine partigiane dovrebbe essere l'unico metro di confronto, aggiungiamoci con il giusto peso i consumi

Eh che scondo me contano molto di pù i giochi. nel senso che in molti giochi amd vola, in altri Nvidia va meglio. Quindi più che risparmiare i 50 euro trovo più importante investire dove una delle due rende meglio, per sfruttarle meglio.
Proprio di recente ho assemblato un pc di fascia media con AMD poichè la persona mi ha chiesto un pc per cod, Assetto corsa competizione e League of legend. Con questi giochi è inutile spendere qualcosa in più per Nvidia. Abbiamo risparmiato e le per4formance erano ugauli o superiori ad nvidia.
Diversamente un altro mi ha chiesto un pc per giocare a tutti i giochi con RT single player in 1440p. Quei la scelta è andata su Nvidia per ovvie ragioni.

Anche la questione consumi è molto molto secondaria imho. non sono certo i 50 watt che spostano una sccelta piuttosto che un altra.

bagnino89
07-05-2024, 09:16
E' incredibile come l'azienda dei chippini, approccio che serve ad abbattere i costi della fascia alta, si faccia ancora pagare la fascia alta a peso d'oro. Come se non dovesse recuperare quote di mercato.

E' chiaro da anni ormai che ad AMD non interessi recuperare quote di mercato, specie lato GPU. Semplicemente scimmiottano le strategie di Giacchetta cercando di vendere quello che possono.

ninja750
07-05-2024, 09:40
E' chiaro da anni ormai che ad AMD non interessi recuperare quote di mercato, specie lato GPU. Semplicemente scimmiottano le strategie di Giacchetta cercando di vendere quello che possono.

è evidente che AMD non è una onlus e che gli investitori e gli azionisti NON vogliono una resa preventiva di quel tipo

bagnino89
07-05-2024, 09:43
è evidente che AMD non è una onlus e che gli investitori e gli azionisti NON vogliono una resa preventiva di quel tipo

Ma infatti se lavorano in quel modo evidentemente è funzionale alla loro produttività. Altrimenti avrebbero chiuso da un pezzo.

dominator84
07-05-2024, 09:45
Ma infatti se lavorano in quel modo evidentemente è funzionale alla loro produttività. Altrimenti avrebbero chiuso da un pezzo.

in AMD non perdono certo tempo, creano lo stesso modello di jakkahhh in pelle da 30 anni :O






















per 1 solo uomo

LurenZ87
07-05-2024, 09:50
ma si, si scherza ;) :asd:



mi segno di mandarti un PM appena esce la 5070 12 gb :O12gb?!?! No grazie, ho smesso :asd:

Inviato dal mio ThinkPhone utilizzando Tapatalk

RoUge.boh
07-05-2024, 10:18
E' chiaro da anni ormai che ad AMD non interessi recuperare quote di mercato, specie lato GPU. Semplicemente scimmiottano le strategie di Giacchetta cercando di vendere quello che possono.


è evidente che AMD non è una onlus e che gli investitori e gli azionisti NON vogliono una resa preventiva di quel tipo


Ma la capisco..perché deve "svendere" le proprie schede?
Questi sono i loro dati finanziari:
https://www.techpowerup.com/img/EWzTFD9ILp1YsoVB.jpg


Ovviamente NVIDIA fa meglio ma è in calo:
https://www.fudzilla.com/images/stories/2023/May/nvidia-q124financial-1.jpg

Al di la dei problemi tecnici lato finanziario abbiamo AMD che sta migliorando e NVIDIA che sta "erodendo" dei margini ENORMI sensa senso... ma parliamo sempre di 65.5 % di gross margin è allucinante..

Ma anche anche NVIDIA:

Gaming $2,240M $1,831M $3,620M +22% -38%


https://www.anandtech.com/show/18874/nvidia-reports-q1-fy2024-earnings-bigger-things-to-come-as-nv-approaches-1t-market-cap

Nessuna delle aziende punta sul gaming ma su Data center e poi ogni azienda è "specializzata" in altri settori.

Una cosa è certa non penso che AMD da domani non produrrà ne supporterà le schede video inoltre il mercanto ODIA il monopolio perché dare tutto ad un'azienda leader vuol dire stare completamente in balia sua (per quanto onesto possa essere) ma on prezzerà nemmeno schede a targhet NO sense per lei.

AceGranger
07-05-2024, 11:12
Ma la capisco..perché deve "svendere" le proprie schede?
Questi sono i loro dati finanziari:



Ovviamente NVIDIA fa meglio ma è in calo:


Al di la dei problemi tecnici lato finanziario abbiamo AMD che sta migliorando e NVIDIA che sta "erodendo" dei margini ENORMI sensa senso... ma parliamo sempre di 65.5 % di gross margin è allucinante..

Ma anche anche NVIDIA:

Gaming $2,240M $1,831M $3,620M +22% -38%


https://www.anandtech.com/show/18874/nvidia-reports-q1-fy2024-earnings-bigger-things-to-come-as-nv-approaches-1t-market-cap

Nessuna delle aziende punta sul gaming ma su Data center e poi ogni azienda è "specializzata" in altri settori.

Una cosa è certa non penso che AMD da domani non produrrà ne supporterà le schede video inoltre il mercanto ODIA il monopolio perché dare tutto ad un'azienda leader vuol dire stare completamente in balia sua (per quanto onesto possa essere) ma on prezzerà nemmeno schede a targhet NO sense per lei.

stai confrontando il q1 2024 di AMD con il q1 2023 di nVidia :fagiano:
il Q1 2024 fiscale di nVidia è solare 2023 ( l'anno fiscale di nVidia finisce il 28 Gennaio dell'anno successivo quindi fiscalmente le date fanno tutte riferimento a quelle dell'anno di chiusura ); infatti se guardi la data dell'articolo del tuo link di Anandtech riporta la data del 25 maggio 2023

per il confronto con il Q1 solare di quest'anno devi aspettare a fine maggio e uscira il resoconto fiscale Q1 2025.

ninja750
07-05-2024, 11:12
Ma infatti se lavorano in quel modo evidentemente è funzionale alla loro produttività. Altrimenti avrebbero chiuso da un pezzo.

le quote di mercato che citi sono difficilmente recuperabili causa grossa fidelizzazione, si è visto benissimo con RDNA2 dove c'era sostanzialmente pareggio in tutte le fasce e i prezzi erano minori. figuriamoci ora dove c'è anche un buco nella fascia uber e dove ci sarà una voragine con RDNA4 dall'alta in sù

non vedo sbagliato presentare prodotti solo in determinate fasce, ma a quel punto devi farlo alla grande e se punti ai grandi numeri devi farlo con un prezzo aggressivo. il problema è che se il prezzo aggressivo non lo calcoli sul TUO silicio ma lo calcoli su quanto giacco rapina i suoi fidelizzati - 10% non ti sposterai mai dallo share attuale imho

FrancoBit
07-05-2024, 11:49
stai confrontando il q1 2024 di AMD con il q1 2023 di nVidia :fagiano:
il Q1 2024 fiscale di nVidia è solare 2023 ( l'anno fiscale di nVidia finisce il 28 Gennaio dell'anno successivo quindi fiscalmente le date fanno tutte riferimento a quelle dell'anno di chiusura ); infatti se guardi la data dell'articolo del tuo link di Anandtech riporta la data del 25 maggio 2023

per il confronto con il Q1 solare di quest'anno devi aspettare a fine maggio e uscira il resoconto fiscale Q1 2025.

Aggiungo che i dati del Q1 2024 di Nvidia verranno rilasciati il 22/05/2024.

Ale55andr0
07-05-2024, 12:31
è evidente che AMD non è una onlus e che gli investitori e gli azionisti NON vogliono una resa preventiva di quel tipo

il punto è che non vogliono nemmeno vincere evidentemente :asd:

RoUge.boh
07-05-2024, 13:09
scusatemi...avevo letto male! :muro: :muro: :muro:

grazie AceGranger

CtrlAltSdeng!
07-05-2024, 13:12
il punto è che non vogliono nemmeno vincere evidentemente :asd:

il punto è che le aziende non ragionano come dei tifosi ;) amd può stare benissimo a 10-20% di un mercato enorme in quanto non è il suo unico mercato di sbocco...se poi non si allinea con le proprie aspettative o "volontà di vincere!11!!!" .... amen.

Magari nvidia cede il ramo gpu consumer a qualcun altro e sarà l'inizio del "recupero quote" amd....chi lo sa!

RoUge.boh
07-05-2024, 13:20
il punto è che le aziende non ragionano come dei tifosi ;) amd può stare benissimo a 10-20% di un mercato enorme in quanto non è il suo unico mercato di sbocco...se poi non si allinea con le proprie aspettative o "volontà di vincere!11!!!" .... amen.

Magari nvidia cede il ramo gpu consumer a qualcun altro e sarà l'inizio del "recupero quote" amd....chi lo sa!

Alla fine i "tifosi" sono sempre quelli che vengono spennati (di entrambi gli schieramenti).

Pero è anche vero che il mercato non vuole il monopolio..

Ale55andr0
07-05-2024, 16:15
il punto è che le aziende non ragionano come dei tifosi ;) amd può stare benissimo a 10-20% di un mercato enorme in quanto non è il suo unico mercato di sbocco...se poi non si allinea con le proprie aspettative o "volontà di vincere!11!!!" .... amen.

Magari nvidia cede il ramo gpu consumer a qualcun altro e sarà l'inizio del "recupero quote" amd....chi lo sa!

vincere mica in termini di competizione da celolunghismo o vanagloria, ma a livello commerciale :read: se potesse guadagnare quanto nvidia lo farebbe eccome AMD

AceGranger
07-05-2024, 16:25
Alla fine i "tifosi" sono sempre quelli che vengono spennati (di entrambi gli schieramenti).

Pero è anche vero che il mercato non vuole il monopolio..

l'anomalia è che normalmente le aziende in monopolio tendono a "sedersi" in innovazione, nVidia invece ha accelerato...

Gyammy85
08-05-2024, 08:50
le quote di mercato che citi sono difficilmente recuperabili causa grossa fidelizzazione, si è visto benissimo con RDNA2 dove c'era sostanzialmente pareggio in tutte le fasce e i prezzi erano minori. figuriamoci ora dove c'è anche un buco nella fascia uber e dove ci sarà una voragine con RDNA4 dall'alta in sù

non vedo sbagliato presentare prodotti solo in determinate fasce, ma a quel punto devi farlo alla grande e se punti ai grandi numeri devi farlo con un prezzo aggressivo. il problema è che se il prezzo aggressivo non lo calcoli sul TUO silicio ma lo calcoli su quanto giacco rapina i suoi fidelizzati - 10% non ti sposterai mai dallo share attuale imho

Addirittura, ma almeno ci arrivano a presentarle, o chiudono prima? :eek:

Gyammy85
08-05-2024, 08:52
l'anomalia è che normalmente le aziende in monopolio tendono a "sedersi" in innovazione, nVidia invece ha accelerato...

Proprio vero, normalmente ogni anno dovremmo avere una gtx 970 con la scritta "ahò, è monopolio"

AceGranger
08-05-2024, 08:57
Proprio vero, normalmente ogni anno dovremmo avere una gtx 970 con la scritta "ahò, è monopolio"

devi avere una vita veramente triste.

Gyammy85
08-05-2024, 08:59
devi avere una vita veramente triste.

Eh si, non vengo qua da vent'anni a dire che

1) devono prezzarle regalo così prendiamo nvidia a +50 euro

2) se non c'era nvidia facevamo la fila sotto ai ponti

AceGranger
08-05-2024, 09:23
Eh si, non vengo qua da vent'anni a dire che

1) devono prezzarle regalo così prendiamo nvidia a +50 euro

2) se non c'era nvidia facevamo la fila sotto ai ponti

ok :asd:

OrazioOC
12-05-2024, 11:18
https://videocardz.com/newz/amd-rdna5-is-reportedly-entirely-new-architecture-design-rdna4-merely-a-bug-fix-for-rdna3

Si però non si può manco mettere le mani avanti così, è sempre un'uarch in divenire ultimamente. :rolleyes:

Speriamo bene, l'impressione è che rdna 4 esca più per dar contro ad intel con battlemage piuttosto che offrire un'alternativa diretta alle nvidia BW. :rolleyes:

mikael84
12-05-2024, 11:45
https://videocardz.com/newz/amd-rdna5-is-reportedly-entirely-new-architecture-design-rdna4-merely-a-bug-fix-for-rdna3

Si però non si può manco mettere le mani avanti così, è sempre un'uarch in divenire ultimamente. :rolleyes:

Speriamo bene, l'impressione è che rdna 4 esca più per dar contro ad intel con battlemage piuttosto che offrire un'alternativa diretta alle nvidia BW. :rolleyes:

Stanno facendo tutti di necessità virtù (nvidia-amd-intel). Manca il nodo, la stessa nvidia sembra giusto fare un refresh (salvo il bigchip, più pro che gaming), mentre lavora già a Rubin 3nm.
RDNA5 debutterà probabilmente con i 3nm.
Purtroppo sono tutti attaccati al 4nmP.:)

OrazioOC
12-05-2024, 12:13
Stanno facendo tutti di necessità virtù (nvidia-amd-intel). Manca il nodo, la stessa nvidia sembra giusto fare un refresh (salvo il bigchip, più pro che gaming), mentre lavora già a Rubin 3nm.
RDNA5 debutterà probabilmente con i 3nm.
Purtroppo sono tutti attaccati al 4nmP.:)

Mah, io più che altro contesto l'avanzamento dell'uarch in sè, che costantemente vede giusto dei minor update di gen in gen, senza mai essere matura a 360°. :rolleyes:

Il salto vega->rdna 1 era ottimo per rapporto prestazioni/consumi rispetto alla generazione precedente(grazie anche ai 7nm), ma mancava del tutto la parte raytracing.
Il salto navi 1->rdna 2 era decente per l'aggiunta del raytracing e tutto sommato la buona efficienza paragonato alle nvidia ampere(che però erano dotate di un silicio molto inferiore).
Ma nonostante tutto, la differenza tra una rx 6000 e una rtx 3000 con il raytracing attivo è tangibile.
Il salto rdna 2->rdna 3 è stato troppo poco marcato in fatto di uarch, non si è guadagnato quasi nulla in ipc e in raytracing a parità di cu/bandwith delle schede rx 6000 e 7000.

Per rdna 4 in soldoni si parla di una simil 7900 xt monolitica, con magari qualche decina di watt di tdp in meno, e performance raster migliorate(immagino che finalmente si mettano al pari con le nvidia dell'attuale gen, quindi iso 4070 super/4070 ti per navi 48).
Peccato che 6 mesi dopo il lancio della 8800 xt ci dovrebbero essere già in giro la 5070/ti, e saremmo punto a capo ad aspettare la ventata di aria fresca di rdna 5 nel 2026.:rolleyes:

Non mi aspetto neanche miracoli da parte di nvidia a sto giro, ma vedendo come sono stati conservativi nello spremere i 5nm di tsmc(tutti i chippetti ada sono cloccati alla morte già di default) non ci vuol niente che salti fuori un trattamento stile kepler-> maxwell(pp simile o poco più maturo, ma uarch completamente rivista, dando una rasoiata a tutto ciò che è stato progettato/venduto fino a pochi mesi prima).
Ma tornando ad amd, è tutto un "in divenire" dove si aspetta l'ennesima rivoluzione dell'uarch, che puntualmente viene rimandata.

ionet
12-05-2024, 12:18
quindi ricapitolando:

la big rdna4 non esce piu', ma se usciva erano ca22i per tutti..
rdn4 sara' solo un bugfix di rdna3 ma quando uscira' rdna5 poi saranno ca22i per tutti..

battle image sara' per intel un'altra arca220 un po meh, ma poi con celestial saranno ca22i per tutti..
poi girano voci che anche battle image e' in forse..

apparentemente per quest'ultima gen in arrivo, dai rumors sembra un disastro
ma in realta' ci sono chiari segnali che almeno nella fascia medio-bassa ci sara' molta battaglia

il problema vero di riflesso si riduce soltanto e unicamente per chi sperava di prendere una 5090 a meno:asd:
ma vabbe' li e' solo questioni di soldi, son passioni, millino piu' millino meno..ca22i loro:O

A64FX+DFI nF4
12-05-2024, 12:40
https://videocardz.com/newz/amd-rdna5-is-reportedly-entirely-new-architecture-design-rdna4-merely-a-bug-fix-for-rdna3

Si però non si può manco mettere le mani avanti così, è sempre un'uarch in divenire ultimamente. :rolleyes:

Speriamo bene, l'impressione è che rdna 4 esca più per dar contro ad intel con battlemage piuttosto che offrire un'alternativa diretta alle nvidia BW. :rolleyes:

principalmente serviva a Sony per il Soc della PS5 Pro, specialmente i Ray Accelerator con il BVH migliorato

mikael84
12-05-2024, 16:54
Mah, io più che altro contesto l'avanzamento dell'uarch in sè, che costantemente vede giusto dei minor update di gen in gen, senza mai essere matura a 360°. :rolleyes:

Il salto vega->rdna 1 era ottimo per rapporto prestazioni/consumi rispetto alla generazione precedente(grazie anche ai 7nm), ma mancava del tutto la parte raytracing.
Il salto navi 1->rdna 2 era decente per l'aggiunta del raytracing e tutto sommato la buona efficienza paragonato alle nvidia ampere(che però erano dotate di un silicio molto inferiore).
Ma nonostante tutto, la differenza tra una rx 6000 e una rtx 3000 con il raytracing attivo è tangibile.
Il salto rdna 2->rdna 3 è stato troppo poco marcato in fatto di uarch, non si è guadagnato quasi nulla in ipc e in raytracing a parità di cu/bandwith delle schede rx 6000 e 7000.

Per rdna 4 in soldoni si parla di una simil 7900 xt monolitica, con magari qualche decina di watt di tdp in meno, e performance raster migliorate(immagino che finalmente si mettano al pari con le nvidia dell'attuale gen, quindi iso 4070 super/4070 ti per navi 48).
Peccato che 6 mesi dopo il lancio della 8800 xt ci dovrebbero essere già in giro la 5070/ti, e saremmo punto a capo ad aspettare la ventata di aria fresca di rdna 5 nel 2026.:rolleyes:

Non mi aspetto neanche miracoli da parte di nvidia a sto giro, ma vedendo come sono stati conservativi nello spremere i 5nm di tsmc(tutti i chippetti ada sono cloccati alla morte già di default) non ci vuol niente che salti fuori un trattamento stile kepler-> maxwell(pp simile o poco più maturo, ma uarch completamente rivista, dando una rasoiata a tutto ciò che è stato progettato/venduto fino a pochi mesi prima).
Ma tornando ad amd, è tutto un "in divenire" dove si aspetta l'ennesima rivoluzione dell'uarch, che puntualmente viene rimandata.

Si ad AMD serve lavorare sulla parte BVH, ma per il PT rimane il problema wave64.
RDNA4, da quello che si ipotizza pare essere una sorta di 7800xt rivista in RT, con 4096st/8196st DU con un 256mono e 4nmP. Quindi probabile boost, visto che RDNA31 usa celle molto dense con perdite.
Parlare di 7900xt è ancora prematuro, ma di certo dovrebbe fare meglio di navi32.

La microarchitetturale, non so se mantenga le caratteristiche di RDNA3.5 che va ad aggiungere un culling sui registri.

Con RDNA5, si spera che mettano mano pure alla micro, ma ormai AMD ci sta abituando a quel +54 perf/watt sulla big, che poi ovviamente non sempre si raggiunge, anzi.
RDNA3 top, allunga in buona parte per il bus.

Gyammy85
13-05-2024, 08:24
Mah, io più che altro contesto l'avanzamento dell'uarch in sè, che costantemente vede giusto dei minor update di gen in gen, senza mai essere matura a 360°. :rolleyes:

Il salto vega->rdna 1 era ottimo per rapporto prestazioni/consumi rispetto alla generazione precedente(grazie anche ai 7nm), ma mancava del tutto la parte raytracing.
Il salto navi 1->rdna 2 era decente per l'aggiunta del raytracing e tutto sommato la buona efficienza paragonato alle nvidia ampere(che però erano dotate di un silicio molto inferiore).
Ma nonostante tutto, la differenza tra una rx 6000 e una rtx 3000 con il raytracing attivo è tangibile.
Il salto rdna 2->rdna 3 è stato troppo poco marcato in fatto di uarch, non si è guadagnato quasi nulla in ipc e in raytracing a parità di cu/bandwith delle schede rx 6000 e 7000.

Per rdna 4 in soldoni si parla di una simil 7900 xt monolitica, con magari qualche decina di watt di tdp in meno, e performance raster migliorate(immagino che finalmente si mettano al pari con le nvidia dell'attuale gen, quindi iso 4070 super/4070 ti per navi 48).
Peccato che 6 mesi dopo il lancio della 8800 xt ci dovrebbero essere già in giro la 5070/ti, e saremmo punto a capo ad aspettare la ventata di aria fresca di rdna 5 nel 2026.:rolleyes:

Non mi aspetto neanche miracoli da parte di nvidia a sto giro, ma vedendo come sono stati conservativi nello spremere i 5nm di tsmc(tutti i chippetti ada sono cloccati alla morte già di default) non ci vuol niente che salti fuori un trattamento stile kepler-> maxwell(pp simile o poco più maturo, ma uarch completamente rivista, dando una rasoiata a tutto ciò che è stato progettato/venduto fino a pochi mesi prima).
Ma tornando ad amd, è tutto un "in divenire" dove si aspetta l'ennesima rivoluzione dell'uarch, che puntualmente viene rimandata.

Non mi pare, la 7800xt va tranquillamente come una 6900xt in raster e di più in rt, con 60 cu e 64 mb di cache, fra l'altro scala praticamente linearmente con le cu, lasciando stare la 7900 gre che è comunque frenata dalla banda

La questione è se volere una gpu da 900 mm2 che stranamente va forte nonostante sia più piccola di un minicomputer degli anni 70, o una gpu da 300 mm2 dalle prestazioni vergognosamente -10% rispetto al minicomputer da 900 mm2 che stranamente va più forte del 10% grazie al marketing ed alla fiducia nel futuro oltre nella sagacia nel capire "da che parte va il mondo"

Ale55andr0
13-05-2024, 08:36
Certo, la differenza fra la gpu da 300mmq e quella da 900mmq sarebbe del 10%

Dal magico mondo di Gyammy è tutto, a voi la linea studio :O

Gyammy85
13-05-2024, 08:41
Ceerto, perchè la differenza fra la gpu da 300mmq e quella da 900mmq sarebbe del 10%

Dal magico mondo di Gyammy è tutto, a voi la linea studio :O

La 4090 è un piastrellone appunto per stare davanti alla xtx che lato perf pure va pure troppo con miseri 62 tf

E siccome mi sembra che nvidia proseguirà con turing refresh ancora per diversi anni, è logico pensare che si arriverà alla situazione in cui confronteremo un dual chiplet da max 450 complessivi al monolitico vincente, e per forza di cose stante il prezzo per le top nvidia che è passato da 750 a 1300 a 2200 a probabilmente 3500 per la 5090, non esiste più il freno della razionalità, basta dire poi che "oh mi raccomando non compratela per il gaming, non è da gaming, per favore non fatelo"

belta
13-05-2024, 08:46
"oh mi raccomando non compratela per il gaming, non è da gaming, per favore non fatelo"

:rotfl:

Ale55andr0
13-05-2024, 08:52
La 4090 è un piastrellone appunto per stare davanti alla xtx che lato perf pure va pure troppo con miseri 62 tf
"


parlare solo dei tflop senza considerare tutti gli altri fattori in campo non ha molto senso. Come contare i cv di un motore senza conoscere la curva di coppia, con che trasmissione verrò abbinato, quanto è pesante il mezzo che muoverà etc. Va di meno. In rt viene letteralmente stuprata e in raster siamo cmq sopra al 10% di media. A parte quello potrei dire che per quanto consuma la XTX fa troppo poco. Punti di vista.

ninja750
13-05-2024, 09:44
In rt viene letteralmente stuprata

si MA: parliamo sempre implementazioni RT zoppe e che guardando le solite medie ci mettono i soliti 2 titoli che fanno +100% su una somma di fps sotto i 20.. non per difendere una NETTA carenza sotto questo aspetto eh ma io sto ancora installando giochi RT-free che se pensiamo che le RTX2000 le hanno presentate tipo 6 anni fa oggi dovremmo essere tutti qui a giocare accecati dai raggi

invece parliamo di PT quando manco il RT è gestibile con 1800€.. cioè..

https://videocardz.com/newz/amd-rdna5-is-reportedly-entirely-new-architecture-design-rdna4-merely-a-bug-fix-for-rdna3

Si però non si può manco mettere le mani avanti così, è sempre un'uarch in divenire ultimamente. :rolleyes:

Speriamo bene, l'impressione è che rdna 4 esca più per dar contro ad intel con battlemage piuttosto che offrire un'alternativa diretta alle nvidia BW. :rolleyes:

è come la ferrari F1, l'anno prossimo sarà finalmente quello giusto! :O

OrazioOC
13-05-2024, 09:48
Non mi pare, la 7800xt va tranquillamente come una 6900xt in raster e di più in rt, con 60 cu e 64 mb di cache, fra l'altro scala praticamente linearmente con le cu, lasciando stare la 7900 gre che è comunque frenata dalla banda

La questione è se volere una gpu da 900 mm2 che stranamente va forte nonostante sia più piccola di un minicomputer degli anni 70, o una gpu da 300 mm2 dalle prestazioni vergognosamente -10% rispetto al minicomputer da 900 mm2 che stranamente va più forte del 10% grazie al marketing ed alla fiducia nel futuro oltre nella sagacia nel capire "da che parte va il mondo"

Il confronto sensato sarebbe appunto tra la 7900 gre e la 6900 o 6950 xt, visto che hanno entrambe 80 cu e 256 bit di bus, ergo la differenza di prestazione tra le due deriverebbe dritta per dritta dal guadagno in ipc tra rdna 2 e rdna 3.

https://tpucdn.com/review/sapphire-radeon-rx-7900-gre-pure/images/relative-performance-2560-1440.png

Non è che faccia proprio guadagni stratosferici. :asd:

Gyammy85
13-05-2024, 09:50
è come la ferrari F1, l'anno prossimo sarà finalmente quello giusto! :O

Diciamo che bisogna sminuire a tutti i costi, quindi mettere una pezza a rt significa "merely bug fix", perché a parti invertite sarebbe stato "perf pazzesche in rt per tutti a pochi euri"

Questo settore scende sempre più in basso, per poi sfoggiare il video con il muro di scatole dietro, che sanno a malapena infilare nel pc

Gyammy85
13-05-2024, 10:07
Il confronto sensato sarebbe appunto tra la 7900 gre e la 6900 o 6950 xt, visto che hanno entrambe 80 cu e 256 bit di bus, ergo la differenza di prestazione tra le due deriverebbe dritta per dritta dal guadagno in ipc tra rdna 2 e rdna 3.

https://tpucdn.com/review/sapphire-radeon-rx-7900-gre-pure/images/relative-performance-2560-1440.png

Non è che faccia proprio guadagni stratosferici. :asd:

Eh prendono la più inefficiente di tutte, che in teoria andrebbe quanto una 7900xt coi giusti clock, e anche i sassi sanno che le amd sono particolarmente dipendenti dalla banda
La realtà è che n32 va come o meglio di navi 21, era normale aspettarselo? si, era scontato? forse, era la cosa più semplice del mondo? no, la concorrenza ti avrebbe fatto pagare il semplice layout a chiplet il doppio "per via della incredibile complessità dei collegamenti" che effettivamente c'è con tanto di dichiarazioni di Sam Naffziger che nelle slide dice che in paragone la cache 3d dei ryzen è roba preistorica? assolutamente si

ninja750
13-05-2024, 10:28
Diciamo che bisogna sminuire a tutti i costi, quindi mettere una pezza a rt significa "merely bug fix", perché a parti invertite sarebbe stato "perf pazzesche in rt per tutti a pochi euri"

se tu AMD volessi veramente spingere sul RT, ti sganceresti da questo approccio ibrido di una unità acceleratore RT per CU a.. 2? 3?

se non lo fai nel redesign delle tue GPU vuol dire che per l'ennesima volta vuoi andare avanti col raster e rendere le tue vga giusto "rt compatibili".. per fortuna che upscaler e framegen ci mettono una pezza ma non migliorare in questo aspetto mi sembra ridicolo dopo sei anni

e te lo dice uno che non è assolutamente talebano di RT anzi

ghiltanas
13-05-2024, 10:29
leggevo l'altro giorno il discorso rdna 4 e 5, visto che oltre una certa fascia non me nè è mai importato una cippa, se con rdna4 fanno chip efficienti e dall'ottimo rapporto prezzo/prestazioni per me sarebbere già molto interessante

Gyammy85
13-05-2024, 10:40
se tu AMD volessi veramente spingere sul RT, ti sganceresti da questo approccio ibrido di una unità acceleratore RT per CU a.. 2? 3?

se non lo fai nel redesign delle tue GPU vuol dire che per l'ennesima volta vuoi andare avanti col raster e rendere le tue vga giusto "rt compatibili".. per fortuna che upscaler e framegen ci mettono una pezza ma non migliorare in questo aspetto mi sembra ridicolo dopo sei anni

e te lo dice uno che non è assolutamente talebano di RT anzi

Non è che puoi correre dietro a 1/2 giochi che ti ammazzano le perf perché si, deve essere tutto graduale, e loro hanno investito su mcm

Da anni funziona così, nvidia farcisce di unità dedicate le gpu sapendo che tanto esce sempre la killer app unica che vale per tutti, su amd mettere unità dedicate significa avere la certezza matematica che staranno lì a poltrire, si è visto con le hd2000 che avevano la tessellation in hardware 3 anni prima di nvidia, e si sta vedendo con le unità ai delle 7000, che stanno lì ad aspettare che lo """""sviluppatore"""""" le usi

mikael84
13-05-2024, 11:27
La questione è se volere una gpu da 900 mm2 che stranamente va forte nonostante sia più piccola di un minicomputer degli anni 70, o una gpu da 300 mm2 dalle prestazioni vergognosamente -10% rispetto al minicomputer da 900 mm2 che stranamente va più forte del 10% grazie al marketing ed alla fiducia nel futuro oltre nella sagacia nel capire "da che parte va il mondo"

Si 1km.:p
600mm2 vs 530mm2 (una è cuttata, l'altra con i collegamenti a 6nm)

A transistor (quelli che contano), sono circa 58 vs 76, ma sul full.
La 4090 ha circa 60-70mm2 disabilitati, tra un GPC e mezzo, 24mb di cache, 16 rop's, per un totale medio di 68mtransistor abilitati.
Possiamo dire che all'incirca ha attivi il 17% dei transistor in più di navi31

La 4080 super ha 45,6mtransistor vs 58, quindi navi31 ha circa il 28% di transistor in più.

Forse dovresti rivedere i tuoi calcoli, ma di netto.

Gyammy85
13-05-2024, 11:34
Si 1km.:p
600mm2 vs 530mm2 (una è cuttata, l'altra con gli collegamenti a 6nm)

A transistor (quelli che contano), sono circa 58 vs 76, ma sul full.
La 4090 ha circa 60-70mm2 disabilitata tra GPC e mezzo, 24mb di cache, 16 rop's, per un totale medio di 68mtransistor abilitati.
Possiamo dire che all'incirca ha attivi il 17% dei transistor.

La 4080 super ha 45,6mtransistor vs 58, quindi navi31 ha circa il 28% di transistor in più.

Forse dovresti rivedere i tuoi calcoli, ma di netto.

Si si, abbiamo anche 90 tf vs 60, comunque mi riferivo alla prossima gen, poi se saranno soltanto 701 mm2 invece di 900 cambia poco il senso del discorso, ma ripeto, a 3k il cliente vuole tutto grosso quindi ci sta

mikael84
13-05-2024, 11:49
Si si, abbiamo anche 90 tf vs 60, comunque mi riferivo alla prossima gen, poi se saranno soltanto 701 mm2 invece di 900 cambia poco il senso del discorso, ma ripeto, a 3k il cliente vuole tutto grosso quindi ci sta

90TF in SMT64, ovvero nei pro, essendo pensata per quello, in SMT48 gaming sono 3/4, dove tra software e gigathread scala spesso male in ambienti gaming.

AMD qua fa veramente meglio grazie al reg, arrivando ad occupazioni vettoriali tra il 60/70% vs 43 medi.
Infatti l'ISA di AMD non gestisce il PT, per via della wave64 che alloca 2x i registri. Nvidia non ha una wave64.

La prossima gen vediamo, certo la densità del 4nmp, non è molto più elevata del 5nm (4n), e possiamo aspettarci di tutto, ma è tutt'altro campo, che niente avrà a che vedere con le GPU mid (come 7900/4080) attuali o 4090 attuale, anzi visti i limiti TTP sulla cina, tra gaming/pro e gaming le segmentazioni saranno molto marcate.

ninja750
13-05-2024, 13:51
del 5nm (4n)

sia 7000 che 4000 sono tutte e due su questo?

CtrlAltSdeng!
13-05-2024, 13:53
La 4080 super ha 45,6mtransistor vs 58, quindi navi31 ha circa il 28% di transistor in più.

Forse dovresti rivedere i tuoi calcoli, ma di netto.

togliendo le cache fra le due suppongo i rapporti cambino.....

mikael84
13-05-2024, 15:20
sia 7000 che 4000 sono tutte e due su questo?

Stanno entrambe sul 5nm, la variante di nvidia è una mod per la l2, quindi più densità in sram, meno in logica. Grazie al 4n, la l2 ha un'area per 2mb di 1,8, mentre su AMD di oltre 4mb (anche se va detto che quella di AMD ha più banda).
Navi31 invece è drasticamente denso in logica, quasi il 30% per S.E. o WGP, avvicinandosi quais alla densità teorica di Mark bohr.

togliendo le cache fra le due suppongo i rapporti cambino.....

Si, in quel caso navi31 scenderebbe a 54mtransistor, ma ovviamente perderebbe un botto, visto che il vero salto di RDNA3 è proprio la banda. A 48WGP attivi si arriva a circa 700gb/s effettivi.
La caratteristica di AMD sta nel file di reg, capace di avere un uso vettoriale costante estremamente alto.

Ale55andr0
13-05-2024, 15:41
si MA: parliamo sempre implementazioni RT zoppe e che guardando le solite medie ci mettono i soliti 2 titoli che fanno +100% su una somma di fps sotto i 20..

Sarà perchè sono i soli titoli in cui l'rt...si vede, a differenza di quelli sponsorizzati AMD :asd:

Poi come tu non sei talebano RT figurati io che ho pure una AMD...




è come la ferrari F1, l'anno prossimo sarà finalmente quello giusto! :O

ovvio, anzi no, con l'aggiornamento di Imola gli facciamo il culo già quest'anno a Max, segnatevelo ( tanto non ho soldi per ripagare la scommessa persa :O )

PConly92
13-05-2024, 21:17
ovvio, anzi no, con l'aggiornamento di Imola gli facciamo il culo già quest'anno a Max, segnatevelo ( tanto non ho soldi per ripagare la scommessa persa :O )

ot:
la rb ha quasi 8 decimi di vantaggio sul passo gara.. difficile che ferrari o mcLaren possano infastidire la rb di max già quest'anno. forse nel 2025 con l'allontanamento di newey

Daytona
14-05-2024, 17:51
ot:
la rb ha quasi 8 decimi di vantaggio sul passo gara.. difficile che ferrari o mcLaren possano infastidire la rb di max già quest'anno. forse nel 2025 con l'allontanamento di newey

re-ot : ma nemmeno in discesa dal Tambusisi ( zona Morowali ) ha 8 decimi di vantaggio sul passo gara da Ferrari :O

ninja750
17-05-2024, 08:30
usciti i 24.5.1 con supporto a ghost, installati ma al primo boot nessun radeon panel :stordita: al secondo è comparso spero sia stato un caso

tra l'altro segnalati come malware o provenienza non certificata da windows defender :D e meno male che sono WHQL :doh:

Gyammy85
17-05-2024, 09:27
usciti i 24.5.1 con supporto a ghost, installati ma al primo boot nessun radeon panel :stordita: al secondo è comparso spero sia stato un caso

tra l'altro segnalati come malware o provenienza non certificata da windows defender :D e meno male che sono WHQL :doh:

Io li ho messo ieri e nessun avviso o problema

belta
17-05-2024, 13:11
usciti i 24.5.1 con supporto a ghost, installati ma al primo boot nessun radeon panel :stordita: al secondo è comparso spero sia stato un caso

tra l'altro segnalati come malware o provenienza non certificata da windows defender :D e meno male che sono WHQL :doh:

ho fatto qualche mese con il pannello che spariva, non davo più di tanto peso perché il mio Pc è acceso h24 e ho un delirio di programmi tra lavoro, gioco, ecc...ma adesso non "scompariscie" più

ninja750
17-05-2024, 14:53
intanto i fake frame di AMD sono gratis per tutti in GOT appena uscito

saranno contenti quelli con le RTX2000 e RTX3000 :O

Cutter90
17-05-2024, 15:06
intanto i fake frame di AMD sono gratis per tutti in GOT appena uscito

saranno contenti quelli con le RTX2000 e RTX3000 :O

In realtà da quello che ha detto Jurassik sembra che funzioni anche meglio del FG Nvidia (non ricordo in quale altro gioco era successo, ma poi uscì un patch per sistemare il Fg Nvidia e andò meglio). Quindi sono contento anche io che ho una 4000 :)

marbasso
18-05-2024, 13:14
intanto i fake frame di AMD sono gratis per tutti in GOT appena uscito

saranno contenti quelli con le RTX2000 e RTX3000 :O

Yep, con la 2080ti va alla grande. A livello di riesumazione.
Posso mettere il dlss ed attivare il FG con amd fsr

Ale55andr0
18-05-2024, 21:51
ovvio, anzi no, con l'aggiornamento di Imola gli facciamo il culo già quest'anno a Max, segnatevelo ( tanto non ho soldi per ripagare la scommessa persa :O )

#mavaffanculova

marbasso
19-05-2024, 13:01
#mavaffanculova

Azz fai tutto te ormai :D

Edit 16.40, 7 secondi...

Ale55andr0
19-05-2024, 20:22
Azz fai tutto te ormai :D

Edit 16.40, 7 secondi...

dato confortante, ma sta macca :rolleyes:

/OT

ninja750
20-05-2024, 14:21
RX7000 sempre in lieve calo, su sapphire siamo alla stregua dei 500 tondi per la 7800XT e 420 per la 7700XT. praticamente fuori mercato la MBA a 550 sul sito AMD

psycho91
20-05-2024, 14:57
RX7000 sempre in lieve calo, su sapphire siamo alla stregua dei 500 tondi per la 7800XT e 420 per la 7700XT. praticamente fuori mercato la MBA a 550 sul sito AMD
Sempre troppo, le vendite su mindfactory sono in caduta libera nelle ultime tre settimane:
https://x.com/TechEpiphanyYT/status/1792129565910864063

CtrlAltSdeng!
20-05-2024, 15:11
A me pare sia il mondo gpu in caduta totale...basta vedere sul mercatino qui quanto durano annunci di schede usate che anni fa sarebbero andate vendute nella stessa giornata della pubblicazione :stordita:

psycho91
20-05-2024, 15:18
A me pare sia il mondo gpu in caduta totale...basta vedere sul mercatino qui quanto durano annunci di schede usate che anni fa sarebbero andate vendute nella stessa giornata della pubblicazione :stordita:
Hai ragione... ma se cala la domanda, per vendere lo stesso numero di GPU (ci sono stati mesi nel 2024 che su mindfactory vendevano 600 rx7800xt a settimana, ora fanno 580 in tre), devi per forza di cose ridurre il prezzo. Oppure accetti di vendere poche schede e riempire gli scaffali, o ancora, tagliare drasticamente la produzione...

ninja750
20-05-2024, 15:26
beh aggiungiamo che chi voleva comprare una 7000 l'ha fatto un anno e mezzo fa :fagiano: anche chi oggi è intenzionato, magari aspetta le 8000 anche solo per un riposizionamento di prezzo

Gyammy85
21-05-2024, 08:38
Sempre troppo, le vendite su mindfactory sono in caduta libera nelle ultime tre settimane:
https://x.com/TechEpiphanyYT/status/1792129565910864063

Quindi sto shop non vale quando amd vende in assoluto di più ma vale se nvidia per sbaglio vende un pacco di 4090? :asd:
La 7800xt sempre prima comunque, nonostante la uber-best-buy-ever 4070 super

Yota79
21-05-2024, 08:57
beh aggiungiamo che chi voleva comprare una 7000 l'ha fatto un anno e mezzo fa :fagiano: anche chi oggi è intenzionato, magari aspetta le 8000 anche solo per un riposizionamento di prezzo

beh direi, anche perchè quasi come altri componenti elettronici sembra che con il passare del tempo il prezzo non cambi più di tanto :mc: :mc: :mc: :mc:

StylezZz`
21-05-2024, 09:02
(ci sono stati mesi nel 2024 che su mindfactory vendevano 600 rx7800xt a settimana, ora fanno 580 in tre)

Non ha più senso prendere la 7800 sopra i 500, a 550 ci prendi la 7900 GRE che io reputo come la 6800 di questa gen (eccetto i consumi).

psycho91
21-05-2024, 12:10
Non ha più senso prendere la 7800 sopra i 500, a 550 ci prendi la 7900 GRE che io reputo come la 6800 di questa gen (eccetto i consumi).
Anche la 7900gre ha quasi sempre fatto 150 a settimana, ora nelle ultime tre settimane ha venduto meno di 300...

OrazioOC
21-05-2024, 13:32
Anche la 7900gre ha quasi sempre fatto 150 a settimana, ora nelle ultime tre settimane ha venduto meno di 300...

C'è anche da dire che il periodo di picco delle vendite post natalizio/pasquale è ormai finito. Tempo un paio di settimane e siamo in estate. :asd:

Detto questo, onestamente chi voleva una rx 7000 o una rtx 4000 di tempo ne ha avuto, e chi rinnova l'hardware con tempistiche più lunghe è sempre alla finestra in attesa dei saldi di fine serie(che inevitabilmente arriveranno dopo l'estate con l'arrivo delle RDAN4/Intel Battlemage e RTX 5000). :)

ninja750
21-05-2024, 13:53
Detto questo, onestamente chi voleva una rx 7000 o una rtx 4000 di tempo ne ha avuto, e chi rinnova l'hardware con tempistiche più lunghe è sempre alla finestra in attesa dei saldi di fine serie(che inevitabilmente arriveranno dopo l'estate con l'arrivo delle RDAN4/Intel Battlemage e RTX 5000). :)

con il piccolo particolare che nel caso di AMD la top rimarrà la 7900XTX quindi chi guarda quel segmento avrà poche differenze rispetto ad oggi, se non magari un miserrimo refresh 7950XTX da +200mhz o tipo -30w

OrazioOC
21-05-2024, 15:04
con il piccolo particolare che nel caso di AMD la top rimarrà la 7900XTX quindi chi guarda quel segmento avrà poche differenze rispetto ad oggi, se non magari un miserrimo refresh 7950XTX da +200mhz o tipo -30w

Se mi esce una iso 7900 xt/4070 ti super migliorata nei consumi/ray tracing al prezzo di una 7900 gre(ed è probabile), chi ti và a scegliere la 7900 xtx a 1000 euro per andare il 10% in più in raster? :asd:
E' un po' come scegliere vega 7 vs rx 5700 xt. :asd:

zanflank
21-05-2024, 15:30
Se mi esce una iso 7900 xt/4070 ti super migliorata nei consumi/ray tracing al prezzo di una 7900 gre(ed è probabile), chi ti và a scegliere la 7900 xtx a 1000 euro per andare il 10% in più in raster? :asd:
E' un po' come scegliere vega 7 vs rx 5700 xt. :asd:

Eppure la prima è andata a ruba per il mining :D che tempi

ninja750
21-05-2024, 15:35
Se mi esce una iso 7900 xt/4070 ti super migliorata nei consumi/ray tracing al prezzo di una 7900 gre(ed è probabile), chi ti và a scegliere la 7900 xtx a 1000 euro per andare il 10% in più in raster? :asd:
E' un po' come scegliere vega 7 vs rx 5700 xt. :asd:

infatti non ci arrivano alla 7900XT, si posizioneranno più sotto, parliamo sempre di sole 32WGP (64cu) che puoi clocare anche a 3ghz ma per me non basteranno

poi chiaro che se esci con un prezzo aggressivo tipo 450€, o fai un refresh sopra per giustificare il prezzo che rimane uguale oppure dai semplicemente un taglio al listino della top tipo 750€ ma quest'ultima dovrà vedersela con le future RTX5000 quindi se di là proporranno una 5070 con perf 4080like a 750€ ok altrimenti dovrai limare ulteriormente ma almeno avrai amortizzato tutti i costi correlati e non perderai tutto sto market share

questa mossa di amd potrebbe servire anche per temporeggiare nel vedere quali imperdibili features si inventerà questa volta giacco e proporle con la big che verrà, feature che probabilmente non saranno un selling point sulle fasce sotto ripeto per me si tratta di qualcosa legato all'HDR

OrazioOC
21-05-2024, 15:41
infatti non ci arrivano alla 7900XT, si posizioneranno più sotto, parliamo sempre di sole 32WGP (64cu) che puoi clocare anche a 3ghz ma per me non basteranno

poi chiaro che se esci con un prezzo aggressivo tipo 450€, o fai un refresh sopra per giustificare il prezzo che rimane uguale oppure dai semplicemente un taglio al listino della top tipo 750€ ma quest'ultima dovrà vedersela con le future RTX5000 quindi se di là proporranno una 5070 con perf 4080like a 750€ ok altrimenti dovrai limare ulteriormente ma almeno avrai amortizzato tutti i costi correlati e non perderai tutto sto market share

questa mossa di amd potrebbe servire anche per temporeggiare nel vedere quali imperdibili features si inventerà questa volta giacco e proporle con la big che verrà, feature che probabilmente non saranno un selling point sulle fasce sotto ripeto per me si tratta di qualcosa legato all'HDR
Ma in verità alcuni leak parlano proprio di un target da 7900 xt, e visto che il chip sembrerebbe di dimensioni simil 7800 xt ma monolitico, io gli darei fiducia. :O

Essere sotto alla 7900 xt(o anche sotto alla 7900 gre a questo punto) per una scheda video da 550 euro in arrivo nell'ormai 2025 sà molto di aspettative mancate. :rolleyes:
Anche perchè non ci sono solo le 5070 da tenere d'occhio, ma pure le battlemage. :)

mikael84
21-05-2024, 15:53
questa mossa di amd potrebbe servire anche per temporeggiare nel vedere quali imperdibili features si inventerà questa volta giacco e proporle con la big che verrà, feature che probabilmente non saranno un selling point sulle fasce sotto ripeto per me si tratta di qualcosa legato all'HDR

Il problema è la nanometria, ovvero i 3nm, quindi sia per AMD che per nvidia, sarà una gen intermedia, dove nvidia però lancerà il big chip per pro adattato al gaming a costi altissimi, quindi fa storia a se ormai.
AMD ciò che farà, altro non è che tirare fuori una simil 7600, ma con i 4nmp, dove grazie alla densità (si arriverà a quasi 3x), isofrequenza, riuscirà a tirare molto di più da un die analogo o quasi.
Una situazione simil 5700xt, per poi rivedere quasi tutto con RDNA5, come accade con RDNA2, dove li fu rivisto tutto, a partire dall'utilizzo delle librerie HP elvt del nodo ed i lavori di clock gating.

Nvidia avrà a disposizione i 3nmHP a partire da rubin HPC fine 2025/inizi 26. AMD seguirà con i 3nm e RDNA5.

ninja750
21-05-2024, 16:17
Essere sotto alla 7900 xt(o anche sotto alla 7900 gre a questo punto) per una scheda video da 550 euro in arrivo nell'ormai 2025 sà molto di aspettative mancate. :rolleyes:
Anche perchè non ci sono solo le 5070 da tenere d'occhio, ma pure le battlemage. :)

ma non costerà 550 dai, sarà segmento medio/basso male che vada sarà 450€ altrimenti fanno prima a chiudere bottega, come giustamente dici intel in quel segmento ci sarà eccome e non puoi farla fuori dal vaso


AMD ciò che farà, altro non è che tirare fuori una simil 7600, ma con i 4nmp, dove grazie alla densità (si arriverà a quasi 3x), isofrequenza, riuscirà a tirare molto di più da un die analogo o quasi.

ripeto se i leak hanno parvenza di mezza realtà fai tu i conti di quanto dovranno clockare quelle 64cu per pareggiare la 7900XT, a meno che non rivoluzionino tutto

mikael84
21-05-2024, 16:27
ma non costerà 550 dai, sarà segmento medio/basso male che vada sarà 450€ altrimenti fanno prima a chiudere bottega, come giustamente dici intel in quel segmento ci sarà eccome e non puoi farla fuori dal vaso



ripeto se i leak hanno parvenza di mezza realtà fai tu i conti di quanto dovranno clockare quelle 64cu per pareggiare la 7900XT, a meno che non rivoluzionino tutto

Infatti, al momento parliamo di 32WGP, ed un 256bit monolitico sempre g6.
Lato microarchitettura, si parla di RDNA3.5, che prevede un culling per il reg, poca roba. Il clock è da vedere, se hanno usato celle HP per gli shader, con i 4nmP non salirai tantissimo... ma qua dipende dalla progettazione del circuito e l'assemblazione dei transistor.
L'unico aspetto però, sono le possibili unità BVH/SER (che AMD chiamava oreo), perchè se recuperi li, e perdi in raster, in base al prezzo ed ai consumi, la rendi molto appetibile.

In fondo si dovrà scontrare con la serie x70 di nvidia blackwell, che pare per lo più un refresh, salvo soluzioni nuove AI.

marbasso
21-05-2024, 21:04
Forza cacciate i risultati con steel nomad (è free) in primis possibilmente stock chi ha una vga sopra la 7900gre, poi anche in oc se vi va.
:)

belta
21-05-2024, 21:32
Forza cacciate i risultati con steel nomad (è free) in primis possibilmente stock chi ha una vga sopra la 7900gre, poi anche in oc se vi va.
:)

scaricato, domani faccio qualche run :O

DANY 76
21-05-2024, 22:08
Forza cacciate i risultati con steel nomad (è free) in primis possibilmente stock chi ha una vga sopra la 7900gre, poi anche in oc se vi va.
:)

e che roba sarebbe?

belta
21-05-2024, 22:13
e che roba sarebbe?

nuovo bench di 3d mark, se ce l'hai su steam lo puoi scaricare dall'elenco dei dlc disponibili

marbasso
21-05-2024, 22:43
scaricato, domani faccio qualche run :O

Gud :)

Gundam1973
21-05-2024, 22:43
con la 6900xt a 2750@2100 PT. 4570

Edit:

visto che c'ero ho fatto anche un light PT. 23010

DANY 76
21-05-2024, 23:03
nuovo bench di 3d mark, se ce l'hai su steam lo puoi scaricare dall'elenco dei dlc disponibili

ho la versione free scaricata dal sito...

DANY 76
22-05-2024, 00:30
provato a fare il test col pc in firma ed è pesantissimo,in quad hd mi tiene a stento i 60 fps.
ho fatto 5950 punti,cpu a 4750 mhz e vga frequenze stock.

belta
22-05-2024, 07:48
https://i.postimg.cc/g2YXzzJQ/Screenshot-2024-05-22-084555.png

Sono sotto di 200 punti all'average score https://i.postimg.cc/Cxp6YGs9/014.gif

belta
22-05-2024, 07:52
light:

https://i.postimg.cc/MZjLWxfW/Screenshot-2024-05-22-085116.png

bobby10
22-05-2024, 08:26
a me non lo fa partire e da errore

belta
22-05-2024, 08:43
a me non lo fa partire e da errore

Prova a riavviare Steam o il Pc

argez
22-05-2024, 11:57
a me non lo fa partire e da errore

C'è una risposta di uno sviluppatore sul forum steam...pare ci sia da aspettare una patch.

marbasso
22-05-2024, 12:03
Eh, ieri sera c'era un casino sul sito 3dm, server bloccati, punteggi che tardavano u. Sacco a essere convalidati. Sto bench ha fatto boom.
Cmq con la 2080ti ho fatto 4500 e qualcosa. Ma potrei migliorare qualcosa.
Livello 3080,4070,7900gre,7800xt.
Non perdete tempo a fare il light non serve a nulla.

ninja750
23-05-2024, 09:11
amd ci rinuncia e Antilag2 diventa una feature da implementare nel gioco e attivabile da RDNA1 in avanti

https://cdn.wccftech.com/wp-content/uploads/2024/05/AMD_Radeon_Anti_Lag2_Counter_Strike2_latency_chart.jpg

https://wccftech.com/amd-radeon-anti-lag-2-game-integrated-tech-counter-strike-2-preview-available/

peccato perchè ovviamente da driver si poteva applicare in tutti i giochi

ninja750
23-05-2024, 09:13
uscita nuova release preview per poter provare questa feature in csgo2

belta
23-05-2024, 09:16
amd ci rinuncia e Antilag2 diventa una feature da implementare nel gioco e attivabile da RDNA1 in avanti


tutto per "colpa" dei cheaters :asd: :muro:

alethebest90
23-05-2024, 09:47
tutto per "colpa" dei cheaters :asd: :muro:

a me pare sempre un complotto ogni volta che lancia qualcosa di buono, un po come la Ferrari appena va piu degli altri la FIA interviene :stordita:

colpa degli iNvidiosi :asd:

Gyammy85
23-05-2024, 10:04
C'è una risposta di uno sviluppatore sul forum steam...pare ci sia da aspettare una patch.

Eh la patch per il benchmark, ma questi """""""sviluppatori""""""""" so troppo bravi! :O

belta
23-05-2024, 10:05
Eh la patch per il benchmark, ma questi """""""sviluppatori""""""""" so troppo bravi! :O

in effetti la patch per un bench fa ridere per non piangere :rotfl:

ninja750
23-05-2024, 13:54
nuova conferma che non ci sarà una RDNA4 fascia alta, stavolta proprio da AMD anche se indirettamente

https://videocardz.com/newz/amd-confirms-navi-44-navi-48-rdna4-gpus-through-rocm-update

sempre più perplesso da questa scelta specialmente se non saranno in grado di proporla ad un prezzo super aggressivo. stagnazione delle perf mai viste in questi ultimi anni

belta
23-05-2024, 14:05
nuova conferma che non ci sarà una RDNA4 fascia alta, stavolta proprio da AMD anche se indirettamente

https://videocardz.com/newz/amd-confirms-navi-44-navi-48-rdna4-gpus-through-rocm-update

sempre più perplesso da questa scelta specialmente se non saranno in grado di proporla ad un prezzo super aggressivo. stagnazione delle perf mai viste in questi ultimi anni

Chiaro che AMD dovrà riuscire a proporre una fascia media con un rapporto prezzo/prestazioni decente ma ci sarà poi da vedere come evolverà il mercato dei videogames in generale, tra chiusure di interi studi, licenziamenti dal giorno alla notte e distributori che hanno farcito i team di sviluppo di attivisti politici c'è da mettersi le mani in testa :doh:

Ihmo lo scenario generale è ben peggiore di "Amd non farà più la fascia alta" :fagiano:

Gyammy85
23-05-2024, 14:55
nuova conferma che non ci sarà una RDNA4 fascia alta, stavolta proprio da AMD anche se indirettamente

https://videocardz.com/newz/amd-confirms-navi-44-navi-48-rdna4-gpus-through-rocm-update

sempre più perplesso da questa scelta specialmente se non saranno in grado di proporla ad un prezzo super aggressivo. stagnazione delle perf mai viste in questi ultimi anni

O fanno stile 5000 che dopo un anno esce rdna5 top

ninja750
23-05-2024, 15:06
O fanno stile 5000 che dopo un anno esce rdna5 top

ok ma resta il fatto che stagnamo un altro anno con le stesse perf +- 7900GRE che si potevano comprare 4 anni fa

ionet
23-05-2024, 15:33
stagnazione e' presto dirlo, con rdna4 sembra e lo spero che a questo giro vogliono riallinearsi agli standard odierni che il mercato pretende, cioe' alti miglioramenti in RT e i vari fake-generetor in HW e HQ, meno in raster

perche se continuano a mettere la testa sotto la sabbia la dipartita e' scontata, senza contare che c'e' anche intel a questo giro da controbattere, una intel che comunque in RT aveva fatto meglio gia dal primo tentativo..

poi che non ci sara' la big di turno pazienza, tanto in quella fascia si sa che vai di nvidia e che non si accettano compromessi, meglio risparmiare risorse per mercati ben piu' remunerativi

mikael84
23-05-2024, 15:41
nuova conferma che non ci sarà una RDNA4 fascia alta, stavolta proprio da AMD anche se indirettamente

https://videocardz.com/newz/amd-confirms-navi-44-navi-48-rdna4-gpus-through-rocm-update

sempre più perplesso da questa scelta specialmente se non saranno in grado di proporla ad un prezzo super aggressivo. stagnazione delle perf mai viste in questi ultimi anni

E' per una questione di nanometria quasi sicuramente, anche nvidia, salvo GB202 (più che altro per pro), farà una sorta di refresh sotto col 4nmP, che useranno tutti, da black, a rdna4 a battlemage.
Nvidia pare poter utilizzare i 3nm a partire da fine anno prossimo con Rubin HPC, quindi sarà a tutti gli effetti una gen. transitoria per tutte.
Anche zen5, dovrebbe usare i 4nmP.

Con RDNA5 si dovrebbe ridisegnare gran parte di microarchitettura, e di sicuro lo faranno su un nodo avanzato, soprattutto per una questione di densità.

bobby10
23-05-2024, 15:47
C'è una risposta di uno sviluppatore sul forum steam...pare ci sia da aspettare una patch.

Grazie poi riproverò.
Ho notato che la vga faceva anche un rumorino strano quando tentativo di lanciare il bench

marbasso
23-05-2024, 15:52
Grazie poi riproverò.
Ho notato che la vga faceva anche un rumorino strano quando tentativo di lanciare il bench

Ma sulla 6750?

argez
23-05-2024, 17:47
Grazie poi riproverò.
Ho notato che la vga faceva anche un rumorino strano quando tentativo di lanciare il bench

Uscito aggiornamento, adesso funziona :).

bobby10
23-05-2024, 20:06
Ma sulla 6750?

Si. Appena ho un attimo riprovo

marbasso
23-05-2024, 20:12
Si. Appena ho un attimo riprovo

Ah ok.

ninja750
24-05-2024, 09:49
con una 6700XT dovresta fare sui 2600pt

https://forums.guru3d.com/attachments/upload_2024-5-23_23-20-46-png.26252/

le 6800 lisce sono sui 3500pt

argez
24-05-2024, 11:49
Con la scheda stabile:
https://i.postimg.cc/DZZdDbW7/steel-nomad-l.jpg (https://postimages.org/)

marbasso
24-05-2024, 12:01
Con la scheda stabile:
https://i.postimg.cc/DZZdDbW7/steel-nomad-l.jpg (https://postimages.org/)

Non fare il light fai lo standard in dx12.

argez
24-05-2024, 12:26
Ah mi son dimenticato, i drivers son i 24.4.
https://i.postimg.cc/QdFFRkm4/steel-nomad-1.jpg (https://postimages.org/)

marbasso
24-05-2024, 15:53
Ah mi son dimenticato, i drivers son i 24.4.
https://i.postimg.cc/QdFFRkm4/steel-nomad-1.jpg (https://postimages.org/)

Ma non l' hai tirata nulla sta vga....0.989v

marbasso
24-05-2024, 18:10
Ma postate i risultati anche nella sezione benchmark, ma che diamine....

https://www.hwupgrade.it/forum/showthread.php?t=2994357

marbasso
26-05-2024, 16:51
Tutti contenti che ha vinto la Ferrari :)

ninja750
27-05-2024, 14:55
probabilmente al computex verrà presentata la 7650M XT esterna primariamente per notebook ovviamente

https://videocardz.com/newz/amd-reportedly-preparing-radeon-rx-7650m-xt-launching-as-external-gpu-in-july

https://itc.ua/wp-content/uploads/2024/05/AAOSTAR-RADEON-7650M-XT1.png

Gyammy85
27-05-2024, 14:59
probabilmente al computex verrà presentata la 7650M XT esterna primariamente per notebook ovviamente

https://videocardz.com/newz/amd-reportedly-preparing-radeon-rx-7650m-xt-launching-as-external-gpu-in-july

https://itc.ua/wp-content/uploads/2024/05/AAOSTAR-RADEON-7650M-XT1.png

Dov'è la risposta di nVidia? :eek:

AceGranger
27-05-2024, 15:32
Dov'è la risposta di nVidia? :eek:

si accontenta di metterle direttamente dentro al 90% dei notebook :asd:

ninja750
27-05-2024, 15:52
si accontenta di metterle direttamente dentro al 90% dei notebook :asd:

pensandoci questa soluzione risolverebbe la questione delle vga 4 slot da 5kg che richiedono slot pci.x rinforzato

che creino uno standard esterno ovviamente alimentato a parte :read:

AceGranger
27-05-2024, 15:56
pensandoci questa soluzione risolverebbe la questione delle vga 4 slot da 5kg che richiedono slot pci.x rinforzato

che creino uno standard esterno ovviamente alimentato a parte :read:

bè, se va avanti cosi, potrebbero fare uno standard dove monti il resto del PC sulla scheda video :asd:

belta
27-05-2024, 15:59
bè, se va avanti cosi, potrebbero fare uno standard dove monti il resto del PC sulla scheda video :asd:

pensandoci questa soluzione risolverebbe la questione delle vga 4 slot da 5kg che richiedono slot pci.x rinforzato

che creino uno standard esterno ovviamente alimentato a parte :read:

giusto, si aprirebbe anche il mercato per i case per le schede video, ovviamente il cavo di collegamento scheda video - scheda madre deve essere qualcosa con dentro metalli preziosi che costano svariate migliaia di € al grammo

Arrow0309
27-05-2024, 23:50
Riposto visto che vi siete spostati qui:

Come va la RX 7600S su un portatile TUF A16?
Sto per un lavoro lontano e ci vorranno forse due mesi.
Mi sto inscimmiando, ho già un ultrabook (Redmibook Pro 2023 Ryzen ed.) ma seppur ottima la 780M integrata non regge i giochi recenti. :mc:

Volendo c'e' pure un A16 con la 7700S ma costa di piu', credo che per il 1920:1200 di questi portatili da 16" basta anche la 7600S.

Gyammy85
28-05-2024, 11:59
si accontenta di metterle direttamente dentro al 90% dei notebook :asd:

Mi sembra pochino il 90% però

EffeX
28-05-2024, 21:09
pensandoci questa soluzione risolverebbe la questione delle vga 4 slot da 5kg che richiedono slot pci.x rinforzato

che creino uno standard esterno ovviamente alimentato a parte :read:

Voodoo 5 6000 docet? :D
Scherzi a parte, non c'era già qualcosa in giro da qualche anno come gpu collegabile esternamente? O ricordo male io?

Gyammy85
29-05-2024, 08:18
Voodoo 5 6000 docet? :D
Scherzi a parte, non c'era già qualcosa in giro da qualche anno come gpu collegabile esternamente? O ricordo male io?

Ci sono gli enclosure dove puoi metterci qualsiasi scheda, hanno l'alimentatore dentro ma sono abbastanza grossi e poco portatili

HadesSaint
29-05-2024, 15:09
post cancellato

EffeX
30-05-2024, 18:07
Ci sono gli enclosure dove puoi metterci qualsiasi scheda, hanno l'alimentatore dentro ma sono abbastanza grossi e poco portatili

Ah ecco! Effettivamente in circolazione non ne ho mai visti, questo proposto da AMD potrebbe essere una buona soluzione per chi usa il portatile a casa tipo desktop per gaming.

ninja750
04-06-2024, 10:36
non avevano anticipato che avrebbero dato qualche briciola di informazione su RDNA3.5 o RDNA4 o la nuova CDNA?

floop
04-06-2024, 18:21
non avevano anticipato che avrebbero dato qualche briciola di informazione su RDNA3.5 o RDNA4 o la nuova CDNA?

Solo AI del cavolo e i ryzen 9... :muro:

A64FX+DFI nF4
04-06-2024, 19:54
Ecco CDNA (https://videocardz.com/newz/amd-instinct-mi325x-gets-288gb-hbm3e-memory-mi350x-with-cdna4-set-for-2025-mi400-with-cdna-next-launching-in-2026)

ninja750
05-06-2024, 09:25
Ecco CDNA (https://videocardz.com/newz/amd-instinct-mi325x-gets-288gb-hbm3e-memory-mi350x-with-cdna4-set-for-2025-mi400-with-cdna-next-launching-in-2026)

solo 288gb di vram?

cmq notevole

https://cdn.videocardz.com/1/2024/06/AMD-CDNA4-768x225.jpg

https://cdn.videocardz.com/1/2024/06/AMD-CDNA3-768x227.jpg

CtrlAltSdeng!
05-06-2024, 09:30
Voglio una CDNA per pompare l'RT su cyberpunk :O

RoUge.boh
05-06-2024, 10:27
Solo AI del cavolo e i ryzen 9... :muro:

beh anche NVIDIA stesso discorso (2 ore di fuffa) ma i big money sono li.

Lato CPU AMD ha fatto il minimo (non avendo rivali..), :rolleyes: lato GPU mi aspetto lo stesso.:rolleyes:

Avranno spostato il 95% della ricerca e sviluppo facendo il minimo in altri ambiti

ionet
05-06-2024, 12:47
al computex Micron presenta le GDDR7, che promettono faville..
davo per scontato che tanto nvidia avrebbe avuto l'esclusiva all'inizio, visto che di solito amd va al risparmio..

ma in fondo al comunicato c'e' anche una dichiarazione di un rappresentante AMD, Joe Macri, dove conferma di essere partner e l'imminente uso di queste memorie:)
https://videocardz.com/press-release/micron-announces-32-gbps-gddr7-memory-for-next-gen-gpus-is-now-sampling

solo non mi e' chiaro una cosa, ma per usare questo tipo di memorie, la gpu deve avere un controller apposito?
o il controller e' univoco e poi sei libero di scegliere(gddr6/7) quale vuoi usare?

probabile, visto il rinvio/rinuncia della big, che ad AMD non gli rimane altro che pompare quello che gli rimane, cioe' navi48, ma per evitare ogni tipo di limitazione la gddr7 e' proprio il jolly di cui amd ha bisogno, anche perche le sue architetture sono sempre affamate di banda

ma se il controller non lo permette perche navi 48 e' stato progettato con il MC gddr6.. :(
forse era una dichiarazione di facciata, stanno collaborando per prodotti futuri, o era per la big ma ormai..

ninja750
05-06-2024, 13:20
al computex Micron presenta le GDDR7, che promettono faville..
davo per scontato che tanto nvidia avrebbe avuto l'esclusiva all'inizio, visto che di solito amd va al risparmio..

ma in fondo al comunicato c'e' anche una dichiarazione di un rappresentante AMD, Joe Macri, dove conferma di essere partner e l'imminente uso di queste memorie:)

da quello che ho capito io non hanno presentato ma hanno fatto poco più di un tease e quindi siamo ancora lontani dalla commercializzazione/adozione, per me è inverosimile che i chippini AMD adottino questa soluzione troppo nuova troppo costosa e acerba, ma è praticamente sicuro che lo faranno sulle successive big compresa

CtrlAltSdeng!
05-06-2024, 13:36
L’mc è l’ultimo dei problemi direi

Annunciate significano che sono ancora mesi lontane all’essere usate sul campo

Nvidia le userà sicuro partendo da binning conservativi e scalerà in futuro con le scontate super ti o che dir si voglia

RTG invece anche a sto giro fallirà e quindi che ve devo di’ :O

marbasso
05-06-2024, 14:40
Oddio l' imc non è un problema.
Dai 20gbps di una 7900xt ai 32gbps micron ultimi grido non è che sia una passeggiata...

CtrlAltSdeng!
05-06-2024, 14:44
Oddio l' imc non è un problema.
Dai 20gbps di una 7900xt ai 32gbps micron ultimi grido non è che sia una passeggiata...

certo, perchè uno è GDDR6 e l'altro GDDR7 .... non c'entrano i dati di targa in sè è che sono proprio due standard diversi

alder lake era doppio controller ddr4 e 5, per esempio

mikael84
05-06-2024, 15:08
al computex Micron presenta le GDDR7, che promettono faville..
davo per scontato che tanto nvidia avrebbe avuto l'esclusiva all'inizio, visto che di solito amd va al risparmio..

ma in fondo al comunicato c'e' anche una dichiarazione di un rappresentante AMD, Joe Macri, dove conferma di essere partner e l'imminente uso di queste memorie:)
https://videocardz.com/press-release/micron-announces-32-gbps-gddr7-memory-for-next-gen-gpus-is-now-sampling

solo non mi e' chiaro una cosa, ma per usare questo tipo di memorie, la gpu deve avere un controller apposito?
o il controller e' univoco e poi sei libero di scegliere(gddr6/7) quale vuoi usare?

probabile, visto il rinvio/rinuncia della big, che ad AMD non gli rimane altro che pompare quello che gli rimane, cioe' navi48, ma per evitare ogni tipo di limitazione la gddr7 e' proprio il jolly di cui amd ha bisogno, anche perche le sue architetture sono sempre affamate di banda

ma se il controller non lo permette perche navi 48 e' stato progettato con il MC gddr6.. :(
forse era una dichiarazione di facciata, stanno collaborando per prodotti futuri, o era per la big ma ormai..

Certo il MC va rivisto.
Cmq, lo standard Gddr7 soppianta il g6, quindi possono utilizzarlo tutti, da nvidia a amd/intel.

Al momento il ratio che utilizzerà nvidia pare essere molto basso, ovvero di 28.

Micron solo è partner nvidia, infatti le sue g5x e g6x pam4, sono state standardizzate per nvidia.

Riguardo navi48, sarà quasi sicuramente ancora su g6, in attesa di mettere mano ai 3nm.

CtrlAltSdeng!
05-06-2024, 15:26
Se il focus di amd è veramente una nuova "5700XT" per le masse le ddr6 pompate con una nuova cache estesa dovrebbero essere la soluzione tecnica giusta....per il resto, vedremo.

A64FX+DFI nF4
05-06-2024, 18:05
solo 288gb di vram?

cmq notevole

https://cdn.videocardz.com/1/2024/06/AMD-CDNA4-768x225.jpg

https://cdn.videocardz.com/1/2024/06/AMD-CDNA3-768x227.jpg

facile, hanno dimezzato la precisione dei dati, quel 35x su cdna3 sarà con i calcoli fp4

Gyammy85
06-06-2024, 08:27
facile, hanno dimezzato la precisione dei dati, quel 35x su cdna3 sarà con i calcoli fp4

CDNA3 supporta FP8, fosse solo quello andrebbe al doppio, non certo 35x
Chissà quanta roba infileranno dentro, mostruosamente grossa e potente, a 3 nm

Vul
10-06-2024, 12:53
facile, hanno dimezzato la precisione dei dati, quel 35x su cdna3 sarà con i calcoli fp4

E' tutt'altro che facile, comunque il target quello e' fp4/fp8.

Ale55andr0
10-06-2024, 19:35
cmq se fanno una 7900xtx migliorata in RT (+20%) con 16gb per risparmiare qualcosa ( sono cmq perfettamente adeguati per tutta la gen sino all'uscita di PS6/series X2) a 600 cucuzze sarebbe una bellissima gpu imho, una degna erede della 5700XT per rapporto prezzo prestazioni. E lancerei solo quella, il cut lo lascerei al pro, mentre schede più devastate lato bus e ram da 2/300 euro ormai non servono a un tubo, con le buone APU si gioca 1080p

LurenZ87
11-06-2024, 07:19
cmq se fanno una 7900xtx migliorata in RT (+20%) con 16gb per risparmiare qualcosa ( sono cmq perfettamente adeguati per tutta la gen sino all'uscita di PS6/series X2) a 600 cucuzze sarebbe una bellissima gpu imho, una degna erede della 5700XT per rapporto prezzo prestazioni. E lancerei solo quella, il cut lo lascerei al pro, mentre schede più devastate lato bus e ram da 2/300 euro ormai non servono a un tubo, con le buone APU si gioca 1080pMagari, però con consumi più contenuti visto che la XTX è un forno... Dove si firma??? :D

Inviato dal mio ThinkPhone utilizzando Tapatalk

OrazioOC
11-06-2024, 07:33
cmq se fanno una 7900xtx migliorata in RT (+20%) con 16gb per risparmiare qualcosa ( sono cmq perfettamente adeguati per tutta la gen sino all'uscita di PS6/series X2) a 600 cucuzze sarebbe una bellissima gpu imho, una degna erede della 5700XT per rapporto prezzo prestazioni. E lancerei solo quella, il cut lo lascerei al pro, mentre schede più devastate lato bus e ram da 2/300 euro ormai non servono a un tubo, con le buone APU si gioca 1080p

Sui consumi più bassi, 16gb di vram e performance RayTracing migliorate ci possiamo anche stare, ma i leak l'hanno data sempre con performance raster che alla meglio arrivano alla 7900 xt(aka nei casi favorevoli ci arriva, di avg farà pure qualcosa in meno, diciamo una iso 7900 gre ben cloccata).
In sostanza la 4070 ti con 16gb di vram by amd.
La schifiamo a 500/550 euro?Assolutamente no visto che ad oggi ti danno la 7800 xt che non ha certo come target una 4070 ti/super ti. :)

ninja750
11-06-2024, 10:36
già, pare non arriverà alla 7900XTX

visti i presunti leak di oggi sembra confermato anche un pcb cheap

insomma ci sono i presupposti per una 7900xt entro i 240/250w

da non strapparsi i capelli ma nemmeno da saltare per l'entusiasmo

OrazioOC
11-06-2024, 10:45
https://videocardz.com/newz/amd-navi-48-xtx-graphics-spotted-alongside-four-different-board-designs

ghiltanas
11-06-2024, 11:37
per le memorie spero facciano uno sforzo e mettano delle 20gbps

CtrlAltSdeng!
11-06-2024, 14:17
Quindi PARE abbiano bocciato l'approccio mcm vero, l'evoluzione di rdna3, e tenuto il tutto "monolitico" ma con taglio da fascia media invece di un big monolitico? :stordita: diventerà quindi il "modulo" base sul quale costruire rdna5 una volta che avranno trovato come tenere il tutto in parallelo scalando a due-tre-quattro moduli? :stordita: hovintoquacchecosa?

ninja750
11-06-2024, 14:33
sì la questione nelle gpu è che sono già tutte tante unità in parallelo quindi mettere due chipponi in parallelo serve solo per le rese perchè costerebbe troppo farlo monolitico, che sappia io l'unica che è riuscita a farlo scalando abbastanza bene è stata 3dfx ai tempi della voodoo2 con i 3 chip onboard, gli altri al massimo hanno fatto un dual chip ovviamente per via di consumo e calore da smaltire che all'epoca era trascurabile. sarà interessante vedere come funzionerà la 5090 che pare abbia proprio questo approccio, certo per AMD sarebbe uno smacco visto che è partita per prima a provare questa soluzione su una scheda chiamiamola mainstream e ha tutto il know-how in proposito usato nelle cpu ormai da 10 anni

Phopho
11-06-2024, 14:59
Q1 2025? :(

mikael84
11-06-2024, 15:15
Quindi PARE abbiano bocciato l'approccio mcm vero, l'evoluzione di rdna3, e tenuto il tutto "monolitico" ma con taglio da fascia media invece di un big monolitico? :stordita: diventerà quindi il "modulo" base sul quale costruire rdna5 una volta che avranno trovato come tenere il tutto in parallelo scalando a due-tre-quattro moduli? :stordita: hovintoquacchecosa?

Non è che sia stato bocciato, ma questo chip, è il post 7600, che era un mono sui 6nm. Questo sarà un mono sui 4nm di fascia bassa, solo che sfruttando la densità quasi 3x, permetterà di fare un bel salto in termini di transistor e perf/watt.
Sarà il polaris-rdna1, 7600 della serie, chippetto intorno ai 2-250mm2.

Il MCM cmq, a livello di convenienza, vale soprattutto per chip molto grossi.

Esempio, un ipotetico die turing da 754mm2, sui 3nm verrebbe 588$, un dual 377mm2 verrebbero 188x2 $, più quasi un 2x le rese. 106 rese vs circa 34.
Inoltre l'R&D sarebbe spalmato su più chip, mentre il monolite gigante si deve accollare tutto.

Navi31 è più quello che ha perso che quello che ha guadagnato, troppi transistor per area grigia di collegamento e sistema MCM che ne ha abbassato la banda effettiva.

CtrlAltSdeng!
11-06-2024, 15:36
Certo, ma lo spezzatino è da incollare (semi-cit) e più spezzetti e più l'efficienza se ne va a benedire (basti pensare alla distribuzione di un motore monocilindrico e la stessa cc complessiva ma su dodici cilindri :stordita: ) e sulle gpu avendo migliaia di unità elaborative da coordinare in una pipeline sempre più complessa il gioco non è uno scherzo nemmeno per amd

direi "rinviato" più che "bocciato", ecco

l'mcm è il futuro finchè non si cambierà paradigma di produzione credo :stordita:

mikael84
11-06-2024, 15:52
Certo, ma lo spezzatino è da incollare (semi-cit) e più spezzetti e più l'efficienza se ne va a benedire (basti pensare alla distribuzione di un motore monocilindrico e la stessa cc complessiva ma su dodici cilindri :stordita: ) e sulle gpu avendo migliaia di unità elaborative da coordinare in una pipeline sempre più complessa il gioco non è uno scherzo nemmeno per amd

direi "rinviato" più che "bocciato", ecco

l'mcm è il futuro finchè non si cambierà paradigma di produzione credo :stordita:

Direi rinviato, purtroppo la stagnazione sui 5-4nm ha rallentato le tappe a tutti.
Riguardo il MCM certo è ben più complesso, viene usato in ambiti HPC con buoni risultati, ma son calcoli ridondanti con cache e bande mastodontiche.
Una delle problematiche del brevetto numa nvidia, ad esempio, era la non massiva parallelizzazione dei dati tra i cluster, e nella simulazione venivano usate HBM a banda larghissima per i tempi. Di fatto la stessa, pur investendo molto, è ancora in mono.

Tanto di cappello a chi riuscirà ad integrarlo al meglio sui chip gaming.

Vik94
11-06-2024, 22:01
Sui consumi più bassi, 16gb di vram e performance RayTracing migliorate ci possiamo anche stare, ma i leak l'hanno data sempre con performance raster che alla meglio arrivano alla 7900 xt(aka nei casi favorevoli ci arriva, di avg farà pure qualcosa in meno, diciamo una iso 7900 gre ben cloccata).
In sostanza la 4070 ti con 16gb di vram by amd.
La schifiamo a 500/550 euro?Assolutamente no visto che ad oggi ti danno la 7800 xt che non ha certo come target una 4070 ti/super ti. :)assolutamente sì, ci sono le gre adesso a 550 euro. Che progresso sarebbe?

StylezZz`
11-06-2024, 22:11
Una 7900 GRE con RT migliore, ecco il progresso :asd:

Ale55andr0
12-06-2024, 00:14
Una 7900 GRE con RT migliore, ecco il progresso :asd:

dipende dal prezzo, che a sto giro abbiano mollato la fascia alta pare confermato. Per gli altri c'è la 5090 a 3000 + pacche sulle spalle fra i membri del club diversamente portafogliati

StylezZz`
12-06-2024, 08:03
dipende dal prezzo, che a sto giro abbiano mollato la fascia alta pare confermato. Per gli altri c'è la 5090 a 3000 + pacche sulle spalle fra i membri del club diversamente portafogliati

La 5700 XT costava in media -100€ rispetto la 2070 Super, per questo era appetibile (oltre al fatto che all'epoca il raytracing era irrilevante)...ma se continuano a tenersi vicini alle verdi come prezzi, la maggioranza farà il classico ragionamento ''per soli 50€ di differenza prendo direttamente una RTX che offre più features ecc..''.

CtrlAltSdeng!
12-06-2024, 08:18
La 5700 XT costava in media -100€ rispetto la 2070 Super, per questo era appetibile (oltre al fatto che all'epoca il raytracing era irrilevante)...ma se continuano a tenersi vicini alle verdi come prezzi, la maggioranza farà il classico ragionamento ''per soli 50€ di differenza prendo direttamente una RTX che offre più features ecc..''.

100€ sono ancora pochi, con tutte quelle features in più (!) le nvidia giocano proprio un campionato a parte nel senso che giocano proprio loro per te :stordita:

prossimo passo: amd ti pagherà per giocare con un radeon :O un gaming cloud al contrario, diciamo. Intel metterà in bundle le battleimage alle sue cpu come "NPU accessorie" offrendo uno sconto su un anno di E-on per offsettare la CO2.

nvidia gaming verrà scorporata e venduta a qualche comagnia cinese stile Lenovo perchè non gliene fregherà più un fischio concentrandosi interamente su IA e bot del sesso senza sindacati.

Dite che sono troppo ottimista? :stordita:

p.s: ho scordato i produttori cinesi! si, forse un po' di speranza c'è per il proletariat del gaming

ninja750
12-06-2024, 09:59
''per soli 50€ di differenza prendo direttamente una RTX che offre più features ecc..''.

ammetto di essermi perso ormai, troppe novità

mi elenchi le features mancanti così aiutiamo gli indecisi?

Gyammy85
12-06-2024, 09:59
Una 7900 GRE con RT migliore, ecco il progresso :asd:

Chissà come dato che l'arch si porta dietro sempre quel 10-15% minimo di ipc, a 3 nm poi...almeno alla 5080 si arriva pure in rt

Vul
12-06-2024, 11:39
ammetto di essermi perso ormai, troppe novità

mi elenchi le features mancanti così aiutiamo gli indecisi?

RT, che e' l'unica vera evoluzione futura nel mondo della grafica e' molto piu' performante lato Nvidia.

Non e' esattamente una feature, ma nel momento in cui devi sborsare centinaia e centinaia (nel caso di alcuni quasi mille o piu) di euro come fai ad ignorare il fatto?

StylezZz`
12-06-2024, 12:59
Chissà come dato che l'arch si porta dietro sempre quel 10-15% minimo di ipc, a 3 nm poi...almeno alla 5080 si arriva pure in rt

Alla 5080 dici? Io dico che se compete con la 5070/5070 Ti è già grasso che cola.

Ale55andr0
12-06-2024, 14:41
RT, che e' l'unica vera evoluzione futura nel mondo della grafica e' molto piu' performante lato Nvidia.


il molto più performante a pari fascia, nel mio caso, all'epoca, una 4070ti sulla mia di pari fascia, era tipo un 20% sui titoli sponsorizzati, che vuol dire un +20% (la 4070ti) su prestazioni, in quell'ambito specifico, di merda (la mia 7900XT), e un +20% sulla merda, resta un prestazione di merda, non passi da 30 a 60 frame da 30 a 36.

Spero di essermi spiegato. Poi con gli upschifer alzi tutti gli effepiesse che vuoi, ma quello lo posso fare pure sulla mia.

Cutter90
12-06-2024, 15:28
il molto più performante a pari fascia, nel mio caso, all'epoca, una 4070ti sulla mia di pari fascia, era tipo un 20% sui titoli sponsorizzati, che vuol dire un +20% (la 4070ti) su prestazioni, in quell'ambito specifico, di merda (la mia 7900XT), e un +20% sulla merda, resta un prestazione di merda, non passi da 30 a 60 frame da 30 a 36.

Spero di essermi spiegato. Poi con gli upschifer alzi tutti gli effepiesse che vuoi, ma quello lo posso fare pure sulla mia.

Lo puoi fare, certo. Ma la qualità non essendo la stessa potrebbe essere worth o not worth.
Inoltre le % erano ben più alte. Ricordo in 1440p un cp 2077 in Rt sugli 80 sulla 4070 ti e sui 60 sulla 7900 xt.
AW2 abbiamo in 1440p un 50 vs 39
Quindi mica poco in realtà. Sugli altri "non sponsorizzati= con poco RT" le differenze si assottigliano certo.

mikael84
12-06-2024, 15:33
il molto più performante a pari fascia, nel mio caso, all'epoca, una 4070ti sulla mia di pari fascia, era tipo un 20% sui titoli sponsorizzati, che vuol dire un +20% (la 4070ti) su prestazioni, in quell'ambito specifico, di merda (la mia 7900XT), e un +20% sulla merda, resta un prestazione di merda, non passi da 30 a 60 frame da 30 a 36.

Spero di essermi spiegato. Poi con gli upschifer alzi tutti gli effepiesse che vuoi, ma quello lo posso fare pure sulla mia.

Non siamo al bar dello sport, utilizza un linguaggio più consono.

Ale55andr0
12-06-2024, 16:40
Lo puoi fare, certo. Ma la qualità non essendo la stessa potrebbe essere worth o not worth.


non iniziamo a parlare della "qualità" del dlss te prego (parimenti quella di fsr, sia chiaro), il caldo soffocante è più che sufficiente

ninja750
12-06-2024, 17:28
RT, che e' l'unica vera evoluzione futura nel mondo della grafica e' molto piu' performante lato Nvidia.

Non e' esattamente una feature, ma nel momento in cui devi sborsare centinaia e centinaia (nel caso di alcuni quasi mille o piu) di euro come fai ad ignorare il fatto?

ma infatti mica lo si ignora, lo attivi anche su amd sapendo che non avrai le stesse perf della controparte

intendevo feature che hai solo su nvidia :confused:

Vul
12-06-2024, 19:35
Ma seriamente vedete differenze fra DLSS/FSR off e on..?

Quanto vorrei farvi fare blind tests...

EffeX
12-06-2024, 20:41
Ma seriamente vedete differenze fra DLSS/FSR off e on..?

Quanto vorrei farvi fare blind tests...

Personalmente, avendo provato di persona DLSS, FSR e pure XeSS, posso dirti che avrei problemi a riconoscere DLSS e XeSS, che come resa son molto simili (un leggero ghosting in più per l'ultimo), mentre FSR si riconosce a colpo d'occhio perché tende a rendere l'immagine più nitida e contrastata nei primi piani, mentre negli sfondi compare sempre un pochino di flickering in più (nulla di eccessivo eh), inoltre anche la resa del "fumo" su FSR è diversa rispetto a DLSS e XeSS, e tutto ad impostazioni di default, senza aumentare o diminuire nitidezza o applicare altri filtri ovviamente.
Personalmente una simil 7900XT, con 16 GB di vram, consumi intorno ai 200W con prestazioni RT aggiornate ad un prezzo compreso tra i 500-600€ potrebbe effettivamente essere interessante, ma più che con nVidia, andrà a scontrarsi con la nuova gen di vga Intel, e detto francamente, se la Intel avrà prestazioni da 7900GRE-XT ad un prezzo inferiore, potrebbe seriamente rubare mercato ad AMD e scatenare una "guerra dei poveri" che finalmente potrebbe giovare a noi gamers che non ci interessa avere la VGA top di gamma ma bensì quella col miglior rapporto prezzo/performance. ;)

Vik94
12-06-2024, 22:53
Una 7900 GRE con RT migliore, ecco il progresso :asd:

Mo il rt va pagato a peso d'oro? Non dovrebbe esserw qualcosa di scontato, insieme al progresso in raster?
Stai a vedere allora che i prezzi superiori delle nvidia sono giusti, perchè danno effettivamente di più.

Ale55andr0
13-06-2024, 09:26
Ma seriamente vedete differenze fra DLSS/FSR off e on..?

Quanto vorrei farvi fare blind tests...

Fra nativa e upscaler decisamente si', fra i due, dipende dal gioco, posto che è un leva di qua e metti di la, l'fsr in generale pare più dettagliato a primo impatto, ma in lontananza flickera, il dlss è più tendente al "morbido", ma rispetto la nativa è cmq non perfetto lato alias, ma dipende molto dalla scena o dall'implementazione (in alcuni giochi è fatto meglio: in CP2077 mi faceva schifo, in horizon zero dawn era molto più pulito lato scalette ma si perdeva un po' di dettaglio fine), ma cmq meglio di fsr sul controllo del flciker in generale. IN NESSUN caso, sono migliori della nativa+AA, per i miei occhi.

Gyammy85
13-06-2024, 09:49
Fra nativa e upscaler decisamente si', fra i due, dipende dal gioco, posto che è un leva di qua e metti di la, l'fsr in generale pare più dettagliato a primo impatto, ma in lontananza flickera, il dlss è più tendente al "morbido", ma rispetto la nativa è cmq non perfetto lato alias, ma dipende molto dalla scena o dall'implementazione (in alcuni giochi è fatto meglio: in CP2077 mi faceva schifo, in horizon zero dawn era molto più pulito lato scalette ma si perdeva un po' di dettaglio fine), ma cmq meglio di fsr sul controllo del flciker in generale. IN NESSUN caso, sono migliori della nativa+AA, per i miei occhi.

C'è da dire che tutti gli engine moderni sono "sporchi" anche a nativa per via della sovrabbondanza di post process stile ue4, piace un pò a tutti questo stile e difatti nessuno lo cambia, anche hellblade 2 è così, ma in quel caso è l'enorme numero di poligoni e i filtri che lo rendono "polveroso"
FSR e DLSS hanno senso solo quando uno usa rt a mio avviso o quando non hai una vga particolarmente potente, perché passare da 120 a 160 fps non ti cambia molto se poi si vede peggio, tipo uncharted puoi giocarlo a 160 fissi cpu permettendo perché a volte non ce la fa, o a 120-140 a nativa, in fluidità e reattività perdi pochino ma almeno lo vedi sempre nitido, anche se l'implementazione dell'fsr lì è impeccabile

Cutter90
13-06-2024, 10:00
Fra nativa e upscaler decisamente si', fra i due, dipende dal gioco, posto che è un leva di qua e metti di la, l'fsr in generale pare più dettagliato a primo impatto, ma in lontananza flickera, il dlss è più tendente al "morbido", ma rispetto la nativa è cmq non perfetto lato alias, ma dipende molto dalla scena o dall'implementazione (in alcuni giochi è fatto meglio: in CP2077 mi faceva schifo, in horizon zero dawn era molto più pulito lato scalette ma si perdeva un po' di dettaglio fine), ma cmq meglio di fsr sul controllo del flciker in generale. IN NESSUN caso, sono migliori della nativa+AA, per i miei occhi.

Oh, quasi un bel commento :) . Hai corretto molto il tiro rispetto a tempo fa devo dire.
FSR in tutti i giochi provati da me, tanti, peggiora la resa rispetto al dlss. Diciamo che come qualità il dlss bilanciato è come un fsr qualità. Fsr ha problemi di flicker evidenti e gestisce i particellari con più diffcioltà.
Il dlss in alcuni giochi con TAA su schermo 55 4k migliora la resa.

Ora che c'è il TSR su U5 gli upscaler iniziano davvero ad essere tanti. Ed è un bene per me. Così tutti possono beneficiarne. Alle volte ti salvano davvero la situazione. Il Dlss ormai per me non è nemmeno considerabile come un "compromesso". la versione 3.7 è davvero eccellente. Se amd con il FSR 3.1 mantiene le promesse fatte anche quest'ultimo sarà da usare quasi sempre, almeno in 4k :)

floop
13-06-2024, 10:37
Ma seriamente vedete differenze fra DLSS/FSR off e on..?



Quanto vorrei farvi fare blind tests...Io no... Giusto forse un po' di sporcizia se metto prestazioni piuttosto che bilanciata ma è Poco roba soprattutto se poi ho 60 fps

Inviato dal mio GM1900 utilizzando Tapatalk

Vul
13-06-2024, 11:20
Io no... Giusto forse un po' di sporcizia se metto prestazioni piuttosto che bilanciata ma è Poco roba soprattutto se poi ho 60 fps

Inviato dal mio GM1900 utilizzando Tapatalk

Si appunto, soprattutto negli ultimi giochi in modalita' qualita' io non vedo differenze giuro..Tanto che devo andare a leggermi confronti dettagliati, video e screenshot per capire cosa guardare..Poi piu vanno avanti queste tecnologie piu mi sembrano pulite.

Ale55andr0
15-06-2024, 07:38
https://wccftech.com/amd-patent-unique-multi-chiplet-gpu-approach-future-rdna-architectures-three-dies/

Daytona
15-06-2024, 11:38
The patent describes the use of three different "modes" of chiplet utilization, where the difference lies in how resources are allocated and then managed ahead. The patent reveals three different models, with the first one being the "single GPU" mode, which is quite similar to how modern-day GPUs function. All the onboard chiplets will act as a single, unified processing unit, with resources shared in a collaborative environment.

The second mode is called the "independency mode", where individual chiplets would act independently, responsible for their functions through the dedicated front-end die responsible for scheduling tasks for its associated shader engine dies. The third mode is the most optimistic of them all and is called the "hybrid mode" where chiplets can act independently and co-exist as well. It leverages the benefits of both unified and independent processing, offering scalability and efficient resource utilization.

mikael84 aspettiamo te ;)

floop
15-06-2024, 13:55
https://wccftech.com/amd-patent-unique-multi-chiplet-gpu-approach-future-rdna-architectures-three-dies/

ma per le 8000 del 2024?

mikael84
15-06-2024, 16:18
The patent describes the use of three different "modes" of chiplet utilization, where the difference lies in how resources are allocated and then managed ahead. The patent reveals three different models, with the first one being the "single GPU" mode, which is quite similar to how modern-day GPUs function. All the onboard chiplets will act as a single, unified processing unit, with resources shared in a collaborative environment.

The second mode is called the "independency mode", where individual chiplets would act independently, responsible for their functions through the dedicated front-end die responsible for scheduling tasks for its associated shader engine dies. The third mode is the most optimistic of them all and is called the "hybrid mode" where chiplets can act independently and co-exist as well. It leverages the benefits of both unified and independent processing, offering scalability and efficient resource utilization.

mikael84 aspettiamo te ;)

Purtroppo quell'articolo fa giusto un riepilogo, della bozza di brevetto rilasciata da AMD nel 2022.
Dovrebbe riprendere la modalità ibrida vista in CDNA con collegamenti tramite interposer COWOS.
Su CDNA troviamo 4 AID (active interposer die), mentre sul chip del brevetto, si parla di 3 AID contenenti 3 SED (shader engine die), con un numero stimato di 1024 shader per SED, 3072 x AID e 9216/18434 in DU.

La particolarità di questo sistema, è che è possibile connettere più AID o più shader per SED.
Quindi interposer-MID (il classico I/O), numero AID x SED, il tutto collegato alla memoria in modalità già vista con navi31-21.

Ogni AID ha il suo front-end, come nelle GPU classiche, e può operare in maniera indipendente o accessibile. Per fare ciò il chip usa una larghissima banda abilitata con uno strato fisico Ultra Short Reach (USR).

Questo è un esempio di come funziona in CDNA.
https://i.postimg.cc/BZg5YtVK/xcd.png


Si parla di progetto cancellato, questo è ancora da chiarire, ma bisogna specifica che è molto complesso da realizzare e necessità di un PP avanzato, e tuttora siamo ancorati al 5-4nm che purtroppo sono abbastanza indietro come perf/watt ma soprattutto come densità.

Per entrambe le case (nvidia ed AMD, ma la stessa intel) se ne parla in continuazione, ma si continua a virare sul monolitico, lasciando il MCM solo agli ambienti HPC dove puoi investire in costi di produzione visto la fascia che vanno a ricoprire.

La speranza è quindi di vedere qualcosa di simile già a partire da navi51 con i 3nm, sfidando quella che nvidia chiama serie 6000 Rubin.

Maury
15-06-2024, 16:22
Ora che c'è il TSR su U5 gli upscaler iniziano davvero ad essere tanti. Ed è un bene per me. Così tutti possono beneficiarne. Alle volte ti salvano davvero la situazione. Il Dlss ormai per me non è nemmeno considerabile come un "compromesso". la versione 3.7 è davvero eccellente. Se amd con il FSR 3.1 mantiene le promesse fatte anche quest'ultimo sarà da usare quasi sempre, almeno in 4k :)

Sto giocando Robocop, UE5, e il TSR é superiore come pulizia d'immagine a tutti gli altri 3 upscale. Non so se questo si verifica in altri giochi U5 peró...

marbasso
15-06-2024, 17:32
Sto giocando Robocop, UE5, e il TSR é superiore come pulizia d'immagine a tutti gli altri 3 upscale. Non so se questo si verifica in altri giochi U5 peró...

Bel gioco e...visto che grafica?

Maury
15-06-2024, 17:58
Bel gioco e...visto che grafica?

Ha una grafica assurda, illuminazione, texture e mole poligonale ai vertici! Poi é molto divertente che non guasta :D

LurenZ87
15-06-2024, 17:59
Bel gioco e...visto che grafica?Eh ma solo per chi ha una diciamo "certa età" :D, che è cresciuto con RoboCop. La nuova generazione non sa nemmeno chi o cosa sia :asd:

Inviato dal mio ThinkPhone utilizzando Tapatalk

marbasso
15-06-2024, 18:03
Eh ma solo per chi ha una diciamo "certa età" :D, che è cresciuto con RoboCop. La nuova generazione non sa nemmeno chi o cosa sia :asd:

Inviato dal mio ThinkPhone utilizzando Tapatalk

E già, però per me è un piccolo capolavoro.

ghiltanas
16-06-2024, 09:28
https://wccftech.com/amd-radeon-800m-igpus-16-rdna-3-5-cores-over-3600-points-3dmark-time-spy-close-to-rtx-2050/

Personalmente non vedo l'ora esca la nuova gen di handheld :D

ionet
16-06-2024, 12:13
Strix-Point e' un po troppo per gli handheld, amd sta preparando un chip ridotto piu' adeguato per loro, Kraken-Point

https://videocardz.com/newz/amd-adds-gfx1152-kraken-point-apu-with-rdna3-5-graphics-to-open-source-linux-drivers

ghiltanas
16-06-2024, 13:29
In realtà visto che il tdp è molto configurabile, spero non vadano di Kraken appunto, che come cu è piuttosto ridotto rispetto a strixpoint

ionet
16-06-2024, 16:01
il tdp lo tagli, non e' quello il problema, ma che senso ha consumare silicio prezioso con una sku di livello alto per poi andare di mannaia

ricordo la mediocre differenza che c'era tra una z1 vs z1 extreme..
inutile sprecare risorse se non scala, e kraken dovrebbe essere piu' equilibrato allo scopo

poi sicuramente rilasceranno handheld con strix, ma sicuramente la qualita' percepita su uno schermo ridotto simile, bassa autonomia e/o maggior batteria/peso/costi.. non lo renderanno ideale per tale scopo:stordita:

Daytona
16-06-2024, 18:51
Purtroppo quell'articolo fa giusto un riepilogo, della bozza di brevetto rilasciata da AMD nel 2022.
Dovrebbe riprendere la modalità ibrida vista in CDNA con collegamenti tramite interposer COWOS.
Su CDNA troviamo 4 AID (active interposer die), mentre sul chip del brevetto, si parla di 3 AID contenenti 3 SED (shader engine die), con un numero stimato di 1024 shader per SED, 3072 x AID e 9216/18434 in DU.

La particolarità di questo sistema, è che è possibile connettere più AID o più shader per SED.
Quindi interposer-MID (il classico I/O), numero AID x SED, il tutto collegato alla memoria in modalità già vista con navi31-21.

Ogni AID ha il suo front-end, come nelle GPU classiche, e può operare in maniera indipendente o accessibile. Per fare ciò il chip usa una larghissima banda abilitata con uno strato fisico Ultra Short Reach (USR).

Questo è un esempio di come funziona in CDNA.
https://i.postimg.cc/BZg5YtVK/xcd.png


Si parla di progetto cancellato, questo è ancora da chiarire, ma bisogna specifica che è molto complesso da realizzare e necessità di un PP avanzato, e tuttora siamo ancorati al 5-4nm che purtroppo sono abbastanza indietro come perf/watt ma soprattutto come densità.

Per entrambe le case (nvidia ed AMD, ma la stessa intel) se ne parla in continuazione, ma si continua a virare sul monolitico, lasciando il MCM solo agli ambienti HPC dove puoi investire in costi di produzione visto la fascia che vanno a ricoprire.

La speranza è quindi di vedere qualcosa di simile già a partire da navi51 con i 3nm, sfidando quella che nvidia chiama serie 6000 Rubin.


è sempre un piacere leggerti ... Thanks :mano: