PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 [386] 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467

LurenZ87
01-04-2023, 08:42
Nono spetta, da neo possessore della 3070 posso dirti in poche parole che è una scheda con le "gambe spezzate", ossia ha la potenza necessaria per farmi girare i titoli in 4K con DLSS e le impostazioni al massimo, però in determinati giochi/contesti mi va in saturazione la vram e tanti saluti. Esempio in Chernobylite Enhanced Edition, supera abbondantemente i 60fps (media di 80fps e oltre) nel benchmark in 4K DLSS su Ultra, però se attivo il Ray Tracing (scendono sui 45fps), anche al minimo, mi va in saturazione e gli fps crollano a 3/4. Quindi no, se avesse avuto almeno 2 o 4Gb in più sarebbe stata molto più equilibrata (poi forse sarebbe andata ugualmente in saturazione, è tutto da vedere).

Personalmente se dovessi comprare una nuova vga, non comprerei nulla sotto i 16gb.

Inviato dal mio Pixel 7 utilizzando Tapatalk

eXeS
01-04-2023, 09:39
Nono spetta, da neo possessore della 3070 posso dirti in poche parole che è una scheda con le "gambe spezzate", ossia ha la potenza necessaria per farmi girare i titoli in 4K con DLSS e le impostazioni al massimo, però in determinati giochi/contesti mi va in saturazione la vram e tanti saluti. Esempio in Chernobylite Enhanced Edition, supera abbondantemente i 60fps (media di 80fps e oltre) nel benchmark in 4K DLSS su Ultra, però se attivo il Ray Tracing (scendono sui 45fps), anche al minimo, mi va in saturazione e gli fps crollano a 3/4. Quindi no, se avesse avuto almeno 2 o 4Gb in più sarebbe stata molto più equilibrata (poi forse sarebbe andata ugualmente in saturazione, è tutto da vedere).

Personalmente se dovessi comprare una nuova vga, non comprerei nulla sotto i 16gb.

Inviato dal mio Pixel 7 utilizzando Tapatalk
Quando furono presentate le Ampere, la 3080 era per il 4K, la 3090 per l'8K :D :D :D mentre la 3070 per risoluzioni inferiori, quindi si, è una scheda con le "gambe spezzate" ma i 4K non erano il suo target ;)

StylezZz`
01-04-2023, 09:48
Ma mediocre mi pare eccessivo.

Le texture tra alto ultra megagalattico e ipersonico spesso sono le solite , e in casi come hogwards pure a tenerle su low il problema della saturazione della memoria c'era.

Li il problema è la programmazione . O compri una 4090\4080 o aspetti un fix.

Io non mi fascerei troppo la testa , e piuttosto eviterei di voler comprare giochi al d1 perche hanno veramente rotto le scatole.

Ancora devo vedere un gioco con delle texture belle da giustificare la saturazione. Mi aspetto minimo una roba come la demo di unreal 5 per mettere davvero in crisi ampere.

Confermo, perora sul tubo vedo tantissimi video dove si parla della fine degli 8GB o addirittura 10GB della 3080 come se non fosse più possibile giocarci, e tutto questo dramma basandosi su giochi come appunto TLOU mal ottimizzati.

Certo nessuno mette in dubbio che sia stato un quantitativo tirato da presentare nel 2020, e posso immaginare lo scontento di chi ha pagato anche più del prezzo msrp, ma vedo che molti youtubers al momento ci marciano su questo argomento enfatizzando la cosa. Prendo come esempio lo youtuber Daniel Owen che seguo, ma che per i miei gusti è un po' troppo ''rosso''...di recente ha fatto alcuni video dove prova una 3070 Ti su RE4 Remake, e ha fatto giustamente notare che appena si attiva il raytracing il gioco crasha. Ora, questo è un problema che affligge soprattutto le gpu nvidia, ma nel video ha impostato la cosa come se fossero gli 8GB la causa, quando invece può crashare anche con una 4090 :doh: poco male, il raytracing su RE4 è una buffonata, si disattiva e si spara tutto al massimo saturando la VRAM, e il gioco fila comunque liscio :rolleyes:

Nono spetta, da neo possessore della 3070 posso dirti in poche parole che è una scheda con le "gambe spezzate", ossia ha la potenza necessaria per farmi girare i titoli in 4K con DLSS e le impostazioni al massimo, però in determinati giochi/contesti mi va in saturazione la vram e tanti saluti. Esempio in Chernobylite Enhanced Edition, supera abbondantemente i 60fps (media di 80fps e oltre) nel benchmark in 4K DLSS su Ultra, però se attivo il Ray Tracing (scendono sui 45fps), anche al minimo, mi va in saturazione e gli fps crollano a 3/4. Quindi no, se avesse avuto almeno 2 o 4Gb in più sarebbe stata molto più equilibrata (poi forse sarebbe andata ugualmente in saturazione, è tutto da vedere).

Personalmente se dovessi comprare una nuova vga, non comprerei nulla sotto i 16gb

Purtroppo la 3070 non è la scheda giusta per giocare gli ultimi giochi in 4k, il suo target principale è sempre stato 1080p/1440p, avresti dovuto puntare almeno a una 3080 o 6800 XT.

LurenZ87
01-04-2023, 10:01
Quando furono presentate le Ampere, la 3080 era per il 4K, la 3090 per l'8K :D :D :D mentre la 3070 per risoluzioni inferiori, quindi si, è una scheda con le "gambe spezzate" ma i 4K non erano il suo target ;)

Sisi questo lo sapevo :), ma volevo provare il DLSS rispetto all'FSR prima di tutto e poi l'RT.


Purtroppo la 3070 non è la scheda giusta per giocare gli ultimi giochi in 4k, il suo target principale è sempre stato 1080p/1440p, avresti dovuto puntare almeno a una 3080 o 6800 XT.

La questione è che non volevo spenderci tanto oltre ai motivi di sopra, quindi tolgo qualcosa e vivo sereno :). Esempio mi son giocato Atomic Heart in 4K DLSS tutto sparato con una grafica pazzesca e senza problemi di vram.

Se proprio devo cambiare, come ho detto, punto su qualcosa con almeno 16gb per non avere problemi.

Inviato dal mio Pixel 7 utilizzando Tapatalk

EffeX
01-04-2023, 11:51
Atomic Heart è forse l'unico titolo che ricordo uscito negli ultimi 2 anni ben ottimizzato al d1.
Per essere un UE4 customizzato ha un'ottima grafica e ottime performance.
Sul resto come già detto TLOU non è il primo gioco che satura 8 GB di ram, siamo onesti: 8 GB è dal 2016 con la 1080 che sono sul mercato, siamo nel 2023, secondo me 8 GB dovrebbero essere relegati solo alle fasce basse, già una 4060 con 8 GB non si può sentire, e tantomeno una 4070Ti con 12 GB, che se poi pensiamo che sarebbe dovuta essere la 4080 12 GB, diventa ancora più raccapricciante.
Fossero schede che al massimo fossero costate 800€ partendo dalla 4080 (non considero la x90 essendo la ex Titan) a scendere, allora il discorso poteva anche essere giustificato, ma schede con prezzo sul range dei 900-1000€ con neanche 16 GB di ram per me sono senza senso nel 2023 e non giustificabili.

mikael84
01-04-2023, 12:02
La miglior scheda Ampere, a parer mio è stata la 3080 12. Costava mediamente come la 3080 liscia, ed anche lato ram è abbastanza valida, anche per un 4k discreto.

EffeX
01-04-2023, 12:07
La miglior scheda Ampere, a parer mio è stata la 3080 12. Costava mediamente come la 3080 liscia, ed anche lato ram è abbastanza valida, anche per un 4k discreto.

Concordo in pieno, chi è riuscito ad acquistarla senza sovrapprezzi mostruosi è già 2 anni che gioca alla grande e penso che in 1440p potrà andare ancora avanti più che bene con qualsiasi gioco anche senza DLSS3.
Peccato che sia stata prodotta in volumi molto ridotti per dare spazio alla più costosa 3080Ti (che poi si differenziano nemmeno un 5% sulle performance ma il prezzo ovviamente no).

X360X
01-04-2023, 12:34
La 3070 non è pensata da 4K (ci si può giocare ma rende meno, non vale propriamente la pena) ed è di 3 anni fa

La gente in qhd ha fatto mille giochi alla grande senza lamentarsi, ora se un gioco è rotto o ha un'opzione che bisogna metterla al massimo sennò ci si sente male non credo proprio la sminuisca.

La 3080 doveva averne minimo 12 quello si, e devono averne più le nuove quello si

Ubro92
01-04-2023, 12:59
Nono spetta, da neo possessore della 3070 posso dirti in poche parole che è una scheda con le "gambe spezzate", ossia ha la potenza necessaria per farmi girare i titoli in 4K con DLSS e le impostazioni al massimo, però in determinati giochi/contesti mi va in saturazione la vram e tanti saluti. Esempio in Chernobylite Enhanced Edition, supera abbondantemente i 60fps (media di 80fps e oltre) nel benchmark in 4K DLSS su Ultra, però se attivo il Ray Tracing (scendono sui 45fps), anche al minimo, mi va in saturazione e gli fps crollano a 3/4. Quindi no, se avesse avuto almeno 2 o 4Gb in più sarebbe stata molto più equilibrata (poi forse sarebbe andata ugualmente in saturazione, è tutto da vedere).

Personalmente se dovessi comprare una nuova vga, non comprerei nulla sotto i 16gb.

Inviato dal mio Pixel 7 utilizzando Tapatalk

Il 4K non è il suo target, rimanendo nella soglia del 1440p schede come 2080s e 3060ti si comportano discretamente bene con quel titolo.

Come framerate da quello che vedo non è che la 2080ti di discosti più di tanto dai tuoi valori:

https://it.gamegpu.com/azione-/-fps-/-tps/chernobylite-prova-gpu-cpu

A 1440p alloca in quel titolo circa 8.5gb di vram, mentre in 4K ne alloca circa 9.8gb, sicuramente avere almeno 10GB da più respiro in questi casi rispetto la 3070, osservando la ram l'occupazione per la 2080 in 4K sale a 9.4gb rispetto gli 8GB di 2080ti, ma fino ai 1440p non cambia proprio nulla.

Nel complesso in 4K siamo ai limiti con 8GB, ma alla fine neanche la 2080ti tiene i 60fps, e a mio parere per avere un'esperienza migliore in 4k osservando anche il frame ti serve una 3080 almeno, schede come 2080/3060ti/2080ti/3070 per me possono al massimo gestire un pannello 3440x1440 con qualche compromesso, ma il 4k è fuori portata se non utlizzando DLSS quality o con titoli poco esosi.

EffeX
01-04-2023, 13:08
Porto l'esempio di Deathloop che non è uscito oggi, 1440p, tutti i settings al massimo con RT on e FSR Quality.

https://i.ibb.co/yFgPhFD/20221230-214233.jpg (https://ibb.co/F483s49)

Ps: Io ero il primo convinto che 8 GB bastassero ancora in 2K prima di cambiare la 3070Ti.

X360X
01-04-2023, 13:22
Porto l'esempio di Deathloop che non è uscito oggi, 1440p, tutti i settings al massimo con RT on e FSR Quality.

https://i.ibb.co/yFgPhFD/20221230-214233.jpg (https://ibb.co/F483s49)

Ps: Io ero il primo convinto che 8 GB bastassero ancora in 2K prima di cambiare la 3070Ti.


se vuoi ti passo uno screen con warzone in fullhd a dettagli bassi che ne alloca 12 sulla 6700XT. Ma ti svelo un segreto: una 6800XT con 8 la distruggerebbe lo stesso.

qua è max settings senza RT ma senza FSR\DLSS
https://tpucdn.com/review/intel-arc-a770/images/deathloop-2560-1440.png

fraussantin
01-04-2023, 13:24
Porto l'esempio di Deathloop che non è uscito oggi, 1440p, tutti i settings al massimo con RT on e FSR Quality.



https://i.ibb.co/yFgPhFD/20221230-214233.jpg (https://ibb.co/F483s49)



Ps: Io ero il primo convinto che 8 GB bastassero ancora in 2K prima di cambiare la 3070Ti.

Ma non c'entra niente.

Se gli da 48 giga è probabile che qualche gioco dopo un po se li prenda tutti lo stesso.

Bisogna vedere se effettivamente servono e danno benefici o solo se il gioco ci butta roba e non la.toglie perche tanto c'r spazio

StylezZz`
01-04-2023, 13:27
Porto l'esempio di Deathloop che non è uscito oggi, 1440p, tutti i settings al massimo con RT on e FSR Quality.

Ps: Io ero il primo convinto che 8 GB bastassero ancora in 2K prima di cambiare la 3070Ti.


Senza raytracing (che è tanto per figura in questo gioco) quanta vram ti occupa? In ogni caso il gioco rimane giocabile eh, una 3070 Ti offre comunque prestazioni superiori alla A770, al massimo puoi avere qualche fenomeno di stuttering se saturi gli 8GB.

EffeX
01-04-2023, 13:30
se vuoi ti passo uno screen con warzone in fullhd a dettagli bassi che ne alloca 12 sulla 6700XT. Ma ti svelo un segreto: una 6800XT con 8 la distruggerebbe lo stesso.

qua è max settings senza RT ma senza FSR\DLSS
https://tpucdn.com/review/intel-arc-a770/images/deathloop-2560-1440.png

Qui test son stati fatti al lancio, coi nuovi driver la situazione sta migliorando di release in release ma nessuna testata ogni mese può rifare tutti i test.
Comunque il discorso è che a parità di frame, la 3070Ti ne generava di più ma dopo 10 minuti iniziava a stutterare, questa ne fa meno, ma zero stuttering, io personalmente preferisco 10 fps in meno senza stuttering piuttosto che 10 fps in più ma con stuttering.

EffeX
01-04-2023, 13:36
Ma non c'entra niente.

Se gli da 48 giga è probabile che qualche gioco dopo un po se li prenda tutti lo stesso.

Bisogna vedere se effettivamente servono e danno benefici o solo se il gioco ci butta roba e non la.toglie perche tanto c'r spazio

Senza raytracing (che è tanto per figura in questo gioco) quanta vram ti occupa? In ogni caso il gioco rimane giocabile eh, una 3070 Ti offre comunque prestazioni superiori alla A770, al massimo puoi avere qualche fenomeno di stuttering se saturi gli 8GB.

Quasi sicuramente è ram allocata, però avendo avuto la 3070Ti dopo circa 10-15 minuti di gioco iniziava la fiera dello stuttering, per ovviare dovevo disattivare il RT, con conseguente diminuzione della vram utilizzata.
Il punto è che sia che le Ampere che le Ada sono ottime schede parlando lato chip, ma castrate pesantemente dal quantitativo di vram installato a bordo. Se pago una vga più di 600 o 700 euro solitamente me la faccio bastare per 4 anni, in questo caso con 8 GB ho preferito vendere la 3070Ti e recuperare la spesa senza perderci troppo perché averla tenuta altri 2 anni mi avrebbe inevitabilmente costretto a scendere a compromessi con le texture, ripeto, per me è inutile fare 90 o 100 fps con stuttering a tutto spiano o texture caricate in ritardo, preferisco farne 70 ma stabili.

Ubro92
01-04-2023, 13:37
Io stavo guardando un pò di video di deatloop con settings al massimo e francamente aldilà di tutto non mi capacito come quella qualità delle texture possa richiedere tutta quella vram...

Mi sembra oggettivamente fatto con piedi...

X360X
01-04-2023, 13:38
Qui test son stati fatti al lancio, coi nuovi driver la situazione sta migliorando di release in release ma nessuna testata ogni mese può rifare tutti i test.
Comunque il discorso è che a parità di frame, la 3070Ti ne generava di più ma dopo 10 minuti iniziava a stutterare, questa ne fa meno, ma zero stuttering, io personalmente preferisco 10 fps in meno senza stuttering piuttosto che 10 fps in più ma con stuttering.

La 3070Ti batte facile (e non solo di 10 frames) la Intel su quasi tutti i giochi senza stutterare mai in qhd, questo è il mondo reale al di là degli ovvi miglioramenti durante questa sorta di betatesting di Intel. Un downgrade evidente per avere più VRAM anche no, per avere più potenza e più VRAM allora si.

però se tu dici che Deathloop praticamente in fullhd (perché stai giocando con fsr quality, non a nativa) con RT vuole più di 8GB di VRAM senno stuttera ok, allora non ci gioca con RT in fullhd nemmeno chi ha la 3070Ti 8GB (ma anche la 3080 10GB visto che te ne occupa di più), mi pare un po' strano se permetti. in RT è un gioco inusabile se non per Intel che però è scarsina di suo?

StylezZz`
01-04-2023, 13:50
Quasi sicuramente è ram allocata, però avendo avuto la 3070Ti dopo circa 10-15 minuti di gioco iniziava la fiera dello stuttering, per ovviare dovevo disattivare il RT, con conseguente diminuzione della vram utilizzata.
Il punto è che sia che le Ampere che le Ada sono ottime schede parlando lato chip, ma castrate pesantemente dal quantitativo di vram installato a bordo. Se pago una vga più di 600 o 700 euro solitamente me la faccio bastare per 4 anni, in questo caso con 8 GB ho preferito vendere la 3070Ti e recuperare la spesa senza perderci troppo perché averla tenuta altri 2 anni mi avrebbe inevitabilmente costretto a scendere a compromessi con le texture, ripeto, per me è inutile fare 90 o 100 fps con stuttering a tutto spiano o texture caricate in ritardo, preferisco farne 70 ma stabili.

Ok problema risolto, se ne fa volentieri a meno su quel gioco.

Comunque sono d'accordo sul discorso prezzo, la mia 3070 l'ho pagata msrp (oltre al fatto che ho rivenduto la 2070 Super di più), quindi nel mio caso chiudo un occhio sugli 8GB e me la faccio durare quei 4-5 anni (e poi la passo nel muletto), ma come ho scritto nel mio post precedente, posso capire chi invece ha speso determinate cifre per avere un quantitativo di VRAM limitato, girerebbero anche a me se avessi speso più di 700€ per ritrovarmi la gpu ''limitata''.

EffeX
01-04-2023, 13:55
La 3070Ti batte facile (e non solo di 10 frames) la Intel su quasi tutti i giochi senza stutterare mai in qhd, questo è il mondo reale al di là degli ovvi miglioramenti durante questa sorta di betatesting di Intel. Un downgrade evidente per avere più VRAM anche no, per avere più potenza e più VRAM allora si.

però se tu dici che Deathloop praticamente in fullhd (perché stai giocando con fsr quality, non a nativa) con RT vuole più di 8GB di VRAM senno stuttera ok, allora non ci gioca con RT in fullhd nemmeno chi ha la 3080 8GB, mi pare un po' strano se permetti. in RT è un gioco inusabile se non per Intel che però è scarsina di suo?

Lascia stare il fatto che sia Intel o meno, ho sempre avuto schede verdi, ma le ultime due serie lato ram e prezzi mi hanno spinto a optare per una nuova soluzione, il downgrade evidente è relativo, fare 70-80 fps e farne 100-110 a me non crea grossa differenza non giocando a competitivi, a me interessa il frametime e l'assenza di stuttering, con la 3070Ti avevo problemi di caricamento texture e stuttering con Horizon zero dawn, Deathloop e drop frame pazzeschi con Forza Horizon 5 in 1440p con dettagli alti - ultra.
Con questa faccio meno fps, ma più stabili ed è quello che cercavo per i giochi che uso in questo momento.
Ho ovviamente valutato anche le rosse, ma ho preferito "premiare" un prodotto nuovo con maggior margine di miglioramento driver piuttosto che schede già sul mercato da più di un anno con driver già spremuti. :)
Ah, la 3070Ti era una founders, non una basic.

https://i.ibb.co/cNVnJGr/20221126-085038.jpg (https://ibb.co/wKjmy9z)
https://i.ibb.co/x7202XK/20221019-213330.jpg (https://ibb.co/qrDfD7L)
https://i.ibb.co/Bf1XX9b/20221124-175706.jpg (https://ibb.co/4FQ66Hz)

LurenZ87
01-04-2023, 14:17
Il 4K non è il suo target, rimanendo nella soglia del 1440p schede come 2080s e 3060ti si comportano discretamente bene con quel titolo.

Come framerate da quello che vedo non è che la 2080ti di discosti più di tanto dai tuoi valori:

https://it.gamegpu.com/azione-/-fps-/-tps/chernobylite-prova-gpu-cpu

A 1440p alloca in quel titolo circa 8.5gb di vram, mentre in 4K ne alloca circa 9.8gb, sicuramente avere almeno 10GB da più respiro in questi casi rispetto la 3070, osservando la ram l'occupazione per la 2080 in 4K sale a 9.4gb rispetto gli 8GB di 2080ti, ma fino ai 1440p non cambia proprio nulla.

Nel complesso in 4K siamo ai limiti con 8GB, ma alla fine neanche la 2080ti tiene i 60fps, e a mio parere per avere un'esperienza migliore in 4k osservando anche il frame ti serve una 3080 almeno, schede come 2080/3060ti/2080ti/3070 per me possono al massimo gestire un pannello 3440x1440 con qualche compromesso, ma il 4k è fuori portata se non utlizzando DLSS quality o con titoli poco esosi.Si ovvio, io la uso con il DLSS senno il 4k non lo gestisce nemmeno per idea, il problema che con la vram stiamo a limite. Però c'è da dire che la versione che sto usando è la Enhanced Edition che è migliorata e più "raffinata" a livello di ottimizzazione.

Inviato dal mio Pixel 7 utilizzando Tapatalk

X360X
01-04-2023, 14:22
Lascia stare il fatto che sia Intel o meno, ho sempre avuto schede verdi, ma le ultime due serie lato ram e prezzi mi hanno spinto a optare per una nuova soluzione, il downgrade evidente è relativo, fare 70-80 fps e farne 100-110 a me non crea grossa differenza non giocando a competitivi, a me interessa il frametime e l'assenza di stuttering, con la 3070Ti avevo problemi di caricamento texture e stuttering con Horizon zero dawn, Deathloop e drop frame pazzeschi con Forza Horizon 5 in 1440p con dettagli alti - ultra.
Con questa faccio meno fps, ma più stabili ed è quello che cercavo per i giochi che uso in questo momento.
Ho ovviamente valutato anche le rosse, ma ho preferito "premiare" un prodotto nuovo con maggior margine di miglioramento driver piuttosto che schede già sul mercato da più di un anno con driver già spremuti. :)
Ah, la 3070Ti era una founders, non una basic.


se tu mi dici che giocando a Forza Horizon 5 al massimo dei dettagli in qhd nativo hai visto dei drop io dico che è possibile, magari settato così può succedere. Anche con 16GB di RAM esiste la possibilità

Ma deathloop in qhd con fsr che stuttera se metti RT? allora fa parte dei giochi con RT rotto nel caso, non è giustificato in nessun modo

EffeX
01-04-2023, 16:04
se tu mi dici che giocando a Forza Horizon 5 al massimo dei dettagli in qhd nativo hai visto dei drop io dico che è possibile, magari settato così può succedere. Anche con 16GB di RAM esiste la possibilità

Ma deathloop in qhd con fsr che stuttera se metti RT? allora fa parte dei giochi con RT rotto nel caso, non è giustificato in nessun modo

Sicuramente Deathloop all'uscita era ottimizzato a pene di segugio, con le patch la situazione è migliorata sensibilmente.
Il fatto è che ultimamente trovo che le software house facciano uscire giochi mal ottimizzati perché tanto c'è dlss, fsr, 16 GB di ram e pure 24 per la 3090 per dire, quindi secondo loro chi ha meno di 10 GB di ram basta che giochi a dettagli medi ed il problema è risolto.
A me personalmente però spendere neanche 2 anni fa 650€ per avere una scheda che per far andare bene alcuni giochi devo mettere texture su medio o basso mi fa girare un pochino le pelotas. :rolleyes:

Ubro92
01-04-2023, 20:53
Sicuramente Deathloop all'uscita era ottimizzato a pene di segugio, con le patch la situazione è migliorata sensibilmente.

Il fatto è che ultimamente trovo che le software house facciano uscire giochi mal ottimizzati perché tanto c'è dlss, fsr, 16 GB di ram e pure 24 per la 3090 per dire, quindi secondo loro chi ha meno di 10 GB di ram basta che giochi a dettagli medi ed il problema è risolto.

A me personalmente però spendere neanche 2 anni fa 650€ per avere una scheda che per far andare bene alcuni giochi devo mettere texture su medio o basso mi fa girare un pochino le pelotas. :rolleyes:Penso sia solo una questione di scadenze, molte sh vengono messe alla corda sui tempi di rilascio.

Poi cercano di mettere le pezze con le patch...

Ancora peggio quando implementano a forza features che il motore originale non prevedeva.

Inviato dal mio M2012K11AG utilizzando Tapatalk

EffeX
01-04-2023, 21:47
Penso sia solo una questione di scadenze, molte sh vengono messe alla corda sui tempi di rilascio.

Poi cercano di mettere le pezze con le patch...

Ancora peggio quando implementano a forza features che il motore originale non prevedeva.

Inviato dal mio M2012K11AG utilizzando Tapatalk

È vero, però sta diventando lo standard fare uscire giochi non ottimizzati, e visto che comunque noi utenti finali i giochi li paghiamo per intero, non per programmati a metà, non la trovo una cosa corretta: così facendo unito ai prezzi schizzati alle stelle delle vga dopo la pandemia, il gamig su pc non so che piega prenderà.
Detto francamente spero che Nvidia con Blackwell riveda la sua politica sui prezzi, ma temo che ormai a Huang freghi poco dell'utenza pc, il suo core buisness si sta spostando sull'accelerazione delle AI, non è più solo vga...

mikael84
02-04-2023, 00:19
È vero, però sta diventando lo standard fare uscire giochi non ottimizzati, e visto che comunque noi utenti finali i giochi li paghiamo per intero, non per programmati a metà, non la trovo una cosa corretta: così facendo unito ai prezzi schizzati alle stelle delle vga dopo la pandemia, il gamig su pc non so che piega prenderà.
Detto francamente spero che Nvidia con Blackwell riveda la sua politica sui prezzi, ma temo che ormai a Huang freghi poco dell'utenza pc, il suo core buisness si sta spostando sull'accelerazione delle AI, non è più solo vga...

Non succederà, aumenta ancora il wafer. Ormai portare anche un misero 300mm2 costa.
Ci sono schede con margine sproporzionato come la 4080, dove i costi sono un pelino superiori alle x70 (parliamo di qualche decina di $), ma in fascia bassa, si andrà sempre a peggiorare.

ColdWarGuy
02-04-2023, 01:10
Non succederà, aumenta ancora il wafer. Ormai portare anche un misero 300mm2 costa.
Ci sono schede con margine sproporzionato come la 4080, dove i costi sono un pelino superiori alle x70 (parliamo di qualche decina di $), ma in fascia bassa, si andrà sempre a peggiorare.

Al di là di tutto, dalla 4070 Ti in giù c'è un'evidente castrazione markettara su quantità di VRAM e larghezza del BUS, spendere ora un millino per poi trovarsi a breve termine castrati per via della memoria sarebbe la vera beffa dopo il danno (di portafoglio).

Per giustificare prezzi premium la schede devono essere inattaccabili, attualmente solo le 4090 ed in parte le 4080 soddisfano questo requisito, tutto il resto non solo è overpriced ma rischia di essere molto poco future proof.

Più ci penso e più il KILO per la 4070 Ti non ce lo vedo.

fraussantin
02-04-2023, 05:37
Non succederà, aumenta ancora il wafer. Ormai portare anche un misero 300mm2 costa.

Ci sono schede con margine sproporzionato come la 4080, dove i costi sono un pelino superiori alle x70 (parliamo di qualche decina di $), ma in fascia bassa, si andrà sempre a peggiorare.Però il margine è abbondante ma se le vendite non vanno come sperano , e non stanno andando, gli azionisti nel lungo termine potrebbero anche considerare che sia una scelta sbagliata , "fare i preziosi".
Ora il titolo sta salendo , ma bisognerebbe vedere effettivamente se nvidia riesce a sbolognare il silicio che doveva andare al gaming in altri campi . Tipo datacenter o pro.

Poi gli è girata anche di culo che amd non ha risposto aggressivamente come in passato.

OrazioOC
02-04-2023, 10:10
Però il margine è abbondante ma se le vendite non vanno come sperano , e non stanno andando, gli azionisti nel lungo termine potrebbero anche considerare che sia una scelta sbagliata , "fare i preziosi".
Ora il titolo sta salendo , ma bisognerebbe vedere effettivamente se nvidia riesce a sbolognare il silicio che doveva andare al gaming in altri campi . Tipo datacenter o pro.

Poi gli è girata anche di culo che amd non ha risposto aggressivamente come in passato.

Nvidia deve stare attenta a fare la preziosa, perchè se 4090 e in parte 4080 non hanno concorrenza, dalla 4070 ti in giù tra le vecchie ampere(che iniziano ad avere finalmente prezzi in linea al listino) e le radeon rdna2/3 le alternative ci sono.
Se nvidia pensa di fare la preziosa con una simil 3070(aka rtx 4060 ti 8gb) a 500 e passa euro gli rimarranno sul gozzo.

Su amd stendo un velo pietoso, sembra essere ritornato l'rtg di qualche anno fa del periodo pre RDNA, soliti silenzi, soliti lanci sporadici di prodotti fatti a convenienza. :rolleyes:
Anche se c'è da dire che su un'eventuale 7900 xt a 8/900 euro non ci sputerei sopra, vram a volontà e negli ultimi titoli si presenta decisamente meglio che non a dicembre quando è stata lanciata. :O

Dono89
02-04-2023, 10:53
Non succederà, aumenta ancora il wafer. Ormai portare anche un misero 300mm2 costa.
Ci sono schede con margine sproporzionato come la 4080, dove i costi sono un pelino superiori alle x70 (parliamo di qualche decina di $), ma in fascia bassa, si andrà sempre a peggiorare.


Se ripiegasse su Samsung come è stato con le 3000 dici che non c'è speranza?

Te lo chiedo perché pensavo alla 5070, da vedere poi specifiche, ma se l'andazzo è questo e dici pure che sarà peggio che le 4000 è un problema

Kvarat
02-04-2023, 12:04
Al di là di tutto, dalla 4070 Ti in giù c'è un'evidente castrazione markettara su quantità di VRAM e larghezza del BUS, spendere ora un millino per poi trovarsi a breve termine castrati per via della memoria sarebbe la vera beffa dopo il danno (di portafoglio).

Per giustificare prezzi premium la schede devono essere inattaccabili, attualmente solo le 4090 ed in parte le 4080 soddisfano questo requisito, tutto il resto non solo è overpriced ma rischia di essere molto poco future proof.

Più ci penso e più il KILO per la 4070 Ti non ce lo vedo.

Quello che sta succedendo è molto chiaro. Probabilmente le schede dovevano avere ben altre prestazioni sin dalla 4090. Infatti lo noti dai dissipatori usati. Durante lo sviluppo e i primi test su strada si sono accorti di avere dei mostri e che castrandole un pò ci facevano 2 generazioni. Quindi anche prezzandole alte e vendendo un pò meno avrebbero comunque sotto mano già le prossime schede. Basterà alzare bus e ram e il gioco è fatto.

mikael84
02-04-2023, 12:05
Al di là di tutto, dalla 4070 Ti in giù c'è un'evidente castrazione markettara su quantità di VRAM e larghezza del BUS, spendere ora un millino per poi trovarsi a breve termine castrati per via della memoria sarebbe la vera beffa dopo il danno (di portafoglio).

Per giustificare prezzi premium la schede devono essere inattaccabili, attualmente solo le 4090 ed in parte le 4080 soddisfano questo requisito, tutto il resto non solo è overpriced ma rischia di essere molto poco future proof.

Più ci penso e più il KILO per la 4070 Ti non ce lo vedo.

Di base, la serie x60 è una x50 che gode del clock, come lo è la x70. Anche la x80 non è una vera x80.
Purtroppo, se la 4080 ed in parte anche la 4070ti, sono overprezzate, la x70, non poteva chiamarla x60 e metterla ai classici prezzi, in quanto li, ci si comincia ad imbatterci con i costi.

Fisicamente, nella fascia da 2-300 euro con i nuovi PP, sta diventando un reale problema.
Nell'esempio che ho fatto, una 4070 liscia, gli costa quasi 200$ solo di die e ram, a questo devi aggiungere il dissipatore, pcb (pochezze), quota R&D, packaging, calcolo margine AIB etc.
Considera anche che l'AIB ha spese superiori legati ai die.



Però il margine è abbondante ma se le vendite non vanno come sperano , e non stanno andando, gli azionisti nel lungo termine potrebbero anche considerare che sia una scelta sbagliata , "fare i preziosi".
Ora il titolo sta salendo , ma bisognerebbe vedere effettivamente se nvidia riesce a sbolognare il silicio che doveva andare al gaming in altri campi . Tipo datacenter o pro.

Poi gli è girata anche di culo che amd non ha risposto aggressivamente come in passato.

Certamente, se è vero che in fascia bassa, si comincia a stare un pò stretti a margine, in fascia alta il margine è estremamente gonfiato, e sicuramente è da li che dovranno rivedere.

AMD si è semplicemente accodata ad nvidia, in quanto a pari nodo ha ben poco da offrire, e le prossime soluzioni, non porteranno a nulla. Una 7800xt a 649-699$ con perf da 6900 e abbastanza sotto la 3080 in RT, non cambierà nulla nel mercato. Al massimo accontenterà chi vuole 16gb di ram.

Il trucco di AMD per fare male i concorrenti, come con i ryzen è avere il nodo di vantaggio.

Se ripiegasse su Samsung come è stato con le 3000 dici che non c'è speranza?

Te lo chiedo perché pensavo alla 5070, da vedere poi specifiche, ma se l'andazzo è questo e dici pure che sarà peggio che le 4000 è un problema

Samsung non cambia nulla rispetto a TSMC. Non si sanno ancora i listini ufficiali, ma Ampere era più economica in quanto stava un nodo indietro, era sui 10nm non sui 7nm.
Il prezzo dei 10nm era di 6k$, dei 7nm 10k, come TSMC.

Quel nodo per noi consumatori è stato un arma a doppio taglio.

mikael84
02-04-2023, 12:39
Quello che sta succedendo è molto chiaro. Probabilmente le schede dovevano avere ben altre prestazioni sin dalla 4090. Infatti lo noti dai dissipatori usati. Durante lo sviluppo e i primi test su strada si sono accorti di avere dei mostri e che castrandole un pò ci facevano 2 generazioni. Quindi anche prezzandole alte e vendendo un pò meno avrebbero comunque sotto mano già le prossime schede. Basterà alzare bus e ram e il gioco è fatto.

L'alternativa di TSMC era il 4nm LPP di samsung, con boost medio di 2400, quindi di base meno perf.

Il problema di questa serie, soprattutto in fascia media e medio bassa sono i collegamenti bus.
JHH pensa le schede per campi pro ed ormai si affaccia al campo RT serio PT (vedi ser). Tra le caratteristiche troviamo l'ampia cache che occupa molto spazio sul die. E' un grosso investimento.
Bombardare il die di cache, non risolve però i collegamenti delle fasce più basse a cui a lui non interessa praticamente più niente.

Col seno di poi, sarebbero bastati appena 26mm2 di die, per dare un 256 bit ad una 4070ti-70 (quindi 16gb di ram e pieno utilizzo 4k).

Qua entra anche il grossissimo problema del nodo troppo avanzato rispetto al samsung precedente.
Se le Ampere fossero state fatte a 7nm TSMC, la 4080 sarebbe stata una 4070ti, ed avrebbe i 256bit.

ColdWarGuy
02-04-2023, 12:53
Nvidia deve stare attenta a fare la preziosa, perchè se 4090 e in parte 4080 non hanno concorrenza, dalla 4070 ti in giù tra le vecchie ampere(che iniziano ad avere finalmente prezzi in linea al listino) e le radeon rdna2/3 le alternative ci sono.
Se nvidia pensa di fare la preziosa con una simil 3070(aka rtx 4060 ti 8gb) a 500 e passa euro gli rimarranno sul gozzo.


La 4060 Ti sulla carta si sovrappone quasi perfettamente alla 3070 con il vantaggio di un minor consumo e soprattutto del supporto del DLSS 3, cavallo di battaglia dell'intera operazione 4000.

Personalmente, vista la facilità con cui sono usciti gli stipendi dai portafogli per 4080/90 ho paura che a 500 euro venderanno bene ed il "new normal" sarà consolidato per un bel pò.

Io sono abbastanza convinto che i verdi stiano spostando pesantemente la strategia di vendità verso chips per il computing dove a parità di mm2 i margini sono molto più alti, basta vedere la velocità con cui hanno coniato una versione castrata dell'H100 per l'export verso la Cina (l'H800), di conseguenza credo possano assorbire forti contrazioni dei numeri per le GPU da gamer, che però verranno (e vengono) vendute con margini decuplicati (NB : per NVIDIA, non per i board makers) agli enthusiasts.

A lato di ciò, in linea generale, lo shift verso l'alto dei prezzi dell'HW sembra inarrestabile, tanto più che ora il design estetico è in cima alla lista delle preferenze del customer medio, una volta i case si nascondevano sotto il tavolo, adesso si mettono in vetrina su ogni possibile canale mediatico.

Pareti di cristallo, led colorati, tubi con liquidi fluorescenti, display oled su dissipatori e ventole firmate sembrano essere divenuti un obbligo per ogni utente PC gamer/artista/video maker/influencer che non si fa certo problemi a copriere il mark-up addizzionale di centinaia di euro per rimanere in linea con il nuovo canone.


Su amd stendo un velo pietoso, sembra essere ritornato l'rtg di qualche anno fa del periodo pre RDNA, soliti silenzi, soliti lanci sporadici di prodotti fatti a convenienza. :rolleyes:
Anche se c'è da dire che su un'eventuale 7900 xt a 8/900 euro non ci sputerei sopra, vram a volontà e negli ultimi titoli si presenta decisamente meglio che non a dicembre quando è stata lanciata. :O

E' ovvio chd AMD è alla finestra ed stà giocando di rimessa, i tempi delle rivincite in stile HD4870 sembrano essere ormai narrativa fiabesca.

Le 7900 non sono di certo regalate ma sembrano offrire più sostanza al prezzo, anche io sarei più propenso in questo momento a dare i soldi ai rossi, resta da capire se chi è interessato alla gamma media vedrà offrirsi qualcosa di simile, in raster, ad una 4070 a max 500 euro (prezzo finito mercato italiano), altrimenti siamo da capo.

ColdWarGuy
02-04-2023, 13:10
.
-snip
Col seno di poi, sarebbero bastati appena 26mm2 di die, per dare un 256 bit ad una 4070ti-70 (quindi 16gb di ram e pieno utilizzo 4k).


Ma è esattamente questa la "castrazione markettara" a cui mi riferivo nel mio precedente post, la 4070 Ti è studiata a tavolino contro logiche tecniche per essere ne carne ne pesce e spingerti verso 4080/90 se vuoi un deciso gap verso la serie 3000.

E sono sicuramente d'accordo con il discorso che a giacchetta del nuovo segmento medio/basso da 300-600 euro non potrebbe fregare di meno e temo che anche AMD sposerà questa linea visto l'andazzo con TSMC.

Alle mie orecchie il messaggio sembra forte e chiaro.

OrazioOC
02-04-2023, 13:22
La 4060 Ti sulla carta si sovrappone quasi perfettamente alla 3070 con il vantaggio di un minor consumo e soprattutto del supporto del DLSS 3, cavallo di battaglia dell'intera operazione 4000.

Personalmente, vista la facilità con cui sono usciti gli stipendi dai portafogli per 4080/90 ho paura che a 500 euro venderanno bene ed il "new normal" sarà consolidato per un bel pò.

Io sono abbastanza convinto che i verdi stiano spostando pesantemente la strategia di vendità verso chips per il computing dove a parità di mm2 i margini sono molto più alti, basta vedere la velocità con cui hanno coniato una versione castrata dell'H100 per l'export verso la Cina (l'H800), di conseguenza credo possano assorbire forti contrazioni dei numeri per le GPU da gamer, che però verranno (e vengono) vendute con margini decuplicati (NB : per NVIDIA, non per i board makers) agli enthusiasts.

A lato di ciò, in linea generale, lo shift verso l'alto dei prezzi dell'HW sembra inarrestabile, tanto più che ora il design estetico è in cima alla lista delle preferenze del customer medio, una volta i case si nascondevano sotto il tavolo, adesso si mettono in vetrina su ogni possibile canale mediatico.

Pareti di cristallo, led colorati, tubi con liquidi fluorescenti, display oled su dissipatori e ventole firmate sembrano essere divenuti un obbligo per ogni utente PC gamer/artista/video maker/influencer che non si fa certo problemi a copriere il mark-up addizzionale di centinaia di euro per rimanere in linea con il nuovo canone.

E' ovvio chd AMD è alla finestra ed stà giocando di rimessa, i tempi delle rivincite in stile HD4870 sembrano essere ormai narrativa fiabesca.

Le 7900 non sono di certo regalate ma sembrano offrire più sostanza al prezzo, anche io sarei più propenso in questo momento a dare i soldi ai rossi, resta da capire se chi è interessato alla gamma media vedrà offrirsi qualcosa di simile, in raster, ad una 4070 a max 500 euro (prezzo finito mercato italiano), altrimenti siamo da capo.

Che Nvidia stia spingendo sulle gpu con più alti margini non lo scopriamo ora, l'ultima scheda video lanciata sotto i 200 dollari era la vetusta 1650 super a fine 2019(quasi 4 anni fa), ma c'è anche da dire che si sta tagliando fuori una cospicua fetta di mercato fatta di gente che nel case ha le solite 1060/1650/1660/2060 da sostituire nel breve/medio periodo con gpu che sanno cosa sia il raytracing e il dlss 2/3.
Però cosa gli andiamo ad offrire? la 4050 con 6gb di vram e performance raster da 2060 a 300 euro 4 anni dopo? La 4060 8gb simil 3060 ti a 50 euro in meno a listino?
Il problema è che di principio non riescono a dare un seguito lato performance a ciò che stanno vendendo già da 3/4 anni. :rolleyes:
Inoltre il non riuscire a bilanciare la vram offerta dati i bus sta diventanto un limite troppo grosso, vedere una gpu con 8gb sostituire una che ne aveva 12 è brutto a vedersi.:doh:

ColdWarGuy
02-04-2023, 13:36
Che Nvidia stia spingendo sulle gpu con più alti margini non lo scopriamo ora, l'ultima scheda video lanciata sotto i 200 dollari era la vetusta 1650 super a fine 2019(quasi 4 anni fa)
-snip


IL mio discorso è molto più drastico e taglia fuori anche le schede di gamma media, figuramoci quelle da 200 euro.

Ma per quelle non vedo problemi, c'è una montagna di invenduto ed i reseller incominciano a rassegnarsi a dire ciao ai ricarichi del boom del cripto, anche se è vero che puoi trovare ancora una 1650 a 400 euro :D

EffeX
02-04-2023, 13:47
Io sono abbastanza convinto che i verdi stiano spostando pesantemente la strategia di vendità verso chips per il computing dove a parità di mm2 i margini sono molto più alti, basta vedere la velocità con cui hanno coniato una versione castrata dell'H100 per l'export verso la Cina (l'H800), di conseguenza credo possano assorbire forti contrazioni dei numeri per le GPU da gamer, che però verranno (e vengono) vendute con margini decuplicati (NB : per NVIDIA, non per i board makers) agli enthusiasts.
E' ovvio chd AMD è alla finestra ed stà giocando di rimessa, i tempi delle rivincite in stile HD4870 sembrano essere ormai narrativa fiabesca.

Purtroppo è quello che ormai credo anche io, il principale introito del fatturato di Nvidia non deriva più dalle GPU per gamer e pro, ma dai datacenter, AI, automotive ecc, di conseguenza può anche vendere meno nel settore gaming che tanto rientra con le vendite degli altri settori.
AMD sembra proprio che delle vga non gliene freghi nulla, loro spingono sulle cpu e con le schede video quello che arriva è tutto di guadagnato mi pare di capire...

ColdWarGuy
02-04-2023, 14:40
Purtroppo è quello che ormai credo anche io, il principale introito del fatturato di Nvidia non deriva più dalle GPU per gamer e pro, ma dai datacenter, AI, automotive ecc, di conseguenza può anche vendere meno nel settore gaming che tanto rientra con le vendite degli altri settori.
AMD sembra proprio che delle vga non gliene freghi nulla, loro spingono sulle cpu e con le schede video quello che arriva è tutto di guadagnato mi pare di capire...

Riguardo AMD non dimentichiamoci il mercato delle APU console e GPU per mercato laptop, lì non hanno certo gettato la spugna :

https://wccftech.com/amd-fastest-rdna-3-laptop-gpu-radeon-rx-7600m-xt-tested-on-par-with-nvidia-rtx-4060/

mikael84
02-04-2023, 15:54
Ma è esattamente questa la "castrazione markettara" a cui mi riferivo nel mio precedente post, la 4070 Ti è studiata a tavolino contro logiche tecniche per essere ne carne ne pesce e spingerti verso 4080/90 se vuoi un deciso gap verso la serie 3000.

E sono sicuramente d'accordo con il discorso che a giacchetta del nuovo segmento medio/basso da 300-600 euro non potrebbe fregare di meno e temo che anche AMD sposerà questa linea visto l'andazzo con TSMC.

Alle mie orecchie il messaggio sembra forte e chiaro.

Bisogna chiarire che nvidia i codici li scrive molto prima, tenendo in mente anche samsung. Se questi chip fossero usciti con samsung e ti ritrovavi a clockare a 2300-2400 col vento a favore, questo giochetto non poteva farlo.

Ora come ora è chiaro che ci sta speculando al massimo dal nodo.
Della fascia bassa ad entrambi, anche per una questione di margine troppo bassa non gli interessa più.
Pensa la fascia AMD da 200-250 euro. Esce polaris nel 2016 con 8gb, e nel 2022, esce una scheda dalle stesse perf, stesso prezzo con 4gb.

Ecco da questa serie, si comincerà a stallare anche più in alto. Infatti sia RDNA3 che le 4060/ti, faranno lo stesso a partire da cifre più elevate.

Che Nvidia stia spingendo sulle gpu con più alti margini non lo scopriamo ora, l'ultima scheda video lanciata sotto i 200 dollari era la vetusta 1650 super a fine 2019(quasi 4 anni fa), ma c'è anche da dire che si sta tagliando fuori una cospicua fetta di mercato fatta di gente che nel case ha le solite 1060/1650/1660/2060 da sostituire nel breve/medio periodo con gpu che sanno cosa sia il raytracing e il dlss 2/3.
Però cosa gli andiamo ad offrire? la 4050 con 6gb di vram e performance raster da 2060 a 300 euro 4 anni dopo? La 4060 8gb simil 3060 ti a 50 euro in meno a listino?
Il problema è che di principio non riescono a dare un seguito lato performance a ciò che stanno vendendo già da 3/4 anni. :rolleyes:
Inoltre il non riuscire a bilanciare la vram offerta dati i bus sta diventanto un limite troppo grosso, vedere una gpu con 8gb sostituire una che ne aveva 12 è brutto a vedersi.:doh:

Come detto su si andrà verso uno stallo, anche su fasce più alte di prezzo.
Se nella fascia 200-250 nel 2022 esce la 6500xt con 4gb e con perf uguali a polaris del 2016 (queste anche con 8gb), la situazione comincerà a presentarsi anche sopra.
Di fatto, si è costretti a salire di fascia per upgradare.

Se non fosse per il cambio, l'unica veramente fori di testa è la 4080 che eredita la versione TI (pur essendo una x70 di base, se non ci fosse questo salto di pp), sopra si parla di 100-200$.
100$ cmq, sono giustificati dagli aumenti, 200 non tanto. 500 della 4080, è follia pura.

OrazioOC
02-04-2023, 16:45
Come detto su si andrà verso uno stallo, anche su fasce più alte di prezzo.
Se nella fascia 200-250 nel 2022 esce la 6500xt con 4gb e con perf uguali a polaris del 2016 (queste anche con 8gb), la situazione comincerà a presentarsi anche sopra.
Di fatto, si è costretti a salire di fascia per upgradare.

Se non fosse per il cambio, l'unica veramente fori di testa è la 4080 che eredita la versione TI (pur essendo una x70 di base, se non ci fosse questo salto di pp), sopra si parla di 100-200$.
100$ cmq, sono giustificati dagli aumenti, 200 non tanto. 500 della 4080, è follia pura.
Infatti ti quoto in toto, se dovessi cambiare la mia 3060 ti tra 6 mesi con queste prospettive mi metterei le mani nei capelli, o spenderei 700 euro per una 4070/7800 xt, oppure è un upgrade magrissimo se dovessi rispendere i 500 euro per una 4060 ti o 7700 xt. :rolleyes:

E peggio ancora andrà per i poveri cristi che hanno in mano gpu tipo 2060/70 o equivalenti amd. :doh:

mikael84
02-04-2023, 17:14
Infatti ti quoto in toto, se dovessi cambiare la mia 3060 ti tra 6 mesi con queste prospettive mi metterei le mani nei capelli, o spenderei 700 euro per una 4070/7800 xt, oppure è un upgrade magrissimo se dovessi rispendere i 500 euro per una 4060 ti o 7700 xt. :rolleyes:

E peggio ancora andrà per i poveri cristi che hanno in mano gpu tipo 2060/70 o equivalenti amd. :doh:

Ecco da una 3060ti, il tuo upgrade sensato è la 4070, quindi sei costretto a salire di fascia. La 7700xt può avere senso in base al costo, ma non sarà lontano dalla 4070, e li non avrebbe senso... ma anche per 100 euro in meno.

Sotto ancora, ci sarà stallo totale, con la 3060ti rebrandata in 4060 e la 6600xt, diventerà 6600xt RDNA3.
Fascia x50 a sto giro con 6gb di ram, non ha neppure più senso prenderla in considerazione come uso gaming, ma per muletto, in quanto è quasi un AD108.:p

Ubro92
03-04-2023, 11:15
Ma dalle specifiche la 4060 liscia potrebbe anche andare meno della 3060ti, teoricamente si pone al livello della 2070s, con in più ovviamente il DLSS3.

Inviato dal mio M2012K11AG utilizzando Tapatalk

OrazioOC
03-04-2023, 11:51
Ma dalle specifiche la 4060 liscia potrebbe anche andare meno della 3060ti, teoricamente si pone al livello della 2070s, con in più ovviamente il DLSS3.

Inviato dal mio M2012K11AG utilizzando Tapatalk

Infatti a tlflops dovrebbe essere sui 15 tflops, conto i 16.5 della 3060 ti a stock.

La salva il dlss3, ma la salva se la gpu nuova costa meno di 350 euro fatta e finita da brand aib che le gpu le sanno fare tipo asus, msi, giga, zotac ecc..
Se iniziano ad essere 400 sta bene sullo scaffale.

mikael84
03-04-2023, 12:04
Ma dalle specifiche la 4060 liscia potrebbe anche andare meno della 3060ti, teoricamente si pone al livello della 2070s, con in più ovviamente il DLSS3.

Inviato dal mio M2012K11AG utilizzando Tapatalk

Infatti a tlflops dovrebbe essere sui 15 tflops, conto i 16.5 della 3060 ti a stock.

La salva il dlss3, ma la salva se la gpu nuova costa meno di 350 euro fatta e finita da brand aib che le gpu le sanno fare tipo asus, msi, giga, zotac ecc..
Se iniziano ad essere 400 sta bene sullo scaffale.

A calcoli grezzi, mediamente, se prendiamo una 4060@2,7 performa circa 16,5TF, una 3060ti@1,9, performa 18,4tf.
Quindi aritmeticamente gli sta sotto. Il bus poi è molto piccolo, 288 gb/s, ma appena 24 mb di cache (troppo poca).

La 3060 liscia sta a 13,6@1,9.

Il DLSS3 qua è marketing più che altro sul rt massivo, anche se può aiutare.

StylezZz`
03-04-2023, 12:39
Quante probabilità ci sono che da noi la 4070 non superi i 700-750€?

Volevo prendere la 70ti, ma i prezzi attualmente sono così alti che ho iniziato a guardare le 80 :asd: Però non voglio proprio spendere quelle cifre per un solo componente, quindi al momento ho eliminato entrambe.

Una 4070 che pare sia praticamente una 3080ti con il DLSS3 mi sembra un upgrade dignitoso dalla mia 2060, che venderei per abbassare un po' il prezzo. Potrei aspettare anche la serie 5000 ma non so quanto senso abbia sulla mia piattaforma visto che il massimo che posso mettere è un 5800X3D, che probabilmente farà da bottleneck con quelle schede dalla 70 a salire (la 2060 si comporta ancora in modo dignitoso a 1440p, ma con alcuni giochi che non hanno il dlss e consumano tanta vram tipo RE4 non gliela fa e se continuano con queste roadmap la 60/60ti sarà troppo lontana).

Il 5800x3D si comporta bene anche con la 4090, quindi da questo punto di vista puoi stare tranquillo.

OrazioOC
03-04-2023, 13:07
A calcoli grezzi, mediamente, se prendiamo una 4060@2,7 performa circa 16,5TF, una 3060ti@1,9, performa 18,4tf.
Quindi aritmeticamente gli sta sotto. Il bus poi è molto piccolo, 288 gb/s, ma appena 24 mb di cache (troppo poca).

La 3060 liscia sta a 13,6@1,9.

Il DLSS3 qua è marketing più che altro sul rt massivo, anche se può aiutare.

Fantascienza presentarsi con una scheda del genere oltre i 329 dollari. :asd:

ColdWarGuy
03-04-2023, 13:41
Fantascienza presentarsi con una scheda del genere oltre i 329 dollari. :asd:

Per noi italioti c'è un fattore aggiuntivo non trascurabile che influisce nella valutazione del costo delle componenti HW di un PC : l'aggravio di costo di importazione / IVA ma soprattutto il rapporto rispetto allo stipendio medio ... e qui si fa dura.

I prezzi MSRP sono calibrati rispetto il mercato americano dove gli stipendi sono molto più alti dei nostri (per tutta una serie di motivi in primis la tassazione più bassa), ne consegue che se spieghi ad un statunitense quale porzione di reddito ti accingi a spendere per una GPU da gaming dovrai preparati a ripetere la risposta più volte perchè sulle prime penserà di aver capito male.

Aggiungi il fatto che siamo in uno dei peggiori momenti per l'economia occidentale (dal dopo guerra) per poter dire con tranquillità che il listino prezzi della serie 4000 è, soprattutto in Italia, privo di senso.

mikael84
03-04-2023, 15:25
Fantascienza presentarsi con una scheda del genere oltre i 329 dollari. :asd:

Beh è una x60, una signora x60, quindi che la vuoi a meno? Al massimo di più:D
Penso che qui abbia la decenza di mantenere i prezzi vecchi, perchè se mette 399 quella, qua da noi saranno quasi 500 per AD107.:D

Ale55andr0
04-04-2023, 06:56
roito immondo e vergognoso a 700/750

https://wccftech.com/nvidia-geforce-rtx-4070-graphics-card-opencl-benchmark-leak-19-percent-slower-than-4070-ti/

ninja750
04-04-2023, 08:15
roito immondo e vergognoso a 700/750

https://wccftech.com/nvidia-geforce-rtx-4070-graphics-card-opencl-benchmark-leak-19-percent-slower-than-4070-ti/

devi guardare le prestazioni con DLSS3.0 :O

e cmq ha 12gb di vram, puoi giocare a the last of us :O

bagnino89
04-04-2023, 08:37
devi guardare le prestazioni con DLSS3.0 :O

e cmq ha 12gb di vram, puoi giocare a the last of us :O

Troppo pochi per TLOS, sarebbero meglio 16 se non 24 GB. :asd:

Ale55andr0
04-04-2023, 11:36
devi guardare le prestazioni con DLSS3.0 :O

e cmq ha 12gb di vram, puoi giocare a the last of us :O

A The crash of us 12gb vanno bene in 1080p

mikael84
04-04-2023, 12:03
A The crash of us 12gb vanno bene in 1080p

A me va che una meraviglia anche con 10gb veramente e 1440p. Certo la alloca tutta, ma 0 problemi.:)
Cmq la più equilibrata è la 3080 12, considerando che costava quanto la liscia. E' una scheda, che piano piano andrà in declino se l'andazzo sarà questo.

4070 e 4070ti anch'esse si ritroveranno con la ram contata nel breve tempo.

fraussantin
04-04-2023, 12:09
A me va che una meraviglia anche con 10gb veramente e 1440p. Certo la alloca tutta, ma 0 problemi.:)

Cmq la più equilibrata è la 3080 12, considerando che costava quanto la liscia. E' una scheda, che piano piano andrà in declino se l'andazzo sarà questo.



4070 e 4070ti anch'esse si ritroveranno con la ram contata nel breve tempo.Diciamo che in 1440p ci si salva proprio grazie a queste 70 che avendo 12 giga e dovendo in qualche modo supportare il 4k , molto giochi dovranno darsi un freno.

Ma dalla prossima gen mi aspetto 16~24 ovunque quindi la 3080 inizierà ad arrancare

mikael84
04-04-2023, 12:20
Diciamo che in 1440p ci si salva proprio grazie a queste 70 che avendo 12 giga e dovendo in qualche modo supportare il 4k , molto giochi dovranno darsi un freno.

Ma dalla prossima gen mi aspetto 16~24 ovunque quindi la 3080 inizierà ad arrancare

Se micron avrà pronta la serie g7 con la quadrupla densità come le g6w di samsung, si potrebbe fare finalmente un salto in quel lato, ma qualcosa mi dice, che nvidia continuerà a trovare appigli.
La 5090 potrebbe partire da 48gb, ma questo, unito al costo del PP, potrebbe far scalare un'altra fascia, sminuzzando sempre più i chip nelle fasce più basse.

Ubro92
04-04-2023, 12:46
Il problema però è che ci ritroviamo dei bus minuscoli, già la 4060 e 4060ti su 128bit hanno una BW di 288gb/s nettamente inferiore a una 3060ti che ha ben 448gb/s e circa 608gb/s per la variante GDDR6X.

Ok la cache, ma la 4060 sta messa maluccio anche su quel fronte.

I prossimi chip se voglino tenere bus cosi piccoli vanno pompati lato clock, e una cache bella grossa per compensare, ma credo sia più probabile che la 5060 torni sui 192bit cosi da avere 12GB, e la 5070 su 256bit...

Poi lato prezzi è da vedere per quanto vogliano lucrarci su, le vendite di HW almeno da quello che vedo mi sembrano calate tantissimo.

mikael84
04-04-2023, 13:02
Il problema però è che ci ritroviamo dei bus minuscoli, già la 4060 e 4060ti su 128bit hanno una BW di 288gb/s nettamente inferiore a una 3060ti che ha ben 448gb/s e circa 608gb/s per la variante GDDR6X.

Ok la cache, ma la 4060 sta messa maluccio anche su quel fronte.

I prossimi chip se voglino tenere bus cosi piccoli vanno pompati lato clock, e una cache bella grossa per compensare, ma credo sia più probabile che la 5060 torni sui 192bit cosi da avere 12GB, e la 5070 su 256bit...

Poi lato prezzi è da vedere per quanto vogliano lucrarci su, le vendite di HW almeno da quello che vedo mi sembrano calate tantissimo.

Sulla fascia bassa - medio bassa TSMC è stato un male, sarebbe stato meglio con samsung, non per le perf in se, ma per l'utilizzo di sku superiori.
Di questo PP i veri benefattori sono i possessori di x90.

Sulla cache, probabilmente ci saranno migliorie, ormai l'andazzo è quello, però la riduzione sui 3nm è poca, e se la uniamo a bus maggiori, renderebbe complessi i die visti i costi.

Se la quadrupla densità sarà ok, dubito che nvidia ti dia 16gb di ram su x60 e 128bit. Nel migliore dei casi la metterà su un 192bit x 12gb.
Sicuramente si creeranno sempre più discrepanze tra i top e i mid.

mikael84
06-04-2023, 15:15
Questa slide è geniale, nvidia stesso la mette in confronto con le x60.

https://i.postimg.cc/RZb3dxpz/reflex-4070.png

VanCleef
06-04-2023, 15:19
Tra l'altro senza considerare 1660 e 2060... 🙄

mikael84
06-04-2023, 17:03
Quindi le piú scrause con l'8 pin standard, mentre le ''premium'' con il ''nuovo'' connettore.

Le custom di gen in gen sono sempre piú brutte, si salvano solo le strix e la msi suprim x.

La founder é prevvista?

https://videocardz.com/newz/gigabyte-rtx-4070-custom-gpus-to-feature-either-16pin-or-8pin-power-connectors

Si la FE ci sarà, e probabilmente, considerando il 16 pin, sarà la migliore in rapporto alla fascia. Le varie manli importate potrebbero essere strozzate con il cavo 8 pin, e così le derivate., di bassa fascia degli altri brand.

Ale55andr0
06-04-2023, 19:36
A me va che una meraviglia anche con 10gb veramente e 1440p. Certo la alloca tutta, ma 0 problemi.:)
Cmq la più equilibrata è la 3080 12, considerando che costava quanto la liscia. E' una scheda, che piano piano andrà in declino se l'andazzo sarà questo.

4070 e 4070ti anch'esse si ritroveranno con la ram contata nel breve tempo.

ma perchè esiste ancora la 3080 12?

Ubro92
06-04-2023, 21:49
ma perchè esiste ancora la 3080 12?

Non a prezzi ragionevoli, ma sinceramente con le 3000 nvidia ha rilasciato una marea di varianti di GA102, ognuna con uno scarto misero dall'altra...

Comunque la 4070 liscia da 8pin se cala a un prezzo giusto, può essere decisamente interessante per molti, alla fine rincorre la 3080, e per un chippetto da 295mm2 devastatissimo non lo vedo neanche cosi limitante un tdp di 200-225w.

mikael84
06-04-2023, 22:03
ma perchè esiste ancora la 3080 12?

Parlo dei tempi che furono.
La 3080 12 per un anno circa, si trovava a poco più o quasi allineata alla 3080 10.
Ampere è morta e sepolta da tempo. Ora la 4070 manda in pensione definitivamente anche la 3080 10 e chiude praticamente la serie Lovelace (salvo qualche refresh o 4080ti), visto che sotto è tutto inutile.

OrazioOC
07-04-2023, 09:42
Si la FE ci sarà, e probabilmente, considerando il 16 pin, sarà la migliore in rapporto alla fascia. Le varie manli importate potrebbero essere strozzate con il cavo 8 pin, e così le derivate., di bassa fascia degli altri brand.

Comunque mi sfugge un po’ il motivo per cui la variante da 8 pin debba limitare le potenzialità di questa scheda, voglio dire il chip è praticamente quello che dovrebbe sostituire nella lineup GA106 della 3060, e anche nel tdp dichiarato lo vedo eccessivo che si pappi piu di 200w anche a frequenze sostenute.

Forse il 16 pin ha più senso per schede che finiranno su nuove build che hanno già psu dotate di quel connettore?

OrazioOC
07-04-2023, 09:51
https://videocardz.com/newz/nvidia-geforce-gtx-1650-production-reportedly-shifts-to-tu106-gpu

Incredibile che NVIDIA dopo 4 anni non riesca a portare ampere o Ada in certe fasce, a questo punto mi aspetto veramente che la 4050 6gb vada a prendere il posto di una gpu del genere e non della 3050.

Salfox
07-04-2023, 11:18
Poi fa ridere per altri motivi, tipo che la 4090 é costantemente cpu limited (12900k) pure con la cpu di cristo, ma questi sono dettagli, vabbé, ho visto gente limitarla di proposito cappando i frame facendo lavorare la gpu al 50-60% e consumando 150w LOL



Presente, con i soldi che sto risparmiando di corrente rispetto alla 3090 mi sto facendo una buona somma da utilizzare per la 5090 :D :D :D e non me ne frega niente di quelli che non approvano, lo fanno solo perchè non hanno mai provato la 4090 :D :D :D

lordsnk
07-04-2023, 11:25
https://videocardz.com/newz/nvidia-geforce-gtx-1650-production-reportedly-shifts-to-tu106-gpu

Incredibile che NVIDIA dopo 4 anni non riesca a portare ampere o Ada in certe fasce, a questo punto mi aspetto veramente che la 4050 6gb vada a prendere il posto di una gpu del genere e non della 3050.

Per me è una scelta voluta. :mad:
Togliere l'RT e creare una serie GTX 3000 o 4000 è fattibile ed abbasserebbe i costi, ma non VOGLIONO farlo perché l'RT è il pretesto dei prezzi alti.
Non essendoci concorrenza non hanno bisogno di fare uscire una scheda con un ottimo rapporto prezzo-prestazioni lato rasterizzazione.

Ubro92
07-04-2023, 11:34
Se si fa un pó di oc 150+75w limitano un pochino, comunque é deleterio fare oc, da pascal in poi non ha senso le schede sono tutte tirate al massimo (o quasi) out of the box.

Vista la schedina che é (si doveva chiamare 4060 poiché le specs sono da x60) meno si spende meglio é, una volta che é ben dissipata chissene...

Tutto bello se non costasse minimo 700 euro.


Ste schede fanno ridere, tralasciando le 4080 e 4090 vendute a prezzi spropositati, tutto il resto é noia.

Schede da 200-300w con dissipatori 3 slot grossi e pesanti, dai su é esilarante la questione.
Una scheda come la 4070ti girerebbe tranquillamente con un dual slot bi-ventola e sarebbe molto piú graziosa da vedere, non quei carcassoni di custom.

L'architettura ottima, peccato che abbiano fatto i bast4rd! tagliando i chip in modo brutale (anche la 4090 cuttata cosí non é buona cosa) altrimenti usciva una lineup con i fiocchi.


Poi fa ridere per altri motivi, tipo che la 4090 é costantemente cpu limited (12900k) pure con la cpu di cristo, ma questi sono dettagli, vabbé, ho visto gente limitarla di proposito cappando i frame facendo lavorare la gpu al 50-60% e consumando 150w LOL

è una barzelletta...

Se non arrivano cpu potenti sul mercato, lasciate perdere e compratevi una 4080, la 4090 vuole un corredo di tutto rispetto, la spesa non é solo acquistarla e ci ho sbattuto il muso.

Ma neanche tanto in realtà, considera che anche la 3060ti spesso taglia il clock arrivata ai 200w, ma lato prestazioni non è che le 3060ti con tdp sbloccato a 250w facciano miracoli siamo sempre li...

La 4070 è letteralmente una 3070 scalata di quasi due nodi, pure in configurazione 200w ha molto margine, poi vabbè si attendono le review, ma molti potrebbero preferirle anche per evitare il nuovo connettore.

Per il resto hanno risparmiato sul silicio, e pompato il clock ben oltre il solito rapporto consumi/efficienza che su chip dalla 4070 in su può anche funzionare, ma sui chip più piccoli già si vedono i limiti di questo approccio.

lordsnk
07-04-2023, 11:37
Presente, con i soldi che sto risparmiando di corrente rispetto alla 3090 mi sto facendo una buona somma da utilizzare per la 5090 :D :D :D e non me ne frega niente di quelli che non approvano, lo fanno solo perchè non hanno mai provato la 4090 :D :D :D

Per me fai benissimo :D
Io sono ancora più drastico e aggiungo che vista la potenza della 4090 al momento è inutile comprare un i9 visto che c'è il bottleneck, ma è meglio aspettare le prossime generazioni di cpu e quindi fare l'investimento solo quando la 4090 sarà sfruttata al 100% ;)

P.S. Ora so che mi lapiderete :D , ma, per come la penso io, non ha molto senso spendere un mucchio di soldi se non si possono fare le cose per bene e quindi spremere la gpu al 100% in ogni contesto.

Ubro92
07-04-2023, 11:44
Per me fai benissimo :D
Io sono ancora più drastico e aggiungo che vista la potenza della 4090 al momento è inutile comprare un i9 visto che c'è il bottleneck, ma è meglio aspettare le prossime generazioni di cpu e quindi fare l'investimento solo quando la 4090 sarà sfruttata al 100% ;)

P.S. Ora so che mi lapiderete :D , ma, per come la penso io, non ha molto senso spendere un mucchio di soldi se non si possono fare le cose per bene e quindi spremere la gpu al 100% in ogni contesto.

Ma dipende che intendi, la 4090 è un uber chip, in 4k la si tiene su, ma già se scendi ai 1440p o usando il DLSS, le cpu attuali anche le più performanti come il recente 7800x3d in alcuni engine pure hanno difficoltà a tenerla al 100%.

Purtroppo chi punta al top gli tocca spendere se vuole sempre il massimo in tutti gli scenari, poi io sono sempre dell'idea che un i9 sia sprecatissimo per giocare, chi si prende un 13900K credo lo faccia anche per la produttività, idem nel caso del 7950X3D.

Per l'utenza normale, un ryzen 5000 con 4070/3080 è già grasso che cola.

OrazioOC
07-04-2023, 11:53
Ma neanche tanto in realtà, considera che anche la 3060ti spesso taglia il clock arrivata ai 200w, ma lato prestazioni non è che le 3060ti con tdp sbloccato a 250w facciano miracoli siamo sempre li...

La 4070 è letteralmente una 3070 scalata di quasi due nodi, pure in configurazione 200w ha molto margine, poi vabbè si attendono le review, ma molti potrebbero preferirle anche per evitare il nuovo connettore.

Per il resto hanno risparmiato sul silicio, e pompato il clock ben oltre il solito rapporto consumi/efficienza che su chip dalla 4070 in su può anche funzionare, ma sui chip più piccoli già si vedono i limiti di questo approccio.

Quoto in Toto, è proprio il chip che non dovrebbe avere bisogno di così tanta corrente, e comunque 225w non sono pochi per niente. :asd:

lordsnk
07-04-2023, 12:21
Ma dipende che intendi, la 4090 è un uber chip, in 4k la si tiene su, ma già se scendi ai 1440p o usando il DLSS, le cpu attuali anche le più performanti come il recente 7800x3d in alcuni engine pure hanno difficoltà a tenerla al 100%.


Per me la 4090 è dal 4k in su :D
Se parliamo di 1440p o 1080p prendo in considerazione altre schede. :D

bagnino89
07-04-2023, 12:29
Aspettiamo 'ste 5000 va.

https://www.hdblog.it/hardware/articoli/n568567/nvidia-rtx-50-blackwell-architettura-novita/

Inviato dal mio Pixel 6 utilizzando Tapatalk

mikael84
07-04-2023, 13:10
Comunque mi sfugge un po’ il motivo per cui la variante da 8 pin debba limitare le potenzialità di questa scheda, voglio dire il chip è praticamente quello che dovrebbe sostituire nella lineup GA106 della 3060, e anche nel tdp dichiarato lo vedo eccessivo che si pappi piu di 200w anche a frequenze sostenute.

Forse il 16 pin ha più senso per schede che finiranno su nuove build che hanno già psu dotate di quel connettore?

Questo bisogna analizzarlo, ora sono stato drastico con il termine strozzate, ma i chip Lovelace hanno anche un buon OC.
Sono tarate per boostare appena sopra i 2600, ma in OC arrivano anche a 2900-3000. Con il cavo da 8, avrai 2-220 watt, e di certo, non vorrei trovarmi ad avere downclock già da 2700 per TDP.

Aspettiamo 'ste 5000 va.

https://www.hdblog.it/hardware/articoli/n568567/nvidia-rtx-50-blackwell-architettura-novita/

Inviato dal mio Pixel 6 utilizzando Tapatalk

GB100
Target: server
Design: MCM
SM: 256
Cache L2: 128 MB
Bus: 512 GB :muro: :muro:
Memorie: HMB3

Ale55andr0
07-04-2023, 13:33
Questo bisogna analizzarlo, ora sono stato drastico con il termine strozzate, ma i chip Lovelace hanno anche un buon OC.
Sono tarate per boostare appena sopra i 2600, ma in OC arrivano anche a 2900-3000. Con il cavo da 8, avrai 2-220 watt, e di certo, non vorrei trovarmi ad avere downclock già da 2700 per TDP.



GB100
Target: server
Design: MCM
SM: 256
Cache L2: 128 MB
Bus: 512 GB :muro: :muro:
Memorie: HMB3

avrà una banda di settordici trilioni di petaflop/s, il salto sarà notevole, non si può non dirlo :O

OrazioOC
07-04-2023, 13:33
Questo bisogna analizzarlo, ora sono stato drastico con il termine strozzate, ma i chip Lovelace hanno anche un buon OC.
Sono tarate per boostare appena sopra i 2600, ma in OC arrivano anche a 2900-3000. Con il cavo da 8, avrai 2-220 watt, e di certo, non vorrei trovarmi ad avere downclock già da 2700 per TDP.



Negli ultimi rumor la danno con un tdp di 185w in game a stock, per me é altamente possibile che sul core tenga i canonici 2700 MHz di boost anche con l'8 pin.
Che poi i 75w del pcie vengono dati come standard ma nulla vieta che con buone mobo e psu si vada oltre.

Ma vedremo giovedì nei test.:cool:

Ubro92
07-04-2023, 13:41
Negli ultimi rumor la danno con un tdp di 185w in game a stock, per me é altamente possibile che sul core tenga i canonici 2700 MHz di boost anche con l'8 pin.
Che poi i 75w del pcie vengono dati come standard ma nulla vieta che con buone mobo e psu si vada oltre.

Ma vedremo giovedì nei test.:cool:

Se per questo nulla vieta di fare una 8+6 pin XD

Ma ho visto anche 3070 con singolo 8pin e alla fine cambia poco.

Più nei benchmark puoi notare le differenze, ma in game se cambiano 5 fps è gia tanto, più che altro è possibile che il silicio migliore nvidia se lo tenga per quelle con il nuovo connettore.

fraussantin
07-04-2023, 13:44
Ma le custom le faranno anche con doppio connettore secondo me.
Ma il prezzo sale e come sempre :vale la pena?

Ubro92
07-04-2023, 13:48
Ma le custom le faranno anche con doppio connettore secondo me.
Ma il prezzo sale e come sempre :vale la pena?Boh sul prezzo di mercato mi sa che tocca attendere l'uscita, l'unica cosa certa é che costerà meno della 4070ti 🤣

Inviato dal mio M2012K11AG utilizzando Tapatalk

mikael84
07-04-2023, 13:56
Negli ultimi rumor la danno con un tdp di 185w in game a stock, per me é altamente possibile che sul core tenga i canonici 2700 MHz di boost anche con l'8 pin.
Che poi i 75w del pcie vengono dati come standard ma nulla vieta che con buone mobo e psu si vada oltre.

Ma vedremo giovedì nei test.:cool:

La danno a meno in quanto rispetto le altre della famiglia, parte da uno sweet migliore. 2400 di BB, e boost sui 2600. La 4070ti boosta a 2850, ma ha un BB di oltre 2600. Con Lovelace l'OC è valido. Il pci ex non andrà a 75 watt, e probabile che sovraccarichi il connettore, o la tarano a 200.
La FE sulle 700 euro potrebbe essere una delle scelte migliori, sia per TDP che per bin.

ColdWarGuy
07-04-2023, 14:05
Aspettiamo 'ste 5000 va.

https://www.hdblog.it/hardware/articoli/n568567/nvidia-rtx-50-blackwell-architettura-novita/

Inviato dal mio Pixel 6 utilizzando Tapatalk

Quindi palese dietrofront sull'ampiezza dei bus ...

Cosa dovremo aspettarci, 5070 Ti a 1199 MSRP ?

ste-87
07-04-2023, 14:13
Presente, con i soldi che sto risparmiando di corrente rispetto alla 3090 mi sto facendo una buona somma da utilizzare per la 5090 :D :D :D e non me ne frega niente di quelli che non approvano, lo fanno solo perchè non hanno mai provato la 4090 :D :D :D

a questo punto (sinceramente) mi domando se giochiate almeno 8 ore al giorno per 300 giorni l'anno o se ne fate un uso un filo più "umano" ma paghiate la corrente 2-3€ al Kw

ColdWarGuy
07-04-2023, 14:20
Negli ultimi rumor la danno con un tdp di 185w in game a stock, per me é altamente possibile che sul core tenga i canonici 2700 MHz di boost anche con l'8 pin.
Che poi i 75w del pcie vengono dati come standard ma nulla vieta che con buone mobo e psu si vada oltre.

Ma vedremo giovedì nei test.:cool:

IL limite ultimo è determinato dal connettore PCIe, il numero di contatti utilizzati per l'alimentazione sono quelli che sono da standard e l'accoppiamento maschio femmina deve essere marginato tenendo in considerazione vari fattori tra cui tolleranze meccaniche, ossidazione contatti,etc.

nessuno29
07-04-2023, 14:23
Presente, con i soldi che sto risparmiando di corrente rispetto alla 3090 mi sto facendo una buona somma da utilizzare per la 5090 :D :D :D e non me ne frega niente di quelli che non approvano, lo fanno solo perchè non hanno mai provato la 4090 :D :D :D
A spanne per rientrare dei costi dovresti giocare sulle 100 ore al giorno per qualche annetto, io troverei altri motivi per giustificare l'acquisto della 4090, basta anche dire il solo io la volevo :D

Salfox
07-04-2023, 14:24
a questo punto (sinceramente) mi domando se giochiate almeno 8 ore al giorno per 300 giorni l'anno o se ne fate un uso un filo più "umano" ma paghiate la corrente 2-3€ al Kw

La pago 0,30€ e in questo periodo, causa scarsità di lavoro gioco tanto. Con la 4090 faccio, meglio, tutto quello che facevo con la 3090 con 350W con soli 200W e ti assicuro che in un bimestre il risparmio si sente, ma forse è inutile ribadirlo, dovreste provare la 4090 per capire che gioiello è in tutti i sensi.

Salfox
07-04-2023, 14:27
A spanne per rientrare dei costi dovresti giocare sulle 100 ore al giorno per qualche annetto, io troverei altri motivi per giustificare l'acquisto della 4090, basta anche dire il solo io la volevo :D

E qui ti sbagli, con un costo medio del kWh bastano 5 ore (tempo di gioco medio per un gamer) al giorno per risparmiare un kWh, moltiplicato per trenta sono trenta kWh al mese e ti assicuro non sono pochissimi.

ColdWarGuy
07-04-2023, 14:32
E qui ti sbagli, con un costo medio del kWh bastano 5 ore (tempo di gioco medio per un gamer) al giorno per risparmiare un kWh, moltiplicato per trenta sono trenta kWh al mese e ti assicuro non sono pochissimi.

0.30 x 30 = 9 euro al mese con una 4090 .... come dire che mi compro la Ferrari e poi mi lamento del prezzo del bollo.

Salfox
07-04-2023, 14:37
0.30 x 30 = 9 euro al mese con una 4090 .... come dire che mi compro la Ferrari e poi mi lamento del prezzo del bollo.

Pensatela come volete, io mica devo convincere nessuno, ma così rinunciate ad una delle caratteristiche migliori delle Lovelace

OrazioOC
07-04-2023, 14:44
La danno a meno in quanto rispetto le altre della famiglia, parte da uno sweet migliore. 2400 di BB, e boost sui 2600. La 4070ti boosta a 2850, ma ha un BB di oltre 2600. Con Lovelace l'OC è valido. Il pci ex non andrà a 75 watt, e probabile che sovraccarichi il connettore, o la tarano a 200.
La FE sulle 700 euro potrebbe essere una delle scelte migliori, sia per TDP che per bin.

Considerato che parliamo di un ad104 ridotto ai minimi termini( ha il 75% dei cc della 4070 ti operativi) ci può anche stare questa piccola variazione sul clock.:)

Comunque a me le fe stanno sulle scatole, per cambiare la pasta termica tocca fare i salti mortali, inoltre le varie modifiche "caserecce" tipo la sostituzione dei fan vengono sempre peggio di altre custom, per non parlare di quando si vuole mettere il wb.:rolleyes:

ste-87
07-04-2023, 14:58
La pago 0,30€ e in questo periodo, causa scarsità di lavoro gioco tanto. Con la 4090 faccio, meglio, tutto quello che facevo con la 3090 con 350W con soli 200W e ti assicuro che in un bimestre il risparmio si sente, ma forse è inutile ribadirlo, dovreste provare la 4090 per capire che gioiello è in tutti i sensi.

bho, non voglio contestare il tuo acquisto ognuno è liberissimo di acquistare ciò che vuole, se non considerassi uno sproposito quanto è prezzata la 4080 sarei il primo a prenderne una, ma dire che è un acquisto che fa risparmiare corrente abbi pazienza...a fronte di 1800-1900€ di scheda, conti alla mano risparmi 150W l'ora?

ok, 2 numeri tutti abbondanti per dare favore alla tua tesi:

150W per 10 ore al giorno sono 1.5Kw giornalieri, per i 0.30€ al kw sono 0.45 cent di euro risparmiati al giorno, mettiamo che ci giochi anche 365 giorni l'anno sono 165€ risparmiati l'anno arrotondando per difetto

Con la 3090 stesso uso (3650 ore di gioco, alla faccia) spendevi l'anno 382,25€ di corrente con la 4090 219€...dai di cosa parliamo...sinceramente non vi dovrebbe venire neanche in mente di tirare fuori un argomentazione del genere

Salfox
07-04-2023, 15:12
bho, non voglio contestare il tuo acquisto ognuno è liberissimo di acquistare ciò che vuole, se non considerassi uno sproposito quanto è prezzata la 4080 sarei il primo a prenderne una, ma dire che è un acquisto che fa risparmiare corrente abbi pazienza...a fronte di 1800-1900€ di scheda, conti alla mano risparmi 150W l'ora?

ok, 2 numeri tutti abbondanti per dare favore alla tua tesi:

150W per 10 ore al giorno sono 1.5Kw giornalieri, per i 0.30€ al kw sono 0.45 cent di euro risparmiati al giorno, mettiamo che ci giochi anche 365 giorni l'anno sono 165€ risparmiati l'anno arrotondando per difetto

Con la 3090 stesso uso (3650 ore di gioco, alla faccia) spendevi l'anno 382,25€ di corrente con la 4090 219€...dai di cosa parliamo...sinceramente non vi dovrebbe venire neanche in mente di tirare fuori un argomentazione del genere

Hai equivocato tutto il discorso, io mettevo in risalto una delle caratteristiche meno pubblicizzate delle nuove Lovelace e cioè la loro spaventosa efficienza energetica, mica l'ho comprata perchè volevo risparmiare sulla luce, in ogni caso il risparmio non mi fa schifo e mi fa sentire ancora più soddisfatto del mio acquisto. Spero di essere stato chiaro questa volta. :D

Kvarat
07-04-2023, 15:14
bho, non voglio contestare il tuo acquisto ognuno è liberissimo di acquistare ciò che vuole, se non considerassi uno sproposito quanto è prezzata la 4080 sarei il primo a prenderne una, ma dire che è un acquisto che fa risparmiare corrente abbi pazienza...a fronte di 1800-1900€ di scheda, conti alla mano risparmi 150W l'ora?

ok, 2 numeri tutti abbondanti per dare favore alla tua tesi:

150W per 10 ore al giorno sono 1.5Kw giornalieri, per i 0.30€ al kw sono 0.45 cent di euro risparmiati al giorno, mettiamo che ci giochi anche 365 giorni l'anno sono 165€ risparmiati l'anno arrotondando per difetto

Con la 3090 stesso uso (3650 ore di gioco, alla faccia) spendevi l'anno 382,25€ di corrente con la 4090 219€...dai di cosa parliamo...sinceramente non vi dovrebbe venire neanche in mente di tirare fuori un argomentazione del genere
E' normalissimo credimi. Sono le fobie che colpiscono molte persone che si spaventano per cose che non capiscono a pieno. A questo punto fagli 2 calcoli di cosa consuma un frigo sempre acceso e vede come corre a comprarsi uno di quei modelli USB da campeggio :D :D :D

nessuno29
07-04-2023, 15:18
E qui ti sbagli, con un costo medio del kWh bastano 5 ore (tempo di gioco medio per un gamer) al giorno per risparmiare un kWh, moltiplicato per trenta sono trenta kWh al mese e ti assicuro non sono pochissimi.

"Presente, con i soldi che sto risparmiando di corrente rispetto alla 3090 mi sto facendo una buona somma da utilizzare per la 5090 e non me ne frega niente di quelli che non approvano, lo fanno solo perchè non hanno mai provato la 4090"



In realtà ti assicuro io che sono quattro spicci di risparmio, poi ti ripeto non c'è nulla di male ad aver acquistato la 4090, la cosa che mi triggera un pò è affermare che lo si è fatto per il risparmio sulla bolletta.

Kvarat
07-04-2023, 15:22
Hai equivocato tutto il discorso, io mettevo in risalto una delle caratteristiche meno pubblicizzate delle nuove Lovelace e cioè la loro spaventosa efficienza energetica, mica l'ho comprata perchè volevo risparmiare sulla luce, in ogni caso il risparmio non mi fa schifo e mi fa sentire ancora più soddisfatto del mio acquisto. Spero di essere stato chiaro questa volta. :D

Si era capito dai. Però se non lo sapessi ti dico una particolarità di Nvidia. Le vere schede con il rapporto potenza - prestazioni - consumi, unici al mondo, sono sempre le Nvidia ma i modelli quadro. Purtroppo Nvidia non può venderle come schede da gioco a prezzi come quelle da gioco altrimenti il resto della componentistica pc sarebbe quasi inutile (vedi alimentatori da 1000w).
Tu pensa che la A2000, che uso in un pc da game grande come 2 mani e spesso 5 cm, consuma al massimo 60W ed è più prestante di una 3050 in gioco. Ti immagini la stessa tecnologia su una 4060 ad esempio? Sarebbe la loro tomba se uscisse una scheda così. Per questo vedi quei mostri come il tuo andare fortissimo con pochi W. Devi però saper mettere mano, cosa che il 90% dei giocatori non saprebbe fare.
P.S. Anche Amd potrebbe farlo ma non lo fa. Vedi le ultime cpu da game cosa consumano. Meno del mio vetusto 7700 :D

ste-87
07-04-2023, 15:24
Hai equivocato tutto il discorso, io mettevo in risalto una delle caratteristiche meno pubblicizzate delle nuove Lovelace e cioè la loro spaventosa efficienza energetica, mica l'ho comprata perchè volevo risparmiare sulla luce, in ogni caso il risparmio non mi fa schifo e mi fa sentire ancora più soddisfatto del mio acquisto. Spero di essere stato chiaro questa volta. :D

allora chiedo scusa, avevo proprio capito l'esatto contrario :)

Salfox
07-04-2023, 15:55
Si era capito dai. Però se non lo sapessi ti dico una particolarità di Nvidia. Le vere schede con il rapporto potenza - prestazioni - consumi, unici al mondo, sono sempre le Nvidia ma i modelli quadro. Purtroppo Nvidia non può venderle come schede da gioco a prezzi come quelle da gioco altrimenti il resto della componentistica pc sarebbe quasi inutile (vedi alimentatori da 1000w).
Tu pensa che la A2000, che uso in un pc da game grande come 2 mani e spesso 5 cm, consuma al massimo 60W ed è più prestante di una 3050 in gioco. Ti immagini la stessa tecnologia su una 4060 ad esempio? Sarebbe la loro tomba se uscisse una scheda così. Per questo vedi quei mostri come il tuo andare fortissimo con pochi W. Devi però saper mettere mano, cosa che il 90% dei giocatori non saprebbe fare.
P.S. Anche Amd potrebbe farlo ma non lo fa. Vedi le ultime cpu da game cosa consumano. Meno del mio vetusto 7700 :D

Esatto, io sono rimasto basito quando mi sono accorto che il mio nuovo computer (in firma) consumava molto meno del mio vetusto x99 con 5930k che avevo tenuto per sei anni, tutti mi avevano detto che ci sarebbe voluta una centrale elettrica dedicata, niente di più sbagliato, le nuove architetture (CPU e GPU) sono super efficienti a livello energetico. Molti lasciano tutto a briglia sciolta ma non si accorgono che non serve a niente (per ora) se non a consumare molto di più.

DarkNiko
07-04-2023, 17:42
Esatto, io sono rimasto basito quando mi sono accorto che il mio nuovo computer (in firma) consumava molto meno del mio vetusto x99 con 5930k che avevo tenuto per sei anni, tutti mi avevano detto che ci sarebbe voluta una centrale elettrica dedicata, niente di più sbagliato, le nuove architetture (CPU e GPU) sono super efficienti a livello energetico. Molti lasciano tutto a briglia sciolta ma non si accorgono che non serve a niente (per ora) se non a consumare molto di più.

Non è che si lascia tutto a briglia sciolta per il solo gusto di farlo (e non ci sarebbe nulla di male in ogni caso!), quanto il fatto che per alcuni è necessario farlo. Nel mio caso (e sicuramente anche nel tuo), giocando in 4K a 60 fps (questo è il mio obiettivo), la scheda consuma poco e indubbiamente meno della vecchia (si fa per dire) 3090. Alla risoluzione a cui giochi tu ancora meno.

Ma mettiti nei panni di chi ha uno schermo da 120/144 Hz e vuole sfruttare il proprio monitor (Gsync o meno che sia), la VGA dovrà lavorare gioco forza di più e qui non si tratta di stabilire se il gioco è fluido già a 60 fps e 120 o 144 fps sono inutili, perché l'inutilità in questo (e non solo questo) caso è puramente soggettiva.

Per il resto concordo che le Lovelace sono gran belle schede, ma tanto tra un annetto giacchetta tirerà fuori dal cilindro qualche altra diavoleria facendo sembrare inadeguate schede che ora osanniamo. :D

ColdWarGuy
09-04-2023, 13:34
La 3070 serve solo a togliere e far perdere senso alla 3080, alcuni mesi fa molti prendevano in considerazione l'idea di prendere una 3080 USATA sui 600 euro, era l'unica via per avere prestazioni da fascia alta - medio/alta (ormai) senza dover spendere un rene, ragionamento giusto se si veniva da una serie 1000 pascal o dalle 2070 in giú.

Ora con 3070 fuori, le 3080 a quei prezzi non le vendi piú, ormai il PP é vetusto e non é mai stato il punto di forza di ampere, altrimenti quelle schede su altro pp avrebbero spinto e consumato meno, ma quello c'era, alla fine la 3080 di listino la piazzava a 719 (prezzo onestissimo) poi sappiamo tutti com'é andata a finire, con il wafer in aumento quei prezzi non li vedremo mai piú e temo che le prossime saranno veramente onerose.


Comunque una 3070 a 700 euro nuova é meglio di una 3080 presa usata a 600 euro mesi fa

Tanto le performance sono li, con DLSS3 la saluta, ha 2gb di vram in piú e gira con 200w di tdp, in 1440p girerá bene , piú si sale di risoluzione peggio é ma non essendo il suo terreno (il 4k) é un non problema, abbiamo giá visto con il bus a 192bit della 4070ti quanto si perde in 4k.


Ecco la founders:

https://videocardz.com/newz/nvidia-geforce-rtx-4070-founders-edition-gpu-has-been-pictured

Ovviamente intendevi 4070, io comunque aspetterei benchmarks prima di dire che 4070 > 3080, DLSS 3 a parte, al di là del fatto che concordo con il tuo ragionamento.

Ubro92
09-04-2023, 14:35
Ovviamente intendevi 4070, io comunque aspetterei benchmarks prima di dire che 4070 > 3080, DLSS 3 a parte, al di là del fatto che concordo con il tuo ragionamento.

Quello puoi darlo praticamente certo, prendi una 3070 dagli un +40% di clock e hai preso la 3080.

fraussantin
09-04-2023, 14:37
Si ovvio 4070 oggi sono fuso:DCmq una 3080 che costava 720 euro 2 anni e mezzo fa ancora oggi la vendi a 500 tranquillamente.
È stata un best buy indiscusso.

mikael84
09-04-2023, 15:15
Buona pasqua
Cmq una 3080 che costava 720 euro 2 anni e mezzo fa ancora oggi la vendi a 500 tranquillamente.
È stata un best buy indiscusso.

La 3080 sarà altamente competitiva, soprattutto se AMD si decide a tirare fuori il FSR3. Unica pecca i 10 vs 12 gb.

fraussantin
09-04-2023, 15:29
Si i fortunati che l'hanno pagata 719 (quattro gatti) hanno fatto l'affare, ma la situazione non era quella, la gente la pagava dalle 1200 in su:D

Questo piccolo dettaglio spesso lo si dimentica.

La 3080Fe (anche la 3090 fe) erano perennemente out of stock, ho visto con i miei occhi acquistare 3080 strix a 1600-1700 roba da fulminati.

Il prezzo era completamente fuori mercato, solo gli ultimi 5 mesi (prima delle 4000) avevano prezzi ''normali''

Stavolta ci ha pensato direttamente nvidia a fare i listini da bagarinaggio, la 4080 la paghi 1399 dal sito LOL (all'esordio 1479)

Qui sul forum piu o meno tutti l'abbiamo presa sotto i 900 euro( nelle varie versioni)

Poi si nel mondo reale la gente si era fatta inscimmiare e comprava senza logica.

Io preferivo quella situazione , con un po di dedizione e fortuna si poteva comprare. Adesso devi cacciare 1800\2000 euro e fra 2 anni varrà cmq la metà ad andare bene.

mikael84
09-04-2023, 15:39
Stavolta ci ha pensato direttamente nvidia a fare i listini da bagarinaggio, la 4080 la paghi 1399 dal sito LOL (all'esordio 1479)

A 1600 partono le 4090 ormai, quella FE può rimanere li.:p

ColdWarGuy
09-04-2023, 17:14
-snip
Adesso devi cacciare 1800\2000 euro e fra 2 anni varrà cmq la metà ad andare bene.

Concordo, purtroppo i soldi spesi in materiale informatico sono destinati a svanire, non è come comprare, chessò, un paio di casse acustiche di pregio che possono avere senso anche dopo decine d'anni.

IL mio top di longevità l'ho raggiunto con un 2500K preso nel 2011 per la mia postazione da gioco, l'ho tirato a corda di violino fino al 2018, ora è in pensione sul PC di mio padre :D

Ubro92
09-04-2023, 18:22
Concordo, purtroppo i soldi spesi in materiale informatico sono destinati a svanire, non è come comprare, chessò, un paio di casse acustiche di pregio che possono avere senso anche dopo decine d'anni.



IL mio top di longevità l'ho raggiunto con un 2500K preso nel 2011 per la mia postazione da gioco, l'ho tirato a corda di violino fino al 2018, ora è in pensione sul PC di mio padre :DLa stessa sorte toccherà al 3930k in firma 🤣
Personalmente per come esploso il mercato fino a un anno fa la scimmia mi era completamente morta.

Ho aggiornato la 980ti giusto 4 mesi fa con la 3060ti usata e per ora va bene cosi, devo aggiornare giusto il blocco CPU e poi sono apposto così se ne parla direttamente con le 5000, sperando in tempi migliori...

Inviato dal mio M2012K11AG utilizzando Tapatalk

gexxx
10-04-2023, 08:12
Ragazzi, ma verrà mai rilasciata una 4080 ti ?

fraussantin
10-04-2023, 08:12
Ragazzi, ma verrà mai rilasciata una 4080 ti ?Secondo me a settembre

Sempre se non arriva un refrash

Gia la 7900xt sugli 850 inizia a farsi interessante , se droppano un altro po qualcosa nvidia deve fare

ultimate trip
10-04-2023, 08:50
Secondo me a settembre

Sempre se non arriva un refrash

Gia la 7900xt sugli 850 inizia a farsi interessante , se droppano un altro po qualcosa nvidia deve fare

cosa intendi? che se fa le super magari la 4080ti non esce?
potrebbe fare anche entrambe
io son curioso di vedere la 4080ti, se sarà competitiva rispetto alla 4090 e al costo della 4080 di oggi potrebbe avere senso

Ubro92
10-04-2023, 08:58
Fondamentalmente ancora non sono usciti i chip di fascia media-bassa, i refresh possono aver senso post estate 2023 o inizio 2024, ma giusto se si accorgono di vendite bassine o se AMD si mostra competitiva in quelle fasce, dato che con un refresh in sostanza proponi i medesimi chip scalati di prezzo e ricicli i die meglio riusciti.
Ma ho molti dubbi a riguardo, penso che Nvidia passerà dritta a blackwell, in genere la nuova gen arriva sempre dopo 16-26 mesi quindi non sarebbe neanche strano vedere qualcosa già nel 2024 Q2/Q3.

La 4080ti arriverà sicuramente, ma penso che semplicemente si cerchi di massimizzare le vendite della 4080, se arriva la ti nessuno se la fila più.

lordsnk
10-04-2023, 10:23
Ragazzi, ma verrà mai rilasciata una 4080 ti ?

Dopo tutto quello che sta succedendo più che chiedersi se uscirà la 4080 TI è meglio chiedersi come sarà la 4080 TI?
Se analizziamo bene la 4090, vram a parte, è praticamente una 4080 TI. Per questo ho paura che la 4080 TI possa essere la vera 4080 e quindi basata su AD103 full chip.
Spero fortemente di sbagliarmi, ma ho questa brutta sensazione. :(

Ubro92
10-04-2023, 10:38
Dopo tutto quello che sta succedendo più che chiedersi se uscirà la 4080 TI è meglio chiedersi come sarà la 4080 TI?
Se analizziamo bene la 4090, vram a parte, è praticamente una 4080 TI. Per questo ho paura che la 4080 TI possa essere la vera 4080 e quindi basata su AD103 full chip.
Spero fortemente di sbagliarmi, ma ho questa brutta sensazione. :(

Non avrebbe senso poichè se anche facessero un full chip AD103 con memorie a 24gbps, andrebbe un 5% massimo in più (lo stesso divario di 2080 vs 2080s, al più può essere un refresh)...

Se fanno una 4080ti sarà su AD102, con cut strategico sul bus a 320bit quindi 20GB di vram e un taglio ancora più brutale sui cc.

Techpowerup addirittura ipotizza 14080cc veramente la devastazione più totale peggio della 3080 (l'hanno calcolato facendo una proporzione tra 4070 e 4070ti), ma anche tagliata cosi è più appetibile della 4080...

https://www.techpowerup.com/gpu-specs/geforce-rtx-4080-ti.c3887

Con un cut simile alla 3080 dovrebbe avere nell'intorno dei 15000 cuda.

mikael84
10-04-2023, 11:36
cosa intendi? che se fa le super magari la 4080ti non esce?
potrebbe fare anche entrambe
io son curioso di vedere la 4080ti, se sarà competitiva rispetto alla 4090 e al costo della 4080 di oggi potrebbe avere senso

La scorsa estate, ad inizio test, avevano speculato un chip con 14848 cuda e 320 bit (1gpc meno della 4090), ma non era precisato per quale segmento fosse pensata.
Attualmente, di questa ipotetica TI non si sa nulla, addirittura, neppure della 4090ti, che era data come favorita nel q1 2023.

JHH la 4080, nei dev la paragona alla 3080ti, quindi potrebbe anche essere inquadrata come serie TI.

Bisogna vedere che si inventa a fine anno, o l'anno prossimo, quando dovrà cercare di smaltire AD102, anche per fare spazio a Blackwell, che inizierà i test a giugno.

Dopo tutto quello che sta succedendo più che chiedersi se uscirà la 4080 TI è meglio chiedersi come sarà la 4080 TI?
Se analizziamo bene la 4090, vram a parte, è praticamente una 4080 TI. Per questo ho paura che la 4080 TI possa essere la vera 4080 e quindi basata su AD103 full chip.
Spero fortemente di sbagliarmi, ma ho questa brutta sensazione. :(

Si la 4090 è una 4080ti teoricamente. La 4080ti, potrebbe anche non esistere a sto giro.
Lui la paragona già alla post 3080ti.
Con furbizia però si è lasciato il nome libero, quindi, quando dovrà smobilitare AD102 per l'ingresso di blackwell, potrebbe anche fare qualche lancio a sorpresa.
https://i.postimg.cc/1RCkC2Mc/4080ti.png

ColdWarGuy
10-04-2023, 12:12
Con furbizia però si è lasciato il nome libero, quindi, quando dovrà smobilitare AD102 per l'ingresso di blackwell, potrebbe anche fare qualche lancio a sorpresa.
https://i.postimg.cc/1RCkC2Mc/4080ti.png

Con furbizia il consumatore dovrebbe lasciare tutte le schede della serie 4000 sullo scaffale, ogni singolo pezzo, ma tant'è.

fraussantin
10-04-2023, 12:33
Con furbizia il consumatore dovrebbe lasciare tutte le schede della serie 4000 sullo scaffale, ogni singolo pezzo, ma tant'è.Ieri parlavo con un amico che compra amd .. lui aspetta la 7800 perche ha una 6800, e perche la 7900xt gli sembra esagerata ,gli ho fatto notare che la 7900xt è quello che doveva essere la 7800 e ci è rimasto male.

La gente comune non ci capisce niente e il giochino dei nomi funziona.

Lan_Di
10-04-2023, 15:54
La gente comune guarda il prezzo e per una persona normale spendere 1000 solo per la gpu non ha senso

ColdWarGuy
10-04-2023, 16:13
La gente comune guarda il prezzo e per una persona normale spendere 1000 solo per la gpu non ha senso

Ma anche 600-700 sono target di prezzo da appassionati e/o addicted, quello che NVIDIA sta tentando di fare è di convincere la platea che il new normal è 2X rispetto al passato e che il DLSS 3 giustifica tutto ciò.

fraussantin
10-04-2023, 18:37
La gente comune guarda il prezzo e per una persona normale spendere 1000 solo per la gpu non ha sensoSu questo punto non sarei troppo convinto .

Cmq la 7900xt a 850 inizia ad avere senso se perde altri 100 euro diventa un buon acquisto

Ubro92
10-04-2023, 18:44
La gente comune guarda il prezzo e per una persona normale spendere 1000 solo per la gpu non ha senso

Di solito la maggior parte delle persone con 1000-1200€ ci si fa l'intero pc.
Spenderne anche "solo" 700€ per una GPU è già da considerare come un utente di nicchia o appassionato.

Fino a qualche anno fa 700€ erano target da x80, oggi per 700€ ti rifilano una 4070 che tecnicamente è dimensionata come una x60 :sofico:

Molti amici stanno ripiegando sui notebook, anche se come esperienza d'uso è una continua lotta con le temperature.

EffeX
11-04-2023, 15:06
Personalmente li avrei anche spesi 700€, ma per una 4070Ti, non la liscia, e avrei comunque avuto l'orticaria per i 192 bit di bus ed i 12 gb di ram.
Ma Nvidia ha voluto starfare per mantenere alto il fatturato post mining ed il risultato sono i prezzi attuali.
Che poi sia chiaro, Lovelace come uarch è ottima, son proprio solo i prezzi che sono fuori da ogni logica. :mc:

Ubro92
11-04-2023, 16:00
Personalmente li avrei anche spesi 700€, ma per una 4070Ti, non la liscia, e avrei comunque avuto l'orticaria per i 192 bit di bus ed i 12 gb di ram.
Ma Nvidia ha voluto starfare per mantenere alto il fatturato post mining ed il risultato sono i prezzi attuali.
Che poi sia chiaro, Lovelace come uarch è ottima, son proprio solo i prezzi che sono fuori da ogni logica. :mc:

Non a caso le vendite sono ai minimi.

Purtroppo nvidia si è appoggiata al salto di nodo e non solo ti sta vendendo una x60 come x70 ma ha anche alzato i rispettivi msrp.

Vedremo in futuro come si evolverà la situazione però per ora questo passa.

Lato vram, in rapporto alle prestazioni del chip 12GB ci stanno, anche se molti si lamentano anche degli 8GB della 3070 e avrebbero preferito probabilmente una 3070 a 192bit ma con 12GB GDDR6X.

Però 8GB oramai sono da chip di fascia media o bassa, infatti li vedremo dalla 4060ti/7600xt a scendere.

nessuno29
11-04-2023, 17:28
Non a caso le vendite sono ai minimi.

Purtroppo nvidia si è appoggiata al salto di nodo e non solo ti sta vendendo una x60 come x70 ma ha anche alzato i rispettivi msrp.

Vedremo in futuro come si evolverà la situazione però per ora questo passa.

Lato vram, in rapporto alle prestazioni del chip 12GB ci stanno, anche se molti si lamentano anche degli 8GB della 3070 e avrebbero preferito probabilmente una 3070 a 192bit ma con 12GB GDDR6X.

Però 8GB oramai sono da chip di fascia media o bassa, infatti li vedremo dalla 4060ti/7600xt a scendere.

8gb sono da chip di fascia medio bassa dal 2016 (rx 480 280 euro)

Ubro92
11-04-2023, 17:51
8gb sono da chip di fascia medio bassa dal 2016 (rx 480 280 euro)

Quel target di prestazioni si è sempre tenuto sui 4GB, vedi le R9 290/390 o GTX 970/980...

Le varianti da 8GB uscirono giusto per marketing dato che la 1060 avendo un bus a 192bit aveva 3/6GB.

Poi non metto in dubbio che come evoluzione dalla 2080ti con 11GB ci si aspettava chip come 3070 con 12GB, però si è vincolati al bus, e andava scalata a 192bit perdendo anche una porzione di cache che su ampere è già poca, non potevi neanche utilizzare le GDDR6X a doppia densità dato che non erano disponibili e con le GDDR6 non potevi compensare...

Però nei giochi più recenti non è che la 2080ti con 11GB faccia miracoli rispetto la 3070, quindi che nella fascia medio/bassa come 4060/7600xt si resti sui 8GB può starci, sono schede che finiranno a gestire il 1080p o 1440p con FSR/DLSS per i titoli più esosi.

Forse la 3080 con 10GB è un pò un NI, già la 4070 liscia con 12GB è più bilanciata.

mikael84
11-04-2023, 18:05
8gb sono da chip di fascia medio bassa dal 2016 (rx 480 280 euro)

Aveva un 256bit come la 1080-1070.

Quel target di prestazioni si è sempre tenuto sui 4GB, vedi le R9 290/390 o GTX 970/980...

Le varianti da 8GB uscirono giusto per marketing dato che la 1060 avendo un bus a 192bit aveva 3/6GB.

Poi non metto in dubbio che come evoluzione dalla 2080ti con 11GB ci si aspettava chip come 3070 con 12GB, però si è vincolati al bus, e andava scalata a 192bit perdendo anche una porzione di cache che su ampere è già poca, non potevi neanche utilizzare le GDDR6X a doppia densità dato che non erano disponibili e con le GDDR6 non potevi compensare...

Però nei giochi più recenti non è che la 2080ti con 11GB faccia miracoli rispetto la 3070, quindi che nella fascia medio/bassa come 4060/7600xt si resti sui 8GB può starci, sono schede che finiranno a gestire il 1080p o 1440p con FSR/DLSS per i titoli più esosi.

Forse la 3080 con 10GB è un pò un NI, già la 4070 liscia con 12GB è più bilanciata.

La 3080 però è una scheda che ormai ha 3 anni quasi. Per il resto, tutta la fascia ampere, se ci sleghiamo da parametri tecnici, sarebbero dovute essere con 12gb. Però se guardiamo il lato tecnico, costi ed accordi con micron, la situazione è questa.
Dovevano dare la possibilità ai partner di aumentare la ram, come si faceva un tempo con la doppia versione. L'ultima fu la 780 da 6gb.

Riguardo la 4060, praticamente se prima prendeva la x80 precedente, ora prende quella di 2 gen fa: 4060= 2080 liscia.

Lan_Di
11-04-2023, 18:11
Come già detto, il problema non è come scala rispetto la generazione precedente, ma l'andamento del prezzo in funzione alle prestazioni, indipendentemente dal nome.
Se la 4060 andasse come una 3060 ti, più tutto il supporto tecnologico ed efficienza energetica del caso, a prezzi > 350€ la scheda non farebbe contento nessuno.
Se invece andasse anche solo come una 3060 ma a 200€, nessuno avrebbe di che lamentarsi.
Purtroppo le previsioni sono tendenti alla prima soluzione.

Ubro92
11-04-2023, 18:15
E neanche come prestazioni teoriche la 4060 è già tanto se prende la 2070s, ma AD107 è segmento da x50, tutte le fasce sono state praticamente traslate.

Per chi ha la 3080 francamente gli conviene attendere direttamente blackwell senza farsi troppi problemi sulla questione 10GB soprattutto se gioca a 1440p, poichè come upgrade si dovrebbe puntare come minimo alla 4080 e volano via 1200€ minimo...

nessuno29
11-04-2023, 18:19
Ma per me che sto sui 1440p ad oggi quale sarebbe l'upgrade migliore per qualità prezzo rispetto alla 3070? Una 4070 da 12gb a 700 euro che va il 30% in più? C'è un piattume assurdo.

devil_mcry
11-04-2023, 18:19
E neanche come prestazioni teoriche la 4060 è già tanto se prende la 2070s, ma AD107 è segmento da x50, tutte le fasce sono state praticamente traslate.

Per chi ha la 3080 francamente gli conviene attendere direttamente blackwell senza farsi troppi problemi sulla questione 10GB soprattutto se gioca a 1440p, poichè come upgrade si dovrebbe puntare come minimo alla 4080 e volano via 1200€ minimo...

oppure se ha culo e ha una 3080 12 gb come me è a posto del tutto XD

scherzi a parte la situazione è molto triste, io la 3080 12gb su amazon l'ho pagata un po' di meno di una 4070 ti (che va un po' di più), il problema è che non doveva essere così il prezzo della 4070 ti

fraussantin
11-04-2023, 18:28
Ma per me che sto sui 1440p ad oggi quale sarebbe l'upgrade migliore per qualità prezzo rispetto alla 3070? Una 4070 da 12gb a 700 euro che va il 30% in più? C'è un piattume assurdo.Una 4080.

O una 7900xt se non dai importanza al dlss e rt.

Sotto secondo me non vale spendere quei soldi .piuttosto veramente se trovi a poco una 3090 o una 3080ti al massimo.

Ma deve essere un prezzo basso per l'usato

Ubro92
11-04-2023, 18:28
oppure se ha culo e ha una 3080 12 gb come me è a posto del tutto XD

scherzi a parte la situazione è molto triste, io la 3080 12gb su amazon l'ho pagata un po' di meno di una 4070 ti (che va un po' di più), il problema è che non doveva essere così il prezzo della 4070 ti

Tolto il DLSS3 ci si ritrova a pagare le stesse prestazioni per prezzo, quindi nell'effettivo solo 4080 e 4090 offrono di più.

E' veramente molto triste come situazione, se uno non si sente troppo strozzato dalla gpu che ha gli conviene saltare questa gen.

StylezZz`
11-04-2023, 18:34
Ma per me che sto sui 1440p ad oggi quale sarebbe l'upgrade migliore per qualità prezzo rispetto alla 3070? Una 4070 da 12gb a 700 euro che va il 30% in più? C'è un piattume assurdo.

Premettendo che a 1440p mi trovo bene e non ho ancora necessità di aggiornare, ma per come la vedo io questa gen non ha nulla da offrire in fascia media che sia degno della nostra attenzione...io attendo direttamente la prossima, e tengo d'occhio Intel.

mikael84
11-04-2023, 18:39
oppure se ha culo e ha una 3080 12 gb come me è a posto del tutto XD

scherzi a parte la situazione è molto triste, io la 3080 12gb su amazon l'ho pagata un po' di meno di una 4070 ti (che va un po' di più), il problema è che non doveva essere così il prezzo della 4070 ti

Sempre detto, per me la 12 è stata la miglior ampere in rapporto.
Per chi ha qualsiasi x80, l'unica scelta è la 4080.
La fascia x70 ha il vantaggio FG, ma si spera nel FSR3.

Da considerare che se si usa il 4k, la x70 è meglio lasciarla dov'è.

ColdWarGuy
11-04-2023, 23:36
https://i.postimg.cc/WpyrqPNY/aaa.jpg

nessuno29
12-04-2023, 05:48
Una 4080.

O una 7900xt se non dai importanza al dlss e rt.

Sotto secondo me non vale spendere quei soldi .piuttosto veramente se trovi a poco una 3090 o una 3080ti al massimo.

Ma deve essere un prezzo basso per l'usato

Piuttosto che spendere quelle cifre preferisco vendere la 3070 e giocare a dota 2 a vita con il 5600g ahah Vorrà dire che aspetterò la 5070 o una AMD 7000 decente con più vram se si sveglia e la smette di stare al gioco di giacchetta.

Dono89
12-04-2023, 06:51
Premettendo che a 1440p mi trovo bene e non ho ancora necessità di aggiornare, ma per come la vedo io questa gen non ha nulla da offrire in fascia media che sia degno della nostra attenzione...io attendo direttamente la prossima, e tengo d'occhio Intel.


Tra un anno abbondante esce la serie 5000
Ci sono due estati davanti e schede come 3070/3070ti/3080 in 2k tirano tutto tranquillamente per almeno 3 anni.

Attendiamo la 5070/ti e vediamo che esce fuori

X360X
12-04-2023, 07:10
Basta guardare questo:
estate 2019 = 2080 Super (circa 750 ivata al lancio)
inverno 2020 = 3060Ti (circa 430 ivata al lancio)

e la 3060Ti cosa è se non una "versione migliorata" della 2080 Super...

Ora nvidia se dopo il duraturo "bonus mining" ci vendesse a 500 ivata quantomeno una...3080 migliorata, ovvero quel che sembrerebbe una 4070 (al netto delle discussioni su bus e vram), non starebbe sicuro regalando niente.
Perché 700 doveva costarci la 4070Ti e non l'avrebbero mica regalata, quello è.

Poi si saranno detti "ma tiriamola sta corda che tanto sembra andare all'infinito"

Alain7
12-04-2023, 07:53
La presentazione ufficiale è domani alle 16 italiane?

Ale55andr0
12-04-2023, 08:12
.

Poi si saranno detti "ma tiriamola sta corda che tanto sembra andare all'infinito"


esatto. E la corda gli ha dato ragionissima. Spero in una 5070ti a 1500 euro visto che andrà come la 4090. Ah ovviamente non con 24gb di ram ma con 12 (aka 4070ti/3090). Nulla è più indispensabile di cio che è superfluo o com'è che diceva quel famoso detto....

Tra un anno abbondante esce la serie 5000
Ci sono due estati davanti e schede come 3070/3070ti/3080 in 2k tirano tutto tranquillamente per almeno 3 anni.

Attendiamo la 5070/ti e vediamo che esce fuori

le 3070 dei giochi nuovi in 2K veri da qui a 3 anni (:sbonk:) non tirano proprio niente, se non con diversi compromessi (persino sulle texture). Ma pure un CP 2077, gioco di due anni fa in 2k con la 3070ti non lo maxi (e non includo l'overdrive eh). 600 euro di schede dopo due anni già inadeguate per una ignobile dotazione di ram (e lo dissi già all'epoca eh che 8 gb era una presa in giro, non solo oggi cavalcando l'onda, sia chiaro). Non faccio programmi avendo anche ben altri problemi, ma pioverà all'inferno prima che compri un'altra nvidia al farabutto in giacchetta. Piuttosto mi darò al gaming su smartphone se non dovessi proprio avere alternative o al curling.

fraussantin
12-04-2023, 08:21
Attendiamo la 5070/ti e vediamo che esce fuori

Penso proprio che upgraderò con quelle , a meno di sorprese con amd\intel.

È che già ho fatto la bocca a 1000 euro

kiwivda
12-04-2023, 09:28
esatto. E la corda gli ha dato ragionissima. Spero in una 5070ti a 1500 euro visto che andrà come la 4090. Ah ovviamente non con 24gb di ram ma con 12 (aka 4070ti/3090). Nulla è più indispensabile di cio che è superfluo o com'è che diceva quel famoso detto....



le 3070 dei giochi nuovi in 2K veri da qui a 3 anni (:sbonk:) non tirano proprio niente, se non con diversi compromessi (persino sulle texture). Ma pure un CP 2077, gioco di due anni fa in 2k con la 3070ti non lo maxi (e non includo l'overdrive eh). 600 euro di schede dopo due anni già inadeguate per una ignobile dotazione di ram (e lo dissi già all'epoca eh che 8 gb era una presa in giro, non solo oggi cavalcando l'onda, sia chiaro). Non faccio programmi avendo anche ben altri problemi, ma pioverà all'inferno prima che compri un'altra nvidia o al farabutto in giacchetta. Piuttosto mi darò al gaming su smartphone se non dovessi proprio avere alternative o al curling.


Ah... l'uva....
Comunque la strada è stata segnata già fin dall'avvento di Turing, la risoluzione nativa o "vera", come la chiami tu, non ha più senso di esistere, è inefficiente, qualitativamente ininfluente, un pachiderma dinun passato in cui non si avevano alternative e si faceva buon viso a cattivo gioco.

Sui prezzi possiamo discutere all'infinito, ma la questione è soggettiva, 600 euro per me o per te possono essere tanti o pochi, quello che è inoppugnabile è il progresso fatto negli anni, con avanzamenti tecnologici fatti non solo di hardware ma di un concerto coordinato di software e hardware. Peccato che il software è sempre difficile da concepire come valore aggiunto, soprattutto in questo paese dove il merito per abilità intellettuali conta come la carta straccia e il software a pagamento quasi una bestemmia.

Poi sappiamo tutti che JHH ha detto che questo è: "the iPhone moment of GPU", parole sue, testuali, quindi fate i vostri conti, ma con quest'ultima iterazione di CP2077 ha tracciato un solco profondo km nei confronti di qualunque altro competitor e io sono più che felice di stare ancora sul carrozzone, perché se nel 1989 mi avessero detto che l'11 aprile 2023 avrei giocato a casa ad un titolo come CP2077 in Raytracing gli avrei riso in faccia.

Tuttavia, forse, se da un lato abbiamo perso AMD, forse dall'altra Intel potrebbe riservare piacevolissime sorprese, soprattutto essendosi liberata di quel ReMida al contrario di Koduri.

Parlando di CP 2077, titolo uscito due anni e 4 mesi fa alla vendita ma finito ufficialmente oggi, con una 3070 c'è solo da ringraziare che non fosse finito, perché se usciva come ieri ma 2 anni e 4 mesi fa, altro che raster, in 640x480 lo si doveva giocare, poi si 8Gb sono pochini, ma è anche vero che con una 3070 io non mi sognerei mai nulla superiore al 1080p, ma questa è una considerazione personale, probabilmente ho aspettato e diverse.

Forse siete giovincelli ma ricordate il buon vecchio Crysis? Io lo giocai in un tempo dove la risoluzione inutile sulla bocca di tutti era il 1024x768, su una 8800GTS in SLI con 1280 mega di VRAM (640MB a scheda) e un PC che consumava alla presa quasi 500w. Lo giocai a 800x600 proiettato su una parete con un proiettore DLP (mica laser) su uno schermo da 2,5mt di base, ancora ricordo la meraviglia del tempo, e i discorsi come il tuo di chi non era più disposto ad accettare il progresso e l'avanzamento, le argomentazioni sempre le stesse.
Oggi la risoluzione inutile è il 4k e sono fermamente convinto che tra 5 anni sarà l'8k upscalato dal 4k e qualcuno dirà:"... è fake fa schifo!", quando probabilmente sarà la cosa più bella del mondo.

Resta comunque il fatto che da ieri 11 aprile 2023 è stata tracciata una linea, posata un'altra petra miliare di questo mondo, e per me qualunque altra iterazione di questo calibro (non parlo degli indie) che non soddisferà questi standard sarà solo tempo perso.

Resto invece molto curioso e di vede cosa ci prospetterà il futuro, dal mio canto ora come ora la mia attenzione è più verso un pannello OLED o magari miniled in 4k da 27" che abbia una desità equivalente a quello che posseggo ma con una qualità d'immagine sempre migliore. Lato GPU non mi aspetto nulla di nuovo almeno fino al 2025, forse solo una nuova ammiraglia, per chi non si arrende mai, ma per tutti gli altri ci saranno le schede attuali che diverranno la nuova fascia bassa media e alta, noi enthusiast siamo un'altra cosa.
Ad oggi in verità non c'è alcun bisogno di nulla di più potente, perché le immagini sono sotto gli occhi di tutti, la 4090 è più che i grado di gestire un'esperienza come CP2077 Overdrive in 4k e pare che anche la 4080 e la 4070ti lo siano ampiamente, dietro purtroppo il nulla.

ColdWarGuy
12-04-2023, 10:00
Ah... l'uva....
Comunque la strada è stata segnata già fin dall'avvento di Turing, la risoluzione nativa o "vera", come la chiami tu, non ha più senso di esistere, è inefficiente, qualitativamente ininfluente, un pachiderma dinun passato in cui non si avevano alternative e si faceva buon viso a cattivo gioco.

Sui prezzi possiamo discutere all'infinito, ma la questione è soggettiva, 600 euro per me o per te possono essere tanti o pochi,

-snip


Immagino che questa sia la psicologia giustificativa di chi ha finanziato giacchetta con 2000 euro di scheda, probabilmente al prossimo giro ne tirerai fuori 3500 e troverai giusto farlo.

davide155
12-04-2023, 10:12
Immagino che questa sia la psicologia giustificativa di chi ha finanziato giacchetta con 2000 euro di scheda, probabilmente al prossimo giro ne tirerai fuori 3500 e troverai giusto farlo.Guarda io sono uno di quelli che ha criticato fortemente giacchetta per i prezzi allucinanti delle ada lovelace appena presentate, soprattutto in Europa.
Però non sto nemmeno qua a piangermi addosso perché non voglio comprare una 4090 a due mila euro.
Non posso o non voglio? Bene, non la compro. Sta sicuro che come me ce ne saranno tanti altri.
Se poi faranno il record di vendite e fatturato buon per loro. I miei soldi non li avranno, almeno non ora sul nuovo.
Però tutto questo astio continuo a non capirlo.
Amd non è stata da meno con le sue gpu, salvo poi rivedere al ribasso i prezzi perché non stavano vendendo come sperato.
Poi gente che pretende il top della grafica da una 3070, quando sappiamo tutti che era una gpu votata al 1080p, 1440p solo in determinati titoli.
Per ogni fascia di prezzo c'è il suo prodotto. E per ogni prodotto c'è un determinato risultato. È così anche in tutti gli altri settori ed hobby.
Mi meraviglio di chi si meraviglia.

kiwivda
12-04-2023, 10:18
Immagino che questa sia la psicologia giustificativa di chi ha finanziato giacchetta con 2000 euro di scheda, probabilmente al prossimo giro ne tirerai fuori 3500 e troverai giusto farlo.


Caro nessuno mi ha puntato la pistola alla tempia, posso e fortunatamente faccio, essere felici con quel che si ha non ha prezzo.

Ma di sicuro non mi lamenterò mai delle prestazioni di una nuova gen solo perché non posso/voglio spendere i soldi richiesti. È una passione e se al prossimo giro saranno 3500 (periamo di no), deciderò di conseguenza.

Conosco gente che per uno scarico completo di una macchina ha speso il doppio e sono tubi di metallo, che sostituiscono altri tubi che fanno la stessa cosa eppure...

bagnino89
12-04-2023, 10:22
Ah... l'uva....
Comunque la strada è stata segnata già fin dall'avvento di Turing, la risoluzione nativa o "vera", come la chiami tu, non ha più senso di esistere, è inefficiente, qualitativamente ininfluente, un pachiderma dinun passato in cui non si avevano alternative e si faceva buon viso a cattivo gioco.

cut...



Non te la prendere ma mi è sembrato uno dei post superc@zzola di Egounix, peccato che non lo ritrovo più... :asd:

Poi gente che pretende il top della grafica da una 3070, quando sappiamo tutti che era una gpu votata al 1080p, 1440p solo in determinati titoli.

Bah, a me pare che quando uscì gli esperti dicevano che il 1440p lo tritava, e in 4k con qualche compromesso... Mentre la 3080 era il top per il 4k. Magari ricordo male io...

EffeX
12-04-2023, 10:23
Ah... l'uva....
Comunque la strada è stata segnata già fin dall'avvento di Turing, la risoluzione nativa o "vera", come la chiami tu, non ha più senso di esistere, è inefficiente, qualitativamente ininfluente, un pachiderma dinun passato in cui non si avevano alternative e si faceva buon viso a cattivo gioco.

Sui prezzi possiamo discutere all'infinito, ma la questione è soggettiva, 600 euro per me o per te possono essere tanti o pochi, quello che è inoppugnabile è il progresso fatto negli anni, con avanzamenti tecnologici fatti non solo di hardware ma di un concerto coordinato di software e hardware. Peccato che il software è sempre difficile da concepire come valore aggiunto, soprattutto in questo paese dove il merito per abilità intellettuali conta come la carta straccia e il software a pagamento quasi una bestemmia.

Poi sappiamo tutti che JHH ha detto che questo è: "the iPhone moment of GPU", parole sue, testuali, quindi fate i vostri conti, ma con quest'ultima iterazione di CP2077 ha tracciato un solco profondo km nei confronti di qualunque altro competitor e io sono più che felice di stare ancora sul carrozzone, perché se nel 1989 mi avessero detto che l'11 aprile 2023 avrei giocato a casa ad un titolo come CP2077 in Raytracing gli avrei riso in faccia.

Tuttavia, forse, se da un lato abbiamo perso AMD, forse dall'altra Intel potrebbe riservare piacevolissime sorprese, soprattutto essendosi liberata di quel ReMida al contrario di Koduri.

Parlando di CP 2077, titolo uscito due anni e 4 mesi fa alla vendita ma finito ufficialmente oggi, con una 3070 c'è solo da ringraziare che non fosse finito, perché se usciva come ieri ma 2 anni e 4 mesi fa, altro che raster, in 640x480 lo si doveva giocare, poi si 8Gb sono pochini, ma è anche vero che con una 3070 io non mi sognerei mai nulla superiore al 1080p, ma questa è una considerazione personale, probabilmente ho aspettato e diverse.

Forse siete giovincelli ma ricordate il buon vecchio Crysis? Io lo giocai in un tempo dove la risoluzione inutile sulla bocca di tutti era il 1024x768, su una 8800GTS in SLI con 1280 mega di VRAM (640MB a scheda) e un PC che consumava alla presa quasi 500w. Lo giocai a 800x600 proiettato su una parete con un proiettore DLP (mica laser) su uno schermo da 2,5mt di base, ancora ricordo la meraviglia del tempo, e i discorsi come il tuo di chi non era più disposto ad accettare il progresso e l'avanzamento, le argomentazioni sempre le stesse.
Oggi la risoluzione inutile è il 4k e sono fermamente convinto che tra 5 anni sarà l'8k upscalato dal 4k e qualcuno dirà:"... è fake fa schifo!", quando probabilmente sarà la cosa più bella del mondo.

Resta comunque il fatto che da ieri 11 aprile 2023 è stata tracciata una linea, posata un'altra petra miliare di questo mondo, e per me qualunque altra iterazione di questo calibro (non parlo degli indie) che non soddisferà questi standard sarà solo tempo perso.

Resto invece molto curioso e di vede cosa ci prospetterà il futuro, dal mio canto ora come ora la mia attenzione è più verso un pannello OLED o magari miniled in 4k da 27" che abbia una desità equivalente a quello che posseggo ma con una qualità d'immagine sempre migliore. Lato GPU non mi aspetto nulla di nuovo almeno fino al 2025, forse solo una nuova ammiraglia, per chi non si arrende mai, ma per tutti gli altri ci saranno le schede attuali che diverranno la nuova fascia bassa media e alta, noi enthusiast siamo un'altra cosa.
Ad oggi in verità non c'è alcun bisogno di nulla di più potente, perché le immagini sono sotto gli occhi di tutti, la 4090 è più che i grado di gestire un'esperienza come CP2077 Overdrive in 4k e pare che anche la 4080 e la 4070ti lo siano ampiamente, dietro purtroppo il nulla.

Quoto parzialmente quello che hai scritto:
quando uscì Crysis la 8800 gtx nella sua massima espressione non costava 2000€ e nemmeno 1500€ al netto dell'inflazione.
Che Nvidia stia innovando non c'è dubbio, ma a che prezzo?
In fascia enthusiast ora come ora non ha concorrenza, per forza fa "The IPhone moment of gpus", se sei un'appassionato non puoi non ricordare il flop colossale dell'NV30: prezzarono la FX 5800 Ultra a 629€ nel 2003, peccato che prendeva botte da orbi dalla 9800 pro che costava anche meno, dovettero subito correre ai ripari per non perdere la faccia.
Andando ancora più indietro fu 3dfx con la prima Voodoo che portò la vera prima "rivoluzione " in ambito videoludico.
Tutti prodotti cari com'era giusto che fossero, ma mai quanto una 4090 o una 4080 ora.
La mia unica critica a Nvidia è che rapporto costi/prezzo finale la sta facendo un po' troppo fuori dal vaso, fossero schede destinate al mercato pro come le Quadro con driver certificati, avrei anche potuto capire, ma veramente è diventato "normale" spendere 2000€ di gpu per solo intrattenimento?
È questa la mia riflessione...

kiwivda
12-04-2023, 10:25
Non te la prendere ma mi è sembrato uno dei post superc@zzola di Egounix, peccato che non lo ritrovo più... :asd:



Bah, a me pare che quando uscì gli esperti dicevano che il 1440p lo tritava, e in 4k con qualche compromesso...

La prima parte la prendo come un complimento, la seconda ricordo anche che quando uscì la 3070 i titoli erano meno esigenti.

Ubro92
12-04-2023, 10:30
Sinceramente anche io concordo in linea generale con kiwivda.

Fondamentalmente le attuali schede con 8GB come 2070s/2080/3060ti/3070 come prestazioni se la giocano con le 4060/4060ti che fondamentalmente finiranno per gestire pannelli a 1080p o 1440p con DLSS.

Quindi parliamo di fascia media/bassa, per i canoni odierni, all'epoca di turing i giochi richiedevano meno risorse.
Ma alla fine pure una 2080ti con 11Gb ha lo stesso muro della 3070, puoi caricare uno step in più sulle texture ma siamo li.

kiwivda
12-04-2023, 10:32
Quoto parzialmente quello che hai scritto:
quando uscì Crysis la 8800 gtx nella sua massima espressione non costava 2000€ e nemmeno 1500€ al netto dell'inflazione.
Che Nvidia stia innovando non c'è dubbio, ma a che prezzo?
In fascia enthusiast ora come ora non ha concorrenza, per forza fa "The IPhone moment of gpus", se sei un'appassionato non puoi non ricordare il flop colossale dell'NV30: prezzarono la FX 5800 Ultra a 629€ nel 2003, peccato che prendeva botte da orbi dalla 9800 pro che costava anche meno, dovettero subito correre ai ripari per non perdere la faccia.
Andando ancora più indietro fu 3dfx con la prima Voodoo che portò la vera prima "rivoluzione " in ambito videoludico.
Tutti prodotti cari com'era giusto che fossero, ma mai quanto una 4090 o una 4080 ora.
La mia unica critica a Nvidia è che rapporto costi/prezzo finale la sta facendo un po' troppo fuori dal vaso, fossero schede destinate al mercato pro come le Quadro con driver certificati, avrei anche potuto capire, ma veramente è diventato "normale" spendere 2000€ di gpu per solo intrattenimento?
È questa la mia riflessione...

Che tempi si li ricordo bene e la 5800 ultra ebbi la fortuna di averla gran scheda.
Condivido le tue riflessioni, ma questa è la saggezza dei vecchi, mia compresa, tuttavia si sono care, sempre più care. Prima o poi faranno un flop e tutto si riassesterà, quando rimarremo 4 gatti a comprare il top, ma per ora i numeri danno ragione a lui, ragione che non condivido perché anche a me sarebbe piaciuta ancora di più una 4090 a 1499 euro ma tant'è.

bagnino89
12-04-2023, 10:35
Io comunque sono curioso di vedere i risultati del trimestre Q1 2023.

Io non penso che Nvidia (ma anche AMD) stiano facendo grossi affari in fascia consumer... In questo momento sembrano puntare più al margine su ogni singola scheda che sul numero di vendite. Vediamo cosa ne penseranno gli azionisti...

ColdWarGuy
12-04-2023, 10:38
Caro nessuno mi ha puntato la pistola alla tempia, posso e fortunatamente faccio, essere felici con quel che si ha non ha prezzo.

Ma di sicuro non mi lamenterò mai delle prestazioni di una nuova gen solo perché non posso/voglio spendere i soldi richiesti. È una passione e se al prossimo giro saranno 3500 (periamo di no), deciderò di conseguenza.

Conosco gente che per uno scarico completo di una macchina ha speso il doppio e sono tubi di metallo, che sostituiscono altri tubi che fanno la stessa cosa eppure...

Nessuno qui si lamenta delle prestazioni ma semmai dei prezzi e del giochino dell'alterazione delle sigle rispetto all'architettura della GPU, operazione operata a tavolino da un marketing che dimostra di essere convinto che i più hanno l'anello al naso.

Riguardo a :

"in questo paese dove il merito per abilità intellettuali conta come la carta straccia e il software a pagamento quasi una bestemmia."

probabilmete non hai la minima idea di quello che combinano da sempre i cinesi ...

davide155
12-04-2023, 10:41
Non te la prendere ma mi è sembrato uno dei post superc@zzola di Egounix, peccato che non lo ritrovo più... :asd:



Bah, a me pare che quando uscì gli esperti dicevano che il 1440p lo tritava, e in 4k con qualche compromesso... Mentre la 3080 era il top per il 4k. Magari ricordo male io...Ragazzi son passati quasi 3 anni ehhh.
Sono usciti altri motori grafici e l'asticella si alza ogni anno sempre di più.
Pure la 6800ultra all'epoca pre-crysis era il top, ma poi una volta uscito quel gioco è stata tritata via.Quoto parzialmente quello che hai scritto:
quando uscì Crysis la 8800 gtx nella sua massima espressione non costava 2000€ e nemmeno 1500€ al netto dell'inflazione.
Che Nvidia stia innovando non c'è dubbio, ma a che prezzo?
In fascia enthusiast ora come ora non ha concorrenza, per forza fa "The IPhone moment of gpus", se sei un'appassionato non puoi non ricordare il flop colossale dell'NV30: prezzarono la FX 5800 Ultra a 629€ nel 2003, peccato che prendeva botte da orbi dalla 9800 pro che costava anche meno, dovettero subito correre ai ripari per non perdere la faccia.
Andando ancora più indietro fu 3dfx con la prima Voodoo che portò la vera prima "rivoluzione " in ambito videoludico.
Tutti prodotti cari com'era giusto che fossero, ma mai quanto una 4090 o una 4080 ora.
La mia unica critica a Nvidia è che rapporto costi/prezzo finale la sta facendo un po' troppo fuori dal vaso, fossero schede destinate al mercato pro come le Quadro con driver certificati, avrei anche potuto capire, ma veramente è diventato "normale" spendere 2000€ di gpu per solo intrattenimento?
È questa la mia riflessione...Non tenete di conto di una cosa fondamentale.
Il costo dei wafer.
Prima con 300euro tiravano fuori un wafer di chip.
Adesso ce ne vogliono più di 15mila per la stessa fetta di wafer.
I costi di produzione sono alle stelle.
E si prospetta più di 30mila per i prossimi wafer a 3nm.
Più si miniaturizza e più costoso diventa.
Ovviamente si arriverà ad un limite fisico e di soldi

Ubro92
12-04-2023, 10:49
Quoto parzialmente quello che hai scritto:
quando uscì Crysis la 8800 gtx nella sua massima espressione non costava 2000€ e nemmeno 1500€ al netto dell'inflazione.
Che Nvidia stia innovando non c'è dubbio, ma a che prezzo?
In fascia enthusiast ora come ora non ha concorrenza, per forza fa "The IPhone moment of gpus", se sei un'appassionato non puoi non ricordare il flop colossale dell'NV30: prezzarono la FX 5800 Ultra a 629€ nel 2003, peccato che prendeva botte da orbi dalla 9800 pro che costava anche meno, dovettero subito correre ai ripari per non perdere la faccia.
Andando ancora più indietro fu 3dfx con la prima Voodoo che portò la vera prima "rivoluzione " in ambito videoludico.
Tutti prodotti cari com'era giusto che fossero, ma mai quanto una 4090 o una 4080 ora.
La mia unica critica a Nvidia è che rapporto costi/prezzo finale la sta facendo un po' troppo fuori dal vaso, fossero schede destinate al mercato pro come le Quadro con driver certificati, avrei anche potuto capire, ma veramente è diventato "normale" spendere 2000€ di gpu per solo intrattenimento?
È questa la mia riflessione...

Si ma era tutta un'altra epoca, poi a quei tempi si giocava a 1680x1050, un titolo come crysis mise in ginocchio tutte le schede, forse solo la GTX 295 riuscii a tenerlo su.

E stiamo parlando di risoluzioni decisamente basse e fps che non arrivavano a 60... Ricordo che la mia vecchia GTX 260 con tutto maxato a 1680x1050 faceva qualcosa come 22-28fps.

Oggi a meno di giocare in 4K, i giochi anche i più esosi sono più che gestibili e algoritmi come DLSS/FSR te li sognavi 15 anni fa.

Anche un Handheld come steam deck era qualcosa di inconcepibile.

Che poi ci sia un ampio lucro con queste 4000 nessuno lo mette in dubbio, ma anche le vendite non a caso sembrano essere ai minimi, quindi è da vedere come si evolverà il mercato, non credo che sia una situazione sostenibile nel lungo tempo.

Ragazzi son passati quasi 3 anni ehhh.
Sono usciti altri motori grafici e l'asticella si alza ogni anno sempre di più.
Pure la 6800ultra all'epoca pre-crysis era il top, ma poi una volta uscito quel gioco è stata tritata via.Non tenete di conto di una cosa fondamentale.
Il costo dei wafer.
Prima con 300euro tiravano fuori un wafer di chip.
Adesso ce ne vogliono più di 15mila per la stessa fetta di wafer.
I costi di produzione sono alle stelle.
E si prospetta più di 30mila per i prossimi wafer a 3nm.
Più si miniaturizza e più costoso diventa.
Ovviamente si arriverà ad un limite fisico e di soldi

Sicuramente i costi di produzione si sono alzati, ma tieni conto che una 4070ti è grossa la metà di una 3080 e costa notevolmente di più, direi che i margini ci sono.
La 4070 liscia è praticamente uno scarto con quasi il 23% di ALU tagliate, un chip del genere se fosse stampato a parte sarebbe a metà strada tra GA107 e GA106, e sinceramente mi sembra un pò poca la differenza di 100$ rispetto la 3080.

bagnino89
12-04-2023, 10:50
Non tenete di conto di una cosa fondamentale.
Il costo dei wafer.
Prima con 300euro tiravano fuori un wafer di chip.
Adesso ce ne vogliono più di 15mila per la stessa fetta di wafer.
I costi di produzione sono alle stelle.
E si prospetta più di 30mila per i prossimi wafer a 3nm.
Più si miniaturizza e più costoso diventa.
Ovviamente si arriverà ad un limite fisico e di soldi

Che sia allora il caso di proporre GPU con nanometrie meno spinte ma più economiche, e puntare di più sullo sviluppo dell'architettura?

Cioè, ci rendiamo conto che Giacchets si sta facendo il bello per lo più grazie alla botta di cu7o che ha avuto con l'ottimo silicio di TSMC? Se non avesse potuto raggiungere frequenze di quasi 3 GHz, volevo vedere come piazzava le schede...

ColdWarGuy
12-04-2023, 10:58
Io comunque sono curioso di vedere i risultati del trimestre Q1 2023.

Io non penso che Nvidia (ma anche AMD) stiano facendo grossi affari in fascia consumer... In questo momento sembrano puntare più al margine su ogni singola scheda che sul numero di vendite. Vediamo cosa ne penseranno gli azionisti...

Molto curioso anch'io, ma bisognerà analizzare le voci separate di bilancio.

Ipotizzo che abbiano fatto faville nel settore professionale / AI, cosa di cui erano consapevoli e che li ha spinti ad "osare" la politica di marketing delle GPU da intrattenimento che abbiamo visto.

ColdWarGuy
12-04-2023, 11:03
Che sia allora il caso di proporre GPU con nanometrie meno spinte ma più economiche, e puntare di più sullo sviluppo dell'architettura?

Cioè, ci rendiamo conto che Giacchets si sta facendo il bello per lo più grazie alla botta di cu7o che ha avuto con l'ottimo silicio di TSMC? Se non avesse potuto raggiungere frequenze di quasi 3 GHz, volevo vedere come piazzava le schede...

E' anche probabile che il delirio del mining e degli inaspettati numeri di bilancio che ne sono conseguiti abbia instillato una sorta di delirio di onnipotenza nelle alte sfere di questa azienda, che ora si aspetta di continuare a brindare a champagne tutti i giorni perchè in fondo se lo meritano.

ninja750
12-04-2023, 11:05
le 3070 dei giochi nuovi in 2K veri da qui a 3 anni (:sbonk:) non tirano proprio niente, se non con diversi compromessi (persino sulle texture)

ma lascia perdere i giochi mattoni, se la 3070 non basta più per giocare 1440p allora in questo forum ci diamo tutti al retrogaming

con una 3070 io non mi sognerei mai nulla superiore al 1080p


Poi gente che pretende il top della grafica da una 3070, quando sappiamo tutti che era una gpu votata al 1080p

voi state fuori dal mondo :asd:

bagnino89
12-04-2023, 11:13
Molto curioso anch'io, ma bisognerà analizzare le voci separate di bilancio.

Ipotizzo che abbiano fatto faville nel settore professionale / AI, cosa di cui erano consapevoli e che li ha spinti ad "osare" la politica di marketing delle GPU da intrattenimento che abbiamo visto.

Sicuro, nel caso di Nvidia comunque grossa parte del fatturato proviene sempre dalle GPU consumer... Vedremo, ma non credo saranno rose e fiori, secondo me Giacchetts ha tirato troppo la corda e qualcuno gliele manderà a dire...

E' anche probabile che il delirio del mining e degli inaspettati numeri di bilancio che ne sono conseguiti abbia instillato una sorta di delirio di onnipotenza nelle alte sfere di questa azienda, che ora si aspetta di continuare a brindare a champagne tutti i giorni perchè in fondo se lo meritano.

Anche questo è sicuro, ma ormai la festa è finita, se ne devono fare una ragione.

ma lascia perdere i giochi mattoni, se la 3070 non basta più per giocare 1440p allora in questo forum ci diamo tutti al retrogaming

voi state fuori dal mondo :asd:

* (soprattutto l'ultima :asd:)

StylezZz`
12-04-2023, 11:14
voi state fuori dal mondo :asd:

Il marketing è una brutta bestia.

bagnino89
12-04-2023, 11:16
Al netto di tutto questo, l'altro giorno stavo pensando che se la Cina attacca davvero Taiwan, allora sì che ci sarà da ridere (sono ironico). Altro che 4090 a 2000 euro, il settore imploderà...

X360X
12-04-2023, 11:34
voi state fuori dal mondo :asd:

in realtà con la patch full ray tracing di Cyberpunk credo che la 4090 sia appena diventata una VGA da 1440p :asd: praticamente costa più di 1 euro ogni pixel orizzontale :sofico:

davide155
12-04-2023, 11:47
ma lascia perdere i giochi mattoni, se la 3070 non basta più per giocare 1440p allora in questo forum ci diamo tutti al retrogaming











voi state fuori dal mondo :asd:Dipende cosa si intende per giochi mattone e come li vogliamo giocare, soprattutto a che risoluzione.
Ovviamente tra settaggi ultra ed high c'è ben poca differenza visiva nel 99% dei titoli al prezzo però di molti fps, però un enthusiast non accetterà mai di giocare a dettagli inferiori.
Una 3070 appena uscita era perfetta per il 1440p a dettagli massimi, oggi è grassa se arriva a gestire il 1080p a dettagli ultra con almeno 60fps minimi (soglia minima a cui punto, dal momento che spendo più di mille euro per un pc gaming). E non metto nel paniere cyberpunk overdrive che è più che altro un esercizio di stile, e ci fa vedere quello che il futuro ci attende.
Poi se si vuole fare le nozze coi fichi secchi quello è un altro discorso, ma la 3070 è e rimane una fascia media, con tutto quello che ne consegue.

ColdWarGuy
12-04-2023, 11:58
Al netto di tutto questo, l'altro giorno stavo pensando che se la Cina attacca davvero Taiwan, allora sì che ci sarà da ridere (sono ironico). Altro che 4090 a 2000 euro, il settore imploderà...

Imploderebbero numerosi settori e quello del gaming non sarebbe certo in cima alla lista in termini di danno, sicuramente lo stile di vita del mondo occidentale cambierebbe drasticamente per un lungo periodo.

La cosa che fa tristezza è che aziende di semiconduttori di un certo calibro (es. STM) abbiano rinunciato a produrre nelle proprie fonderie anche silicio da 40nm mettendosi in fila all'affollata porta di TSMC per mera questione economica, apparentemente senza preoccupazione alcuna riguardo alle possibili conseguenze strategiche.

ColdWarGuy
12-04-2023, 12:04
Molto curioso anch'io, ma bisognerà analizzare le voci separate di bilancio.

Ipotizzo che abbiano fatto faville nel settore professionale / AI, cosa di cui erano consapevoli e che li ha spinti ad "osare" la politica di marketing delle GPU da intrattenimento che abbiamo visto.

Ad esempio :

https://i.postimg.cc/8cb5r2dy/aaa.png

https://wccftech.com/elon-musk-appears-to-be-eyeing-reduced-dependency-on-google-cloud-ai-training-platform/

bagnino89
12-04-2023, 12:06
Imploderebbero numerosi settori e quello del gaming non sarebbe certo in cima alla lista in termini di danno, sicuramente lo stile di vita del mondo occidentale cambierebbe drasticamente per un lungo periodo.

La cosa che fa tristezza è che aziende di semiconduttori di un certo calibro (es. STM) abbiano rinunciato a produrre nelle proprie fonderie anche silicio da 40nm mettendosi in fila all'affollata porta di TSMC per mera questione economica, apparentemente senza preoccupazione alcuna riguardo alle possibili conseguenze strategiche.

Concordo. UE proprio non pervenuta sull'argomento... Parliamo di un settore fondamentale, lasciato totalmente in mano ad americani, cinesi e taiwanesi...

mikael84
12-04-2023, 12:11
La 3070 paga i costi del mining, ma al suo costo, era una signora scheda. Una scheda dalle prestazioni di una 2080ti nel 2020, che ne costava 1300 2 mesi prima, e che molti si sognavano.

Definirla aborto, mi pare esagerato. Una fury che cos'era allora, le kepler, le 970, le 680...

Ultimamente stanno uscendo troppi giochi con un memory leak ingiustificato, questo è vero, ciò cmq non rende del tutto obsolete le 3070.
Quando si è deciso di puntare su quella scheda, si sapeva che prima o poi, ne avrebbe risentito e che avrebbe portato a compromessi.

OrazioOC
12-04-2023, 12:15
La 3070 paga i costi del mining, ma al suo costo, era una signora scheda. Una scheda dalle prestazioni di una 2080ti nel 2020, che ne costava 1300 2 mesi prima, e che molti si sognavano.

Definirla aborto, mi pare esagerato. Una fury che cos'era allora, le kepler, le 970, le 680...

Ultimamente stanno uscendo troppi giochi con un memory leak ingiustificato, questo è vero, ciò cmq non rende del tutto obsolete le 3070.
Quando si è deciso di puntare su quella scheda, si sapeva che prima o poi, ne avrebbe risentito e che avrebbe portato a compromessi.

Quoto mike, mi ricordo subito dopo la presentazione della 3070 alcuni utenti che di riffa e di raffa volevano sbarazzarsi delle loro 2080 ti anche a 500 euro. :D

bagnino89
12-04-2023, 12:18
Che poi, se il problema delle 3070 era la VRAM, allora manco le 3080 erano esenti dal problema; bisognava andare direttamente di 6800 e simili.

mikael84
12-04-2023, 12:38
Quoto mike, mi ricordo subito dopo la presentazione della 3070 alcuni utenti che di riffa e di raffa volevano sbarazzarsi delle loro 2080 ti anche a 500 euro. :D

Infatti, vedersi una 2080ti a 500 euro, tanta roba.:)
Capisco chi ha speso 8-1000 euro per quel chip, ma eri consenziente, io mi sono fatto quasi il biennio con una 2070 super, ma non ho ceduto a JHH. Appena ho avuto l'occasione ho preso a 600 una 3080 quasi nuova, con 2 anni e mezzo di garanzia presso nvidia.:)

Che poi, se il problema delle 3070 era la VRAM, allora manco le 3080 erano esenti dal problema; bisognava andare direttamente di 6800 e simili.

Quando presi la 3080, sapevo che la ram era tirata, ma una volta che si prova questa scheda su un 1440p si rimane sbalorditi, vedere alcuni titoli come days gone a 144 fissi, ma soprattutto è il primo chip capace di tenere realmente il RT.
Infatti dalla notte dei tempi, ho sempre giudicato la 3080 12, praticamente la miglior ampere mai uscita su GA102.

Il problema di questi chip, è che molti hanno speso quasi il doppio, ed ora non accettano compromessi.
Io ho tirato con una 2070 super OC, meno della 3070, senza problemi, non mi sono piegato a JHH, lo sapete.

Un consiglio che vi posso dare, considerando i costi delle ram attuali, mettete 32gb.:)

Ubro92
12-04-2023, 12:40
La 3070 paga i costi del mining, ma al suo costo, era una signora scheda. Una scheda dalle prestazioni di una 2080ti nel 2020, che ne costava 1300 2 mesi prima, e che molti si sognavano.

Definirla aborto, mi pare esagerato. Una fury che cos'era allora, le kepler, le 970, le 680...

Ultimamente stanno uscendo troppi giochi con un memory leak ingiustificato, questo è vero, ciò cmq non rende del tutto obsolete le 3070.
Quando si è deciso di puntare su quella scheda, si sapeva che prima o poi, ne avrebbe risentito e che avrebbe portato a compromessi.

MA tutto va in relazione al prezzo, la 970 che hai citato pure fu una scheda che si beccò diverso letame per via dei 3.5+0.5GB, ma era anche venduta a un prezzo decisamente basso 280-350€, e andava nettamente meglio della precedente 780ti che ne costava sui 600-650€.

Con le 3000, i migliori chip a mio parere per prezzo prestazioni considerando anche i loro "msrp" furono 3060ti e 3080, se il mercato non si fosse drogato non credo che molti starebbero qui a lamentarsi.

EffeX
12-04-2023, 12:40
Il discorso vram è fisiologico: è dal 2016 che ci sono schede con 8gb, la 1080Ti già ne montava 11 per questioni di collegamento legate al bus, idem la 2080Ti, la 3070 con 8 gb era perfetta anche con quel taglio fosse costata i famosi 499$, che però, come ben sappiamo tutti, a meno di 800€ all'uscita non si trovava, se si trovava.
Ecco, 8 gb su una scheda pagata 800€ per me era ed è ancora no sense totale.

OrazioOC
12-04-2023, 12:48
Infatti, vedersi una 2080ti a 500 euro, tanta roba.:)
Capisco chi ha speso 8-1000 euro per quel chip, ma eri consenziente, io mi sono fatto quasi il biennio con una 2070 super, ma non ho ceduto a JHH. Appena ho avuto l'occasione ho preso a 600 una 3080 quasi nuova, con 2 anni e mezzo di garanzia presso nvidia.:)



Con tutto il rispetto se ti tenevi la 2070 super anche in 1440p qualche soddisfazione ancora la lascia(senza velleità di avere il maxed out nelle ultime uscite sia chiaro).
In retrospettiva turing è invecchiata decentemente, alla fine della fiera fatto salvo il dlss3 ha tutto quello che gli serve e che mancano a gpu come le gtx 1000 e le radeon pre rdna2.
La 2080 ti era una bella tassa in fatto di prezzi di listino rispetto alla 2080/super, ma in retrospettiva era la 4090 odierna ad un prezzo che ad oggi ci troviamo a rimpiangere.;)

Ubro92
12-04-2023, 12:48
Il discorso vram è fisiologico: è dal 2016 che ci sono schede con 8gb, la 1080Ti già ne montava 11 per questioni di collegamento legate al bus, idem la 2080Ti, la 3070 con 8 gb era perfetta anche con quel taglio fosse costata i famosi 499$, che però, come ben sappiamo tutti, a meno di 800€ all'uscita non si trovava, se si trovava.
Ecco, 8 gb su una scheda pagata 800€ per me era ed è ancora no sense totale.

Ma tutti abbiamo una testa, 800€ non li valeva a prescindere, chi ha accettato di pagare queste cifre ha contribuito a stabilizzare un mercato già malato di suo.

Con un budget del genere, come minimo si doveva puntare a 3080/6800xt.

davide155
12-04-2023, 12:49
Il discorso vram è fisiologico: è dal 2016 che ci sono schede con 8gb, la 1080Ti già ne montava 11 per questioni di collegamento legate al bus, idem la 2080Ti, la 3070 con 8 gb era perfetta anche con quel taglio fosse costata i famosi 499$, che però, come ben sappiamo tutti, a meno di 800€ all'uscita non si trovava, se si trovava.

Ecco, 8 gb su una scheda pagata 800€ per me era ed è ancora no sense totale.

Il nosense sono gli 800euro pagati per una gpu da 8gb di vram, non 8gb a 800euro. Non so se ho reso l'idea :)
Come ben sappiamo tutti non esistono brutte gpu ma brutti prezzi per determinate gpu.
Chi ha pagato salato una gpu due anni fa, oggi non può lamentarsi perché ha contribuito, volendo o nolendo, a quel mercato marcio che c'è stato negli ultimi due anni.
Bisogna essere consapevoli di aver fatto una cavolata ma al tempo stesso bisogna anche vedere il bicchiere mezzo pieno. Cioè che in pandemia avevamo una gpu di tutto rispetto.
Che poi abbia 8, 16 o 24gb, quello è un discorso a parte, ma nessuno ci ha puntato alla testa una pistola per fare determinati acquisti, ne tanto meno ce lo ha ordinato il medico. Lo abbiamo fatto con piena consapevolezza e cognizione di causa.

Discorso mio generale, non riferito a nessuno in particolare.

mikael84
12-04-2023, 13:00
MA tutto va in relazione al prezzo, la 970 che hai citato pure fu una scheda che si beccò diverso letame per via dei 3.5+0.5GB, ma era anche venduta a un prezzo decisamente basso 280-350€, e andava nettamente meglio della precedente 780ti che ne costava sui 600-650€.

Con le 3000, i migliori chip a mio parere per prezzo prestazioni considerando anche i loro "msrp" furono 3060ti e 3080, se il mercato non si fosse drogato non credo che molti starebbero qui a lamentarsi.

Ok, la 970 costava qualcosa in meno, anche se inizialmente la 780ti non la staccava, anzi all'uscita era poco più di una 780. Le ho avute in SLI.
Cmq potremmo prendere la 980, dopo quasi 3 anni, che ci facevi?:)
Io avevo la 980ti, e ricordo giochi come rise of tomb raider, resident evil 7, tra i tanti, che già creavano problemi a quest'ultima.
I vari AC/FC già unity te li giocavi a 40-45fps.

La fury nel 2015, venduta a 700 euro... lasciamo perdere.

Il problema della 3070 è stato il prezzo gonfiato, ma se tu (in generale) hai accettato di pagare quel chip 8-1000 euro, da appassionato, beh... io ripeto, e lo sapete, sono rimasto con una 2070 super.:p

AMD aveva più ram, vero, ma dovevi vincere al lotto dei drop, li facevi un affare, ma sul mercato non esistevano.

Ora il mercato ti mette altre scelte, è chiaro che chi ora si prende una 4070ti a 1000 euro, deve accettarne i pregi ed i limiti.

HSH
12-04-2023, 13:02
visto l'andamento prezzi delle 3060ti\3070 ha senso prendere una 2080ti a 300€ ? come upgrade di una 2060Super?

Kvarat
12-04-2023, 13:11
visto l'andamento prezzi delle 3060ti\3070 ha senso prendere una 2080ti a 300€ ? come upgrade di una 2060Super?

Assolutamente si se tenuta bene. E' una signora scheda. Nonostante tutto quello che si dice ti posso garantire che al lancio la 3070 non si avvicinava nemmeno per sbaglio alla 2080ti in 2k e 4k. Poi hanno cominciato a fare magagne con i drivers e magicamente si sono pareggiate le prestazioni. L'unico neo sono i consumi maggiori.

ninja750
12-04-2023, 13:13
fino a the last of us le schede 8gb andavano benissimo, esce the last of us serve una patch perchè il gioco è programmato con i piedi, esce la patch e il web si desta sentenziando che 8gb non bastano più nemmeno per mspaint ma forse giusto per avviare i giochi a 1080p. fino al giorno prima il DLSS ti permetteva di giocare a tutto RT incluso

EffeX
12-04-2023, 13:14
Il nosense sono gli 800euro pagati per una gpu da 8gb di vram, non 8gb a 800euro. Non so se ho reso l'idea :)
Come ben sappiamo tutti non esistono brutte gpu ma brutti prezzi per determinate gpu.
Chi ha pagato salato una gpu due anni fa, oggi non può lamentarsi perché ha contribuito, volendo o nolendo, a quel mercato marcio che c'è stato negli ultimi due anni.
Bisogna essere consapevoli di aver fatto una cavolata ma al tempo stesso bisogna anche vedere il bicchiere mezzo pieno. Cioè che in pandemia avevamo una gpu di tutto rispetto.
Che poi abbia 8, 16 o 24gb, quello è un discorso a parte, ma nessuno ci ha puntato alla testa una pistola per fare determinati acquisti, ne tanto meno ce lo ha ordinato il medico. Lo abbiamo fatto con piena consapevolezza e cognizione di causa.

Discorso mio generale, non riferito a nessuno in particolare.

È proprio quello che intendevo io. :)
In pandemia avevo la 2070 FE e me la son fatta bastare piuttosto che spendere 800+ euro per 3070.
Ho però amici, che sull'onda del prezzo della vecchia 2080Ti, han pensato bene di spendere 800-900€ per la 3070 perché andava uguale costando comunque quei 400€ meno e 8 gb nel 2020 bastavano in 1440p.
Ora le stesse persone si lamentano che in 1440p i nuovi giochi stutterano se non mettono i dettagli a medio e si lamentano che le nuove 4070Ti costano troppo.
Se forse non avessero acquistato vga nel 2020 al doppio del prezzo forse ora la situazione sarebbe diversa...

mikael84
12-04-2023, 13:15
Con tutto il rispetto se ti tenevi la 2070 super anche in 1440p qualche soddisfazione ancora la lascia(senza velleità di avere il maxed out nelle ultime uscite sia chiaro).
In retrospettiva turing è invecchiata decentemente, alla fine della fiera fatto salvo il dlss3 ha tutto quello che gli serve e che mancano a gpu come le gtx 1000 e le radeon pre rdna2.
La 2080 ti era una bella tassa in fatto di prezzi di listino rispetto alla 2080/super, ma in retrospettiva era la 4090 odierna ad un prezzo che ad oggi ci troviamo a rimpiangere.;)

Guarda, ti posso dire di essermela goduta (ok ero costretto), e con il g-sync, non ho avuto particolari problemi. Certo, non era scheda per cyberpunk RT max (cosa che fa la 3080), ma quasi tutti i giochi giravano piuttosto bene. Era un silicio che teneva i 2100 (tsmc 12nm melgio di samsung 8, pensa un pò), ed in quelle condizioni, non era distante da una 3060ti.

Sono anche una persona, che sa "frugare"nei setting all'occorrenza. :)

Discorso turing, ha avuto il problema del nodo, praticamente lo stesso di pascal moddato, quindi non c'è stato un super salto, e la 2080ti ha pagato die da mercato tesla.
Un 754mm2, con rese disastrose, non l'avremmo mai visto, senza il mercato pro probabilmente, ma diciamo che nella posizione di JHH, è stata pure una mossa furba, per sondare il mercato, come fece con le prime titan.

bagnino89
12-04-2023, 13:20
fino a the last of us le schede 8gb andavano benissimo, esce the last of us serve una patch perchè il gioco è programmato con i piedi, esce la patch e il web si desta sentenziando che 8gb non bastano più nemmeno per mspaint ma forse giusto per avviare i giochi a 1080p. fino al giorno prima il DLSS ti permetteva di giocare a tutto RT incluso

Ma infatti.

Io con i prezzi attuali me la tengo finché non esplode, e non ci penso nemmeno ad aumentare la RAM visto che vorrei aggiornare il resto della piattaforma con le DDR5, quindi non mi avranno.

Se vogliono che qualcuno su PC giochi a TLOU, devono sistemarlo per bene, perché se gira male sul mio PC gira male sul PC del 95% dell'utenza mondiale.

fraussantin
12-04-2023, 13:25
fino a the last of us le schede 8gb andavano benissimo, esce the last of us serve una patch perchè il gioco è programmato con i piedi, esce la patch e il web si desta sentenziando che 8gb non bastano più nemmeno per mspaint ma forse giusto per avviare i giochi a 1080p. fino al giorno prima il DLSS ti permetteva di giocare a tutto RT inclusoChe poi tlou manco fosse chissa cosa.

Capirei stessimo parlando del gioco dell'anno che ti tiene incollato al pc per mesi e mesi.

Quello è il classico giochino remastered di sony dove l'80% del tempo lo passi a guardare cutscene il 20% percento ad annoiarti con un gameplay casual e obsoleto ( era già obsoleto quando uscí)
Fra un mese nessuno ne parlerà più.
Prima di spendere 1500 euro per quello , ma davvero guardatevi i filmati su youtube.

bagnino89
12-04-2023, 13:29
Prima di spendere 1500 euro per quello , ma davvero guardatevi i filmati su youtube.

Mi hai dato una buona idea, quasi quasi... :asd:

HSH
12-04-2023, 13:30
Assolutamente si se tenuta bene. E' una signora scheda. Nonostante tutto quello che si dice ti posso garantire che al lancio la 3070 non si avvicinava nemmeno per sbaglio alla 2080ti in 2k e 4k. Poi hanno cominciato a fare magagne con i drivers e magicamente si sono pareggiate le prestazioni. L'unico neo sono i consumi maggiori.

c'è modo per capirlo? potrebbe anche averla sfonnata a minare ma mica lo dichiara ovviamente... esteticamente dubito si capisca, a meno di annusarla e sentire da bruciato :muro:

LurenZ87
12-04-2023, 13:34
Prima di spendere 1500 euro per quello , ma davvero guardatevi i filmati su youtube.

Oppure guardatevi la serie tv, che al contrario del gioco è fatta veramente molto bene.

Inviato dal mio Pixel 7 utilizzando Tapatalk

mikael84
12-04-2023, 13:35
Ma infatti.

Io con i prezzi attuali me la tengo finché non esplode, e non ci penso nemmeno ad aumentare la RAM visto che vorrei aggiornare il resto della piattaforma con le DDR5, quindi non mi avranno.

Se vogliono che qualcuno su PC giochi a TLOU, devono sistemarlo per bene, perché se gira male sul mio PC gira male sul PC del 95% dell'utenza mondiale.

Ma la ram DDR4 non costa più niente. Il cambio di sistema, se non cambi GPU, che lo fai a fare...
Con un 5600 liscio, penso che alla fine, quel PC lo utilizzi più che altro per giocare.
Investire 50 euro per 2 banchetti di ram, non ti cambia la vita.:p

Ubro92
12-04-2023, 13:48
c'è modo per capirlo? potrebbe anche averla sfonnata a minare ma mica lo dichiara ovviamente... esteticamente dubito si capisca, a meno di annusarla e sentire da bruciato :muro:

Considerando che la 2080ti ha comunque 5 anni sul groppone, personalmente preferirei guardare una 3060ti/3070 usata e ancora in garanzia.

mikael84
12-04-2023, 13:55
Intanto, bench PT. Forse la 4070 liscia con il DLSS3 in 1440p, ancora potrebbe farcela.

https://i.postimg.cc/Kvr2NnVm/pt-bench.png

Ale55andr0
12-04-2023, 13:56
fino a the last of us le schede 8gb andavano benissimo, esce the last of us serve una patch perchè il gioco è programmato con i piedi, esce la patch e il web si desta sentenziando che 8gb non bastano più nemmeno per mspaint ma forse giusto per avviare i giochi a 1080p. fino al giorno prima il DLSS ti permetteva di giocare a tutto RT incluso

Resident Evil, LORT etc sono sono giochi usciti stamattina. Da par mio ho 2 anni fa ho già detto che 8 gb su schede da 500+ sono una presa per il culo. Poche storie, ovvio poi che oggi sia peggio e si amplifichi un po' la cosa, ma era già una strada avviata, posto che sono un insulto a prescindere, se te mi fai spendere 30mila euro per una macchina anche se sto al polo voglio l'aria condizionata di serie, ma che scherziamo?! La dotazione hardware va col prezzo, mica al "tanto non ti serve adesso".

Ale55andr0
12-04-2023, 13:58
La 3070 paga i costi del mining, ma al suo costo, era una signora scheda. Una scheda dalle prestazioni di una 2080ti nel 2020, che ne costava 1300 2 mesi prima, e che molti si sognavano.

Definirla aborto, mi pare esagerato. Una fury che cos'era allora, le kepler, le 970, le 680...

Ultimamente stanno uscendo troppi giochi con un memory leak ingiustificato, questo è vero, ciò cmq non rende del tutto obsolete le 3070.
Quando si è deciso di puntare su quella scheda, si sapeva che prima o poi, ne avrebbe risentito e che avrebbe portato a compromessi.

Col senno del poi hai ragione, un aborto con fuoriuscita dell'emorroide durante le doglie è la definizione più corretta. ;)
E 10gb della 3080 non sono gli 8 della...bastano a darti quel quid per tenerti sulla soglia di galleggiamento, soglia che non hanno voluto dare a una scheda da 600 euro (SEICENTO), ergo non considerando nemmeno il mining ma il costo normale

MA tutto va in relazione al prezzo, la 970 che hai citato pure fu una scheda che si beccò diverso letame per via dei 3.5+0.5GB, ma era anche venduta a un prezzo decisamente basso 280-350€.

Esatto, al costo di lancio la 3070 DOVEVA avere più di 8gb, per giunta quel so io cosa di giacco gli ha messo le più scarse che poteva, delle 14Gbs, roba da schede di fascia media di generazione precedente, fare passare questa roba come "non male dai" è semplicemente inaccettabile. Anche la 1070 andava come la 980ti, è la normale evoluzione, non c'è nulla da plaudire "perchè andava come la 2080ti", che vuoi pure le pacche sulle spalle?

Assolutamente si se tenuta bene. E' una signora scheda. Nonostante tutto quello che si dice ti posso garantire che al lancio la 3070 non si avvicinava nemmeno per sbaglio alla 2080ti in 2k e 4k. Poi hanno cominciato a fare magagne con i drivers e magicamente si sono pareggiate le prestazioni. L'unico neo sono i consumi maggiori.

Eh ma "faster than 2080ti" diceva un certo farabutto.

EffeX
12-04-2023, 14:01
c'è modo per capirlo? potrebbe anche averla sfonnata a minare ma mica lo dichiara ovviamente... esteticamente dubito si capisca, a meno di annusarla e sentire da bruciato :muro:

Con 300-350€ oggi puoi scegliere diverse gpu nuove verdi, rosse e blu, con 3 anni di garanzia e maggiore efficienza rispetto alla 2080Ti. :)

HSH
12-04-2023, 14:02
Considerando che la 2080ti ha comunque 5 anni sul groppone, personalmente preferirei guardare una 3060ti/3070 usata e ancora in garanzia.

purtroppo i furboni che vendono le 3060ti con garanzia residua ti chiedono 400€

Ubro92
12-04-2023, 14:05
purtroppo i furboni che vendono le 3060ti con garanzia residua ti chiedono 400€

Io la mia la presi a 300€ circa 4 mesi fa, comunque le trovi nuove a partire da 415€ con GDDR6X, non ha senso 400€ per una 3060ti usata.

HSH
12-04-2023, 14:09
Io la mia la presi a 300€ circa 4 mesi fa, comunque le trovi nuove a partire da 415€ con GDDR6X, non ha senso 400€ per una 3060ti usata.
si appunto per quello preferivo la 2080ti :D che va di più e costa meno

mikael84
12-04-2023, 14:10
https://tpucdn.com/review/nvidia-geforce-rtx-4070-founders-edition/images/relative-performance-2560-1440.png

Ale55andr0
12-04-2023, 14:11
Che poi tlou manco fosse chissa cosa.

Capirei stessimo parlando del gioco dell'anno che ti tiene incollato al pc per mesi e mesi.

Quello è il classico giochino remastered di sony dove l'80% del tempo lo passi a guardare cutscene il 20% percento ad annoiarti con un gameplay casual e obsoleto ( era già obsoleto quando uscí)
Fra un mese nessuno ne parlerà più.
Prima di spendere 1500 euro per quello , ma davvero guardatevi i filmati su youtube.

non è vero per nulla, ti starai confondendo con the order 1886 :asd:

E il game play è ottimo e ben calibrato. Poi certo i gusti sono gusti.

ColdWarGuy
12-04-2023, 14:41
Come predicavo, 4070 sotto la 3080 in 4K :

https://i.postimg.cc/pVCnW4Ty/relative-performance-3840-2160.png

Serie 4000 tutto chiacchiere e DLSS, the way to be scammed.

EffeX
12-04-2023, 14:46
Come predicavo, 4070 sotto la 3080 in 4K :

https://i.postimg.cc/pVCnW4Ty/relative-performance-3840-2160.png

Serie 4000 tutto chiacchiere e DLSS, the way to be scammed.

Bè, la cache aiuta ma non può fare i miracoli con 192bit.
In ogni caso fosse costata intorno ai 550€ non sarebbe stata affatto male per il 1440p spinto.

Ale55andr0
12-04-2023, 14:52
Bè, la cache aiuta ma non può fare i miracoli con 192bit.
In ogni caso fosse costata intorno ai 550€ non sarebbe stata affatto male per il 1440p spinto.

fai 499 e ci sto rimettendo :O

in vero, per come è devastata io direi più 399, altro che 499 :asd:

ninja750
12-04-2023, 14:56
fai 499 e ci sto rimettendo :O

in vero, per come è devastata io direi più 399, altro che 499 :asd:

avesse avuto almeno la decenza di prezzarla come la 3070..

ALMENO

StylezZz`
12-04-2023, 15:02
Sto guardando la recensione della FE su TPU:

https://www.techpowerup.com/review/nvidia-geforce-rtx-4070-founders-edition/

su 14 dei 25 giochi testati sta dietro la 3080 a 1440p.

La scheda è ok, ha consumi ''ottimi'' (ma ricordiamoci che sarebbe una 4060 con frequenze spinte, quindi nemmeno così ottimi) e soprattutto ha quel dissipatore compatto che a me piace tanto, il problema rimane il prezzo...non la pagherei più di 450/500€ (inflazione inclusa).

Vul
12-04-2023, 15:03
Sto guardando la recensione della FE su TPU:

https://www.techpowerup.com/review/nvidia-geforce-rtx-4070-founders-edition/

su 14 dei 25 giochi testati sta dietro la 3080 a 1440p.

La scheda è ok, ha consumi ''ottimi'' (ma ricordiamoci che sarebbe una 4060 con frequenze spinte, quindi nemmeno così ottimi) e soprattutto ha quel dissipatore compatto che a me piace tanto, il problema rimane il prezzo...non la pagherei più di 450€ (inflazione inclusa).

*

Si, se si chiamava 4060ti e non superava i 400, 450 euro ad essere generoso potevo ritenerla una buona scheda.

mikael84
12-04-2023, 15:03
Bè, la cache aiuta ma non può fare i miracoli con 192bit.
In ogni caso fosse costata intorno ai 550€ non sarebbe stata affatto male per il 1440p spinto.

In 4k hanno calcolato mediamente un 27% di accessi medi, quindi non basta per competere con i bus giganti di GA102.
Aiuta però in 1440p, visto che molti dati viaggiano a quasi 6tb/s.
Inoltre la 4070, rispetto la 4070ti ha la cache stroncata, da 48 a 36. Quindi è quasi in balia del bus, in certe circostanza.

fai 499 e ci sto rimettendo :O

in vero, per come è devastata io direi più 399, altro che 499 :asd:

Un 294mm2 letteralmente smontato.

https://i.postimg.cc/5yGSQ7db/4070.png

EffeX
12-04-2023, 15:05
fai 499 e ci sto rimettendo :O

in vero, per come è devastata io direi più 399, altro che 499 :asd:

avesse avuto almeno la decenza di prezzarla come la 3070..

ALMENO

Io ci speravo, ma Mike già qualche mese fa mi smorzò le speranze in quanto a 399 o 449$ ci starebbero dentro con i costi ma senza guadagnarci troppo.

mikael84
12-04-2023, 15:10
Il PL anche nella FE è basso.

https://tpucdn.com/review/nvidia-geforce-rtx-4070-founders-edition/images/tdp-adjustment-limit.png

ColdWarGuy
12-04-2023, 15:13
La scheda non brilla neache in Superposition se rapportata con la 3070 :

https://i.postimg.cc/N0GML70Y/uni.png

considerato che nel suddetto benchmark la serie 4000 godrà di qualche "scorciatoia" negli "NVIDIA GeForce Driver Latest available" :D

EffeX
12-04-2023, 15:14
Il PL anche nella FE è basso.

https://tpucdn.com/review/nvidia-geforce-rtx-4070-founders-edition/images/tdp-adjustment-limit.png

Quindi in parole povere converrà quella che costerà meno giusto?

Ubro92
12-04-2023, 15:17
*



Si, se si chiamava 4060ti e non superava i 400, 450 euro ad essere generoso potevo ritenerla una buona scheda.Il problema sta lì: nomenclatura e prezzo, potevo anche capire che rispetto la 3060ti invece di 399$ facevano 449$ ma arrivare a 599$ é troppo....



Inviato dal mio M2012K11AG utilizzando Tapatalk

mikael84
12-04-2023, 15:26
La scheda non brilla neache in Superposition se rapportata con la 3070 :



considerato che nel suddetto benchmark la serie 4000 godrà di qualche "scorciatoia" negli "NVIDIA GeForce Driver Latest available" :D

Qua sta andando molto male. Purtroppo ha si la potenza della 3080, ma è squilibrata, poche rop's, poca geometria, ma soprattutto la cache è davvero piccola.

L'intelaiatura è da x60, e da qualche parte la paghi, poi col clock del PP, puoi arginare, ma i limiti escono sempre..:)

Quindi in parole povere converrà quella che costerà meno giusto?

Ma si... peccano un pò nell'OC, la FE ha toccato i 2900, queste i 2800, quindi poca cosa. Ci saranno custom più carrozzate, ma in questa serie sono poca cosa. Tanto 100mhz di boost ti cambiano poco, se ci devi spendere 100-150 sopra.:)

La FE, a parer mio è la migliore.

HSH
12-04-2023, 15:32
così le vecchie schede acquisteranno valore visto lo schifo delle nuove, invece che scendere :D

speriamo la gente non compri più niente di nvidia così ababssano la cresta

Ale55andr0
12-04-2023, 15:37
avesse avuto almeno la decenza di prezzarla come la 3070..

ALMENO

decenza? chi? quello che non le vendeva ai miners?

Io ci speravo, ma Mike già qualche mese fa mi smorzò le speranze in quanto a 399 o 449$ ci starebbero dentro con i costi ma senza guadagnarci troppo.

nooo, poverini :cry: :cry: :cry:

In 4k hanno calcolato mediamente un 27% di accessi medi, quindi non basta per competere con i bus giganti di GA102.
Aiuta però in 1440p, visto che molti dati viaggiano a quasi 6tb/s.
Inoltre la 4070, rispetto la 4070ti ha la cache stroncata, da 48 a 36. Quindi è quasi in balia del bus, in certe circostanza.



Un 294mm2 letteralmente smontato.

https://i.postimg.cc/5yGSQ7db/4070.png

sai che a vedere lo schema direi più 299? :asd:

EffeX
12-04-2023, 15:39
così le vecchie schede acquisteranno valore visto lo schifo delle nuove, invece che scendere :D

speriamo la gente non compri più niente di nvidia così ababssano la cresta

Io veramente ho già iniziato. :D
Però alcuni miei amici sono scettici a passare ai competitor per via dei driver Nvidia con cui si trovano bene.

X360X
12-04-2023, 16:02
vabè una 3080 da 12GB con DLSS3 e i consumi di una 3060Ti (strozzata un po' in 4K ma se si compra per qhd va bene).

hanno sbagliato solo il prezzo, ma ancora si vedono 6800XT a 600 euro che sono tipo questa ma vanno molto meno in RT e non hanno DLSS, quindi se dall'altra parte dormono aiutano NVIDIA a farli i prezzi senza senso.

Ubro92
12-04-2023, 16:06
vabè una 3080 da 12GB con DLSS3 e i consumi di una 3060Ti (strozzata un po' in 4K ma se si compra per qhd va bene).



hanno sbagliato solo il prezzo, ma ancora si vedono 6800XT a 600 euro che sono tipo questa ma vanno molto meno in RT e non hanno DLSS, quindi se dall'altra parte dormono aiutano NVIDIA a farli i prezzi senza senso.Penso che dall'altra parte aspettano i prezzi di Nvidia per accodarsi 🤣

Anche perché pure AMD farà un downgrade di vram per la gioia di chi si lamentava: 7600xt che bene o male tallonerà la 6700xt ha un bus a 128bit quindi 8gb contro i 12gb della 7600xt, stessa cosa per la 7700xt che avrà 12gb rispetto i 16gb della 6800xt 🤣



Inviato dal mio M2012K11AG utilizzando Tapatalk

Ale55andr0
12-04-2023, 16:11
vabè una 3080 da 12GB con DLSS3 e i consumi di una 3060Ti (strozzata un po' in 4K ma se si compra per qhd va bene).

hanno sbagliato solo il prezzo, ma ancora si vedono 6800XT a 600 euro che sono tipo questa ma vanno molto meno in RT e non hanno DLSS, quindi se dall'altra parte dormono aiutano NVIDIA a farli i prezzi senza senso.

peccato che hanno sbagliato "solo" il prezzo in tutta la lineup mica solo questa :D, eccetto, un po', la 4090

Jack.
12-04-2023, 17:00
Mi trovo in una situazione un pò meh. Intorno febbraio ho comprato una 3080 10gb a 630 con garanzia residua fino a fine anno. Non mi ero posto nemmeno il problema dei 12gb. Ma in ogni caso le 12gb non le ho mai viste da novembre che la cercavo. Non ho manco pensato all'uscita delle 4070. Gioco a 1080p e pensavo di tenerla per minimo 4 anni..

Ora sta uscendo tutto questo panico per la vram, ha senso vendere la mia per cercare di non perderci tanto e prendere boh, questa 4070 nuova? Oppure aspettare di beccare una 3080 12gb usata che non abbia minato?

Ale55andr0
12-04-2023, 17:03
Mi trovo in una situazione un pò meh. Intorno febbraio ho comprato una 3080 10gb a 630 con garanzia residua fino a fine anno. Non mi ero posto nemmeno il problema dei 12gb. Ma in ogni caso le 12gb non le ho mai viste da novembre che la cercavo. Non ho manco pensato all'uscita delle 4070. Gioco a 1080p e pensavo di tenerla per minimo 4 anni..

Ora sta uscendo tutto questo panico per la vram, ha senso vendere la mia per cercare di non perderci tanto e prendere boh, questa 4070 nuova? Oppure aspettare di beccare una 3080 12gb usata che non abbia minato?

se giochi a 1080p non muoverti, certo che 600+ più per una gpu usata in epoca di transizione...:stordita:

StylezZz`
12-04-2023, 17:06
Mi trovo in una situazione un pò meh. Intorno febbraio ho comprato una 3080 10gb a 630 con garanzia residua fino a fine anno. Non mi ero posto nemmeno il problema dei 12gb. Ma in ogni caso le 12gb non le ho mai viste da novembre che la cercavo. Non ho manco pensato all'uscita delle 4070. Gioco a 1080p e pensavo di tenerla per minimo 4 anni..

Ora sta uscendo tutto questo panico per la vram, ha senso vendere la mia per cercare di non perderci tanto e prendere boh, questa 4070 nuova? Oppure aspettare di beccare una 3080 12gb usata che non abbia minato?

Ignora questo panico sulla vram e gioca sereno, a 1080p con 10GB stai largo.

EffeX
12-04-2023, 17:18
Mi trovo in una situazione un pò meh. Intorno febbraio ho comprato una 3080 10gb a 630 con garanzia residua fino a fine anno. Non mi ero posto nemmeno il problema dei 12gb. Ma in ogni caso le 12gb non le ho mai viste da novembre che la cercavo. Non ho manco pensato all'uscita delle 4070. Gioco a 1080p e pensavo di tenerla per minimo 4 anni..

Ora sta uscendo tutto questo panico per la vram, ha senso vendere la mia per cercare di non perderci tanto e prendere boh, questa 4070 nuova? Oppure aspettare di beccare una 3080 12gb usata che non abbia minato?

In Full HD secondo me è anche un po' esagerata la 3080, per curiosità, che cpu monti?

OrazioOC
12-04-2023, 17:27
Le gpu da full hd sono altre, di certo non la 3080. :asd:

Già si starebbe larghi con una 3070 detta onestamente. :rolleyes:

EffeX
12-04-2023, 17:29
Le gpu da full hd sono altre, di certo non la 3080. :asd:

Già si starebbe larghi con una 3070 detta onestamente. :rolleyes:

Appunto, col monitor Full HD che avevo precedentemente la 3070Ti era cpu limited dal 9700K a 5GHz in certe situazioni.

devil_mcry
12-04-2023, 17:34
vabè una 3080 da 12GB con DLSS3 e i consumi di una 3060Ti (strozzata un po' in 4K ma se si compra per qhd va bene).

hanno sbagliato solo il prezzo, ma ancora si vedono 6800XT a 600 euro che sono tipo questa ma vanno molto meno in RT e non hanno DLSS, quindi se dall'altra parte dormono aiutano NVIDIA a farli i prezzi senza senso.

il problema è che va meno della 3080 10gb a 1440p e 4k in troppi casi, figurati rispetto alla 3080 da 12gb

cmq su queste schede quello che stanno spingendo è il frame generator c'è poco da fare

la cosa simpatica per modo di dire è che si incastrano tutte nella lineup di prezzo delle 3000...

questa costa meno di una 3080 10gb e va meno, poi 3080 10, 3080 12 poi arriva la 4070 ti e poi si sale

senza frame generator auguri a venderle

X360X
12-04-2023, 18:27
il problema è che va meno della 3080 10gb a 1440p e 4k in troppi casi, figurati rispetto alla 3080 da 12gb

cmq su queste schede quello che stanno spingendo è il frame generator c'è poco da fare

la cosa simpatica per modo di dire è che si incastrano tutte nella lineup di prezzo delle 3000...

questa costa meno di una 3080 10gb e va meno, poi 3080 10, 3080 12 poi arriva la 4070 ti e poi si sale

senza frame generator auguri a venderle

4K lascia stare con quel bus ti stanno dicendo chiaro: anche ce la facesse compri quelle che costano di più. Dopotutto la 3080 da 4K può esserlo con molti compromessi è pur sempre la risoluzione più alta per una VGA informaticamente vecchia, non è aggiungendo VRAM che risolvi.

che vada meno di una 3080 da 10GB in generale la stai buttando là tu però, ha 2GB di VRAM in più, consuma come una 3060Ti, ha il DLSS3, ora se in certi giochi ha risultati peggiori (una VGA ricordiamo nemmeno uscita contro una che sta là da anni) secondo me non basta per dire che va meno, anche perché di contro va di più su altri, e su altri ancora stanno proprio alla pari. Sicuro non prenderei una 3080 nemmeno per sbaglio a pari prezzo (volete mille GB di VRAM per le schede più scarse e ora ve ne prendereste solo 10 per una che ne costa 669?)

https://tpucdn.com/review/nvidia-geforce-rtx-4070-founders-edition/images/deathloop-rt-2560-1440.png
https://tpucdn.com/review/nvidia-geforce-rtx-4070-founders-edition/images/doom-eternal-rt-2560-1440.png

Jack.
12-04-2023, 18:30
se giochi a 1080p non muoverti, certo che 600+ più per una gpu usata in epoca di transizione...:stordita:

Io la stavo cercando da novembre e qualsiasi 3080 apparisse intorno i 600 euro veniva venduta nel giro di ore.. annunci di 12 gb praticamente mai visti, appena ho trovato una versione LHR, garanzia residua e scambio a mano l'ho presa dopo 3 mesi di ricerca. Purtroppo non ho minimamente pensato alle prossime uscite, vuoi perchè avevo ancora PTSD del lancio della serie 3mila che non si trovavano mai a prezzo onesto etc.

In Full HD secondo me è anche un po' esagerata la 3080, per curiosità, che cpu monti?

Ryzen 7 5800x3D

Comunque se riuscissi a venderla allo stesso prezzo o poco meno, non mi conviene prendere sta 4070 e farmi 4 anni senza pensieri?

Ale55andr0
12-04-2023, 18:38
Ryzen 7 5800x3D

Comunque se riuscissi a venderla allo stesso prezzo o poco meno, non mi conviene prendere sta 4070 e farmi 4 anni senza pensieri?

vabè se devi mettere di tasca tua poche solo decine di euro ci può stare per un prodotto con +2gb e 2 anni di garanzia + dlss 3 ma solo a questa condizione eh....se già dovessi rimetterci un centone io non lo farei....

devil_mcry
12-04-2023, 19:28
4K lascia stare con quel bus ti stanno dicendo chiaro: anche ce la facesse compri quelle che costano di più. Dopotutto la 3080 da 4K può esserlo con molti compromessi è pur sempre la risoluzione più alta per una VGA informaticamente vecchia, non è aggiungendo VRAM che risolvi.

che vada meno di una 3080 da 10GB in generale la stai buttando là tu però, ha 2GB di VRAM in più, consuma come una 3060Ti, ha il DLSS3, ora se in certi giochi ha risultati peggiori (una VGA ricordiamo nemmeno uscita contro una che sta là da anni) secondo me non basta per dire che va meno, anche perché di contro va di più su altri, e su altri ancora stanno proprio alla pari. Sicuro non prenderei una 3080 nemmeno per sbaglio a pari prezzo (volete mille GB di VRAM per le schede più scarse e ora ve ne prendereste solo 10 per una che ne costa 669?)

https://tpucdn.com/review/nvidia-geforce-rtx-4070-founders-edition/images/deathloop-rt-2560-1440.png
https://tpucdn.com/review/nvidia-geforce-rtx-4070-founders-edition/images/doom-eternal-rt-2560-1440.png

hai preso i benchmark che hai voluto ma se guardi in media alla meglio a 1440p va come una 3080 10gb ma in generale le prestazioni sono abbastanza deludenti

comunque io non sto dicendo di prendere la 3080 10gb, ne la 3080 12gb, ma nemmeno la 4070 12gb che mi pare abbastanza senza senso come scheda

chi oggi si trova li in quel limbo di budget è semplicemente fregato

Besk
12-04-2023, 20:19
Avendo una 3070ti direi che posso saltare tranquillamente l'acquisto (non l'avrei fatto comunque ma è bello sapere di non fare poi così schifo rispetto alla generazione successiva :asd: )

X360X
12-04-2023, 20:40
hai preso i benchmark che hai voluto ma se guardi in media alla meglio a 1440p va come una 3080 10gb ma in generale le prestazioni sono abbastanza deludenti

comunque io non sto dicendo di prendere la 3080 10gb, ne la 3080 12gb, ma nemmeno la 4070 12gb che mi pare abbastanza senza senso come scheda

chi oggi si trova li in quel limbo di budget è semplicemente fregato

si per dire che può capitare vada anche di più, per lo più direi che vanno simili poi vedremo

costasse un prezzo molto più onesto ci starebbe, consuma pure poco e ha il DLSS3

devil_mcry
12-04-2023, 20:57
si per dire che può capitare vada anche di più, per lo più direi che vanno simili poi vedremo

costasse un prezzo molto più onesto ci starebbe, consuma pure poco e ha il DLSS3

chiaro cambiando il prezzo cambia tutto, per il frame generator comunque consideriamo due cose

1 - meno fps nativi fa la gpu più escono artefatti
2 - non è comunque una tecnologia presente in tutti i giochi

La stanno vendendo come la magia definitiva ma non lo è, e il discorso che i filtri di upscaling sono migliorati è vero ma quelle cose esistono da più tempo e si devono inventare meno roba, qui viene creato un frame da zero sulla base di due frame upscalati

mikael84
12-04-2023, 20:58
si per dire che può capitare vada anche di più, per lo più direi che vanno simili poi vedremo

costasse un prezzo molto più onesto ci starebbe, consuma pure poco e ha il DLSS3

Diciamo che alcune volte le da, ed alcune le prende (qualche volta anche male salendo di res.)
A livello tecnico in virgola mobile, la 4070 boostando a 2,8, è un tantino sopra la 3080, che a stock downclocka molto.
Inoltre, tra GPU e BW, la 3080 ha 5mb di cache a 2tb/s, la 4070 ne ha 32 a 6tb/s, quindi soprattutto alle basse res, a stock ci sta che varie volte stia sopra.

hai preso i benchmark che hai voluto ma se guardi in media alla meglio a 1440p va come una 3080 10gb ma in generale le prestazioni sono abbastanza deludenti

comunque io non sto dicendo di prendere la 3080 10gb, ne la 3080 12gb, ma nemmeno la 4070 12gb che mi pare abbastanza senza senso come scheda

chi oggi si trova li in quel limbo di budget è semplicemente fregato

Si, sono sostanzialmente uguali, alcune volte le prende un tantino, altre le da, in base al gioco.
Chiaro che in 4k, quando fai un uso massivo di rop's e BW la 3080 spesso fa male. :)

mikael84
12-04-2023, 21:22
Le reazioni mi sembrano un po' esagerate. Anche io mi aspettavo di più, dicevo giusto qualche pagina fa che speravo in prestazioni simil-3080ti, mentre si tratta sostanzialmente di una 3080 con DLSS3 e 2GB di ram in più. Però, analizzando tutta la situazione:

- consuma davvero poco, che non è una cosa da sottovalutare, soprattutto visto che la 3080 è parecchio energivora e ha degli spikes ASSURDI (non quanto quelli delle AMD, ma comunque enormi)
- non necessita di dissipatori grossi quanto mezzo case
- niente connettori strani che sulla scia del successo di Hogwarts Legacy cercano di scimmiottare harry potter (incendio!)
- nessuna necessità di strani antisag che manco i push up wonderbra
- 12GB di VRAM su questa fascia (sia di prezzo che di performance) hanno molto più senso che sulla 4070 ti
- nonostante sia stata giustamente superata, in senso assoluto le performance della 3080 non sono certo poca roba, specie alla res di riferimento (1440p)
- forse l'aspetto principale: la scheda non è ancora uscita, quando miglioreranno i driver e i devs ottimizzeranno principalmente per Ada le prestazioni saliranno sicuro. Al punto da raggiungere la ti come speravamo in molti? Non credo, ma se adesso ci sono alcuni titoli in cui va meno della 3080 liscia, in futuro per me questo scenario non si verificherà più, e la scheda andrà generalmente un po' di più in tutti i giochi.

Insomma, non è una 3080 ti, ma è una 3080 con più ram che consuma la metà, scalda così poco che è dissipabile benissimo anche con dissi biventola (a proposito, il nuovo dual di ASUS è spettacolare), non ha connettori orrendi, in futuro migliorerà sicuramente le performance con driver e ottimizzazioni ad hoc per l'architettura e in più ha pure il dlss3, che assicurerà una maggiore longevità insieme ai 2GB extra. L'unico problema? Come al solito, il prezzo. Se fosse uscita a 500€ (e magari con il nome "4060ti", visto che siamo un po' tutti suscettibili al mktg di questi tempi) saremmo tutti contenti, specie tenendo conto della realtà attuale dei costi del silicio, di nodes come il TSMC 4N e dell'R&D per roba come la FG (che ci fanno pagare pure). Ma c'è un motivo se le rece, inclusa quella del sito su cui scriviamo, sono generalmente positive, ed è semplicemente il fatto che la scheda in sé è buona. Non eccelsa come speravamo, ma nemmeno una porcheria.

Senza entrare nella microarchitettura, basta fare un semplice rapporto in virgola mobile.
Perchè la mettevo come la 3080, ed è stata messa in fascia 3080?:)
4070@2,75ghz, produce 32,3TF.
3080@1,85ghz, produce 32,2TF.
3080ti@1,85ghz, produce 37,8TF.

La potenza è quella, poi dopo si può entrare nella microarchitettura, e possiamo analizzare la cache, la geometria, le latenze, warp stall, la BW, ma mediamente in calcolo è li.:)

Ubro92
12-04-2023, 21:27
Rimane un ottimo chip il problema è come si piazza sul mercato.
Questa 4070 liscia mi ricorda molto la 1060 all'esordio VS 980 :fagiano:

Di fatto è una x60/ti, se fosse stata venduta sui 399$ neanche a parlarne...
Vedremo le stime di vendita di nvidia, ma ho la sensazione che quest'anno se non rivede i prezzi ne rimarranno un bel pò a scaffale.

StylezZz`
12-04-2023, 21:59
Le reazioni mi sembrano un po' esagerate...

E meno male che lo sono, significa che c'è ancora una minima speranza...se avessi letto il contrario probabilmente sarei passato alle console oggi stesso :asd:

EffeX
12-04-2023, 22:12
Io la stavo cercando da novembre e qualsiasi 3080 apparisse intorno i 600 euro veniva venduta nel giro di ore.. annunci di 12 gb praticamente mai visti, appena ho trovato una versione LHR, garanzia residua e scambio a mano l'ho presa dopo 3 mesi di ricerca. Purtroppo non ho minimamente pensato alle prossime uscite, vuoi perchè avevo ancora PTSD del lancio della serie 3mila che non si trovavano mai a prezzo onesto etc.



Ryzen 7 5800x3D

Comunque se riuscissi a venderla allo stesso prezzo o poco meno, non mi conviene prendere sta 4070 e farmi 4 anni senza pensieri?

Perlomeno con quella cpu non hai problemi nemmeno in 1080p.
Se non devi rimetterci tanto potresti anche farlo il cambio a questo punto, avresti dlss3 e frame generator in più rispetto alla 3080.

Ubro92
12-04-2023, 22:25
Perlomeno con quella cpu non hai problemi nemmeno in 1080p.
Se non devi rimetterci tanto potresti anche farlo il cambio a questo punto, avresti dlss3 e frame generator in più rispetto alla 3080.

Oltre che consumi del 40% inferiori, temperature più gestibili e forse (dico forse) clock più stabile, gli 8nm quando il chip viene spremuto iniziano a droppare corrente e tagliare i clock.

Il chip è valido, ciò che lascia l'amaro in bocca sono i prezzi, ma per chi ha saltato Ampere, e ha ad esempio una 2060/2070 può valerne la pena come salto.

Sicuramente meglio di chi in piena pandemia ha preso una 3080 a 1000/1200e....

Poi da quello che vedo con il DLSS3 ottiene un frame simile alla 4080, il che è interessante, ma penso che un pò tutti sono fiduciosi in AMD sull'FSR3, se pure turing riesce a fare qualcosa mi sa che per nvidia questa campagna è da rivedere tutta XD

StylezZz`
12-04-2023, 22:31
Sicuramente meglio di chi in piena pandemia ha preso una 3080 a 1000/1200e....

Tu dici? Se consideriamo che è una 4060, è esattamente come chi prendeva una 3060 12GB a 700€ in piena pandemia, solo che questa volta te la vende direttamente nvidia e non qualche scalper.

Ale55andr0
12-04-2023, 22:46
Tu dici? Se consideriamo che è una 4060, è esattamente come chi prendeva una 3060 12GB a 700€ in piena pandemia, solo che questa volta te la vende direttamente nvidia e non qualche scalper.

https://www.youtube.com/watch?v=xDr7fi1gFco&ab_channel=ChristianZoltarBellomo

davide155
12-04-2023, 22:58
Tu dici? Se consideriamo che è una 4060, è esattamente come chi prendeva una 3060 12GB a 700€ in piena pandemia, solo che questa volta te la vende direttamente nvidia e non qualche scalper.Dimenticate una cosa fondamentale che le ada lovelace hanno e le precedenti serie no.
Cioè il dlss3, il frame generation ed il SER.
Solo queste 3 tecnologie hanno messo i chiodi sulla bara alle ampere.
Con un singolo tasto si ha due terzi di fps in più. Con due tasti si ha i frame triplicati.
Basti vedere cyberpunk overdrive come si comporta.
Il dlss3 poi lo stanno implementando in quasi tutti i giochi che già avevano il dlss2.
Sono tecniche che in alcuni casi possono fare la differenza tra giocare degnamente e non.
È errato sminuire una 4070. Perché anche se ha le stesse perf di una 3080, quando la 4070 attiva il dlss3 da il bona anche alla 3090....

Ubro92
12-04-2023, 23:06
Tu dici? Se consideriamo che è una 4060, è esattamente come chi prendeva una 3060 12GB a 700€ in piena pandemia, solo che questa volta te la vende direttamente nvidia e non qualche scalper.

Eh diciamo che è un "meglio" molto alla buona XD

Dimenticate una cosa fondamentale che le ada lovelace hanno e le precedenti serie no.
Cioè il dlss3, il frame generation ed il SER.
Solo queste 3 tecnologie hanno messo i chiodi sulla bara alle ampere.
Con un singolo tasto si ha due terzi di fps in più. Con due tasti si ha i frame triplicati.
Basti vedere cyberpunk overdrive come si comporta.
Il dlss3 poi lo stanno implementando in quasi tutti i giochi che già avevano il dlss2.
Sono tecniche che in alcuni casi possono fare la differenza tra giocare degnamente e non.
È errato sminuire una 4070. Perché anche se ha le stesse perf di una 3080, quando la 4070 attiva il dlss3 da il bona anche alla 3090....

Si ma questo giochetto vale ora, ed effettivamente con il DLSS3 arriva alle prestazioni di una 4080, ma tecnologicamente è un algoritmo che dovrà vedersela con l'FSR3 che è uno standard open e c'è un altissima probabilità che venga supportata ampere, e non si esclude che persino turing possa ottenere il supporto.
Inoltre anche intel potrebbe aggiungersi integrando il frame generator nel suo XeSS che anch'esso open e compatibile sia con amd che nvidia

emac700
12-04-2023, 23:30
Dimenticate una cosa fondamentale che le ada lovelace hanno e le precedenti serie no.
Cioè il dlss3, il frame generation ed il SER.
Solo queste 3 tecnologie hanno messo i chiodi sulla bara alle ampere.
Con un singolo tasto si ha due terzi di fps in più. Con due tasti si ha i frame triplicati.
Basti vedere cyberpunk overdrive come si comporta.
Il dlss3 poi lo stanno implementando in quasi tutti i giochi che già avevano il dlss2.
Sono tecniche che in alcuni casi possono fare la differenza tra giocare degnamente e non.
È errato sminuire una 4070. Perché anche se ha le stesse perf di una 3080, quando la 4070 attiva il dlss3 da il bona anche alla 3090....

Può anche darsi che domani esca un motore grafico nuovo con implementazioni software di tecnologie simili e ti ritrovi una scheda che in molti giochi va peggio di una 3080 12gb (uscita tre anni fa allo stesso prezzo). A mettere i chiodi su ampere mi sembra che per il momento siano i porting di giochi che su console hanno a disposizione 12 gb.
PS: faccio riferimento ai motori grafici perchè da quello che ho letto già oggi unreal 5.3 può ottenere risultati simili al raytracing hdw + dlss (https://www.youtube.com/watch?v=yBu0DeYP3Hk).

StylezZz`
12-04-2023, 23:33
Dimenticate una cosa fondamentale che le ada lovelace hanno e le precedenti serie no.
Cioè il dlss3, il frame generation ed il SER.
Solo queste 3 tecnologie hanno messo i chiodi sulla bara alle ampere.
Con un singolo tasto si ha due terzi di fps in più. Con due tasti si ha i frame triplicati.
Basti vedere cyberpunk overdrive come si comporta.
Il dlss3 poi lo stanno implementando in quasi tutti i giochi che già avevano il dlss2.
Sono tecniche che in alcuni casi possono fare la differenza tra giocare degnamente e non.
È errato sminuire una 4070. Perché anche se ha le stesse perf di una 3080, quando la 4070 attiva il dlss3 da il bona anche alla 3090....

Non l'ho dimenticato, ma queste markettate per me lasciano il tempo che trovano, anche perchè se vogliamo dirla tutta, attualmente il DLSS3+FG serve davvero solo su CP77 con overdrive. Si in futuro ci saranno altri titoli pesanti dove farà comodo averlo, ma quando esattamente? Nel frattempo i mesi passano, e siamo già con le RTX 5000 alle porte.

E per quanto riguarda ''i chiodi sulla bara alle ampere'', se permetti la mia 3070 mi regala ancora soddisfazioni come presumo anche la tua 3090 ne regala a te, e ci sarà da ridere se vedremo FSR3 o addirittura DLSS3.

nessuno29
13-04-2023, 06:46
Dimenticate una cosa fondamentale che le ada lovelace hanno e le precedenti serie no.
Cioè il dlss3, il frame generation ed il SER.
Solo queste 3 tecnologie hanno messo i chiodi sulla bara alle ampere.
Con un singolo tasto si ha due terzi di fps in più. Con due tasti si ha i frame triplicati.
Basti vedere cyberpunk overdrive come si comporta.
Il dlss3 poi lo stanno implementando in quasi tutti i giochi che già avevano il dlss2.
Sono tecniche che in alcuni casi possono fare la differenza tra giocare degnamente e non.
È errato sminuire una 4070. Perché anche se ha le stesse perf di una 3080, quando la 4070 attiva il dlss3 da il bona anche alla 3090....

Giocare a 60 frame con dlss2 o 60 frame con dlss3 e frame generation non è la stessa cosa! Il feeling è diverso e la qualità è diversa, non capisco perché date per scontato che non ci sia un calo della qualità di gioco.

La 4070 è un fail, stiamo parlando di un +30% sulla 3070 a 3 anni di stanza e 100 euro in più.

fraussantin
13-04-2023, 07:27
Giocare a 60 frame con dlss2 o 60 frame con dlss3 e frame generation non è la stessa cosa! Il feeling è diverso e la qualità è diversa, non capisco perché date per scontato che non ci sia un calo della qualità di gioco.

La 4070 è un fail, stiamo parlando di un +30% sulla 3070 a 3 anni di stanza e 100 euro in più.

Se è un fail sarà il mercato a deciderlo , ma l'esaltazione di certe recensioni secondo me avrà la meglio e venderà .

Di certo è un inc.ta Ma la gente ha sempre vasellina avanzata dall'era degli scalper secondo me la comprerà.

Goofy Goober
13-04-2023, 07:33
Una cosa positiva, ed è solo una sia ben chiaro, questa 4070 sicuramente la ha ed è innegabile:
chi ha bisogno di una scheda Nvidia nella serie RTX 4xxx e non vuole spendere più di 700 euro circa, adesso ha alune soluzioni reperibili sul mercato :O

E questo punto positivo probabilmente continuerà ad essere l'unico anche per le future schede che usciranno sotto a questa :asd:


Sono tecniche che in alcuni casi possono fare la differenza tra giocare degnamente e non.


Onestamente già 15 anni fa potevo attivarmi il black frame insertion sulle tv e sognarmi di giocare con tantissimi FPS anche con le console che ne facevano 25 su certi titoli. Se accettavo l'input lag fantozziano e gli artefatti qui e la.

C'è da gioire veramente sul fatto che oggi le gpu hanno algoritmi per ingannare la vista su alcuni giochi? :stordita:

Perchè il gaming su pc non è tutto ray tracing e Cyberpunk :read:

A ognuno il suo e rispetto massimo per le opinioni di tutti, ma se cominciamo a valorizzare più un algoritmo di artifizio rispetto alla prestazione pura, stiamo dicendo al ceo verde di trapanarci da parte a parte perchè si, ci piace così :eek:

nessuno29
13-04-2023, 07:34
Se è un fail sarà il mercato a deciderlo , ma l'esaltazione di certe recensioni secondo me avrà la meglio e venderà .

Di certo è un inc.ta Ma la gente ha sempre vasellina avanzata dall'era degli scalper secondo me la comprerà.

Su questo non c'è dubbio, ha venduto quel cesso di rtx 3060 figuriamoci questa che è ottima col solo difetto di essere una 4060 travestita.

Ale55andr0
13-04-2023, 07:42
Se è un fail sarà il mercato a deciderlo , ma l'esaltazione di certe recensioni secondo me avrà la meglio e venderà .

Di certo è un inc.ta Ma la gente ha sempre vasellina avanzata dall'era degli scalper secondo me la comprerà.

a me le recensioni che "contano di più" (influencer nei social) paiono tutt'altro che entusiastiche....mentre di 4070ti e 4080 non erano semplicemente non-entusistiche, le hanno proprio sputtanate. Il punto per cui nvidia vince comunque è dato dal fatto che se vendi -40% ma prezzi +60% vai sempre in attivo e in plusvalenza rispetto a prima, mentre le schede sugli scaffali se le sciroppano distributori e negozi, nvidia dando le gpu ai partner le ha già smerciate....

Ale55andr0
13-04-2023, 07:47
Dimenticate una cosa fondamentale che le ada lovelace hanno e le precedenti serie no.
Cioè il dlss3, il frame generation ed il SER.
..

e tu dimentichi che su ogni 10 giochi usciti c'è in quanti? Non è un plus garantito e di rendita, posto che c'è chi li schifa sti fake frame e fake pixel

fraussantin
13-04-2023, 07:52
e tu dimentichi che su ogni 10 giochi usciti c'è in quanti? Non è un plus garantito e di rendita, posto che c'è chi li schifa sti fake frame e fake pixelIl frame generator secondo me finirà su tutti i giochi principali nel prossimo futuro un po come il dlss.

Tempo al tempo.

Rigiardo gli influencer , boh non li seguo piu , ma a leggere le recensioni italiane (anche su questo forum) , sinceramente mi è venuto il male allo stomaco .

EffeX
13-04-2023, 07:55
4070 dalla sua ha appunto il DLSS3 e FG, minori consumi e 2 GB di ram più della 3080.
Di contro ha bus dei puffi e prezzo.
Ora per me la vera innovazione era quando si potevano acquistare schede della nuova gen che consumando meno andavano come quelle di fascia superiore della gen precedente costando meno.
Questa costa come la 3080, andando come la 3080 consumando meno.
Oggettivamente questo è al netto di tecnologie proprietarie.

ultimate trip
13-04-2023, 08:16
....Nel frattempo i mesi passano, e siamo già con le RTX 5000 alle porte..........

Eh non esageriamo, son passati 7 mesi dalla presentazione di Ada e ne dovranno passare almeno altri 17 per le 5000. la gen è ancora lunga, ma come dici ampere ancora tiene botta

devil_mcry
13-04-2023, 09:11
Comunque continuate a paragonare il FG al DLSS 2 (che poi il DLSS 3 nelle features di upscaling lo ha anche ampere e turing) ma mentre il DLSS 2 non generava artefatti il FG si e ne genera tanti più quanti pochi sono gli FPS nativi.

magari tra due generazioni di gpu sarà perfetto ma tra il fatto che è poco supportato e il fatto che la 4070 è poco potente, giocare a 60fps finali con FG e DLSS vuol dire giocare comunque con artefatti a video. Io a quel punto preferirei 30 nativi con DLSS e basta

Comunque tolto il discorso che ad oggi comprare una 3080 anche da 12gb non ha senso, pure questa 4070 a me darebbe l'impressione di un acquisto fatto regalando i soldi, ma non perché la scheda ha il bus salcazzi e un numero di Cuda X ma perché se la 3080 andava 10 a prezzo 10, la 4070 sarebbe dovuta andare 12 a prezzo 6 o giù di li (come è stato fino ad oggi no ? )

EffeX
13-04-2023, 09:42
Comunque continuate a paragonare il FG al DLSS 2 (che poi il DLSS 3 nelle features di upscaling lo ha anche ampere e turing) ma mentre il DLSS 2 non generava artefatti il FG si e ne genera tanti più quanti pochi sono gli FPS nativi.

magari tra due generazioni di gpu sarà perfetto ma tra il fatto che è poco supportato e il fatto che la 4070 è poco potente, giocare a 60fps finali con FG e DLSS vuol dire giocare comunque con artefatti a video. Io a quel punto preferirei 30 nativi con DLSS e basta

Comunque tolto il discorso che ad oggi comprare una 3080 anche da 12gb non ha senso, pure questa 4070 a me darebbe l'impressione di un acquisto fatto regalando i soldi, ma non perché la scheda ha il bus salcazzi e un numero di Cuda X ma perché se la 3080 andava 10 a prezzo 10, la 4070 sarebbe dovuta andare 12 a prezzo 6 o giù di li (come è stato fino ad oggi no ? )

È quello che intendevo io, con la scusa dei prezzi dei wafer e nuove features qui ad ogni gen la convenienza vien meno.
Con ste 4000 poi hanno proprio esagerato!