PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 [395] 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466

Cutter90
08-06-2023, 10:09
Vero, un esempio su tutti è proprio CB2077, tutta grafica, ma ad asset e fisica è veramente lasciato a se stesso.
Ricordo i Batman, o andando ancora più indietro Mirrors edge col physix che mandava in frantumi i vetri in modo "realistico", per l'epoca si intende. :D
Cose che nei tripla A di oggi non si vedono più spesso...

Io speravo che una volta raggiunto il 4k come standard si concentrassero su fisica e ia. LA risoluzione è inutile aumentarla e gli fps ormai sono sufficienti anche in 4k.
Si, bene il RT, ma pensavo che onestamente la cosa fosse molto più veloce da implementare. Invece le SH fanno piccoli passettini per volta. Con le 2000 si è introdotto il RT. Con le 4000 speravo che tutti i giochi lo usassero su ombre e riflessi almeno e che il conmcetto fosse bello che finito e collaudato. In mado poi da concentrarsi sulla fisica e l IA che sono cose che il videogioco te lo cambiano proprio.
Invece siamo alle 4000 e non solo il RT è tutt'altro che uno stanadrd, ma addirittura c'è chi ancora non lo ha mai visto in azione. E' troppo lento il tutto. Troppo.

Kvarat
08-06-2023, 10:13
vero, ma si parla cmq solo di risoluzione. Sotto tantissimi aspetti siamo fermi, se non addirittura sono stati fatti passi indietro, vedi la fisica e l IA nei videogiochi

Questo perchè i giochi puntano ormai forte nell'online dove non è possibile appesantire i server e tutti devono poter giocare. Non per niente il gaming mondiale è esploso proprio grazie ai vari Fortnite, Cod, LOL e compagnia bella. Se ci pensi attentamente le grandi aziende come Nvidia, Amd, Intel, da un lato sono contente perchè più videogiocatori più vendite, ma dall'altro lato i giochi sono fermi letteralmente. Non è un caso che Nintendo sforni capolavori sulla Switch del 2017. Nemmeno loro hanno azzardato una nuova console.

ColdWarGuy
08-06-2023, 10:15
Concordo con Karonte ma io ho anche un altro vantaggio, vivo ancora nel 2017...ma con hardware del 2023 e me ne frego di dlss , FG e tutte ste balle.:D

Per quando sarò arrivato ai giochi di quest' anno probabilmente avrò una rtx6080

Quoto, anche perchè essere video gamer vuol dire in primis giocare e poi magari spendere del tempo a fare benchmark, la seconda cosa è pure facoltativa ma paradossalmente c'è chi inverte la priorità e passa tutto il tempo a fare test.

Ho un amico che è naturalmente portato per i games di azione, sia FPS che di guida e malgrado un età non certo adolescenziale (passati i 50 da parecchio) riesce ancora a stare al passo con gli sbarbati online, ma nel contempo di PC ne capisce poco, di fatto glielo gestisco io.

Me lo ricordo nei LAN party caserecci degli anni 90, la prima cosa che faceva quando lanciava il game era abbassare i dettagli per ottenere la massima fluidità, poi faceva il c*lo a tutti :D

Cutter90
08-06-2023, 10:17
Questo perchè i giochi puntano ormai forte nell'online dove non è possibile appesantire i server e tutti devono poter giocare. Non per niente il gaming mondiale è esploso proprio grazie ai vari Fortnite, Cod, LOL e compagnia bella. Se ci pensi attentamente le grandi aziende come Nvidia, Amd, Intel, da un lato sono contente perchè più videogiocatori più vendite, ma dall'altro lato i giochi sono fermi letteralmente. Non è un caso che Nintendo sforni capolavori sulla Switch del 2017. Nemmeno loro hanno azzardato una nuova console.

Vero, ottima considerazione. E se posso dire la mia..... "bella Merda"
Per quanto mi riguarda il gaming poteva rimanere una nicchia e non esplodere. I veri appassionati ci hanno perso tantissimo con al deriva casual.

Alodesign
08-06-2023, 10:34
Falsissimo. Mai come ora invece le schede video sono dei mostri. Un tempo puntavi a fare 60 fps in hd, poi 60 in fhd, poi 75 in fhd e così via. Adesso le potenze necessarie sono esponenziali. Si passa da chi gioca in fhd con i monitor dell'ufficio al 4k con le TV Oled a 120hz. Su questo per favore no vi prego. Mai visto un balzo in avanti come negli ultimi 4 anni in tutte le componenti del PC e periferiche.

Facile quando non fai altro che aumentare il silicio sulle schede e farti dare una mano da software chiusi.

Kvarat
08-06-2023, 10:38
Vero, ottima considerazione. E se posso dire la mia..... "bella Merda"
Per quanto mi riguarda il gaming poteva rimanere una nicchia e non esplodere. I veri appassionati ci hanno perso tantissimo con al deriva casual.

Il gaming, adesso accessibile a chiunque grazie ai telefoni e all'usato, ha fatto esattamente quello che l'uomo cerca, ovvero aggregare. Non è un caso se i capolavori del mondo gaming nascevano nelle modalità di gioco a 2 o più giocatori. Ti parlo della preistoria dell'Amiga. Internet ha dato la spinta. Senza quella massa infinita di players ad oggi avresti la più totale desolazione nel mondo dei giochi. Non crederai certo che la persone nel 2023 siano disposte a giocare da sole nei punta e clicca per più di qualche ora senza annoiarsi?
150 milioni di utenti Discord ed ho detto tutto.

ColdWarGuy
08-06-2023, 10:39
Anni fa passavi da console a PC (ho sempre avuto entrambi) e sembrava di fare i salti nel futuro.

Ma la stessa PS4 (ho avuto la Pro) che già aveva una grafica "curata" e risoluzioni native umane (PS3\360 erano ancora 720p nativi fate conto) coi suoi 30fps un po' ovunque ti sbatteva in faccia che non erano i 60 del PC, mentre su PS5 li ho trovati quasi sempre i 60.

sono diventati sfizi più di necessità, e a me se posso giocare a 120 piace, se il framerate è più stabile piace, se posso alzare certe opzioni piace, lo stesso RT schifo non fa se usato bene, non preferisco la PS5...ma con la PS5 e VGA non top si gioca bene senza problemi? Si.

Anni passati li rimpiango perché è tutto più noioso ora, anzi beato chi ha iniziato dagli albori che si è goduto ancora più step "wow".

Riguardo le CPU...è un thread per le VGA, se dovete stare mille pagine a parlare di CPU forse è più adatto un altro thread

Io ho iniziato a giocare quando la grafica era renderizzata dal processore, adesso siamo a dei livelli che negli anni 80-90 nessuno avrebbe mai osato pensare, ma la cosa buffa è che per molti sembra non bastare mai :)

Riguardo alle console bisogna anche considerare che all'epoca erano pure vendute sotto costo, le prestazioni rispetto al prezzo erano ancor più vantaggiose, adesso la festa è finita ma penso che non poteva essere altrimenti vista la crescente complessità delle parti componenti.

Ma c'è un aspetto che ha un certo valore : non incontri tutte le beghe tecniche che puoi trovare con il PC, anche se il concetto di console è parecchio cambiato con il meccansimo degli online update.

Faccio un esempio : sto giocando con Dead Space remake con l'App EA, un infinità di crash che a volte sembrano risolti con la modifica di qualche opzione che però poi magicamente ricompaiono all'improvviso il giorno dopo, nei forum online trovi un botto di persone con lo stesso problema, qualcuno con più esperienza trova il magheggio che risolve ma spesso è solo temporaneo.

Con le versioni console le SH non possono permettersi questa cosa e 99 su 100 i games girano lisci, ovviamente con il PC hai una infinità di combinazioni HW/SW che non possono essere testate in toto, però con il suddeto game, ad esempio, non ci siamo proprio.

Da questo punto di vista il PC rimane sempre una piattaforma più rognosa e quando finisce in mano a chi non sa e/o non vuole sbattersi viene fuori un disastro.

Kvarat
08-06-2023, 10:45
Facile quando non fai altro che aumentare il silicio sulle schede e farti dare una mano da software chiusi.

Fosse facile non avresti un'azienda monopolista quasi del mercato. Avresti una situazione stile smartphone.
Invece non esiste al mondo una società con una tale conoscenza hardware software e un tale sviluppo da competere con Nvidia ad armi pari. Se pensi che io gioco alla Shield da oltre 6 anni, guardo film in 4k hdr e tutto il resto senza una mezza sbavatura, consumando pochi watt e con continui aggiornamenti, capisci da solo il livello tecnologico.

appleroof
08-06-2023, 10:46
Quoto anche io Kharonte, qualcosa comincia a muoversi anche sul fronte IA dei giochi, la solita Nvidia ci prova

https://www.adnkronos.com/videogiochi-e-intelligenza-artificiale-un-nuovo-strumento-di-nvidia_RxguljV1vGS7TQ4Mp1OwF

Certo ci vorrà ancora qualche anno imho

Cutter90
08-06-2023, 11:14
Il gaming, adesso accessibile a chiunque grazie ai telefoni e all'usato, ha fatto esattamente quello che l'uomo cerca, ovvero aggregare. Non è un caso se i capolavori del mondo gaming nascevano nelle modalità di gioco a 2 o più giocatori. Ti parlo della preistoria dell'Amiga. Internet ha dato la spinta. Senza quella massa infinita di players ad oggi avresti la più totale desolazione nel mondo dei giochi. Non crederai certo che la persone nel 2023 siano disposte a giocare da sole nei punta e clicca per più di qualche ora senza annoiarsi?
150 milioni di utenti Discord ed ho detto tutto.

Il fatto che sia accessibile a chiunque fa ingoiare qualsiasi cosa al mercato, tanto "basta divertirsi". Quindi appiattimento totale.
E' chiaro che poi il discorso sta nel mezzo. Ok non avere ancora i punta e clicca e basta, ma nemmeno solo multy scrausi e fermo nel mondo dei videogiochi come stiamo vivendo ora.

EffeX
08-06-2023, 12:01
Fosse facile non avresti un'azienda monopolista quasi del mercato. Avresti una situazione stile smartphone.
Invece non esiste al mondo una società con una tale conoscenza hardware software e un tale sviluppo da competere con Nvidia ad armi pari. Se pensi che io gioco alla Shield da oltre 6 anni, guardo film in 4k hdr e tutto il resto senza una mezza sbavatura, consumando pochi watt e con continui aggiornamenti, capisci da solo il livello tecnologico.

Nessuno ha mai detto che sia facile, Nvidia però ha sempre avuto le risorse necessarie per sviluppare il suo hw e investire, è quello che fa la differenza.
Se pensi che NV1 aveva un sistema di elaborazione bastato su texture quadratiche, non avesse avuto le risorse, sarebbe già fallita ancora prima di nascere dato che subito dopo MS decise che lo standard da utilizzare sarebbero stati i triangoli.
Un altro colpo gobbo lo fece qualche anno dopo acquisendo 3dfx, con tutte le tecnologie proprietarie che allora possedeva, ed in un colpo solo si levò pure dai piedi un concorrente per dire.
Da lì in avanti è storia "contemporanea" con le successive acquisizioni tra cui Ageia da cui derivò il Physx.

mtofa
08-06-2023, 12:21
Auguri!!!!! :happy:
Sei entrato negli "anta" o ti manca ancora qualche anno?

Grazie mille! Eh eh sono entrato negli anta da 15 anni ormai... :cry: :D

ColdWarGuy
08-06-2023, 12:26
Nessuno ha mai detto che sia facile, Nvidia però ha sempre avuto le risorse necessarie per sviluppare il suo hw e investire, è quello che fa la differenza.
Se pensi che NV1 aveva un sistema di elaborazione bastato su texture quadratiche, non avesse avuto le risorse, sarebbe già fallita ancora prima di nascere dato che subito dopo MS decise che lo standard da utilizzare sarebbero stati i triangoli.
Un altro colpo gobbo lo fece qualche anno dopo acquisendo 3dfx, con tutte le tecnologie proprietarie che allora possedeva, ed in un colpo solo si levò pure dai piedi un concorrente per dire.
Da lì in avanti è storia "contemporanea" con le successive acquisizioni tra cui Ageia da cui derivò il Physx.

Aggiungiamo anche che se confrontata ad AMD ed Intel al lato pratico NVIDIA è un azienda mono prodotto.

Certo, il catalogo è variegato ma ruota tutto attorno alla stessa categoria di dispositivi e questo è un grosso vantaggio perchè l'R&D è opera in modo molto specifico.

Straquoto poi il discorso dei colpi "gobbi", riprendendo il caso 3dfx, hanno portato a casa una carriolata di IP al prezzo di una pipa ed un tabacco.

Io, onestamente parlando, non soffro di nessuna sindrome di ammirazione nei loro confronti e se andiamo a vedere le varie presentazioni di giacchetta degli ultimi tempi, ad esempio il keynote del Computex, sono decisamente delle pacchianate, vedi karaoke con AI ed il barista virtuale ...

Kharonte85
08-06-2023, 13:32
Partendo da una 1080Ti la 4070 è senz'altro un upgrade sensato così come il 13400F è sicuramente adeguato per i 2K, sei a quasi 2X di prestazione grafica e 3-4X di prestazione di CPU, chi invece ha una 3070 e vuole lo stesso gap deve guardare la 4080 che costa il doppio :(

Domanda : i 220W li hai misurati alla spina o dedotti da software di monitoring ?

Da software MSI Afterburning tendenzialmente la GTX 4070 si attesta intorno ai 180-190W. Tieni conto che prima la sola GTX 1080TI era intorno ai 240W

Quindi sì è stata un'evoluzione vera per me, sebbene la qualità grafica è cambiata poco: anche mettendoci il RT il colpo d'occhio non è sconvolgente.

Fa piacere vedere che ci siamo ancora, questo è l'importante, oggi compio gli anni e ritrovare persone con cui si è già interagito molti anni addietro fa sempre piacere.

Sì ci siamo ancora. Auguri!

Straquoto! :)
Diciamo che le evoluzioni ci son sempre state, solo che a mio parere in passato si notavano di più rispetto ad ora

Esatto le evoluzioni rallentano la velocità fino a quando raggiungono una maturità, fino a che non cambi paradigma il salto prestazionale è poco.

E' quello che sta cercando di fare NVIDIA, proprio ieri sera ho provato il frame generation abbinato a DLSS3 su Dying Light 2 (e Nvidia Reflex per ridurre la latenza). In effetti se ti interessa usare il RT senza sacrificare i FPS la cosa funziona, anche se ovviamente è una tecnologia appena nata, si deve ancora ottimizzare e deve limare qualche difetto.

Ehh vabbhè condivido anche io ma noi siamo della generazione "a 60fps vengo", ricordatevi che siamo stati anche noi
così (eravamo qui a trepidare per ogni nuova relase di 3dmark, nuovi driver e litigare sulle gpu me lo ricordo bene).E' meglio? E' Peggio? Ma chissenefrega, abbassate i prezzi :sbonk:

Non riescono ad abbassare i prezzi perchè la riduzione dei processi produttivi diventa sempre più lenta e costosa. Quindi devono rientrare dell'investimento ed ecco perchè sta sparendo la fascia medio-bassa. Quella dove una volta facevi i soldi veri, oggi ho la sensazione che li facciano col marketing e i software non con l'hardware.

sono diventati sfizi più di necessità, e a me se posso giocare a 120 piace, se il framerate è più stabile piace, se posso alzare certe opzioni piace, lo stesso RT schifo non fa se usato bene, non preferisco la PS5...ma con la PS5 e VGA non top si gioca bene senza problemi? Si.

Anni passati li rimpiango perché è tutto più noioso ora, anzi beato chi ha iniziato dagli albori che si è goduto ancora più step "wow".


Esatto, infatti mi riesce difficile immaginare a cosa un appassionato di oggi si potrebbe appassionare. E' abbastanza tutto fermo e i visori VR non riescono a sfondare (come sempre col 3D).

L'unica cosa che ho visto esplodere dal 2014 ad oggi è stata l'informazione su Youtube. Il che però non vuol dire sia sinonimo di maggiore qualità.
Se avessi dato retta a certi youtuber non avrei preso la 4070 al lancio o quasi, dovevo aspettare perchè tanto non la comprava nessuno e i prezzi sarebbero crollati. Il risultato è che i prezzi sono saliti un po' e le disponibilità calate.

Falsissimo. Mai come ora invece le schede video sono dei mostri. Un tempo puntavi a fare 60 fps in hd, poi 60 in fhd, poi 75 in fhd e così via. Adesso le potenze necessarie sono esponenziali. Si passa da chi gioca in fhd con i monitor dell'ufficio al 4k con le TV Oled a 120hz. Su questo per favore no vi prego. Mai visto un balzo in avanti come negli ultimi 4 anni in tutte le componenti del PC e periferiche.

L'esigenza c'è per alcuni, il problema è che per risolvera devi creare mostri come la 4090 che costano una follia e consumano il doppio di quello che sarebbe logico mettersi dentro un PC. Il che dimostra in realtà che la capacità di evolvere il calcolo è molto rallentata. E questo parlando di Nvidia che è virtuosa, per AMD è anche peggio.

Resta il fatto che un'evoluzione come quella a cui abbiamo assistito in passato, negli anni prima del 2010 è impossibile da attendersi oggi.
Fammi un esempio sulle periferiche altrimenti non capisco cosa intendi.

vero, ma si parla cmq solo di risoluzione. Sotto tantissimi aspetti siamo fermi, se non addirittura sono stati fatti passi indietro, vedi la fisica e l IA nei videogiochi

Il 4K c'è da anni ormai e il 2K è diventato uno standard sensato ancora oggi per chi gioca su un monitor (ma anche quello è arrivato anni e anni fa).

Corretto alle volte assistiamo a una involuzione su aspetti non secondari, e questo è abbastanza triste. Non chiedo tanto ma un nemico che faccia il giro per sorprendermi alle spalle o riuscire a distruggere l'ambiente. Chi si ricorda F.E.A.R. capisce cosa intendo.

ColdWarGuy
08-06-2023, 14:19
Da software MSI Afterburning tendenzialmente la GTX 4070 si attesta intorno ai 180-190W. Tieni conto che prima la sola GTX 1080TI era intorno ai 240W
-snip


Quindi sono numeri presi da Afterburner contando esclusivamente CPU + GPU, 220W alla spina mi sembravano pochi.

Non conosco l'efficienza del tuo alimentatore ma l'assorbimento complessivo dell'intero sistema sarà non meno di 290-300W.

Io a suo tempo decisi di prendere la 1080 liscia perchè la Ti consumava un botto di più ed abitando in una mansarda la cosa fa una certa differenza d'estate, va però detto che ho quasi sempre undervoltato le GPU e nel caso specifico della suddetta ero attorno ai 140-150W medi, mentre con la 1070 viaggio attorno ai 180-190W.

Cifre prese da Afterburner ma comprovate da letture alla spina.

ColdWarGuy
08-06-2023, 14:36
-snip
Corretto alle volte assistiamo a una involuzione su aspetti non secondari, e questo è abbastanza triste. Non chiedo tanto ma un nemico che faccia il giro per sorprendermi alle spalle o riuscire a distruggere l'ambiente. Chi si ricorda F.E.A.R. capisce cosa intendo.

Straquoto, FEAR l'ho giocato alla grande e dal quel punto di vista era decisamente tosto, era un game che creava una tensione ed un "vibe" che quelli odierni si possono scordare.

Oggi si punta molto sugli effetti speciali e spesso gli NPC agiscono in modo osceno, ma d'altra parte visti i soldi che si spendono per mettere illuminazioni RGB su ogni tipo di oggetto all'interno dei case con pareti di cristallo, magari in compagnia di schermi OLED, vien da pensare che il gamer si distragga parecchio soffermandosi a guardare il cassone.

Io il PC con cui gioco ce l'ho per terra dentro un Carbide 500R, sono uno di quelli che ha iniziato a smanettare con roba assemblata nei primi anni 90 nei case di color beige chiaro che andavano tanto di moda allora, roba decisamente oscena, ora però si è esagerato nel senso opposto ed il trend è in continua crescita.

Kvarat
08-06-2023, 18:26
Resta il fatto che un'evoluzione come quella a cui abbiamo assistito in passato, negli anni prima del 2010 è impossibile da attendersi oggi.
Fammi un esempio sulle periferiche altrimenti non capisco cosa intendi.



Tutte le periferiche e tutti i componenti si sono evoluti in modo assurdo. Se pensi che ora un TV oled lo trovi nelle patatine usato o in offerta degli Ips da 240hz. Per non parlare di mouse, tastiere, m2, dissipatori, alimentatori, etc. Se penso ai pc di 10 anni fa con hd meccanici mi viene l'ansia. Oggi il più stupido di noi ha Nvme da 6000mbs o cose simili.

Kharonte85
08-06-2023, 19:01
Tutte le periferiche e tutti i componenti si sono evoluti in modo assurdo. Se pensi che ora un TV oled lo trovi nelle patatine usato o in offerta degli Ips da 240hz. Per non parlare di mouse, tastiere, m2, dissipatori, alimentatori, etc. Se penso ai pc di 10 anni fa con hd meccanici mi viene l'ansia. Oggi il più stupido di noi ha Nvme da 6000mbs o cose simili.

In "modo assurdo" non mi pare. Nel 2014 avevo già un SSD SATA anche per giocare, una tastiera meccanica cherry mx Red, mouse da gaming ROG, monitor da 144Hz un alimentatore da 760W con efficienza 80 PLUS® PLATINUM.

I tv OLED piatti 4K ci sono dal 2016 (il mio OLED lo presi nel 2017 e ancora oggi è un bel TV), prima c'erano i Plasma se volevi il top dell'immagine video. In ambito Gaming il primo OLED ce lo abbiamo SOLO dall'anno scorso.

Quindi sono numeri presi da Afterburner contando esclusivamente CPU + GPU, 220W alla spina mi sembravano pochi.

Non conosco l'efficienza del tuo alimentatore ma l'assorbimento complessivo dell'intero sistema sarà non meno di 290-300W.

Io a suo tempo decisi di prendere la 1080 liscia perchè la Ti consumava un botto di più ed abitando in una mansarda la cosa fa una certa differenza d'estate, va però detto che ho quasi sempre undervoltato le GPU e nel caso specifico della suddetta ero attorno ai 140-150W medi, mentre con la 1070 viaggio attorno ai 180-190W.

Cifre prese da Afterburner ma comprovate da letture alla spina.
Se non ha perso è uno dei più efficienti un Corsair AX760
Ho il misuratore potrei verificare, ma la sostanza è che adesso consumo meno di prima :D

Kvarat
08-06-2023, 19:18
In "modo assurdo" non mi pare. Nel 2014 avevo già un SSD SATA anche per giocare, una tastiera meccanica cherry mx Red, mouse da gaming ROG, monitor da 144Hz un alimentatore da 760W con efficienza 80 PLUS® PLATINUM.

I tv OLED piatti 4K ci sono dal 2016 (il mio OLED lo presi nel 2017 e ancora oggi è un bel TV), prima c'erano i Plasma se volevi il top dell'immagine video. In ambito Gaming il primo OLED ce lo abbiamo SOLO dall'anno scorso.


Si ma il tuo è un caso limite. Adesso quella tecnologia è alla portata di tutti. Prima serviva un mutuo per un SSD. Sono passati 7 anni e malapena sono si e no il 3% i giocatori 4k. Però la tecnologia Oled è migliorata e non so sei hai provato un Dell ad esempio. Sembra un quadro. Se per te un SSD è uguale ad un M2 quando prima si usavano hd da 5400 rpm allora non so cosa sia lo sviluppo. :D

Ubro92
08-06-2023, 19:57
Ma infatti oggi gli SSD te li tirano dietro, nel 2014 un banale SSD da 256gb sata lo pagavi anche 100 e passa euro, oggi per la stessa cifra ci trovi nvme da 1-2tb...

Oltre a migliorare le prestazioni, in primis la tecnologia é calata di costi e resa più accessibile a tutti se non é progresso questo allora non so cosa sia...

Forse solo i monitor PC migliorano con il contagocce rispetto le tv, la maggior parte degli iPS/Va ha ancora una retroilluminazione Edge, e gli oled sono ancora una nicchia così come i microled, però anche qui i prezzi si sono drasticamente ridotti.

Inviato dal mio M2012K11AG utilizzando Tapatalk

Kharonte85
08-06-2023, 22:49
Si ma il tuo è un caso limite. Adesso quella tecnologia è alla portata di tutti. Prima serviva un mutuo per un SSD. Sono passati 7 anni e malapena sono si e no il 3% i giocatori 4k. Però la tecnologia Oled è migliorata e non so sei hai provato un Dell ad esempio. Sembra un quadro. Se per te un SSD è uguale ad un M2 quando prima si usavano hd da 5400 rpm allora non so cosa sia lo sviluppo. :D

Non è un caso limite è il caso di chi ci tiene alla qualità video, ma non gioco sul TV OLED. E' il caso di chi si è preso un PC da gaming dal buon rapporto Q/P (neanche il TOP del TOP) nel 2014, con l'idea di tenerselo un po', il più a lungo possibile buonsenso permettendo. Solo che stavolta "un po'" sono diventati involontariamente quasi 10 anni! Il motivo è quello che ho detto prima, cioè che oggi si percepisce molto meno salto prestazionale di anno in anno e/o non è più necessaria una rincorsa tecnologica spasmodica.

I prezzi nel 2014 non erano così proibitivi degli SSD, potevi prenderti un onesto Crucial da 1TB con 250€ che per il gaming andava più che bene. Va bene che siano migliorati e si siano deprezzati, ma per il gioco in sè un SSD influisce pochissimo sulla prestazione e nulla sulla qualità video/grafica.
Influisce invece sulla pazienza del giocatore, ma anche lì il salto sensibile fu fatto nel passato tra l'HD meccanico e SSD SATA. Anche se ammetto che ho giocato per anni senza tanti patemi a giochi "comuni" o leggeri in un Western Digital Caviar Black 2TB. A questo giro chiaramente nessun HD meccanico metterà sede nella mia scheda madre, anche se ho promosso il vecchio Crucial SSD a HD di gioco secondario.

In compenso con "soli" 550€ nel 2014 ti compravi la Top gamma di casa Nvidia (la GTX 980), oggi ci compri la fascia medio-bassa a stento. Se penso che per la mia 4070 ho dovuto scucire la bellezza di 669€. E ci sono almeno tre schede superiori: 4070 TI, 4080 e 4090.
Idem schede madri e processori che hanno prezzi superiori a parità di fascia di appartenenza oggi rispetto a 10 anni fa.

PS: Bello l'Oled ASUS recensito su questo sito ma 1299€ è davvero tantino, non me la sento ancora.

bonzoxxx
08-06-2023, 23:13
Io ho finito CP con un i7-4790, 8GB di ram e la 1070 a 1080p con i dettagli di DF, certo non avevo i 60fps fissi e l'RT ma girava bene sui 40 fps.
Tra l'altro all'inizio ce l'avevo su hdd meccanico, successivamente ssd sata.

ColdWarGuy
09-06-2023, 00:31
Io ho finito CP con un i7-4790, 8GB di ram e la 1070 a 1080p con i dettagli di DF, certo non avevo i 60fps fissi e l'RT ma girava bene sui 40 fps.
Tra l'altro all'inizio ce l'avevo su hdd meccanico, successivamente ssd sata.

Hai tutta la mia stima :D

ColdWarGuy
09-06-2023, 00:45
-snip
Forse solo i monitor PC migliorano con il contagocce rispetto le tv, la maggior parte degli iPS/Va ha ancora una retroilluminazione Edge, e gli oled sono ancora una nicchia così come i microled, però anche qui i prezzi si sono drasticamente ridotti.


Gli Oled da PC sono ancora in alto mare, quelli disponibili ora hanno un prezzo fuori da ogni logica, pur considerando che i pannelli sotto un certo size hanno costi superiori, inoltre i problemi di "stampaggio" non sono certo stati risolti completamente.

A peggiorare le cose quest'anno è fallita JOLED, l'azienda giapponese specializzate nella costruzione di pannelli Oled per PC monitor con la tecnica Ink Jet, ergo dovremo aspettare molti anni prima di vederli arrivare nel segmento mainstrean.

Nel frattempo per un buon monitor da gaming bisogna sempre sborsare almeno 400-500 euro.

Motenai78
09-06-2023, 06:46
Io ho il grande rimpianto di non aver trovato il 21' Sony 16:9 tubo catodico Trinitron intorno al 2009... cmq ora sarebbe morto dopo 15-20 anni di utilizzo (ma come me lo sarei goduto *.*

Sui monitor ancora non abbiamo raggiunto quella qualità, forse lo OLED ma per quella cifra dovrei andare a botta sicura (provarlo per ore ed ore... lo farò più in là, ora devo prima fare un PC 🤣🤣🤣)

P.S per prendere un 4:3 sempre Trinitron nel 2010 ... ho rimediato la mia attuale compagna con cui ho una figlia 😂😂😂 (un amico mi obbligò ad andare ad una festa per lo scambio, e la conobbi)

Inviato dal mio SM-A226B utilizzando Tapatalk

Cutter90
09-06-2023, 07:03
Gli Oled da PC sono ancora in alto mare, quelli disponibili ora hanno un prezzo fuori da ogni logica, pur considerando che i pannelli sotto un certo size hanno costi superiori, inoltre i problemi di "stampaggio" non sono certo stati risolti completamente.

A peggiorare le cose quest'anno è fallita JOLED, l'azienda giapponese specializzate nella costruzione di pannelli Oled per PC monitor con la tecnica Ink Jet, ergo dovremo aspettare molti anni prima di vederli arrivare nel segmento mainstrean.

Nel frattempo per un buon monitor da gaming bisogna sempre sborsare almeno 400-500 euro.

Le tv ormai sono monitor da pc a tutti gli effetti, parlo di oled. Gli manca solo un refresh rate più alto, ma se si ha spazione dal 42 in su gli oled su pc sono una realtà.
Lo stampaggio, a meno di un uso da ufficio, non è un problema

Motenai78
09-06-2023, 07:08
Mio padre ha avuto lo stampaggio su un 65 OLED lg, per fortuna aveva garanzia estesa (colpa di mia madre che si fissa su SkyTg 24 e l'altro Rai).

Però è un modello di 5-6 anni fa ormai, magari è migliorato..e spero che per i monitor abbian messo una pezza definitiva ^^''

Cutter90
09-06-2023, 07:15
Mio padre ha avuto lo stampaggio su un 65 OLED lg, per fortuna aveva garanzia estesa (colpa di mia madre che si fissa su SkyTg 24 e l'altro Rai).

Però è un modello di 5-6 anni fa ormai, magari è migliorato..e spero che per i monitor abbian messo una pezza definitiva ^^''

Si si, sono migliorati tantissimo sotto questo punto di vista. Certo se uno lo usa per guardare 8 ore al giorno sky tg 24 con la sua bella barra rossa non va bene. Stessa cosa se lo si usa con word/chrome per 6-8 ore al giorno. Anche perchè cosa serve un oled se l'utilizzo è questo alla fine?

Motenai78
09-06-2023, 07:57
vallo a di' a mi padre, che ci guarda si e no un film al mese xD (2200€ è costato quel fregno)....alla fine lo usano per vedere gli sport ed i tg, uno spreco ma pazienza.
Io ho preso un 49' ips da 400€, invece, perché la bimba era piccola e temevo il danno ^^', cmq lo userei poco: io guardo gli anime sul mio vecchio S7 la sera a letto "di nascosto" (non hanno scene compatibili con i bambini).

R@nda
09-06-2023, 09:09
Io ho il grande rimpianto di non aver trovato il 21' Sony 16:9 tubo catodico Trinitron intorno al 2009... cmq ora sarebbe morto dopo 15-20 anni di utilizzo (ma come me lo sarei goduto *.*

Sui monitor ancora non abbiamo raggiunto quella qualità, forse lo OLED ma per quella cifra dovrei andare a botta sicura (provarlo per ore ed ore... lo farò più in là, ora devo prima fare un PC 🤣🤣🤣)

P.S per prendere un 4:3 sempre Trinitron nel 2010 ... ho rimediato la mia attuale compagna con cui ho una figlia 😂😂😂 (un amico mi obbligò ad andare ad una festa per lo scambio, e la conobbi)

Inviato dal mio SM-A226B utilizzando Tapatalk

A me di quei monitor manca l'abbronzatura gratis e gli occhi cotti :D
Però si la qualità sui modelli come si deve c'era, eccome.

Motenai78
09-06-2023, 09:18
onestamente mai avuto fastidio agli occhi* con i Trinitron (ed anche il Flatron LG), però ricordo che sui primi dovevamo mettere la protezione solare :D

i difettoni, sugli high level, erano:
- consumi (il mio 21' stava sui 300W se ricordo bene)
- peso (ricordo una TV 34'' da 100kg, ed anche i monitor era difficile portarli alle lan XD)
- ingombro: 5-6 attuali? ^^''

Cmq ad oggi siamo lì come qualita sulla res nativa, la "rottura" rimane la scalabilità (cmq migliorata, ho appena testato il mio in HD)

*in realtà uno, soffrendo di amblioplia (immaginate il wide quanto possa essermi congeniale :D :D)

R@nda
09-06-2023, 09:40
No dai il peso e i consumi non lo volevo considerare.
Mi ricordo benissimo che il passaggio ai primi Lcd fu traumatico, veramente.
La prima cosa che dissi giocando ad un vg qualsiasi "miii che inculata".

Motenai78
09-06-2023, 09:44
Sì, concordo a pieno.

Ghosting a cannone sui primi modelli: presi un 17'' tft (5:4), provato al volo con Re-Volt....reimballato e venduto per uso ufficio XD (al tempo vendicchiavo).

ColdWarGuy
09-06-2023, 11:32
Le tv ormai sono monitor da pc a tutti gli effetti, parlo di oled. Gli manca solo un refresh rate più alto, ma se si ha spazione dal 42 in su gli oled su pc sono una realtà.
Lo stampaggio, a meno di un uso da ufficio, non è un problema

Io ho fatto la prova con un Panasonic TX-42LZ980E, purtroppo non è un size adatto ad utilizzo PC monitor, se parliamo di formato 16:9 già il 32 pollici non viene digerito da tutti, personalmente parlando mi sono abituato al 34" 21:9 sia per gaming che per lavoro, gli oled con questo formato ora costano una follia e rimane sempre il problema dello stampaggio.

Tornando ai TV Oled da 42", stiamo comunque parlando 900-1000 euro di spesa, io il MI 34" 21:9 l'ho pagato in offerta 350 venduto e spedito da Amazon e mi trovo decisamente bene.

Cristallo
09-06-2023, 11:59
Ma infatti oggi gli SSD te li tirano dietro, nel 2014 un banale SSD da 256gb sata lo pagavi anche 100 e passa euro, oggi per la stessa cifra ci trovi nvme da 1-2tb...

Oltre a migliorare le prestazioni, in primis la tecnologia é calata di costi e resa più accessibile a tutti se non é progresso questo allora non so cosa sia...

Forse solo i monitor PC migliorano con il contagocce rispetto le tv, la maggior parte degli iPS/Va ha ancora una retroilluminazione Edge, e gli oled sono ancora una nicchia così come i microled, però anche qui i prezzi si sono drasticamente ridotti.

Inviato dal mio M2012K11AG utilizzando Tapatalk

Non sono molto d'accordo. Nel 2014 un 256GB poteva equivalere ad 1 TB di oggi. Il 256GB ti bastava e lo pagavi 100 euro. Oggi ti serve 1TB e lo paghi 100 euro. Non è cambiato nulla. Nel 2014 un gioco occupava 4GB. Oggi occupa 80GB. Direi che invece le cose sono andate peggiorando. Oggi per gestire quello che gestivi con un disco da 256GB ti servirebbe un disco da 5TB e quello non lo paghi 100 euro.

Saluti

Cristallo

Kvarat
09-06-2023, 12:23
Non sono molto d'accordo. Nel 2014 un 256GB poteva equivalere ad 1 TB di oggi. Il 256GB ti bastava e lo pagavi 100 euro. Oggi ti serve 1TB e lo paghi 100 euro. Non è cambiato nulla. Nel 2014 un gioco occupava 4GB. Oggi occupa 80GB. Direi che invece le cose sono andate peggiorando. Oggi per gestire quello che gestivi con un disco da 256GB ti servirebbe un disco da 5TB e quello non lo paghi 100 euro.

Saluti

Cristallo

Abbi pazienza ma certe cose non si possono leggere. Come fai a paragonare hw e software del 2014 con oggi? I giochi erano progettati per PS3. Oggi sono progettati per rendere il massimo anche con una 4090 che costa 3 PS5.

Cutter90
09-06-2023, 13:07
Io ho fatto la prova con un Panasonic TX-42LZ980E, purtroppo non è un size adatto ad utilizzo PC monitor, se parliamo di formato 16:9 già il 32 pollici non viene digerito da tutti, personalmente parlando mi sono abituato al 34" 21:9 sia per gaming che per lavoro, gli oled con questo formato ora costano una follia e rimane sempre il problema dello stampaggio.

Tornando ai TV Oled da 42", stiamo comunque parlando 900-1000 euro di spesa, io il MI 34" 21:9 l'ho pagato in offerta 350 venduto e spedito da Amazon e mi trovo decisamente bene.

teoricamente il 42 già da 1 metro e qualcosa va benone come distanza ideale.
Stiamo parlando di 900-1000 euro si, ma stiamo anche parlando di un mondo di differenza tra il tuo e l'oled, dal punto di vista della qualità dell'immagine.:)

Kharonte85
09-06-2023, 13:36
Abbi pazienza ma certe cose non si possono leggere. Come fai a paragonare hw e software del 2014 con oggi? I giochi erano progettati per PS3. Oggi sono progettati per rendere il massimo anche con una 4090 che costa 3 PS5.

Sulle memorie c'è stata un'evoluzione migliore perchè si è cambiato il paradigma di recente (da meccanico a Stato Solido), però ripeto ininfluente per quanto concerne prestazione e qualità grafica in tempo reale.
Il problema invece resta per le CPU e GPU coi Chip in silicio e i transistor, è lì che l'evoluzione è rallentata molto non è più esponenziale, c'è ancora naturalmente ma si presenta dopo più anni e al costo di TDP più alti. Inoltre la maggiore potenza di calcolo serve solo a generare FPS più alti VS FPS già alti di vecchie generazioni.

Un'evoluzione lenta per molti aspetti apparente, quantitativa più che qualitativa. Di questo passo con la prossima generazione di GPU temo che vedremo dei dissipatori a liquido montati di default sulle GPU a dei prezzi ancora più folli di quelli attuali.

Cristallo
09-06-2023, 14:06
Abbi pazienza ma certe cose non si possono leggere. Come fai a paragonare hw e software del 2014 con oggi? I giochi erano progettati per PS3. Oggi sono progettati per rendere il massimo anche con una 4090 che costa 3 PS5.

Scusami ma mi sono perso dove è scolpita nella pietra questa tua affermazione. Come oggi i giochi sono progettati per rendere al massimo su di una 4090, nel 2014 saranno stati progettati per rendere al massimo su di una scheda top di gamma dell'epoca e cioè una GTX 780ti se rimaniamo su nVidia. Aggiungo che probabilmente, nel 2014, i giochi erano progettati con un occhio di riguardo maggiore verso il PC visti i volumi di vendite sicuramente più elevati di oggi (dei PC non dei giochi).

Saluti

Cristallo

Ubro92
09-06-2023, 15:39
Non sono molto d'accordo. Nel 2014 un 256GB poteva equivalere ad 1 TB di oggi. Il 256GB ti bastava e lo pagavi 100 euro. Oggi ti serve 1TB e lo paghi 100 euro. Non è cambiato nulla. Nel 2014 un gioco occupava 4GB. Oggi occupa 80GB. Direi che invece le cose sono andate peggiorando. Oggi per gestire quello che gestivi con un disco da 256GB ti servirebbe un disco da 5TB e quello non lo paghi 100 euro.

Saluti

Cristallo

256Gb non sono mai bastati... Infatti di propendeva per almeno 2-3TB di HDD meccanico e l'ssd lo si sfruttava al massimo per l'OS e qualche software... (ci si arrangiava)

Senza contare che all'epoca dato che le texture facevano cagare in molti giochi si andava spesso di modding e con texture pack belli corposi...

Skyrim in questo fu ed è ancora oggi una pietra miliare, dove con le mod e texture pack in 4/8K sforavi facilmente i 70-80GB.

Ma sinceramente questi giochi da 4GB te li ricordi solo tu... Giochi come AC unity uscito nel 2014 pesavano 50GB, o FC4 che superava i 30GB, altri come Batman origin 20GB, o ryse son of rome 25GB... Ma la lista è lunga...

Oggi con 75-100€ se sei fortunato ti porti a casa anche 2TB di Nvme 3.0/4.0 (o per la metà del costo 1TB), che sinceramente è più che sufficiente per qualsiasi operazione e in proporzione no, non equivalgono ai 256GB dell'epoca...

ColdWarGuy
09-06-2023, 17:26
teoricamente il 42 già da 1 metro e qualcosa va benone come distanza ideale.
Stiamo parlando di 900-1000 euro si, ma stiamo anche parlando di un mondo di differenza tra il tuo e l'oled, dal punto di vista della qualità dell'immagine.:)

Teorie a parte, come dicevo io ho provato un setup reale con un 42" 16:9 oled con l'intento di poterlo usare anche per navigazione web ed altri utilizzi diversi dal gaming e come dicevo, non mi trovo.

Se devi giocare e basta è un altro discorso.

ColdWarGuy
09-06-2023, 19:47
NVIDIA GeForce RTX 40 Gaming GPUs Revenue Ramping 40% Faster Than Ampere, Majority Still Without RTX (https://wccftech.com/nvidia-geforce-rtx-40-gaming-gpus-revenue-ramping-much-faster-than-ampere-majority-still-without-rtx/)

Vero o falso ?

Kharonte85
09-06-2023, 20:07
Per chi volesse approfondire il probabile futuro delle GPU:

https://i.ibb.co/phKg7cc/banner.jpg

Un modello che predice i progressi nelle prestazioni delle GPU basate su transistor partendo dal presupposto che i transistor non possono più miniaturizzare dopo essere stati ridotti all'incirca alle dimensioni di un singolo atomo di silicio (circa 0,7nm). Il nostro modello prevede che l'attuale paradigma delle GPU basate su transistor raggiungerà un plateau tra il 2027 e il 2035, offrendo prestazioni comprese tra 1e14 e 1e15 FLOP/s in FP32.

Partiamo dal presupposto che gli sviluppi nelle dimensioni dei transistor continuino come negli ultimi 15 anni. Tuttavia, potrebbero esserci motivi per presumere che questa velocità rallenterà, ad esempio, la spesa in ricerca e sviluppo non può continuare in modo esponenziale, le idee stanno diventando più difficili da trovare, ecc.

Non facciamo affermazioni su limiti diversi dalle dimensioni. In particolare, non abbiamo esplicitamente preso in considerazione la dissipazione del calore, ma alcune delle stime su cui basiamo la nostra distribuzione sui limiti includono implicitamente i limiti della dissipazione del calore.

https://epochai.org/blog/predicting-gpu-performance

Ve ne ho riportato alcuni aspetti salienti il resto è nel link in inglese.
Ma questo sopra è il motivo per cui Nvidia sta puntando tantissimo sul calcolo del RT, il PT (Path Tracing) con DLSS e Frame Generation.

Perchè rappresentano l'unico modo che potrà in futuro far aumentare le prestazioni delle GPU, rendendo perciò obsolete le vecchie generazioni di GPU che non supportano queste tecnologie e/o le supportano solo in parte.

Kharonte85
09-06-2023, 20:25
NVIDIA GeForce RTX 40 Gaming GPUs Revenue Ramping 40% Faster Than Ampere, Majority Still Without RTX (https://wccftech.com/nvidia-geforce-rtx-40-gaming-gpus-revenue-ramping-much-faster-than-ampere-majority-still-without-rtx/)

Vero o falso ?

Considerando le diavolerie DLSS ecc anche la 4060 liscia potrebbe essere una scheda interessante altrimenti no. Ma devono farla molto più efficiente e conveniente della versione "TI" che abbiamo già visto recensita.

Una scheda da e per gli HTPC, Casual Gaming 1080P, 200€-300€ Massimo.

Leggendo dal tuo link:

For a mainstream user, the upgrade cycle is much larger and it averages around 3.0 - 3.5 years. So the vast majority of gamers upgrading to an RTX 4060 are going to be coming from either a GTX 1060 or RTX 2060 GPU and they are going to see a big upgrade in performance and feature set.

Cambiamo ogni 3 anni? Certo come no, fai pure x2 :sofico:

eXeS
09-06-2023, 21:05
NVIDIA GeForce RTX 40 Gaming GPUs Revenue Ramping 40% Faster Than Ampere, Majority Still Without RTX (https://wccftech.com/nvidia-geforce-rtx-40-gaming-gpus-revenue-ramping-much-faster-than-ampere-majority-still-without-rtx/)

Vero o falso ?


https://www.techpowerup.com/309822/jpr-graphics-add-in-board-market-continued-its-correction-in-q1-2023

According to a new research report from the analyst firm Jon Peddie Research, unit shipments in the add-in board (AIB) market decreased in Q1 2023 by -12.6% and decreased by -38.2% year to year. Intel increased its add-in board market share by 2% during the first quarter.


Probabilmente vero, riuscendo a compensare con prezzi stratosferici un calo delle spedizioni consistente, e non penso sia solo culo, useranno dei modelli di IA talmente sofisticati e addestrati che scandagliando con dei crawler tutti i i post di reddit, discord, forum, ecc... riescono a prevedere con una confidenza elevatissima sino a quanto sono disposti a spendere gli utenti, siamo spacciati :cry:

ColdWarGuy
10-06-2023, 09:20
Probabilmente vero, riuscendo a compensare con prezzi stratosferici un calo delle spedizioni consistente, e non penso sia solo culo, useranno dei modelli di IA talmente sofisticati e addestrati che scandagliando con dei crawler tutti i i post di reddit, discord, forum, ecc... riescono a prevedere con una confidenza elevatissima sino a quanto sono disposti a spendere gli utenti, siamo spacciati :cry:

Tireremo le somme a fine anno, per il momento teniamo duro però :D


Comunque giacchetta non è l'unico che ride :

TSMC’s Outlook Brightens As May Revenue Grows 3x Over Historical Average (https://wccftech.com/tsmcs-outlook-brightens-as-may-revenue-grows-3x-o)

OrazioOC
10-06-2023, 10:59
Considerando le diavolerie DLSS ecc anche la 4060 liscia potrebbe essere una scheda interessante altrimenti no. Ma devono farla molto più efficiente e conveniente della versione "TI" che abbiamo già visto recensita.

Una scheda da e per gli HTPC, Casual Gaming 1080P, 200€-300€ Massimo.

Leggendo dal tuo link:

For a mainstream user, the upgrade cycle is much larger and it averages around 3.0 - 3.5 years. So the vast majority of gamers upgrading to an RTX 4060 are going to be coming from either a GTX 1060 or RTX 2060 GPU and they are going to see a big upgrade in performance and feature set.

Cambiamo ogni 3 anni? Certo come no, fai pure x2 :sofico:

Ma magari, per me a breve il signorino di nvidia dovrà ricredersi a questa affermazione, se la 4060 è veramente una 3060 12gb con +12% di performance raster e 4gb di vram in meno a 350 euro fanno un fiasco persino peggiore di quello della 4060 ti.

Questa gente pensa che certe sku ignobili possano essere prezzate in questo modo grazie al successo di schede come la 4090 e 4080, ma sbagliano di grosso.
4070 vende sotto le stime, 4060 ti ad oggi è un flop commerciale, questa sarà anche peggio. :D

Ma poi, pensate veramente che chi volesse fare un'upgrade da una 1060 di 6 anni fa non abbia già avuto modo di farlo? Girano a 350 euro spedite le 3060 ti gddr6x che in 1440p se la giocano con la 4060 ti, altro che 4060. Poverini... :rolleyes:

Ale55andr0
10-06-2023, 13:18
Probabilmente vero, riuscendo a compensare con prezzi stratosferici un calo delle spedizioni consistente, e non penso sia solo culo, useranno dei modelli di IA talmente sofisticati e addestrati che scandagliando con dei crawler tutti i i post di reddit, discord, forum, ecc... riescono a prevedere con una confidenza elevatissima sino a quanto sono disposti a spendere gli utenti, siamo spacciati :cry:

se le ia sono davvero "I" scopriranno che i più, nei forum, li hanno mandati a fare in c

Kharonte85
10-06-2023, 13:37
Ma magari, per me a breve il signorino di nvidia dovrà ricredersi a questa affermazione, se la 4060 è veramente una 3060 12gb con +12% di performance raster e 4gb di vram in meno a 350 euro fanno un fiasco persino peggiore di quello della 4060 ti.

Questa gente pensa che certe sku ignobili possano essere prezzate in questo modo grazie al successo di schede come la 4090 e 4080, ma sbagliano di grosso.
4070 vende sotto le stime, 4060 ti ad oggi è un flop commerciale, questa sarà anche peggio. :D

Ma poi, pensate veramente che chi volesse fare un'upgrade da una 1060 di 6 anni fa non abbia già avuto modo di farlo? Girano a 350 euro spedite le 3060 ti gddr6x che in 1440p se la giocano con la 4060 ti, altro che 4060. Poverini... :rolleyes:

Eh ma vuoi mettere che con la 4060 grazie al DLSS3 e FrameGeneration puoi fare Raytracing? :sofico: Le altre schede se lo sognano. E' evidente che in nvidia puntano a quello per farle cambiare e farle rendere prestazionalmente. In quello hanno ragione, se lo scopo è quello di mantenere un certo livello qualitativo ma aumentare i FPS la tecnologia funziona. E' un po' immatura, ma permetterebbe comunque di giocare ai titoloni pesantoni da schede di fascia medio-bassa senza rinunciare al RT.

OrazioOC
10-06-2023, 14:49
Eh ma vuoi mettere che con la 4060 grazie al DLSS3 e FrameGeneration puoi fare Raytracing? :sofico: Le altre schede se lo sognano. E' evidente che in nvidia puntano a quello per farle cambiare e farle rendere prestazionalmente. In quello hanno ragione, se lo scopo è quello di mantenere un certo livello qualitativo ma aumentare i FPS la tecnologia funziona. E' un po' immatura, ma permetterebbe comunque di giocare ai titoloni pesantoni da schede di fascia medio-bassa senza rinunciare al RT.

Nvidia è da settembre che se la mena con il dlss3, ma qui manca proprio la forza bruta alla scheda per attivarlo con un po' di disinvoltura.
I test sulla 4060 ti del dlss3 sono un po' preoccupanti, primo perchè non arriva ad avere la resa in termini di fps generati delle sorelle maggiori, secondo perchè si notano più facilmente gli artefatti che genera.
La 4060 vanilla ha 2/3 della potenza della 4060 ti, in pratica i problemi che la sorella maggiore qui si andranno ad amplificare.

Riuscirà nvidia e il suo reparto marketing a mascherare la cosa? Io prevedo shitstorm tra i media, primo perchè la scheda è troppo poco potente per essere un acquisto valido a 350 euro, secondo perchè nvidia di sto periodo non sta neanche troppo simpatica ai vari pr(ops recensori). :D

stop81
10-06-2023, 22:32
Avrei un paio di domande relativamente a Blackwell (non reputo "interessante" questa serie per il terribile rapporto qualità/prezzo):

- Chippone monolitico o MCM? Ho letto info contrastanti.
- Una ipotetica 5080 (5070Ti) potrebbe avvicinarsi ad una 4090 al prezzo dell'attuale 4080 (possibilmente meno)?

Grazie :)

ColdWarGuy
11-06-2023, 02:03
Nvidia è da settembre che se la mena con il dlss3, ma qui manca proprio la forza bruta alla scheda per attivarlo con un po' di disinvoltura.
I test sulla 4060 ti del dlss3 sono un po' preoccupanti, primo perchè non arriva ad avere la resa in termini di fps generati delle sorelle maggiori, secondo perchè si notano più facilmente gli artefatti che genera.
La 4060 vanilla ha 2/3 della potenza della 4060 ti, in pratica i problemi che la sorella maggiore qui si andranno ad amplificare.

Riuscirà nvidia e il suo reparto marketing a mascherare la cosa? Io prevedo shitstorm tra i media, primo perchè la scheda è troppo poco potente per essere un acquisto valido a 350 euro, secondo perchè nvidia di sto periodo non sta neanche troppo simpatica ai vari pr(ops recensori). :D

Sono d'accordo, se i PR si sono già infiammati con la 4060 Ti, con la liscia sarà una vera tragedia greca, un invito al vilipendio di Ingreedia, servito su piatto d'argento.

IL problema è che intanto grazie all'hype gonfiato dell'AI i Verdi ingrassano più che mai e TSMC ringrazia, ergo secondo me non c'è speranza che rivedano i prezzi, se non vendono le 4000 possono dirottare i wafer prenotati su altro.

nessuno29
11-06-2023, 07:49
Sono d'accordo, se i PR si sono già infiammati con la 4060 Ti, con la liscia sarà una vera tragedia greca, un invito al vilipendio di Ingreedia, servito su piatto d'argento.

IL problema è che intanto grazie all'hype gonfiato dell'AI i Verdi ingrassano più che mai e TSMC ringrazia, ergo secondo me non c'è speranza che rivedano i prezzi, se non vendono le 4000 possono dirottare i wafer prenotati su altro.

Ed è quello che hanno già fatto, tra l'altro.

In ogni caso ho notato anche io che sulla 4060ti il FG non funziona così bene.

ColdWarGuy
11-06-2023, 09:40
Eh ma vuoi mettere che con la 4060 grazie al DLSS3 e FrameGeneration puoi fare Raytracing? :sofico: Le altre schede se lo sognano. E' evidente che in nvidia puntano a quello per farle cambiare e farle rendere prestazionalmente. In quello hanno ragione, se lo scopo è quello di mantenere un certo livello qualitativo ma aumentare i FPS la tecnologia funziona. E' un po' immatura, ma permetterebbe comunque di giocare ai titoloni pesantoni da schede di fascia medio-bassa senza rinunciare al RT.

Quando funziona bene in termini di FPS non è detto che il risultato sia decente a livello qualitativo, ci sono titoli dove "blurra" vistosamente anche settato su quality, vedi ad esempio Dead Space remake che sto giocando a 3440x1440 con DLSS disabilitato perchè altrimenti si vede da schifo.

Per fortuna riesco comunque a stare attorno a 50 FPS (con la 3070) con un ottima fluidità.

Magari la colpa non è di Nvidia ma della SH del gioco, il punto è che l'incremento di frame rate viene al costo di perdita di qualità e la potenza raster, almeno per me, continua ad avere la priorità a livello decisionale di acquisto perchè il DLSS non è universalmente supportato e comunque non allo stesso livello qualitativo.

OrazioOC
11-06-2023, 09:49
Sono d'accordo, se i PR si sono già infiammati con la 4060 Ti, con la liscia sarà una vera tragedia greca, un invito al vilipendio di Ingreedia, servito su piatto d'argento.

IL problema è che intanto grazie all'hype gonfiato dell'AI i Verdi ingrassano più che mai e TSMC ringrazia, ergo secondo me non c'è speranza che rivedano i prezzi, se non vendono le 4000 possono dirottare i wafer prenotati su altro.

Tieni conto che 4060/ti e 4050 montano sku mutuate dritto per dritto dalle soluzioni notebook, non è che si sono inventati nulla per le gpu discrete desktop alla fine.
E poi sta storia dell'IA non è la panacea di tutti i mali, primo perchè una buona parte delle entrate deriva comunque dal gaming, secondo perchè hai anche gli aib da far campare, e già non sono contenti per l'andamento attuale, figuriamoci poi se le schede che dovrebbero fare numeri e volumi di vendite importanti all'improvviso non ne fanno. :rolleyes:

E' gnara dovunque la si guardi, certo che se nvidia portasse 4070 a 5/50 euro, la 4060 ti a 350 euro e la 4060 a 250 il problema lo risolverebbero, ma non lo faranno mai, stiamo vedendo solo ora le 3060 ti ad un anno dalla fine del mining sotto l'msrp, idem il resto della serie 3000.

Ubro92
11-06-2023, 10:19
Aggiungi che stanno tagliando di tutto sui chip, una volta persino la GT 1650 manteneva il Pcie 16x.

Siamo partiti con:

GTX 1630 8x (3.0)
RTX 3050 8x (4.0)
RTX 4060ti 8x (4.0)

Con l'introduzione del 5.0 c'è una remota possibilità che anche la 5070 venga tagliata a 8x.

Inviato dal mio M2012K11AG utilizzando Tapatalk

Kharonte85
11-06-2023, 11:14
Quando funziona bene in termini di FPS non è detto che il risultato sia decente a livello qualitativo, ci sono titoli dove "blurra" vistosamente anche settato su quality, vedi ad esempio Dead Space remake che sto giocando a 3440x1440 con DLSS disabilitato perchè altrimenti si vede da schifo.

Per fortuna riesco comunque a stare attorno a 50 FPS (con la 3070) con un ottima fluidità.

Magari la colpa non è di Nvidia ma della SH del gioco, il punto è che l'incremento di frame rate viene al costo di perdita di qualità e la potenza raster, almeno per me, continua ad avere la priorità a livello decisionale di acquisto perchè il DLSS non è universalmente supportato e comunque non allo stesso livello qualitativo.

E' naturale per tutte le tecnologie nuove avere qualche difetto, ma quando funziona il DLSS, in particolare il 3 è una tecnologia utile soprattutto coi giochi mattone. In alcuni casi migliora la qualità visiva nonostante sia una tecnica di Upsampling (su youtube: Is DLSS Really "Better Than Native? ).

Suggerisco per bugfix di mettere sempre l'ultima versione aggiornata che potete trovare qui:

https://www.techpowerup.com/download/nvidia-dlss-dll/
https://www.techpowerup.com/download/nvidia-dlss-3-frame-generation-dll/

Questo perchè i giochi ci mettono più tempo per aggiornarli (se lo fanno)

E' sufficiente sostituite i file all'interno del cartella del gioco con la versione nuova, che anche se avete una scheda con DLSS 2 potrebbe avere il Bugfix che fa al caso vostro.

Per vedere quale versione avete scaricate GPUZ andate in Avanzate --> DLSS e dopo una scansione il programma vi farà vedere la posizione di tutte le DLSS che avete (ES: https://www.techpowerup.com/forums/attachments/1660903830596-png.258623/)

OrazioOC
11-06-2023, 11:56
https://videocardz.com/newz/nvidia-geforce-rtx-4060-non-ti-graphics-cards-might-launch-sooner-end-of-june

Immagino che il 27/29 giugno sia qui. :D

ColdWarGuy
11-06-2023, 12:13
Aggiungi che stanno tagliando di tutto sui chip, una volta persino la GT 1650 manteneva il Pcie 16x.

Siamo partiti con:

GTX 1630 8x (3.0)
RTX 3050 8x (4.0)
RTX 4060ti 8x (4.0)

Con l'introduzione del 5.0 c'è una remota possibilità che anche la 5070 venga tagliata a 8x.

Inviato dal mio M2012K11AG utilizzando Tapatalk

Ormai anche i sassi hanno capito che stanno tentando il colpo gobbo di vendere schede con architetture HW di bassa gamma al prezzo mid-range e così via con l'abbaglio del supporto di tecniche software miracolose, riassumendo quello che si è detto ci vogliono vendere chippetti francobollo montati su PCB porelli con bus VRAM/PCIe striminziti con poca memoria a prezzi never seen before con l'abbaglio dei power point con FPS 3X con DLSS 3.

In sostanza puntano sul pubblico non consapevole e sugli addicted, quelli che hanno la malattia dell'acquisto compulsivo dell'HW da PC, che scherzi a parte è una vera e propria patologia.

Da quello che posso capire per il 2023 in fascia mid-range rimane da vedere la fantomatiche 7800 XT di AMD, per quello che mi concerne se non viaggia in raster al pari della 4070 Ti e non monta almeno 16GB a 650 euro MAX, il discorso upgrade è rimandato al 2024.

Detto questo sembrerebbe che abbiano anticipato la commedia:

NVIDIA GeForce RTX 4060 8 GB Graphics Card Reportedly Launching In June Instead of July (https://wccftech.com/nvidia-geforce-rtx-4060-8-gb-graphics-card-launching-in-june-instead-of-july/)

Kvarat
11-06-2023, 12:20
In sostanza puntano sul pubblico non consapevole


Esattamente su 1,1 miliardi di giocatori quanti sono i consapevoli? :asd:

ColdWarGuy
11-06-2023, 12:32
E' naturale per tutte le tecnologie nuove avere qualche difetto, ma quando funziona il DLSS, in particolare il 3 è una tecnologia utile soprattutto coi giochi mattone. In alcuni casi migliora la qualità visiva nonostante sia una tecnica di Upsampling (su youtube: Is DLSS Really "Better Than Native? ).

Suggerisco per bugfix di mettere sempre l'ultima versione aggiornata che potete trovare qui:

https://www.techpowerup.com/download/nvidia-dlss-dll/
https://www.techpowerup.com/download/nvidia-dlss-3-frame-generation-dll/

Questo perchè i giochi ci mettono più tempo per aggiornarli (se lo fanno)

E' sufficiente sostituite i file all'interno del cartella del gioco con la versione nuova, che anche se avete una scheda con DLSS 2 potrebbe avere il Bugfix che fa al caso vostro.

Per vedere quale versione avete scaricate GPUZ andate in Avanzate --> DLSS e dopo una scansione il programma vi farà vedere la posizione di tutte le DLSS che avete (ES: https://www.techpowerup.com/forums/attachments/1660903830596-png.258623/)

Maaagari bastasse cambiare la DLL nella cartella del gioco, rimane predominante la parte del training specifica per il game, con Dead Space remake sostituire il file non porta da nessuna parte.

Attenzione, non sto dicendo che è una feature inutile, con altri titoli i risultati sono sensibilmente migliori, ma se la resa dipende dal game e non tutti lo supportano il plus che sono disposto a pagare all'atto dell'acquisto cala sensibilmente.

ColdWarGuy
11-06-2023, 12:41
Esattamente su 1,1 miliardi di giocatori quanti sono i consapevoli? :asd:

Di certo quel numero non si riferisce ai videogiocatori armati di PC desktop con GPU discreta, in ogni caso una piccola minoranza e tra i consapevoli ci sono sempre gli addicted che girano stipendi interi all'anno ad Ngreedia & Co.

Kharonte85
11-06-2023, 13:48
Maaagari bastasse cambiare la DLL nella cartella del gioco, rimane predominante la parte del training specifica per il game, con Dead Space remake sostituire il file non porta da nessuna parte.

Attenzione, non sto dicendo che è una feature inutile, con altri titoli i risultati sono sensibilmente migliori, ma se la resa dipende dal game e non tutti lo supportano il plus che sono disposto a pagare all'atto dell'acquisto cala sensibilmente.

Eh niente allora. Ciononostante di quelli che ho provato non ho notato particolari problemi o deperimento di qualità. Dead Space è un remake, mi aspetto che i titoloni nuovi d'ora in poi saranno tutti meglio supportati, vale anche per i titoloni del passato che stanno ricevendo via via il supporto a Frame Generator e DLSS3. Alla fine sono quelli i mattoni che un giocatore vorrebbe dominare. In questo senso la 4060 avrà più armi al suo arco rispetto alla 3060, ma io credo che prestazionalmente senza le diavolerie la scheda sarà sostanzialmente uguale come performance e qualche watt di efficienza risparmiato.
Perchè come ho detto si sta avvicinando sempre di più il limite di evoluzione tecnologica, quindi le prestazioni tra una serie e l'altra si comprimono.

Per te un upgrade sensato potrebbe essere solo una 4070 o oltre.

ColdWarGuy
11-06-2023, 14:25
Eh niente allora. Ciononostante di quelli che ho provato non ho notato particolari problemi o deperimento di qualità. Dead Space è un remake, mi aspetto che i titoloni nuovi d'ora in poi saranno tutti meglio supportati, vale anche per i titoloni del passato che stanno ricevendo via via il supporto a Frame Generator e DLSS3. Alla fine sono quelli i mattoni che un giocatore vorrebbe dominare. In questo senso la 4060 avrà più armi al suo arco rispetto alla 3060, ma io credo che prestazionalmente senza le diavolerie la scheda sarà sostanzialmente uguale come performance e qualche watt di efficienza risparmiato.
Perchè come ho detto si sta avvicinando sempre di più il limite di evoluzione tecnologica, quindi le prestazioni tra una serie e l'altra si comprimono.

Per te un upgrade sensato potrebbe essere solo una 4070 o oltre.

Ho dimenticato di dire che con Dead Space remake funziona molto meglio l'FSR 2 di AMD, che è tutto dire, immagini molto più sharp a parità di settaggi e FPS, segno che l'implementazione del DLSS è tutt'altro che ottimale.

Riguardo l'upgrade la 4070 ha un guadagno marginale a 3440x1440, minimo servirebbe una 4070 Ti ma per quello che gioco 900-1000 euro non sono giustificati e piuttosto prenderei una 7900 XT a 800 euro, almeno lato VRAM starei tranquillo per anni.

Come dicevo, vediamo se esce sta benedetta 7800 XT, più che altro girerei la 3070 nella postazione race-sim dove adesso c'è una 1080 tirata a corda di violino con Assetto Corsa Competizione con un TV 43" 4K :D

EffeX
11-06-2023, 15:02
Avrei un paio di domande relativamente a Blackwell (non reputo "interessante" questa serie per il terribile rapporto qualità/prezzo):

- Chippone monolitico o MCM? Ho letto info contrastanti.
- Una ipotetica 5080 (5070Ti) potrebbe avvicinarsi ad una 4090 al prezzo dell'attuale 4080 (possibilmente meno)?

Grazie :)

Per la prima domanda per ora sembrerebbe abbandonato di nuovo MCM a favore di una gpu sempre monolitica.
Sulla seconda domanda non saprei risponderti perché il salto nodo questo giro sarà meno marcato rispetto a quello successo tra Amperè e Lovelace e se non rivedono l'architettura non so cosa tireranno fuori.

mikael84
11-06-2023, 15:04
Eh niente allora. Ciononostante di quelli che ho provato non ho notato particolari problemi o deperimento di qualità. Dead Space è un remake, mi aspetto che i titoloni nuovi d'ora in poi saranno tutti meglio supportati, vale anche per i titoloni del passato che stanno ricevendo via via il supporto a Frame Generator e DLSS3. Alla fine sono quelli i mattoni che un giocatore vorrebbe dominare. In questo senso la 4060 avrà più armi al suo arco rispetto alla 3060, ma io credo che prestazionalmente senza le diavolerie la scheda sarà sostanzialmente uguale come performance e qualche watt di efficienza risparmiato.
Perchè come ho detto si sta avvicinando sempre di più il limite di evoluzione tecnologica, quindi le prestazioni tra una serie e l'altra si comprimono.

Per te un upgrade sensato potrebbe essere solo una 4070 o oltre.

No, la 4060 non andrà poco più della 3060 in quanto vicini al limite o altro è semplicemente una fascia x50.
Questa generazione segna uno dei più importanti balzi di transistor della storia, oltre che un drastico aumento del clock, in quanto passiamo dal 10nm 3° gen di samsung (8lpp, che per gate è più simile ad un 16nm tsmc) al 4n (il 5nm tsmc moddato, come i 12 vs i 16).

Questo ha permesso di impilare un numero vicinissimo al 3x di transistor x mm2 ed arrivare a toccare a stock picchi del 45-50% di clock.

La 4090 è uno scarto, anche pesantuccio di AD102, sono disabilitati 24mb di cache, 1 GPC e 2 TPC, oltre che una primitiva e 16 rop's, e nonostante tutto arriva a performance quasi 2x la 3090.

3090: 10496 cc - 4090: 16384cc. + 56,1% di cuda, + 45-50% di clock e bus identico.
3060: 3584cc - 4060: 3072cc, - 14,2% di cc, - 64 bit di bus.

La 3050 liscia aveva un die di 200mm2, la 4060ti, ha un die (pure cut) di 190mm2.

Ora a pari die, potresti fare un calcolo di quanto la 4060ti stracci la 3050.
Quindi il PP attuale è l'ultimo dei problemi.:)

mikael84
11-06-2023, 15:12
Ho dimenticato di dire che con Dead Space remake funziona molto meglio l'FSR 2 di AMD, che è tutto dire, immagini molto più sharp a parità di settaggi e FPS, segno che l'implementazione del DLSS è tutt'altro che ottimale.

Riguardo l'upgrade la 4070 ha un guadagno marginale a 3440x1440, minimo servirebbe una 4070 Ti ma per quello che gioco 900-1000 euro non sono giustificati e piuttosto prenderei una 7900 XT a 800 euro, almeno lato VRAM starei tranquillo per anni.

Come dicevo, vediamo se esce sta benedetta 7800 XT, più che altro girerei la 3070 nella postazione race-sim dove adesso c'è una 1080 tirata a corda di violino con Assetto Corsa Competizione con un TV 43" 4K :D

Se sarà basata su navi32, non aspettarti molto, sono 3840 shader vs i 5376 della 7900xt (-28,6%), fai un pò le proporzioni (6900 circa).

Addirittura navi33, la 7600, non è neppure RDNA3 full, ma una sorta di RDNA2.5, non avendo implementato i file di registro delle sorellone, e questo è rimasto identico alle 6000.:)

ColdWarGuy
11-06-2023, 18:20
Se sarà basata su navi32, non aspettarti molto, sono 3840 shader vs i 5376 della 7900xt (-28,6%), fai un pò le proporzioni (6900 circa).

Addirittura navi33, la 7600, non è neppure RDNA3 full, ma una sorta di RDNA2.5, non avendo implementato i file di registro delle sorellone, e questo è rimasto identico alle 6000.:)

Ciao Mikael, io da tempo abbraccio il motto "spera per il meglio e preparati per il peggio" :D

Le mi "speranze" si basano sull'ipotesi di architettura di TPU e su altre voci che girano sul web, tipo : The RX 7800 XT is rumored to feature the fully-enabled Navi 32 RDNA 3 GPU (https://www.notebookcheck.net/RX-7800-XT-vs-RTX-4070-battle-possibly-on-the-cards-as-price-performance-and-release-window-of-the-Radeon-GPU-leak.724996.0.html) e ovviamente su un pricing concorrenziale.

Premetto che non faccio una malattia per il RT e non pretendo che vada a bomba su tutti i titoli, d'altra parte a questo giro voglio 16GB ed una buona prestazione con Flight Simulator, cosa che la 7900 XT ha.

Time will tell.

https://i.postimg.cc/rpvpGd8R/7800.png

stop81
11-06-2023, 20:49
Per la prima domanda per ora sembrerebbe abbandonato di nuovo MCM a favore di una gpu sempre monolitica.
Sulla seconda domanda non saprei risponderti perché il salto nodo questo giro sarà meno marcato rispetto a quello successo tra Amperè e Lovelace e se non rivedono l'architettura non so cosa tireranno fuori.

Perfetto grazie, avevo capito anche io che sarebbe stata MCM, si vede che in corsa hanno optato per un altro giro più "conservativo".

Io inizierò a valutare il cambio totale del sistema da Blackwell in avanti, non ho fretta l'obiettivo è giocare a 4K con un bel margine (possibilmente > 100fps senza troppi tricks) in modo da avere una bella longevità.

Come performance di partenza minima considero l'attuale 4090 ma vorrei puntare ad un prezzo non troppo distante dai 1000-1100€ max anche perché devo prendere pure il monitor nuovo :D

marbasso
15-06-2023, 10:14
nuovi driver nvidia 536.23 WHQL

ColdWarGuy
16-06-2023, 07:33
Ho l'impressione che Nvidia non sia spaventata da questo potenziale competitor:

Moore Threads MTT S80 GPU Benchmarks Reveal Slower Than GTX 1050 While Consuming More Power Than An RTX 4060 Ti (https://wccftech.com/moore-threads-mtt-s80-benchmarked-again-slower-than-the-gtx-1050/)

Kvarat
16-06-2023, 07:39
Ho l'impressione che Nvidia non sia spaventata da questo potenziale competitor:

Moore Threads MTT S80 GPU Benchmarks Reveal Slower Than GTX 1050 While Consuming More Power Than An RTX 4060 Ti (https://wccftech.com/moore-threads-mtt-s80-benchmarked-again-slower-than-the-gtx-1050/)

:asd: :asd:

ColdWarGuy
17-06-2023, 12:49
12VHPWR Power Connector Melts Again, This Time From The PSU End! (https://wccftech.com/12vhpwr-power-connector-melts-again-this-time-from-the-psu-end/)

Al di là del fatto che ci possono essere negligenze lato user è ormai ovvio che quel connettore non è adatto a gestire le potenze per cui è stato millantato.

Un azienda seria a questo punto dovrebbe assumersi delle responsabilità, ma questo non sta succedendo.

Personalmente parlando non prenderei mai una 4090 anche solo per questo motivo.

DarkNiko
17-06-2023, 13:01
Al di là del fatto che ci possono essere negligenze lato user è ormai ovvio che quel connettore non è adatto a gestire le potenze per cui è stato millantato.

Personalmente parlando non prenderei mai una 4090 anche solo per questo motivo.

Se fosse vero quanto affermi allora tutte le 4090 (Founders o meno che siano) soffrirebbero dello stesso problema e ti assicuro che c'è gente che le tira per il collo tra 4K e alti refresh rate. Personalmente uso l'alimentatore che leggi in firma e il polpo da 4 connettori di NVidia a cui ho collegato ciascun cavo di alimentazione a 8 pin per avere un equo bilanciamento del carico e mai nessun problema (mi sto dando una grattatina comunque :D).

Tutto sta, dal mio opinabile punto di vista, a predisporre al meglio i collegamenti e questo dipende da diversi fattori e soggetti (utente finale in primis). :)

ColdWarGuy
17-06-2023, 13:08
Se fosse vero quanto affermi allora tutte le 4090 (Founders o meno che siano) soffrirebbero dello stesso problema e ti assicuro che c'è gente che le tira per il collo tra 4K e alti refresh rate. Personalmente uso l'alimentatore che leggi in firma e il polpo da 4 connettori di NVidia a cui ho collegato ciascun cavo di alimentazione a 8 pin per avere un equo bilanciamento del carico e mai nessun problema (mi sto dando una grattatina comunque :D).

Tutto sta, dal mio opinabile punto di vista, a predisporre al meglio i collegamenti e questo dipende da diversi fattori e soggetti (utente finale in primis). :)

Basta un fault rate di pochi punti percentuale per definire un problema di progetto, quello che stiamo vedendo ora con quei connettori non si è mai visto in passato tanto più che non si contano più articoli e video a riguardo, personalmente parlando non vedo nessun lato positivo nella vicenda.

Cutter90
17-06-2023, 13:50
Basta un fault rate di pochi punti percentuale per definire un problema di progetto, quello che stiamo vedendo ora con quei connettori non si è mai visto in passato tanto più che non si contano più articoli e video a riguardo, personalmente parlando non vedo nessun lato positivo nella vicenda.

6 casi, di cui 5 colpa dell'utenza su migliaia e migliaia di schede sul mercato. Eh si, proprio uno scandalo :rolleyes:

ColdWarGuy
17-06-2023, 17:26
6 casi, di cui 5 colpa dell'utenza su migliaia e migliaia di schede sul mercato. Eh si, proprio uno scandalo :rolleyes:

Sicuro ?

50 casi riconosciuti da NVIDIA stessa a novembre 2022, quelli reali registrati ad oggi sono molti di più:


Power Connector Update – GeForce RTX 4090
(https://nvidia.custhelp.com/app/answers/detail/a_id/5413?s=31)

Melting GeForce RTX 4090 power cables: A timeline of events (https://www.pcworld.com/article/1372988/heres-what-we-know-about-the-geforce-rtx-4090-12vhpwr-cables-melting.html)

Cutter90
17-06-2023, 17:35
Sicuro ?

50 casi riconosciuti da NVIDIA stessa a novembre 2022, quelli reali registrati ad oggi sono molti di più:


Power Connector Update – GeForce RTX 4090
(https://nvidia.custhelp.com/app/answers/detail/a_id/5413?s=31)

Melting GeForce RTX 4090 power cables: A timeline of events (https://www.pcworld.com/article/1372988/heres-what-we-know-about-the-geforce-rtx-4090-12vhpwr-cables-melting.html)

faccaimo 100 di cui 90 per colpa dell'utenza e 10 difetti hardware (Cavi, psu, connetore scheda video),
Suelle decine di migliaia vendute continua ad essere una percentuale irrisoria

ColdWarGuy
17-06-2023, 17:36
faccaimo 100 di cui 90 per colpa dell'utenza e 10 difetti hardware (Cavi, psu, connetore scheda video),
Suelle decine di migliaia vendute continua ad essere una percentuale irrisoria

Facciamo che spari numeri a caso...

Cutter90
17-06-2023, 17:49
Facciamo che spari numeri a caso...

Bene, me li riporti quelli giusti?:)

ColdWarGuy
17-06-2023, 17:52
Bene, me li riporti quelli giusti?:)

"6 casi, di cui 5 colpa dell'utenza su migliaia e migliaia di schede sul mercato. Eh si, proprio uno scandalo"

Cutter90
17-06-2023, 18:50
"6 casi, di cui 5 colpa dell'utenza su migliaia e migliaia di schede sul mercato. Eh si, proprio uno scandalo"

Ok, questa è la mia teoria. Mi riporti i dati cortesemente allora? Altriemtni anche la tua diventa solo un ipotesi....

ColdWarGuy
17-06-2023, 19:33
Ok, questa è la mia teoria. Mi riporti i dati cortesemente allora? Altriemtni anche la tua diventa solo un ipotesi....

Ti ho già postato dei links, se hai la pazienza di guardarli magari capisci di cosa sto parlando e ti sinceri che i tuoi 6 (SEI) casi totali sono una sparata senza alcun appiglio con la realtà, non per niente AMD ha deciso di skippare il 12VHPWR per la serie 7000.

I casi sono molti di più con il costruttore che si rifiuta di prendersi le sue responsabilità, in ogni caso l'adattatore a polipo necessario per la quasi totalità degli alimentatori in circolazione è un ordigno, compreso l'originale fornito con le FE:

The horror has a face – NVIDIA’s hot 12VHPWR adapter for the GeForce RTX 4090 with a built-in breaking point (https://www.igorslab.de/en/adapter-of-the-gray-analyzed-nvidias-brand-hot-12vhpwr-adapter-with-built-in-breakpoint/)

https://www.igorslab.de/wp-content/uploads/2022/10/g-980x515.jpg

Per limitare i problemi i connettori femmina volanti dovrebbero avere i contatti crimpati e non saldati e dovrebbero essere del tipo "4 spring design" :

Intel recommends “4 Spring” 12VHPWR power plug instead “3 Dimple” design (https://videocardz.com/newz/intel-recommends-4-spring-12vhpwr-power-plug-instead-3-dimple-design)

il problema è che in giro ci sono molti cavi con il contatto "3 Dimple" e sono praticamente tutti saldati.

Io ho deciso che la mia prossima scheda video non avrà quel connettore, ovviamente ognuno trae le sue conclusioni e fa le sue scelte, ma cercare di nascondere o minimizzare il problema non aiuta nessuno se non chi si rifiuta di rimborsare i danni.

Ale55andr0
17-06-2023, 20:29
cmq il tizio deve sbarbarsi meglio le nocche :O

Cristallo
17-06-2023, 20:47
cmq il tizio deve sbarbarsi meglio le nocche :O

Ma saranno pezzi di plastica bruciata...

mikael84
17-06-2023, 21:39
Ciao Mikael, io da tempo abbraccio il motto "spera per il meglio e preparati per il peggio" :D

Le mi "speranze" si basano sull'ipotesi di architettura di TPU e su altre voci che girano sul web, tipo : The RX 7800 XT is rumored to feature the fully-enabled Navi 32 RDNA 3 GPU (https://www.notebookcheck.net/RX-7800-XT-vs-RTX-4070-battle-possibly-on-the-cards-as-price-performance-and-release-window-of-the-Radeon-GPU-leak.724996.0.html) e ovviamente su un pricing concorrenziale.

Premetto che non faccio una malattia per il RT e non pretendo che vada a bomba su tutti i titoli, d'altra parte a questo giro voglio 16GB ed una buona prestazione con Flight Simulator, cosa che la 7900 XT ha.

Time will tell.



Quelle sono proiezioni, cmq come detto nell'altro thread, dovrebbe passare la 6800xt ed anche la 4070liscia, anche se di poco.
Basta fare anche un calcolo molto semplice.
7900xtx = 4080.
6144 shader / 3840 - 37,5% di ALU.
9728 cuda / 5888 - 39,47% di cuda.

Tra clock ancora da verificare, ed in qualche gioco raster spesso assistiamo alla 7900xtx in vantaggio sulla 4080, è semplice la lettura finale.:)

Tra 4070 e 7800xt (è una 7700 rebrandata) la differenza sarà un tantino di raster in più per la AMD, 16gb di ram e comparto bus e cache maggiore.
Tra i contro, più consumi, no ecosistema nvidia (DLAA-DLSS-DLSS3), RT inferiore.:)

Kvarat
17-06-2023, 22:13
Quelle sono proiezioni, cmq come detto nell'altro thread, dovrebbe passare la 6800xt ed anche la 4070liscia, anche se di poco.
Basta fare anche un calcolo molto semplice.
7900xtx = 4080.
6144 shader / 3840 - 37,5% di ALU.
9728 cuda / 5888 - 39,47% di cuda.

Tra clock ancora da verificare, ed in qualche gioco raster spesso assistiamo alla 7900xtx in vantaggio sulla 4080, è semplice la lettura finale.:)

Tra 4070 e 7800xt (è una 7700 rebrandata) la differenza sarà un tantino di raster in più per la AMD, 16gb di ram e comparto bus e cache maggiore.
Tra i contro, più consumi, no ecosistema nvidia (DLAA-DLSS-DLSS3), RT inferiore.:)
Manca il prezzo... 699 la più povera :D

ColdWarGuy
18-06-2023, 10:54
Quelle sono proiezioni, cmq come detto nell'altro thread, dovrebbe passare la 6800xt ed anche la 4070liscia, anche se di poco.
Basta fare anche un calcolo molto semplice.
7900xtx = 4080.
6144 shader / 3840 - 37,5% di ALU.
9728 cuda / 5888 - 39,47% di cuda.

Tra clock ancora da verificare, ed in qualche gioco raster spesso assistiamo alla 7900xtx in vantaggio sulla 4080, è semplice la lettura finale.:)

Tra 4070 e 7800xt (è una 7700 rebrandata) la differenza sarà un tantino di raster in più per la AMD, 16gb di ram e comparto bus e cache maggiore.
Tra i contro, più consumi, no ecosistema nvidia (DLAA-DLSS-DLSS3), RT inferiore.:)

Got It, dream 7800XT svampato, torniamo quindi sul concetto di 4070Ti e 7900XT come upgrade minimo da 3070 e conseguente limbo causa prezzi attuali :fagiano:

Parlando di cose divertenti, il lancio della 4060 è confermato a fine mese ? :D

OrazioOC
18-06-2023, 11:02
Got It, dream 7800XT svampato, torniamo quindi sul concetto di 4070Ti e 7900XT come upgrade minimo da 3070 e conseguente limbo causa prezzi attuali :fagiano:

Parlando di cose divertenti, il lancio della 4060 è confermato a fine mese ? :D

Si l'altro momento di ilarità è previsto per il 29 giugno. :D

Curioso di vedere i test in dlss3, già la 4060 ti come potenza di calcolo è mediocre e il rischio di artefatti è sempre dietro l'angolo, figuriamoci questa che ha 2/3 dei suoi tflops. :oink:

ColdWarGuy
18-06-2023, 11:43
Si l'altro momento di ilarità è previsto per il 29 giugno. :D

Curioso di vedere i test in dlss3, già la 4060 ti come potenza di calcolo è mediocre e il rischio di artefatti è sempre dietro l'angolo, figuriamoci questa che ha 2/3 dei suoi tflops. :oink:

Aggiungi che dopo la versione della versione Ti i reviewers sanno dove si andrà a parare, mi aspetto una gara a chi affonda di più il coltello.

Sul discorso artefatti sono curioso anche io ma in assenza di benchmarks che quantificano matematicamente la loro incidenza siamo in un ambito soggetto ad interpretazioni, soprattutto per le immagini in movimento, che poi è quello che conta :fagiano:

mikael84
18-06-2023, 12:00
Manca il prezzo... 699 la più povera :D

Si, penso tra 599 e 699, pur essendo una 7700 è sempre chiamata x80.

Got It, dream 7800XT svampato, torniamo quindi sul concetto di 4070Ti e 7900XT come upgrade minimo da 3070 e conseguente limbo causa prezzi attuali :fagiano:

Parlando di cose divertenti, il lancio della 4060 è confermato a fine mese ? :D

Diciamo che sarebbe l'upgrade per chi viene da una 6700xt, è l'erede perfetta, considerando che una è navi22 l'altra navi32.
Per chi ha una 3070, è si un upgrade, ma non in toto, visto che perderebbe tutto l'ecosistema nvidia.
A sto punto valuti la 4070 che ha tutto (un tantino meno in raster).
4070ti e 7900xt sono il vero salto.:)

Si l'altro momento di ilarità è previsto per il 29 giugno. :D

Curioso di vedere i test in dlss3, già la 4060 ti come potenza di calcolo è mediocre e il rischio di artefatti è sempre dietro l'angolo, figuriamoci questa che ha 2/3 dei suoi tflops. :oink:

Non vedo l'ora, per fortuna sono particolarmente impegnato questi giorni che magari li vedrà di sfuggita. :p
Cmq i test posso già simularmeli io.:)

ColdWarGuy
18-06-2023, 12:57
-snip
A sto punto valuti la 4070 che ha tutto (un tantino meno in raster).
4070ti e 7900xt sono il vero salto.:)


Considerati i salti prestazionali che ho avuto, non a caso ma volutamente, tra 970, 1080 e 3070 la 4070Ti e la 7900XT sono addirittura insufficienti, se in 4K volessi replicare le percentuali di incremento precedenti dovrei guardare minimo ad una 4080 o 7900XTX, ma col piffero che mi faccio derubare a quel livello per la scheda video con cui giocare.


Non vedo l'ora, per fortuna sono particolarmente impegnato questi giorni che magari li vedrà di sfuggita. :p
Cmq i test posso già simularmeli io.:)

Sarebbe uno spoiler che toglie gusto allo show, sono curioso di vedere i magheggi di NVIDIA lato driver per coprire "le vergogne" :D

mikael84
18-06-2023, 14:23
Considerati i salti prestazionali che ho avuto, non a caso ma volutamente, tra 970, 1080 e 3070 la 4070Ti e la 7900XT sono addirittura insufficienti, se in 4K volessi replicare le percentuali di incremento precedenti dovrei guardare minimo ad una 4080 o 7900XTX, ma col piffero che mi faccio derubare a quel livello per la scheda video con cui giocare.



Sarebbe uno spoiler che toglie gusto allo show, sono curioso di vedere i magheggi di NVIDIA lato driver per coprire "le vergogne" :D

La vergogna è chiedere 100$ in più per la 4060ti 16gb:p
Il prezzo delle g6 sta crollando a picco (a breve saranno superate dalle g7)

https://i.postimg.cc/V6Ly4Yjw/price.png

Le schede con g6 lisce potrebbero pure scendere un pochino.

Ale55andr0
18-06-2023, 14:32
Si, penso tra 599 e 699, pur essendo una 7700 è sempre chiamata x80.




6/700 se non prende la 6950 la considererò un

FAIL

nessuno29
18-06-2023, 14:34
Cioè 4 dollari al gb oppure 4 dollari 8gb?

Dono89
18-06-2023, 14:47
Per 8gb

Questo fa veramente infuriare considerando che lanciare una scheda alla metà dei gb fa risparmiare 10dollari

Bios, progetto e mazzi vari

mikael84
18-06-2023, 14:59
Cioè 4 dollari al gb oppure 4 dollari 8gb?

3,375$ al gb, ovvero circa 27$ 8gb.

Con la 3070 e relative AMD, il gb da 14 gb/s stava quasi a 12$.

Ora è sceso molto, in virtù del PP usato, ed anche dal fatto che si usa la doppia densità. Quindi al momento circa 6,75$ per ram (2gb)

Ale55andr0
18-06-2023, 15:14
3,375$ al gb, ovvero circa 27$ 8gb.

Con la 3070 e relative AMD, il gb da 14 gb/s stava quasi a 12$.

Ora è sceso molto, in virtù del PP usato, ed anche dal fatto che si usa la doppia densità. Quindi al momento circa 6,75$ per ram (2gb)

cio' significa che potevano fare la 4070ti con delle normalissime ed economicissime ddr6 lisce 18gb/s compensando col bus a 256bit senza colpo ferire, anzi avrebbero avuto 576gb/s invece che 504...

OrazioOC
18-06-2023, 15:16
cio' significa che potevano fare la 4070ti con delle normalissime ed economicissime ddr6 lisce 18gb/s compensando col bus a 256bit senza colpo ferire, anzi avrebbero avuto 576gb/s invece che 504...

E poi come li spenni quelli con la 4080? :D

Ale55andr0
18-06-2023, 15:19
E poi come li spenni quelli con la 4080? :D

semplice: la facevi con più CC e le 21gb/s, la distanza prestazionale e di fascia ci stava uguale, ma non l'abisso di vergogna che c'è adesso. Si fottano.

mikael84
18-06-2023, 15:31
cio' significa che potevano fare la 4070ti con delle normalissime ed economicissime ddr6 lisce 18gb/s compensando col bus a 256bit senza colpo ferire, anzi avrebbero avuto 576gb/s invece che 504...

Certo che si poteva fare, bastava ingrandire il die di circa 30mm2 e creare le piste per il 256bit.
Temo però che te l'avrebbe fatta pagare 899 e non 799$.

Le soluzioni "quadro" di quel chip, sono già instradate con le g6 lisce, ma in clamshell.

ColdWarGuy
18-06-2023, 15:33
6/700 se non prende la 6950 la considererò un

FAIL

Da quello che ha spiegato Mikael, che poi trova riscontro nei numeri conosciuti di NAVI32, è ormai chiaro che la 7800XT non vede neanche con il binocolo la 6950XT, ergo tanto vale aspettare che cali ulteriormente la 6800XT, che nel mio caso non ritengo comunque sufficiente come upgrade dalla 3070 che nel PICCI' in firma gira bella fluida :D

fraussantin
18-06-2023, 15:35
Per 8gb

Questo fa veramente infuriare considerando che lanciare una scheda alla metà dei gb fa risparmiare 10dollari

Bios, progetto e mazzi variMa è solo un discorso di proposta commerciale.

mikael84
18-06-2023, 15:55
Da quello che ha spiegato Mikael, che poi trova riscontro nei numeri conosciuti di NAVI32, è ormai chiaro che la 7800XT non vede neanche con il binocolo la 6950XT, ergo tanto vale aspettare che cali ulteriormente la 6800XT, che nel mio caso non ritengo comunque sufficiente come upgrade dalla 3070 che nel PICCI' in firma gira bella fluida :D

Al momento è uscito un leak della 7800x mobile. Punteggi da 4070, ma chiaramente potrebbe influire il clock:)
La 6950 supera i 22k, mentre la 7900 sta a 26 circa stock.
https://i.postimg.cc/QMrg2mxN/3dmark-7800xt-m.png

Ale55andr0
18-06-2023, 16:22
Certo che si poteva fare, bastava ingrandire il die di circa 30mm2 e creare le piste per il 256bit.
Temo però che te l'avrebbe fatta pagare 899 e non 799$.

Le soluzioni "quadro" di quel chip, sono già instradate con le g6 lisce, ma in clamshell.

no hai problema, marciva uguale come sta facendo la 70ti

ColdWarGuy
18-06-2023, 19:23
no hai problema, marciva uguale come sta facendo la 70ti

Già, ed i numeri di mindfactory per la week 23 confermano il generale "rigetto" delle offertone della serie 4000 e 7000:

Radeon Top 5 Selling :

RX 6600 = 310 units
RX 6700XT = 270 units.
RX 6900XT = 180 Units.
RX 6600XT = 130 units.
RX 6800XT = 110 units.

Nvidia Top 5 Selling :

RTX 3060 = 490 units.
RTX 3070 = 330 units.
RTX 3070 TI = 170 units.
GTX 3050 = 160 units.
RTX 3080 = 150 units.

Ubro92
18-06-2023, 19:24
Più che altro da quelle stime si nota che la gente non vuole sforare mediamente i 3-400$

Inviato dal mio M2012K11AG utilizzando Tapatalk

ColdWarGuy
18-06-2023, 19:39
Più che altro da quelle stime si nota che la gente non vuole sforare mediamente i 3-400$

Inviato dal mio M2012K11AG utilizzando Tapatalk

Che è quello che abbiamo fatto tutti fino a non troppo tempo fa ...

ColdWarGuy
18-06-2023, 19:49
Al momento è uscito un leak della 7800x mobile. Punteggi da 4070, ma chiaramente potrebbe influire il clock:)
La 6950 supera i 22k, mentre la 7900 sta a 26 circa stock.
https://i.postimg.cc/QMrg2mxN/3dmark-7800xt-m.png

Mikael, puoi pubblicare il link ?

mikael84
18-06-2023, 20:42
Mikael, puoi pubblicare il link ?

Chiaramente i clock potrebbero essere più bassi, essendo mobile.:)
https://twitter.com/3DCenter_org/status/1666329721666433026

https://twitter.com/All_The_Watts/status/1665749416303788032

Ale55andr0
18-06-2023, 21:04
quel bench han detto i mod di videocardz che è fake

mikael84
18-06-2023, 21:44
quel bench han detto i mod di videocardz che è fake

Beh fake o no, tutti i leak sono da prendere con le pinze.
Cmq, non sarà tanto distante, se Igor ottiene questi risultati con la versione da 4480 shader (+16,6% di shader).:)

https://i.postimg.cc/fWtsyhRB/igor.png

ColdWarGuy
18-06-2023, 23:57
Mah, a me sembra che dopo gli iniziali entusiasmi la situazione sia divenuta stagnante, NVIDIA ha sfornato un inutile 4060 Ti e si appresta a prendere nuovi insulti con la 4060 liscia ed un altrettanto inutile Ti da 16GB, AMD è in ritardo marcio con la 7800XT, che di fatto sarà una 7700XT e per non essere da meno ci ha donato un inutile 7600.

Ormai anche i sassi hanno capito che stanno entrambe temporeggiando per finire gli avanzi di magazzino, nel frattempo son sempre disponibili i modelli appositamente studiati per chi vuole farsi milkare a tutti i costi.

Fate conto che se una scheda che doveva costare 500 euro viene venduta a 800 (e così via) il rapporto di ricavo è incredibilmente più alto del rapporto di prezzo complessivo, potrebbe essere che sia NVIDIA che AMD abbiano fatto i conti a tavolino e scoperto che gli basta la base degli entusiasti che comprano gli "schedoni" per tenere in piedi la divisione con magari, sparo, 1/3 dei fatturati del passato ed una frazione delle schede da sfornare.

Se così fosse, vedremo forti incrementi di vendita delle console.

fraussantin
19-06-2023, 07:33
Se così fosse, vedremo forti incrementi di vendita delle console.
L'hanno già fatto in tanti , da quando sono disponibili e altri lo faranno , ma secondo me sia Nvidia che amd stanno tirando la corda proprio perche le console sono ormai obsolete .

Cioè il target 30 fps è veramente troppo basso per un utente pc medio e l'annuncio del nuovo starfield secondo me ha un po scoraggiato alcuni ad affiancare una xbox al pc.

Ci vorrebbe un refrash delle scatolette per alzare la scimmia e allora , al di la dei costi del silicio, potrebbero sfornare una linea di gpu concorrenziale.

Ale55andr0
19-06-2023, 08:04
Beh fake o no, tutti i leak sono da prendere con le pinze.
Cmq, non sarà tanto distante, se Igor ottiene questi risultati con la versione da 4480 shader (+16,6% di shader).:)

https://i.postimg.cc/fWtsyhRB/igor.png

si', ma se in quel caso viene smentito addirittura dalla redazione non va preso nemmeno con quelle. La versione pro suppongo abbia driver pro, poi magari sbaglio. Chiaramente se ha 60cu non possiamo attendere sfaceli



Se così fosse, vedremo forti incrementi di vendita delle console.

un pcistia le console non le guarda nemmeno di striscio. In quel caso o si piega e strapaga o li manda affanculo, io farò la seconda, le console manco le voglio sentir nominare a parte che sono nate morte (come sempre) e si parla già delle versioni pro. Se Microsft ti dice che non è una priorità, ti ha già confermato che la faranno :asd:

ninja750
19-06-2023, 11:05
Parlando di cose divertenti, il lancio della 4060 è confermato a fine mese ? :D

Si l'altro momento di ilarità è previsto per il 29 giugno. :D

basterà guardare le review con le barre verdi FG attivo per vedere l'incremento prestazionale che uno si aspetterebbe di trovare con la nuova generazione :O

Kvarat
19-06-2023, 11:23
un pcistia le console non le guarda nemmeno di striscio. In quel caso o si piega e strapaga o li manda affanculo, io farò la seconda, le console manco le voglio sentir nominare a parte che sono nate morte (come sempre) e si parla già delle versioni pro. Se Microsft ti dice che non è una priorità, ti ha già confermato che la faranno :asd:


Un tipo nuovo di alieno? :asd:
Secondo te chi ha una console non ha un pc e viceversa? La Nintendo vende quindi ad esseri alieni che lavorano, giocano e passano il tempo libero solo su tablet e smartphone? :D

Cfranco
19-06-2023, 11:52
Un tipo nuovo di alieno? :asd:
Secondo te chi ha una console non ha un pc e viceversa?

Io ho 2 PC e zero console :O

Kvarat
19-06-2023, 12:27
Io ho 2 PC e zero console :O

Prova a chiedere a chi ha una console quanti pc ha :D . La contrapposizione tra computer e console esiste solo nella war scatenate da brufolosi e cicciotti tubers.
Come paragonare 2 mezzi differenti per correre con 4 ruote mettendoli a confronto come ad esempio una F1 e un kart.

Ale55andr0
19-06-2023, 12:31
Un tipo nuovo di alieno? :asd:
Secondo te chi ha una console non ha un pc e viceversa? La Nintendo vende quindi ad esseri alieni che lavorano, giocano e passano il tempo libero solo su tablet e smartphone? :D

per pcista intendo uno che non ci pensa neppure per sbaglio a giocare sul divano con la tv a 3metri e col pad, cosa fatta all'epoca con la prima xbox. Ma basta che ti fai un giro: in quanti qui hanno anche una console? Scommetti che sono in minoranza rispetto a quelli che, per i più disparati motivi, giocano su pc e basta? :)

bonzoxxx
19-06-2023, 12:34
C'è sempre l'opzione abbassare risoluzione e dettagli eh :)
Ieri ho voluto provare qualche gioco sul notebook con gtx 1050, tranne CP2077 riesco a giocare con i dovuti compromessi a quasi tutto.

Purtroppo per chi vuole qualità, centinaia di fps e il 4K nvidia e AMD hanno deciso di farsi pagare ben più del dovuto: dal canto mio, i miei soldi non li vedranno, giocare non può essere un lusso.

Ale55andr0
19-06-2023, 12:34
Prova a chiedere a chi ha una console quanti pc ha :D . La contrapposizione tra computer e console esiste solo nella war scatenate da brufolosi e cicciotti tubers.
Come paragonare 2 mezzi differenti per correre con 4 ruote mettendoli a confronto come ad esempio una F1 e un kart.


Appunto dicevo :D e la war ce la stai buttando tu, io ho parlato di preferenze

HSH
19-06-2023, 13:00
per pcista intendo uno che non ci pensa neppure per sbaglio a giocare sul divano con la tv a 3metri e col pad, cosa fatta all'epoca con la prima xbox. Ma basta che ti fai un giro: in quanti qui hanno anche una console? Scommetti che sono in minoranza rispetto a quelli che, per i più disparati motivi, giocano su pc e basta? :)

apri un sondaggio e vediamo, sono curioso!

Salfox
19-06-2023, 13:32
per pcista intendo uno che non ci pensa neppure per sbaglio a giocare sul divano con la tv a 3metri e col pad, cosa fatta all'epoca con la prima xbox. Ma basta che ti fai un giro: in quanti qui hanno anche una console? Scommetti che sono in minoranza rispetto a quelli che, per i più disparati motivi, giocano su pc e basta? :)

Qui ti sbagli di grosso, sai? Specie da quando c'è il gamepass e i salvataggi condivisi tra PC e Xbox io sfrutto questa possibilità spessissimo, quando sono fuori di casa e voglio comunque ad esempio fare le playlist settimanali o le sfide quotidiane/settimanali e non hai la possibilità di portare il PC con te, le console sono davvero supercomode. Tanti vecchiacci come me miei amici la pensano esattamente come ti ho detto.

Cutter90
19-06-2023, 14:07
per pcista intendo uno che non ci pensa neppure per sbaglio a giocare sul divano con la tv a 3metri e col pad, cosa fatta all'epoca con la prima xbox. Ma basta che ti fai un giro: in quanti qui hanno anche una console? Scommetti che sono in minoranza rispetto a quelli che, per i più disparati motivi, giocano su pc e basta? :)

Pcista presente, con pad da 3 metri e tv oled..... e ora come la mettiamo? :D

Magistercris
19-06-2023, 14:14
Pcista presente, con pad da 3 metri e tv oled..... e ora come la mettiamo? :D

io uguale e godo!!!

Ale55andr0
19-06-2023, 14:18
Pcista presente, con pad da 3 metri e tv oled..... e ora come la mettiamo? :D

tu vieni dal mondo console, sei un mudblood :O

Cutter90
19-06-2023, 14:19
tu vieni dal mondo console, sei un mudblood :O

Pensa mo.... si può proprio parlare di videogiocatore completo :D

Kvarat
19-06-2023, 14:46
per pcista intendo uno che non ci pensa neppure per sbaglio a giocare sul divano con la tv a 3metri e col pad, cosa fatta all'epoca con la prima xbox. Ma basta che ti fai un giro: in quanti qui hanno anche una console? Scommetti che sono in minoranza rispetto a quelli che, per i più disparati motivi, giocano su pc e basta? :)

Sottovaluti una cosa molto importante. Chi gioca su pc ed ha computer potenti e aggiornati, ci mette un attimo a comprare una console anche solo per relax e svago. Vuoi mettere stare stravaccati sul divano a smanettare con Zelda? :sofico:
Comunque discorso lungo e complesso per 2 tipi di macchine che non hanno quasi nulla in comune. :sofico:

Salfox
19-06-2023, 14:54
Comunque discorso lungo e complesso per 2 tipi di macchine che non hanno quasi nulla in comune. :sofico:

Mah, se si parla solo di videogiochi tra console (nello specifico Xbox Series X) e PC io davvero non vedo nessuna differenza, i giochi sono indistinguibili. Se parli di altro che si può fare con il Pc e non con le console allora ti do ragione.

PS
provate la demo di Jusant su steam (prossima esclusiva xbox e pc gamepass) dei Don'tnod, io l'ho trovato molto bello...

LkMsWb
19-06-2023, 14:59
per pcista intendo uno che non ci pensa neppure per sbaglio a giocare sul divano con la tv a 3metri e col pad, cosa fatta all'epoca con la prima xbox. Ma basta che ti fai un giro: in quanti qui hanno anche una console? Scommetti che sono in minoranza rispetto a quelli che, per i più disparati motivi, giocano su pc e basta? :)

Ho diverse console (una per generazione circa), anche se mediamente il 90% della roba la gioco su PC. Sono nato (ludicamente) con Amiga 500, che non è propriamente né un PC né una console, quindi non so come la mettiamo :O

Alodesign
19-06-2023, 15:20
Pcista presente, con pad da 3 metri e tv oled..... e ora come la mettiamo? :D

Pcista con Steam Link che gioca svaccato sul letto!

Maury
19-06-2023, 15:23
per pcista intendo uno che non ci pensa neppure per sbaglio a giocare sul divano con la tv a 3metri e col pad, cosa fatta all'epoca con la prima xbox. Ma basta che ti fai un giro: in quanti qui hanno anche una console? Scommetti che sono in minoranza rispetto a quelli che, per i più disparati motivi, giocano su pc e basta? :)

Io ho il pc in sala e gioco a 3 metri su oled C1 55 altro mondo eh :)

Io con il Pc sotto al tavolo ci lavoro e basta non ci gioco di certo :stordita:

Kvarat
19-06-2023, 15:24
Ho diverse console (una per generazione circa), anche se mediamente il 90% della roba la gioco su PC. Sono nato (ludicamente) con Amiga 500, che non è propriamente né un PC né una console, quindi non so come la mettiamo :O

Nel tuo caso sei della razza dei Commodoristi, tipico popolo del paese Commodore che usava un pc, con un mouse e un joystick, per giocare e programmare. Che figata! :sofico:

Ale55andr0
19-06-2023, 16:28
Sottovaluti una cosa molto importante. Chi gioca su pc ed ha computer potenti e aggiornati, ci mette un attimo a comprare una console anche solo per relax e svago. Vuoi mettere stare stravaccati sul divano a smanettare con Zelda? :sofico:
Comunque discorso lungo e complesso per 2 tipi di macchine che non hanno quasi nulla in comune. :sofico:

se gioco col pc è perchè mi sto...rilassando e svagando, e poi ci sono sedie che sono ormai poltrone comodose


.cmq parlavo in relazione al possesso di una console non a quanti giocano più o meno stravaccati

Vul
19-06-2023, 16:42
Prova a chiedere a chi ha una console quanti pc ha :D . La contrapposizione tra computer e console esiste solo nella war scatenate da brufolosi e cicciotti tubers.
Come paragonare 2 mezzi differenti per correre con 4 ruote mettendoli a confronto come ad esempio una F1 e un kart.

*

Io sono 30 anni che ho sempre avuto entrambe le piattaforme, non capisco chi e' che si ostina a paragonare e mettere in competizione due mondi di gioco drasticamente differenti sotto tantissimi punti di vista.

Se parli di altro che si può fare con il Pc e non con le console allora ti do ragione.

Le console offrono anche un ergonomia che i pc non hanno.

Esempio, voglio buttarmi sul divano a giocare con il mio 65", con una console significa: prendi il controller in mano e premi il pulsante del pad. Nessun os strano, aggiornamenti di windows, lancia steam in big picture, steam deck o shield o altra roba.

E non mi venire a dire che "anche con il pc si puo' fare" perche' non e' assolutamente cosi semplice tirare su un htpc in salotto che supporti 3/4 giocatori e io ci ho provato sia a tirare su htpc che usando notebook da gaming, non e' cosi semplice/plug and play/economico.

Sonpazzo
19-06-2023, 18:39
2023 ancora a parlare di console war

ColdWarGuy
19-06-2023, 19:35
un pcistia le console non le guarda nemmeno di striscio. In quel caso o si piega e strapaga o li manda affanculo, io farò la seconda, le console manco le voglio sentir nominare a parte che sono nate morte (come sempre) e si parla già delle versioni pro. Se Microsft ti dice che non è una priorità, ti ha già confermato che la faranno :asd:

Sei troppo drastico, una cosa non esclude l'altra infatti sono due tipi di esperienza in parte complementari, aggiungo che il vero gamer nonè quello che gioca alla massima combinazione di risoluzione / dettaglio ma quello che si diverte con la meccanica del gioco in se.

Le console hanno sempre avuto il pregio di essere facilmente gestibili, se prendi la piattaforma MS c'è anche il grande vantaggio di far giocare i ragazzini senza far svenare i papà con il Game Pass, che offre anche sinergie con il gaming su PC.

Ed ora che siamo arrivati ad una situazione in cui le parti per PC vengono vendute a peso d'oro, grazie anche alla tendenza dilagante di mode pacchiane di luci, colori e minchiate varie, ben venga la sobrietà della black box da attaccare al TV che costa una frazione di un PC decente.

fraussantin
19-06-2023, 21:37
Ed ora che siamo arrivati ad una situazione in cui le parti per PC vengono vendute a peso d'oro, grazie anche alla tendenza dilagante di mode pacchiane di luci, colori e minchiate varie, ben venga la sobrietà della black box da attaccare al TV che costa una frazione di un PC decente.

In realtà è droppato di prezzo tutto eccetto le schede video.

Manca un concorrente reale ad nvidia.

E la mancanza di concorrenza si fa sentire.

Ale55andr0
19-06-2023, 22:35
In realtà è droppato di prezzo tutto eccetto le schede video.

Manca un concorrente reale ad nvidia.

E la mancanza di concorrenza si fa sentire.

quello che c'è però se la crede di brutto però...

djsnake
20-06-2023, 05:57
Nel tuo caso sei della razza dei Commodoristi, tipico popolo del paese Commodore che usava un pc, con un mouse e un joystick, per giocare e programmare. Che figata! :sofico:

Presente. Commodore 64 con le cassette dei giochi comprate insieme ai magazine e i primi passi di basic e il joystick.
Avuti anche l'atari, l'amiga 500 con cui feci la prima run di monkey island 1... Che ricordi che mi hai sbloccato :)

Poi vari pc ma allo stesso tempo super nes, nintendo 64, xbox 360, ps2 e ps3, game boy, 3ds.

Recentemente avevo pensato di prendere una serie x ma poi a causa della penuria ho lasciato perdere e non ci ho più ripensato

fraussantin
20-06-2023, 07:13
Presente. Commodore 64 con le cassette dei giochi comprate insieme ai magazine e i primi passi di basic e il joystick.

Avuti anche l'atari, l'amiga 500 con cui feci la prima run di monkey island 1... Che ricordi che mi hai sbloccato :)



Poi vari pc ma allo stesso tempo super nes, nintendo 64, xbox 360, ps2 e ps3, game boy, 3ds.



Recentemente avevo pensato di prendere una serie x ma poi a causa della penuria ho lasciato perdere e non ci ho più ripensatoIl commodoristi erano della fazioni computer all'epoca 🤟🤟 consolari avevano il sega master sistem e Nintendo .

Ed era già guerra all'epoca , una guerra senza fine ahahah.

Cmq unica console avuta è la ps3 perche mi serviva un lettore blu ray e costava uguale ( quando la presi io)

Ma a livello di costi una xbox oggi ha il suo perché.

Se uno si accontenta ovviamente. Se non ci si accontenta si deve avere il ik portafoglio gonfio

bonzoxxx
20-06-2023, 11:13
Ma a livello di costi una xbox oggi ha il suo perché.

Se uno si accontenta ovviamente. Se non ci si accontenta si deve avere il ik portafoglio gonfio

Concordo al 100%, putroppo è la triste realtà.
Che poi alcuni giochi sulla X girano proprio benone

lordsnk
20-06-2023, 17:13
Nel tuo caso sei della razza dei Commodoristi, tipico popolo del paese Commodore che usava un pc, con un mouse e un joystick, per giocare e programmare. Che figata! :sofico:

Presente :sofico:

Pure io il pc lo attacco alla tv e gioco con il pad :D

EffeX
20-06-2023, 20:12
I ragazzi di DF non si smentiscono comunque, continuano la loro battaglia sulla vram.

https://gaming.hwupgrade.it/news/videogames/diablo-iv-su-pc-serve-una-scheda-video-da-16-gb-per-eguagliare-ps5-lo-dimostra-digital-foundry_117720.html?fbclid=IwAR0GuT3XzKzir-coFWMt9Q6W0IgsBCyE0QM45YZuZ3yD4FB5cWCxWOkMQGQ

Che poi comunque visti i prezzi in picchiata delle ram è proprio da taccagni equipaggiare ancora con 8 gb una scheda nel 2023.:rolleyes:

OrazioOC
20-06-2023, 20:24
https://videocardz.com/newz/palit-geforce-rtx-4060-dual-custom-gpu-listed-in-germany-for-e339

Si avvicina il lancio di questo nuovo ferro da stiro su pcie. :D

ColdWarGuy
20-06-2023, 23:06
"The same case is being made by Yuzu developers who have found the NVIDIA GeForce RTX 4060 Ti to be a serious downgrade for emulation purposes compared to the older GeForce RTX 3060 Ti. It's pointed out that the memory configuration that NVIDIA went for is sub-par and doesn't allow for a very good experience when running emulated games."

Yuzu Devs Tear Apart NVIDIA’s GeForce RTX 4060 Ti GPU, Call It A Downgrade For Emulation Due To Cut-Down Memory Config (https://wccftech.com/yuzu-devs-tear-apart-nvidia-geforce-rtx-4060-ti-gpu-call-it-a-downgrade-for-emulation/)

HSH
21-06-2023, 07:32
"The same case is being made by Yuzu developers who have found the NVIDIA GeForce RTX 4060 Ti to be a serious downgrade for emulation purposes compared to the older GeForce RTX 3060 Ti. It's pointed out that the memory configuration that NVIDIA went for is sub-par and doesn't allow for a very good experience when running emulated games."

Yuzu Devs Tear Apart NVIDIA’s GeForce RTX 4060 Ti GPU, Call It A Downgrade For Emulation Due To Cut-Down Memory Config (https://wccftech.com/yuzu-devs-tear-apart-nvidia-geforce-rtx-4060-ti-gpu-call-it-a-downgrade-for-emulation/)

cazzarola io lo uso tutti i giorni, mi toccherà prendermi una 3060ti e poi aspettare la serie 5 allora

R@nda
21-06-2023, 09:14
4060 liscia 339€
Eccome no!

Kvarat
21-06-2023, 10:07
4060 liscia 339€
Eccome no!

La Pny ha prezzo consigliato di 299. Non è male se avrà le prestazioni della 3060ti.

X360X
21-06-2023, 10:14
I ragazzi di DF non si smentiscono comunque, continuano la loro battaglia sulla vram.

https://gaming.hwupgrade.it/news/videogames/diablo-iv-su-pc-serve-una-scheda-video-da-16-gb-per-eguagliare-ps5-lo-dimostra-digital-foundry_117720.html?fbclid=IwAR0GuT3XzKzir-coFWMt9Q6W0IgsBCyE0QM45YZuZ3yD4FB5cWCxWOkMQGQ

Che poi comunque visti i prezzi in picchiata delle ram è proprio da taccagni equipaggiare ancora con 8 gb una scheda nel 2023.:rolleyes:

su console gira a 1260p nativo.
già in qhd al massimo del dettaglio PC > console, col DLAA poi tanto più. e non servono 16GB, ma con tutta probabilità non ne bastano 8 (12 si perché il gioco lo ho)

StylezZz`
21-06-2023, 10:23
La Pny ha prezzo consigliato di 299. Non è male se avrà le prestazioni della 3060ti.

Dobbiamo dire grazie se avrà le prestazioni della 3060.

R@nda
21-06-2023, 10:27
La Pny ha prezzo consigliato di 299. Non è male se avrà le prestazioni della 3060ti.

Già meglio...però sembra che queste schede, dalla 4070ti in giù, le abbiano fatte striminzite per risparmiare (loro) farle andare un pelo di più dei modelli corrispondenti per poter svuotare gli scaffali della generazione precedente.
Poca spesa, zero perdite, tanto margine e poi si va avanti con la prossima generazione che sarà ottima su tutti fronti vedrete.

X360X
21-06-2023, 10:37
Già meglio...però sembra che queste schede, dalla 4070ti in giù, le abbiano fatte striminzite per risparmiare (loro) farle andare un pelo di più dei modelli corrispondenti per poter svuotare gli scaffali della generazione precedente.
Poca spesa, zero perdite, tanto margine e poi si va avanti con la prossima generazione che sarà ottima su tutti fronti vedrete.

sono tutte remaster (più o meno riuscite, per me le x60 sono tremende al di là del prezzo) col DLSS3 e con bus\vram a indicare la risoluzione "da utilizzare".

3090 -> 4070TI (192bit 12GB qhd)
3080 -> 4070 (192bit 12GB qhd)
3070 -> 4060Ti (128bit 8GB fhd)
3060 -> 4060 (128bit 8GB fhd)

ninja750
21-06-2023, 11:10
Che schifezza di scheda

https://videocardz.com/newz/nvidia-geforce-rtx-4060-is-up-to-18-faster-than-rtx-3060-in-first-leaked-benchmarks

pur con tutti i limiti a 199€ street non sarebbe una schifezza

ha pur sempre 128 bit come la 60ti :O

ColdWarGuy
21-06-2023, 12:46
su console gira a 1260p nativo.
già in qhd al massimo del dettaglio PC > console, col DLAA poi tanto più. e non servono 16GB, ma con tutta probabilità non ne bastano 8 (12 si perché il gioco lo ho)

Quindi quando le prossime console avranno, per dire, 20GB saremo da capo anche con le GPU discrete da 16GB ? :D

X360X
21-06-2023, 13:28
Quindi quando le prossime console avranno, per dire, 20GB saremo da capo anche con le GPU discrete da 16GB ? :D

Bisogna sempre rapportare la potenza alla VRAM secondo me.

Togliamo ovviamente dal discorso certe mod, i giochi ottimizzati a caso e quelli che devono per forza usare memoria video per roba da screenshot sotto lente di ingrandimento (poi l'AA spesso fa schifo -DLAA a parte- e si nota 100 volte di più come cosa, tanto da far incredibilmente apparire certi giochi sotto DLSS migliori del nativo, ma tutto ok se si può settare la "superUltraUberTexture" siamo felici :asd: )

Non sto dicendo che è brava nvidia a centellinare la VRAM che nemmeno un dietologo con le calorie, ma ora che le console avranno più VRAM saranno anche ben più potenti e le VGA saranno invecchiate, quindi non metterai certi settings (RT in primis) e non giocherai a certe risoluzioni pena framerate scadente. se poi sei uno smanettone come siamo in molti qui l'avrai pure già cambiata la VGA, e avere chissà quanta VRAM la differenza non te l'avrebbe mai fatta.

Cioè non è che se prendi una 3090 da 24GB poi in futuro ti va meglio di una 4080 da 16GB, questo non succederà mai.
E ripeto non sto giustificando nvidia che potrebbe metterne di più, ma passare da "meglio più vram per sicurezza" a far passare la VRAM come la cosa che ti cambia la vita ce ne passa.

Una 4060 per dire andrà come una 3060 probabilmente, ma dove va, ma quanta VRAM vuoi darle tanto per quel che può fare stai là in fhd senza maxare e senza RT e di certo non ti serve nemmeno metterla la texture "uber" in fullhd, che pare la stai pure prendendo in giro quella pora schedina :asd:

E ripeto ancora non sto giustificando i quantitativi di NVIDIA, solo cercando di essere un po' realista.

Ale55andr0
21-06-2023, 13:59
Equilibrio, questa parola sconosciuta, bisogna fare le iperboli sui 24gb contro 12 quando a quel farab... bastava mettere 16gb standard per stare semplicemente "a posto" per tutta la gen e "un tot" e stop. Invece no, ha calibrato la ram per tenerti al pelo dell'acquisto del piffero che, ti piaccia o meno, invecchierà MALE perchè già oggi è al limite della decenza, finita li'. Non si è MAI trattato di avere settordicimila inutili gb per stare tranquilli per 10 anni, non è mai stato posto il discorso in quel modo. Si tratta di dimensionare le cose non a danno del cliente che è esattamente quello che ha fatto er jacco. Facendo una analogia, se ho una stringa fotovoltaica che mi genera 9,5 Ampere, non vado a mettere un fusibile da 10 che lavorerà al pelo e in qualche condizione operativa potrebbe creare grane, ma glielo si piazza da 12 per avere giusto un po' di elasticità operativa. Ora può pure passare su una gpu da 500 o 600 (non per me) avere la ram calibrata col dito medio rivolto verso l'acquirente, ma per una da 8-900 decisamente NO. Io la vedo così, poi giustamente ognuno è libero di fare come crede :).

fraussantin
21-06-2023, 14:16
Quindi quando le prossime console avranno, per dire, 20GB saremo da capo anche con le GPU discrete da 16GB ? :DQuando le prossime console arriveranno ne sarà passata di acqua sotto i ponti e probabilmente punteranno al 4k 60 fps pregando che non sia sdoganata l'idiozia dell'8k.

A quel punto se su pc starai in 4k avrai gpu top adeguate.
Se uno ha deciso di rimanere in 2k o in 1080p i requisiti di ram saranno cmq modesti.

Ps imho la next gen ( non refrash pro) avrà 32 giga condivisi.

fraussantin
21-06-2023, 14:19
Equilibrio, questa parola sconosciuta, bisogna fare le iperboli sui 24gb contro 12 quando a quel farab... bastava mettere 16gb standard per stare semplicemente "a posto" per tutta la gen e "un tot" e stop. Invece no, ha calibrato la ram per tenerti al pelo dell'acquisto del piffero che, ti piaccia o meno, invecchierà MALE perchè già oggi è al limite della decenza, finita li'. Non si è MAI trattato di avere settordicimila inutili gb per stare tranquilli per 10 anni, non è mai stato posto il discorso in quel modo. Si tratta di dimensionare le cose non a danno del cliente che è esattamente quello che ha fatto er jacco. Facendo una analogia, se ho una stringa fotovoltaica che mi genera 9,5 Ampere, non vado a mettere un fusibile da 10 che lavorerà al pelo e in qualche condizione operativa potrebbe creare grane, ma glielo si piazza da 12 per avere giusto un po' di elasticità operativa. Ora può pure passare su una gpu da 500 o 600 (non per me) avere la ram calibrata col dito medio rivolto verso l'acquirente, ma per una da 8-900 decisamente NO. Io la vedo così, poi giustamente ognuno è libero di fare come crede :).Si ma ci sono millemila motivi tecnici per cui decidono di fare un chip in un determinato modo.
Non è che possono aumentare o dinimuire ram o bus a caso.


L'unica cosa su cui possiamo lamentarci è su come li chiamano e su come li prezzano .( Che sono strettamente collegate come cose)

Ale55andr0
21-06-2023, 14:22
Non prendiamoci in giro per piacere "i millemila motivi" sono UNO: fare più soldi possibili spendendo il meno possibile. E lo capisco al 100%, ma si deve anche avere il senso della misura, e in questa gen hanno OLTREMODO pisciato fuori dal vaso

Cmq si, credo ance io che la nex gen di console avrà 32gb unificati, o a limite 24 per usare un bus ampio e vere tanta banda senza richiedere ram ultra cloccate, anche se samsung è già a 36gbps

fraussantin
21-06-2023, 14:36
Non prendiamoci in giro per piacere "i millemila motivi" sono UNO: fare più soldi possibili spendendo il meno possibile. E lo capisco al 100%, ma si deve anche avere il senso della misura, e in questa gen hanno OLTREMODO pisciato fuori dal vaso

Cmq si, credo ance io che la nex gen di console avrà 32gb unificati, o a limite 24 per usare un bus ampio e vere tanta banda senza richiedere ram ultra cloccate, anche se samsung è già a 36gbpsArchitettura , alimentazione , equilibrio , e altri motivi .

Poi che sia fare soldi ok , che siano schede pensate per altro e ripiegate sul gaming ok . Ma non puoi cambiare bus a caso su una scheda.

Possiamo discutere su come hanno tagliato i chip su quanto costano e se su quel prezzo potevano raddoppiare le memorie e rientrarci lo stesso. Questo si.

Ale55andr0
21-06-2023, 15:44
se tu pensi che la 70 sia stata declassata a 192bit per "alimentazione, equilbirio, architettura" mi limito a dire: :sbonk:

Ubro92
21-06-2023, 16:17
se tu pensi che la 70 sia stata declassata a 192bit per "alimentazione, equilbirio, architettura" mi limito a dire: :sbonk:

AD104 come complessità e dimensioni del die non è molto diverso da GA106.
Il problema non sono i chip, ma il loro posizionamento sul mercato.

Essendoci un grosso salto di nodo ne hanno approfittato cercando di massimizzare i guadagni soprattutto nella fascia media e bassa.

Probabilmente con Blackwell dovrebbe esserci un riallineamento, dato che il salto di nodo è decisamente più modesto, e con l'arrivo delle GDDR7 puoi bilanciare meglio i chip avendo circa 576 GB/s su un bus a 128bit.

X360X
21-06-2023, 16:39
Ma ok che NVIDIA poteva fare le VGA diversamente, però resta il fatto che se hai la potenza di una 4070 liscia\3080 in 4K nativo non ci vai bene nemmeno senza RT, puoi anche farle a 384bit e 20GB, il discorso quello è.

Cioè ci vai, per gli amanti dello spendere soldi per far girare i giochi ps5-style ma a nativa, cosa che non credo interessi a tanti PCisti che quindi con quella potenza andranno al 99% di qhd, anche perché per lo più stanno su monitor (e su TV le console upscalano quasi sempre, quindi se le VGA hanno DLSS\FSR\XeSS io dico che non c'è nulla di male usarcele in quel modo).

E se i giochi diventano più pesanti per avere più framerate a qualcosa bisognerà rinunciare per forza di cose quindi il setting maximo non lo si avrà lo stesso (se non si ricorre al DLSS, ma là si abbassa pure il consumo di VRAM per cui...).

Il discorso è semplice e esula dalle scelte (rivedibili) di NVIDIA: se si vuole testare la VRAM utilizzata bisognerebbe farlo coi settings che metterebbe il 99% dei pcisti, no a caso anche a costo di mandare un gioco a 30fps (quando uno potendo ne farebbe 100+ senza problemi, perché si nota eccome poi dipende dal gioco). oppure a costo di mettere un'opzione che nemmeno negli screenshots solo per poter dire "è maxato"

Esempio: con una 4070\3080 a ultra+RT non ci giochi a hogwarts legacy nemmeno in QHD, perché tanto i 60 non te li regge, l'esperienza di gioco così penosa il PCista tipico non la vuole (tanto più poi con l'RT di quel gioco che è solo ottimizzato da cani, mica è speciale).
E che me ne frega quindi quanta VRAM occupa coi settings che non posso tenere dignitosamente? Magari mi interessa invece il qhd a ultra senza RT, dove accontentandosi del minimo sindacale, i 60fps, il gioco credo giri bene e li tiene (semmai si trova qualche altra opzione da ritoccare). E allora sono 10GB di VRAM occupati hogwarts legacy a settings fattibili per 4070\3080, ci rientra anche la 3080 da 10GB

come si vede qua
https://tpucdn.com/review/hogwarts-legacy-benchmark-test-performance-analysis/images/performance-2560-1440.png
https://tpucdn.com/review/hogwarts-legacy-benchmark-test-performance-analysis/images/min-fps-2560-1440.png
60fps si tengono solo qhd ultra senza RT, quindi 10GB di VRAM per la potenza della 3080 sono del tutto sufficienti in quel gioco, va come una 6800XT.
senza offesa per gli amanti del gaming a 30fps che vorranno 16GB su una 3080 per poterci giocare male...ma con RT :asd:

questo è un esempio, ce ne saranno sicuro altri, mentre altre volte potrà servire più VRAM, non dico sia impossibile, dico solo di valutare le cose con cognizione di causa no col "maxo tutto a casaccio e vedo la VRAM occupata"

OrazioOC
21-06-2023, 17:05
Che schifezza di scheda

https://videocardz.com/newz/nvidia-geforce-rtx-4060-is-up-to-18-faster-than-rtx-3060-in-first-leaked-benchmarks

E questi test sono pure lusinghieri nei confronti di ada rispetto ad ampere.
Guardate quanto stacco da' la 4060 ti alla 3060 ti.:D

In game per me se gli da' un 10% di stacco la 4060 alla 3060 è già molto.:)

LurenZ87
21-06-2023, 18:37
Ragazzi qualcuno che ha acquistato dal sito Nvidia mi sa dire i costi della spedizione, le tempistiche e il servizio assistenza in caso di RMA? Potete rispondermi anche in privato per non inquinare la conversazione, grazie :).

Ale55andr0
21-06-2023, 19:16
Ma ok che NVIDIA poteva fare le VGA diversamente, però resta il fatto che se hai la potenza di una 4070 liscia\3080 in 4K nativo non ci vai bene nemmeno senza RT, puoi anche farle a 384bit e 20GB, il discorso quello è.


Poi dici di non voler giustificare. Insomma o di pizzo o de chiatto ha fatto bene se dobbiamo leggere la tua interpretazione di cui sopra MA poi dici "Scelta rivedibile?" Allora le cose sono due: o ha fatto una cosa sbagliata, o non l'ha fatta, non ci sono vie di mezzo perchè se non serve, non serve perchè "tanto giochi male etc" (fra parentesi, e chi l'ha detto? che centrano le texture che non ti vengono segate e l'assenza di stutter da ram insufficiente coi "30fps in rt che tanto non ce la fa?" E se io voglio maxare in raster e me batto ALTAMENTE dell'RT?!). Giustificare 12 fetentissimi gb su una gpu da novecento euro è semplicemente assurdo, qualunque arrampicata ci si voglia cucire sopra. Premettere ogni 2*3 "non per giustificare" (hai esordito diverse volte così in merito) fare lo spiegone e poi dire "eh ma poteva far diversamente" è palesemente giustificare.

Ale55andr0
21-06-2023, 19:31
questo è un esempio, ce ne saranno sicuro altri, mentre altre volte potrà servire più VRAM, non dico sia impossibile, dico solo di valutare le cose con cognizione di causa no col "maxo tutto a casaccio e vedo la VRAM occupata"

E questo fa il paio con l'iperbole dei 24 effettivamente "inutili" gb contro i tiratissimi 12gb. Perchè si devono cercare estremismi o esempi random? Chi è questo BEOTA fra di noi che agisce nel modo in cui dici? Il punto è sempre stato uno:

è giustificabile fare una gpu che costa un botto (a noi) e poi fare i pezzenti micragnosi sulla ram?

Ci vuole tanto a rispondere a questo semplicissimo quesito senza fare free climbing?

ColdWarGuy
21-06-2023, 19:45
Ma ok che NVIDIA poteva fare le VGA diversamente, però resta il fatto che se hai la potenza di una 4070 liscia\3080 in 4K nativo non ci vai bene nemmeno senza RT, puoi anche farle a 384bit e 20GB, il discorso quello è.

Cioè ci vai, per gli amanti dello spendere soldi per far girare i giochi ps5-style ma a nativa, -snip

Quindi siamo al punto che per far girare i giochi PS5 style serve una GPU da 900-1000 euro + tutto il resto ?

Sonpazzo
21-06-2023, 20:04
La vram non ha mai contato una cippa. Millemila gb per poi non starci dietro con il resto. La vram è" l'ultima" cosa da guardare in una vga

Sonpazzo
21-06-2023, 20:06
Una 4090 con 8 gb di vram, farebbe girare gli stessi giochi alla stessa velocità, lasciando perdere se si satura o meno.

Ale55andr0
21-06-2023, 20:09
Una 4090 con 8 gb di vram, farebbe girare gli stessi giochi alla stessa velocità, lasciando perdere se si satura o meno.

non diciamo corbellerie. Tanto per cominciare con 8gb avresti meno bus e quindi , meno banda passante = meno prestazioni, di default, anche se non li saturassi gli 8gb.
Se poi parliamo di 2k/4k coi giochi attuali la corbelleria che hai sparato la moltiplichiamo x3

Besk
21-06-2023, 20:56
Sono d'accordo anche io
Non ha senso quello che dici :asd:

argez
21-06-2023, 21:01
Una 4090 con 8 gb di vram, farebbe girare gli stessi giochi alla stessa velocità, lasciando perdere se si satura o meno.

:eek: :eek: :eek:
Ah certo se fa come la 3070 in forspoken che non cambia le textures da normali a ultra ci fai girare tutto con 8gb.

StylezZz`
21-06-2023, 21:19
Ma Forspoken nemmeno andrebbe nominato, davvero c'è qualcuno che ci gioca?...

https://i.redd.it/pcvfc05qi0ea1.jpg

X360X
21-06-2023, 21:33
Poi dici di non voler giustificare. Insomma o di pizzo o de chiatto ha fatto bene se dobbiamo leggere la tua interpretazione di cui sopra MA poi dici "Scelta rivedibile?" Allora le cose sono due: o ha fatto una cosa sbagliata, o non l'ha fatta, non ci sono vie di mezzo perchè se non serve, non serve perchè "tanto giochi male etc" (fra parentesi, e chi l'ha detto? che centrano le texture che non ti vengono segate e l'assenza di stutter da ram insufficiente coi "30fps in rt che tanto non ce la fa?" E se io voglio maxare in raster e me batto ALTAMENTE dell'RT?!). Giustificare 12 fetentissimi gb su una gpu da novecento euro è semplicemente assurdo, qualunque arrampicata ci si voglia cucire sopra. Premettere ogni 2*3 "non per giustificare" (hai esordito diverse volte così in merito) fare lo spiegone e poi dire "eh ma poteva far diversamente" è palesemente giustificare.

Ma sei tu che te le canti e te le suoni da solo eh, sarò stato il primo a dire "no ma la 4070Ti costa veramente troppo per quel bus\vram" e che il listino si è tutto spostato al rialzo (semmai ho giustificato la 4090 perché è l'eredità Titan e sono sempre costate anche follie) per cui...

Se valuto i giochi in modo decente è per difendere nvidia? o c'è un qualche obbligo di piangere ogni 2 post su prezzi ecc? Sono abbastanza convinto che NVIDIA tanto non legga qua.

cioè ovvio che hogwarts legacy lo valuto al massimo setting per almeno 60fps stabili, che su una 3080\4070\4070Ti è qhd ultra senza RT perché quello permettono, su una 3070 è qhd con delle opzioni in meno di ultra e senza RT. E la VRAM mi interessa in quei casi, no in quelli in cui le VGA vanno da schifo. Non è vero che è sempre stato fatto, ci sono eccome discussioni con settings ridicoli per impatto grafico\prestazionale.

Idem mi interessano il DLSS, il DLSS3 dove usabile bene, il DLAA e i consumi. E poco mi frega quando è un pro e quando no. Non è il thread "parliamo di qualcosa solo se è per criticare nvidia", idem fosse AMD.
Per quello prova su qualche canale social loro magari ti leggono.

Quindi siamo al punto che per far girare i giochi PS5 style serve una GPU da 900-1000 euro + tutto il resto ?

Eh ma il 4K nativo pesa un botto di più del qhd (non a caso le console tendono sempre a upscalare da res più basse, su Diablo 4 che pure è leggero addirittura toccano una res più bassa del QHD), si può benissimo passare da 100fps in qhd nativo ad arrampicarsi sugli specchi per averne 60 in 4K nativo per dire.

se vuoi fare un salto cosi ampio di risoluzione di potenza ce ne vuole, anche abbassassero i prezzi non è qualcosa da dire "si ci sto dietro facile" se non vuoi usare il DLSS\alternative. Ci stai dietro aggiorando più a breve e pagando bei soldi se l'ambizione è quella, c'è poco da fare.

fraussantin
21-06-2023, 23:16
Si ma ps5 style è 4k nativo a 30 fps dettagli ottimizzati.
Non serve una 4070.
Secondo me una 6800xt basta ma forse anche di meno.

Il vero problema è che i pcista col cacchio che gioca a 30 fps

X360X
21-06-2023, 23:49
Si ma ps5 style è 4k nativo a 30 fps dettagli ottimizzati.
Non serve una 4070.
Secondo me una 6800xt basta ma forse anche di meno.

Il vero problema è che i pcista col cacchio che gioca a 30 fps

Ma una 4070 mica va meglio di una 6800XT in raster, sta là con quella e la 3080 al di là del DLSS3 (anzi se si usa il 4K nativo ci perderà pure per via del bus). forse intendevi la Ti.

finora il target di PS5 è stato avere una modalità circa-qhd a 60 con dettagli ottimizzati, per poi upscalare a 4K (molto più sensato di spingere la res o i dettagli per giocare a 30). ecco pure perché fa tanto storcere il naso starfield a 30 obbligati su xbox come unica modalità, fai abituare ai 60 e mi torni a 30 è un po' "welcome back to PS4"...

Vik94
22-06-2023, 01:23
Architettura , alimentazione , equilibrio , e altri motivi .

Poi che sia fare soldi ok , che siano schede pensate per altro e ripiegate sul gaming ok . Ma non puoi cambiare bus a caso su una scheda.

Possiamo discutere su come hanno tagliato i chip su quanto costano e se su quel prezzo potevano raddoppiare le memorie e rientrarci lo stesso. Questo si.
Più "altri motivi" che equilibrio, architettura e alimentazione.
Che equilibrio vuoi che ci sia se un prodotto diventa un fermacarte per la poca vram?
Potevano giungere a compromessi diversi, giocando anche sui cuda e gpc e considerare dei bus più sensati e compatibili con i tagli di memoria disponibili e le richieste dei giochi.
Arrivare a raddoppiare le memorie quella sì che è una scemenza. Hai lo svantaggio del costo doppio di memoria (non credo ci siano i chip da 4 GB), quando magari ti bastava un 1.5x volte. Risparmi qualcosa nel chip e nel pcb (credo), ma perdi in banda passante e quindi anche in prestazioni.


AD104 come complessità e dimensioni del die non è molto diverso da GA106.
Il problema non sono i chip, ma il loro posizionamento sul mercato.

Essendoci un grosso salto di nodo ne hanno approfittato cercando di massimizzare i guadagni soprattutto nella fascia media e bassa.

Probabilmente con Blackwell dovrebbe esserci un riallineamento, dato che il salto di nodo è decisamente più modesto, e con l'arrivo delle GDDR7 puoi bilanciare meglio i chip avendo circa 576 GB/s su un bus a 128bit.
Ma anche i chip stessi sono un problema, se poi è un casino piazzarli in fasce sensate. Per forza doveva esserci un chip a 128 bit da "gaming"? Lo stesso vale anche dall'altra parte, dove la loro miopia gli ha fatto spendere soldi per un chip di prestazioni identiche a N23 che sono stati costretti a vendere come 7600 senza XT.

ColdWarGuy
22-06-2023, 01:27
Ragazzi qualcuno che ha acquistato dal sito Nvidia mi sa dire i costi della spedizione, le tempistiche e il servizio assistenza in caso di RMA? Potete rispondermi anche in privato per non inquinare la conversazione, grazie :).

Che scheda prendi ?

ColdWarGuy
22-06-2023, 01:56
-snip

Eh ma il 4K nativo pesa un botto di più del qhd (non a caso le console tendono sempre a upscalare da res più basse, su Diablo 4 che pure è leggero addirittura toccano una res più bassa del QHD), si può benissimo passare da 100fps in qhd nativo ad arrampicarsi sugli specchi per averne 60 in 4K nativo per dire.

se vuoi fare un salto cosi ampio di risoluzione di potenza ce ne vuole, anche abbassassero i prezzi non è qualcosa da dire "si ci sto dietro facile" se non vuoi usare il DLSS\alternative. Ci stai dietro aggiorando più a breve e pagando bei soldi se l'ambizione è quella, c'è poco da fare.

Personalmente non ho problemi ad usare il DLSS, se non con alcuni giochi dove è implementato da cane vedi Dead Space remake, ne critico però l'inserimento dei relativi FPS nelle chart di confronto per il semplice motivo che non è implementato in tutti i games.

Comunque il mio punto è il seguente : il rapporto di resa/costo del PC si sta progressivamente abbassando grazie a queste politiche di costo ingorde.

Poi ovvio che un PC che costa 4/5 volte una PS5 / Xbox X sia più performante in 4K nativo, ma a mio avviso il rateo non è bilanciato in modo ragionevole.

fraussantin
22-06-2023, 06:36
Ma una 4070 mica va meglio di una 6800XT in raster, sta là con quella e la 3080 al di là del DLSS3 (anzi se si usa il 4K nativo ci perderà pure per via del bus). forse intendevi la Ti.

finora il target di PS5 è stato avere una modalità circa-qhd a 60 con dettagli ottimizzati, per poi upscalare a 4K (molto più sensato di spingere la res o i dettagli per giocare a 30). ecco pure perché fa tanto storcere il naso starfield a 30 obbligati su xbox come unica modalità, fai abituare ai 60 e mi torni a 30 è un po' "welcome back to PS4"...Su starfield secondo me hanno pesato costi \ benefici \ scimmia\esclusività\gamepass e hanno deciso che investire per ottimizzare il gioco e farlo viaggiare a 60 non era necessario.

Sono curioso di vedere quanto bestemmieremo su pc.

Ps nel senso che un conto è appiccicare texture e luci che cmq devi fare per la versione pc al gioco e via un altro è dover rivedere tutta la fisica , e ottimizzare i calcoli per farlo andare a 60 magari con una grafica da oldgen.

Su pc mediamente abbiamo cpu mostruose che faranno il lavoro dei programmatori come al solito :asd:

Ale55andr0
22-06-2023, 06:56
su Starfield han ben spiegato che avere i 60 frame con quel tipo di gioco significavano troppe rinunce lato grafica, quindi han preferito 30, ovviamente stabili, e una resa visiva più appagante. Ed è un discorso che us console vale anche per altri titoli. Nel 27-28, a camparci, forse avremo console da 4k nativi a 60fps.

fraussantin
22-06-2023, 07:19
su Starfield han ben spiegato che avere i 60 frame con quel tipo di gioco significavano troppe rinunce lato grafica, quindi han preferito 30, ovviamente stabili, e una resa visiva più appagante. Ed è un discorso che us console vale anche per altri titoli. Nel 27-28, a camparci, forse avremo console da 4k nativi a 60fps.Io avessi avuto una xbox avrei preferito scegliere.

Magari lo tieni a 30 per un pochino per guardare la "grafica" ma per giocare specialmente nelle fasi di shooting , 30 fps anche no.

Anche se per carità lo shooting che hanno mostrato non è nulla di che'.


Riguardo Alle prossime si 4k 60 sempre se non useranno l'8k come spinta di marketing.

Perche sulle tv di un certo livello il 1080p rende parecchio bene. Ma 4k anche se a 30 fps fa figo .

argez
22-06-2023, 07:50
Ma Forspoken nemmeno andrebbe nominato, davvero c'è qualcuno che ci gioca?...


Non è una questione di forspoken, il punto è che hanno adottato un "fix" per le schede da 8gb.

Ubro92
22-06-2023, 08:07
Più "altri motivi" che equilibrio, architettura e alimentazione.

Che equilibrio vuoi che ci sia se un prodotto diventa un fermacarte per la poca vram?

Potevano giungere a compromessi diversi, giocando anche sui cuda e gpc e considerare dei bus più sensati e compatibili con i tagli di memoria disponibili e le richieste dei giochi.

Arrivare a raddoppiare le memorie quella sì che è una scemenza. Hai lo svantaggio del costo doppio di memoria (non credo ci siano i chip da 4 GB), quando magari ti bastava un 1.5x volte. Risparmi qualcosa nel chip e nel pcb (credo), ma perdi in banda passante e quindi anche in prestazioni.







Ma anche i chip stessi sono un problema, se poi è un casino piazzarli in fasce sensate. Per forza doveva esserci un chip a 128 bit da "gaming"? Lo stesso vale anche dall'altra parte, dove la loro miopia gli ha fatto spendere soldi per un chip di prestazioni identiche a N23 che sono stati costretti a vendere come 7600 senza XT.Ma il fatto é che hai un salto di nodo abominevole quindi anche schedine che in teoria sono complesse come una 3050 o addirittura inferiore, ti vanno a prendere le x60 e x70 di gen precedente.

I 128bit per una entry level con un chippino da 190mm2 nel caso di 4060ti e 146mm2 per la 4060 sono nella norma, anche la 3050 era così con un die di 200mm2, 128bit e Pcie tagliato a 8x.

In questa gen il problema sta nella nomenclatura e relativo msrp, Nvidia non solo ha traslato le fasce ma ha anche alzato il corrispettivo msrp, comunque gli street price stanno calando e penso che verso fine anno già la situazione dovrebbe essere più tollerabile.


Inviato dal mio M2012K11AG utilizzando Tapatalk

ninja750
22-06-2023, 08:13
La vram non ha mai contato una cippa. Millemila gb per poi non starci dietro con il resto. La vram è" l'ultima" cosa da guardare in una vga

Una 4090 con 8 gb di vram, farebbe girare gli stessi giochi alla stessa velocità, lasciando perdere se si satura o meno.

quindi Giacco perchè ne ha infilati 24 e non 8? tirchieria per tirchieria :sofico:

OrazioOC
22-06-2023, 08:13
Ma il fatto é che hai un salto di nodo abominevole quindi anche schedine che in teoria sono complesse come una 3050 o addirittura inferiore, ti vanno a prendere le x60 e x70 di gen precedente.

I 128bit per una entry level con un chippino da 190mm2 nel caso di 4060ti e 146mm2 per la 4060 sono nella norma, anche la 3050 era così con un die di 200mm2, 128bit e Pcie tagliato a 8x.

In questa gen il problema sta nella nomenclatura e relativo msrp, Nvidia non solo ha traslato le fasce ma ha anche alzato il corrispettivo msrp, comunque gli street price stanno calando e penso che verso fine anno già la situazione dovrebbe essere più tollerabile.


Inviato dal mio M2012K11AG utilizzando Tapatalk

Sarà, ma nel mentre, con le 3060 ti gddr6x a 350 euro spedite, chi me lo fa fare di prendere una 4060 ti a 450 euro? :rolleyes:

Al momento è nvidia contro nvidia(o anche amd contro amd, visto che alla 7600 molti gli preferiscono la 6700 xt).
Per me JHH le ha lanciate consapevolmente in sovraprezzo, così almeno sanno a chi rifilare le enormi scorte di ampere ancora in giro. :D

Ubro92
22-06-2023, 08:19
Sarà, ma nel mentre, con le 3060 ti gddr6x a 350 euro spedite, chi me lo fa fare di prendere una 4060 ti a 450 euro? :rolleyes:



Al momento è nvidia contro nvidia(o anche amd contro amd, visto che alla 7600 molti gli preferiscono la 6700 xt).

Per me JHH le ha lanciate a posta sovraprezzate, così almeno sanno a chi rifilare le enormi scorte di ampere ancora in giro. :DMa anche meno, la 4060ti sta calando sotto i 400€, e anche la 3060ti te le porti a casa nuova già dai 320€.

Penso che finché ci sarà la gen precedente da smaltire questa sarà la situazione...

Anche AMD ha utilizzato la stessa strategia marketing e stanno vendendo schede di entrambe le gen.

Penso che già verso fine anno gli street price dovrebbero essere migliori, poi se tutto va bene dovrebbe essere rilasciato anche l'FSR3 che in teoria dovrebbe ridurre l'impatto del marketing farlocco dato dal dlss3.

Inviato dal mio M2012K11AG utilizzando Tapatalk

OrazioOC
22-06-2023, 08:25
https://videocardz.com/newz/nvidia-geforce-rtx-4060-pricing-at-european-retailer-goes-from-e349-to-e499

499 euro per una 4060 liscia. XD

Cutter90
22-06-2023, 08:44
Su starfield secondo me hanno pesato costi \ benefici \ scimmia\esclusività\gamepass e hanno deciso che investire per ottimizzare il gioco e farlo viaggiare a 60 non era necessario.

Sono curioso di vedere quanto bestemmieremo su pc.

Ps nel senso che un conto è appiccicare texture e luci che cmq devi fare per la versione pc al gioco e via un altro è dover rivedere tutta la fisica , e ottimizzare i calcoli per farlo andare a 60 magari con una grafica da oldgen.

Su pc mediamente abbiamo cpu mostruose che faranno il lavoro dei programmatori come al solito :asd:

Poi, non so perchè la gente non lo ricorda ma Bethesda tecnicamente è sempre stata molto molto mediocre. Graficamente non ha mai tirato fuori bei giochi.
Sinceramente una modalità a 60 era sacrosanta ed è vergognoso non ci sia, non ci sono scuse tecniche che tengano. La storia del "volevamo spingere sulla grafica" è assurda considerando che la grafica sarà come al solito per lo studio, mediocre.
Semplicemente visto che tanto sarà nel gamepass gli frega zero di ottimizzarlo, tanto MS i soldi glieli danno indistintamente da quanto "vende".
Ed è per questo che il modello del gamepass io non lo vedo assolutamente un bene per il mondo del gaming.

Cfranco
22-06-2023, 08:53
https://videocardz.com/newz/nvidia-geforce-rtx-4060-pricing-at-european-retailer-goes-from-e349-to-e499

499 euro per una 4060 liscia. XD
:asd:
500 bombe :rotfl:
E un dissy da 3 slot :hic:

Sono pazzi questi dell' Asus :sofico:

OrazioOC
22-06-2023, 08:55
:asd:
500 bombe :rotfl:
E un dissy da 3 slot :hic:

Sono pazzi questi dell' Asus :sofico:

Il tutto per una scheda che in raster va' poco meglio di una 2070 5 anni dopo. :asd:

ColdWarGuy
22-06-2023, 09:10
:asd:
500 bombe :rotfl:
E un dissy da 3 slot :hic:

Sono pazzi questi dell' Asus :sofico:

Sono pazzi quelli che gliela comprano per il gusto di avere la cassa da morto con le lucine, della serie GPU base ma in case enorme, ovviamente dotato di ampie vetrate.

IL PC gaming ha preso una svolta demenziale, capisco che anche l'occhio vuole la sua parte ma qui ormai il focus è tutto concentrato in dettagli prettamente cosmetici che hanno fatto salire i prezzi a livelli insensati.

Ma così è se vi pare.

bagnino89
22-06-2023, 09:12
https://videocardz.com/newz/nvidia-geforce-rtx-4060-pricing-at-european-retailer-goes-from-e349-to-e499

499 euro per una 4060 liscia. XD

Praticamente costa di più il dissipatore che la scheda.

Robe da matti.

Alodesign
22-06-2023, 09:26
A che servono 3 ventole per una scheda da 116W?

:rolleyes:

OrazioOC
22-06-2023, 09:41
A che servono 3 ventole per una scheda da 116W?

:rolleyes:

A truffare le persone o ad alimentare l'ego di certi guru della pcmasterrace. :asd:

Ubro92
22-06-2023, 09:53
A truffare le persone o ad alimentare l'ego di certi guru della pcmasterrace. :asd:

Meno male che i bios sono locked, altrimenti molte 4060 potevano trasformarsi magicamente in 4080 :sofico:

ninja750
22-06-2023, 10:14
A che servono 3 ventole per una scheda da 116W?

:rolleyes:

vuoi mica fare perdere tempo ai tuoi tecnici nel progettare un dissipatore per ogni vga che vendi no? ne progetti uno per la top e lo spammi su tutta la linea, peccato che sulla 4080 l'impatto di prezzo sarà 10% qui 50%

R@nda
22-06-2023, 10:53
vuoi mica fare perdere tempo ai tuoi tecnici nel progettare un dissipatore per ogni vga che vendi no? ne progetti uno per la top e lo spammi su tutta la linea, peccato che sulla 4080 l'impatto di prezzo sarà 10% qui 50%

Si ma per noi...a loro quel dissipatore costerà (ventole e back completo) 15€ finito e il mio falegname lo fa meglio.
Però posso pompare il prezzo e qualcuno ci casca.

ColdWarGuy
22-06-2023, 10:58
Acquisti di GPU HPC per un miliardo nel solo 2023 ed altri ordini a venire da parte di alcune aziende cinesi :

According to news publication Jitwei, ByteDance has placed orders totaling $1 billion so far this year with Team Green—the report suggests that a mix of A100 and H800 GPU (https://www.techpowerup.com/310250/chinese-tech-firms-buying-plenty-of-nvidia-enterprise-gpus)

fraussantin
22-06-2023, 13:59
quindi Giacco perchè ne ha infilati 24 e non 8? tirchieria per tirchieria :sofico:In teoria la 4090 sarebbe una titan per usi pro.

Ma poi visto che la comprano i gamer a 2 testoni perche non fare giochi che saturano la memoria?

Il punto è quello piu roba metti meno le case produttrici si impegnano ( spendendo)

Io mi ricordo di far cry 5 che 8 giga non bastavano in 2k per le texture hd che erano le stesse o quasi di quelle sd upscalate.

Vik94
22-06-2023, 14:54
Ma il fatto é che hai un salto di nodo abominevole quindi anche schedine che in teoria sono complesse come una 3050 o addirittura inferiore, ti vanno a prendere le x60 e x70 di gen precedente.

I 128bit per una entry level con un chippino da 190mm2 nel caso di 4060ti e 146mm2 per la 4060 sono nella norma, anche la 3050 era così con un die di 200mm2, 128bit e Pcie tagliato a 8x.

In questa gen il problema sta nella nomenclatura e relativo msrp, Nvidia non solo ha traslato le fasce ma ha anche alzato il corrispettivo msrp, comunque gli street price stanno calando e penso che verso fine anno già la situazione dovrebbe essere più tollerabile.


Inviato dal mio M2012K11AG utilizzando Tapatalk
Capisco cosa vuoi dire, ma il punto è che i chip e la loro nomenclatura sono collegati. I tagli di bus e cuda core vanno gestiti in base alla gamma da costruire, non il contrario.
Questi sono partiti con degli insensati chip a 128 bit perché... perché sì, perché bisognava limitare a 128 in fascia "bassa". Una fascia storicamente con prodotti nati per fare schifo, per far sembrare più intelligenti le soluzioni di amd, e ora con la loro grande lungimiranza stanno cercando di rifilare prodotti nati morti al doppio del prezzo. Un AD106 a 192 bit e 12 GB di ram sarebbe stato molto più appetibile e vendibile. Sempre la struttura da 4050 mascherata, ma con un taglio di memoria sensato ai tempi odierni.

OrazioOC
22-06-2023, 14:58
https://videocardz.com/newz/nvidia-claims-geforce-rtx-4060-is-20-faster-than-rtx-3060-without-frame-generation

Da notare come non abbiano neanche specificato la versione della 3060 in uso. :D

Se è la 3060 8gb, con quel 20% in più di performance a stento batte la 3060 vera con 12gb. :doh:

Kvarat
22-06-2023, 15:15
https://videocardz.com/newz/nvidia-claims-geforce-rtx-4060-is-20-faster-than-rtx-3060-without-frame-generation

Da notare come non abbiano neanche specificato la versione della 3060 in uso. :D

Se è la 3060 8gb, con quel 20% in più di performance a stento batte la 3060 vera con 12gb. :doh:

E' l'unico modo che hanno per vendere ancora la serie 3000. Se guardi Caseking hanno a listino 12, no dico 12, diverse 3060ti. In pratica hanno creato un buco dove infilarci il nuovo tra le schede vecchie. Sono geniali.

nessuno29
22-06-2023, 20:32
vuoi mica fare perdere tempo ai tuoi tecnici nel progettare un dissipatore per ogni vga che vendi no? ne progetti uno per la top e lo spammi su tutta la linea, peccato che sulla 4080 l'impatto di prezzo sarà 10% qui 50%

In realtà è un guscio di plastica vuoto il dissipatore interno è molto meno fitto.

Cfranco
23-06-2023, 05:48
In realtà è un guscio di plastica vuoto il dissipatore interno è molto meno fitto.

Insomma siamo al livello dei reggiseni imbottiti e del cotone nelle mutande per nascondere quanto schifo faccia la scheda :mc:

fraussantin
24-06-2023, 07:35
Già che quelle schede ai prezzi rog rog ne venderanno 4 in croce e le venderanno solo per fare figa la postazione da mostrare sui social , non è una scelta sbagliata non investirci .

Anzi capace che creare una linea produttiva apposita per quelle gli sarebbe costato di più.

Piuttosto credo che affiancheranno delle versioni monoventola che saranno anche le più sensate per questa scheda.

OrazioOC
25-06-2023, 12:32
https://videocardz.com/newz/nvidia-geforce-rtx-4060-is-on-average-23-faster-than-rtx-3060-12gb-in-3dmark-tests

Come faccia ad avere quei punteggi nonostante abbia 2/3 della potenza di calcolo della 4060ti è un bel mistero misterioso...

nessuno29
25-06-2023, 13:06
https://videocardz.com/newz/nvidia-geforce-rtx-4060-is-on-average-23-faster-than-rtx-3060-12gb-in-3dmark-tests

Come faccia ad avere quei punteggi nonostante abbia 2/3 della potenza di calcolo della 4060ti è un bel mistero misterioso...

Più o meno è quanto ci si aspettava, tra 3060 e 3060ti ma più vicina alla prima, bello schifo.

Ubro92
25-06-2023, 13:08
Più o meno è quanto ci si aspettava, tra 3060 e 3060ti ma più vicina alla prima, bello schifo.2070 Super 🤣

Inviato dal mio M2012K11AG utilizzando Tapatalk

lordsnk
25-06-2023, 14:30
Più o meno è quanto ci si aspettava, tra 3060 e 3060ti ma più vicina alla prima, bello schifo.

E' palese che questa scheda è una 4050 non una 4060 :muro:

Dono89
25-06-2023, 14:48
128bit. Basta questo per lasciarla lì

Kvarat
25-06-2023, 15:01
Più o meno è quanto ci si aspettava, tra 3060 e 3060ti ma più vicina alla prima, bello schifo.

Con l'uscita dei drivers dedicati la faranno andare come la 3060ti e tutti saranno contenti :D

OrazioOC
25-06-2023, 16:58
Più o meno è quanto ci si aspettava, tra 3060 e 3060ti ma più vicina alla prima, bello schifo.

Mah ti dirò mi aspettavo molto peggio in proporzione ai tflops della scheda, però meglio se aspettiamo anche i bench sui giochi. :rolleyes:

nessuno29
25-06-2023, 16:59
Con l'uscita dei drivers dedicati la faranno andare come la 3060ti e tutti saranno contenti :D

O meglio faranno andare la 3060ti come la 4060 e saranno tutti contenti ahah

Kvarat
25-06-2023, 19:03
O meglio faranno andare la 3060ti come la 4060 e saranno tutti contenti ahah

Ci sono così tante 3060ti in giro che l'idea non sarebbe male. Comunque se ci fosse stata una scheda del genere 2 anni fa sarebbe stato clamoroso praticamente. Così hanno venduto l'incredibile di 3060ti ad oltre 500 euro per 2 anni e oltre. Con la 4060 a 300 euro ci riempiranno tutti i nuovi pc di fascia bassa in grado di essere usati anche con il 2k e consumare molto meno.

nessuno29
25-06-2023, 20:43
Ci sono così tante 3060ti in giro che l'idea non sarebbe male. Comunque se ci fosse stata una scheda del genere 2 anni fa sarebbe stato clamoroso praticamente. Così hanno venduto l'incredibile di 3060ti ad oltre 500 euro per 2 anni e oltre. Con la 4060 a 300 euro ci riempiranno tutti i nuovi pc di fascia bassa in grado di essere usati anche con il 2k e consumare molto meno.

Si ma alla 3060ti non ci arriverà nei giochi, quando scenderà sotto i 300 euro la prenderò come sostituta al pc con la 2060super.

Lan_Di
26-06-2023, 08:56
Si ma alla 3060ti non ci arriverà nei giochi, quando scenderà sotto i 300 euro la prenderò come sostituta al pc con la 2060super.

non arriverà alla 3060 ti, ma se le stime sono +20% rispetto la 3060 12GB,quindi non sarà nemmeno così distante.
La 4060 e la 3060 ti probabilmente saranno schede di pari livello, ovvero quando arrancherà una, lo farà bene o male anche l'altra.
Come sempre quello che quaglia poco è il prezzo, visto che la 3060 ti inizia a trovarsi sotto 330€ per cui siamo li anche su quello, manca sempre questo step evolutivo

ninja750
26-06-2023, 09:48
dovete guardare i grafici nvidia (*) non quelli del leak




(*) quelli con le barrette verdi e FG attivo, farà +50% sulla 3060ti :O

Saturn
26-06-2023, 10:07
Ma nVidia ha in programma un rinfresco della linee economiche delle proprie schede video o andremo ancora avanti per molto con la Geforce GT 730 e 1030 ?

Una 4010 e una 4030 sono in programma ? Per mera curiosità...:stordita:

R@nda
26-06-2023, 10:46
Ma nVidia ha in programma un rinfresco della linee economiche delle proprie schede video o andremo ancora avanti per molto con la Geforce GT 730 e 1030 ?

Una 4010 e una 4030 sono in programma ? Per mera curiosità...:stordita:

Si sa poco ancora ma posso mandarti un'anteprima leaked delle gpu:

https://i.ebayimg.com/images/g/fiEAAOSwEFxh3ZcN/s-l400.jpg

Saturn
26-06-2023, 10:55
Si sa poco ancora ma posso mandarti un'anteprima leaked delle gpu:

...roba che non sta dietro neanche alla gpu della "sega" master system...:asd:

Ubro92
26-06-2023, 11:35
Ma nVidia ha in programma un rinfresco della linee economiche delle proprie schede video o andremo ancora avanti per molto con la Geforce GT 730 e 1030 ?



Una 4010 e una 4030 sono in programma ? Per mera curiosità...:stordita:Quel genere di GPU penso che non le si vedranno più, considera che già la 4060 é un chippetto da 146mm² che é grosso come una MX 350 mobile 🤣

Al di sotto ci sono le IGP.

Al massimo faranno la 4050 desktop, stesso chip della 4060 ma con pl a 75-90w e probabilmente con 2560cc come la versione mobile, chip che dovrebbe rivaleggiare con la 2060 6gb.

Inviato dal mio M2012K11AG utilizzando Tapatalk

mikael84
26-06-2023, 13:15
https://videocardz.com/newz/nvidia-geforce-rtx-4060-is-on-average-23-faster-than-rtx-3060-12gb-in-3dmark-tests

Come faccia ad avere quei punteggi nonostante abbia 2/3 della potenza di calcolo della 4060ti è un bel mistero misterioso...

Ha il 29% in meno di ALU, ma tutto il resto è uguale, comprese le 48 rop's e le 3 primitive. E' un AD106 semplificato, con 4 TPC x 3 GPC.
https://i.postimg.cc/g25yKVqs/4060.png

E' tagliata per essere mediamente simile ad una 7600.

La 4060ti in linea teorica ha la potenza esatta della 3070ti, ma è tagliata dalla BW/cache, ecco perchè qualche volta si avvicinano.

Rispetto alla 3060ti, in alcuni stati è indietro, come rop's, geometria e BW, ma lato potenza non è poi così inferiore.
@2725 produce circa 16,7tf, la 3060ti@1900 circa 18,4 (10%).

OrazioOC
26-06-2023, 14:03
Ha il 29% in meno di ALU, ma tutto il resto è uguale, comprese le 48 rop's e le 3 primitive. E' un AD106 semplificato, con 4 TPC x 3 GPC.


E' tagliata per essere mediamente simile ad una 7600.

La 4060ti in linea teorica ha la potenza esatta della 3070ti, ma è tagliata dalla BW/cache, ecco perchè qualche volta si avvicinano.

Rispetto alla 3060ti, in alcuni stati è indietro, come rop's, geometria e BW, ma lato potenza non è poi così inferiore.
@2725 produce circa 16,7tf, la 3060ti@1900 circa 18,4 (10%).

Perfetto come sempre Mike, però ad oggi con quegli score, conviene molto di più questa liscia che non la TI, nonostante vi sia un gap che va' dal 15 al 20% di performance nei 3dmark.:rolleyes:

Possibile che AD106 sia talmente tanto castrata tra rops/tmus, pcie ecc...da non riuscire nel pratico ad andare meglio di così?
Una scheda del genere è veramente nata male...

OrazioOC
26-06-2023, 15:07
https://videocardz.com/newz/nvidia-geforce-rtx-4060-has-been-tested-in-cyberpunk-2077-oc-gives-1-increase-at-1080p-ultra-settings

mikael84
26-06-2023, 15:17
Perfetto come sempre Mike, però ad oggi con quegli score, conviene molto di più questa liscia che non la TI, nonostante vi sia un gap che va' dal 15 al 20% di performance nei 3dmark.:rolleyes:

Possibile che AD106 sia talmente tanto castrata tra rops/tmus, pcie ecc...da non riuscire nel pratico ad andare meglio di così?
Una scheda del genere è veramente nata male...

non tanto nata male, è più che altro un problema di nomenclatura.
Riprende la classica formula TPC x GPC, e di conseguenza, sarebbe dovuta essere la 4060 liscia perfetta.
A livello computazionale, la 4060ti, è addirittura un pelo più potente della 3070ti stock, ma ha grossi limiti se paragonate assieme.


Volendo essere pignoli, la 4060ti, avendo 3 GPC attivi, per essere una perfetta 4060, andava collegata ai 192bit. In quanto ogni GPC viene collegato a 64bit, x3 =192bit.

Per die, e per come è conciata, mischia caratteristiche da x50 e x60.

La 4060 liscia, è una 4050 a tutti gli effetti, con i dovuti limti. Qua il 128bit ci sta anche a livello di GPC, pur essendo 3, è come se fossero 2 classici.:)

mikael84
27-06-2023, 16:27
Il 2nm di TSMC, per ora stimato a 25k$, il 25% oltre i 3nm (20k$).
https://www.digitimes.com/news/a20230626PD220/2nm-tsmc.html

OrazioOC
27-06-2023, 17:38
Il 2nm di TSMC, per ora stimato a 25k$, il 25% oltre i 3nm (20k$).
https://www.digitimes.com/news/a20230626PD220/2nm-tsmc.html

Ah quell'odore di rtx 5030 spacciato per rtx 5060 a 500 dollari. :D

OrazioOC
27-06-2023, 18:38
Lunga vita alla 4090:D diventerà un chip HIGHLANDER

https://videocardz.com/newz/nvidia-to-introduce-ada-lovelace-successor-in-2025

A sto punto si che mi aspetto le RTX 4000 Super...

mikael84
27-06-2023, 18:55
Ah quell'odore di rtx 5030 spacciato per rtx 5060 a 500 dollari. :D

Non ci scherzerei molto.:p

Lunga vita alla 4090:D diventerà un chip HIGHLANDER

https://videocardz.com/newz/nvidia-to-introduce-ada-lovelace-successor-in-2025

Si l'aveva pubblicato Andreas Schilling nel suo twitter.
A sto punto bisogna vedere se le problematiche siano le disponibilità e le rese dei 3nm. Sicuramente, se è vero, JHH utilizzerà tutte le risorse dei 3nm per HPC.

Difficile che un'azienda come nvidia stia ferma 2 anni, ed il refresh generale ipotizzato, potrebbe essere sempre più concreto, in virtù pure di tutti i lotti wafer da consumare.

bagnino89
27-06-2023, 19:21
p.s intanto brutte notizie per starfield, gioco amd con FSR 2 al lancio, quindi ci possiamo dimenticare DLSS3 (credo) magari patcheranno e rilasceranno il DLSS2 in futuro.

Bello schifo.

Ale55andr0
27-06-2023, 19:51
p.s intanto brutte notizie per starfield, gioco amd con FSR 2 al lancio, quindi ci possiamo dimenticare DLSS3 (credo) magari patcheranno e rilasceranno il DLSS2 in futuro.

godo :O


Mi spiace per i cavalieri verdi che piangono, ovviamente il gioco non partirà sulle loro sched...ah no parte uguale, beh ma non potranno usare FSR du... ah no spè funziona pure sulle loro. Un dramma, davvero. In più non avrà "l'utile" PT che fa sembrare qualsiasi cosa sotto la 4090 un roito a pedali, mi strappo le vesti in nome di quei settordicilioni di gamer con 2000 euro di scheda che dovranno vivere di questi stenti. Immagino poi che senza upscaling, con le considerazioni di cui sopra, non girerà manco a spinta ovviamente, e ci si dovrà quindi cavare gli occhi con la "pessima" NATIVA DEL CAZZO SENZA TXAA che non coi meravigliosi fake frame e pixel :cry:. E si', brutte, brutte notizie, mannaggia! :muro:

scorpion73
27-06-2023, 20:58
Si infatti non staranno fermi, faranno una sorta di refresh della lineup di ada, introducendo le super (o roba del genere) dubito però che caleranno i prezzi;)

Meglio, alla fine nel 2025 Intel uscirà con Arrow Lake e credo che daranno una bella rinfrescata in termini prestazionali (un pò come avevano fatto con alder in passato) ci sarà da divertirsi con piattaforma nuova più le 5000.:D

Insomma 2023-2024 il nulla, lato cpu refresh di raptor con medesime performance :mad: da vedere gli 8000 amd, lato gpu tutto invariato (con probabile lifting della lineup)

p.s intanto brutte notizie per starfield, gioco amd con FSR 2 al lancio, quindi ci possiamo dimenticare DLSS3 (credo) magari patcheranno e rilasceranno il DLSS2 in futuro.

Refresh di Raptor da tenere d'occhio per capire se introduce il DLVR e come lo useranno, per capire se ci vorrà un impianto ad azoto liquido per tenerlo buono o se basterà un normale AIO.
Per il resto la questione era secondo me un pò nell'aria considerando che a quasi un anno dall'uscita di Ada ancora manco si parla di 4080ti.
Sarà quella insieme alla 4080 super con AD104 full la lineup di nvidia fino al 2025 secondo me.

amon.akira
28-06-2023, 09:04
Non ci scherzerei molto.:p



Si l'aveva pubblicato Andreas Schilling nel suo twitter.
A sto punto bisogna vedere se le problematiche siano le disponibilità e le rese dei 3nm. Sicuramente, se è vero, JHH utilizzerà tutte le risorse dei 3nm per HPC.

Difficile che un'azienda come nvidia stia ferma 2 anni, ed il refresh generale ipotizzato, potrebbe essere sempre più concreto, in virtù pure di tutti i lotti wafer da consumare.

se ci pensi proprio in virtù di quello lo davo quasi per scontato, un rinvio di almeno 5-6mesi

meglio cosi :P

ninja750
28-06-2023, 10:15
Lunga vita alla 4090:D diventerà un chip HIGHLANDER

https://videocardz.com/newz/nvidia-to-introduce-ada-lovelace-successor-in-2025

vorrebbe dire che non vogliono cambiare arch senza cambiare contestualmente PP

idee finite? (e lo abbiamo già visto con le 4000)

Legolas84
28-06-2023, 10:51
vorrebbe dire che non vogliono cambiare arch senza cambiare contestualmente PP

idee finite? (e lo abbiamo già visto con le 4000)


Bo.. l azienda che più ha innovato nella storia della grafica su pc la vedo dura che abbia finito le idee..

Vedrai che butterà fuori qualcosa che gli altri come al solito andranno abilmente a scopiazzare :)


Inviato dal mio iPhone utilizzando Tapatalk Pro

Ubro92
28-06-2023, 10:55
vorrebbe dire che non vogliono cambiare arch senza cambiare contestualmente PP

idee finite? (e lo abbiamo già visto con le 4000)

Di solito il cambio architettura ha sempre portato un cambio di nodo, forse l'unico caso fu Kepler -> Maxwell, però i 28nm di Maxwell erano decisamente più maturi e con rese migliori di Kepler.

Con Ada il salto di nodo equivale a quasi due step, e per come hanno piazzato le schede, possono tranquillamente farci una serie 5000 sempre su ADA e con chip bilanciati meglio, soprattutto dalla 4080 in giù che è la fascia che ha avuto i minori incrementi.

Un pò come avvenne con Fermi, o la serie 600/700 di Kepler.

Anche perchè dubito che dopo un anno si abbiano ancora chip cosi scrauzi di AD104 da doverli devastare per le 4070 lisce, cosi come sarebbe strano non avere chip AD103 perfetti o altri da riciclare.

mikael84
28-06-2023, 12:15
se ci pensi proprio in virtù di quello lo davo quasi per scontato, un rinvio di almeno 5-6mesi

meglio cosi :P

beh l'unica soluzione del 2024, poteva essere solo una 5090, magari in una fascia ancora a se.:p
Cmq è da vedere, i 3nm dovrebbero debuttare con la HPC di blackwell, con annuncio previsto al GTC di marzo 2024.

Con la serie Lovelace, può per evenienza creare di tutto. Puoò anche creare una 5090 full AD102, ed una 5080 AD102 ubert cut (4080ti):)

vorrebbe dire che non vogliono cambiare arch senza cambiare contestualmente PP

idee finite? (e lo abbiamo già visto con le 4000)

Beh per aggiornare la microarchitettura ti serve aumentare la densità dei transistor, sei già a 607mm2 ora.
Pensa che la 4060 liscia ha 18,9mtransistor, la 3070ti ne ha 17,4.

Sulle idee finite, no, anzi, la 5090, salvo gli RT core, prenderà vari elementi del chip compute, come i tensor.

La microarchitettura a sto giro verrà sicuramente aggiornata, ma per farlo servono transistor.

Con turing l'hanno fatto, usando lo stesso nodo, ma da 471, sono arrivati a 754.

mikael84
28-06-2023, 12:33
Di solito il cambio architettura ha sempre portato un cambio di nodo, forse l'unico caso fu Kepler -> Maxwell, però i 28nm di Maxwell erano decisamente più maturi e con rese migliori di Kepler.

Con Ada il salto di nodo equivale a quasi due step, e per come hanno piazzato le schede, possono tranquillamente farci una serie 5000 sempre su ADA e con chip bilanciati meglio, soprattutto dalla 4080 in giù che è la fascia che ha avuto i minori incrementi.

Un pò come avvenne con Fermi, o la serie 600/700 di Kepler.

Anche perchè dubito che dopo un anno si abbiano ancora chip cosi scrauzi di AD104 da doverli devastare per le 4070 lisce, cosi come sarebbe strano non avere chip AD103 perfetti o altri da riciclare.

Anche Pascal con turing, stesso nodo.:)

Con kepler-maxwell, si stesso nodo, ma li oltre il 13% di transistor in più, c'è stato un drastico snellimento. Kepler si portava dietro tutta la parte molto esosa riguardo gli FP64, LDS, SFU degli SM a 192 cuda + 64 fp64.

Questo era il gk110. E' come se ci fossero 320 cuda fp32 x SM, oltre appunto il 2x di lds ed sfu:)
https://i.postimg.cc/Fzz48QDw/780ti.png

Legolas84
28-06-2023, 12:52
La 4090 è un mostro ma consuma parecchio, andare ancora più su con questa architettura e con questo pp la vedo dura.


Inviato dal mio iPhone utilizzando Tapatalk Pro

Salfox
28-06-2023, 13:08
Con la serie Lovelace, può per evenienza creare di tutto. Puoò anche creare una 5090 full AD102, ed una 5080 AD102 ubert cut (4080ti):)



Io lo escluderei proprio, la serie 5000 sarà la nuova architettura ed eventuali chip full Lovelace saranno le versioni ti delle 4000 di fascia alta.
Secondo me lo spostamento in avanti del lancio delle 5000 sta proprio nel fatto che le 4000 (fascia alta) sono già troppo potenti e attulmente nessuna CPU gli sta dietro. Dannarsi quindi l'anima per far uscire al più presto la nuova architettura sarebbe proprio inutile.

La 4090 è un mostro ma consuma parecchio, andare ancora più su con questa architettura e con questo pp la vedo dura.


Provala e vedrai che i consumi per la 4090 non sono affatto un problema, la mia (nello stesso sistema e nelle stesse condizioni) consuma circa la metà della 3090 che avevo prima.....

mikael84
28-06-2023, 13:22
Io lo escluderei proprio, la serie 5000 sarà la nuova architettura ed eventuali chip full Lovelace saranno le versioni ti delle 4000 di fascia alta.

Il refresh lo stiamo ipotizzando noi, non ha nulla di concreto. Di sicuro se la serie post lovelace 3nm tarda, si inventeranno qualcosa da lanciare, come appunto qualche derivato o full chip.


Secondo me lo spostamento in avanti del lancio delle 5000 sta proprio nel fatto che le 4000 (fascia alta) sono già troppo potenti e attulmente nessuna CPU gli sta dietro. Dannarsi quindi l'anima per far uscire al più presto la nuova architettura sarebbe proprio inutile.

No assolutamente, sarebbero pazzi a rinviare un chip già scritto tempo fa, a cui manca solo il PP.:p
Se ritardano il lancio è per altre cause, come le rese e le quantità del PP, dovendo far fronte al settore HPC, ormai incontrollato.

La news è pure da prendere con le pinze, ma, i problemi possono essere diversi, di certo non la rinviano per aspettare le CPU nuove.:)



Provala e vedrai che i consumi per la 4090 non sono affatto un problema, la mia (nello stesso sistema e nelle stesse condizioni) consuma circa la metà della 3090 che avevo prima.....

Ce l'ha già:)

mikael84
28-06-2023, 15:45
Come da previsione è circa una 2080. 2070 super a salire.
Scheda da 200-220 euro andando bene.

https://tpucdn.com/review/palit-geforce-rtx-4060-dual/images/relative-performance-1920-1080.png

FrancoBit
28-06-2023, 15:51
Come da previsione è circa una 2080. 2070 super a salire.
Scheda da 200-220 euro andando bene.

[cut

Altro bidone ahinoi. In tutto sto ciarpame però la 4070 per il muletto un giorno potrei farci un pensiero (previa vendita 3070 ovviamente)

Kvarat
28-06-2023, 16:02
Altro bidone ahinoi. In tutto sto ciarpame però la 4070 per il muletto un giorno potrei farci un pensiero (previa vendita 3070 ovviamente)

Ad ognuno il suo bidone... :asd:

FrancoBit
28-06-2023, 16:05
Ad ognuno il suo bidone... :asd:

Eh purtroppo sto giro è una gen un po' ostica, vuoi per il portafogli (4080 e 4090), vuoi per le specifiche (4060 e 4060ti che personalmente non mi interessano ma ritengo piuttosto pietose), amen

Ale55andr0
28-06-2023, 16:09
blastata anche questa

https://www.youtube.com/watch?v=aw8atDt4OpU

vediamo che combina amd con 7700 e 7800 visto che sono le utile fasce che mancano. Altro rigore a porta vuota che possono sbagliare SOLO loro come le altre? Ai posteri