PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 [432] 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467

scorpion73
31-12-2024, 17:13
I dlss credo vadano su tutte le schede che lo supportano.

Sono gli effetti a parte a essere vincolati alla nuova gen. Tipo fg.

Se faranno uscire un dlss 4.0 penso sarà retrocompatibile , ma ovviamente le componenti nuove come le ipotetiche generazione delle texture e rendering neurale , no quelle funzionaranno solo sulle 5000.

In realtà la tech demo sulla compressione neurale girava sulla 4090, quindi in teoria anche lei dovrebbe poterlo supportare.
resta da capire se le tempistiche di risposta sono ammissibili per uso normale o no, ricordo 1.15ms contro 0.49ms delle BTC sulla tech demo.
Probabilmente sotto la 4090 non c'è abbastanza potenza, a meno di nuove unità dedicate o più potenti, come furono gli OFA fra ampere e ada.

mikael84
31-12-2024, 17:18
I dlss credo vadano su tutte le schede che lo supportano.

Sono gli effetti a parte a essere vincolati alla nuova gen. Tipo fg.

Se faranno uscire un dlss 4.0 penso sarà retrocompatibile , ma ovviamente le componenti nuove come le ipotetiche generazione delle texture e rendering neurale , no quelle funzionaranno solo sulle 5000.

Il NTC è già da tempo in test (se ne parlava già da ampere), con la 4090 hanno raggiunto risultati molto buoni a livello di latenze. La differenza nel caso sarebbe a livello commerciale.
JHH giocherà sul FP4, ed il raddoppio del picco dei tensor applicabile solo su blackwell, ma i programmi pro, non hanno rivelato neppure gli FP8 di ADA.
Se anche la girasse sulla potenza dei tensor, quindi un 2x ratio, una 5060 si ritroverebbe sempre un ratio inferiore a quello di una 4090.

L'uso massivo dei tensor (tra l'altro è una piccolissima parte) richiede molta cache o banda, ma anche li, in che modo una 4090 sarebbe tagliata rispetto una 5060-5060ti...

Con lovelace ha giustificato soprattutto il triplo ratio OFA in più per abilitare il FG, ma anche quello a livello di latenze è stato smentito.
Quindi se parliamo solo per lato tensor, non c'è nulla che una 5060 potrà fare in più della 4090.

Ubro92
31-12-2024, 17:22
Ma il dlss 2.0 se non ricordo male va pure sulle serie 2000 o sbaglio?



Per il RT migliorato forse intendi che le 3000 riuscivano a gestirlo meglio? Non come un migliore RT ma proprio come gestione.



Per il reflex invece non mi ricordavo proprio.Si infatti non ci sono differenze di rilievo tra 2000 e 3000, internamente con ampere hanno introdotto le unità OFA, ma alla fine ampere non ha neanche beneficiato del supporto ufficiale al frame gen come le 4000.

Lato RT core sicuro c'è stato un miglioramento di IPC, ma alla fine nulla di che, 2080s a ridosso di 3060ti e 3070 a ridosso di 2080ti.



Inviato dal mio M2012K11AG utilizzando Tapatalk

fraussantin
31-12-2024, 17:26
Il NTC è già da tempo in test (se ne parlava già da ampere), con la 4090 hanno raggiunto risultati molto buoni a livello di latenze. La differenza nel caso sarebbe a livello commerciale.
JHH giocherà sul FP4, ed il raddoppio del picco dei tensor applicabile solo su blackwell, ma i programmi pro, non hanno rivelato neppure gli FP8 di ADA.
Se anche la girasse sulla potenza dei tensor, quindi un 2x ratio, una 5060 si ritroverebbe sempre un ratio inferiore a quello di una 4090.

L'uso massivo dei tensor (tra l'altro è una piccolissima parte) richiede molta cache o banda, ma anche li, in che modo una 4090 sarebbe tagliata rispetto una 5060-5060ti...

Con lovelace ha giustificato soprattutto il triplo ratio OFA in più per abilitare il FG, ma anche quello a livello di latenze è stato smentito.
Quindi se parliamo solo per lato tensor, non c'è nulla che una 5060 potrà fare in più della 4090.



In realtà la tech demo sulla compressione neurale girava sulla 4090, quindi in teoria anche lei dovrebbe poterlo supportare.
resta da capire se le tempistiche di risposta sono ammissibili per uso normale o no, ricordo 1.15ms contro 0.49ms delle BTC sulla tech demo.
Probabilmente sotto la 4090 non c'è abbastanza potenza, a meno di nuove unità dedicate o più potenti, come furono gli OFA fra ampere e ada.

Beh si la differenza sarà , sempre con "se" , commerciale.
Come per FG.

Poi che su 5090 e 5080 funzioni meglio è un altra cosa.

Cmq sia dubito che avremo un reale utilizzo presto.

Forse un gioco a sorpresa , ma non penso di più.



***


Colgo l'occasione per augurare buon anno a tutti !

ColdWarGuy
31-12-2024, 18:38
Io non ho ancora visto neppure gli SM di blackwell HPC. Non sappiamo ancora i clock, le eventuali mod. microarchitetturali, se si continuerà in SMT48 etc.

Ad oggi sappiamo solo i cuda. Tra l'altro per la prima volta GB202 introdurrà i GPC ad 8 TPC.

Nella scorsa gen. avevamo già tutto, anche degli screen con punteggi 3dmark time spy.

Le uniche cose rivelate da lui, sono state il FG ed i costi.

In compenso abbiano tutti i dettagli di questa fondamentale iniziativa :

NVIDIA Unveils Cyberpunk 2077 Mystery Box: Brings Several Collector’s Editions, GeForce RTX 4080, & Jensen-Signed RTX 2080 Ti GPUs (https://wccftech.com/nvidia-unveils-cyberpunk-2077-mystery-box/)

una serie di mistery box contenenti, tra le altre cose, nientepopodimeno che una 2080Ti firmata da Jensen ...:fagiano:

EddieTheHead
31-12-2024, 19:13
pensavo la giacchetta

The_Fabulous_
31-12-2024, 19:30
pensavo la giacchetta

quella non ha valore :asd:

kiwivda
31-12-2024, 23:29
Buon anno e piu 5090 per tutti.

Legolas84
31-12-2024, 23:38
Buon Anno ! :)


Inviato dal mio iPhone utilizzando Tapatalk Pro

magic carpet
01-01-2025, 00:12
Buon 5090! 😀

Zago91
01-01-2025, 08:19
NVIDIA GeForce RTX 5080 reportedly launches January 21st
(https://videocardz.com/newz/nvidia-geforce-rtx-5080-reportedly-launches-january-21st)

Salfox
01-01-2025, 09:07
NVIDIA GeForce RTX 5080 reportedly launches January 21st
(https://videocardz.com/newz/nvidia-geforce-rtx-5080-reportedly-launches-january-21st)

La prima cosa che salta subito all'occhio è che dopo anni e anni di clickday Nvidia sempre di giovedì hanno cambiato tutto e questa volta sarà di martedì????
Davvero strano.
Buon anno a tutti :D :D :D

OrazioOC
01-01-2025, 09:58
NVIDIA GeForce RTX 5080 reportedly launches January 21st
(https://videocardz.com/newz/nvidia-geforce-rtx-5080-reportedly-launches-january-21st)

Mi aspetto le review una settimana prima. ;)

scorpion73
01-01-2025, 09:59
Beh si la differenza sarà , sempre con "se" , commerciale.
Come per FG.

Poi che su 5090 e 5080 funzioni meglio è un altra cosa.

Cmq sia dubito che avremo un reale utilizzo presto.

Forse un gioco a sorpresa , ma non penso di più.



***


Colgo l'occasione per augurare buon anno a tutti !

Buon anno a tutti innanzitutto.
Secondo me hai centrato il punto: quanti giochi useranno la compressione neurale.
Anche secondo me non avremo un utilizzo massivo in tempi brevi.

scorpion73
01-01-2025, 10:02
Il NTC è già da tempo in test (se ne parlava già da ampere), con la 4090 hanno raggiunto risultati molto buoni a livello di latenze. La differenza nel caso sarebbe a livello commerciale.
JHH giocherà sul FP4, ed il raddoppio del picco dei tensor applicabile solo su blackwell, ma i programmi pro, non hanno rivelato neppure gli FP8 di ADA.
Se anche la girasse sulla potenza dei tensor, quindi un 2x ratio, una 5060 si ritroverebbe sempre un ratio inferiore a quello di una 4090.

L'uso massivo dei tensor (tra l'altro è una piccolissima parte) richiede molta cache o banda, ma anche li, in che modo una 4090 sarebbe tagliata rispetto una 5060-5060ti...

Con lovelace ha giustificato soprattutto il triplo ratio OFA in più per abilitare il FG, ma anche quello a livello di latenze è stato smentito.
Quindi se parliamo solo per lato tensor, non c'è nulla che una 5060 potrà fare in più della 4090.

Forse le memorie sulla compressione neurale giocheranno un ruolo chiave: la velocità delle GDDR7 potrebbe consentire un vantaggio sopra le GDDR6X, per non parlare delle GDDR6 normali delle schede di fascia bassa.
Se la 5060 sarà equipaggiata con GDDR7 potrebbe avere anche lei un vantaggio.

StylezZz`
01-01-2025, 10:06
https://i.imgur.com/GNdwiuG.png
https://i.imgur.com/KK22fUx.png

OrazioOC
01-01-2025, 10:15
Forse le memorie sulla compressione neurale giocheranno un ruolo chiave: la velocità delle GDDR7 potrebbe consentire un vantaggio sopra le GDDR6X, per non parlare delle GDDR6 normali delle schede di fascia bassa.
Se la 5060 sarà equipaggiata con GDDR7 potrebbe avere anche lei un vantaggio.

La 5060 99,9% avrà le gddr7 essendo su GB206 come la 5060 ti.
Il problema grosso saranno gli altrettanto probabili 8gb di vram, che per una gpu da 330 euro che avrà performance iso 3070/ti nel 2025, non è bello. :rolleyes:

In quella fascia(ovvero sub 300/350 euro) vince la gpu che porta in dote più vram/tflops, ad oggi è l'ARC B580 e dubito che cambi il trend(nvidia palesemente non è più interessata ad offire soluzioni budget oriented, e amd non mi sembra si sia spaccata la schiena vedendo l'rx 7600/xt). :rolleyes:

nessuno29
01-01-2025, 10:19
piccolo offtopic perdonatemi, ma nella nuova Nvidia app dove trovo tutte le impostazioni presenti sul vecchio pannello di controllo? Soprattutto inerenti al display per scegliere il tipo di scaling, profondità colore etcetc

Besk
01-01-2025, 11:27
La prima cosa che salta subito all'occhio è che dopo anni e anni di clickday Nvidia sempre di giovedì hanno cambiato tutto e questa volta sarà di martedì????
Davvero strano.
Buon anno a tutti :D :D :D

Martedì a che ora? :angel:

marbasso
01-01-2025, 11:28
Molti auguri a tutti :D

shauni86
01-01-2025, 11:41
la 5080 esce il 21 gennaio ma in versione fe o custom? e la 5070ti quando dovrebbe arrivare allora?

Telstar
01-01-2025, 11:44
la 5080 esce il 21 gennaio ma in versione fe o custom? e la 5070ti quando dovrebbe arrivare allora?

Molto più tardi. La 5090 invece dovrebbe arrivare presto.

Maury
01-01-2025, 11:44
piccolo offtopic perdonatemi, ma nella nuova Nvidia app dove trovo tutte le impostazioni presenti sul vecchio pannello di controllo? Soprattutto inerenti al display per scegliere il tipo di scaling, profondità colore etcetc

Nella app il vecchio pannello c'è ancora se ti può far comodo ;)

mikael84
01-01-2025, 11:47
Auguri a tutti.

Forse le memorie sulla compressione neurale giocheranno un ruolo chiave: la velocità delle GDDR7 potrebbe consentire un vantaggio sopra le GDDR6X, per non parlare delle GDDR6 normali delle schede di fascia bassa.
Se la 5060 sarà equipaggiata con GDDR7 potrebbe avere anche lei un vantaggio.

Le GDDR7 PAM3, sono delle ram a prefetch 32n, ovvero hanno il doppio del bus rispetto alle gddr6 (in parole poverissime), ma tutto questo non cambia la sostanza, in quanto il NTC dovrà girare anche sulle 5060, o addirittura le mobile con gddr6 e cache piccolissime.
Certo, come per le OFA di lovelace, volendo, potrà giustificare qualcosa hardware e fregare le vecchie, ma lato tensor, cache e banda il discorso decade dal momento che pure GB207 lo farà girare...

Non tutto per forza deve essere legato, vedi anche il RR.

ColdWarGuy
01-01-2025, 11:54
La 5060 99,9% avrà le gddr7 essendo su GB206 come la 5060 ti.
Il problema grosso saranno gli altrettanto probabili 8gb di vram, che per una gpu da 330 euro che avrà performance iso 3070/ti nel 2025, non è bello. :rolleyes:


Quale è la fonte del prezzo e della performance della 5060 ? :)

Ritengo ottimistici entrambi i dati, a sentimento la 5060 liscia non raggiungerà la 3070, non lo fa neanche la B580, tantomeno la 3070 Ti e costerà di più di 330 euro.

Se parliamo invece della 5060 Ti Ok, ma li vedo un bel 499 euro, poi sul fatto che il nuovo mainstream dovrebbe partire da 12GB sono d'accordo anche io ma visto che sulla 5080 hanno messo 16GB pensare a 12GB sulla 5060 è "leggermente" fuorilinea.

shauni86
01-01-2025, 11:57
Molto più tardi. La 5090 invece dovrebbe arrivare presto.

perchè molto più tardi? se la annunciano a gennaio insieme alle altre arriverà tra gennaio e febbraio secondo me

OrazioOC
01-01-2025, 12:03
Quale è la fonte del prezzo e della performance della 5060 ? :)

Ritengo ottimistici entrambi i dati, a sentimento la 5060 liscia non raggiungerà la 3070, non lo fa neanche la B580, tantomeno la 3070 Ti e costerà di più di 330 euro.

Se parliamo invece della 5060 Ti Ok, ma li vedo un bel 499 euro, poi sul fatto che il nuovo mainstream dovrebbe partire da 12GB sono d'accordo anche io ma visto che sulla 5080 hanno messo 16GB pensare a 12GB sulla 5060 è "leggermente" fuorilinea.

L'msrp negli anni per le XX60 è fluttuato dai 299 dollari della 4060 e 1060, fino a 349 dollari della rtx 2060(nel mezzo c'è stata la 3060 con msrp di 329 dollari).
Quindi ritengo sia auspicabile vederla sui 299 max 329 dollari(330-350 euro da noi a seconda del modello/store scelto per l'acquisto), anche se utilizzerà un chip più grande(ma castrato) dell'attuale AD107 montato sulla 4060, con tanto di gddr7. :)

Sulle performance è presto per dirlo, però se la 5060 ti dovrà "targettare" la 4070 vanilla(già la 4070 super dovrebbe essere molto vicina alla 5070, essendo già vicina alla 4070 ti), a naso la 5060 dovrà finire nel territorio della 4060 ti/3070 come minimo(dipenderà da quante SMT lasceranno attive rispetto alla 5060 ti), ottimisticamente parlando anche 3070 ti. :)

Comunque avrà un aumento di bandwith devastante dato dalle gddr7 rispetto ad AD107 e AD106, e questo dovrebbe portarla da sola sui livelli di performance della 3070, anche se non dovessere avere molte smt in più rispetto alla 4060(3072 cc/24 smt). :O

Ubro92
01-01-2025, 12:03
Quale è la fonte del prezzo e della performance della 5060 ? :)

Ritengo ottimistici entrambi i dati, a sentimento la 5060 liscia non raggiungerà la 3070, non lo fa neanche la B580, tantomeno la 3070 Ti e costerà di più di 330 euro.

Se parliamo invece della 5060 Ti Ok, ma li vedo un bel 499 euro, poi sul fatto che il nuovo mainstream dovrebbe partire da 12GB sono d'accordo anche io ma visto che sulla 5080 hanno messo 16GB pensare a 12GB sulla 5060 è "leggermente" fuorilinea.

Se la tagliano da GB206 la 3070ti la prendi tranquilla, anche le GDDR7 aiutano enormemente, si passa da 288gb/s della 4060ti a 448gb/s per 128bit@28gbps.

Il full chip GB206 dovrebbe essere a ridosso della 4070, forse anche un pelo in più e diciamo che è un'accettabile 5060ti se non sfora i 400-450€ (non aggiungerebbe nulla al mercato, ma meglio delle 7700xt)

Escluderei che utilizzino GB207 per la 5060 desktop, è un chip troppo minuto con soli 2560cc, al più ci faranno le 5050 mobile.

La 5070 la vedo veramente uno schifo, già solo rispetto 5070ti è sotto del 46% come specifiche.

DarkNiko
01-01-2025, 12:09
La prima cosa che salta subito all'occhio è che dopo anni e anni di clickday Nvidia sempre di giovedì hanno cambiato tutto e questa volta sarà di martedì????
Davvero strano.
Buon anno a tutti :D :D :D

Avranno sentito Zio Bill e si saranno allineati a Microsoft. Come il Patch Tuesday. :Prrr:

Buon Anno anche a te di serenità e felicità. :)

mikael84
01-01-2025, 12:18
L'msrp negli anni per le XX60 è fluttuato dai 299 dollari della 4060 e 1060, fino a 349 dollari della rtx 2060(nel mezzo c'è stata la 3060 con msrp di 329 dollari).
Quindi ritengo sia auspicabile vederla sui 299 max 329 dollari(330-350 euro da noi a seconda del modello/store scelto per l'acquisto), anche se utilizzerà un chip più grande(ma castrato) dell'attuale AD107 montato sulla 4060, con tanto di gddr7. :)

Sulle performance è presto per dirlo, però se la 5060 ti dovrà "targettare" la 4070 vanilla(già la 4070 super dovrebbe essere molto vicina alla 5070, essendo già vicina alla 4070 ti), a naso la 5060 dovrà finire nel territorio della 4060 ti/3070 come minimo(dipenderà da quante SMT lasceranno attive rispetto alla 5060 ti), ottimisticamente parlando anche 3070 ti. :)

Comunque avrà un aumento di bandwith devastante dato dalle gddr7 rispetto ad AD107 e AD106, e questo dovrebbe portarla da sola sui livelli di performance della 3070, anche se non dovessere avere molte smt in più rispetto alla 4060(3072 cc/24 smt). :O

Al CES vedremmo finalmente le caratteristiche. La 5060ti deve recuperare il 30% a pari spec. (salvo la banda finalmente).
Cmq, anche se sarà nei pressi della 4070 con 16gb a 399$, forse sarà proprio quella l'offerta più equilibrata in quella fascia. A seguire la 5070TI e la 5090 per gli enthusiast.
Le 5060 - 5070 (da 12), e ci aggiungerei anche la 5080 in base ai costi (consderando la 5070TI), non ispirano nulla.
A sto giro, potremmo vedere i tre brand farsi concorrenza, con la B580 in fascia bassa, Navi48 nella media, ed nvidia a salire.

OrazioOC
01-01-2025, 12:28
Al CES vedremmo finalmente le caratteristiche. La 5060ti deve recuperare il 30% a pari spec. (salvo la banda finalmente).
Cmq, anche se sarà nei pressi della 4070 con 16gb a 399$, forse sarà proprio quella l'offerta più equilibrata in quella fascia. A seguire la 5070TI e la 5090 per gli enthusiast.
Le 5060 - 5070 (da 12), e ci aggiungerei anche la 5080 in base ai costi (consderando la 5070TI), non ispirano nulla.
A sto giro, potremmo vedere i tre brand farsi concorrenza, con la B580 in fascia bassa, Navi48 nella media, ed nvidia a salire.

30% non è poco da recuperare(4060 ti vs 4070 gddr6), però son fiducioso che ci arrivi in quei paraggi. ;)
Se proprio gli va' male male, diventerebbe una iso 7700 xt/rx 6800 in salsa nvidia, che tanto lontane non sono dalla 4070 vanilla, però a 399 dollari e con 16gb di vram non farebbe proprio schifo schifo per una scheda dichiaratamente da FHD.
Condivido anche il pensiero su certe altre sku che potrebbero non essere nè carne nè pesce. :rolleyes:

Asgard2022
01-01-2025, 12:55
30% non è poco da recuperare(4060 ti vs 4070 gddr6), però son fiducioso che ci arrivi in quei paraggi. ;)
Se proprio gli va' male male, diventerebbe una iso 7700 xt/rx 6800 in salsa nvidia, che tanto lontane non sono dalla 4070 vanilla, però a 399 dollari e con 16gb di vram non farebbe proprio schifo schifo per una scheda dichiaratamente da FHD.
Condivido anche il pensiero su certe altre sku che potrebbero non essere nè carne nè pesce. :rolleyes:

Sai che 16gb in fhd servono al nulla piu assoluto nella gran parte dei giochi? 99% inutilizzata.

OrazioOC
01-01-2025, 13:06
Sai che 16gb in fhd servono al nulla piu assoluto nella gran parte dei giochi? 99% inutilizzata.

Hai detto bene, nella gran parte dei giochi, ma non in molti tripla A che stanno uscendo(soprattutto se si vuole attingere al RT):

https://tpucdn.com/review/dragon-age-the-veilguard-fps-performance-benchmark/images/vram.png

Nel 2025 sarebbe gradito andare oltre gli 8gb, almeno per le gpu sopra i 300 euro. :O

Ale55andr0
01-01-2025, 13:19
Sta wokata con la grafica cartoon disney come bench? :eek:
Cmq per una gpu "moderna" 16Gb è il target di "giustezza" dalla fascia dei 5/600 in su. Sino alla prossima gen di console, che sicuro avranno 32gb unificati e quindi almeno 24 saranno di frame buffer, ma se ne parla il 27/28

OrazioOC
01-01-2025, 13:22
Sta wokata con la grafica cartoon disney come bench? :eek:
Cmq per una gpu "moderna" 16Gb è il target di "giustezza" dalla fascia dei 5/600 in su. Sino alla prossima gen di console, che sicuro avranno 32gb unificati e quindi almeno 24 saranno di frame buffer, ma se ne parla il 27/28

Sarà anche un gioco parecchio meh, ma il trend è comunque avere giochi che con l'RT on pappano abbastanza vram anche in full hd. :p

Gapudo
01-01-2025, 13:28
16 GB VRAM forse con la PS6 saranno necessari, oggi si vive bene anche con 8 o 12

Ubro92
01-01-2025, 13:28
Sarà anche un gioco parecchio meh, ma il trend è comunque avere giochi che con l'RT on pappano abbastanza vram anche in full hd. :p

Da quello che vedo, non è che gli 11GB di 2080ti facciano miracoli rispetto gli 8GB di 3070/4060ti in quel titolo, anche i confronti sulla vram sono fatti su base 4090 che ha 24GB, in genere più vram hai e più tende ad allocarne.

https://tpucdn.com/review/dragon-age-the-veilguard-fps-performance-benchmark/images/performance-rt-1920-1080.png https://tpucdn.com/review/dragon-age-the-veilguard-fps-performance-benchmark/images/min-fps-rt-1920-1080.png

OrazioOC
01-01-2025, 13:31
Da quello che vedo, non è che gli 11GB di 2080ti facciano miracoli rispetto gli 8GB di 3070/4060ti in quel titolo, anche i confronti sulla vram sono fatti su base 4090 che ha 24GB, in genere più vram hai e più tende ad allocarne.



Qualche incongruenza però c'è anche sulla 3070 ti, che finisce sotto la 4060 ti in entrambi i tagli, forse quel titolo è meglio ottimizzato per ADA rispetto ad Ampere/Turing?:rolleyes:

Ubro92
01-01-2025, 13:36
Qualche incongruenza però c'è anche sulla 3070 ti, che finisce sotto la 4060 ti in entrambi i tagli, forse quel titolo è meglio ottimizzato per ADA rispetto ad Ampere/Turing?:rolleyes:

Si, almeno dai test di TPU in tutte le sku quel titolo predilige di più ADA, anche negli FPS minimi si vede proprio un crollo, con 4070 sopra 3090 e 4060ti praticamente li con 3080.

Maury
01-01-2025, 13:38
Ma siamo sicuri che tutta questa banda serva a qualcosa nei modelli medio bassi ? Ok per la 5090 e 5080 ma a scendere può aiutare certo ma non fa tutta questa differenza, a certe fasce manca la potenza pura non la banda.

NTC... trovo assurdo che su Ada non possa neanche girare Giacchetta dovrà essere molto convincente nel caso.

Auguri a tutti :D

OrazioOC
01-01-2025, 13:53
L'ideale, imho, sarebbe avere una 5060 con 12gb, partendo dal pcb clamshell della 5060 ti, ma con bus ridotto a 96 bit vs 128 bit.
Perderebbe 1/4 della bandwith(336gbps vs 448 gbps, che però sono comunque ben più dei 272gbps dell'attuale 4060 vanilla e 288gbps dell'attuale 4060ti), però almeno avrebbe 12gb di vram, che era roba già vista sulla 3060 nel 2021. :O

Tanto se dovrà avere performance iso 4060ti/3070, dovrebbe farcela anche con 340gbps di bandwith e magari più smt dell'attuale 4060(da 24 smt/3072 cc, farla passare a 28 smt/3584 cc?). :)

Soluzione ancora più ideale sarebbero le gddr7 tripla densità, che però non mi risultano disponibili prima del 2026, troppo in là per una sku che dovrebbe arrivare questa primavera. :p

Ubro92
01-01-2025, 13:56
L'ideale è avere 5060ti su GB205 e la 5070 su GB203 :sofico:
Sui quantitativi di vram mi farei pochi problemi francamente, il problema è più sui prezzi e posizionamento dei chip.

Alla prossima sfornata (post 5000) sicuro sarà disponibile la tripla, quindi anche su un 128bit hai 12/24GB.

mikael84
01-01-2025, 14:22
Hai detto bene, nella gran parte dei giochi, ma non in molti tripla A che stanno uscendo(soprattutto se si vuole attingere al RT):



Nel 2025 sarebbe gradito andare oltre gli 8gb, almeno per le gpu sopra i 300 euro. :O

Il problema della vram, lo noti giocando non tanto nei bench in se. Almeno con 10gb, nulla di drammatico, al massimo una tacca da estremo a ultra, che non cambia nulla.
Con 8gb, ho sofferto di più ai tempi.

Qualche incongruenza però c'è anche sulla 3070 ti, che finisce sotto la 4060 ti in entrambi i tagli, forse quel titolo è meglio ottimizzato per ADA rispetto ad Ampere/Turing?:rolleyes:

Si, almeno dai test di TPU in tutte le sku quel titolo predilige di più ADA, anche negli FPS minimi si vede proprio un crollo, con 4070 sopra 3090 e 4060ti praticamente li con 3080.

Per via del warp stall. Ampere viene sfruttata meglio salendo di res, mentre la 4060ti gode del sistema caching. La l1 (collo di bottiglia), ha su ADA latenze di 66ns vs 100ns, ed i 32mb ad alta banda aiutano non poco a gestire i thread inattivi. Salendo di res, la situazione cambia.

Ma siamo sicuri che tutta questa banda serva a qualcosa nei modelli medio bassi ? Ok per la 5090 e 5080 ma a scendere può aiutare certo ma non fa tutta questa differenza, a certe fasce manca la potenza pura non la banda.

NTC... trovo assurdo che su Ada non possa neanche girare Giacchetta dovrà essere molto convincente nel caso.

Auguri a tutti :D


E' proprio nella fascia bassa che serve la banda, lo vedi anche dalle b580. Considera che un rapporto simmetrico per GPC sarebbe GPC x 64bit, che nvidia ha colmato in parte con la cache, ma già in 1440p spesso soffrono, aumentando i miss.;)

davide155
01-01-2025, 14:33
https://videocardz.com/newz/nvidia-geforce-rtx-5060-laptop-gpu-3dmark-leak-shows-33-increase-over-rtx-4060

Primissimi leak test

Cutter90
01-01-2025, 14:55
Hai detto bene, nella gran parte dei giochi, ma non in molti tripla A che stanno uscendo(soprattutto se si vuole attingere al RT):

https://tpucdn.com/review/dragon-age-the-veilguard-fps-performance-benchmark/images/vram.png

Nel 2025 sarebbe gradito andare oltre gli 8gb, almeno per le gpu sopra i 300 euro. :O

Solito errore che fanno in molti. Quella è la vram allocata di una 4090. Non è assolutamente la vram consumata. Sono due cose molto diverse.
Infatti la 3070 da 8 gb è la 2080 ti da 11 vanno uguali. Quindi in 1080p su Veilgurda 8 gb con RT vanno benissimo.

mikael84
01-01-2025, 15:44
L'ideale è avere 5060ti su GB205 e la 5070 su GB203 :sofico:
Sui quantitativi di vram mi farei pochi problemi francamente, il problema è più sui prezzi e posizionamento dei chip.

Alla prossima sfornata (post 5000) sicuro sarà disponibile la tripla, quindi anche su un 128bit hai 12/24GB.

Sulle 6000, si farà finalmente il salto definitivo alla tripla. Almeno anche sui 192bit ci metteranno 18gb.

https://videocardz.com/newz/nvidia-geforce-rtx-5060-laptop-gpu-3dmark-leak-shows-33-increase-over-rtx-4060

Primissimi leak test

Non male, in quanto la 5060 desktop avrà clock superiori, anche se rimangono da definire le specifiche nel range tra 3072/3840cc.
Al momento la 4060ti supera la liscia del 20%.

Maury
01-01-2025, 17:02
E' proprio nella fascia bassa che serve la banda, lo vedi anche dalle b580. Considera che un rapporto simmetrico per GPC sarebbe GPC x 64bit, che nvidia ha colmato in parte con la cache, ma già in 1440p spesso soffrono, aumentando i miss.;)

Si certo questo è chiaro, ci vuole la giusta banda in base a cosa va alimentato, ma oltre un certo livello non ha effetti, intendo che è inutile fornire valori superiori alle reali esigenze.
La B580 ha 456 gb di banda, l'oc pesante delle stesse (da 19 a 21 gbps) non porta benefici, vuol dire che a murare è la gpu più che il bus.

lordsnk
01-01-2025, 17:26
Buon Anno a tutti !!!

Zago91
01-01-2025, 17:31
Ma dopo la presentazione ci sarà il via libera alle recensioni per tutta la lineup o solo per la 5080 inizialmente?

Retro-PC-User-1
01-01-2025, 17:39
buon 2025!

mikael84
01-01-2025, 17:40
Si certo questo è chiaro, ci vuole la giusta banda in base a cosa va alimentato, ma oltre un certo livello non ha effetti, intendo che è inutile fornire valori superiori alle reali esigenze.
La B580 ha 456 gb di banda, l'oc pesante delle stesse (da 19 a 21 gbps) non porta benefici, vuol dire che a murare è la gpu più che il bus.

Certamente, infatti è proprio il punto di forza, insieme alla geometria ed alle rop's di fasce superiori (80 rop's e 5 primitive le hanno la 4070s e ti). Guarda lo scaling salendo di res. rispetto alle altre. Bisognerebbe fare la stessa prova con un 128bit e delle 18.
Ci vuole equilibrio. Ad esempio, con le g7, sarebbe stato totalmente illogico un 192bit, ma serebbe bastato un 128bit con la tripla.
Quel bus è stato messo per il fallimento delle ram.

boldre
01-01-2025, 17:52
Ma dopo la presentazione ci sarà il via libera alle recensioni per tutta la lineup o solo per la 5080 inizialmente?

Se non ricordo male dovrebbe essere la sola 5080 24h prima della messa in vendita, e così via dicendo le altre nella data di uscita, recensite a partire dalle 24h precedenti la messa in vendita vera e propria.
Almeno la scorsa gen ricordo una roba simile

boldre
01-01-2025, 17:54
Per me che non punto la 5090 (troppo per le mie tasche) l’uscita della 5080 è oro, dovrò solo decidere su cosa puntare, se una 4090 usata o l’ultima uscita, consigli per riuscire a mettere le mani su una FE al D1???? qualche pre sale qualche scorciatoia non so (recensioni favorevoli permettendo):muro:

Buon anno a tutti

mikael84
01-01-2025, 17:55
Ma dopo la presentazione ci sarà il via libera alle recensioni per tutta la lineup o solo per la 5080 inizialmente?

Man mano che escono le recensiscono (anche recensita una ti puoi calcolare le altre da subito).
Per la 5080 si parla di debutto fissato il 21 gennaio, con review un giorno prima.
Alla presentazione cmq, qualcosa spoilera lui.

amon.akira
01-01-2025, 18:14
Per me che non punto la 5090 (troppo per le mie tasche) l’uscita della 5080 è oro, dovrò solo decidere su cosa puntare, se una 4090 usata o l’ultima uscita, consigli per riuscire a mettere le mani su una FE al D1???? qualche pre sale qualche scorciatoia non so (recensioni favorevoli permettendo):muro:

Buon anno a tutti

Gia dalle slide di jensen si capirà come si posiziona la 5080, dayone di solito alle 15:00 f5 e click veloce

Rodig
01-01-2025, 20:11
Gia dalle slide di jensen si capirà come si posiziona la 5080, dayone di solito alle 15:00 f5 e click veloce
Qui un'ipotesi
https://www.youtube.com/watch?v=m72aOoUpyeI

Zago91
01-01-2025, 20:24
Man mano che escono le recensiscono (anche recensita una ti puoi calcolare le altre da subito).
Per la 5080 si parla di debutto fissato il 21 gennaio, con review un giorno prima.
Alla presentazione cmq, qualcosa spoilera lui.

Santa pazienza...

marbasso
01-01-2025, 20:51
Qui un'ipotesi
https://www.youtube.com/watch?v=m72aOoUpyeI

Ma Cristo santo, su argomenti simili portate persone con contributi decenti non gente che vive di parassitismo e che alle domande risponde dopo una ricerca su wiki.
Ho cliccato e dato una visualizzazione che per principio mi ero ripromesso di evitare...
Come con stanlio e ollio.

micronauta1981
02-01-2025, 06:32
Ma Cristo santo, su argomenti simili portate persone con contributi decenti non gente che vive di parassitismo e che alle domande risponde dopo una ricerca su wiki.
Ho cliccato e dato una visualizzazione che per principio mi ero ripromesso di evitare...
Come con stanlio e ollio.

Per quel che offre il panorama di YouTube Italia sul PC,ben vengano anche Stanlio e olio..almeno "difendono" un po' la nostra piattaforma,dalle stronzate immonde che sparano i vari multiplayer ecc..

carloUba
02-01-2025, 06:56
Per quel che offre il panorama di YouTube Italia sul PC,ben vengano anche Stanlio e olio..almeno "difendono" un po' la nostra piattaforma,dalle stronzate immonde che sparano i vari multiplayer ecc..

"il collo di bottiglia non esiste" cit.

fraussantin
02-01-2025, 07:00
Per quel che offre il panorama di YouTube Italia sul PC,ben vengano anche Stanlio e olio..almeno "difendono" un po' la nostra piattaforma,dalle stronzate immonde che sparano i vari multiplayer ecc..Beh stanlio e ollio alla fine hano come oggetto dei loro affari l'hw pc.

Poi ci mettono come contorno anche altro , ma sono focalizzati su quello.

Multplayer everycoso ecc hanno come interesse chiave i giochi e le console e sembrano un po il 4 ruote dei videogiochi . ( Chi sa cosa intendo mi capisce )

Cmq anche quel tipo , mi ricordo bene agli inizi, pur non avendo nessuna competenza tecnica e solo un po di esperienza forummistica, si è creato il suo spazio e ci campa.
Non fa il personaggio da baraccone come gli altri 2 , spara un mucchio di stronzate ( almeno le poche volte che l'ho visto ) ma in ogn caso si è creato un lavoro .

Gapudo
02-01-2025, 07:22
Stanlio e Ollio chi sono, Prodigeek?
MV non spara stronzate, è decente. Certo non è la persona più esperta in Italia, fa l'infermiere

nessuno29
02-01-2025, 07:29
Stanlio ed olio hanno costruito un impero dall'epoca covid a seguire grazie a telegram ed ai link di affiliazione, c'è da complimentarsi. E da quando son diventati ricchi sono anche migliorati, in linea generale hanno argomentazioni super partes ora.

micronauta1981
02-01-2025, 07:58
"il collo di bottiglia non esiste" cit.

Pierpaolo greco �������� quando parla di altro è anche ascoltabile...il problema è quando vuole entrare nel tecnico e lo fa pure con arroganza

OrazioOC
02-01-2025, 09:35
https://videocardz.com/newz/nvidia-geforce-rtx-5090-laptop-gpu-rumored-to-feature-24gb-gddr7-memory-thanks-to-new-3gb-modules

Colpo di scena la tripla densità già disponibile. :)

Levax
02-01-2025, 09:45
Questo mi rende ancora più difficili da digerire i 16 giga della 5080.

stop81
02-01-2025, 09:54
Questo mi rende ancora più difficili da digerire i 16 giga della 5080.

Assolutamente, anche perché una 5080 con 24GB simil 4090 come perf a 1500€ sarebbe stata davvero molto interessante. 16 GB a quel prezzo mi sembrano non corretti.

nessuno29
02-01-2025, 10:03
Questo mi rende ancora più difficili da digerire i 16 giga della 5080.

E gli 8gb di 5060 e 5070 (soprattutto) nel mobile, e gli 8 gb di 5060 e 5060ti su desktop come anche i 12gb di 5070 ahah

Cutter90
02-01-2025, 10:35
Bello dare giudizi sui giga senza minimamente sapere in cosa consiste la nuova compressione neurale delle 5000. Mah

micronauta1981
02-01-2025, 10:44
Bello dare giudizi sui giga senza minimamente sapere in cosa consiste la nuova compressione neurale delle 5000. Mah

Perché la 5090 allora ha 32 GB?i dubbi sorgono..

Cutter90
02-01-2025, 10:45
Perché la 5090 allora ha 32 GB?i dubbi sorgono..

Perchè non è una scheda da gaming in teoria?

micronauta1981
02-01-2025, 10:52
Perchè non è una scheda da gaming in teoria?

È una possibilità..i dubbi restano lo stesso però..

Maury
02-01-2025, 10:58
Texture neurali va bene ma queste quantità di vram sempre elargite con il contagoccie un pò hanno stufato, è palese che cercano margine anche da questa limitazione.

Si può fare molto meglio (dato poi il costo di queste schede), la vram serve.

Ale55andr0
02-01-2025, 10:59
Texture neurali va bene ma queste quantità di vram sempre elargite con il contagoccie un pò hanno stufato, è palese che cercano margine anche da questa limitazione.

Si può fare molto meglio (dato poi il costo di queste schede), la vram serve.

this

micronauta1981
02-01-2025, 11:01
Se la 5090 non è una scheda da gaming,vuol dire che come le titans le prestazioni non vanno di pari passo con le migliorie hardware all' interno,quindi la scheda gaming di quest' anno quale sarebbe?dalle specifiche la 5080 se vabene prende un 10% in più rispetto la 90...se invece la 5090 va 40/50% più della 4090 potete dire quanto volete che "non è da gaming",ma chissenefrega se va molto di più io la uso per il gaming...

OrazioOC
02-01-2025, 11:04
Sta generazione lato DIY se non offrirà soluzioni vram alternative su più fasce(clamshell o tripla densità) o magari di compressione, nascerà vecchia e invecchierà peggio. :rolleyes:

Passi per i 16gb di vram della 5080 che somigliano molto agli 8gb della 2080/s del 2018. :rolleyes:
All'epoca si è un po' sentita la puzza di downgrade rispetto alla 1080 ti che ne aveva 11, un po' come per gli 8gb della 3070 vs 11gb 2080 ti, dove però la differenza di prezzo nascondeva il tutto sotto la sabbia.
Ma 12gb sulla 5070 sono un po' meh, per non parlare degli 8 della 5060 vanilla. :rolleyes:

8GB di vram gli aveva l'rx 480 da 270 euro nel 2016, siamo nel 2025, potrai presentarti con una gpu da 350 euro con ancora 8gb di vram?
Veramente dobbiamo proprio rivalutare le 3070 usate che sugli annunci usati vengono via a 250 euro spedite? :rolleyes:

Questione anche di progresso che non c'è, in un campo che progresso ci dovrebbe campare. :help:

ColdWarGuy
02-01-2025, 11:06
Bello dare giudizi sui giga senza minimamente sapere in cosa consiste la nuova compressione neurale delle 5000. Mah

NTC richiede il supporto del game ed immagino che ci vorrà tempo prima che venga implementato dai principali motori, ergo i size della VRAM delle 5000 all'uscita saranno decisamente MEH con la 5080 che "primeggerà" in tal senso ...

Vik94
02-01-2025, 11:09
Se la 5090 non è una scheda da gaming,vuol dire che come le titans le prestazioni non vanno di pari passo con le migliorie hardware all' interno,quindi la scheda gaming di quest' anno quale sarebbe?dalle specifiche la 5080 se vabene prende un 10% in più rispetto la 90...se invece la 5090 va 40/50% più della 4090 potete dire quanto volete che "non è da gaming",ma chissenefrega se va molto di più io la uso per il gaming...
Ma infatti è una gigantesca idiozia. È nata perchè è una favoletta per autoconvincersi che è un prodotto a parte, e che ora non bisogna sborsare 2000 euro per una top di gamma.

Saturn
02-01-2025, 11:19
Sta generazione lato DIY se non offrirà soluzioni vram alternative su più fasce(clamshell o tripla densità) o magari di compressione, nascerà vecchia e invecchierà peggio. :rolleyes:

Passi per i 16gb di vram della 5080 che somigliano molto agli 8gb della 2080/s del 2018. :rolleyes:
All'epoca si è un po' sentita la puzza di downgrade rispetto alla 1080 ti che ne aveva 11, un po' come per gli 8gb della 3070 vs 11gb 2080 ti, dove però la differenza di prezzo nascondeva il tutto sotto la sabbia.
Ma 12gb sulla 5070 sono un po' meh, per non parlare degli 8 della 5060 vanilla. :rolleyes:

8GB di vram gli aveva l'rx 480 da 270 euro nel 2016, siamo nel 2025, potrai presentarti con una gpu da 350 euro con ancora 8gb di vram?
Veramente dobbiamo proprio rivalutare le 3070 usate che sugli annunci usati vengono via a 250 euro spedite? :rolleyes:

Questione anche di progresso che non c'è, in un campo che progresso ci dovrebbe campare. :help:

Concordo. Non posso far a meno di constatare che 8GB li ho io sulla GTX 1070 del 2016, pagata poco più di 350€, ancora funzionante. Adesso siamo nel 2025, su una RTX 5070 - io - mi aspetterei un minimo non di 12 ma di 16GB di ram, visti anche i prezzi che non son certo abbordabili. :fagiano:

Levax
02-01-2025, 11:24
Assolutamente, anche perché una 5080 con 24GB simil 4090 come perf a 1500€ sarebbe stata davvero molto interessante. 16 GB a quel prezzo mi sembrano non corretti.
Una 5080 a 24 giga la preferirei nettamente alla 5070 ti, mentre adesso a parità di ram mi tenta di più il modello inferiore. Mi preoccupa il pensiero di prendere una scheda a 1500 euro e poi il prossimo anno diver abbassare le texture perché la ram non basta, fosse anche per un singolo gioco.
E gli 8gb di 5060 e 5070 (soprattutto) nel mobile, e gli 8 gb di 5060 e 5060ti su desktop come anche i 12gb di 5070 ahah
Quelli non li commento neanche.

mikael84
02-01-2025, 11:35
Perché la 5090 allora ha 32 GB?i dubbi sorgono..

Perchè ha un 512bit, 16 canali da 32bit. Con la tripla densità salirebbe a 48gb.
La 5090 è oltre il doppio rispetto la 5080.

NTC richiede il supporto del game ed immagino che ci vorrà tempo prima che venga implementato dai principali motori, ergo i size della VRAM delle 5000 all'uscita saranno decisamente MEH con la 5080 che "primeggerà" in tal senso ...

Ancora che aspettiamo directstorage...

Telstar
02-01-2025, 11:39
Per me che non punto la 5090 (troppo per le mie tasche) l’uscita della 5080 è oro, dovrò solo decidere su cosa puntare, se una 4090 usata o l’ultima uscita

Ti consiglio la 5080 anche solo per questioni di potenza assorbita (i connettori che si fondono non sono rari).

Cutter90
02-01-2025, 12:22
NTC richiede il supporto del game ed immagino che ci vorrà tempo prima che venga implementato dai principali motori, ergo i size della VRAM delle 5000 all'uscita saranno decisamente MEH con la 5080 che "primeggerà" in tal senso ...

Chi lo dice che non sarà driver valido su tutti i giochi? perchè se non è così allora sono dolori

Cutter90
02-01-2025, 12:24
Texture neurali va bene ma queste quantità di vram sempre elargite con il contagoccie un pò hanno stufato, è palese che cercano margine anche da questa limitazione.

Si può fare molto meglio (dato poi il costo di queste schede), la vram serve.

Se il risultati finale di perf è equivalnete grazie al discorso compressione neurale frega meno di zero della vram.

argez
02-01-2025, 12:52
Sta generazione lato DIY se non offrirà soluzioni vram alternative su più fasce(clamshell o tripla densità) o magari di compressione, nascerà vecchia e invecchierà peggio. :rolleyes:

Passi per i 16gb di vram della 5080 che somigliano molto agli 8gb della 2080/s del 2018. :rolleyes:
All'epoca si è un po' sentita la puzza di downgrade rispetto alla 1080 ti che ne aveva 11, un po' come per gli 8gb della 3070 vs 11gb 2080 ti, dove però la differenza di prezzo nascondeva il tutto sotto la sabbia.
Ma 12gb sulla 5070 sono un po' meh, per non parlare degli 8 della 5060 vanilla. :rolleyes:

8GB di vram gli aveva l'rx 480 da 270 euro nel 2016, siamo nel 2025, potrai presentarti con una gpu da 350 euro con ancora 8gb di vram?
Veramente dobbiamo proprio rivalutare le 3070 usate che sugli annunci usati vengono via a 250 euro spedite? :rolleyes:

Questione anche di progresso che non c'è, in un campo che progresso ci dovrebbe campare. :help:

Monopolio in full load.

A questo punto era meglio il monopolio di intel ai tempi di sandy bridge.

ColdWarGuy
02-01-2025, 12:52
Chi lo dice che non sarà driver valido su tutti i giochi? perchè se non è così allora sono dolori

La compressione delle texture è gestita dall'applicazione (non è che il driver prende iniziative a tal riguardo e direi per fortuna) nei limiti delle possibilità dell'engine, esempio :

Unreal Engine Texture Compression Settings (https://dev.epicgames.com/documentation/en-us/unreal-engine/texture-compression-settings?application_version=4.27)

Unity Texture compression formats (https://docs.unity3d.com/2020.1/Documentation/Manual/texture-compression-formats.html)

e la cosa implica anche un set di texture preparato ad-hoc, devi comunque lavorarci sopra.

Alla luce di questo giudicate voi quanto sarà fair l'offerta della serie 5000, dal mio punto di vista sono a dir poco uno SCAM.

OrazioOC
02-01-2025, 12:59
Monopolio in full load.

A questo punto era meglio il monopolio di intel ai tempi di sandy bridge.

In retrospettiva periodo bruttissimo quello, passare da cpu come il 2600k/3770k al 6700k in 5 anni è stato uno dei più grossi scam informatici di sempre(e intel secondo me un po' lo sta pagando sotto la voce karma). :)

Resta il fatto, che se dalla 5070 ti in su nvidia avrà la strada spianata, sotto ci sarà battaglia per fortuna. :D

Cutter90
02-01-2025, 13:06
La compressione delle texture è gestita dall'applicazione (non è che il driver prende iniziative a tal riguardo e direi per fortuna) nei limiti delle possibilità dell'engine, esempio :

Unreal Engine Texture Compression Settings (https://dev.epicgames.com/documentation/en-us/unreal-engine/texture-compression-settings?application_version=4.27)

Unity Texture compression formats (https://docs.unity3d.com/2020.1/Documentation/Manual/texture-compression-formats.html)

e la cosa implica anche un set di texture preparato ad-hoc, devi comunque lavorarci sopra.

Alla luce di questo giudicate voi quanto sarà fair l'offerta della serie 5000, dal mio punto di vista sono a dir poco uno SCAM.

Vedremo, manca poco ormai: io non metto le mani avanti su nulla fino a che non si hanno certezze

ColdWarGuy
02-01-2025, 13:11
In retrospettiva periodo bruttissimo quello, -snip

Secondo me hai interpretato il post al contrario, i Sandy Bridge costavano una pipa ed un tabacco ed erano delle bombe, quello che è venuto dopo è una storia a parte.

Per cui sì, molto meglio quel dominio, almeno i prezzi erano sensati, con un 2500K che aveva margini di OC imbarazzanti ...

ColdWarGuy
02-01-2025, 13:12
Vedremo, manca poco ormai: io non metto le mani avanti su nulla fino a che non si hanno certezze

Se si intende che al day one l'NTC è applicabile a tutti i games la certezza c'è già (nel senso che non si può), a te comunque l'onere della prova del contrario.

Cutter90
02-01-2025, 13:17
Se si intende che al day one l'NTC è applicabile a tutti i games la certezza c'è già (nel senso che non si può), a te comunque l'onere della prova del contrario.

Si ma Nvidia non ha rilasciato alcuna dichiarazione al riguardo. E il fatto che con UE5 funzioni in un certo modo non da assolutamente la certezza che nvidia abbia fatto lo stesso. Quindi si resta nelle ipotesi e la risposta la darà nvidia, non di certo io :D

OrazioOC
02-01-2025, 13:41
https://videocardz.com/newz/msi-geforce-rtx-5080-gpu-has-been-leaked-16gb-gddr7-and-256-bit-confirmed

Zago91
02-01-2025, 13:42
Mi piace comunque come si continua a buttare letame sopra l'unica serie RTX di cui non si sa praticamente NULLA a parte la vram e qualche leak sui prezzi. A memoria non mi ricordo nessun lancio in cui non si avevano praticamente notizie su niente, almeno prima si avevano dei dati su cui discutere. Aspettiamo le recensioni

Ubro92
02-01-2025, 13:47
In retrospettiva periodo bruttissimo quello, passare da cpu come il 2600k/3770k al 6700k in 5 anni è stato uno dei più grossi scam informatici di sempre(e intel secondo me un po' lo sta pagando sotto la voce karma). :)



Resta il fatto, che se dalla 5070 ti in su nvidia avrà la strada spianata, sotto ci sarà battaglia per fortuna. :D

Invece del 6700k andavi per il 5820k/5960X e campavi tranquillo 🤣

Senza concorrenza questo é...

Lato GPU bisogna vedere quanto spingono le altre, la 5070 é un chip abbastanza ambiguo, é più vicino a una 5060ti che a una 5070ti, onestamente la vedo veramente male, la 9070xt pare più interessante.



Inviato dal mio M2012K11AG utilizzando Tapatalk

boldre
02-01-2025, 13:48
Ti consiglio la 5080 anche solo per questioni di potenza assorbita (i connettori che si fondono non sono rari).

dipende dalla forbice di prezzo, se vienw 1700 una custom e con 1200 mi trovo una 4090 con un po di garanzia residua potrei pure vacillare per la seconda.

Non veod l'ora di leggermi una bella recensione :sofico: per poi decidere il da farsi, devo solo rtesistere 3 settimane :D

ste-87
02-01-2025, 14:00
dipende dalla forbice di prezzo, se vienw 1700 una custom e con 1200 mi trovo una 4090 con un po di garanzia residua potrei pure vacillare per la seconda.

Non veod l'ora di leggermi una bella recensione :sofico: per poi decidere il da farsi, devo solo rtesistere 3 settimane :D

se fossero ipoteticamente quelli i prezzi con prestazioni simili tra le due la vedo difficile che chi ha una 4090 se ne "libera" per rivenderla a 1200, come minimo proveranno a tenerle sui 1500-1600 con discorsi è più "muscle" e ha 8Gb in più di vram, come se quelo cambiasse qualcosa all'atto pratico delle performance che rimangono sempre quelle...come vederlo :D

tanto è inutile girarci intorno, il 90% del successo e appetibilità di questa 5080 lo farà il prezzo, perchè è quello che condizionerà tutto il discorso

Luxor83
02-01-2025, 14:01
Lato GPU bisogna vedere quanto spingono le altre, la 5070 é un chip abbastanza ambiguo, é più vicino a una 5060ti che a una 5070ti, onestamente la vedo veramente male, la 9070xt pare più interessante.



Inviato dal mio M2012K11AG utilizzando Tapatalk

Io devo aspettare un pò e vedere i posizionamenti di mercato REALI che avranno, il budget (600€), più che reale è un tetto fissato da me che non sono assolutamente disposto a spendere più di quella cifra per un oggetto che serve a giocare e fra l'altro preciso che è anche la cifra più alta mai stanziata da me per una GPU, e quindi successivamente valutare la proposta più idonea.
Se le prestazioni della 5060Ti da 16gb saranno paragonabili ad una 4070 andrò con quella sperando di risparmiare qualcosa, altrimenti si vedra con una 5070 che però avrà 12Gb.
Il tutto sarà da vedere con quali prezzi si troveranno nei negozi.

Maury
02-01-2025, 14:23
Se il risultati finale di perf è equivalnete grazie al discorso compressione neurale frega meno di zero della vram.

Sei molto ottimista, al 99.9% servirà una patch al game, non credo ad un'applicazione always ON neanche se me lo dice giachetta :O

Salfox
02-01-2025, 14:25
https://videocardz.com/newz/msi-geforce-rtx-5080-gpu-has-been-leaked-16gb-gddr7-and-256-bit-confirmed

Solo a me sembra un'ulteriore conferma che questa serie non presenterà alcuna nuova feature?
Le caratteristiche riportate sulla scatola, come si dice anche nell'articolo, sono esattamente le stesse della serie 4000, se ci fosse stato qualcosa di nuovo non vi sembra che come minimo l'avrebbero messo in risalto sulla scatola?
Altro che DLSS4 e texture neurali, qui avremo solo più potenza bruta, speriamo allora che i prezzi si mantengano entro limiti ragionevoli.

Maury
02-01-2025, 14:27
Solo a me sembra un'ulteriore conferma che questa serie non presenterà alcuna nuova feature?
Le caratteristiche riportate sulla scatola, come si dice anche nell'articolo, sono esattamente le stesse della serie 4000, se ci fosse stato qualcosa di nuovo non vi sembra che come minimo l'avrebbero messo in risalto sulla scatola?
Altro che DLSS4 e texture neurali, qui avremo solo più potenza bruta, speriamo allora che i prezzi si mantengano entro limiti ragionevoli.

Diciamo che non promette bene, la scatola in genere deve fare da primo richiamo.

Molto strano che non ci sia menzione del DLSS 4 e delle Texture neurali. Perchè non citarli ? Forse non sono esclusiva di Black...

ghiltanas
02-01-2025, 14:29
Solo a me sembra un'ulteriore conferma che questa serie non presenterà alcuna nuova feature?
Le caratteristiche riportate sulla scatola, come si dice anche nell'articolo, sono esattamente le stesse della serie 4000, se ci fosse stato qualcosa di nuovo non vi sembra che come minimo l'avrebbero messo in risalto sulla scatola?
Altro che DLSS4 e texture neurali, qui avremo solo più potenza bruta, speriamo allora che i prezzi si mantengano entro limiti ragionevoli.

È quello che guardavo anch'io

Cutter90
02-01-2025, 14:30
Sei molto ottimista, al 99.9% servirà una patch al game, non credo ad un'applicazione always ON neanche se me lo dice giachetta :O

Prova a "sperare" ahahaha

Salfox
02-01-2025, 14:30
Diciamo che non promette bene, la scatola in genere deve fare da primo richiamo.

Molto strano che non ci sia menzione del DLSS 4 e delle Texture neurali. Perchè non citarli ? Forse non sono esclusiva di Black...

Mi sono studiato bene la scatola e qualcosina in effetti c'è, si fa riferimento ad un generico AI Accelerated Performance e poi sotto c'è una scritta che non si riesce a leggere (sembra Nvidia Dx Ex) chissa....

marbasso
02-01-2025, 14:35
https://videocardz.com/newz/msi-geforce-rtx-5080-gpu-has-been-leaked-16gb-gddr7-and-256-bit-confirmed

Maronn ro Carmine, brutta forte...

Maury
02-01-2025, 14:36
Prova a "sperare" ahahaha

chi vive sperando... ecc... :sofico:

Mi sono studiato bene la scatola e qualcosina in effetti c'è, si fa riferimento ad un generico AI Accelerated Performance e poi sotto c'è una scritta che non si riesce a leggere (sembra Nvidia Dx Ex) chissa....

Un pò generico, potrebbe essere riferimento al dlss, bho vediamo. Diciamo che certe novità prendono ben altro spazio, qua è una mezza riga.

Zago91
02-01-2025, 14:38
Un pò generico, potrebbe essere riferimento al dlss, bho vediamo. Diciamo che certe novità prendono ben altro spazio, qua è una mezza riga.

Il DLSS è già menzionato esplicitamente sotto "KEY FEATURES"

Iceman69
02-01-2025, 14:46
dipende dalla forbice di prezzo, se vienw 1700 una custom e con 1200 mi trovo una 4090 con un po di garanzia residua potrei pure vacillare per la seconda.

Non veod l'ora di leggermi una bella recensione :sofico: per poi decidere il da farsi, devo solo rtesistere 3 settimane :D

Come al solito tutto dipenderà dalle prestazioni, se la 5080 andrà più della 4090 in tutto (e non solo nelle novità del momento che si inventa Nvidia) allora ci sono buone speranze di trovare la 4090 a buon prezzo, in caso contrario mi sa che con 1700 di prezzo per la 5080 a meno di 1500 la 4090 non si troverà, soprattutto con garanzia residua ancora valida.

Custode
02-01-2025, 14:50
Come giustamente fatto notare da Salfox, sembrano mancare del tutto nuove features, e lo sottolinea anche l'articolista:

"Our focus should be on the platform technology details. Interestingly, there appears to be no changes whatsoever compared to the RTX 40 series. Each marketing point and technology mentioned remains exactly the same as the older model."

Butta male...

Maury
02-01-2025, 14:54
https://i.ibb.co/Vt0pWbS/Packaging-Rear.jpg (https://ibb.co/nbq8s4c)

Questa la scatola di una 4080, si cita ovviamente la IA Accelerated con riferimento al DLSS, nella foto della 5080 non è ben chiaro cosa ci sia scritto sotto. :confused:

Cutter90
02-01-2025, 14:58
Maronn ro Carmine, brutta forte...

A me piace molto invece :)

Zago91
02-01-2025, 15:07
New GeForce RTX 50 design teased by NVIDIA: dual front fans and LED strip
(https://videocardz.com/newz/new-geforce-rtx-50-design-teased-by-nvidia-dual-front-fans-and-led-strip)

Sembra essere un modello FE, sicuramente non una 5090 viste le dimensioni :asd:

boldre
02-01-2025, 15:37
Come al solito tutto dipenderà dalle prestazioni, se la 5080 andrà più della 4090 in tutto (e non solo nelle novità del momento che si inventa Nvidia) allora ci sono buone speranze di trovare la 4090 a buon prezzo, in caso contrario mi sa che con 1700 di prezzo per la 5080 a meno di 1500 la 4090 non si troverà, soprattutto con garanzia residua ancora valida.
Per 100/200€ mi prendo una scheda nuova con 3 anni di garanzia, non ci piove

se fossero ipoteticamente quelli i prezzi con prestazioni simili tra le due la vedo difficile che chi ha una 4090 se ne "libera" per rivenderla a 1200, come minimo proveranno a tenerle sui 1500-1600 con discorsi è più "muscle" e ha 8Gb in più di vram, come se quelo cambiasse qualcosa all'atto pratico delle performance che rimangono sempre quelle...come vederlo :D

tanto è inutile girarci intorno, il 90% del successo e appetibilità di questa 5080 lo farà il prezzo, perchè è quello che condizionerà tutto il discorso

Nahh, secondo me già adesso 1500/1600 in ita si fa fatica, qualcosa caleranno, io dico 1200, ma vedremo

EddieTheHead
02-01-2025, 16:41
dài niente features nuove (se non ovvi aggiornamenti della roba vecchia)

altro che AI compressione neurale e supercazzole varie, ci fosse qualcosa di nuovo ci sarebbe una scritta sbrilluccicante grande come tutta la scatola e ci starebbero martellando le gonadi da mesi con la pubblicità :ciapet:

a sto giro incremento di prestazioni del 10% con aumento dei prezzi del 20.

Luxor83
02-01-2025, 16:50
dài niente features nuove (se non ovvi aggiornamenti della roba vecchia)

altro che AI compressione neurale e supercazzole varie, ci fosse qualcosa di nuovo ci sarebbe una scritta sbrilluccicante grande come tutta la scatola e ci starebbero martellando le gonadi da mesi con la pubblicità :ciapet:

a sto giro incremento di prestazioni del 10% con aumento dei prezzi del 20.

Anche io ho questa impressione, però vabè a giorni vedremo.

mikael84
02-01-2025, 16:59
Diciamo che non promette bene, la scatola in genere deve fare da primo richiamo.

Molto strano che non ci sia menzione del DLSS 4 e delle Texture neurali. Perchè non citarli ? Forse non sono esclusiva di Black...

A conti fatti, neppure con Ampere ha presentato nulla, se non potenza bruta, soprattutto nel rapporto 3080/2080. il resto era basato sul 8k (fuffa), DXIO directstorage (fuffa o poco ci manca), GDDR6X (memorie costose create con micron per il fail del G6).
Il vero salto di Ampere, fu per la modalità SMT64 per i pro, grazie alle doppie ALU. Ampere infatti fu una fascia più che altro per loro.

Qua passiamo dal 5nm (4nm mod) ad un 4nmHP e G7, con un modello super pompato, e gli altri con sku riciclate. Un nodo totalmente di transizione.

marbasso
02-01-2025, 18:00
New GeForce RTX 50 design teased by NVIDIA: dual front fans and LED strip
(https://videocardz.com/newz/new-geforce-rtx-50-design-teased-by-nvidia-dual-front-fans-and-led-strip)

Sembra essere un modello FE, sicuramente non una 5090 viste le dimensioni :asd:

Ma di nuovo il connettore in quella posizione di mxrda?
Cioè è scandaloso dai.
:muro:
Poi dimensioni....se quella è una 5090, e non credo proprio, prepariamoci a temperature Mercuriane.

OrazioOC
02-01-2025, 18:08
A conti fatti, neppure con Ampere ha presentato nulla, se non potenza bruta, soprattutto nel rapporto 3080/2080. il resto era basato sul 8k (fuffa), DXIO directstorage (fuffa o poco ci manca), GDDR6X (memorie costose create con micron per il fail del G6).
Il vero salto di Ampere, fu per la modalità SMT64 per i pro, grazie alle doppie ALU. Ampere infatti fu una fascia più che altro per loro.

Qua passiamo dal 5nm (4nm mod) ad un 4nmHP e G7, con un modello super pompato, e gli altri con sku riciclate. Un nodo totalmente di transizione.

Ho come l'impressione(un po' come per le cpu fatto salvo il 9800x3d) che sia un'altra generazione da saltare a piedi pari, non solo per chi ha un'Ada, ma anche per chi c'ha un'Ampere. :rolleyes:
Inizio a sperare seriamente che entro il 2026 ci sia già la serie 6000, con almeno le gddr7 tripla densità disponibile su tutta la lineup. :)

Iceman69
02-01-2025, 18:10
Per 100/200€ mi prendo una scheda nuova con 3 anni di garanzia, non ci piove




Anche io la penso così, ma c'è chi 200 euro di risparmio li apprezza.
Nell'ipotesi che vadano più o meno uguali, se poi andrà addirittura un 10% in meno come si vocifera ...

OrazioOC
02-01-2025, 18:31
Anche io la penso così, ma c'è chi 200 euro di risparmio li apprezza.
Nell'ipotesi che vadano più o meno uguali, se poi andrà addirittura un 10% in meno come si vocifera ...

Ci manca solo che la 5080 non arrivi a livello della 4090 a modi 4060 vs 3060 ti.
In quel caso spero che non la presentino proprio. :rolleyes:

Anche se la moda del momento è di presentare prodotti di dubbia progressione rispetto a quelli correnti(vedasi Arrow lake di intel, ma anche ZEN 5 non X3D vs ZEN 4 non X3D). :rolleyes:

ColdWarGuy
02-01-2025, 18:37
Solo a me sembra un'ulteriore conferma che questa serie non presenterà alcuna nuova feature?
Le caratteristiche riportate sulla scatola, come si dice anche nell'articolo, sono esattamente le stesse della serie 4000, se ci fosse stato qualcosa di nuovo non vi sembra che come minimo l'avrebbero messo in risalto sulla scatola?
Altro che DLSS4 e texture neurali, qui avremo solo più potenza bruta, speriamo allora che i prezzi si mantengano entro limiti ragionevoli.

Esattamente quello che dicevo io qualche post addietro, se c'era da dare fiato alle trombe l'avrebbero già fatto, my bet is che hanno rediretto tutto le risorse valide sui prodotti AI dove vendono al peso del diamante ...

boldre
02-01-2025, 18:43
Ci manca solo che la 5080 non arrivi a livello della 4090 a modi 4060 vs 3060 ti.
In quel caso spero che non la presentino proprio. :rolleyes:

Anche se la moda del momento è di presentare prodotti di dubbia progressione rispetto a quelli correnti(vedasi Arrow lake di intel, ma anche ZEN 5 non X3D vs ZEN 4 non X3D). :rolleyes:
No be se non ci arriva veramente è una scheda no sense in tutto e per tutto :muro:

shauni86
02-01-2025, 19:21
quando verranno presentate al ces?

Zago91
02-01-2025, 19:26
quando verranno presentate al ces?

6 gennaio alle 18:30 ora locale, 3:30am del 7 gennaio da noi

OrazioOC
02-01-2025, 19:56
No be se non ci arriva veramente è una scheda no sense in tutto e per tutto :muro:

Non ci vuol niente che giacchetta si presenti con delle slides in cui fa il paragone tra la 5080 e le 3080 e 4080, lasciando intendere un distacco netto con la 3080 e meno marcato con la 4080, e di riflesso sotto la 4090.

Spero non sia questo il caso, perchè una 5080 con ben 400w di tdp(ovvero solamente 50w in meno rispetto alla 4090) che non la raggiunge nemmeno, sarebbe oltre che orribile, pure la perfetta cartina tornasole di un settore che campa di vaporwave da anni ormai. :rolleyes:

EddieTheHead
02-01-2025, 20:29
non capisco in base a cosa pretendiate 5080>=4090

a rigor di logica la seconda scheda della serie nuova ha solo da essere migliore della seconda scheda della serie vecchia,; tnato più che fra 4090 e 4080 c'era quasi un abisso.

ovviamente il volere o lo sperare sono un altro discorso, ma non mi stupirei se jacco si presentasse con una 5080 a metà fra le due 4000, tanto chi glielo fa fare?

OrazioOC
02-01-2025, 20:33
non capisco in base a cosa pretendiate 5080>=4090

a rigor di logica la seconda scheda della serie nuova ha solo da essere migliore della seconda scheda della serie vecchia,; tnato più che fra 4090 e 4080 c'era quasi un abisso.

ovviamente il volere o lo sperare sono un altro discorso, ma non mi stupirei se jacco si presentasse con una 5080 a metà fra le due 4000, tanto chi glielo fa fare?

4080 era migliore di 3090 ti;
3080 era migliore di 2080 ti;
2080 non andava peggio della 1080 ti;
1080 ti decisamente meglio di 980 ti;

E potrei continuare. :)
Qualsiasi risultato negativo, anche solo un 5% di performance inferiori alla 4090 da parte della 5080, nel 2025 non dovrà essere tollerato. :muro:

Zago91
02-01-2025, 20:34
non capisco in base a cosa pretendiate 5080>=4090

a rigor di logica la seconda scheda della serie nuova ha solo da essere migliore della seconda scheda della serie vecchia,; tnato più che fra 4090 e 4080 c'era quasi un abisso.

ovviamente il volere o lo sperare sono un altro discorso, ma non mi stupirei se jacco si presentasse con una 5080 a metà fra le due 4000, tanto chi glielo fa fare?

In realtà 4070 > 3090

il problema è che secondo me la gente tende a sorvolare sul fatto che la differenza tra 4090 e 3090 è moooooooolto più marcata rispetto a quella tra 3090 e 2080ti. La 4090 è un mostro, e continuerà ad esserlo anche dopo l'uscita delle 5000

edit: ho fatto confusione sui numeri

PConly92
02-01-2025, 20:44
ecco. avevo una mezza intenzione di rifarmi un pc da gaming ma leggendo qua e là mi sta passando la voglia...a vedere le 5000 saranno solo un "refresh" delle 4xxx. poi con questi costi assurdi :rolleyes:
secondo voi che scheda (per 4k 60fps dlss) ha senso prendere ora come ora?
pensavo una 4070 ti super o 4080 super

Iceman69
02-01-2025, 20:47
4080 era migliore di 3090 ti;
3080 era migliore di 2080 ti;
2080 non andava peggio della 1080 ti;
1080 ti decisamente meglio di 980 ti;

E potrei continuare. :)
Qualsiasi risultato negativo, anche solo un 5% di performance inferiori alla 4090 da parte della 5080, nel 2025 non dovrà essere tollerato. :muro:

Nel tempo il margine si è molto ridotto, a questo giro la differenza tra 4080 e 4090 è tale che ci sta benissimo la 5080 in mezzo alle due, tutto dipenderà dalle frequenze a cui girerà la 5080, ma temo che a parità di clock la 5080 sia sotto la 4090, guardando le specifiche tecniche conosciute fino ad ora almeno.

OrazioOC
02-01-2025, 20:53
Nel tempo il margine si è molto ridotto, a questo giro la differenza tra 4080 e 4090 è tale che ci sta benissimo la 5080 in mezzo alle due, tutto dipenderà dalle frequenze a cui girerà la 5080, ma temo che a parità di clock la 5080 sia sotto la 4090, guardando le specifiche tecniche conosciute fino ad ora almeno.

E' come dire che tra la 1080 e la 1080 ti c'era talmente tanto margine, da giustificare un'eventuale 2080 sotto le performance 1080 ti. :rolleyes:
Non è ammissibile una cosa del genere, tanto più ora che la 5080 sarà la gpu top per il gaming, mentre la 5090 sarà qualcosa di pensato non solo per il puro gaming.:rolleyes:
Staremo a vedere, ma già la foto di quello scatolo della MSI RTX 5080 non lascia presagire nulla di buono, visto che non ci sono features differenti rispetto alle attuali rtx 4000. :help:

Maury
02-01-2025, 20:53
A conti fatti, neppure con Ampere ha presentato nulla, se non potenza bruta, soprattutto nel rapporto 3080/2080. il resto era basato sul 8k (fuffa), DXIO directstorage (fuffa o poco ci manca), GDDR6X (memorie costose create con micron per il fail del G6).
Il vero salto di Ampere, fu per la modalità SMT64 per i pro, grazie alle doppie ALU. Ampere infatti fu una fascia più che altro per loro.

Qua passiamo dal 5nm (4nm mod) ad un 4nmHP e G7, con un modello super pompato, e gli altri con sku riciclate. Un nodo totalmente di transizione.

I precedenti passaggi hanno poi una variabile che oggi con Black non si presenta o almeno è attutita.

Il clock.

Tra Ampere e Ada, al netto di tutte le aggiunte che conosciamo, lato potenza bruta ci ballano 1 Ghz di clock buono. Ora questo 'giochino' non credo possa ripetersi quindi si, uno step di forza in più ma non quanto si possa sperare. Lato feature pro game spero non abbia un pò mollato il colpo per via di interessi ormai spostati in altre mercati, vedi IA.

Ubro92
02-01-2025, 20:55
non capisco in base a cosa pretendiate 5080>=4090

a rigor di logica la seconda scheda della serie nuova ha solo da essere migliore della seconda scheda della serie vecchia,; tnato più che fra 4090 e 4080 c'era quasi un abisso.

ovviamente il volere o lo sperare sono un altro discorso, ma non mi stupirei se jacco si presentasse con una 5080 a metà fra le due 4000, tanto chi glielo fa fare?

Va visto anche il PL, da quanto mi pare di capire la 5080 è tirata fino a 400w, penso che quanto meno un pareggio con 4090 (450w) è fattibile.

mikael84
02-01-2025, 21:00
4080 era migliore di 3090 ti;
3080 era migliore di 2080 ti;
2080 non andava peggio della 1080 ti;
1080 ti decisamente meglio di 980 ti;

E potrei continuare. :)
Qualsiasi risultato negativo, anche solo un 5% di performance inferiori alla 4090 da parte della 5080, nel 2025 non dovrà essere tollerato. :muro:

Serve rivedere la microarchitettura in modo serio, ma non ci sono i transistor per farlo. Spero venga confermato almeno il TDP, perchè se è di 400watt, qualcosa hanno fatto, se è di 320, 30-35% perf/watt con questo nodo, serve un miracolo.
La 5080 con un die da 377, analogo a quello della 4080, dovrebbe prendere la 4090... e' dura. Ok che la 4090 è anche uno scarto, però...

I rumour su AMD la danno al 14% sul time spy, e con il 6,6% di ALU vs la 7800xt con clock tra i 2,8 e 3,1 nelle custom spinte a 330watt.

JHH con ampere, ha preparato la 4080 12 come post 3080 12 con tanto di slide anche in raster tra le 2, quindi non si farà di certo scrupoli nel caso.

OrazioOC
02-01-2025, 21:05
Serve rivedere la microarchitettura in modo serio, ma non ci sono i transistor per farlo. Spero venga confermato almeno il TDP, perchè se è di 400watt, qualcosa hanno fatto, se è di 320, 30-35% perf/watt con questo nodo, serve un miracolo.
La 5080 con un die da 377, analogo a quello della 4080, dovrebbe prendere la 4090... e' dura. Ok che la 4090 è anche uno scarto, però...

I rumour su AMD la danno al 14% sul time spy, e con il 6,6% di ALU vs la 7800xt con clock tra i 2,8 e 3,1 nelle custom spinte a 330watt.

JHH con ampere, ha preparato la 4080 12 come post 3080 12 con tanto di slide anche in raster tra le 2, quindi non si farà di certo scrupoli nel caso.

Infatti Mike il tdp della 5080 è veramente troppo alto da non dar da pensare. :)
Manco le 3080/3080 ti partivano da tdp così alti, ed erano dei chip belli grossi su un nodo tutt'altro che fine. :stordita:
Se BW sparato a 400w, non piglia ADA sparata a 450w, direi che c'è un grosso problema sotto la voce efficienza energetica. :rolleyes:

amon.akira
02-01-2025, 21:12
io penso che abbia sparato tutto il possibile per dare quel +30% sulla 4080s (clock,banda,tdp) ed andrà sicuramente a ridosso della 4090...poi il resto lo farà il prezzo.

mikael84
02-01-2025, 21:13
E' come dire che tra la 1080 e la 1080 ti c'era talmente tanto margine, da giustificare un'eventuale 2080 sotto le performance 1080 ti. :rolleyes:
Non è ammissibile una cosa del genere, tanto più ora che la 5080 sarà la gpu top per il gaming, mentre la 5090 sarà qualcosa di pensato non solo per il puro gaming.:rolleyes:
Staremo a vedere, ma già la foto di quello scatolo della MSI RTX 5080 non lascia presagire nulla di buono, visto che non ci sono features differenti rispetto alle attuali rtx 4000. :help:

La 2080, ha un die da 545 con 13,6mt transistor, la 1080ti è un cut da 12mtransistor e 471mm2, tecnicamente è inferiore.
Con gli interi scorporati, i 2944cc rendevano un tantino meglio dei 3584 di pascal.
C'è un 10% di transistor per RT, ma in questo 10% sono compresi anche gli interi ed i tensor.

I precedenti passaggi hanno poi una variabile che oggi con Black non si presenta o almeno è attutita.

Il clock.

Tra Ampere e Ada, al netto di tutte le aggiunte che conosciamo, lato potenza bruta ci ballano 1 Ghz di clock buono. Ora questo 'giochino' non credo possa ripetersi quindi si, uno step di forza in più ma non quanto si possa sperare. Lato feature pro game spero non abbia un pò mollato il colpo per via di interessi ormai spostati in altre mercati, vedi IA.

Si, un pò come pascal, clock e densità. Qua, sicuramente avranno tirato i clock, tra rivisitazione elettrica e passaggio al 4nmHP, però , non avremmo di certo 1,5x di clock.
lo stesso dicasi per la densità, la 5080 pare avere un die analogo alla 4080, e con una densità simile o poco superiore.

OrazioOC
02-01-2025, 21:16
io penso che abbia sparato tutto il possibile per dare quel +30% sulla 4080s (clock,banda,tdp) ed andrà sicuramente a ridosso della 4090...poi il resto lo farà il prezzo.

Almeno in FHD/1440P dev'essere 5080>=4090, poi in 4k ci sta che la 4090 gli vada sopra, ma la 5080 deve avere delle W in certi scenari, altrimenti è male.:help:

mikael84
02-01-2025, 21:46
Infatti Mike il tdp della 5080 è veramente troppo alto da non dar da pensare. :)
Manco le 3080/3080 ti partivano da tdp così alti, ed erano dei chip belli grossi su un nodo tutt'altro che fine. :stordita:
Se BW sparato a 400w, non piglia ADA sparata a 450w, direi che c'è un grosso problema sotto la voce efficienza energetica. :rolleyes:

Sempre che tale TDP venga confermato, e di certo non possono prendere 80watt in stile 4070super/4070ti, spremendo oltre l'efficienza per 1-200mhz.

Per dire, la 5070TI, piccolo cut, viene data per un simbolico 300watt.

L'unico modo è rivedere il sistema datapath delle ALU e migliorare l'IPC con poche risorse, perchè a livello di transistor ci sarà un abisso tra 4090 e 5080, soprattutto se parte dei transistor vengono spesi per i nuovi tensor, pipeline RT.


Uno dei pochi leak confortanti, riguarda il portatile con la 5060 che stazza in zona 4060ti, battendola di pochissimo. Qua bisognerà vedere le spec. della mobile, se 3072 o 3840cc, perchè se avranno pari ALU, la 5060 desktop batterà tranquillamente la TI desktop e quindi c'è speranza anche sopra.

ste-87
02-01-2025, 21:47
non capisco in base a cosa pretendiate 5080>=4090

a rigor di logica la seconda scheda della serie nuova ha solo da essere migliore della seconda scheda della serie vecchia,; tnato più che fra 4090 e 4080 c'era quasi un abisso.

ovviamente il volere o lo sperare sono un altro discorso, ma non mi stupirei se jacco si presentasse con una 5080 a metà fra le due 4000, tanto chi glielo fa fare?

https://www.techpowerup.com/review/nvidia-geforce-rtx-4080-super-founders-edition/32.html

se non arriva neanche a fare un +25-27% pulito... chi vuoi che tiri fuori dai minimo 1200 ai 1500€ per una 5080? sarebbe parecchio una barzelletta che ricalcherebbe il "successo" che ha avuto la 4080 a 1400-1500€ come vendite...seriamente c'è qualcuno che cambierebbe per un +15%?

p.s. e non dico che deve andare di più, ma quanto meno a pari con poca differenza in + o in -....

OrazioOC
02-01-2025, 21:52
Sempre che tale TDP venga confermato, e di certo non possono prendere 80watt in stile 4070super/4070ti, spremendo oltre l'efficienza per 1-200mhz.

Per dire, la 5070TI, piccolo cut, viene data per un simbolico 300watt.

L'unico modo è rivedere il sistema datapath delle ALU e migliorare l'IPC con poche risorse, perchè a livello di transistor ci sarà un abisso tra 4090 e 5080, soprattutto se parte dei transistor vengono spesi per i nuovi tensor, pipeline RT.


Uno dei pochi leak confortanti, riguarda il portatile con la 5060 che stazza in zona 4060ti, battendola di pochissimo. Qua bisognerà vedere le spec. della mobile, se 3072 o 3840cc, perchè se avranno pari ALU, la 5060 desktop batterà tranquillamente la TI desktop e quindi c'è speranza anche sopra.
Esattamente, in quel leak del 3dmark timespy di ieri, la 5060 mobile ha battuto di circa il 32% la 4060 mobile, basata su AD107 full(24 smt/3072 cc come la 4060 desktop) con lo stesso tdp di 115w.
Insomma si, c'è speranza. :)

Zago91
02-01-2025, 21:55
https://www.techpowerup.com/review/nvidia-geforce-rtx-4080-super-founders-edition/32.html

se non arriva neanche a fare un +25-27% pulito... chi vuoi che tiri fuori dai minimo 1200 ai 1500€ per una 5080? sarebbe parecchio una barzelletta che ricalcherebbe il "successo" che ha avuto la 4080 a 1400-1500€ come vendite...seriamente c'è qualcuno che cambierebbe per un +15%?

p.s. e non dico che deve andare di più, ma quanto meno a pari con poca differenza in + o in -....

Nella peggiore delle ipotesi la 5080 andrà più o meno come la 4090 in termini di potenza bruta ma verrà spinta dalle tech, nella migliore la supererà con un certo distacco. Purtroppo non si sa praticamente niente e bisogna per forza aspettare il 6

amon.akira
02-01-2025, 22:23
Nella peggiore delle ipotesi la 5080 andrà più o meno come la 4090 in termini di potenza bruta ma verrà spinta dalle tech, nella migliore la supererà con un certo distacco. Purtroppo non si sa praticamente niente e bisogna per forza aspettare il 6

superare con un certo distacco la 4090 significa far fare alla 5090 2x sulla 4090, non penso proprio imho

Zago91
02-01-2025, 22:29
superare con un certo distacco la 4090 significa far fare alla 5090 2x sulla 4090, non penso proprio imhoEh oddio, magari doppiare no ma secondo me ci va vicino... perlomeno questo mi fanno pensare i leaks usciti fino adesso

kaigab
02-01-2025, 22:33
Almeno in FHD/1440P dev'essere 5080>=4090, poi in 4k ci sta che la 4090 gli vada sopra, ma la 5080 deve avere delle W in certi scenari, altrimenti è male.:help:

Considerato che il senso di acquistare la 5080 (o la 4090) è giocare a 4k con RT o PT (altrimenti non serve andare oltre la 4070 sinceramente...) credo debba per forza andare oltre la 4090 in 4k con RT/PT.

Altrimenti chi la acquisterebbe ?

kaigab
02-01-2025, 22:38
https://www.techpowerup.com/review/nvidia-geforce-rtx-4080-super-founders-edition/32.html

se non arriva neanche a fare un +25-27% pulito... chi vuoi che tiri fuori dai minimo 1200 ai 1500€ per una 5080? sarebbe parecchio una barzelletta che ricalcherebbe il "successo" che ha avuto la 4080 a 1400-1500€ come vendite...seriamente c'è qualcuno che cambierebbe per un +15%?

p.s. e non dico che deve andare di più, ma quanto meno a pari con poca differenza in + o in -....

appunto. Considerato che la 4090 la compri usata a 1500€ e la 4080 la compri nuova a 1100€...chi acquisterebbe una 5080 a 1500€ se non va almeno un 10/20% oltre la 4090 ?

Ubro92
02-01-2025, 22:53
Eh oddio, magari doppiare no ma secondo me ci va vicino... perlomeno questo mi fanno pensare i leaks usciti fino adesso

Dubito fortemente, in genere i chip cosi mastodontici scalano maluccio e di certo non possono permettersi gli stessi clock dei chip inferiori.

A mio pare se già riesce a staccare la 4090 di un +60% è grasso che cola, a meno di tirarla oltre i 600w.

Vedremo nei prossimi giorni con info più solide, ma da quello che mi pare di capire questa gen alza molto i profili energetici per staccare le precedenti 4000.

Iceman69
02-01-2025, 22:54
appunto. Considerato che la 4090 la compri usata a 1500€ e la 4080 la compri nuova a 1100€...chi acquisterebbe una 5080 a 1500€ se non va almeno un 10/20% oltre la 4090 ?

Chi vuole una scheda nuova al prezzo di una usata ... battute a parte io la vedo molto dura, viste le caratteristiche tecniche, che la 5080 vada più della 4090 salvo la clockino a 4000Mhz (impossibile visto il nodo).
Ai tempi della 4090 si diceva lo stesso di quello che ora si dice per la 5090, quindi ci sta che resti una scheda TOP.
Poi faranno una 5080s (ti) che supererà di poco la 4090 senza infastidire la 5090 secondo me.
Manca poco al lancio, che poi se piazzeranno la 5090 a 3k euro (e mi spiace dirlo, ma ci sta se avrà il doppio delle prestazioni della 5080 a 1500 euro), mi sa che proprio tante di 4090 sul mercatino non se ne vedranno ...

Gapudo
02-01-2025, 23:02
il quantitativo di VRAM lo decidono gli sviluppatori e le console e Nvidia si basa su quello, questa ansia da carenza di VRAM è abbastanza ridicola, come se veramente mettere 2 giga di VRAM in meno facesse risparmiare chissà quanti miliardi. Sono due chippetti da due soldi, se non ce li mettono vuol dire che non servono.

Gli ingegneri Nvidia ne sanno sicuramente più di voi. Ho perso il conto dei giochi che non arrivano manco a 8 GB di VRAM utilizzata. Poi con gli upscaler che diventano sempre più evoluti, la VRAM diventa sempre meno importante perché tanto nel giro di 5 anni la risoluzione massima di rendering sarà 1440p e il resto sarà tutto upscaling. Poi le texture vanno compresse e gli algoritmi di compressione migliorano col tempo

davide155
02-01-2025, 23:27
il quantitativo di VRAM lo decidono gli sviluppatori e le console e Nvidia si basa su quello, questa ansia da carenza di VRAM è abbastanza ridicola, come se veramente mettere 2 giga di VRAM in meno facesse risparmiare chissà quanti miliardi. Sono due chippetti da due soldi, se non ce li mettono vuol dire che non servono.



Gli ingegneri Nvidia ne sanno sicuramente più di voi. Ho perso il conto dei giochi che non arrivano manco a 8 GB di VRAM utilizzata. Poi con gli upscaler che diventano sempre più evoluti, la VRAM diventa sempre meno importante perché tanto nel giro di 5 anni la risoluzione massima di rendering sarà 1440p e il resto sarà tutto upscaling. Poi le texture vanno compresse e gli algoritmi di compressione migliorano col tempoNel giro di 5 anni ci sarà l'8k altroché 1440p. Già si è affacciato sul mercato e si vedono i primi monitor.

Comunque sul fatto dei chippettini da due soldi dimentichi un piccolo particolare. Il posizionamento delle gpu ed il relativo prezzo. Se era scontato come dici avrebbero messo 24gb di ram dalla 60 alla 90. Ma per una questione di disuguaglianza tra le fasce devono fare distinzione fra le gpu.
Senza tralasciare il fatto che meno ram metti e prima diventerà obsoleta la gpu, con conseguente spinta al cambio con la gen successiva.
L'isteria per la ram son d'accordo che non serve a nulla comunque.

ste-87
02-01-2025, 23:31
Nella peggiore delle ipotesi la 5080 andrà più o meno come la 4090 in termini di potenza bruta ma verrà spinta dalle tech, nella migliore la supererà con un certo distacco. Purtroppo non si sa praticamente niente e bisogna per forza aspettare il 6

è quello che mi aspetto, magari con la tech che la fa andare un +5-10% sopra in pochi casi ma che mediamente sarà pari alla 4090, i cc di differenza sono pur sempre tanti tra le 2

Manca poco al lancio, che poi se piazzeranno la 5090 a 3k euro (e mi spiace dirlo, ma ci sta se avrà il doppio delle prestazioni della 5080 a 1500 euro), mi sa che proprio tante di 4090 sul mercatino non se ne vedranno ...

Magari scalassero in maniera diretta, anche con poco più del doppio dei cc un 60-65% sarebbe già ottimo dalla 5080, che è comunque un incremento notevole.

Rimango curioso, una volta usciti tutti i particolari dell'architettura, un'analisi di Michael che sicuramente snocciolerà tutto con le sue conoscenze...e magari saprà dirci se è fattibile anche un cut della 5090 a 5080Ti, considerando quante ne usciranno fallate viste le rese e il padellone che è

---

per il discorso ram, per come la vedo 16gb su una scheda come la 5080 li vedo ben bilanciati in ottica da qui a 2-3 anni...quando arrivi a sfruttarli veramente bene al terzo anno e incominceranno ad essere strettini, anche la gpu non sarà poi quel granch'è da poter stare al passo anche ne avesse avuti di più (ipoteticamente) 4 in più...negli altri casi saranno sempre i soliti 3-4 titoli in croce ottimizzati col :ciapet:

Gapudo
02-01-2025, 23:49
Nel giro di 5 anni ci sarà l'8k altroché 1440p. Già si è affacciato sul mercato e si vedono i primi monitor.

8K avrà una percentuale di diffusione dello 0,001% e il 4K sarà fasullo, upscalato da una risoluzione molto più bassa. Nessuno noterà la differenza grazie alle AI sempre più evolute.

micronauta1981
03-01-2025, 04:14
https://videocardz.com/newz/nvidia-geforce-rtx-5090-reportedly-features-tdp-of-575w-rtx-5080-set-at-360w
5090 575w
5080 360w

micronauta1981
03-01-2025, 05:26
Comunque 575w non è troppo vicino al limite di 600w del cavo?possibile la 5090 richieda 2 cavi 12v 2x6?

Re-voodoo
03-01-2025, 06:33
Comunque 575w non è troppo vicino al limite di 600w del cavo?possibile la 5090 richieda 2 cavi 12v 2x6?

O ci sarà 2 cavi nei modelli più spinti (il bello sarebbe 2x6 e un 8 pin non so se sia possibile) oppure non si potranno overcloccare molto di più

Salfox
03-01-2025, 06:44
Comunque 575w non è troppo vicino al limite di 600w del cavo?possibile la 5090 richieda 2 cavi 12v 2x6?

Ovviamente, come tutti i componenti elettrici, hanno un margine di sicurezza in alto ma tutte le 5090 avranno il PL impostato a 600W non modificabile.
Ci saranno alcune 5090 che avranno questo limite rimosso e che presenteranno due connessioni a 16 pin.
Saranno comunque modelli costosissimi con tirature infinitesimali e difficilissimi da acquistare.
Rinnovo la mia speranza di avere la 5090FE con un prezzo ivato in Italia di 2299€.

Zago91
03-01-2025, 07:07
O ci sarà 2 cavi nei modelli più spinti (il bello sarebbe 2x6 e un 8 pin non so se sia possibile) oppure non si potranno overcloccare molto di più

Infatti mi stavo chiedendo la stessa cosa da ignorante in materia. Parlano tutti di doppio 2x6 ma mi chiedevo se fosse possibile un 2x6 + 8pin. Onestamente mi sembra assurdo pensare a un doppio 2x6, persino sui modelli a tiratura limitata. Anche perchè se non sbaglio il 12V-2x6 riesce a gestire fino a 675W, e nell'utilizzo reale la 5090 non so nemmeno se sfiorerà mai effettivamente i 600W

OrazioOC
03-01-2025, 07:14
https://videocardz.com/newz/nvidia-geforce-rtx-5090-reportedly-features-tdp-of-575w-rtx-5080-set-at-360w
5090 575w
5080 360w

Kudos se la 5080 andrà almeno come la 4090 in fhd/1440p con 360w di tdp, mezzo fail se gli starà sotto. :rolleyes:

Cfranco
03-01-2025, 07:33
Nella peggiore delle ipotesi la 5080 andrà più o meno come la 4090 in termini di potenza bruta
In base a cosa hai questa speranza ?
Se i rumor sono accurati la 5080 avrà 2/3 dei cuda della 4090 con un incremento del clock abbastanza risibile
Il PP è appena marginalmente meglio, come puoi sperare di aumentare del 50% la potenza a parità di cuda e clock ? si possono fare delle ottimizzazioni ma per fare quel tipo di salto di prestazione vorrebbe dire che la 4080 è stata progettata da un branco di scimmie e francamente non lo credo
Tutto indica che la 5080 sarà ben sotto la 4090

Maury
03-01-2025, 07:38
Per me state esagerando a dare poteri magici alla 5080 rispetto alla 4090, per me quest'ultima rimarrà parecchio avanti, ha troppe unità in più. Poi i 360 w della 5080 non danno chissà quale margine.

Zago91
03-01-2025, 07:41
Cercavo di essere ottimista, come Gianni...

Cfranco
03-01-2025, 07:44
Cercavo di essere ottimista, come Gianni...
:friend:
Spero tu abbia ragione, ma temo di avere ragione io

Gapudo
03-01-2025, 07:47
comunque 600 watt per giocare ai giochetti elettronici credendo di essere Indiana Jones è uno spreco di corrente
posso capire 300-400. Dopodiché è una bambinata

Ubro92
03-01-2025, 07:54
Per me state esagerando a dare poteri magici alla 5080 rispetto alla 4090, per me quest'ultima rimarrà parecchio avanti, ha troppe unità in più. Poi i 360 w della 5080 non danno chissà quale margine.

Si però la 4090 scala anche male, nonostante abbia il 60% in più di cuda in game quanto prende concretamente?

https://tpucdn.com/review/nvidia-geforce-rtx-4080-super-founders-edition/images/relative-performance-3840-2160.png https://tpucdn.com/review/nvidia-geforce-rtx-4080-super-founders-edition/images/relative-performance-rt-3840-2160.png

Tutti quei cuda alla fine stanno al chiodo con un -25% di cache cuttata e memorie neanche al top.

Se tirano la 5080 a 400w è fattibile che in game prenda la 4090 tra affinamenti elettrici, GDDR7, miglioramenti di IPC e tiratina oltre lo sweetspot , però a pari tdp della 4080s credo che sia già grasso che cola se va un +20%, infatti mi aspetto che la 5070ti sia una "like 4080s" con -50w, ne più ne meno.

comunque 600 watt per giocare ai giochetti elettronici credendo di essere Indiana Jones è uno spreco di corrente
posso capire 300-400. Dopodiché è una bambinata

Ti sei perso allora tutte le configurazioni sli con 2-3-4 gpu occate a bestia :sofico:

ultimate trip
03-01-2025, 07:57
Cmq sembra ripetersi un lancio lato performance stile Ada con la 90 nuova regina e una 80 un po' sottotono.
Come prezzo d'acquisto invece stavolta sembra sempre più probabile uno stacco netto tra le 2

ultimate trip
03-01-2025, 08:00
...
Se tirano la 5080 a 400w è fattibile che in game prenda la 4090 tra affinamenti elettrici, GDDR7, miglioramenti di IPC e tiratina oltre lo sweetspot , però a pari tdp della 4080s credo che sia già grasso che cola se va un +20%...

se quindi il rumor dei 360W di poco sopra fosse vero potrebbe starle leggermente sotto o la prende cmq? Forse però non la supera

micronauta1981
03-01-2025, 08:06
Faranno marketing tipo la 80 sarà la migliore scheda per i gamer al prezzo per i gamer,e la 90 sarà con un prezzo fuori scala...si spera che anche le prestazioni siano fuori scala,perché altrimenti se la possono tenere...mi prendo una 5080 e arrivederci..

Predator_1982
03-01-2025, 08:11
ma concretamente quando dovremo scaldare il tasto F5? Il 21?

Ovviamente....la FE sarà mia :D :D :fagiano: :read:

Luxor83
03-01-2025, 08:16
Infatti Mike il tdp della 5080 è veramente troppo alto da non dar da pensare. :)
Manco le 3080/3080 ti partivano da tdp così alti, ed erano dei chip belli grossi su un nodo tutt'altro che fine. :stordita:
Se BW sparato a 400w, non piglia ADA sparata a 450w, direi che c'è un grosso problema sotto la voce efficienza energetica. :rolleyes:

Scusate la mia ignoranza, ma in questi casi si parla solo del chip in se o anche dei consumi delle Vram?

Ubro92
03-01-2025, 08:28
se quindi il rumor dei 360W di poco sopra fosse vero potrebbe starle leggermente sotto o la prende cmq? Forse però non la supera

Superarla in tutto penso sia improbabile, quanto meno non dove la 4090 scala bene, potrebbe superarla proprio in tutti quegli scenari dove la 4090 sta al chiodo.

Ma manterrei le aspettative basse, credo che più o meno gli starà a ridosso.

micronauta1981
03-01-2025, 08:29
Scusate la mia ignoranza, ma in questi casi si parla solo del chip in se o anche dei consumi delle Vram?

Tdp è il solo chip...

Gapudo
03-01-2025, 08:30
Ti sei perso allora tutte le configurazioni sli con 2-3-4 gpu occate a bestia

infatti non esiste più lo SLI

AceGranger
03-01-2025, 08:31
Comunque 575w non è troppo vicino al limite di 600w del cavo?possibile la 5090 richieda 2 cavi 12v 2x6?

a quei 575 devi togliere i 70-75W che passano dal PCI-EX.

sul cavo ne passeranno 500-510.

Luxor83
03-01-2025, 08:38
Boh ragazzi io leggo che in parecchi siete ottimisti sulle perf della 5080 rispetto alla 4090, ma secondo me sarà sotto quest'ultima in tutti gli scenari, dalle spec. che si vedono in giro ce troppa differenza e a meno di un incremento clamoroso dell'IPC non vedo come possa starle sopra o anche solo pareggiarla.

La 4090 ha circa 16000cuda
La 5080 dovrebbe averne circa 10000 e nonostante le GDDR7 avrà grossomodo la stessa bandwidth, anzi qualcosa meno, della 4090.

Ci sono 6000cuda di differenza, boh, spero di sbagliarmi, ma così numeri alla mano non vedo come e dove si possa sopperire ad una differenza di tutti quei CC.

Ubro92
03-01-2025, 08:41
infatti non esiste più lo SLI

Lo sli non esiste più nel contesto desktop per via delle latenze e dello scaling, oramai già con maxwell era diventato insensato, fino ad ampere hanno mantenuto l'nvlink sulle x90, con ADA l'hanno abbandonato e lasciato principalmente al settore pro.

Infatti anche per questo siamo passati dai vecchi 250w del chippone a 450w e adesso quasi 600w.

Salfox
03-01-2025, 08:41
a quei 575 devi togliere i 70-75W che passano dal PCI-EX.

sul cavo ne passeranno 500-510.

Ragazzi, l'alimentazione tramite PCIexpress non esiste più da un sacco di tempo per le VGA, immaginate se dovessero fare due linee di alimentazione separate per gestire quel poco di watt che fornisce il PCIexp, sarebbe una follia costosissima.
Proprio per gestire un'unica linea di alimentazione sono nati i nuovi connettori per gestire una maggiore potenza.
L'alimentazione tramite PCIexp la usano solo quelle schede senza attacchi separati di alimentazione tipo le schede audio le schede supplementari per gli SSD etc.
Per quelli invece che dicono che le nuove 5000 avranno consumi folli, vorrei ricordare che la maggiore efficienza a parità di condizioni nei giochi vi farà consumare di meno con la nuova generazione rispetto alla vecchia, ad esempio in 4k a 120hz consumerete di meno con la 5000 rispetto alla 4000.
Il TDP è il valore limite gestibile che, esperienza insegna, è raggiunto solo in pochissimi casi.

micronauta1981
03-01-2025, 08:46
Ragazzi, l'alimentazione tramite PCIexpress non esiste più da un sacco di tempo per le VGA, immaginate se dovessero fare due linee di alimentazione separate per gestire quel poco di watt che fornisce il PCIexp, sarebbe una follia costosissima.
Proprio per gestire un'unica linea di alimentazione sono nati i nuovi connettori per gestire una maggiore potenza.
L'alimentazione tramite PCIexp la usano solo quelle schede senza attacchi separati di alimentazione tipo le schede audio le schede supplementari per gli SSD etc.
Per quelli invece che dicono che le nuove 5000 avranno consumi folli, vorrei ricordare che la maggiore efficienza a parità di condizioni nei giochi vi farà consumare di meno con la nuova generazione rispetto alla vecchia, ad esempio in 4k a 120hz consumerete di meno con la 5000 rispetto alla 4000.
Il TDP è il valore limite gestibile che, esperienza insegna, è raggiunto solo in pochissimi casi.
Ti confondi con il tgp,il tgp è 600w,il tdp è 575w..nelle 4090 il tgp era 600w e il tdp 450w mi pare..

Salfox
03-01-2025, 08:58
Ti confondi con il tgp,il tgp è 600w,il tdp è 575w..nelle 4090 il tgp era 600w e il tdp 450w mi pare..

In effetti c'è un po' di confusione sulla questione tra TDP, TGP e PL, fatto sta che proprio per questo la 5090 avrà dei margini di overclock limitatissimi dati proprio dal PL che per forza di cose sarà limitato via hardware a 600W esattamente come era per alcune 4090.

Levax
03-01-2025, 09:13
Mi chiedo quanto ci vorrà prima che L'Unione europea imponga le classi energetiche e magari anche limiti ai consumi delle gpu.

Comunque, se la 5080 non raggiunge le prestazioni della 4090 e verrà lanciata a 1500 euro senza nuove tecnologie mirabolanti, finirò per pentirmi almeno in parte di non aver preso il PC nuovo l'anno scorso quando i prezzi della 4090 erano più abbordabili.

Luxor83
03-01-2025, 09:17
Mi chiedo quanto ci vorrà prima che L'Unione europea imponga le classi energetiche e magari anche limiti ai consumi delle gpu.

Comunque, se la 5080 non raggiunge le prestazioni della 4090 e verrà lanciata a 1500 euro senza nuove tecnologie mirabolanti, finirò per pentirmi almeno in parte di non aver preso il PC nuovo l'anno scorso quando i prezzi della 4090 erano più abbordabili.

Lo dicevo già qualche anno fa

Maury
03-01-2025, 09:18
Si però la 4090 scala anche male, nonostante abbia il 60% in più di cuda in game quanto prende concretamente?


Tutti quei cuda alla fine stanno al chiodo con un -25% di cache cuttata e memorie neanche al top.

Se tirano la 5080 a 400w è fattibile che in game prenda la 4090 tra affinamenti elettrici, GDDR7, miglioramenti di IPC e tiratina oltre lo sweetspot , però a pari tdp della 4080s credo che sia già grasso che cola se va un +20%, infatti mi aspetto che la 5070ti sia una "like 4080s" con -50w, ne più ne meno.



30% tra 4090 e 4080 super è una bella forbice, poi la 4090 tiene bene il carico, i miei dubbi su una 5080 che supera la 4080 super del 30% ci sono e sono forti. L'ultima news vede la 5080 a 360 w, non 400, un wattaggio decisamente più contenuto del previsto.

Se la uarch di Black permette a 10000 cuda di asfaltarne 16000 allora che razza di prestazioni monstre possono avere le fascie minori che rispetto ad Ada hanno cuda silmili in fatto di numero ? Mi sembra uno scenario troppo ottimistico. :)

Ubro92
03-01-2025, 09:19
Mi chiedo quanto ci vorrà prima che L'Unione europea imponga le classi energetiche e magari anche limiti ai consumi delle gpu.

Comunque, se la 5080 non raggiunge le prestazioni della 4090 e verrà lanciata a 1500 euro senza nuove tecnologie mirabolanti, finirò per pentirmi almeno in parte di non aver preso il PC nuovo l'anno scorso quando i prezzi della 4090 erano più abbordabili.

Eh, l'anno scorso i prezzi erano più abbordabili in tutto, anche lato mobo e cpu, attualmente giusto le ram sono più abbordabili.

Mi chiedo quanto ci vorrà prima che L'Unione europea imponga le classi energetiche e magari anche limiti ai consumi delle gpu.

Comunque, se la 5080 non raggiunge le prestazioni della 4090 e verrà lanciata a 1500 euro senza nuove tecnologie mirabolanti, finirò per pentirmi almeno in parte di non aver preso il PC nuovo l'anno scorso quando i prezzi della 4090 erano più abbordabili.

Se è qualcosa che ti preme, basta rimanere sul mid chip, non è che esitono solo i chipponi.

Vampiro19751975
03-01-2025, 09:19
Ragazzi dai leak una 5060 mobile prende una 4060ti desktop per cui la 5080 andrà sicuramente di più di una 4090 in ciabatte

Ubro92
03-01-2025, 09:29
30% tra 4090 e 4080 super è una bella forbice, poi la 4090 tiene bene il carico, i miei dubbi su una 5080 che supera la 4080 super del 30% ci sono e sono forti. L'ultima news vede la 5080 a 360 w, non 400, un wattaggio decisamente più contenuto del previsto.

Se la uarch di Black permette a 10000 cuda di asfaltarne 16000 allora che razza di prestazioni monstre possono avere le fascie minori che rispetto ad Ada hanno cuda silmili in fatto di numero ? Mi sembra uno scenario troppo ottimistico. :)

Infatti ci si aspetta uno scaling simile... un +30% su una 4060 sono prestazioni da 3070ti, su 4060ti talloni la 4070, su 4070 sei poco più di una 4070ti...

Nulla di che nel complesso, soprattutto se alzano leggermente i consumi per ogni fascia.

Cutter90
03-01-2025, 09:31
Ragazzi, l'alimentazione tramite PCIexpress non esiste più da un sacco di tempo per le VGA, immaginate se dovessero fare due linee di alimentazione separate per gestire quel poco di watt che fornisce il PCIexp, sarebbe una follia costosissima.
Proprio per gestire un'unica linea di alimentazione sono nati i nuovi connettori per gestire una maggiore potenza.
L'alimentazione tramite PCIexp la usano solo quelle schede senza attacchi separati di alimentazione tipo le schede audio le schede supplementari per gli SSD etc.
Per quelli invece che dicono che le nuove 5000 avranno consumi folli, vorrei ricordare che la maggiore efficienza a parità di condizioni nei giochi vi farà consumare di meno con la nuova generazione rispetto alla vecchia, ad esempio in 4k a 120hz consumerete di meno con la 5000 rispetto alla 4000.
Il TDP è il valore limite gestibile che, esperienza insegna, è raggiunto solo in pochissimi casi.

Ricordo distintamente che con la 3090 passavano decine di watt tramite pci-E- Ora magari con le 4000 no, però non ho modo di credere che possa essere una soluzione, visto che con le 3000 funzionava bene così.
Eh, grazi. E' ovvio che consumerò meno watt a parità di condizioni, ma è altresì vero che se acquisto una nuova scheda non è certo per andare "a parità di condizioni"

Mi chiedo quanto ci vorrà prima che L'Unione europea imponga le classi energetiche e magari anche limiti ai consumi delle gpu.

Comunque, se la 5080 non raggiunge le prestazioni della 4090 e verrà lanciata a 1500 euro senza nuove tecnologie mirabolanti, finirò per pentirmi almeno in parte di non aver preso il PC nuovo l'anno scorso quando i prezzi della 4090 erano più abbordabili.

Ci manca solo che l' UE faccia una roba simile. Se aumentare il consu8mo dei watt è l'unico modo per aumentare le perf ben venga.

Zago91
03-01-2025, 09:36
Già vogliono levare le macchine a motore termico ci manca pure che ci levano le schede video :asd:

Ubro92
03-01-2025, 09:38
L'incognita maggiore a mio parere rimangono i prezzi, poi lato prestazioni/consumi mi farei pochi problemi.

ADA doveva essere la generazione con il salto di nodo più grosso di sempre, ed effettivamente lo è, ma proprio per questo hanno declassato molti chip e fasce, forse forse è meglio quando il salto di nodo è meno consistente :sofico:

OrazioOC
03-01-2025, 09:39
L'incognita maggiore a mio parere rimangono i prezzi, poi lato prestazioni/consumi mi farei pochi problemi.

ADA doveva essere la generazione con il salto di nodo più grosso di sempre, ed effettivamente lo è, ma proprio per questo hanno declassato molti chip e fasce, forse forse è meglio quando il salto di nodo è meno consistente :sofico:

In retrospettiva(periodo mining a parte) Ampere è stata una generazione da urlo. :asd:

Therinai
03-01-2025, 09:43
Mi chiedo quanto ci vorrà prima che L'Unione europea imponga le classi energetiche e magari anche limiti ai consumi delle gpu.

Non succederà mai tipo perché non ha alcun senso?
Al limite potrebbe "imporre" di piantarla di fare una lavatrice per i capi colorati e una per i capi bianchi :D

Luxor83
03-01-2025, 09:43
Ci manca solo che l' UE faccia una roba simile. Se aumentare il consu8mo dei watt è l'unico modo per aumentare le perf ben venga.

Questo però non è progresso.

zorco
03-01-2025, 09:45
Già vogliono levare le macchine a motore termico ci manca pure che ci levano le schede video :asd:
toglietemi tutto tranne la mia vga:asd: ..:muro: ..:stordita:

Levax
03-01-2025, 09:45
Eh, l'anno scorso i prezzi erano più abbordabili in tutto, anche lato mobo e cpu, attualmente giusto le ram sono più abbordabili.



Se è qualcosa che ti preme, basta rimanere sul mid chip, non è che esitono solo i chipponi.

È sicuramente un aspetto che sto prendendo in considerazione. L'ultimo desktop che ho fatto ha l'alimentatore da 500w, il pensiero di superare questa soglia solo di gpu va digerito.
Ovviamente sto tenendo in considerazione anche schede più parche con la 5070 ti, bisognerà poi vedere le prestazioni in 4k con ray tracing.

appleroof
03-01-2025, 09:56
ho letto che anche la 5070ti dovrebbe avere un connettore 16pin, chissà se forniscono in bundle un adattatore per "vecchi" alimentatori come il mio per inserire i 2x8 pin che ha...

Cfranco
03-01-2025, 10:01
Ragazzi dai leak una 5060 mobile prende una 4060ti desktop per cui la 5080 andrà sicuramente di più di una 4090 in ciabatte
"Sicuramente" :sofico:
Il tutto guardando una schermata che non si sa da dove venga fuori
Su una scheda grafica mobile mai annunciata di cui non si sa quanti cuda ha, che velocità di ram ha, il tdp impostato, la cpu, manco la risoluzione del test ... :stordita:
Non dico che sia come fare previsioni leggendo nei fondi del caffè ... ma neanche ci vai distante :fagiano:
"Sicuramente" non lo direi neanche se il giacchetta mi mostra le sue slide con la 5080 che batte la 4090

micronauta1981
03-01-2025, 10:07
https://wccftech.com/nvidia-geforce-rtx-5090-rtx-5080-gpu-tbp-gb202-575w-gb203-360w/

Attenzione perché qua si parla di tbp...che è molto più realistico..

Zago91
03-01-2025, 10:13
Secondo me, e qui la sparo, il consumo della 5090 nell'utilizzo reale nei giochi sarà mediamente sui 450-480W

davide155
03-01-2025, 10:19
Comunque 575w non è troppo vicino al limite di 600w del cavo?possibile la 5090 richieda 2 cavi 12v 2x6?Già la 4090 fe ed altre a pl sbloccato arrivano ai 600w del cavo. Ed hanno il 12vhpwr vecchio modello, col nuovo cavo avremo delle sicurezze in più mantenendo comunque lo stesso limite dei 600w sulla scheda.
Non vedo dove sia il problema.

Per esempio già la mia strix a pl sbloccato ed in oc, in 4k vedo spesso i 570w a seconda del gioco.

albero77
03-01-2025, 10:31
Già la 4090 fe ed altre a pl sbloccato arrivano ai 600w del cavo. Ed hanno il 12vhpwr vecchio modello, col nuovo cavo avremo delle sicurezze in più mantenendo comunque lo stesso limite dei 600w sulla scheda.
Non vedo dove sia il problema.

Per esempio già la mia strix a pl sbloccato ed in oc, in 4k vedo spesso i 570w a seconda del gioco.

Vero, molte 4090 hanno già il tgp sbloccabile fino a 600w. Diciamo che il margine di oc sarà praticamente 0 in quanto siamo già nei limiti massimi essendo 575W.
E comunque a dirla tutta anche sulla 4090 spingerla oltre ai 450w ha dato pochissimi benefici nel mio caso

micronauta1981
03-01-2025, 10:38
Già la 4090 fe ed altre a pl sbloccato arrivano ai 600w del cavo. Ed hanno il 12vhpwr vecchio modello, col nuovo cavo avremo delle sicurezze in più mantenendo comunque lo stesso limite dei 600w sulla scheda.
Non vedo dove sia il problema.

Per esempio già la mia strix a pl sbloccato ed in oc, in 4k vedo spesso i 570w a seconda del gioco.
Si ma su videocardz si parlava di tdp...secondo me era un errore..

micronauta1981
03-01-2025, 10:48
https://wccftech.com/nvidia-geforce-rtx-50-gpus-dlss-4-asus-custom-rtx-5080-variant-1699-euros/
Si inizia ..

davide155
03-01-2025, 10:53
Vero, molte 4090 hanno già il tgp sbloccabile fino a 600w. Diciamo che il margine di oc sarà praticamente 0 in quanto siamo già nei limiti massimi essendo 575W.
E comunque a dirla tutta anche sulla 4090 spingerla oltre ai 450w ha dato pochissimi benefici nel mio casoSi vero anche questo.
Per assurdo su ada si ha più benefici dall'oc della vram rispetto al core. Ed il consumo in più della vram è pressoché nullo.Si ma su videocardz si parlava di tdp...secondo me era un errore..Vabbè comunque indipendentemente da quello che scrivono, le specifiche cem5.1 ed atx 3.1 parlano chiaro. 600w dal 12v-2x6 come limite teorico. Poi nei laboratori si sa che si sono spinti anche a 700w senza melt. Ma vuol dir poco quello.

OrazioOC
03-01-2025, 11:00
https://videocardz.com/pixel/nvidia-dlss4-expected-to-be-announced-with-geforce-rtx-50-series

Salfox
03-01-2025, 11:07
Prendetela con beneficio d'inventario ma sembra che la 5080FE avrà il design a due slot con le ventole in posizione diversa.
Clicca qui (https://www.guru3d.com/story/nvidia-hides-geforce-rtx-50-series-blackwell-founders-edition-graphics-card-in-video/)

Cutter90
03-01-2025, 11:07
Questo però non è progresso.
Eh, amen. Il progresso io lo misuro in performance, non in quanta corrente consuma. Ripeto, s enon è possibile fare altrimenti o i costi si alzano, benissimo usare watt.

https://videocardz.com/pixel/nvidia-dlss4-expected-to-be-announced-with-geforce-rtx-50-series

Beh. 1700 € se è una strix 5080, significa che il prezzo di una normale sarà sui 1300.

Cfranco
03-01-2025, 11:12
Quindi la 5080 sarà il 30% più veloce della 4080 e alla pari con la 4090 usando il DLSS4 :fiufiu:
( che non sarà attivabile sulle 40x0 altrimenti cascherebbe tutto il palco )

Luxor83
03-01-2025, 11:15
Eh, amen. Il progresso io lo misuro in performance, non in quanta corrente consuma. Ripeto, s enon è possibile fare altrimenti o i costi si alzano, benissimo usare watt.


Per fortuna che i casi di "non progresso" sono pochi.

Il primo motore a gasolio era un quattro cilindri da 2,5 litri e 45 cv e faceva 9km/l. Menomale che per avere 90cv non serve un 5litri ;)

appleroof
03-01-2025, 11:16
https://wccftech.com/nvidia-geforce-rtx-50-gpus-dlss-4-asus-custom-rtx-5080-variant-1699-euros/
Si inizia ..

1700 neuri :asd:

Luxor83
03-01-2025, 11:17
Quindi la 5080 sarà il 30% più veloce della 4080 e alla pari con la 4090 usando il DLSS4 :fiufiu:
( che non sarà attivabile sulle 40x0 altrimenti cascherebbe tutto il palco )

Infatti il paragone andrebbe fatto prima senza dlss per vedere effettivamente quanto spinge una soluzione a mio parere

Asgard2022
03-01-2025, 11:17
1700 neuri :asd:

diffidate dai leak adesso, non si sa ancora nulla di quanto possa costare effettivamente sia la 5080 che la 5090, son tutte speculazioni, mamma nvidia ancora deve parlare.

appleroof
03-01-2025, 11:19
diffidate dai leak adesso, non si sa ancora nulla di quanto possa costare effettivamente sia la 5080 che la 5090, son tutte speculazioni, mamma nvidia ancora deve parlare.

si si per carità, dopo decenni a seguire sto mercato ormai lo so...e so pure che mamma nvidia quanto a prezzi più che parlare sbraiterà :D

Cutter90
03-01-2025, 11:19
Per fortuna che i casi di "non progresso" sono pochi.

Il primo motore a gasolio era un quattro cilindri da 2,5 litri e 45 cv e faceva 9km/l. Menomale che per avere 90cv non serve un 5litri ;)

Eh, quando si può ben venga ottimizzare, soprattutto quando si è agli inizi di una tecnologia. Ma il punto è che non sacrificherei mai un evoluzione di perf perchè "non c'è altro modo se non aumentare i watt".
Dopotutto è proprio l'esempio delle auto che danno questo risultato. Se vuoi aumentare le perf devi aumentare i cavalli, in prima battuta.

micronauta1981
03-01-2025, 11:20
diffidate dai leak adesso, non si sa ancora nulla di quanto possa costare effettivamente sia la 5080 che la 5090, son tutte speculazioni, mamma nvidia ancora deve parlare.

E che facciamo fino al 7??hahahaa

micronauta1981
03-01-2025, 11:21
Eh, quando si può ben venga ottimizzare, soprattutto quando si è agli inizi di una tecnologia. Ma il punto è che non sacrificherei mai un evoluzione di perf perchè "non c'è altro modo se non aumentare i watt".
Dopotutto è proprio l'esempio delle auto che danno questo risultato. Se vuoi aumentare le perf devi aumentare i cavalli, in prima battuta.

Il problema è che ti tolgono i cilindri 😂😂😂

appleroof
03-01-2025, 11:22
Eh, quando si può ben venga ottimizzare, soprattutto quando si è agli inizi di una tecnologia. Ma il punto è che non sacrificherei mai un evoluzione di perf perchè "non c'è altro modo se non aumentare i watt".
Dopotutto è proprio l'esempio delle auto che danno questo risultato. Se vuoi aumentare le perf devi aumentare i cavalli, in prima battuta.

bè nel recente passato ci sono miriadi di esempi di miglioramento perf/watt, la nuova gen a parità di tdp della vecchia offriva migliori performance, ovvio penso che man mano ci si avvicina ai limiti di miniaturizzazione dei pp e/o si infarciscono i chip di unità dedicate non ci si può aspettare più di tanto

Luxor83
03-01-2025, 11:23
Eh, quando si può ben venga ottimizzare, soprattutto quando si è agli inizi di una tecnologia. Ma il punto è che non sacrificherei mai un evoluzione di perf perchè "non c'è altro modo se non aumentare i watt".
Dopotutto è proprio l'esempio delle auto che danno questo risultato. Se vuoi aumentare le perf devi aumentare i cavalli, in prima battuta.

Su questo ovviamente sono d'accordo con te, diciamo che purtroppo in questo momento Nvidia è in una posizione di netto vantaggio e ciò non la incentiva ad innovare/inventare nuove soluzioni e la ricerca&sviluppo gira a bassi regimi = leggero affinamento del pp e innovazioni col contagocce, il tutto pagato a caro prezzo.

Piccolo appunto sulla tua ultima frase, i cavalli sono però il risultato, quello che dovrebbero essere gli FPS.

Zago91
03-01-2025, 11:53
https://videocardz.com/pixel/nvidia-dlss4-expected-to-be-announced-with-geforce-rtx-50-series

Probabilmente se la giocheranno come hanno già fatto, il DLSS4 sarà disponibile anche per le serie precedenti ma alcune funzionalità saranno legate all'hardware delle 5000. A questo punto è facile aspettarsi che la 5080 di base andrà più lenta della 4090 ma guadagnerà terreno con il DLSS4, anche perchè è impossibile non tenere conto della differenza dei cuda

Ubro92
03-01-2025, 12:01
bè nel recente passato ci sono miriadi di esempi di miglioramento perf/watt, la nuova gen a parità di tdp della vecchia offriva migliori performance, ovvio penso che man mano ci si avvicina ai limiti di miniaturizzazione dei pp e/o si infarciscono i chip di unità dedicate non ci si può aspettare più di tanto

Dipende da molti fattori, con ADA c'erano quasi 2 nodi di stacco dai precedenti 8nm.

Siamo passati dai 200w di una 3060ti ad avere per lo stesso consumo una 4070 con prestazioni da 3080.

In questa gen mi aspetto comunque un miglioramento, ma più simile al passaggio da Turing ad Ampere, dove alla fine tra 2080s e 3060ti ci ballano 50w.

Infatti anche 5070ti me l'aspetto come una like 4080s con -50w.

In passato ci sono anche state gen come Maxwell che pur rimanendo sullo stesso nodo di Kepler hanno migliorato prestazioni, consumi e persino clockato più in alto, ma kepler era anche un colabrodo.

Luxor83
03-01-2025, 12:08
Dipende da molti fattori, con ADA c'erano quasi 2 nodi di stacco dai precedenti 8nm.

Siamo passati dai 200w di una 3060ti ad avere per lo stesso consumo una 4070 con prestazioni da 3080.

In questa gen mi aspetto comunque un miglioramento, ma più simile al passaggio da Turing ad Ampere, dove alla fine tra 2080s e 3060ti ci ballano 50w.

Infatti anche 5070ti me l'aspetto come una like 4080s con -50w.

In passato ci sono anche state gen come Maxwell che pur rimanendo sullo stesso nodo di Kepler hanno migliorato prestazioni, consumi e persino clockato più in alto, ma kepler era anche un colabrodo.

Infatti io attendo marzo/aprile dove mi aspetto una 5060Ti con le prestazioni di una 4070 ma con un consumo nettamente inferiore.

Per un FHD con settaggi ultra per un pò di anni (5) dovrei essere a posto.

appleroof
03-01-2025, 12:09
Dipende da molti fattori, con ADA c'erano quasi 2 nodi di stacco dai precedenti 8nm.

Siamo passati dai 200w di una 3060ti ad avere per lo stesso consumo una 4070 con prestazioni da 3080.

In questa gen mi aspetto comunque un miglioramento, ma più simile al passaggio da Turing ad Ampere, dove alla fine tra 2080s e 3060ti ci ballano 50w.

Infatti anche 5070ti me l'aspetto come una like 4080s con -50w.

In passato ci sono anche state gen come Maxwell che pur rimanendo sullo stesso nodo di Kepler hanno migliorato prestazioni, consumi e persino clockato più in alto, ma kepler era anche un colabrodo.

si intendevo a parità di posizionamento, es. 4070/5070, 4080/5080, 4090/5090 ecc ...

redbaron
03-01-2025, 12:10
Cut

albero77
03-01-2025, 12:17
Quindi la 5080 sarà il 30% più veloce della 4080 e alla pari con la 4090 usando il DLSS4 :fiufiu:
( che non sarà attivabile sulle 40x0 altrimenti cascherebbe tutto il palco )

sto per ritrovarmi con un costoso fermacarte nel case

--AleX--
03-01-2025, 12:17
io avevo una mezza idea di vendere la 4070 Ti (avevo ricevuto un'offerta di oltre 600 euro - l'avevo presa usata con una settimana di vita a 750 a inizio 2023) per una 5080 ma con queste premesse penso sia più saggio tenermela ed attendere il refresh Ti-Super che sicuramente faranno nel 2026 se non addirittura le 6000... che ne dite?

mikael84
03-01-2025, 12:37
Già la 4090 fe ed altre a pl sbloccato arrivano ai 600w del cavo. Ed hanno il 12vhpwr vecchio modello, col nuovo cavo avremo delle sicurezze in più mantenendo comunque lo stesso limite dei 600w sulla scheda.
Non vedo dove sia il problema.

Per esempio già la mia strix a pl sbloccato ed in oc, in 4k vedo spesso i 570w a seconda del gioco.

Che avesse quei valori era facilmente auspicabile, considerando le 29 fasi da 20w medie (ben 6 MVDDC per il colosso da 512bit e 32gb).
L'unico problema di queste schede, è che non hai margine di PL con quel TDP. Se già dai +10% di PL, sei già a 632w.
Dalla 3090TI in poi, hanno anche levato quasi del tutto l'assorbimento PCI-EXPRESS.

Al momento solo Galax aveva un 2x16pin.

1700 neuri :asd:


La 5080 FE, molto probabile a 1199 MSRP.

scorpion73
03-01-2025, 12:46
sto per ritrovarmi con un costoso fermacarte nel case

scusa ma che scheda hai?

Iceman69
03-01-2025, 13:08
La 5080 FE, molto probabile a 1199 MSRP.

Anche secondo me, però in dollari, quindi arriviamo ai famigerati 1500 euro in Italia ivati...

ColdWarGuy
03-01-2025, 13:18
https://videocardz.com/pixel/nvidia-dlss4-expected-to-be-announced-with-geforce-rtx-50-series

1700 per la Strix in linea con i precedenti leaks, my bet is 5080 FE a 1499 euro + scalperaggio, al prossimo giro 6080 a 1799 euro.

magic carpet
03-01-2025, 13:21
1700 per la Strix in linea con i precedenti leaks, my bet is 5080 FE a 1499 euro + scalperaggio, al prossimo giro 6080 a 1799 euro.
Questo, secondo me, significa 5090 FE a 2300€ (se tutto va bene).

scorpion73
03-01-2025, 13:24
Questo, secondo me, significa 5090 FE a 2300€ (se tutto va bene).

Per me anche 2500€ a sto giro. Prezzo di una pura Titan quale è.

amon.akira
03-01-2025, 13:25
1700 per la Strix in linea con i precedenti leaks, my bet is 5080 FE a 1499 euro + scalperaggio, al prossimo giro 6080 a 1799 euro.

Quindi 5070ti a 1200 5070 a 1000 e 5060 a 650? Tornate realisti

mikael84
03-01-2025, 13:34
Anche secondo me, però in dollari, quindi arriviamo ai famigerati 1500 euro in Italia ivati...

Si, chiaramente il MSRP è in $, quindi da noi 1400 euro e qualcosa, ora non ho calcolato. Cmq per le normali GPU, si partirà dalle 1200-1300, come ora trovi le 4080 dalle 1000 in poi.
Sempre se sarà quello il MSRP.

Quindi 5070ti a 1200 5070 a 1000 e 5060 a 650? Tornate realisti

A 1200 ci troveremmo le manli/pny/inno3d della 5080 dopo un tot. sperando nel MSRP di 1199 per la 5080.
La 5070TI, spero a 799 e non oltre, con la speranza di vederla nel breve a 8-900 euro.

Una situazione di questo tipo, e ciò che mi aspetto.

corbyale
03-01-2025, 13:39
Si, chiaramente il MSRP è in $, quindi da noi 1400 euro e qualcosa, ora non ho calcolato. Cmq per le normali GPU, si partirà dalle 1200-1300, come ora trovi le 4080 dalle 1000 in poi.
Sempre se sarà quello il MSRP.



A 1200 ci troveremmo le manli/pny/inno3d della 5080 dopo un tot. sperando nel MSRP di 1199 per la 5080.
La 5070TI, spero a 799 e non oltre, con la speranza di vederla nel breve a 8-900 euro.

Una situazione di questo tipo, e ciò che mi aspetto.
La 5070ti a 900 dubito fortemente non si trova neanche la 4070ti

mikael84
03-01-2025, 13:42
La 5070ti a 900 dubito fortemente non si trova neanche la 4070ti

La 4070TI è EOL da tempo. La 4070TI super parte da 850, la 4080 da 1000.

Ubro92
03-01-2025, 13:43
La 5070ti a 900 dubito fortemente non si trova neanche la 4070ti

Se costasse di più per prestazioni uguali a 4080/4080s sarebbe un no-sense...
Almeno -100~200$ sotto la 4080s deve piazzarsi...

In linea di massima mi aspetto un -15% medio sul prezzo a pari prestazioni delle 4000.

appleroof
03-01-2025, 13:48
Cut

La 5080 FE, molto probabile a 1199 MSRP.

Anche secondo me, però in dollari, quindi arriviamo ai famigerati 1500 euro in Italia ivati...

1700 per la Strix in linea con i precedenti leaks, my bet is 5080 FE a 1499 euro + scalperaggio, al prossimo giro 6080 a 1799 euro.

Eh infatti, il prezzo ufficiale in dollari lascia un po' il tempo che trova, come si sa, va intanto convertito e poi ivato e ci fermiamo alle FE, le custom in mano ai commercianti poi sono sempre più care (degli scalpers poi non ne parliamo, fuori scala)

OrazioOC
03-01-2025, 13:51
Io la chiamo, 1299 dollari la 5080 fe, 899 dollari la 5070 ti.

5090 1999 dollari. :rolleyes:

Zago91
03-01-2025, 13:54
Dubito la 5090 rimanga sotto i 2k, ma ben venga nel caso

albero77
03-01-2025, 13:58
Io la chiamo, 1299 dollari la 5080 fe, 899 dollari la 5070 ti.

5090 1999 dollari. :rolleyes:

"vinsero battaglie grazie alla loro figa"

Kostanz77
03-01-2025, 13:58
Dubito la 5090 rimanga sotto i 2k, ma ben venga nel caso


Credo parlasse di dollari senza tasse, poi da noi è da ricalcolare il tutto più iva, quindi si superano allegramente i 2500 euro


Inviato dal mio iPhone utilizzando Tapatalk Pro

Zago91
03-01-2025, 14:06
Credo parlasse di dollari senza tasse, poi da noi è da ricalcolare il tutto più iva, quindi si superano allegramente i 2500 euro


Inviato dal mio iPhone utilizzando Tapatalk Pro

Eh anch'io parlavo di dollari senza tasse :asd:

albero77
03-01-2025, 14:08
scusa ma che scheda hai?

la stessa tua, era solo una battuta per sottolineare il fatto che faranno di tutto per rendere la 4090 obsolescente. ormai dopo tutti questi anni avremmo dovuto già farci l'abitudine.

Ubro92
03-01-2025, 14:08
Dubito la 5090 rimanga sotto i 2k, ma ben venga nel caso

La 5090 fa un pò storia a sè, è un chip di per sé più grosso e complesso della 4090, possono fare il prezzo che vogliono.

Però possono tranquillamente proporre successivamente una seconda SKU con GB202 eventualmente con cut a 384bit e cuda simil 4090, accumulati un numero soddisfacente di fail XD

ColdWarGuy
03-01-2025, 14:18
Io la chiamo, 1299 dollari la 5080 fe, 899 dollari la 5070 ti.

5090 1999 dollari. :rolleyes:

Vedo che siamo in linea, 5080 FE a 1299 USD compatibile con street price EU a 1499 euro, resto a seguire.

Non si può fare un pool per il prezzo di lancio, per 5080 e 5090, giusto per fotografare il sentimento comune su questa serie ?

mikael84
03-01-2025, 14:20
La 5090 fa un pò storia a sè, è un chip di per sé più grosso e complesso della 4090, possono fare il prezzo che vogliono.

Però possono tranquillamente proporre successivamente una seconda SKU con GB202 eventualmente con cut a 384bit e cuda simil 4090, accumulati un numero soddisfacente di fail XD

Si, a sto giro in quella fascia non c'è alcuna soluzione per un eventuale 5080 super, se non cuttare GB202, o proporre un modello da 24gb di GB203 in tripla.

Soluzione a 384bit, che saàr ovvia lato work ex quadro per i 48gb, altrimenti in quelle fasce, si passerà dai 32 ai 64gb.

Per il resto, la 5080 come costi di produzione è simile alla 4080, e potevano anche lasciarla a 999, quindi direi che 1199 è abbastanza.
La 5090 invece, costa decisamente di più della 4090 produrla.

marbasso
03-01-2025, 14:20
Ovviamente, come tutti i componenti elettrici, hanno un margine di sicurezza in alto ma tutte le 5090 avranno il PL impostato a 600W non modificabile.
Ci saranno alcune 5090 che avranno questo limite rimosso e che presenteranno due connessioni a 16 pin.
Saranno comunque modelli costosissimi con tirature infinitesimali e difficilissimi da acquistare.
Rinnovo la mia speranza di avere la 5090FE con un prezzo ivato in Italia di 2299€.

Ragazzi, l'alimentazione tramite PCIexpress non esiste più da un sacco di tempo per le VGA, immaginate se dovessero fare due linee di alimentazione separate per gestire quel poco di watt che fornisce il PCIexp, sarebbe una follia costosissima.
Proprio per gestire un'unica linea di alimentazione sono nati i nuovi connettori per gestire una maggiore potenza.
L'alimentazione tramite PCIexp la usano solo quelle schede senza attacchi separati di alimentazione tipo le schede audio le schede supplementari per gli SSD etc.
Per quelli invece che dicono che le nuove 5000 avranno consumi folli, vorrei ricordare che la maggiore efficienza a parità di condizioni nei giochi vi farà consumare di meno con la nuova generazione rispetto alla vecchia, ad esempio in 4k a 120hz consumerete di meno con la 5000 rispetto alla 4000.
Il TDP è il valore limite gestibile che, esperienza insegna, è raggiunto solo in pochissimi casi.

Sal ma che minghia dici?
Il cvonnettore pcie alimenta ancora e alimenterà ancora la vga .
Te lo dimostra anche gpuz:

https://i.postimg.cc/8z8ZmBQz/Screenshot-20.png


Contrassegnato in blu la potenza e il voltaggio dal pcie e sotto quelli dal 16pin...

Per il resto quando ti dicevo che avrebbe sfiorato i 600w mi davi del visionario, e non da ultimo il connettore 16pin della 4090 lavora egregiamente, se ben collegato e con un alimentatore a modo, + di 700w facilmente.
Ancora più facilmente 666w
E non lòo dico solo io lo dice anche Jon Gerow
Tu continuia a sperare per i 2299 chiavi in mano....che poi saranno 2999 e te la comprerai lo stesso....vecchio lupo hardware incartapecorito :D

Ale55andr0
03-01-2025, 14:35
tutti si struggono, tutti si lamentano, tutti piangono...e poi gli danno i soldi :D
Giacco fa solo che bene.
A ogni modo aspettiamo e vediamo, ormai commentare i rumor su prezzi o performance è inutile, siamo ad un tiro di schioppo.

marbasso
03-01-2025, 14:43
In retrospettiva(periodo mining a parte) Ampere è stata una generazione da urlo. :asd:

Ma percarità....peggior PP degli ultimi 10 anni.

Da urlo furono Turing e Ada.
Maxw capostipite.

tutti si struggono, tutti si lamentano, tutti piangono...e poi gli danno i soldi :D
Giacco fa solo che bene.
A ogni modo aspettiamo e vediamo, ormai commentare i rumor su prezzi o performance è inutile, siamo ad un tiro di schioppo.

20gb....tsk...
...pfui....
:cool:

Levax
03-01-2025, 14:47
La 5070 ti dovesse costare 400 o 500 in meno della 5080 con prestazioni non troppo distanti probabilmente sarà la scelta migliore per chi non punta al top assoluto.
Certo avere la 5080 al prezzo della 4080 super sarebbe ancora meglio ma i rumor mi fanno pensare che l'MSRP della 4080 sarebbe già un traguardo.
In passato la forbice di prezzo tra x70 e x80 è stata abbastanza variabile, ricordo 399 euro contro 499 per le 600 e 330 contro 550 per le 900. Questo per dire che non sarei del tutto sorpreso se a questo giro ci proponessero 1000 e 1300 dollari.

Salfox
03-01-2025, 15:00
Sal ma che minghia dici?
Il cvonnettore pcie alimenta ancora e alimenterà ancora la vga .
Te lo dimostra anche gpuz:



Marbi, ma lo sai che il PCI expr alimenta le tue lucine e le ventole? :D :D :D
La linea di alimentazione della gpu è tutta dal connettore. Mi sa che hai preso un granchietto, non ti offendere eh?
Ah poi, nel caso dovesse costare più di 2300 (che per me è già un prezzo folle) la 5090 la lascio senza dubbio a voi e come ti dicevo aspetto per curiosità le vostre recensioni, su questo puoi esserne certo.

marbasso
03-01-2025, 15:11
Marbi, ma lo sai che il PCI expr alimenta le tue lucine e le ventole? :D :D :D
La linea di alimentazione della gpu è tutta dal connettore. Mi sa che hai preso un granchietto, non ti offendere eh?
Ah poi, nel caso dovesse costare più di 2300 (che per me è già un prezzo folle) la 5090 la lascio senza dubbio a voi e come ti dicevo aspetto per curiosità le vostre recensioni, su questo puoi esserne certo.

20w le lucine e tre ventole? Anzi neanche lucine la mia è impostata su ''buio''.
Bo va be, poco importa, il 16pin andrà benone tranne quello della fe, che a quanto pare sarà ancora in posizione verticale....teribbile.
Noooo la comprerai....vedrai....
Rifletterai....venderai la 4090, aggiungerai e la prenderai...per il DLSS4... :read:

mikael84
03-01-2025, 15:13
Marbi, ma lo sai che il PCI expr alimenta le tue lucine e le ventole? :D :D :D
La linea di alimentazione della gpu è tutta dal connettore. Mi sa che hai preso un granchietto, non ti offendere eh?
Ah poi, nel caso dovesse costare più di 2300 (che per me è già un prezzo folle) la 5090 la lascio senza dubbio a voi e come ti dicevo aspetto per curiosità le vostre recensioni, su questo puoi esserne certo.

Non proprio, ci sono schede da 75watt totalmente senza connessione, collegate al pci express. Le GPU infatti dedicano circa 3 fasi da 20w al PCI E.
Dalla 3090TI alle 4000, la richiesta sul PCI e è quasi nulla, ma nelle schede vecchie il PCI E era fondamentale.
Se prendi una 3090 con 2 connettori da 150w, come pensi ci arrivi a 400?;)
Infatti, viene il problema con le nuove, ed una richiesta di appena 15watt, sei già cappato con 575watt.

marbasso
03-01-2025, 15:24
Non proprio, ci sono schede da 75watt totalmente senza connessione, collegate al pci express. Le GPU infatti dedicano circa 3 fasi da 20w al PCI E.
Dalla 3090TI alle 4000, la richiesta sul PCI e è quasi nulla, ma nelle schede vecchie il PCI E era fondamentale.
Se prendi una 3090 con 2 connettori da 150w, come pensi ci arrivi a 400?;)
Infatti, viene il problema con le nuove, ed una richiesta di appena 15watt, sei già cappato con 575watt.

Ciò significherebbe schede blindate in oc, dove non avrebbe neanche senso il margine di vcore aggiuntivo. Puoi sperare nell' UV e basta.
Solo un flash del bios potrebbe aprire i giochi, altrimenti stai dove ti mette Jen...nell' angolino, spennato e con i sigilli.
Mmmmmm, già mi toccano le palle a terra...