PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 [422] 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467

Vul
10-07-2024, 09:04
Io spero in qualche chip in fascia media da 150watt massimo..

La 4060ti sarebbe andata piu o meno bene per questo, ma latitava lato performance. Magari la prossima gen va meglio.

Ubro92
10-07-2024, 09:11
Io spero in qualche chip in fascia media da 150watt massimo..



La 4060ti sarebbe andata piu o meno bene per questo, ma latitava lato performance. Magari la prossima gen va meglio.I chip ci saranno per tutti i consumi e gusti.

In 150w probabilmente ci sarà una simil 4070, e senza tripla densità con soli 8gb, dato che gb206 é a 128bit, inoltre é anche l'ultimo a debuttare, se ne parla nel q2 2025.

Inviato dal mio M2012K11AG utilizzando Tapatalk

marbasso
10-07-2024, 12:52
Su un chip così denso, sarebbe l'ennessimo miracolo della coppia tsmc-nvidia. :asd:

Un boost di frequenze del genere su un nodo similare rispetto a quello utilizzato sulle gpu di generazione precedente, che io ricordi, era avvenuto nel salto da kepler a maxwell. :eek:

Staremo a vedere, però siamo ormai a metà luglio, e questi leak possono avere un peso visto che da ottobre/novembre in poi, ogni giorno è buono per avere una presentazione di queste nuove schede. :)

E di rifleso, con un boost di frequenze così corposo, non stento a credere che la 5080 basata su GB203(con tanto di gddr7 non dimentichiamolo) possa acchiappare la 4090....

Con un base clock di 2900mhz in boost a quanto sale? 3.5GHZ?
Mi sembra poco verosimile sinceramente ... Altrimenti il nodo 4nP ha del miracoloso.

Ubro92
10-07-2024, 12:58
Il nodo fa poco, se non erro si parla di un +5% di p/w, un salto del genere si potrebbe avere solo lavorando sull'architettura e sul reparto elettrico.

Anche con maxwell ci fu un importante salto di clock nonostante il riutilizzo dei 28nm, però sono sempre dati da prendere con le pinze, per ora si sa poco e nulla dei nuovi chip.

Non è neanche detto che i tagli siano quelli trapelati qualche mese fa.

mikael84
10-07-2024, 13:16
Con un base clock di 2900mhz in boost a quanto sale? 3.5GHZ?
Mi sembra poco verosimile sinceramente ... Altrimenti il nodo 4nP ha del miracoloso.

Non sempre è merito del nodo, spesso si fanno discorsi su quanto proiettato dalle case, ma ci sono ben altri aspetti, che riguardano le rese dei primi 5nm, le rese dei 4nmP che ormai sono avanzatissimi, il tipo di progetto, la correzione degli errori del vecchio progetto.

Vedi RDNA2 vs 1, parliamo sempre di 7nm rischio vs i 7nm HP, maxwell-kepler, o le sole rese di fermi 110.

Chiaramente il 2,9 bisogna vedere se è riferito al base boost o al base clock che è diverso. Se è base boost, è quanto ci eravamo prefissati, se è base clock ha del prodigioso il mix tra PP e progettista.

Vorrebbe dire chip almeno a 3,3-3,5 in boost. Ecco che allora già GB203 comincia a prendere un minimo di senso.
Inoltre un clock così alto, vorrebbe dire anche una rivisitazione della microarchitettura.

Il nodo fa poco, se non erro si parla di un +5% di p/w, un salto del genere si potrebbe avere solo lavorando sull'architettura e sul reparto elettrico.

Anche con maxwell ci fu un importante salto di clock nonostante il riutilizzo dei 28nm, però sono sempre dati da prendere con le pinze, per ora si sa poco e nulla dei nuovi chip.

Non è neanche detto che i tagli siano quelli trapelati qualche mese fa.

Tra celle HP si, la differenza è minima. l'11% sta tra il 5nm basic ed il 4nmHP.
Tuttavia ci sono aspetti che il progettista può curare, ricorrendo all' elvt, che tramite transistor ad estrema bassa dispersione può tirarci fuori molto, ma molto di più.

https://i.postimg.cc/W4f4hp8W/elvt2.png

Salfox
10-07-2024, 16:35
Domanda per Michael,
E' giusto dire che se non presentano ufficialmente per agosto/inizio sett le nuove VGA se ne parla per l'anno prossimo?
Io ricordo che le scede uscite entro l'anno sono state presentate tutte entro l'inizio di settembre, ricordo male?

mikael84
10-07-2024, 17:23
Domanda per Michael,
E' giusto dire che se non presentano ufficialmente per agosto/inizio sett le nuove VGA se ne parla per l'anno prossimo?
Io ricordo che le scede uscite entro l'anno sono state presentate tutte entro l'inizio di settembre, ricordo male?

Si, al CES del 4 gennaio.
Cmq con ADA buona parte dei dettagli finali sono emersi tra luglio e agosto, vista la fase conclusiva. Verso fine agosto aveva annunciato la presentazione al GTC, ed il 20 settembre le aveva annunciate.
https://www.anandtech.com/show/17583/the-nvidia-geforce-project-beyond-and-gtc-fall-2022-keynote-live-blog-starts-at-8am-pt1500-utc

Se dovessero debuttare verso ottobre/novembre, dovremmo essere alle fasi finali, ed aspettarci un'altra conferenza per tale data.
Altrimenti al CES di gennaio.

amon.akira
10-07-2024, 19:49
Domanda per Michael,
E' giusto dire che se non presentano ufficialmente per agosto/inizio sett le nuove VGA se ne parla per l'anno prossimo?
Io ricordo che le scede uscite entro l'anno sono state presentate tutte entro l'inizio di settembre, ricordo male?

step1 nvidia ti deve dire che farà l evento giorno X e di solito è un 20giorni prima, evento come al solito a mo di segreto di pulcinella non ti dirà di cosa parla, ma di fatto presenta sempre le gaming con data di uscita distanziata dall evento di altri 20-30giorni...ovviamente quando saremo vicini scapperanno anche i vari leak con gli score 3dmark

SnobWatch
11-07-2024, 16:42
Io vorrei cambiare il case ma sono combattuto.
Non vorrei che prendo ora un O11D RGB e poi non mi ci entra il waterblock della 5090 o addirittura non ci entra nemmeno ad aria.

Che palle. E datecele qualche spec xD

Si rumoreggia che sarà dual slot, spero però che non sarà più larga i lunga delle attuali, dell'altezza sinceramente chissene ...

SnobWatch
14-07-2024, 21:50
https://videocardz.com/newz/seasonic-lists-geforce-rtx-5090-with-500w-tdp-and-rtx-5080-with-350w-16-pin-connector-for-all-rtx-50-models

Altro che GPU che consumano meno.

Cutter90
15-07-2024, 06:08
https://videocardz.com/newz/seasonic-lists-geforce-rtx-5090-with-500w-tdp-and-rtx-5080-with-350w-16-pin-connector-for-all-rtx-50-models

Altro che GPU che consumano meno.

Tanto se l undervolt funziona come con le 4000 non c'è alcun problema di consumi. Che poi siamo sempre lì. Se spendi 1000 ero di vga di certo non può pesare un 450 watt vs 420...

fraussantin
15-07-2024, 06:50
Tanto se l undervolt funziona come con le 4000 non c'è alcun problema di consumi. Che poi siamo sempre lì. Se spendi 2000 ero di vga di certo non può pesare un 450 watt vs 420...

Fix

;)

Cmq il punto non è solo la corrente consumata anzi quella è nulla.

È il caldo che produce.

Di serie quanto meno 2 bios uno a basso consumo per uso quotidiano e uno per fare bella figura nelle.recensioni potrebbero anche metterli .

SnobWatch
15-07-2024, 08:59
Tanto se l undervolt funziona come con le 4000 non c'è alcun problema di consumi. Che poi siamo sempre lì. Se spendi 1000 ero di vga di certo non può pesare un 450 watt vs 420...

a me più che i consumi preoccupano le dimensioni...
ho già dovuto cambiare un case che mi piaceva per problemi di dimensioni, non vorrei doverne cambiare anche un altro.

Cutter90
15-07-2024, 09:24
a me più che i consumi preoccupano le dimensioni...
ho già dovuto cambiare un case che mi piaceva per problemi di dimensioni, non vorrei doverne cambiare anche un altro.

Beh dai non credo proprio aumentino ancora secondo me

Vul
15-07-2024, 09:25
https://videocardz.com/newz/seasonic-lists-geforce-rtx-5090-with-500w-tdp-and-rtx-5080-with-350w-16-pin-connector-for-all-rtx-50-models

Altro che GPU che consumano meno.

Se e' vero, che vergogna. Mi chiedo dove siano i passi in avanti tecnologicamente parlando. Fai die piu grandi con piu core su nodo piu piccolo e preghi?

Sicuramente tanti se ne fregano, io personalmente no, compro fascia media, medio/bassa soprattutto per i consumi.

Cutter90
15-07-2024, 09:37
Se e' vero, che vergogna. Mi chiedo dove siano i passi in avanti tecnologicamente parlando. Fai die piu grandi con piu core su nodo piu piccolo e preghi?

Sicuramente tanti se ne fregano, io personalmente no, compro fascia media, medio/bassa soprattutto per i consumi.

Però scusate se la 5080 va come una 4090 consumando 100 wat di tdp in meno..... non è un bene?

devil_mcry
15-07-2024, 09:39
Se e' vero, che vergogna. Mi chiedo dove siano i passi in avanti tecnologicamente parlando. Fai die piu grandi con piu core su nodo piu piccolo e preghi?

Sicuramente tanti se ne fregano, io personalmente no, compro fascia media, medio/bassa soprattutto per i consumi.

Il problema sono per lo più le dimensioni titaniche che raggiungono, esempio io non credo che nel mio case mATX ci stia una 4080, ci sta stretta la 3080 12gb zotac triventola

Immagino che la 5080 sarà peggio, e il tdp è sempre 350w

Vul
15-07-2024, 10:23
Però scusate se la 5080 va come una 4090 consumando 100 wat di tdp in meno..... non è un bene?

La 4080 e 3080 andavano molto meglio delle precedenti xx90 o ti e abbassavano notevolmente i consumi..E' la normalita'.

In ogni caso io alla fine della fiera paragono i consumi in termini assoluti.

1080: 170 watt in gaming

2080: 220 watt in gaming

3080: 330 watt in gaming

4080: 300 watt in gaming (leggero decremento)

Se la 5080 fa 400 watt sai che me ne importa che consuma meno della 5090...

carloUba
15-07-2024, 10:25
Però scusate se la 5080 va come una 4090 consumando 100 wat di tdp in meno..... non è un bene?

Ma ad ogni generazione c’è questa mezza polemica sui consumi.
Appena escono passa tutto.

Cutter90
15-07-2024, 10:27
E' il minimo/normalita'.
Eh... quindi?

Ma ad ogni generazione c’è questa mezza polemica sui consumi.
Appena escono passa tutto.

sarà che a me frega zero dei consumi e frega molto molto molto di più delle performance....

marbasso
15-07-2024, 10:27
Menomale dovevano essere dual slot, 500w...

Vul
15-07-2024, 10:30
Eh... quindi?



sarà che a me frega zero dei consumi e frega molto molto molto di più delle performance....

E quindi ogni generazione continuano ad aumentare i consumi a parita' di fascia. E di molto.

400 watt sono quasi il triplo della 1080 e il doppio della 2080.

Anzi che la 4080 ha di poco ridotto rispetto alla 3080.

Io non ho intenzione di infilare forni nel mio case, non voglio temperature e rumori e consumi simili.

Che a voi che comprate GPU da 2000 e passa euro come sara' per la prossima gen non importi, ci sta, ma che quest'inflazione colpisca anche fascia media e medio bassa (che interessa a me), mi fa un po' rodere.

marbasso
15-07-2024, 10:37
E quindi ogni generazione continuano ad aumentare i consumi a parita' di fascia. E di molto.

400 watt sono quasi il triplo della 1080 e il doppio della 2080.

Anzi che la 4080 ha di poco ridotto rispetto alla 3080.

Io non ho intenzione di infilare forni nel mio case, non voglio temperature e rumori e consumi simili.

Che a voi che comprate GPU da 2000 e passa euro come sara' per la prossima gen non importi, ci sta, ma che quest'inflazione colpisca anche fascia media e medio bassa (che interessa a me), mi fa un po' rodere.

Una 4090 in uv consuma meno di una 3090 e soprattutto scalda molto meno.
Sono addirittura fresche.
Son le dimensioni che iniziano ad essere importanti.

Cutter90
15-07-2024, 10:45
E quindi ogni generazione continuano ad aumentare i consumi a parita' di fascia. E di molto.

400 watt sono quasi il triplo della 1080 e il doppio della 2080.

Anzi che la 4080 ha di poco ridotto rispetto alla 3080.

Io non ho intenzione di infilare forni nel mio case, non voglio temperature e rumori e consumi simili.

Che a voi che comprate GPU da 2000 e passa euro come sara' per la prossima gen non importi, ci sta, ma che quest'inflazione colpisca anche fascia media e medio bassa (che interessa a me), mi fa un po' rodere.

Io sono d accordo ma se ti dicessero "o aumentiamo la potenza e le perf sono plafonate" tu che fai? Cioè, noi diamo tante cose per scontate ma chi l'ha detto che si può aumentare le perf all'infinito senza aumentare la potenza assorbita?

albero77
15-07-2024, 10:54
Menomale dovevano essere dual slot, 500w...

molti dissipatori della serie 40xx sono sovradimensionati. Io penso che l'ingombro delle schede sarà grosso modo quello delle schede attuali. Il limite sarà sempre quello dei 600w legato al connettore ciofeca.

AceGranger
15-07-2024, 11:41
E quindi ogni generazione continuano ad aumentare i consumi a parita' di fascia. E di molto.

400 watt sono quasi il triplo della 1080 e il doppio della 2080.

Anzi che la 4080 ha di poco ridotto rispetto alla 3080.

Io non ho intenzione di infilare forni nel mio case, non voglio temperature e rumori e consumi simili.

Che a voi che comprate GPU da 2000 e passa euro come sara' per la prossima gen non importi, ci sta, ma che quest'inflazione colpisca anche fascia media e medio bassa (che interessa a me), mi fa un po' rodere.

la concorrenza fa pure di peggio, se il silicio è quello, è quello, la bacchetta magica non ce l'ha nessuno.

i watt totali salgono ma il watt per frame scende
https://tpucdn.com/review/asus-radeon-rx-7900-gre-tuf/images/watt-per-frame.png

la coperta è quella, o la tiri da una parte o la tiri dall'altra.

fraussantin
15-07-2024, 12:40
Una 4090 in uv consuma meno di una 3090 e soprattutto scalda molto meno.

Sono addirittura fresche.

Son le dimensioni che iniziano ad essere importanti.Si ma in uv sei sempre a rischio instabilità , basta cambio driver , come successo qualche mese fa e potresti essere instabile.

Cioè per me che gioco prevalentemente offline frega meno di 0 .

Ma chi gioca competitivo crash non ne vuol sentir parlare manco da lontano.

Poi un leggero uv puo farlo tranquillo.

Kvarat
15-07-2024, 12:44
Mi ricordate in che periodo sono state rese disponibili le versioni mobile della 4080 e della 4090? Prima o dopo le versioni desktop? Grazie

marbasso
15-07-2024, 12:48
Si ma in uv sei sempre a rischio instabilità , basta cambio driver , come successo qualche mese fa e potresti essere instabile.

Cioè per me che gioco prevalentemente offline frega meno di 0 .

Ma chi gioca competitivo crash non ne vuol sentir parlare manco da lontano.

Poi un leggero uv puo farlo tranquillo.

Si al cambio driver ci può stare ma sono nuance...minime differenze.
Al presentarsi dell' instabilità di solito, o sali di un step di vcore o scendi di 15mhz e nella maggior parte dei casi hai risolto.

fraussantin
15-07-2024, 12:50
Si al cambio driver ci può stare ma sono nuance...minime differenze.

Al presentarsi dell' instabilità di solito, o sali di un step di vcore o scendi di 15mhz e nella maggior parte dei casi hai risolto.Si ovvio , ed è quello che ho fatto , ma se ero in una gara online a f1 ( per fare un esempio a caso )le bestemmie arrivavano a Taiwan:asd:

Ale55andr0
15-07-2024, 13:00
Sono rimbambito per il toppo caldo o si parla di circa 10k cuda per la 5080 e 6.5k per la 5070?

Mars95
15-07-2024, 13:06
Ho letto in vari rumors che per la serie 5000 si parla di connettore di alimentazione a 16 pin.
Vi preco ditemi che da qualche parte qualcuno ha sbagliato a scrivere e tutti hanno ripetuto la scemenza.

fraussantin
15-07-2024, 13:14
Ho letto in vari rumors che per la serie 5000 si parla di connettore di alimentazione a 16 pin.

Vi preco ditemi che da qualche parte qualcuno ha sbagliato a scrivere e tutti hanno ripetuto la scemenza.Indietro non si torna mi pareva ovvio. Anche perche hanno fatto investire i produttori per modificare tuttii loro alimentatori.

Avranno fatto i loro conti e gli conviene.

OrazioOC
15-07-2024, 13:14
https://videocardz.com/newz/seasonic-lists-geforce-rtx-5090-with-500w-tdp-and-rtx-5080-with-350w-16-pin-connector-for-all-rtx-50-models

Altro che GPU che consumano meno.

Da notare come abbiano messo anche i tdp delle altre SKU:

RTX 5050 100w(presumibile monti GB207);
RTX 5060 170W(presumibile monti GB206);
RTX 5070 220W(presumibile monti GB205);

Quello che non mi piace è l'adozione del 16 pin anche su SKU che camperebbero bene con 1 connettore da 6 pin(5050) o 8 pin(5060/ti).


https://www.hwupgrade.it/news/skvideo/nvidia-geforce-rtx-4070-spunta-il-prototipo-con-10-gb-di-memoria-mai-arrivato-sul-mercato_128885.html

10gb di vram/160 bit di bus su AD104 era qualcosa che avevamo ipotizzato come una presunta 4060ti tempo fa, però poi non se ne fece nulla.

mikael84
15-07-2024, 13:30
Sono rimbambito per il toppo caldo o si parla di circa 10k cuda per la 5080 e 6.5k per la 5070?

Si, con un miracolo (pare) lato clock. Quindi chip piccoli clockati, bus da 192/256bit con le g7 e uber chip da 24kcc full con 448bit.

Da notare come abbiano messo anche i tdp delle altre SKU:

RTX 5050 100w(presumibile monti GB207);
RTX 5060 170W(presumibile monti GB206);
RTX 5070 220W(presumibile monti GB205);

Quello che non mi piace è l'adozione del 16 pin anche su SKU che camperebbero bene con 1 connettore da 6 pin(5050) o 8 pin(5060/ti).


https://www.hwupgrade.it/news/skvideo/nvidia-geforce-rtx-4070-spunta-il-prototipo-con-10-gb-di-memoria-mai-arrivato-sul-mercato_128885.html

10gb di vram/160 bit di bus su AD104 era qualcosa che avevamo ipotizzato come una presunta 4060ti tempo fa, però poi non se ne fece nulla.

Quei TDP lasciano il tempo che trovano, si parla ancora di 7990/7950xt, mi ricordano quelli enermax.

Riguardo la 4070 10, era data sino ad una settimana prima, poi cambiò tutto con la 4080 12, e quella sparì.

marbasso
15-07-2024, 13:30
edit

Cutter90
15-07-2024, 13:43
Ho letto in vari rumors che per la serie 5000 si parla di connettore di alimentazione a 16 pin.
Vi preco ditemi che da qualche parte qualcuno ha sbagliato a scrivere e tutti hanno ripetuto la scemenza.

Beh ma era chiaro avrebbero continuato così...... e visto che alla fine hanno revisionato l'hardware e abbiamo capito i problemi, sia noi che nvidia, non vedo problemi. Un bel cavo unico lo apprezzo

redbaron
15-07-2024, 14:03
Ho letto in vari rumors che per la serie 5000 si parla di connettore di alimentazione a 16 pin.
Vi preco ditemi che da qualche parte qualcuno ha sbagliato a scrivere e tutti hanno ripetuto la scemenza.

Il problema non e' il connettore in se, basterebbe che fosse ruotato di 90 gradi e problemi non ce ne sarebbero.

OrazioOC
15-07-2024, 14:08
https://videocardz.com/newz/nvidia-reportedly-preparing-geforce-rtx-5090d-for-china-launching-in-2025

Mars95
15-07-2024, 14:14
Indietro non si torna mi pareva ovvio. Anche perche hanno fatto investire i produttori per modificare tuttii loro alimentatori.

Avranno fatto i loro conti e gli conviene.

Beh ma era chiaro avrebbero continuato così...... e visto che alla fine hanno revisionato l'hardware e abbiamo capito i problemi, sia noi che nvidia, non vedo problemi. Un bel cavo unico lo apprezzo

Il problema non e' il connettore in se, basterebbe che fosse ruotato di 90 gradi e problemi non ce ne sarebbero.

Mi sembra sia il caso di spiegarsi meglio.

I connettori attuali hanno 12 pin, se fossero vere le voci del 16 pin vorrebbe dire un connettore nuovo.

EDIT: ah no, mistero risolto, dimenticavo i 4 pin sotto di controllo :asd:

TreviSS
15-07-2024, 14:28
Il problema non e' il connettore in se, basterebbe che fosse ruotato di 90 gradi e problemi non ce ne sarebbero.

se intendi ruotare il connettore sulla vga: non andrebbe a sbattere contro il dissipatore? e poi ruotato di 90 gradi rispetto a che asse? ricordo che le schede video si sviluppano in tre dimensioni.
se intendi avere la L a 90 gradi sul cavo, lo fai che va verso il basso o verso l'alto (considerando la vga montata in orizzontale nel case)? inserisci due cavi nella confezione della psu? uno per ogni caso?

@Mars95 connettore 16pin suppongo intendano il 12+4 attuale e non un 2*8 pci-e, dopotutto ora che i produttori di psu si stanno adattando allo standard cosa fai, gli dici di buttare via tutto?

mikael84
15-07-2024, 15:06
https://videocardz.com/newz/nvidia-reportedly-preparing-geforce-rtx-5090d-for-china-launching-in-2025

Non avrebbe mimimanente senso allora il limite TPP per la cina, se vendi la 5090 leggermente cuttata, allora vendi anche le 4090 lisce.

OrazioOC
15-07-2024, 15:13
Non avrebbe mimimanente senso allora il limite TPP per la cina, se vendi la 5090 leggermente cuttata, allora vendi anche le 4090 lisce.

Infatti mi aspettavo al max una rtx 5080D, non certo una 5090D. :asd:

Ubro92
15-07-2024, 16:32
Non avrebbe mimimanente senso allora il limite TPP per la cina, se vendi la 5090 leggermente cuttata, allora vendi anche le 4090 lisce.

Boh, forse da qui all'esordio alzeranno leggermente le limitazioni?

mikael84
15-07-2024, 19:04
Infatti mi aspettavo al max una rtx 5080D, non certo una 5090D. :asd:

Boh, forse da qui all'esordio alzeranno leggermente le limitazioni?

Probabile, però in questo caso il limite varrebbe molto poco, se basta castrare un pochino il chippone ad ogni giro.:)

fraussantin
15-07-2024, 20:02
se intendi ruotare il connettore sulla vga: non andrebbe a sbattere contro il dissipatore? e

Già di 45 gradi come quello della 3080 sarebbe bastato.
Anche lasciandoni in orizzontale e non in verticale come quello
Cmq le rma le gestiscono loro , sapranno come muoversi

argez
16-07-2024, 08:52
Il problema non e' il connettore in se, basterebbe che fosse ruotato di 90 gradi e problemi non ce ne sarebbero.

Ci vorrebbe il cavo con il connettore già piegato a 90° o con curvatura già predisposta incluso nell'alimentatore.

fraussantin
16-07-2024, 13:03
Ci vorrebbe il cavo con il connettore già piegato a 90° o con curvatura già predisposta incluso nell'alimentatore.

Ora li stanno facendo , ma i primi tempi ci sono state difficoltà perche fondevano.

Oggettivamente il connettore è un po piccolo per supportare tutti quei w, e sembra che la curva vada a peggiorare la situazione

Kostanz77
16-07-2024, 13:16
Ora li stanno facendo , ma i primi tempi ci sono state difficoltà perche fondevano.

Oggettivamente il connettore è un po piccolo per supportare tutti quei w, e sembra che la curva vada a peggiorare la situazione


Troppo piccola la sezione dei pin


Inviato dal mio iPhone utilizzando Tapatalk Pro

Ale55andr0
16-07-2024, 16:58
Si, con un miracolo (pare) lato clock. Quindi chip piccoli clockati, bus da 192/256bit con le g7 e uber chip da 24kcc full con 448bit.

E niente, giacco is giacco :rolleyes:

TreviSS
16-07-2024, 18:47
Ci vorrebbe il cavo con il connettore già piegato a 90° o con curvatura già predisposta incluso nell'alimentatore.

E sarebbe anche una buona idea se non fosse che a seconda del produttore della gpu ti trovi connettori con i 4sense pin sul lato superiore o inferiore.
Per avere un'idea di ciò che intendo guardate la foto del connettore su una 4090 Gigabyte o Asus, ad esempio, sono speculari l'uno rispetto all'altro.

mcsilenzio
17-07-2024, 05:08
Ho letto poco a riguardo ma mi pare di capire che nemmeno a sto giro le 70 eguaglieranno le 80 della gen precedente. Giusto?

argez
17-07-2024, 08:10
E sarebbe anche una buona idea se non fosse che a seconda del produttore della gpu ti trovi connettori con i 4sense pin sul lato superiore o inferiore.
Per avere un'idea di ciò che intendo guardate la foto del connettore su una 4090 Gigabyte o Asus, ad esempio, sono speculari l'uno rispetto all'altro.

A vedere dalle foto il problema sembra solo di asus che li monta "alla rovescia".

Cutter90
17-07-2024, 08:19
Ho letto poco a riguardo ma mi pare di capire che nemmeno a sto giro le 70 eguaglieranno le 80 della gen precedente. Giusto?

In che senso "nemmeno a sto giro"?
La 4070 va come la 3080.... e la 3070 andava come la 2080 ti.... e la 1070 andava come la 980 ti. Anche la 2070 andava come la 1080....
Forse volevi dire, "anche a sto giro"

scorpion73
17-07-2024, 08:30
In che senso "nemmeno a sto giro"?
La 4070 va come la 3080.... e la 3070 andava come la 2080 ti.... e la 1070 andava come la 980 ti. Anche la 2070 andava come la 1080....
Forse volevi dire, "anche a sto giro"

Giusto, semmai il problema è capire se le 80 new gen supereranno le attuali 90... al precedente giro la 3090 era presa dalla 4070ti e la 4080 andava ben di più della 3090 precedente.

marbasso
17-07-2024, 11:19
In che senso "nemmeno a sto giro"?
La 4070 va come la 3080.... e la 3070 andava come la 2080 ti.... e la 1070 andava come la 980 ti. Anche la 2070 andava come la 1080....
Forse volevi dire, "anche a sto giro"

La 2080ti va più della 3070. in certi frangenti con un pò di oc rasenta la 3080.
Quindi + della 3070ti.

kiwivda
17-07-2024, 11:27
Giusto, semmai il problema è capire se le 80 new gen supereranno le attuali 90... al precedente giro la 3090 era presa dalla 4070ti e la 4080 andava ben di più della 3090 precedente.

Secondo me siamo nel range +-5% dalla 4090 attuale ma con consumi ridotti, un po' come fu tra la 3070 e la 2080TI solo che questa volta siamo a confrontare una XX80 con una XX90.

Ubro92
17-07-2024, 11:28
La 2080ti va più della 3070. in certi frangenti con un pò di oc rasenta la 3080.
Quindi + della 3070ti.

Dipende dal PL, la reference è ferma a 250w e molte soluzioni basic non si smuovono da quel PL.

Infatti è uno dei chip trattati peggio rilasciati in questi anni.

Le custom, quelle belle spinte con PL da 320w e oltre già permettono di sfruttarla meglio.

Ben tirata la 2080ti è si vicina a 3080, ma nella media il suo livello è quello di 3070/3070ti.

Giusto, semmai il problema è capire se le 80 new gen supereranno le attuali 90... al precedente giro la 3090 era presa dalla 4070ti e la 4080 andava ben di più della 3090 precedente.

Con Ampere ci si stava su un 8nm, tant'è che anche tra 3080 e 3090 lo scarto prestazionale era misero.
Passando ai 4nm nvidia ha campato di rendita grazie al nodo, se con ampere avrebbe potuto contare sui 7nm TSMC e le memorie a doppia densità, lo stacco sarebbe stato molto ma molto più marginale.

A sto giro devono per forza lavorare massivamente sull'architettura, non puoi affidarti semplicemente al nodo.

Cutter90
17-07-2024, 11:31
La 2080ti va più della 3070. in certi frangenti con un pò di oc rasenta la 3080.
Quindi + della 3070ti.

La 3070 era lì lì con la 2080 ti dai. In alcu8ni giochi andava meglio la 3070, quelli con rt, in altri la 2080 ti. Siamo cmq lì

StylezZz`
17-07-2024, 11:36
La 2080ti va più della 3070. in certi frangenti con un pò di oc rasenta la 3080.
Quindi + della 3070ti.

Senza contare il discorso memoria, nell'ultimo anno il gap si è fatto sempre più evidente grazie al vantaggio degli 11GB contro i ridicoli 8GB della 3070.

''faster than 2080 Ti'' giacchetta è davvero un genio del male quando si tratta di marketing.

marbasso
17-07-2024, 11:37
La 3070 era lì lì con la 2080 ti dai. In alcu8ni giochi andava meglio la 3070, quelli con rt, in altri la 2080 ti. Siamo cmq lì

L' avevo su fino a qualche settimana fa, va be che era la hof....cmq...in oc sta vicino alla 3080. Default ok...chiedo venia.

mikael84
17-07-2024, 12:29
Dipende dal PL, la reference è ferma a 250w e molte soluzioni basic non si smuovono da quel PL.

Infatti è uno dei chip trattati peggio rilasciati in questi anni.

Le custom, quelle belle spinte con PL da 320w e oltre già permettono di sfruttarla meglio.

Ben tirata la 2080ti è si vicina a 3080, ma nella media il suo livello è quello di 3070/3070ti.



Con Ampere ci si stava su un 8nm, tant'è che anche tra 3080 e 3090 lo scarto prestazionale era misero.
Passando ai 4nm nvidia ha campato di rendita grazie al nodo, se con ampere avrebbe potuto contare sui 7nm TSMC e le memorie a doppia densità, lo stacco sarebbe stato molto ma molto più marginale.

A sto giro devono per forza lavorare massivamente sull'architettura, non puoi affidarti semplicemente al nodo.

Essendo un top chip, qua molti la tenevano liquidata con clock anche sopra i 2100, qualcuno come Marbasso tiene una HOF (il top del top) a 2,220, ed hanno questo ricordo, soprattutto in bench. La 3070 molti se la tengono a 1905 in DC per via del nodo.
Ovviamente non era la media delle 2080ti, molte faticavano anche a stare sui 2ghz per il TDP, le A2 erano chiodi che downclockavano a 1650 a stock.

Riguardo il nodo di blackwell, se confermati i rumour, tramite rivisitazione microarchitetturale pare spingano parecchio. Vediamo se quel 2,9 è base clock o base boost.
Gb203 se chiamato 5070ti a tali clock può prendere addirittura la x90 (come ha sempre fatto), diverso se clocka meno e la chiami x80.:)

Senza contare il discorso memoria, nell'ultimo anno il gap si è fatto sempre più evidente grazie al vantaggio degli 11GB contro i ridicoli 8GB della 3070.

''faster than 2080 Ti'' giacchetta è davvero un genio del male quando si tratta di marketing.

La 2080ti utilizzava le stesse memorie, ma essendo una top di gamma aveva un bus da 352bit, l'altra un mid chip da 499$ con le ram a 11,8$ il gb, e con l'assenza della doppia densità delle g6x che costringeva pure le 3080 ad andare di single.
Gli AIB in perdita, si lamentarono tantissimo dei costi spropositati della 3080 (il cui costo era equivalente, salvo ram a quello della 3090), ed utilizzare 20gb sarebbe stato impossibile.

Purtroppo la singola densità, ha costretto pure la 3070ti ad usare 8gb, senza clamshell.

Alla 3070 potevi mettere solo 16gb, a 11,8$ per gb, con la 3080 ferma a 10 e l'esclusione delle g6x da tale chip, come la 3070ti.

Lo so che questi discorsi all'utente finale importano poco, però nella tirchiaggine, ci sono anche alcuni aspetti da guardare.

Pure a me, ha fatto imbestialire vedere horizon forbidden west verso la fine crollare il frame, visto che la potenza della scheda mi permetteva ultra/super + DLAA. Risolto cmq mettendo max in alcuni punti, niente di grave.;)

Ubro92
17-07-2024, 12:47
Essendo un top chip, qua molti la tenevano liquidata con clock anche sopra i 2100, qualcuno come Marbasso tiene una HOF (il top del top) a 2,220, ed hanno questo ricordo, soprattutto in bench. La 3070 molti se la tengono a 1905 in DC per via del nodo.
Ovviamente non era la media delle 2080ti, molte faticavano anche a stare sui 2ghz per il TDP, le A2 erano chiodi che downclockavano a 1650 a stock.

Riguardo il nodo di blackwell, se confermati i rumour, tramite rivisitazione microarchitetturale pare spingano parecchio. Vediamo se quel 2,9 è base clock o base boost.
Gb203 se chiamato 5070ti a tali clock può prendere addirittura la x90 (come ha sempre fatto), diverso se clocka meno e la chiami x80.:)


La 2080ti diciamo che è un caso a se, è un chip che ha prestazioni troppo ballerine a seconda della personalizzazione, di base è stato trattato malissimo.

Nei test, la vram di 11GB non è che faccia miracoli rispetto gli 8GB di 3070, con potenza computezionale simile murano allo stesso modo.

Prendendo il caso peggiore in assoluto, dove la vram incide parecchio, gli 11GB il miracolo non lo fanno XD

https://tpucdn.com/review/alan-wake-2-performance-benchmark/images/performance-rt-3840-2160.png

Più che altro, il dato più preoccupante è GB206 che sarà a 128bit, un chip del genere senza tripla densità sta messo veramente male.

Spero che almeno i mid chip gudagnino la tripla, come fece la 3060.

Cutter90
17-07-2024, 12:50
Senza contare il discorso memoria, nell'ultimo anno il gap si è fatto sempre più evidente grazie al vantaggio degli 11GB contro i ridicoli 8GB della 3070.

''faster than 2080 Ti'' giacchetta è davvero un genio del male quando si tratta di marketing.

Salvo quei rari giochi in cui in 1400p 8 gb non bastano (pochissimi) , è lì con la 2080 ti tutt'ora. Inoltre in alcuni giochi va anche meglio. per cui direi che siamo rimasti nel " la 2080 ti va come la 3070" :)

Ubro92
17-07-2024, 12:59
Salvo quei rari giochi in cui in 1400p 8 gb non bastano (pochissimi) , è lì con la 2080 ti tutt'ora. Inoltre in alcuni giochi va anche meglio. per cui direi che siamo rimasti nel " la 2080 ti va come la 3070" :)

Sono schede che ormai su engine moderni e spinti puntano al 1080p o comunque scalando con il DLSS.

Tanto per dire, un 3440x1440 con un banale DLSS quality scende alla complessità di un 1080p.

Penso che già una 5050/5060 mobile sarà praticamente li con 3070/2080ti, stiamo parlando delle soluzioni più basse della prossima gen :fagiano:

StylezZz`
17-07-2024, 13:08
La 2080ti utilizzava le stesse memorie, ma essendo una top di gamma aveva un bus da 352bit, l'altra un mid chip da 499$ con le ram a 11,8$ il gb, e con l'assenza della doppia densità delle g6x che costringeva pure le 3080 ad andare di single.
Gli AIB in perdita, si lamentarono tantissimo dei costi spropositati della 3080 (il cui costo era equivalente, salvo ram a quello della 3090), ed utilizzare 20gb sarebbe stato impossibile.

Purtroppo la singola densità, ha costretto pure la 3070ti ad usare 8gb, senza clamshell.

Alla 3070 potevi mettere solo 16gb, a 11,8$ per gb, con la 3080 ferma a 10 e l'esclusione delle g6x da tale chip, come la 3070ti.

Lo so che questi discorsi all'utente finale importano poco, però nella tirchiaggine, ci sono anche alcuni aspetti da guardare.

Pure a me, ha fatto imbestialire vedere horizon forbidden west verso la fine crollare il frame, visto che la potenza della scheda mi permetteva ultra/super + DLAA. Risolto cmq mettendo max in alcuni punti, niente di grave.;)

Tu almeno ne hai 10GB, io con 8GB nemmeno con le textures su medie riuscivo a mantenere un framerate stabile nel DLC. Oltre alla potenza sprecata e non sfruttata per colpa della memoria, mi fa imbestialire vedere schede di fascia inferiore come la 3060 o la 6700 XT non avere questi problemi grazie ai 12GB.

Nei test, la vram di 11GB non è che faccia miracoli rispetto gli 8GB di 3070, con potenza computezionale simile murano allo stesso modo.

Prendendo il caso peggiore in assoluto, dove la vram incide parecchio, gli 11GB il miracolo non lo fanno XD

Salvo quei rari giochi in cui in 1400p 8 gb non bastano (pochissimi) , è lì con la 2080 ti tutt'ora. Inoltre in alcuni giochi va anche meglio. per cui direi che siamo rimasti nel " la 2080 ti va come la 3070" :)

Ecco, questo è l'errore che purtroppo fanno in molti (e che facevo pure io), ovvero quello di guardare solo i frame massimi e provare solo alcune parti del gioco senza considerare TUTTO il quadro completo, dove in alcune sezioni gira bene mentre in altre si ha un crollo del framerate devastante e aggiungiamoci pure i vari problemi di textures pop-in. Tutte problematiche che rovinano l'esperienza di gioco. Alla fine è più godibile giocare con 40fps stabili che 60fps instabili e ballerini che ti fanno smadonnare.

Cutter90
17-07-2024, 13:13
Tu almeno ne hai 10GB, io con 8GB nemmeno con le textures su medie riuscivo a mantenere un framerate stabile nel DLC. Oltre alla potenza sprecata e non sfruttata per colpa della memoria, mi fa imbestialire vedere schede di fascia inferiore come la 3060 o la 6700 XT non avere questi problemi grazie ai 12GB.





Ecco, questo è l'errore che purtroppo fanno in molti (e che facevo pure io), ovvero quello di guardare solo i frame massimi e provare solo alcune parti del gioco senza considerare TUTTO il quadro completo, dove in alcune sezioni gira bene mentre in altre si ha un crollo del framerate devastante e aggiungiamoci pure i vari problemi di textures pop-in. Tutte problematiche che rovinano l'esperienza di gioco. Alla fine è più godibile giocare con 40fps stabili che 60fps instabili e ballerini che ti fanno smadonnare.

Beh dai con vrr/gsync non c'è problema a oscillare dai 40 ai 60 no?
Del resto cmq se si vuole super stabilità o cmq giuocare a dettagli alti la 3070 è ormai una scheda da 1440p+dlss q o 1080p
Le schede di fascia inferiore anche se hanno più giga poi ti ritrovi che vadano anche meno. Quindi alla fine.....

mikael84
17-07-2024, 13:16
La 2080ti diciamo che è un caso a se, è un chip che ha prestazioni troppo ballerine a seconda della personalizzazione, di base è stato trattato malissimo.

Nei test, la vram di 11GB non è che faccia miracoli rispetto gli 8GB di 3070, con potenza computezionale simile murano allo stesso modo.

Prendendo il caso peggiore in assoluto, dove la vram incide parecchio, gli 11GB il miracolo non lo fanno XD



Più che altro, il dato più preoccupante è GB206 che sarà a 128bit, un chip del genere senza tripla densità sta messo veramente male.

Spero che almeno i mid chip gudagnino la tripla, come fece la 3060.

La 2080ti oltre al TDP soffriva molto i 6 TPC per GPC, come li soffriva la 2070 liscia, fattore che spesso non le faceva scalare bene, soprattutto la 2080ti.
Cmq a livello di thread è mediamente una 3070.
Anzi tiene parecchio il passo in quanto alimenta i thread con 616 gb/s e non con 448 gb/s.
2 TPC per limiti imposti dalle primitive e rop's spesso rimangono in attesa.

Riguardo la vram, non è tanto questione di miracolo, li è una situazione limite, però il problema spesso si manifesta man mano che giochi.
Riportavo prima l'ultima esperienza con forbidden west, dove verso la fase finale, il frame scendeva da 60-80 in DLAA a 30-50, ed in quei punti, dovevi riavviare e passare da ultra a max, che non cambiava di una virgola l'esperienza (solo fissazioni).
Con una 3080 12 probabilmente non avrei avuto quell'esperienza e forse neppure con la 11gb, che però avrei dovuto utilizzare il FG mod, visto che senza quello, avrei dovuto abbassare giù la qualità base ed abilitare il DLSS non DLAA.:)

marbasso
17-07-2024, 13:17
La 2080ti diciamo che è un caso a se, è un chip che ha prestazioni troppo ballerine a seconda della personalizzazione, di base è stato trattato malissimo.

Nei test, la vram di 11GB non è che faccia miracoli rispetto gli 8GB di 3070, con potenza computezionale simile murano allo stesso modo.

Prendendo il caso peggiore in assoluto, dove la vram incide parecchio, gli 11GB il miracolo non lo fanno XD

https://tpucdn.com/review/alan-wake-2-performance-benchmark/images/performance-rt-3840-2160.png

Più che altro, il dato più preoccupante è GB206 che sarà a 128bit, un chip del genere senza tripla densità sta messo veramente male.

Spero che almeno i mid chip gudagnino la tripla, come fece la 3060.

Alan wake....dai....
In ogni caso come fa la 3080 a star sotto/pareggiare la 3070 e alla 3070ti non l' ho capito. Me lo spiegate?
Sicuri che sia il gioco adatto per fare questa comparazione?

mikael84
17-07-2024, 13:26
Tu almeno ne hai 10GB, io con 8GB nemmeno con le textures su medie riuscivo a mantenere un framerate stabile nel DLC. Oltre alla potenza sprecata e non sfruttata per colpa della memoria, mi fa imbestialire vedere schede di fascia inferiore come la 3060 o la 6700 XT non avere questi problemi grazie ai 12GB.

.

Si, può sembrare poco, ma i 10gb pur stando alcune volte al limite, ti aiutano notevolmente rispetto ad 8gb.
Inoltre la maggior parte sono unreal engine 5 poco avidi di ram, e che danno pure una mano ad AMD per la questione RT.
La 3060 e la 6700xt hanno un bus a 192bit, quindi o 6 o 12, non c'era soluzione.
Sacrificando un pelo di prestazioni, magari allineandoli a quelli della 6700xt (3060ti), poteva pure fare lo stesso della 3060, fornendo la 3070 con 12gb. Questo però avrebbe impedito di poter installare le gdd6x sulla 3070ti.

Alan wake....dai....
In ogni caso come fa la 3080 a star sotto/pareggiare la 3070 e alla 3070ti non l' ho capito. Me lo spiegate?
Sicuri che sia il gioco adatto per fare questa comparazione?

In quella situazione estrema, il frame non conta più, sono frenate dalla ram.

Cmq quel bench, lascia pure il tempo che trova, è basato sull'intro e non sul bosco, che è abissalmente peggio.

ninja750
17-07-2024, 13:34
https://tpucdn.com/review/alan-wake-2-performance-benchmark/images/performance-rt-3840-2160.png

wow la 6800 ha una prestazione in RT tripla rispetto alla 4070ti :eek: :D

Ubro92
17-07-2024, 14:30
wow la 6800 ha una prestazione in RT tripla rispetto alla 4070ti :eek: :D

4-5 casi limite cosi e possiamo tracciare una media nel 3d delle AMD :fagiano:
Comunque era giusto un estremismo tanto per, anche perchè casi peggiori di quelli non li ho visti per ora.

Si, può sembrare poco, ma i 10gb pur stando alcune volte al limite, ti aiutano notevolmente rispetto ad 8gb.
Inoltre la maggior parte sono unreal engine 5 poco avidi di ram, e che danno pure una mano ad AMD per la questione RT.
La 3060 e la 6700xt hanno un bus a 192bit, quindi o 6 o 12, non c'era soluzione.
Sacrificando un pelo di prestazioni, magari allineandoli a quelli della 6700xt (3060ti), poteva pure fare lo stesso della 3060, fornendo la 3070 con 12gb. Questo però avrebbe impedito di poter installare le gdd6x sulla 3070ti.



In quella situazione estrema, il frame non conta più, sono frenate dalla ram.

Cmq quel bench, lascia pure il tempo che trova, è basato sull'intro e non sul bosco, che è abissalmente peggio.

Si ma già ci stiamo spostando su una 3080 che è un chip di classe superiore, a default rispetto la 3070 offre comunque un +30%, il che alzando alcuni set già va a piegare in toto gli 8GB, infatti è uno dei motivi per cui GB206 lo vedo molto male su un 128bit che è vincolato a soli 8GB e 12GB in tripla, senza tripla viaggia monco.

Per un chip di classe 3080 sicuramente un taglio da 12GB sarebbe stato più idoneo e per fortuna con 4070 non hanno tagliato a 160bit.

Comunque ampere ha sempre avuto le mani legate per via del nodo e delle GDDR6X che cloccavano basse, oltre a non avere la doppia densità da subito.

Su un 7nm TSMC e con clock di 2.3~2.5ghz, probabilmente un full GA106 si sarebbe piazzato tra 3060ti e 3070 mantenendo i 12GB, ne sarebbero uscite ottime 3060 e 3060ti, meglio anche delle attuali 4060/4060ti.

A scalare anche GA104/GA103 avrebbe tirato fuori ottime soluzioni e senza demolire GA102.

mikael84
17-07-2024, 16:02
Si ma già ci stiamo spostando su una 3080 che è un chip di classe superiore, a default rispetto la 3070 offre comunque un +30%, il che alzando alcuni set già va a piegare in toto gli 8GB, infatti è uno dei motivi per cui GB206 lo vedo molto male su un 128bit che è vincolato a soli 8GB e 12GB in tripla, senza tripla viaggia monco.

Per un chip di classe 3080 sicuramente un taglio da 12GB sarebbe stato più idoneo e per fortuna con 4070 non hanno tagliato a 160bit.

Si, come ben saprai, fin da subito, ho sempre ritenuto la 3080 12, la migliore in rapporto proprio per via della ram.
Spesso si faceva il raggionamento del: "quando muore una muore l'altra"!, che è in parte vero e lecito, però a conti fatti quella ram, visto il potenziale ti migliora l'esperienza, vedi il caso forbidden.

Tuttavia, quando si parla di ambienti tecnici è bene riportare il perchè di quella scelta.

Riguardo GB206, uno dei problemi è che le ram non stanno dietro ai progetti, le rivoluzionarie g7, dovevano avere la tripla già a stock, non come fa solitamente micron che le tira a fine gen, e per di più i chip sono scritti per il campo pro.
Infatti con Micron sono stato spesso abbastanza duro sotto questo aspetto.


Comunque ampere ha sempre avuto le mani legate per via del nodo e delle GDDR6X che cloccavano basse, oltre a non avere la doppia densità da subito.

Su un 7nm TSMC e con clock di 2.3~2.5ghz, probabilmente un full GA106 si sarebbe piazzato tra 3060ti e 3070 mantenendo i 12GB, ne sarebbero uscite ottime 3060 e 3060ti, meglio anche delle attuali 4060/4060ti.

A scalare anche GA104/GA103 avrebbe tirato fuori ottime soluzioni e senza demolire GA102.

Ampere a 7nm TSMC, avrebbe creato non pochi problemi alla roadmap futura (allora giù scritta, ma in attesa di vedere le rese), ed anche la ripartizione dei chip sarebbe cambiata, adeguandola alla rivale.
Probabilmente in base alle rese, ed al clock, sarebbe stato capace di tirati fuori una 3080 da GA104.
Pensiamo ad una 3090 a circa 2,3-2,4...

JHH voleva i 7nm di samsung, circa 10% più performanti a 0,75v, ma non aveva rese sufficienti, quindi samsung è dovuta correre in soccorso moddandogli per la terza volta il 10nm, fornendogli la densità per poterlo scrivere (infatti l'8nm è un 10nm 3° gen).
Un silicio purtroppo pessimo, che appena passi la iso, tende complettamente a scemare in efficienza, tanto che già a 0,9v spesso tira le cuoia.:)

Ubro92
17-07-2024, 18:06
Beh non è un ragionamento cosi sbagliato, contestualizzato anche al periodo, alla fine come longevità tra 3080/3080 12GB/3080ti siamo li, penso che nessuno la cambi per qualcosa meno di una 4080.

Poi certo in condizioni limite, quei 2GB di vram in più permettono di settare qualche parametro in più ma nell'esperienza cambia poco, anzi delle volte meglio cercarsi qualche texture pack moddato che usare i set ultra che alla fine hanno le medesime texture semplicemente upscalate.

marbasso
17-07-2024, 18:54
In quella situazione estrema, il frame non conta più, sono frenate dalla ram.



Quindi dici che così teoricamente i problemi si assottigliano? :D :D

https://i.postimg.cc/m2x1QDfw/Whats-App-Image-2024-07-09-at-11-15-34.jpg

mikael84
17-07-2024, 19:08
Quindi dici che così teoricamente i problemi si assottigliano? :D :D



Beh direi di si. Doppia densità, in stile Titan turing.:p

devil_mcry
17-07-2024, 20:01
L' avevo su fino a qualche settimana fa, va be che era la hof....cmq...in oc sta vicino alla 3080. Default ok...chiedo venia.

Consideri il meglio del meglio in OC fuori di testa con le 3070 stock. Io ho avuto una 3070 di quelle di medio batch durante la crisi, era una 3070 dual di asus

In primis non saliva NIENTE per colpa del TDP, in secondo luogo era proprio un problema di bontà del chip. Non riuscivano a salire come le prime delle review nemmeno con tdp sbloccati da più di 375w

Credo comunque che una 2080 ti avesse potenziale in più di una 3070 ma nel concreto andavano più o meno uguale

Per fortuna presi poi una 3080 12gb che tra una cosa e l'altra a parità di tdp va quasi come la 3080 ti (anche questa uscita castrata male)

marbasso
21-07-2024, 11:42
Scusate, posto quà perchè alla fine è il cavo a 16pin il problema che mi affligge e poi nel 3d degli alimentatori c'è la morte cerebrale...

Dubbi...
Prendere oggi una PSU ATX 3.0, PCIe 5.0, che sono cmq nuove o addirittura prendere/aspettare una ATX 3.1, PCIe 5.1?
Tutto ciò per il cavo 12VHPWR....aggiornato a 12v2x6 credo nella versione pcie 5.1.

Telstar
21-07-2024, 11:54
Prendere oggi una PSU ATX 3.0, PCIe 5.0, che sono cmq nuove o addirittura prendere/aspettare una ATX 3.1, PCIe 5.1?
Tutto ciò per il cavo 12VHPWR....aggiornato a 12v2x6 credo nella versione pcie 5.1.

Non aspettare, basta che lo prendi buono 850W +-100 in base all'hw che hai (1000 con una 4090).

marbasso
21-07-2024, 11:59
Non aspettare, basta che lo prendi buono 850W +-100 in base all'hw che hai (1000 con una 4090).

Prendo un 1300, ma il mio dubbio è:
il modello che piace a me come piattaforma, componenti ecc, ha il cavo e connessione diretta (connettore sulla psu) 12VHPWR quindi primo tipo .
Poi c'è il modello nuovo su base seasonic che non mi piace ed ha il cavo 12v2x6.
Ma....cambia solo il cavo o anche il connettore lato psu resta lo stesso come per le vga?
Sta storia è un casino...
Perchè se cambia solo il cavo basta acquistarlo e sei aggiornato.
Booo

Telstar
21-07-2024, 12:13
Prendo un 1300, ma il mio dubbio è:
il modello che piace a me come piattaforma, componenti ecc, ha il cavo e connessione diretta (connettore sulla psu) 12VHPWR quindi primo tipo .
Poi c'è il modello nuovo su base seasonic che non mi piace ed ha il cavo 12v2x6.
Ma....cambia solo il cavo o anche il connettore lato psu resta lo stesso come per le vga?
Sta storia è un casino...
Perchè se cambia solo il cavo basta acquistarlo e sei aggiornato.
Booo

Non lo so, dovrebbe essere solo il cavo. Ma tu avendo una 4090 devi stare attentissimo, io userei solo il cavo del nuovo tipo. Lato PSU ogni produttore fa a modo suo.
E' da un annetto che non guardo le novità sugli alimentatori. Prova a dare un'occhiata online su Culstist Network.

argez
21-07-2024, 12:27
Prendo un 1300, ma il mio dubbio è:
il modello che piace a me come piattaforma, componenti ecc, ha il cavo e connessione diretta (connettore sulla psu) 12VHPWR quindi primo tipo .
Poi c'è il modello nuovo su base seasonic che non mi piace ed ha il cavo 12v2x6.
Ma....cambia solo il cavo o anche il connettore lato psu resta lo stesso come per le vga?
Sta storia è un casino...
Perchè se cambia solo il cavo basta acquistarlo e sei aggiornato.
Booo

Cambia solo il connettore con le specifiche nuove per la corrente, il cavo è il medesimo. Inoltre come evidenziato anche su hwbusters, molti produttori di ali hanno già cambiato i connettori lato ali (atx 3.0) con quelli nuovi senza dire nulla proprio per non ritrovarsi gli alimentatori "vecchi" invenduti.
Qui il riassunto delle situazione:
https://hwbusters.com/quick-tips/should-i-get-an-atx-v3-1-psu-or-an-atx-v3-0-will-be-fine-everything-you-need-to-know/

marbasso
21-07-2024, 12:45
Cambia solo il connettore con le specifiche nuove per la corrente, il cavo è il medesimo. Inoltre come evidenziato anche su hwbusters, molti produttori di ali hanno già cambiato i connettori lato ali (atx 3.0) con quelli nuovi senza dire nulla proprio per non ritrovarsi gli alimentatori "vecchi" invenduti.
Qui il riassunto delle situazione:
https://hwbusters.com/quick-tips/should-i-get-an-atx-v3-1-psu-or-an-atx-v3-0-will-be-fine-everything-you-need-to-know/

Alla fine anche col connettore vecchio lato psu problemi non ne sono mai stati rilevati appunto lato ali, e in ogni caso se hai una coppia di uscite 2x8 pin sei già conforme al 3.1. anche se:
<<Se un alimentatore utilizza 2 connettori a 8 pin sulla sua scheda modulare per alimentare il cavo 12VHPWR (o 12V-2×6), è automaticamente conforme allo standard ATX v3.1 (a condizione che rispetti i restanti requisiti).>>
parla di cavo 12v-2x6

scorpion73
21-07-2024, 13:33
Alla fine anche col connettore vecchio lato psu problemi non ne sono mai stati rilevati appunto lato ali, e in ogni caso se hai una coppia di uscite 2x8 pin sei già conforme al 3.1. anche se:
<<Se un alimentatore utilizza 2 connettori a 8 pin sulla sua scheda modulare per alimentare il cavo 12VHPWR (o 12V-2×6), è automaticamente conforme allo standard ATX v3.1 (a condizione che rispetti i restanti requisiti).>>
parla di cavo 12v-2x6

3.0 o 3.1 cambia solo il connettore che è retrocompatibile e presumo la gestione dei micropicchi che da 2x passa a 2,5x

mikael84
21-07-2024, 16:00
Quoto a te, però vale per tutti.

Scusate, posto quà perchè alla fine è il cavo a 16pin il problema che mi affligge e poi nel 3d degli alimentatori c'è la morte cerebrale...

Dubbi...
Prendere oggi una PSU ATX 3.0, PCIe 5.0, che sono cmq nuove o addirittura prendere/aspettare una ATX 3.1, PCIe 5.1?
Tutto ciò per il cavo 12VHPWR....aggiornato a 12v2x6 credo nella versione pcie 5.1.

Questo è vero, ed "in parte" lo tollero per questo motivo, però, visto che c'è da discutere tanto, perchè non ripopolarlo?

In un'ora, avete risposto in 4, quindi è vuota perchè è più facile scrivere dove si ha più visibilità. Sarebbe decisamente meglio evitare l'OT qui, e discuterne a 360° nel luogo indicato. Le persone per discutere non mancano...

Tu l'hai fatto, facendo pure crossposting.

Invito quindi chiunque voglia discutere di cavi, ali in generale, di postare nell'apposita sezione.

Per chi non ci ha mai postato, gli basta cliccare su "sottoscrivi questa discussione". La stessa domanda l'hai postata li, ma ovviamente nessuno ha risposto, mentre qui si sono fiondati tutti.
https://www.hwupgrade.it/forum/showthread.php?t=1421020&page=969

Quindi da questo momento in poi, usate la sezione.

marbasso
21-07-2024, 16:45
Quoto a te, però vale per tutti.



Questo è vero, ed "in parte" lo tollero per questo motivo, però, visto che c'è da discutere tanto, perchè non ripopolarlo?

In un'ora, avete risposto in 4, quindi è vuota perchè è più facile scrivere dove si ha più visibilità. Sarebbe decisamente meglio evitare l'OT qui, e discuterne a 360° nel luogo indicato. Le persone per discutere non mancano...

Tu l'hai fatto, facendo pure crossposting.

Invito quindi chiunque voglia discutere di cavi, ali in generale, di postare nell'apposita sezione.

Per chi non ci ha mai postato, gli basta cliccare su "sottoscrivi questa discussione". La stessa domanda l'hai postata li, ma ovviamente nessuno ha risposto, mentre qui si sono fiondati tutti.
https://www.hwupgrade.it/forum/showthread.php?t=1421020&page=969

Quindi da questo momento in poi, usate la sezione.

Si sarebbe bello ripopolare quel thread. Ho fatto crossposting perchè avevo fatto un post li ma non mi ha mai risposto nessuno...:(
Allora ho postato prima li x dimostrare la buona intenzione, e poi qua per cercare ''conforto e consiglio''.

OrazioOC
22-07-2024, 11:01
https://videocardz.com/newz/nvidia-geforce-rtx-50-announcement-may-slip-to-2025

ninja750
22-07-2024, 11:17
https://videocardz.com/newz/nvidia-geforce-rtx-50-announcement-may-slip-to-2025

e fanno bene, tanto la concorrenza dorme, e pare che nemmeno la nuova arch amd su fascia media arriverà di quest'anno

stanno vendendo come il pane chippetti a 1000$ e facendo margini altissimi

Salfox
22-07-2024, 11:33
https://videocardz.com/newz/nvidia-geforce-rtx-50-announcement-may-slip-to-2025

A me basta che la fanno uscire entro l'inizio dell'estate 2025 così quando prendo la nuova, vendo la vecchia che è ancora in garanzia (tre anni).
In ogni caso c'è da dire che non si era mai visto un tempo così lungo tra due generazioni di GPU.

mikael84
22-07-2024, 11:38
https://videocardz.com/newz/nvidia-geforce-rtx-50-announcement-may-slip-to-2025

Beh abbastanza scontato. Cmq nvidia ultimamente ha presentato le super e la 3090ti in quella manifestazione.

devil_mcry
22-07-2024, 11:44
ma avete così tutti fretta di spendere soldi :D ?

mikael84
22-07-2024, 11:51
A me basta che la fanno uscire entro l'inizio dell'estate 2025 così quando prendo la nuova, vendo la vecchia che è ancora in garanzia (tre anni).
In ogni caso c'è da dire che non si era mai visto un tempo così lungo tra due generazioni di GPU.

Diciamo che pur mantendo il biennio, alcune generazioni di GPU sono uscite intervallate in quasi 2 anni e mezzo. Una debuttava a maggio, l'altra a settembre/ottobre. Qua ovviamente, se fai ottobre con ottobre, vai al terzo anno.

ma avete così tutti fretta di spendere soldi :D ?

Beh, dai, diciamo che qualche soluzione migliore delle attuali in ripartizione prezzo non sarebbe male per chi ha ampere come noi, o ancora più vecchie.
Una degna post 3080, ti costa ancora 1/1100 euro.:)

ghiltanas
22-07-2024, 11:54
la miniaturizzazione sta diventando sempre più complessa e soprattutto costosa, ci sta che i tempi di rilascio si allunghino un po' in futuro anche per questo

Telstar
22-07-2024, 12:07
Beh, dai, diciamo che qualche soluzione migliore delle attuali in ripartizione prezzo non sarebbe male per chi ha ampere come noi, o ancora più vecchie.
Una degna post 3080, ti costa ancora 1/1100 euro.:)

Stai facendo come me che salti una gen? In effetti è la cosa economicamente più sensata.

mikael84
22-07-2024, 12:20
Stai facendo come me che salti una gen? In effetti è la cosa economicamente più sensata.

Si per forza.. metto a disposizione 6/800 euro per la GPU, oltre per come gioco io ormai (moooolto poco), non vado.:)
Il mio target è avere perf da 4080 almeno in quel range.

Telstar
22-07-2024, 12:28
Si per forza.. metto a disposizione 6/800 euro per la GPU, oltre per come gioco io ormai (moooolto poco), non vado.:)
Il mio target è avere perf da 4080 almeno in quel range.

Quindi sceglierai tra 5070 o 5070S o 5070ti.

devil_mcry
22-07-2024, 12:51
Diciamo che pur mantendo il biennio, alcune generazioni di GPU sono uscite intervallate in quasi 2 anni e mezzo. Una debuttava a maggio, l'altra a settembre/ottobre. Qua ovviamente, se fai ottobre con ottobre, vai al terzo anno.



Beh, dai, diciamo che qualche soluzione migliore delle attuali in ripartizione prezzo non sarebbe male per chi ha ampere come noi, o ancora più vecchie.
Una degna post 3080, ti costa ancora 1/1100 euro.:)



Si però nemmeno serve ora a noi, è piu per chi è rimasto alle 2000, io penso convenga ormai prenderla e tenerla quel che dura e poi bon cambi

Kvarat
22-07-2024, 13:21
ma avete così tutti fretta di spendere soldi :D ?

Ma soprattutto quali giochi richiedono una potenza superiore ad una 4090? Per come la vedo io la generazione 4xxx potrebbe andare avanti anche per un altro anno senza nessun problema. Anzi più rimangono in commercio e più gli sviluppatori di giochi conoscono meglio il potenziale delle schede.

HSH
22-07-2024, 13:25
Si però nemmeno serve ora a noi, è piu per chi è rimasto alle 2000, io penso convenga ormai prenderla e tenerla quel che dura e poi bon cambi

ho proprio una 2060Super da cambiare e sono indeciso se farlo o aspettare il 2025, voi che dite?

ninja750
22-07-2024, 13:29
Ma soprattutto quali giochi richiedono una potenza superiore ad una 4090?

i nuovi giochi vengono tarati per le schede top, tralasciando del tutto il miglioramento grafico che apportano

avessimo oggi l'ottimizzazione che c'era anche solo 10 anni fa staremmo giocando tutti plafonati 240hz in 4K senza avere grosse rinunce resa finale

quando uscirà GTA6 siamo sicuri che 4K 60fps li farà solo la top di quel momento

ghiltanas
22-07-2024, 13:44
Ma soprattutto quali giochi richiedono una potenza superiore ad una 4090? Per come la vedo io la generazione 4xxx potrebbe andare avanti anche per un altro anno senza nessun problema. Anzi più rimangono in commercio e più gli sviluppatori di giochi conoscono meglio il potenziale delle schede.

non è solo questione di top di gamma, generazione nuova vuol dire anche migliori schede in fascia media e medio/alta, sia come rapporto prezzo/prestazioni sia come rapporto perf/watt

mikael84
22-07-2024, 14:14
Si però nemmeno serve ora a noi, è piu per chi è rimasto alle 2000, io penso convenga ormai prenderla e tenerla quel che dura e poi bon cambi

Diciamo che in un cambio generazionale ne giovano tutti, anche quelli come noi con schede di 4 anni.


i nuovi giochi vengono tarati per le schede top, tralasciando del tutto il miglioramento grafico che apportano

avessimo oggi l'ottimizzazione che c'era anche solo 10 anni fa staremmo giocando tutti plafonati 240hz in 4K senza avere grosse rinunce resa finale

quando uscirà GTA6 siamo sicuri che 4K 60fps li farà solo la top di quel momento

Beh, oddio, forse va meglio ora che prima, tra DLSS/FSR/XESS/FG, o il DLAA che evita di utilizzare il vecchio ammazza rop's MSAA4X.

Dopo 4 anni con una 3080-6800xt riesci a giocare forbidden west, ultra con DLAA/equivalente a 1440p over 60fps.
Con x80 di 4 anni fa, come una 980/290, giocare un RDR2 era già un' impresa

Ubro92
22-07-2024, 14:16
Decisamente meglio oggi, i motori sono scalabili e oggi se vuoi puoi giocare anche con una IGP.

Persino dispositivi come le handheld che ti tirano su un AAA recente, erano pura utopia fino a 4-5 anni fa.

Inviato dal mio M2012K11AG utilizzando Tapatalk

Telstar
22-07-2024, 15:17
non è solo questione di top di gamma, generazione nuova vuol dire anche migliori schede in fascia media e medio/alta, sia come rapporto prezzo/prestazioni sia come rapporto perf/watt

Anche se nvidia fa di tutto per fare le x60 di merda :)

Telstar
22-07-2024, 15:17
Decisamente meglio oggi, i motori sono scalabili e oggi se vuoi puoi giocare anche con una IGP.

Assolutamente NO, le IGP non sono neppure a livello di una 2060.

Ubro92
22-07-2024, 15:18
Assolutamente NO, le IGP non sono neppure a livello di una 2060.Quindi con steam deck, Ally e go non ci puoi giocare?

Inviato dal mio M2012K11AG utilizzando Tapatalk

devil_mcry
22-07-2024, 15:54
Assolutamente NO, le IGP non sono neppure a livello di una 2060.

Ma va, uno Z1E a 720p o 1080p (in portatile quindi) ti fa giocare a tutto maxato a 30fps minimo oggi come oggi, sono console portatili con schermi piccoli, nel caso abbassi i dettagli e manco lo noti per i limiti della diagonale

Diciamo che in un cambio generazionale ne giovano tutti, anche quelli come noi con schede di 4 anni.




Beh, oddio, forse va meglio ora che prima, tra DLSS/FSR/XESS/FG, o il DLAA che evita di utilizzare il vecchio ammazza rop's MSAA4X.

Dopo 4 anni con una 3080-6800xt riesci a giocare forbidden west, ultra con DLAA/equivalente a 1440p over 60fps.
Con x80 di 4 anni fa, come una 980/290, giocare un RDR2 era già un' impresa

Eh è quello che dico, per fortuna oggi siamo messi nel male bene a livello software, io non gioco con frame generator ma dlss fsr2 etc sono una manna dal cielo, hanno praticamente rimpiazzato il 4k con un 1440p come peso per la gpu

ninja750
22-07-2024, 16:25
Decisamente meglio oggi, i motori sono scalabili e oggi se vuoi puoi giocare anche con una IGP.

Assolutamente NO, le IGP non sono neppure a livello di una 2060.

giocare non vuol dire solo maxato o giocare 144fps, io ho giocato e finito crysis2 con la igp del 4670k (e 8gb di ram!) a 1080p sui 30fps abbassando di molto il dettaglio, giocabilissimo

l'8700G è grossomodo a livelli di una RX580 / 1650S

OrazioOC
22-07-2024, 17:17
l'8700G è grossomodo a livelli di una RX580 / 1650S

Siamo a livello della rx 6400 o gtx 1650, però mi dissocio nel dire che per giocare serve minimo una 2060. :)

Con una 2060(ho avuto sottomano una 2060 12gb 3 giorni fa XD) i giochi in full hd girano più che decentemente anche a dettagli medio/alti.
Poi è chiaro che se non si usa il dlss/fsr e si attiva il raytracing, la scheda ci muore sotto. :)

Telstar
22-07-2024, 19:26
giocare non vuol dire solo maxato o giocare 144fps, io ho giocato e finito crysis2 con la igp del 4670k (e 8gb di ram!) a 1080p sui 30fps abbassando di molto il dettaglio, giocabilissimo

l'8700G è grossomodo a livelli di una RX580 / 1650S

Si, è a livello ciofeca.

Io per lavoro ho bisogno almeno di uno schermo 1440p, e ovviamente pensavo a quella risoluzione dove una 2060 o meglio una 2070 sono il minimo sindacale (a parte problemi di vram).
Quanto si perde scalando a fhd?

Ubro92
22-07-2024, 22:24
Si, è a livello ciofeca.

Io per lavoro ho bisogno almeno di uno schermo 1440p, e ovviamente pensavo a quella risoluzione dove una 2060 o meglio una 2070 sono il minimo sindacale (a parte problemi di vram).
Quanto si perde scalando a fhd?

Ma guarda che con un DLSS quality su un pannello 3440x1440 sei già a una complessità simil FHD (2293x960).

Su un 1440p 16:9 scendi a 1707x960, sinceramente penso che per un desktop sia ampiamente gestibile, soprattutto se si considera che la 2060 è una scheda che che trovi a un centone nell'usato...

Oggi come oggi, grazie proprio a questi algoritmi come DLSS e FSR, anche una 4070 potrebbe gestire un pannello 4K, poi è ovvio che se vuoi maxare tutto con tanto di RT e PT, non te ne uscirai mai, tanto più restando sempre in nativa e over 1440p.

amon.akira
23-07-2024, 12:35
nvidia-titan-with-blackwell-gpu-reportedly-in-the-works (https://videocardz.com/newz/nvidia-titan-with-blackwell-gpu-reportedly-in-the-works)

marbasso
23-07-2024, 12:38
In questi giorni facendo ricerche per la PSU mi sono imbattuto spesso in psu calculator che avevano come opzione la 4090Ti.... :sofico:
Cmq in quella foto della presunta titan blackw è 4 slot...LOL.

OrazioOC
23-07-2024, 12:38
nvidia-titan-with-blackwell-gpu-reportedly-in-the-works (https://videocardz.com/newz/nvidia-titan-with-blackwell-gpu-reportedly-in-the-works)

Big chungus su pci express. XD

mikael84
23-07-2024, 12:43
nvidia-titan-with-blackwell-gpu-reportedly-in-the-works (https://videocardz.com/newz/nvidia-titan-with-blackwell-gpu-reportedly-in-the-works)

Titan, tesla e quadro, sono sigle cancellate a partire da Ampere, non so perchè si insista ancora con Titan.

Ubro92
23-07-2024, 12:45
Titan, tesla e quadro, sono sigle cancellate a partire da Ampere, non so perchè si insista ancora con Titan.Perche il nome é figo e cercano di spronare Nvidia a riutilizzarlo 🤣

Inviato dal mio M2012K11AG utilizzando Tapatalk

amon.akira
23-07-2024, 13:20
Titan, tesla e quadro, sono sigle cancellate a partire da Ampere, non so perchè si insista ancora con Titan.

potrebbe aver senso solo se vuole distanziarla maggiormente di prezzo e farla percepire per pro (giustamente), ma dovrebbe iniziare anche subito con un cut 5090 (5080ti?)

certo kopite ne ha sparate tante a sto giro, ha detto 2025,end 2024,2025, prima x80, x90 dual slot, ora titan... vedremo quante ne becca

devil_mcry
23-07-2024, 14:56
Comunque per quanto crescono le gpu in dimensione prima o poi dovrebbero iniziare a pensare di farle esterne stand alone

marbasso
23-07-2024, 15:33
Comunque per quanto crescono le gpu in dimensione prima o poi dovrebbero iniziare a pensare di farle esterne stand alone

Mmmmm, anche i dissipatori attuali (parlo di 4090) pur essendo generosi confermo che ad aria la gestione di 650w non è proprio di facile gestione, anzi.
Salvo bench relativamente spinti ma brevi, giocare a 600+ watt scalda troppo.
Non so che tireranno fuori.
Poi chi si limita a stock non ha problemi ovviamente.

devil_mcry
23-07-2024, 15:43
Mmmmm, anche i dissipatori attuali (parlo di 4090) pur essendo generosi confermo che ad aria la gestione di 650w non è proprio di facile gestione, anzi.
Salvo bench relativamente spinti ma brevi, giocare a 600+ watt scalda troppo.
Non so che tireranno fuori.
Poi chi si limita a stock non ha problemi ovviamente.

Inizia ad essere un problema a tutto tondo, le schede scaldano ma potremmo dire "finché stock sono stabili sticazzi" ma stiamo tornando a case grossi quanto una stanza tra cpu da 200+ W e GPU da una follia di W

A me la 3080 12gb triventola entra appena nel case e va a filo col radiatore frontale

Telstar
23-07-2024, 18:23
non dico che mi avete convinto comunque aspetto di vedere come si comporta l'igpu di phantom lake, e interpolerò a FHD, che avere una discreta a prezzi umani è impossibile.

argez
23-07-2024, 19:33
Mmmmm, anche i dissipatori attuali (parlo di 4090) pur essendo generosi confermo che ad aria la gestione di 650w non è proprio di facile gestione, anzi.
Salvo bench relativamente spinti ma brevi, giocare a 600+ watt scalda troppo.
Non so che tireranno fuori.
Poi chi si limita a stock non ha problemi ovviamente.

Quello che doveva essere un passo falso con il pp di samsung è diventata la norma.

Ubro92
23-07-2024, 21:00
Inizia ad essere un problema a tutto tondo, le schede scaldano ma potremmo dire "finché stock sono stabili sticazzi" ma stiamo tornando a case grossi quanto una stanza tra cpu da 200+ W e GPU da una follia di W

A me la 3080 12gb triventola entra appena nel case e va a filo col radiatore frontale

Vabbè case grossi relativamente, rispetto al passato non c'è il castello degli HDD, quindi anche un micro-ATX riesce ad ospitare schede generose, basta avere 3-4 slot liberi :sofico:

In passato era molto peggio con soluzioni sli, addirittura alcuni andavano di quad-sli :fagiano:

Oggi si tira il collo alla singola GPU.

fraussantin
23-07-2024, 21:01
Comunque per quanto crescono le gpu in dimensione prima o poi dovrebbero iniziare a pensare di farle esterne stand alone
Tipo questa?

https://uploads.tapatalk-cdn.com/20240723/e163d0d5d18c60fcbe1d972c39e6998a.jpg


Quello che doveva essere un passo falso con il pp di samsung è diventata la norma.


Secondo me è anche una questione di marketing.

Se ti chiedono 2000 euro per una scheda devve sembrare di più anche all occhio.

marbasso
23-07-2024, 21:04
Quello che doveva essere un passo falso con il pp di samsung è diventata la norma.

Il pp se non 4np sarà la stessa cosa del 4n circa, non ricordo che disse mikael.
Quando poi ci butti dentro un' altro 25% di transistor.... è normale che ciuccia corrente con relativo hot.
E non puoi nemmeno fare PL troppo conservativi perchè non ha il minimo senso.

mikael84
23-07-2024, 21:23
potrebbe aver senso solo se vuole distanziarla maggiormente di prezzo e farla percepire per pro (giustamente), ma dovrebbe iniziare anche subito con un cut 5090 (5080ti?)

certo kopite ne ha sparate tante a sto giro, ha detto 2025,end 2024,2025, prima x80, x90 dual slot, ora titan... vedremo quante ne becca


kopite a sto giro sa ben poco, ed un dettaglio che a me interessa è la dimensione del die. Anche i presunti clock non gli ha detti lui.

Di certo è davvero inquietanto il solco tra GB203 e 202, si aprono varie ipotesi, a partire da 2 x90 ad un ritorno di fiamma come la x80ti...

Quello che doveva essere un passo falso con il pp di samsung è diventata la norma.

Samsung ha una curva pessima già a partire dai 0,75v, e scema al salire al contrario di TSMC.
Di contro, anche se avesse avuto un PP migliore, avrebbero spinto sul clock e non sull'efficienza.
Ad esempio, samsung 7nm aveva in proiezione un -25% in riduzione consumi ed un +10 in clock x 0,75v. Ciò significa che avremmo potuto farci ampiamente stare GA102 sui 280, in quanto la curva poteva migliorare notevolmente, ma di certo avrebbe speso tutto in clock.
L'unica differenza è che magari avresti 3090-3080 da 2100 anzichè 1900.

Il pp se non 4np sarà la stessa cosa del 4n circa, non ricordo che disse mikael.
Quando poi ci butti dentro un' altro 25% di transistor.... è normale che ciuccia corrente con relativo hot.
E non puoi nemmeno fare PL troppo conservativi perchè non ha il minimo senso.

Qualche leak parla di clock molto più alti pur essendo sempre sui 4nm. Il delta del PP è circa 11/15 (se con elvt), ma andranno sommati a:
-rese del PP di ADA (ora ben più rodato)
-rese attuali
-eventuali rivisitazioni (vedi maxwell vs kepler ed il passaggio agli SMX a SMM)
-lavoro del progettista che è riuscito a riprogettare maniacalmente il chip, disponendo i transistor a bassa ed alta dispersione in aree critiche (vedi la 4090 o le gtx580).

Riguardo i transistor, bisognerà vedere quanto riusciranno ad impillarne per mm2, non c'è molta densità a disposizione, e se questa è bassa, devi aumentare il die (vedi turing).

Krabat
24-07-2024, 13:30
Dato che i piccoli chip per gli smartphone passeranno a 3nm quest' autunno con i nuovi iphone, se è vero che la serie 5000 verrà ritardata all inizio del prossimo anno non potrebbero passare ai 3nm anche i chipponi della serie 5000? O è impossibile ?

bronzodiriace
24-07-2024, 14:45
Tipo questa?

https://uploads.tapatalk-cdn.com/20240723/e163d0d5d18c60fcbe1d972c39e6998a.jpg





Secondo me è anche una questione di marketing.

Se ti chiedono 2000 euro per una scheda devve sembrare di più anche all occhio.Direi più questa


https://uploads.tapatalk-cdn.com/20240724/2d33799c65f6126312c62cfe8b806a73.jpg

JackWC
24-07-2024, 16:54
Direi più questa


https://uploads.tapatalk-cdn.com/20240724/2d33799c65f6126312c62cfe8b806a73.jpg

ciao ragazzi, seguo da un pò hwupgrade e ho deciso di iscrivermi...
come mai parlate di schede così grosse? sono uscite le specifiche e si sa già che saranno più grandi delle precedenti?

Magistercris
25-07-2024, 10:02
Si fa in parte per scherzare.
Ma sicuramente, vedendo le dimensioni storiche delle schede, ad ogni genereazione, specie le ultime, si è visto un aumento delle dimensioni per contrastare il calore della GPU sempre più spinte ed energivore, considerando i 600 watt che si ciuccia la 4090.
Dato che non c'è un vero salto di nodo tra 4090 e 5090, e questa dovrebbe essere bella tirata, si suppone che le dimensioni quanto meno non cambino, anzi...
Ma sono sollo illazioni al momento, anche considerando che l'impianto di raffreddamento della 4090 era sovradimensionato secondo alcuni.
Per me è perfetto, perchè permette di giocare con carichi alti senza avere un ventilatore dentro il case che ti costringe a giocare con le cuffie, se vuoi tutto maxato.

fraussantin
25-07-2024, 13:18
Si fa in parte per scherzare.

Ma sicuramente, vedendo le dimensioni storiche delle schede, ad ogni genereazione, specie le ultime, si è visto un aumento delle dimensioni per contrastare il calore della GPU sempre più spinte ed energivore, considerando i 600 watt che si ciuccia la 4090.

Dato che non c'è un vero salto di nodo tra 4090 e 5090, e questa dovrebbe essere bella tirata, si suppone che le dimensioni quanto meno non cambino, anzi...

Ma sono sollo illazioni al momento, anche considerando che l'impianto di raffreddamento della 4090 era sovradimensionato secondo alcuni.

Per me è perfetto, perchè permette di giocare con carichi alti senza avere un ventilatore dentro il case che ti costringe a giocare con le cuffie, se vuoi tutto maxato.Ma la 4090 non consuma 600w.

Si puo alzare il tdp manualmente fino a 600w ottenendo un po di prestazioni in più , ma si parla sempre di tweak manuali.

Le ultime infornate poi non ci arrivano lo stesso per limitare le fusioni .

Cutter90
25-07-2024, 14:19
Si fa in parte per scherzare.
Ma sicuramente, vedendo le dimensioni storiche delle schede, ad ogni genereazione, specie le ultime, si è visto un aumento delle dimensioni per contrastare il calore della GPU sempre più spinte ed energivore, considerando i 600 watt che si ciuccia la 4090.
Dato che non c'è un vero salto di nodo tra 4090 e 5090, e questa dovrebbe essere bella tirata, si suppone che le dimensioni quanto meno non cambino, anzi...
Ma sono sollo illazioni al momento, anche considerando che l'impianto di raffreddamento della 4090 era sovradimensionato secondo alcuni.
Per me è perfetto, perchè permette di giocare con carichi alti senza avere un ventilatore dentro il case che ti costringe a giocare con le cuffie, se vuoi tutto maxato.

La 4090 ha 450 watt di tdp se non erro. I 600 watt sono possibili per tirarla la massimo. cosa sensata solo per i bench. nell'utilizzo quotidiano si sta a stck e ancora emglio con un saggio undervolt. La mia con utilizzo al 100% con il profilo da me creato tira da 330 ai 400 watt. E il profilo creato ha una frequenza più alta dello stock, quindi sono anche in oc.

Magistercris
26-07-2024, 06:25
Certo che 600 è il limite massimo. Ma l'impianto di raffreddamento deve essere progettato anche per sopportare un benchmark spinto anche in loop, come spesso faccio io per testare l'oc o oc con undervolt.
La mia più di 500 non arriva, ma nei bench tosti ci arriva eccome. L'impianto di raffreddamento deve coprire il peggior scenario possibile.

fraussantin
26-07-2024, 06:37
Certo che 600 è il limite massimo. Ma l'impianto di raffreddamento deve essere progettato anche per sopportare un benchmark spinto anche in loop, come spesso faccio io per testare l'oc o oc con undervolt.

La mia più di 500 non arriva, ma nei bench tosti ci arriva eccome. L'impianto di raffreddamento deve coprire il peggior scenario possibile.Ma non è mai stato cosí .

I dissipatori sono progettati per il funzionamento a stock.

E in ogni caso lo stesso dissipatore era anche sulla 4080 .

Sono cosí grossi piu per marketing che per un reale bisogno.
( Inizialmente forse perche pensati per un pp samsung , ma secondo me c'entra piu il marketing e giustificare i 1500\2500 richiesti in media )

Cutter90
26-07-2024, 07:03
Certo che 600 è il limite massimo. Ma l'impianto di raffreddamento deve essere progettato anche per sopportare un benchmark spinto anche in loop, come spesso faccio io per testare l'oc o oc con undervolt.
La mia più di 500 non arriva, ma nei bench tosti ci arriva eccome. L'impianto di raffreddamento deve coprire il peggior scenario possibile.

Infatti lo copre tranquillamente, arrivando ad aria a temeperature ben sotto la soglia critica, che ricordo essere i 105 gradi per le memorie e 95 circa per la gpu. Quindi non vedo problemi in tal senso.
Al netto che i dissipatori sono dimensionati per "quella gpu custom". Quindi una gpu che ha il bios da 600 watt sarà più grande di quella che ha un bios da 450 watt.

OrazioOC
28-07-2024, 10:45
https://www.reddit.com/r/nvidia/comments/1eduiyt/steam_hardware_survey_june_2024_discrete_graphics/

https://i.redd.it/tkvkyhv6i5fd1.png

Abbastanza stupito dalle quote delle gtx pascal ancora in giro, e anche dalle quote di Turing(GTX+RTX Turing hanno comunque più share delle RTX Ada).

Segno che secondo me, i prezzi non proprio popolari dell'ultima gen sta ritardando nell'effettivo lo svecchiamento del parco hardware. :O

Speriamo bene per BW, però non vedo comunque un'inversione di tendenza all'orizzone. :rolleyes:

Rumpelstiltskin
28-07-2024, 10:58
Più che altro non vedo una rosa di giochi tripla A per i quali faccia salire la scimmia di cambio gpu.

Ormai queste gpu costano un rene, sono di nicchia. Uno si fa anche due conti in tasca : ci saranno 5 giochi solo che mi paiono in uscita? Allora vado di ps5/xbox ( o se ho già una gpu discreta tengo questa senza cambiarla)

Imho

StylezZz`
28-07-2024, 11:44
Più che altro non vedo una rosa di giochi tripla A per i quali faccia salire la scimmia di cambio gpu

THIS.

Cutter90
28-07-2024, 12:51
Lo dico da tempo. Lato software siamo molto molto indietro rispetto all hardware

ghiltanas
28-07-2024, 14:09
Più che altro non vedo una rosa di giochi tripla A per i quali faccia salire la scimmia di cambio gpu.

Ormai queste gpu costano un rene, sono di nicchia. Uno si fa anche due conti in tasca : ci saranno 5 giochi solo che mi paiono in uscita? Allora vado di ps5/xbox ( o se ho già una gpu discreta tengo questa senza cambiarla)

Imho

Titoli spremi GPU in vista mi viene in mente stalker 2, che però con una 4090 non credo proprio avrai problemi, e gta6, ma per PC si parla del 2027, quindi si fa in tempo ad aspettare anche le 6000

Kvarat
28-07-2024, 16:29
Lo dico da tempo. Lato software siamo molto molto indietro rispetto all hardware

Non sono indietro fidati. Semplicemente chi produce software ha come scopo quello di soddisfare più clienti possibili. Se la gente ha monitor fhd e 2060 nei case è normale non produrre giochi esagerati e pesanti.

mikael84
28-07-2024, 18:24
Titoli spremi GPU in vista mi viene in mente stalker 2, che però con una 4090 non credo proprio avrai problemi, e gta6, ma per PC si parla del 2027, quindi si fa in tempo ad aspettare anche le 6000

A sto giro è indietro anche con i chip HPC, generalmente a marzo le annunciava e a maggio le tirava fuori, qua non abbiamo neppure un dev. di BL HPC, neppure la struttura interna.

Cutter90
28-07-2024, 18:43
Non sono indietro fidati. Semplicemente chi produce software ha come scopo quello di soddisfare più clienti possibili. Se la gente ha monitor fhd e 2060 nei case è normale non produrre giochi esagerati e pesanti.

Magari è così. Ma rispetto all hardware restano indietro. Tempo addietro l hardware era sempre dietro al software. Ma ora che si sono raggiunti i 4k e 60 fps ovunque (e anche 100 e passa ormai) ora le case devono sviluppare altro che non sia fps o "risoluzione". Ed ecco che sono in netta difficoltà.
Se rispettiamo le fasce, le SH sono indietro, senza dubbio.
Intendo proprio tecnicamente.
Ma il discorso è trito. Le sh non stanno trovando un modo per sviluppare più in fretta rispetto a 15 anni fa. E i soldi che prendo i li spendono spessi male e le danno alle persone sbagliate invece che investirli.
Sentivo di dirigenti di sh prendere decini e decine di milioni di dollari come bonus. Roba che con quei soldi di possono sviluppare 2 giochi.
Il sistema non funziona e ne stiamo pagando amche noi le conseguenze.

fraussantin
28-07-2024, 19:32
Magari è così. Ma rispetto all hardware restano indietro. Tempo addietro l hardware era sempre dietro al software. Ma ora che si sono raggiunti i 4k e 60 fps ovunque (e anche 100 e passa ormai) ora le case devono sviluppare altro che non sia fps o "risoluzione". Ed ecco che sono in netta difficoltà.

.

A me basterebbe che ritornassero a inventarsi giochi nuovi , e non sempre le solite zolfe.

Cmq lato grafica se c'è volontà di investire possono tranquillamente rendere obsolete le 4090 con gli engine attuali.
Il freno come sempre sono le console.

Ubro92
28-07-2024, 19:41
A me basterebbe che ritornassero a inventarsi giochi nuovi , e non sempre le solite zolfe.

Cmq lato grafica se c'è volontà di investire possono tranquillamente rendere obsolete le 4090 con gli engine attuali.
Il freno come sempre sono le console.Ma sinceramente la grafica attuale andrebbe più che bene, prefeirei se spingessero anche su altre componenti, come AI degli NPC sia come capacità discorsiva che strategica e sulla fisica del gioco.

Perché sono cose che veramente sono rimaste a 20 anni fa, Crysis 1 ancora oggi come fisica é più interessante di molti titoli moderni.

Inviato dal mio M2012K11AG utilizzando Tapatalk

fraussantin
28-07-2024, 19:47
Ma sinceramente la grafica attuale andrebbe più che bene, prefeirei se spingessero anche su altre componenti, come AI degli NPC sia come capacità discorsiva che strategica e sulla fisica del gioco.

Perché sono cose che veramente sono rimaste a 20 anni fa, Crysis 1 ancora oggi come fisica é più interessante di molti titoli moderni.

Inviato dal mio M2012K11AG utilizzando TapatalkAnche per me la grafica va bene.
Ormai anche quando esce un gioco piu bruttino va benissimo lo stesso ( tipo tushima)

Ia sicuramente da migliorare , ma anche le formule con cui confezionano i giochi sono obsolete.ormai i tripla a sono tutti uguali , e le trame sono interessanti come quella di una telenovela sudamericana.

Cutter90
28-07-2024, 20:50
Anche per me la grafica va bene.
Ormai anche quando esce un gioco piu bruttino va benissimo lo stesso ( tipo tushima)

Ia sicuramente da migliorare , ma anche le formule con cui confezionano i giochi sono obsolete.ormai i tripla a sono tutti uguali , e le trame sono interessanti come quella di una telenovela sudamericana.

Tsushima bruttino anche no. Quando uscì su ps4 era un top graficamente.
Il problema poi è che è stato portato su pc facendo una conversione da "compitino"
Ed è proprio questo il punto: su pc a parte rari casi siamo costretti a giocare giochi tecnicamente da console, solamente tirati a lucido. Zero features esclusive salvo eccezioni.

Sulla questione fisica... nemmeno riescono più a sorprendere graficamente ormai (che era la cosa più facile), figuriamoci se puntano sulla fisica. Magari

OrazioOC
29-07-2024, 09:02
https://videocardz.com/newz/nvidia-geforce-rtx-4070-to-be-in-short-supply-in-china-next-month-due-to-lack-of-gddr6x-memory

Si parla di mercato cinese, che è comunque abbastanza grande da impattare la disponibilità sul ressto del globo. :rolleyes:

Kvarat
29-07-2024, 12:08
Magari è così. Ma rispetto all hardware restano indietro. Tempo addietro l hardware era sempre dietro al software. Ma ora che si sono raggiunti i 4k e 60 fps ovunque (e anche 100 e passa ormai) ora le case devono sviluppare altro che non sia fps o "risoluzione". Ed ecco che sono in netta difficoltà.


I 4k nel gaming esiste solo grazie alle TV. Se fosse per i monitor sarebbero in 4 gatti ad utilizzarlo. Il problema resta sempre e solo la monetizzazione del prodotto. Meglio puntare forte sulle console e sulla fetta di giocatori ampissima con monitor fhd e 2k. Quelli che in molti non valutano rispetto al passato è la necessità dei componenti. Un tempo passavi da un monitor HD ad uno 1600x900 ad un FHD pur conservando lo stesso hardware o comunque con poco scarto di prestazioni. Oggi per passare da un onesto fhd ad un onesto 4k serve un mutuo. Ed in più comprando un monitor 4k sei costretto sempre a tenere il top nel pc con il passare degli anni.

Telstar
29-07-2024, 12:16
Oggi per passare da un onesto fhd ad un onesto 4k serve un mutuo. Ed in più comprando un monitor 4k sei costretto sempre a tenere il top nel pc con il passare degli anni.

FHD è così scarso che sono 10 anni che non lo uso più.
Normalmente si fa un passaggio intermedio due.

Cutter90
29-07-2024, 12:30
I 4k nel gaming esiste solo grazie alle TV. Se fosse per i monitor sarebbero in 4 gatti ad utilizzarlo. Il problema resta sempre e solo la monetizzazione del prodotto. Meglio puntare forte sulle console e sulla fetta di giocatori ampissima con monitor fhd e 2k. Quelli che in molti non valutano rispetto al passato è la necessità dei componenti. Un tempo passavi da un monitor HD ad uno 1600x900 ad un FHD pur conservando lo stesso hardware o comunque con poco scarto di prestazioni. Oggi per passare da un onesto fhd ad un onesto 4k serve un mutuo. Ed in più comprando un monitor 4k sei costretto sempre a tenere il top nel pc con il passare degli anni.

Si ma anche sul 1440p la situazione è sempre la stessa. Con le gpu che vanno bene per quella fascia che sono sempre più avanti del software.
Un 4070 super in 2k fa girare tutto molto bene, se prendi una 4070 ti poi ciaone proprio. Ma le features sono sempre mancanti a tutte le risoluzioni.
La 4060, scheda in full hd fa volare i giochi in quella res, mentre una volta si arrivava ai 60 appena appena. Questo è indice del fatto che l'hardware è più avanti del software.

Da un onesto full hd ad un onesto 4k serve un mutuo? Falsissimo. Si compre un monitor 4k a pari qualità di un full hd con 300 euro volendo.
Non confondiamo il 4k con "oled". Perchè sono due cose molto diverse.

carloUba
29-07-2024, 12:33
FHD è così scarso che sono 10 anni che non lo uso più.
Normalmente si fa un passaggio intermedio due.

La cerchia dei compagni di scuola di mio figlio ha al 95% un ultra wide 1440.
L'ho dovuto ovviamente comprare anche io :(
4k tra i conoscenti si contano veramente sulle dita.

Telstar
29-07-2024, 13:12
infatti

Ubro92
29-07-2024, 14:48
La cerchia dei compagni di scuola di mio figlio ha al 95% un ultra wide 1440.

L'ho dovuto ovviamente comprare anche io :(

4k tra i conoscenti si contano veramente sulle dita.Ma oramai anche un ultrawide, 3440x1440, già solo al primo step del dlss (quality) scende a una complessità da 1080p, te ne esci pure con una 3060/4060.

Non é che ti serva chissà che Uber potenza per gestire oggi un monitor.

Il 4k, ok per le TV, ma per un monitor da PC non sono così essenziali, sinceramente preferirei vedere qualche pannello OLED 1440p a prezzi più accessibili, molti ultrawide OLED stanno iniziando a scendere e mi sa che un pensierino lo farò.

Inviato dal mio M2012K11AG utilizzando Tapatalk

fraussantin
29-07-2024, 17:52
La cerchia dei compagni di scuola di mio figlio ha al 95% un ultra wide 1440.

L'ho dovuto ovviamente comprare anche io :(

4k tra i conoscenti si contano veramente sulle dita.Si nel caso dei ragazzi poi dipende anche dal filone che prendono.

Se parte uno con una cosa poi gli vanno tutti dietro.

Cmq in media il piu comune è il 1440 normale.

Kvarat
30-07-2024, 08:55
FHD è così scarso che sono 10 anni che non lo uso più.
Normalmente si fa un passaggio intermedio due.

Tu forse. Nel resto del mondo si parla del 50% di utenti. Calcolando che giocano al pc in 1 miliardo di persone...
P.S. Ci sono tanti che hanno anche schermi hd ancora

Kvarat
30-07-2024, 08:57
Si ma anche sul 1440p la situazione è sempre la stessa. Con le gpu che vanno bene per quella fascia che sono sempre più avanti del software.
Un 4070 super in 2k fa girare tutto molto bene, se prendi una 4070 ti poi ciaone proprio. Ma le features sono sempre mancanti a tutte le risoluzioni.
La 4060, scheda in full hd fa volare i giochi in quella res, mentre una volta si arrivava ai 60 appena appena. Questo è indice del fatto che l'hardware è più avanti del software.

Da un onesto full hd ad un onesto 4k serve un mutuo? Falsissimo. Si compre un monitor 4k a pari qualità di un full hd con 300 euro volendo.
Non confondiamo il 4k con "oled". Perchè sono due cose molto diverse.
Non vorrei sembrare scortese ma come pensi di giocare ad un 4k con soli 300 euro? Il resto del pc?

Ubro92
30-07-2024, 12:35
Non vorrei sembrare scortese ma come pensi di giocare ad un 4k con soli 300 euro? Il resto del pc?Ha semplicemente detto che con 300&euro; ti compri un monitor 4k di qualità penosa non lontana da un normale fhd.

Nessuno ha parlato di giocare in 4k con 300&euro; anche se volendo mettere i puntini sulle i, non é così impossibile se si ripiega su una 3080 usata e ci si appoggia al dlss.

Inviato dal mio M2012K11AG utilizzando Tapatalk

Cutter90
30-07-2024, 13:35
Non vorrei sembrare scortese ma come pensi di giocare ad un 4k con soli 300 euro? Il resto del pc?

Ma tu hai parlato del solo monitor, non del resto del pc scusa.....

Per un pc da 4k a 60 fps ci vogliono 1500 euro circa.
Ma come ti ho già evidenziato il discorso si divide tranquillamente a fasce. Non c'è bisogno del 4k per capire che le sh sono indietro rispetto a quello che oggi offrono le schede grafiche, salvo eccezioni.

mikael84
30-07-2024, 14:12
Ha semplicemente detto che con 300&euro; ti compri un monitor 4k di qualità penosa non lontana da un normale fhd.

Nessuno ha parlato di giocare in 4k con 300&euro; anche se volendo mettere i puntini sulle i, non é così impossibile se si ripiega su una 3080 usata e ci si appoggia al dlss.

Inviato dal mio M2012K11AG utilizzando Tapatalk

Con le 3080 usate a circa 3/350 euro, ci stava bene il vecchio e caro SLI. +70% circa, quanto mi manca.:)

Cmq si, il 4k, ad oggi è pilotabile abbastanza, purchè si trovi un buon copromesso con il DLSS. In alcuni basta un classico quality, in altri (rt soprattutto/ue5), bisognerà scendere anche a prestazioni, che su un 27/163PPI, potrebbe non essere neppure un grosso problema.

La base migliore è ovviamente il 1440p.

https://videocardz.com/newz/nvidia-geforce-rtx-4070-to-be-in-short-supply-in-china-next-month-due-to-lack-of-gddr6x-memory

Si parla di mercato cinese, che è comunque abbastanza grande da impattare la disponibilità sul ressto del globo. :rolleyes:

Paradossalmente, come sempre detto, potevano benissimo mettere le g6 (circa 33$) di ram, e calare ancora il prezzo, per supportare gli AIB. Oltre al fatto che ti slegavi da micron che deve rifornire quasi tutti i chip nvidia.

OrazioOC
31-07-2024, 10:23
https://videocardz.com/newz/nvidia-geforce-rtx-4070-to-be-in-short-supply-in-china-next-month-due-to-lack-of-gddr6x-memory

Si parla di mercato cinese, che è comunque abbastanza grande da impattare la disponibilità sul ressto del globo. :rolleyes:

https://videocardz.com/newz/nvidia-could-launch-geforce-rtx-4070-with-gddr6-memory




Paradossalmente, come sempre detto, potevano benissimo mettere le g6 (circa 33$) di ram, e calare ancora il prezzo, per supportare gli AIB. Oltre al fatto che ti slegavi da micron che deve rifornire quasi tutti i chip nvidia.

Mi sà che ti hanno ascoltato. :D

Ubro92
31-07-2024, 10:38
Paradossalmente, come sempre detto, potevano benissimo mettere le g6 (circa 33$) di ram, e calare ancora il prezzo, per supportare gli AIB. Oltre al fatto che ti slegavi da micron che deve rifornire quasi tutti i chip nvidia.

E infatti si rumoreggia di una variate GDDR6 della 4070:

https://videocardz.com/newz/nvidia-could-launch-geforce-rtx-4070-with-gddr6-memory

marbasso
31-07-2024, 11:40
Di tutto di più sulla serie 4070 e....:rolleyes:

mikael84
31-07-2024, 12:20
https://videocardz.com/newz/nvidia-could-launch-geforce-rtx-4070-with-gddr6-memory



Mi sà che ti hanno ascoltato. :D

E infatti si rumoreggia di una variate GDDR6 della 4070:

https://videocardz.com/newz/nvidia-could-launch-geforce-rtx-4070-with-gddr6-memory

Uno degli aspetti negativi, è che andresti a perdere qualcosina in perf, ma protesti mitigare completamente usando le 20 hynix, che costano lo stesso tanto.
Anzi, potresti pure calibrarle a 21, usando le bin, come si faceva un tempo.

Questo comportava meno costi di produzioni, e sgravare su micron.
Con le g7 invece non sarai legato solo a micron.

marbasso
02-08-2024, 13:20
Abuso di posizione dominante nel mercato dell' intelligenza artificiale.

Addirittura?

OrazioOC
02-08-2024, 13:20
https://videocardz.com/newz/nvidia-hit-with-u-s-doj-antitrust-investigation-over-alleged-market-dominance-abuse

Guai in paradiso. :rolleyes:

Ubro92
02-08-2024, 13:23
Abuso di posizione dominante nel mercato dell' intelligenza artificiale.

Addirittura?

Che poi mi domando, ci sono altre posizioni? :stordita:
Non mi pare che la concorrenza offra granchè.

marbasso
02-08-2024, 13:26
Che poi mi domando, ci sono altre posizioni? :stordita:
Non mi pare che la concorrenza offra granchè.

Appunto.

Come dire , ah...tu sei forte nel settore molto + degli altri...ti indago a prescindere così faccio qual :rolleyes: cosa.

Pelvix
02-08-2024, 13:57
Appunto.

Come dire , ah...tu sei forte nel settore molto + degli altri...ti indago a prescindere così faccio qual :rolleyes: cosa.

E' così da sempre, con le società petrolifere e con le acciairie a suo tempo è successo la stessa cosa, li hanno cotretti a smembrare tutto in più società e non è neppure sbagliato: pensate se qualcuno avesse il monopolio dei carburanti ...

mcsilenzio
02-08-2024, 23:23
Tornando al discorso di qualche post fa, ho una 3080ti 12Gb presa usata ottime condizioni su Amazon a 560€ (a agosto 2023) e gioco abbastanza tranquillamente in 4k a tutto sulla mia tv. Bho, quando progettavo la build tutti a dirmi che la 3080ti non era più una scheda da 4k60 in ultra; non sarà che c’è la mania di dover avere l’ultimissimo modello di gpu per non esser considerati sfigati? Ad oggi non ne ho mai avuto bisogno ma volendo con le mod potrei usare anche il FG di amd in accoppiata al dlss e alla fine in 4k sono più o meno ai livelli di una 4070ti che però ai tempi costava 300€ in più.

Cutter90
03-08-2024, 08:43
Tornando al discorso di qualche post fa, ho una 3080ti 12Gb presa usata ottime condizioni su Amazon a 560€ (a agosto 2023) e gioco abbastanza tranquillamente in 4k a tutto sulla mia tv. Bho, quando progettavo la build tutti a dirmi che la 3080ti non era più una scheda da 4k60 in ultra; non sarà che c’è la mania di dover avere l’ultimissimo modello di gpu per non esser considerati sfigati? Ad oggi non ne ho mai avuto bisogno ma volendo con le mod potrei usare anche il FG di amd in accoppiata al dlss e alla fine in 4k sono più o meno ai livelli di una 4070ti che però ai tempi costava 300€ in più.
La 3080 ti in 4k va ancora bene, ma è chiaramente al limite. Ma tutto dipende da che giochi fai. Chiaro è che se tu giochi tanti AAA moderni Single player e li vuoi maxare la 3080 ti non lo fa i 4k a 60 fps. Giocando con dlss anche sotto a qualità si ottengono buoni risultati.
Ma dipende davvero molto da cosa giochi.

OrazioOC
03-08-2024, 10:29
https://videocardz.com/newz/nvidia-blackwell-gpus-facing-delays-larger-shipments-to-start-in-2025

Si tratta delle GPU Datacenter, ma non è detto che non tocchi anche noi...

bronzodiriace
03-08-2024, 11:57
Che poi mi domando, ci sono altre posizioni? :stordita:
Non mi pare che la concorrenza offra granchè.Probabilmente , non della stessa fascia, qualcosa c'è.

mcsilenzio
04-08-2024, 12:06
La 3080 ti in 4k va ancora bene, ma è chiaramente al limite. Ma tutto dipende da che giochi fai. Chiaro è che se tu giochi tanti AAA moderni Single player e li vuoi maxare la 3080 ti non lo fa i 4k a 60 fps. Giocando con dlss anche sotto a qualità si ottengono buoni risultati.
Ma dipende davvero molto da cosa giochi.

In genere con dlss quality ottengo i 60 un po’ ovunque e in molti casi li supero abbondantemente. Piuttosto sono preoccupato ad esempio da star Wars Outlaws che richiede minimo 16gb per giocare al massimo dettaglio. Vedremo, male che va dlss Balance e FG AMD se ci sarà.
Ora il mio dubbio è: prendo una 4080 appena scende sotto i 900€ magari anche usata spendendo meno, o aspetto la serie 5000? Dai leak che girano le 5070 non sembrano al livello della 4080 o mi sbaglio?

Ubro92
05-08-2024, 10:48
Uno degli aspetti negativi, è che andresti a perdere qualcosina in perf, ma protesti mitigare completamente usando le 20 hynix, che costano lo stesso tanto.
Anzi, potresti pure calibrarle a 21, usando le bin, come si faceva un tempo.

Questo comportava meno costi di produzioni, e sgravare su micron.
Con le g7 invece non sarai legato solo a micron.

Si rumoreggia per le 20gbps infatti:

https://videocardz.com/newz/new-geforce-rtx-4070-rumored-to-feature-20-gbps-gddr6-memory

Alla fine andrebbe praticamente uguale, penso che si recuperi qualcosa anche in termini di consumi.

OrazioOC
05-08-2024, 11:12
Si rumoreggia per le 20gbps infatti:

https://videocardz.com/newz/new-geforce-rtx-4070-rumored-to-feature-20-gbps-gddr6-memory

Alla fine andrebbe praticamente uguale, penso che si recuperi qualcosa anche in termini di consumi.

Sperando che ritocchino verso il basso anche i prezzi, visto che le gddr6 costano meno. :)

A gennaio 2024 in fase di lancio della 4070 super, il listino della 4070 è stato ritoccato di soli 50 dollari(quindi 549 dollari di listino attuale).
Portarla a 499 dollari sarebbe un prezzo congruo visto che stiamo parlando di una scheda potenzialmente in EOL tra 6-9 mesi. :O

Salfox
05-08-2024, 11:20
Avete notato che delle nuove Blackwell non se ne parla proprio più? Prima almeno c'erano ogni tanto dei leak ora c'è il buio più assoluto, si torna a parlare solo di nuove varianti delle ADA, secondo me l'uscita delle nuove è lontanissima (maggio 2025?).

mikael84
05-08-2024, 11:28
https://videocardz.com/newz/nvidia-blackwell-gpus-facing-delays-larger-shipments-to-start-in-2025

Si tratta delle GPU Datacenter, ma non è detto che non tocchi anche noi...

No, questo è un problema legato a TSMC e l'interposer per collegare due die. Black pro/gaming sarà single die. Quindi nessun problema.
Infatti anche per le HPC si potrebbe partire a single die.

Si rumoreggia per le 20gbps infatti:

https://videocardz.com/newz/new-geforce-rtx-4070-rumored-to-feature-20-gbps-gddr6-memory

Alla fine andrebbe praticamente uguale, penso che si recuperi qualcosa anche in termini di consumi.

Giustamente, con le 18 perderebbe prestazioni, visto pure la misera cache.

OrazioOC
05-08-2024, 11:28
Avete notato che delle nuove Blackwell non se ne parla proprio più? Prima almeno c'erano ogni tanto dei leak ora c'è il buio più assoluto, si torna a parlare solo di nuove varianti delle ADA, secondo me l'uscita delle nuove è lontanissima (maggio 2025?).

https://videocardz.com/newz/nvidia-blackwell-gpus-facing-delays-larger-shipments-to-start-in-2025

Beh qualche ritardo(qui si parla di consegne di chip AI/Datacenter) nvidia lo sta dando, però per quanto concerne la linea RTX DIY/Mobile, mi aspetto una presentazione al Ces di Las Vegas ad inizio Gennaio. :)

No, questo è un problema legato a TSMC e l'interposer per collegare due die. Black pro/gaming sarà single die. Quindi nessun problema.
Infatti anche per le HPC si potrebbe partire a single die.

Ecco, grazie Mike!. :D

marbasso
05-08-2024, 18:01
Nvidia's next-gen Blackwell chip may be facing delays due to design flaws


https://www.techspot.com/news/104106-nvidia-blackwell-chip-may-delayed-three-months-due.html

Ma serio?



https://www.mobileworldlive.com/ai-cloud/nvidia-rejects-blackwell-chip-delay-claim/

mikael84
05-08-2024, 18:09
Nvidia's next-gen Blackwell chip may be facing delays due to design flaws


https://www.techspot.com/news/104106-nvidia-blackwell-chip-may-delayed-three-months-due.html

Ma serio?



https://www.mobileworldlive.com/ai-cloud/nvidia-rejects-blackwell-chip-delay-claim/

Riguarda solo il campo HPC, per problemi col foveros ed i collegamenti alle due GPU, nulla a che vedere con le gaming che saranno single die.;)

marbasso
05-08-2024, 18:31
Riguarda solo il campo HPC, per problemi col foveros ed i collegamenti alle due GPU, nulla a che vedere con le gaming che saranno single die.;)

Bene, quindi prima del 2025? E chi lo sa....

mikael84
06-08-2024, 14:13
Tornando al discorso di qualche post fa, ho una 3080ti 12Gb presa usata ottime condizioni su Amazon a 560€ (a agosto 2023) e gioco abbastanza tranquillamente in 4k a tutto sulla mia tv. Bho, quando progettavo la build tutti a dirmi che la 3080ti non era più una scheda da 4k60 in ultra; non sarà che c’è la mania di dover avere l’ultimissimo modello di gpu per non esser considerati sfigati? Ad oggi non ne ho mai avuto bisogno ma volendo con le mod potrei usare anche il FG di amd in accoppiata al dlss e alla fine in 4k sono più o meno ai livelli di una 4070ti che però ai tempi costava 300€ in più.

In genere con dlss quality ottengo i 60 un po’ ovunque e in molti casi li supero abbondantemente. Piuttosto sono preoccupato ad esempio da star Wars Outlaws che richiede minimo 16gb per giocare al massimo dettaglio. Vedremo, male che va dlss Balance e FG AMD se ci sarà.
Ora il mio dubbio è: prendo una 4080 appena scende sotto i 900€ magari anche usata spendendo meno, o aspetto la serie 5000? Dai leak che girano le 5070 non sembrano al livello della 4080 o mi sbaglio?


In ogni post vai dicendo di giocare in 4k, e che ti avrebbero detto che la 3080ti non è da 4k, però poi dici di giocare con il DLSS quality o nel casi bilanciato.

Per 4k si intende mediamente 4k DLAA, se usi il DLSS quality, stai automaticamente scalando in 1440p o meno col bilanciato.
Per stare sui 60 su hellblade, devo scendere col DLSS quality su un 1440p (ovvero 960p) con una scheda non tanto distante dalla tua.



Bene, quindi prima del 2025? E chi lo sa....

Se viene confermata la presentazione al CES di gennaio, le informazioni più accurate le avremmo minimo a partire da ottobre.
Anche se non tutto viene svelato in quanto non capito dai leak che non sono tecnici, vedi il dual issue RDNA3 o il DLSS3.

mcsilenzio
06-08-2024, 19:49
In ogni post vai dicendo di giocare in 4k, e che ti avrebbero detto che la 3080ti non è da 4k, però poi dici di giocare con il DLSS quality o nel casi bilanciato.

Per 4k si intende mediamente 4k DLAA, se usi il DLSS quality, stai automaticamente scalando in 1440p o meno col bilanciato.
Per stare sui 60 su hellblade, devo scendere col DLSS quality su un 1440p (ovvero 960p) con una scheda non tanto distante dalla tua.


Capisco la tua accezione ma ci sono giochi dove per raggiungere i 60 devo ricorrere al dlss quality, mentre altri dove non uso tecnologie di scaling e raggiungo comunque i 60fps. Il compromesso è davvero minimo, il mio riferimento al dlss balanced era per star wars, molto molto raramente l'ho usato fino ad ora e pare na vergogna da cui stare assolutamente lontano.

OrazioOC
12-08-2024, 15:13
https://videocardz.com/newz/exclusive-galax-geforce-rtx-4070-gddr6-has-been-pictured-features-ad104-251-gpu

Daedra007
14-08-2024, 12:06
https://www.tomshardware.com/pc-components/gpus/nvidia-blackwell-rtx-50-series-gpus-everything-we-know

jaja36
14-08-2024, 17:54
https://www.tomshardware.com/pc-components/gpus/nvidia-blackwell-rtx-50-series-gpus-everything-we-know

Ma la 480 non fu presentata al CES dentro un case a liquido? O erro.

marbasso
30-08-2024, 09:59
Su questo fronte tutto tace non ci sono aggiornamenti già da un pò. Che noia.

OrazioOC
30-08-2024, 11:02
Su questo fronte tutto tace non ci sono aggiornamenti già da un pò. Che noia.

Non mi aspetto leak significativi prima di ottobre/novembre. :rolleyes:
Tanto ormai è assodato che prima del CES Nvidia non dica nulla su queste nuove rtx...

ninja750
30-08-2024, 11:26
Non mi aspetto leak significativi prima di ottobre/novembre. :rolleyes:
Tanto ormai è assodato che prima del CES Nvidia non dica nulla su queste nuove rtx...

visto che la concorrenza non solo dorme ma peggio potrebbe fare giusto un refresh e nemmeno scomodare mezzo aggiornamento hardware e tenere nel cassetto le nuove idee

come dico da mesi un refresh con la parola chiave AI mi raccomando quindi le chiameremo AI4070 ecc :O ovviamente solo queste potranno fare girare le nuove techdemo che useranno le nuove librerie directAI

OrazioOC
30-08-2024, 11:58
visto che la concorrenza non solo dorme ma peggio potrebbe fare giusto un refresh e nemmeno scomodare mezzo aggiornamento hardware e tenere nel cassetto le nuove idee

come dico da mesi un refresh con la parola chiave AI mi raccomando quindi le chiameremo AI4070 ecc :O ovviamente solo queste potranno fare girare le nuove techdemo che useranno le nuove librerie directAI

Nvidia non fa refresh dai tempi delle gtx 700(roba del 2013).
Semmai se intel e amd fanno cilecca, il peggio che può capitare è di avere schede dal rapporto prezzo/prestazioni orrendo come la prima tornata di gpu ada(4070 ti a 900 euro, 4080 a 1300 euro). :rolleyes:

A64FX+DFI nF4
30-08-2024, 12:08
Nvidia non fa refresh dai tempi delle gtx 700(roba del 2013).
Semmai se intel e amd fanno cilecca, il peggio che può capitare è di avere schede dal rapporto prezzo/prestazioni orrendo come la prima tornata di gpu ada(4070 ti a 900 euro, 4080 a 1300 euro). :rolleyes:

comunque il rapporto prezzo/prestazioni tuttora è orrendo

OrazioOC
30-08-2024, 13:33
comunque il rapporto prezzo/prestazioni tuttora è orrendo

E' orrendo ma molto meno di prima.
Ora le performance di una 4070 ti vengono via con 650 euro(4070 super). :rolleyes:
E anche sul fronte amd qualcosa è cambiato, post mining una 6800 xt era comunque una scheda da 650 euro, mentre la 7800 xt è reperibile sui 500...

Poi oh, il top del top se lo farà pagare caro nvidia(la 4090 non è scesa di un euro dal 2022)...

Maury
30-08-2024, 13:47
A me sembra che il rapporto prezzo prestazioni sia migliorato molto, una 4070 super la prendi a 650 euro ed ha prestazioni tra 3090 e 3090 Ti, risultando a volte avanti addirittura negli ultimi giochi con rt attivo.

La stessa 4070 da ottime prestazioni ad un prezzo decente.

ste-87
30-08-2024, 13:50
comunque il rapporto prezzo/prestazioni tuttora è orrendo

bhe diciamo che a 1000€ la 4080 Super schifo non fa, inteso come livello di prestazioni in rapporto alla spesa e sorvolando il fatto che sia una gen ormai a fine ciclo per il quale difficilmente vale la pena spenderli tutti quei soldi (su quello siam tutti d'accordo)

il problema sarà la prossima 5080, perchè se tanto mi da tanto rivedere prezzi sui 1200-1400€ credo sarà molto ma molto facile, (una probabilità del 98%?!?!) e se già fan schifo quelli di ora, si ritorna allo schifo di 2 anni fa

A64FX+DFI nF4
30-08-2024, 15:32
appunto i prezzi attuali sono quelli che avrebbero dovuto avere al lancio due anni fa, intendo da ad103full a scendere, adesso dovrebbe costare tutto sui 200€ in meno

mikael84
30-08-2024, 15:42
A me sembra che il rapporto prezzo prestazioni sia migliorato molto, una 4070 super la prendi a 650 euro ed ha prestazioni tra 3090 e 3090 Ti, risultando a volte avanti addirittura negli ultimi giochi con rt attivo.

La stessa 4070 da ottime prestazioni ad un prezzo decente.

Ora però servirebbe un rimpiazzo con Blackwell, perchè chi ha una 3080/12, dopo 4 anni si ritrova ancora con schede mediamente simili allo stesso listino.
Diciamo buone per chi assembla ora, ma per chi è ancora in attesa meno.

Maury
31-08-2024, 12:55
Ora però servirebbe un rimpiazzo con Blackwell, perchè chi ha una 3080/12, dopo 4 anni si ritrova ancora con schede mediamente simili allo stesso listino.
Diciamo buone per chi assembla ora, ma per chi è ancora in attesa meno.


Vero chi ha un Ampere potente ha difficoltá ad aggiornare, c'é da dire che Ada apporta anche aggiunte gradite come FG e un RT più potente ma mi rendo conto che può non valere la candela. Dopo anni di attesa sono certo che Black dará una sistemata a questo problema.

Telstar
31-08-2024, 13:46
Dopo anni di attesa sono certo che Black dará una sistemata a questo problema.

hahahahaha

marbasso
31-08-2024, 14:19
hahahahaha

Darà più una sistemata al prezzo al rialzo per me...

Maury
31-08-2024, 14:39
hahahahaha

Si spera eh :sofico:

mikael84
31-08-2024, 16:52
Vero chi ha un Ampere potente ha difficoltá ad aggiornare, c'é da dire che Ada apporta anche aggiunte gradite come FG e un RT più potente ma mi rendo conto che può non valere la candela. Dopo anni di attesa sono certo che Black dará una sistemata a questo problema.

RT più potente che per il momento da un boost nel path tracing.
Cmq non mi aspetto molto, se navi48 anticipa, forse vedremmo il valore della 5070.
Un obbiettivo della 5070 liscia dovrebbe essere almeno quello di prendere la 4070tis, considerando che se sarà basata su GB205, pareggerà cache e banda.
Certo, servirà clock o qualche affinamento, visto che i cuda sbandierati sono 6400.

Telstar
31-08-2024, 16:56
Un obbiettivo della 5070 liscia dovrebbe essere almeno quello di prendere la 4070tis.

Dovrebbe prendere la 4080s, ma probabilmente non accadrà.
E si saltano le 5000 felicemente.

Ubro92
31-08-2024, 17:09
GB205 alla fine è un chip molto più vicino a GB206 che GB203, non credo arrivi alle prestazioni di una 4080, già potremmo definirlo grasso che cola se arriva alla 4070ti Super e senza tripla densità rimane ancorata a 12GB di vram.
Sicuro sarebbe un'ottima 5060ti, ma come 5070 non mi aspetto chissà che salto da 4070s/4070ti.

mikael84
31-08-2024, 17:31
Dovrebbe prendere la 4080s, ma probabilmente non accadrà.
E si saltano le 5000 felicemente.

Considera che, alla base di GB205 vengono riportati al momento 6400 cuda, per una consifurazione che non dovrebbe distaccarsi dai 2-220watt.
6400 vs 5888, sono 8,7% teorico da una 4070 liscia.
Per arrivare ad una 4080/s, devi tirare fuori un maxwell, ovvero un mistro di IPC/clock e perf/watt davvero maestoso, o cuttare un chip superiore.

GB205 alla fine è un chip molto più vicino a GB206 che GB203, non credo arrivi alle prestazioni di una 4080, già potremmo definirlo grasso che cola se arriva alla 4070ti Super e senza tripla densità rimane ancorata a 12GB di vram.
Sicuro sarebbe un'ottima 5060ti, ma come 5070 non mi aspetto chissà che salto da 4070s/4070ti.


GB205 con la TIS, condivideranno banda e cache, già qualcosa in comune.

Maury
31-08-2024, 17:43
RT più potente che per il momento da un boost nel path tracing.
Cmq non mi aspetto molto, se navi48 anticipa, forse vedremmo il valore della 5070.
Un obbiettivo della 5070 liscia dovrebbe essere almeno quello di prendere la 4070tis, considerando che se sarà basata su GB205, pareggerà cache e banda.
Certo, servirà clock o qualche affinamento, visto che i cuda sbandierati sono 6400.

Per me la 5070 é più mirata a pareggiare la 4070 super, mi chiedo che mole di modifiche hw possa avere Black per pareggiare i 8448 cuda della 4070 ti super con soli 6400. Anche perché vero che può lavorare sul clock ma giá le Ada i 3 ghz li bucano.

ste-87
31-08-2024, 18:25
su che pp dovrebbero fare la nuova archiettura? si affideranno a TSMC?

mikael84
31-08-2024, 18:36
Per me la 5070 é più mirata a pareggiare la 4070 super, mi chiedo che mole di mofiche hw possa avere Black per pareggiare i 8448 cuda della 4070 ti super con soli 6400. Anche perché vero che può lavorare sul clock ma giá le Ada i 3 ghz li bucano.

Si parlava di clock molto alti, ma questo è tutto da vedere, il vero perf/watt del 4nP non è elevatissimo.
Lato banda/cache è identico.
Potrebbe avere anche la l1/shader più pompata, che è importante per gestire meglio il warp stall.
Lato IPC è da vedere, non c'è molto materiale per poterne trarre qualcosa.

su che pp dovrebbero fare la nuova archiettura? si affideranno a TSMC?

4nmP di TSMC, una miglioria del 5nm utilizzato da ADA (che nvidia chiama 4n essendo moddato per la l2).

OrazioOC
03-09-2024, 08:24
https://videocardz.com/newz/nvidia-geforce-rtx-50-blackwell-rumors-hint-at-higher-power-consumption

ninja750
03-09-2024, 10:13
https://videocardz.com/newz/nvidia-geforce-rtx-50-blackwell-rumors-hint-at-higher-power-consumption

+55w sulla 4060 potrebbe finalmente voler dire che torna ad essere una fascia interessante e non la schifezza che è oggi

mikael84
03-09-2024, 11:23
https://videocardz.com/newz/nvidia-geforce-rtx-50-blackwell-rumors-hint-at-higher-power-consumption

E' una notizia di due mesi fa, che riportano loro stessi.
https://videocardz.com/newz/seasonic-lists-geforce-rtx-5090-with-500w-tdp-and-rtx-5080-with-350w-16-pin-connector-for-all-rtx-50-models

Quella news ha lo stesso valore di questa, quando calcolavano il valore di AMD.
https://videocardz.com/newz/enermax-psu-calculator-already-mentions-unreleased-radeon-rx-7000xt-and-geforce-rtx-40-gpus

ghiltanas
03-09-2024, 13:27
se non erro la news di videocardz ha la fonte sballata, io stavo leggendo questa stamani:

https://wccftech.com/nvidia-blackwell-design-change-affect-geforce-rtx-50-launch-higher-power-consumption/

dove indica che il consumo maggiore dovrebbe essere derivato da:

"However, recent reports from industry sources (via MyDrivers) suggest that these changes might also have affected the consumer-tier GPUs. The main issues that prompted the redesign of the top-mask layer were reportedly thermal expansion (CTE) mismatch between the two GPU dies, LSI bridge, RDL interposer, and the main substrate which led to chip warping and system failure. The solution was a redesign of the top metal layer and bumps."

mcsilenzio
03-09-2024, 13:45
https://videocardz.com/newz/nvidia-geforce-rtx-50-blackwell-rumors-hint-at-higher-power-consumption

A nessuno è passato per la mente che il ritorno della 5050 è di una 60 con un consumo decisamente maggiore possa significare maggiori prestazioni della fascia bassa a copertura delle scelte di amd di abbandonare la fascia alta? Sono solo congetture eh, però…

mikael84
03-09-2024, 14:05
se non erro la news di videocardz ha la fonte sballata, io stavo leggendo questa stamani:

https://wccftech.com/nvidia-blackwell-design-change-affect-geforce-rtx-50-launch-higher-power-consumption/

dove indica che il consumo maggiore dovrebbe essere derivato da:

"However, recent reports from industry sources (via MyDrivers) suggest that these changes might also have affected the consumer-tier GPUs. The main issues that prompted the redesign of the top-mask layer were reportedly thermal expansion (CTE) mismatch between the two GPU dies, LSI bridge, RDL interposer, and the main substrate which led to chip warping and system failure. The solution was a redesign of the top metal layer and bumps."

Quello riguardava i problemi al foveros del chip HPC, riguardo il MCM dual die. Roba di mesi fa.;)

Ubro92
03-09-2024, 15:58
A nessuno è passato per la mente che il ritorno della 5050 è di una 60 con un consumo decisamente maggiore possa significare maggiori prestazioni della fascia bassa a copertura delle scelte di amd di abbandonare la fascia alta? Sono solo congetture eh, però…

Ma perchè la 4060 non era una x50? :sofico:

marbasso
03-09-2024, 17:05
https://i.postimg.cc/TYqxt8tG/11aa.png

+ di 50w....

MORE

mikael84
03-09-2024, 17:29
Facciamo direttamente 600w.
Cmq, si parla di un chip che è oltre il doppio di GB203 (che è praticamente AD103) con i 4nmP (per il clock potrebbero aver usato elvt, quindi +19% ad alte tensioni /5-11% a 0,75v).

Con ADA a quei valori non ci arrivano 2 4080s, visto che si fermerebbero a 20,4kcc.

Sotto non vedo particolari problemi.

caccapupu91
03-09-2024, 22:24
la prima reference over 2k easy :asd:

urrà

ghiltanas
04-09-2024, 06:41
https://videocardz.com/newz/nvidia-geforce-rtx-5090-reportedly-targets-600w-rtx-5080-aims-for-400w-with-10-performance-increase-over-rtx-4090

5080 sui 400w e un 10% in più di perf rispetto alla 4090..

Una 5070 allora dovrebbe acchiappare una 4080

scorpion73
04-09-2024, 07:03
Con questi valori può essere allora che la 5080 sia basata su GB202 cuttato?

Dono89
04-09-2024, 07:17
https://videocardz.com/newz/nvidia-geforce-rtx-5090-reportedly-targets-600w-rtx-5080-aims-for-400w-with-10-performance-increase-over-rtx-4090

5080 sui 400w e un 10% in più di perf rispetto alla 4090..

Una 5070 allora dovrebbe acchiappare una 4080


Sono consumi alti, molto, probabile che il pp sia stato spremuto per arrivare a frequenze maggiori come 3200/3300 e l'efficienza sia andata a farsi benedire.

Vediamo i finali, ma se questi sono i tdp al 100% sarà facile trovare 5080 a 500w. Mi sembra tantino onestamente.

ghiltanas
04-09-2024, 07:47
Sono consumi alti, molto, probabile che il pp sia stato spremuto per arrivare a frequenze maggiori come 3200/3300 e l'efficienza sia andata a farsi benedire.

Vediamo i finali, ma se questi sono i tdp al 100% sarà facile trovare 5080 a 500w. Mi sembra tantino onestamente.

anche a me, però a questo giro il salto di pp non è cosi marcato.
Sono curioso di vedere la 5070, se davvero si assesta sui 220w di tdp, con perf comparabili alla 4080 (mediamente tra ruster e rt), potremmo avere davvero un'ottima scheda.
Da vedere poi ovviamente il prezzo, in questa fascia amd non dovrebbe essere presente e nvidia una scheda del genere la farà pagare un po'

RoUge.boh
04-09-2024, 08:42
https://videocardz.com/newz/nvidia-geforce-rtx-5090-reportedly-targets-600w-rtx-5080-aims-for-400w-with-10-performance-increase-over-rtx-4090

5080 sui 400w e un 10% in più di perf rispetto alla 4090..

Una 5070 allora dovrebbe acchiappare una 4080

Sono veramente alti i consumi, onestamente faccio fatica a tenere una scheda video da 400 W in una camera.
In inverno ok, ma in estate :rolleyes: :rolleyes:

mia visione.

Cutter90
04-09-2024, 08:46
Sono veramente alti i consumi, onestamente faccio fatica a tenere una scheda video da 400 W in una camera.
In inverno ok, ma in estate :rolleyes: :rolleyes:

mia visione.

Ma la 7900 xtx non tira 400 watt scusa? Già lo stai facendo no? :)

Cmq aria condizionata e via. A meno di non avere uno sgabuzino senza aria condizionata il caldo lo vedo come l'ultimo dei problemi

kiwivda
04-09-2024, 08:53
Sono veramente alti i consumi, onestamente faccio fatica a tenere una scheda video da 400 W in una camera.
In inverno ok, ma in estate :rolleyes: :rolleyes:

mia visione.

Penso sia abbastanza eterogenea come linea di pensiero. Ma c'è anche da dire che d'estate mi ritrovo a bloccare il PL della 4090 al 50% e gioco tranquillamente con 200W scarsi.

In merito alle potenze dichiarate io sono fermamente convinto che quelli saranno i TBP Max, e non i TGP. Inoltre credo che siano appunto i max, quelli che si ottengono incrementando il PL oltre il 100%. Un po' come per la 4090Fe che stock ha un TBP 450W e comunque un max di 600W.

Per altro questi sono valori che si raggiungono solo facendo OC molto pesante o moddando i titoli oltre misura, ricordo per esempio di aver giocato Cyberpunk abbondantemente oltre i 500W, ma è stato un unicum, insieme ad Alan Wake II. Il resto dei titoli lo giochi sui 250/300.

Pertanto se la 5080 sarà +10% perf rispetto alla 4090, la 5090 a 600W sarà...
https://media.tenor.com/0-e7d7ct3G0AAAAM/shut-up-and-take-my-money-futurama.gif

RoUge.boh
04-09-2024, 09:05
Ma la 7900 xtx non tira 400 watt scusa? Già lo stai facendo no? :)

Cmq aria condizionata e via. A meno di non avere uno sgabuzino senza aria condizionata il caldo lo vedo come l'ultimo dei problemi

Era 350 W ma avevo ottimizzato per stare sotto i 300 W.

In realtà adesso ho la 4080 visto che l'ho trovata nel mercatino ed ho dato la 7970 ad un amico. ma l'ho usata poco tra lavoro e che nel periodo estivo non uso il PC.

Però so calde... in estate, no nego, che faccio fatica e preferisco giocare con la console se non avessi giochi da recuperare su console limiterei il consumo.

Una scheda da 400W non la metto..

Si sono "solo" 50W in più rispetto a 350 W ma anche i 300 W li reputo "tanti"... Non so nemmeno se prederei ancora schede così calde.

Poi dico questo e vengo preso la voglia di prenderla...

Dono89
04-09-2024, 09:50
anche a me, però a questo giro il salto di pp non è cosi marcato.
Sono curioso di vedere la 5070, se davvero si assesta sui 220w di tdp, con perf comparabili alla 4080 (mediamente tra ruster e rt), potremmo avere davvero un'ottima scheda.
Da vedere poi ovviamente il prezzo, in questa fascia amd non dovrebbe essere presente e nvidia una scheda del genere la farà pagare un po'

Il problema è anche quello, anzi è soprattutto il prezzo.

Se davvero va come la 4080 costerà sopra le 700€ che per una 70 è folle e se devo spendere 700/750€ per una 5070/4080 tanto valeva spenderne 200€ in più 1 anno prima.

Se poi la 5080 va un 10% in più della 4090, 1000€ non basteranno che per quanto buoni contro i 1500 attuali, dopo 3 anni anche no

ghiltanas
04-09-2024, 09:57
con l'ia di mezzo, tutte le gpu prodotte per il gaming tolgono risorse critiche di là (dove ci sono i soldi veri), quindi i prezzi popolari in fascia medio-alta ormai ce li possiamo scordare, ma felice di essere smentito.

Cutter90
04-09-2024, 10:24
Era 350 W ma avevo ottimizzato per stare sotto i 300 W.

In realtà adesso ho la 4080 visto che l'ho trovata nel mercatino ed ho dato la 7970 ad un amico. ma l'ho usata poco tra lavoro e che nel periodo estivo non uso il PC.

Però so calde... in estate, no nego, che faccio fatica e preferisco giocare con la console se non avessi giochi da recuperare su console limiterei il consumo.

Una scheda da 400W non la metto..

Si sono "solo" 50W in più rispetto a 350 W ma anche i 300 W li reputo "tanti"... Non so nemmeno se prederei ancora schede così calde.

Poi dico questo e vengo preso la voglia di prenderla...

Va beh ma davvero tu ti accorgi dlla caldo in stanza con 50 watt in più o in meno 8se poi aumenta per davvero eh) di un componente del pc? Mi pare assurda sta cosa dai....

Il problema è anche quello, anzi è soprattutto il prezzo.

Se davvero va come la 4080 costerà sopra le 700€ che per una 70 è folle e se devo spendere 700/750€ per una 5070/4080 tanto valeva spenderne 200€ in più 1 anno prima.

Se poi la 5080 va un 10% in più della 4090, 1000€ non basteranno che per quanto buoni contro i 1500 attuali, dopo 3 anni anche no

Se la 5080 farà 10% in più della 4090 (che già reputo ottimistico) costerà sicuramente 1200 euro o giù di lì. Non ci vedrei nessuna sorpresa

Telstar
04-09-2024, 10:32
Sono curioso di vedere la 5070, se davvero si assesta sui 220w di tdp, con perf comparabili alla 4080 (mediamente tra ruster e rt), potremmo avere davvero un'ottima scheda.


Sogna. Non sarà possibile se non cambiano il chip usato.

zanflank
04-09-2024, 10:47
Va beh ma davvero tu ti accorgi dlla caldo in stanza con 50 watt in più o in meno 8se poi aumenta per davvero eh) di un componente del pc? Mi pare assurda sta cosa dai....



Se la 5080 farà 10% in più della 4090 (che già reputo ottimistico) costerà sicuramente 1200 euro o giù di lì. Non ci vedrei nessuna sorpresa

Io mi sono accorto chiaramente dalla 780 lightning alla 970. In camera c'erano 2°C in più tutte le notti.

Vul
04-09-2024, 11:11
Va beh ma davvero tu ti accorgi dlla caldo in stanza con 50 watt in più o in meno 8se poi aumenta per davvero eh) di un componente del pc? Mi pare assurda sta cosa dai....



Se la 5080 farà 10% in più della 4090 (che già reputo ottimistico) costerà sicuramente 1200 euro o giù di lì. Non ci vedrei nessuna sorpresa

50 watt/ora sono 42k calorie.

In una stanza da 24 metri cubi (3x4x2) ci sono circa 30 chili d'aria.

Per alzare la temperatura di un chilo d'aria servono 240 calorie.

Quindi 42000/30/240 = 5,8 gradi in piu'.

Ora, ovviamente, l'aria nella stanza non e' isolata, quindi la temperatura non sale davvero di cosi tanto (ad esempio i muri dissiperanno buona parte del calore, ci sara' circolo d'aria con porte/finestre aperte o spifferi).

Tuttavia la differenza non e' nulla e particolarmente sensibile alle dimensioni della stanza.

Io ho meno di venti metri cubi nel mio ufficio, e se sto con il pc acceso tutto il giorno (non gioco, quindi solo dissipazione cpu fondamentalmente) c'e' una bella differenza di temperatura con le altre stanze, positivo d'inverno, terribile d'estate.

mikael84
04-09-2024, 11:31
anche a me, però a questo giro il salto di pp non è cosi marcato.
Sono curioso di vedere la 5070, se davvero si assesta sui 220w di tdp, con perf comparabili alla 4080 (mediamente tra ruster e rt), potremmo avere davvero un'ottima scheda.
Da vedere poi ovviamente il prezzo, in questa fascia amd non dovrebbe essere presente e nvidia una scheda del genere la farà pagare un po'

Ci sono dei metodi per clockare molto alto pur restando sullo stesso PP, tramite ulvt (ad esempio usato da raptor) ed elvt (caratteristica nuova dei 5/4nm).

Cutter90
04-09-2024, 11:51
50 watt/ora sono 42k calorie.

In una stanza da 24 metri cubi (3x4x2) ci sono circa 30 chili d'aria.

Per alzare la temperatura di un chilo d'aria servono 240 calorie.

Quindi 42000/30/240 = 5,8 gradi in piu'.

Ora, ovviamente, l'aria nella stanza non e' isolata, quindi la temperatura non sale davvero di cosi tanto (ad esempio i muri dissiperanno buona parte del calore, ci sara' circolo d'aria con porte/finestre aperte o spifferi).

Tuttavia la differenza non e' nulla e particolarmente sensibile alle dimensioni della stanza.

Io ho meno di venti metri cubi nel mio ufficio, e se sto con il pc acceso tutto il giorno (non gioco, quindi solo dissipazione cpu fondamentalmente) c'e' una bella differenza di temperatura con le altre stanze, positivo d'inverno, terribile d'estate.

Se va beh, 6 gradi in più per 50 watt. Ma non ci credo nemmeno se lo vedo su. In una stanza di 10-15 mq? Impossibile, con porta e finestra aperta tra l'altro.
Io se gioco su pc nella mia stanza da 13 mq o non lo gioco cambia 1-2 gradi al massimo. E introduco 600 watt di pc su wukong per 1 ora.
Quindi qualche conto è sballato alla grande, fidati, ci sono troppe variabili

ghiltanas
04-09-2024, 13:39
Sogna. Non sarà possibile se non cambiano il chip usato.

ho detto mediamente tra raster e rt, quindi magari un 10% in meno in raster ma un 10% in più in rt, poggi e bue fa' pari :D

Ci sono dei metodi per clockare molto alto pur restando sullo stesso PP, tramite ulvt (ad esempio usato da raptor) ed elvt (caratteristica nuova dei 5/4nm).

intendi senza salire con i consumi?

Vul
04-09-2024, 13:52
Se va beh, 6 gradi in più per 50 watt. Ma non ci credo nemmeno se lo vedo su. In una stanza di 10-15 mq? Impossibile, con porta e finestra aperta tra l'altro.
Io se gioco su pc nella mia stanza da 13 mq o non lo gioco cambia 1-2 gradi al massimo. E introduco 600 watt di pc su wukong per 1 ora.
Quindi qualche conto è sballato alla grande, fidati, ci sono troppe variabili

Ti ho letteralmente fatto i conti, e sottolineato anche che ovviamente la stanza non e' un sistema isolato quindi la differenza e' molto inferiore.

13 metri quadri non sono 13 metri cubi comunque. Se la tua stanza e' alta 2 metri e 60, hai piu di 30 metri cubi e circa 45 chili di aria quindi si scaldera' meno del mio esempio.

Il mio punto non era che friggi con 50 watt in piu, senza contare che solo una parte finira' ad essere buttata fuori dal pc, non e' che viene tutto dissipato in calore (devi anche generare frame), quanto il dire che le differenze non sono nulle e possono essere apprezzabili da chi sta in stanze piu piccole.

mikael84
04-09-2024, 14:12
ho detto mediamente tra raster e rt, quindi magari un 10% in meno in raster ma un 10% in più in rt, poggi e bue fa' pari :D



intendi senza salire con i consumi?

Dipende dalla tensione applicata a progetto. Raptor è ulvt, quello che TSMC chiama NX.
Si parlava però di base molto più alti, segno che sicuramente hanno rivisto in fase di ricostruzione e anche il PP migliore a rese più elevate è stato sfruttato.
Al momento i consumi veri non si conoscono, ma è pur vero che GB202 full (in gaming sarà cut) dovrà alimentare 24,5kcc ed un mastodontico 512bit /128mb di cache g7.
Probabilmente la 5090 avrà un ratio cc sui 20-22k cc e 448bit/28gb, che è l'equivalente (salvo il bus) di due 4080 super, se non oltre in cc.

GB203 invece è una 4080s rivista in clock, e magari qualche mod microarchitetturale.

Bisogna vedere le nomenclature, ad esempio GB205 avrà 6400cc, appena sopra la 4070 liscia.

Cutter90
04-09-2024, 15:16
Ti ho letteralmente fatto i conti, e sottolineato anche che ovviamente la stanza non e' un sistema isolato quindi la differenza e' molto inferiore.

13 metri quadri non sono 13 metri cubi comunque. Se la tua stanza e' alta 2 metri e 60, hai piu di 30 metri cubi e circa 45 chili di aria quindi si scaldera' meno del mio esempio.

Il mio punto non era che friggi con 50 watt in piu, senza contare che solo una parte finira' ad essere buttata fuori dal pc, non e' che viene tutto dissipato in calore (devi anche generare frame), quanto il dire che le differenze non sono nulle e possono essere apprezzabili da chi sta in stanze piu piccole.

Si, ho capito. ma le differenze se non nulle sono impercettibili nel 90 % dei casi. A meno di non giocare in una stanza ermetica, senza aria condizionata, senza porte e finestre e di 8 mq....... allora ok i 5 gfradi in più. Ma è un esempio decisamente troppo estremo per portare un argomentazione del tipo "50 watt in più mi scaldano troppo la stanza" :)

marbasso
04-09-2024, 15:31
Con un target di 600w la 5090 davvero sarà 4 slot stavolta...
I dissipatori attuali non ce la fanno a tenere 600w continui.
A questo punto le faranno tutte ibride e buonanotte.

Cutter90
04-09-2024, 15:40
Con un target di 600w la 5090 davvero sarà 4 slot stavolta...
I dissipatori attuali non ce la fanno a tenere 600w continui.
A questo punto le faranno tutte ibride e buonanotte.

Ecco, questo è il vero problema, i 4 slot.
Anche se mi aspetto cmq che i 600 watt siano "massimi". Allora ci si riesce già ora a gestirli con la 4090 Fe ad esempio.

marbasso
04-09-2024, 15:45
Ecco, questo è il vero problema, i 4 slot.
Anche se mi aspetto cmq che i 600 watt siano "massimi". Allora ci si riesce già ora a gestirli con la 4090 Fe ad esempio.

Mmmmmm, non è facile gestirli in estate, e in inverno le temp con 600w secchi sono tosti da tenere a temp decenti.
Sicuramente meglio la vga a liquido col suo aio.
Chissà che inizino a vendere le vga nude a questo punto, pronte per essere liquidate.
600w di target sostituisce i 450w della 4090...mica è poco.
Ci sarà solito undervolt ecc ecc, la vga avrà potenza da vendere e sarà uiber su tanti game, poi però c'e il path tracing da far girare...e allora i watt si sprecano...
Per me x 600 i dissy attuali non bastano se li tieni fissi in game...

Salfox
04-09-2024, 15:47
Con un target di 600w la 5090 davvero sarà 4 slot stavolta...
I dissipatori attuali non ce la fanno a tenere 600w continui.
A questo punto le faranno tutte ibride e buonanotte.

Secondo me sono tutte previsioni sbagliate, fino adesso si è detto tutto e il contrario di tutto, Nvidia in un momento mondiale in cui la riduzione dei consumi è un mantra indiscutibile non se ne potrà uscire con una scheda da più di 600W.
A mio parere il TDP della 5090 sarà ben sotto quello della 4090, vedremo....

marbasso
04-09-2024, 15:49
Secondo me sono tutte previsioni sbagliate, fino adesso si è detto tutto e il contrario di tutto, Nvidia in un momento mondiale in cui la riduzione dei consumi è un mantra indiscutibile non se ne potrà uscire con una scheda da più di 600W.
A mio parere il TDP della 5090 sarà ben sotto quello della 4090, vedremo....

Ma non è fisicamente ne matematicamente possibile, salvo come, dice mikael, miracoli architetturali.
Il pp quello è, 4nP, la conta delle Shading Units pure....sono un 25% in +.

Cutter90
04-09-2024, 16:05
Mmmmmm, non è facile gestirli in estate, e in inverno le temp con 600w secchi sono tosti da tenere a temp decenti.
Sicuramente meglio la vga a liquido col suo aio.
Chissà che inizino a vendere le vga nude a questo punto, pronte per essere liquidate.
600w di target sostituisce i 450w della 4090...mica è poco.
Ci sarà solito undervolt ecc ecc, la vga avrà potenza da vendere e sarà uiber su tanti game, poi però c'e il path tracing da far girare...e allora i watt si sprecano...
Per me x 600 i dissy attuali non bastano se li tieni fissi in game...

Su questo io non ci credo minimamente. Con i dissipatori ad aria non si gestiscono 600 watt di tdp: Senza contare che cmq si può arrivare a 675 watt massimi erogabili se non erro ali+mobo. Quindi.... secondo me i consumi rimarranno quelli attuali o se aumenteranno lo faranno appunto di un 50 watt. Di più lo escludo

marbasso
04-09-2024, 16:14
Su questo io non ci credo minimamente. Con i dissipatori ad aria non si gestiscono 600 watt di tdp: Senza contare che cmq si può arrivare a 675 watt massimi erogabili se non erro ali+mobo. Quindi.... secondo me i consumi rimarranno quelli attuali o se aumenteranno lo faranno appunto di un 50 watt. Di più lo escludo

Ma i 600w sono raggiungibili trami slide, altrimenti non ci arrivi. E' proprio un PL massimo. 600w devi stare con le ventole al 100% con case aperto e con hotspot a 90+° da primavera ad autunno inoltrato.
Altrimenti liquidi ed è un altro paio di maniche.
Oppure come dici tu aria condizionata a palla in stanza a 14°.

mikael84
04-09-2024, 16:31
Ma non è fisicamente ne matematicamente possibile, salvo come, dice mikael, miracoli architetturali.
Il pp quello è, 4nP, la conta delle Shading Units pure....sono un 25% in +.

I cuda tra 4090 e GB202 sono +50%, oltre al +33% di bus e relativa ram.
Ovviamente la versione pro/gaming sarà sicuramente cuttata, con magari 20-22k cc e bus a 448.


Basti pensare che la 4090 per +60% di cuda e + 50% di bus (con cache mozzata) ha un TDP di +40% rispetto la 4080s.

La 4090 con 24 kcc e 512bit sarebbe stata ingestibile a 450watt.

marbasso
04-09-2024, 16:40
I cuda tra 4090 e GB202 sono +50%, oltre al +33% di bus e relativa ram.
Ovviamente la versione pro/gaming sarà sicuramente cuttata, con magari 20-22k cc e bus a 448.


Basti pensare che la 4090 per +60% di cuda e + 50% di bus (con cache mozzata) ha un TDP di +40% rispetto la 4080s.

La 4090 con 24 kcc e 512bit sarebbe stata ingestibile a 450watt.

Attualmente il credo afferma una Shading Units pari a 20480 rispetto ai 16384 della 4090.
Poi bo, vedremo :)

mikael84
04-09-2024, 16:48
Attualmente il credo afferma una Shading Units pari a 20480 rispetto ai 16384 della 4090.
Poi bo, vedremo :)

Beh, ci può stare, sono 2048 cc x 12 GPC = 24576 cc.
Se smonti 2 GPC completi scendi a 20480cc, oppure laseri i vari GPC per mantenere pure le rop's.

1 sicuramente lo perdi per rese.
I più puri, oltre che i 512bit, saranno riservati alla work (ex quadro) con 64gb di ram in clamshell.

Quasi sicuramente, tireranno fuori anche un modello da 384bit ed un cut ancora più aggressivo.
Lato work ci sarà sicuramente in quanto quel bus servirà a portare i 48gb, dove astutamente venderà i 64gb come ulteriore fascia, come quando furono introdotte le gddr6 a doppia densità, lasciando il top chip 24gb a 6000$ e quello a 48 a 10000$.

Dono89
04-09-2024, 18:20
I cuda tra 4090 e GB202 sono +50%, oltre al +33% di bus e relativa ram.
Ovviamente la versione pro/gaming sarà sicuramente cuttata, con magari 20-22k cc e bus a 448.


Basti pensare che la 4090 per +60% di cuda e + 50% di bus (con cache mozzata) ha un TDP di +40% rispetto la 4080s.

La 4090 con 24 kcc e 512bit sarebbe stata ingestibile a 450watt.


Quindi ci stai dicendo che per avere il salto dalla 4090 deve per forza consumare oltre 500w?

marbasso
04-09-2024, 19:31
Quindi ci stai dicendo che per avere il salto dalla 4090 deve per forza consumare oltre 500w?

No, più di 550w...
Per ora sono 600.