PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 [349] 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466

Ubro92
06-09-2022, 10:56
altra cosa guardando sempre quel sito sembrerebbe che in 4k potrei quasi arrangiarmi ancora con il mio i5 2500k :stordita:

la mia idea sarebbe quella di prendere una rtx 4050 per poi sostituire tutto il resto tra un annetto, intendo cpu+scheda madre+ram

però il dubbio è che la piattaforma sia troppo limitata supportando solo il pcie 2

La 4050 nel migliore dei casi uscirà tra un anno... le x50 sono proprio le ultime a uscire ed è un chip che andrebbe come le attuali 2070/3060 bene o male.

Con un 2500K francamente non so che aspettative vuoi avere... E' una cpu che può reggere massimo configurazioni con RX 570/580 o 1060, ti dico che un sandy bridge pompato come il 3930K che ha 6c/12t, quad channel e PCIe 3.0 già fatica a star dietro a una 2060s figurati un 2500K...

Oramai sono piattoforme obsolete, valide solo se vuoi riciclarle in un muletto...

StylezZz`
06-09-2022, 10:58
mi sembrava strano comunque la presentazione ufficiale delle nuove schede si sa già quando verranno annunciate ?

20 settembre 2022.

lordsnk
06-09-2022, 11:07
altra cosa guardando sempre quel sito sembrerebbe che in 4k potrei quasi arrangiarmi ancora con il mio i5 2500k :stordita:

la mia idea sarebbe quella di prendere una rtx 4050 per poi sostituire tutto il resto tra un annetto, intendo cpu+scheda madre+ram

però il dubbio è che la piattaforma sia troppo limitata supportando solo il pcie 2

Il problema non è il processore, ma, purtroppo tutto il pc.
Ormai la piattaforma è obsoleta e se fossi in te compreri subito CPU, MB e DDR4 (così risparmi un bel po').

Io per esempio, in previsione della serie 4000, ho sostituito un i7-7700 con 16Gb 2400 CL14 con un Ryzen 7 5700x con 32Gb 3600 CL16 e il mio obbiettivo è giocare a 4K.

Tieni conto che prima di Pasqua la 4050 non sarà disponibile. ;)

mikael84
06-09-2022, 11:40
Verissimo, conoscono tutto di tutti, ma manca un dato importante, il prezzo. Jenseen o Lisa non sanno a quanto l'avversario piazzerà le varie fasce, infinite SKU servono anche ad avere pronto il prodotto giusto da contrapporre al competitor (a seconda dei prezzi). Il discorso è che, al netto di verifiche, rese ecc, Jensen (o Lisa) hanno tutto pronto, a leggere i siti sembra che stiano facendo ora esperiementi aumentando o togliendo ram e cuda/stream, cosa inverosimile.

Per i prezzi JHH farà la conferenza il 20, Lisa pare debuttare il q1 2021 con le equivalenti x80 e x70, mentre a novembre si parla solo di navi31, rivale della 4090/4080ti (che non verrà lanciata subito).
JHH ci ha abituato ultimamente a modelli assurdi, i rumor parlano di una 4080 FE/AIB da 16 e un modello da 12, forse depotenziato anche in cuda, ma riservato solo ai partner, come successo con Ampere, dove il modello da 12 non è stato prodotto come FE.

AMD dal canto suo, si collocherà come JHH, in base alle soluzioni sue ed attualmente su navi 32(chip like AD103), avrà un chip da 16 ed uno da 12.
Per la quantità di chip beh, pensa che di GA102 sono uscite 9 versioni, 4 pro e 5 gaming. :)

zla_Stobb
06-09-2022, 11:40
grazie a tutti per le risposte :D

si a questo punto rifaccio prima tutto il resto

mikael84
06-09-2022, 11:51
"NUOVA" Rtx 3080 20Gb (https://www.techpowerup.com/298575/oddball-msi-geforce-rtx-3080-with-20gb-320-bit-memory-sells-in-china-for-under-usd-600) a 600$ in Cina :confused:

Non ci sto capendo più niente :mc:

Di un modello da 20gb, marchiato TI, se ne era già parlato tempo fa.
Fatto solo da gigabyte.
https://www.techpowerup.com/gpu-specs/geforce-rtx-3080-ti-20-gb.c3831

https://www.tomshw.it/hardware/gigabyte-la-geforce-rtx-3080-ti-da-20gb-e-gia-in-vendita/

Qua almeno, non si è mai visto nulla.

fraussantin
06-09-2022, 11:58
"NUOVA" Rtx 3080 20Gb (https://www.techpowerup.com/298575/oddball-msi-geforce-rtx-3080-with-20gb-320-bit-memory-sells-in-china-for-under-usd-600) a 600$ in Cina :confused:

Non ci sto capendo più niente :mc:Vabbe in cina si è visto di tutto , anche le 1060 con il chip della 560 dentro :asd:

Ma potrebbero averci messo benissimo le ram a sandwich e bios adeguato

mikael84
06-09-2022, 12:05
Vabbe in cina si è visto di tutto , anche le 1060 con il chip della 560 dentro :asd:

Ma potrebbero averci messo benissimo le ram a sandwich e bios adeguato

C'è anche una pro (quadro) con 20gb in clamshell.:)

Ubro92
06-09-2022, 12:47
Vabbe in cina si è visto di tutto , anche le 1060 con il chip della 560 dentro :asd:

Ma potrebbero averci messo benissimo le ram a sandwich e bios adeguato

In cina hanno anche riutilizzato i chip della 3060 mobile da 3840cc per fare delle desktop :sofico:

Comunque ciò che contano sono i chip ufficiali per la grande distribuzione, molte delle sku che stiamo vedendo potrebbero anche far riferimento alle varianti mobile, una 4080 12GB mobile ha senso, soprattutto se devi anche proporre una 4080ti mobile.

Thunder-74
06-09-2022, 14:01
NVIDIA GeForce RTX 3090/3080 Ti FE ottiene finalmente un taglio di prezzo in Europa

LINK (https://videocardz.com/newz/nvidia-lowers-geforce-rtx-3090ti-3080ti-founders-edition-gpu-pricing-in-europe)

lordsnk
06-09-2022, 14:19
NVIDIA GeForce RTX 3090/3080 Ti FE ottiene finalmente un taglio di prezzo in Europa

LINK (https://videocardz.com/newz/nvidia-lowers-geforce-rtx-3090ti-3080ti-founders-edition-gpu-pricing-in-europe)

Rispetto a quello che sta accadendo negli USA (https://www.techpowerup.com/298562/nvidia-rtx-3090-series-and-rtx-3080-series-in-free-fall-rtx-3090-ti-at-usd-1-099-rtx-3080-ti-at-usd-739) sono tagli ridicoli.
Continuo ad aspettare le 4000 :D

mikael84
06-09-2022, 14:53
NVIDIA GeForce RTX 3090/3080 Ti FE ottiene finalmente un taglio di prezzo in Europa

LINK (https://videocardz.com/newz/nvidia-lowers-geforce-rtx-3090ti-3080ti-founders-edition-gpu-pricing-in-europe)

Sono sempre le classiche 3. Sotto finchè non arrivano le x80 e x70 non cambierà molto.
Il 22 ottobre dovrebbe debuttare la x90, si spera come da pronostico che la x80 faccia il debutto a novembre.

paolox86
06-09-2022, 14:56
20 settembre 2022.

:muro: A settembre/ottobre avrei bisogno dello stipendio triplicato

amon.akira
06-09-2022, 15:21
Sono sempre le classiche 3. Sotto finchè non arrivano le x80 e x70 non cambierà molto.
Il 22 ottobre dovrebbe debuttare la x90, si spera come da pronostico che la x80 faccia il debutto a novembre.

sempre piu convinto che annuncerà solo 4090 data e prezzo e rinvierà l annuncio della 4080 ad ottobre

mikael84
06-09-2022, 15:55
sempre piu convinto che annuncerà solo 4090 data e prezzo e rinvierà l annuncio della 4080 ad ottobre

Vediamo un pochino. L'altra volta ha fatto la conferenza, inviato i sample e messo in NDA le testate. Anche se poi le review le fa lui con varie slide su alcuni giochi, quindi ti fai già un'idea effettiva.
Al momento viene indicato lancio della 4090 il 22 ottobre (da verificare però).

Nella conferenza di Ampere aveva sbandierato tutto sino alla 3070, indicandone però le perf, ed un lancio ad ottobre, senza dire nulla, sottolineando però il famoso $499
https://www.anandtech.com/show/16060/the-nvidia-geforce-special-event-2020-live-blog

https://i.postimg.cc/5NRB4J38/3070.png

Thunder-74
06-09-2022, 16:23
Provato pure io, ecco qua.
Comunque sto provando anche spiderman remastered e devo sire che è estremamente divertente e con una buonissima grafica. Si vede che dietro c'è la produzione sony, è curato molto bene fin nei minimi dettagli.
Noto con piacere che sfrutta sempre più del 60% del 12900k, niente dlss, 2k e tutto a stecca. Gioco fluidissimo e sempre sopra i 90fps con rt al max.

https://uploads.tapatalk-cdn.com/20220905/b25d0c5f0dd175110b2dc5de87de348a.jpg

mi hai fatto venire la voglia di fare il test in 2k. Praticamente ho la GPU che non arriva mai al 100%, mediamente sul 85/90% e nel pezzo in mezzo alle case, l'ho vista stare al 72%...

Gioco di 5 anni fa esosissimo sulla CPU

https://i.imgur.com/a7rDedh.png

craesilo
06-09-2022, 17:01
Vediamo un pochino. L'altra volta ha fatto la conferenza, inviato i sample e messo in NDA le testate. Anche se poi le review le fa lui con varie slide su alcuni giochi, quindi ti fai già un'idea effettiva.
Al momento viene indicato lancio della 4090 il 22 ottobre (da verificare però).

Nella conferenza di Ampere aveva sbandierato tutto sino alla 3070, indicandone però le perf, ed un lancio ad ottobre, senza dire nulla, sottolineando però il famoso $499
https://www.anandtech.com/show/16060/the-nvidia-geforce-special-event-2020-live-blog

https://i.postimg.cc/5NRB4J38/3070.png

alla fine in 2 anni l'unico gioco che la fa scendere sotto i 60 maxati (senza rt) in 2k è cyberpunk no? (a parte il fatto di usare il dlss)
insomma annunciano schede nuove ma non ci sono giochi....non credo che starfield sarà un mattone da quanto visto

WarSide
06-09-2022, 17:20
Ditemi se mi sbaglio, ma io penso ci sia da aspettarsi un rallentamento anche lato "titoli pesanti" per 2 motivi:

- non c'è l'uscita di console molto più prestanti all'orizzonte, titoli da console riadattati ormai sono gestibili dalle attuali
- tanta gente ancora non ha una serie 3000 e mettersi a fare titoli pc-only con super grafica che richiede schede anche superiori alle attuali non farebbe altro che alzare l'asticella e ridurre ancora di più il bacino di potenziali acquirenti.

Penso che si vedranno titoli interessanti tra un annetto, non adesso :stordita:

craesilo
06-09-2022, 17:25
Ditemi se mi sbaglio, ma io penso ci sia da aspettarsi un rallentamento anche lato "titoli pesanti" per 2 motivi:

- non c'è l'uscita di console molto più prestanti all'orizzonte, titoli da console riadattati ormai sono gestibili dalle attuali (mi sbaglio?)
- tanta gente ancora non ha una serie 3000 e mettersi a fare titoli pc-only con super grafica che richiede schede anche superiori alle attuali non farebbe altro che alzare l'asticella e ridurre ancora di più il bacino di potenziali acquirenti.

Penso che si vedranno titoli interessanti tra un annetto, non adesso :stordita:

l'unico che mi viene in mente è stalker 2 che cmq uscirà nell'aut-inv 23....o magari un gta 6

WarSide
06-09-2022, 17:31
l'unico che mi viene in mente è stalker 2 che cmq uscirà nell'aut-inv 23....o magari un gta 6

Si, quindi tra 1 anno e più. Quando le 4000 (mining permettendo...) saranno sdoganate e le 3000 saranno la soluzione low cost. :stordita:

Meglio non pensare a quanto ho pagato la mia 3080 ed a quanto potrò rivenderla tra un annetto :cry:

mikael84
06-09-2022, 18:10
alla fine in 2 anni l'unico gioco che la fa scendere sotto i 60 maxati (senza rt) in 2k è cyberpunk no? (a parte il fatto di usare il dlss)
insomma annunciano schede nuove ma non ci sono giochi....non credo che starfield sarà un mattone da quanto visto

Da metà ottobre, con il debutto di A plague tale requiem (il predecessore era davvero una perla), inizieremmo a vedere l'Unreal engine 5, e ne seguiranno parecchi a seguire. E' già un passo avanti.

Si, quindi tra 1 anno e più. Quando le 4000 (mining permettendo...) saranno sdoganate e le 3000 saranno la soluzione low cost. :stordita:

Meglio non pensare a quanto ho pagato la mia 3080 ed a quanto potrò rivenderla tra un annetto :cry:

Cmq chi ha una 3080 non è costretto a cambiare. Parti già dal presupposto che la mirabolante 4090, tra 2 anni ti diventa una sorta di 5070. :D JHH ha già tutto scritto.
Con il debutto di blackwell serie 5x.., sia la 4080 che la 3080 varranno nulla.
Io avevo sempre pezzi mediamente di fascia alta, anche SLI, e questa stagione l'ho passata pure con la media della scorsa gen, ma onestamente in 1440p ho giocato tranquillamente.
Si sono attaccati tutti al bip..... :D

Tody
06-09-2022, 19:43
Rispetto a quello che sta accadendo negli USA (https://www.techpowerup.com/298562/nvidia-rtx-3090-series-and-rtx-3080-series-in-free-fall-rtx-3090-ti-at-usd-1-099-rtx-3080-ti-at-usd-739) sono tagli ridicoli.
Continuo ad aspettare le 4000 :D

Ma a tutte le schede che gli avanzano non potrebbero venderle in Italia? lo store (https://store.nvidia.com/it-it/geforce/store/?page=1&limit=9&locale=it-it&sorting=lp) da tutto esaurito e piangono che non riescon a vendere :confused:

Maury
06-09-2022, 19:56
Per i prezzi JHH farà la conferenza il 20, Lisa pare debuttare il q1 2021 con le equivalenti x80 e x70, mentre a novembre si parla solo di navi31, rivale della 4090/4080ti (che non verrà lanciata subito).
JHH ci ha abituato ultimamente a modelli assurdi, i rumor parlano di una 4080 FE/AIB da 16 e un modello da 12, forse depotenziato anche in cuda, ma riservato solo ai partner, come successo con Ampere, dove il modello da 12 non è stato prodotto come FE.

AMD dal canto suo, si collocherà come JHH, in base alle soluzioni sue ed attualmente su navi 32(chip like AD103), avrà un chip da 16 ed uno da 12.
Per la quantità di chip beh, pensa che di GA102 sono uscite 9 versioni, 4 pro e 5 gaming. :)

A mio avviso JHH scoprirà il 20 solo la 4090, per le altre fascie aspetterà un successivo passo di Amd. Non ha interesse a spifferare tutto subito. :)

scorpion73
06-09-2022, 20:13
A mio avviso JHH scoprirà il 20 solo la 4090, per le altre fascie aspetterà un successivo passo di Amd. Non ha interesse a spifferare tutto subito. :)


Stavolta da dove parlerà? Cesso, camera da letto o sala da pranzo? 😁


Inviato dal mio iPhone utilizzando Tapatalk

StylezZz`
06-09-2022, 20:39
Stavolta da dove parlerà? Cesso, camera da letto o sala da pranzo? 😁

Centrale elettrica vicino casa sua.

Telstar
06-09-2022, 20:41
Da metà ottobre .... inizieremmo a vedere l'Unreal engine 5, e ne seguiranno parecchi a seguire. E' già un passo avanti.


Ma UE5 non ha un benchmark magari pubblico?

lordsnk
06-09-2022, 20:51
Ma UE5 non ha un benchmark magari pubblico?

Si, questo (https://store.steampowered.com/app/770170/EzBench_Benchmark/) benchmark ha anche le texture 8K con RT :D

Requisiti minimi GTX 1080 con processore Intel di settima generazione.
Praticamente il mio vecchio PC :eek:

mikael84
06-09-2022, 21:13
A mio avviso JHH scoprirà il 20 solo la 4090, per le altre fascie aspetterà un successivo passo di Amd. Non ha interesse a spifferare tutto subito. :)

Dopo poi AMD aspetta nvidia e rinvia, con i wafer prodotti dentro la sua cucina.:p
Potrebbe anche non comunicarli, ma non ci vedo questo segreto da area51.
Presentazione di Ampere il 1° settembre, ben prima di navi, eppure ha detto tutto.:)
https://www.anandtech.com/show/16060/the-nvidia-geforce-special-event-2020-live-blog

Ad esempio, AMD i prezzi di zen gli ha già ufficializzati.
Tra l'altro AMD potrebbe presentare solo navi31 quest'anno.:)

Ma UE5 non ha un benchmark magari pubblico?

Si, questo (https://store.steampowered.com/app/770170/EzBench_Benchmark/) benchmark ha anche le texture 8K con RT :D

Requisiti minimi GTX 1080 con processore Intel di settima generazione.
Praticamente il mio vecchio PC :eek:

Bello tosto. :)

Telstar
06-09-2022, 21:43
Stavolta da dove parlerà? Cesso, camera da letto o sala da pranzo? 😁

Io voto cesso.

fraussantin
06-09-2022, 21:52
Stavolta da dove parlerà? Cesso, camera da letto o sala da pranzo? 😁


Inviato dal mio iPhone utilizzando TapatalkSecondo me in giardino, col barbecue alimentato da 3 4090ti in sli e qualche salciccia sopra.

Telstar
06-09-2022, 21:58
Dopo poi AMD aspetta nvidia e rinvia, con i wafer prodotti dentro la sua cucina.:p

Si, Wafer al cioccolato. :D

Bello tosto. :)

Trovato EZbench :)

Gigibian
07-09-2022, 06:48
Quindi é lecito aspettarsi una 4070 che va come una 3080 TI ed invece di consumare 350W ne consuma 175W?

Perché dai rumore che leggo il famoso +50% Perf/W non mi i sembra rispettato....

Thunder-74
07-09-2022, 07:08
"Si dice che la scheda grafica NVIDIA GeForce RTX 40 offra oltre il doppio delle prestazioni di gioco rispetto alla serie RTX 30"

non è stato detto da quale SKU NVIDIA GeForce RTX 40 provengano questi numeri di prestazioni, ma è probabile che stiamo guardando l'RTX 4090 o l'RTX 4080, che avrebbero entrambi offerto un miglioramento delle prestazioni di oltre 2 volte rispetto al loro Predecessori RTX 30 secondo indiscrezioni . Il leaker ha affermato che i numeri non si basano sulla SKU di punta che indicherebbe queste come le prestazioni di RTX 4080. Ha pubblicato una seconda foto della presentazione GTC, questa volta mostrando quella che sembra essere l'RTX 4080 seduta accanto all'ammiraglia RTX 4090.
Le metriche delle prestazioni includono 6 giochi e 3 applicazioni di produttività. Non viene menzionato su quali impostazioni erano in esecuzione i giochi, ma il leaker afferma che la risoluzione utilizzata era 4K e RTX (Ray Tracing) era abilitato su tutti loro. Il leaker afferma di non pensare che il DLSS sia stato utilizzato per questi test.

https://cdn.wccftech.com/wp-content/uploads/2022/09/NVIDIA-GeForce-RTX-40-Series-GPU-Gaming-Productivity-Performance-Figures-740x418.jpg

I titoli includono Control, Metro Exodus Enhanced Edition, Minecraft, Quake II RTX, Dying Light 2 e Cyberpunk 2077. Tutti questi giochi favoriscono fortemente le GPU NVIDIA, quindi le prestazioni dovrebbero essere lo scenario migliore per la serie RTX 40 qui.

I numeri effettivi mostrano guadagni fino a 2-2,2 volte nella maggior parte dei titoli, mentre Minecraft con RTX mostra un miglioramento delle prestazioni dell'80%. In applicazioni come Autodesk Arnold, Blender e Chaos V-Ray, le prestazioni sono pari o superiori a 2x, un aumento piuttosto impressionante rispetto alla generazione precedente.

FONTE (https://wccftech.com/nvidia-geforce-rtx-40-series-gpus-gaming-productivity-performance-2x-faster-than-rtx-30/)

Sonpazzo
07-09-2022, 07:21
più o meno ricordano i dati delle serie 20-30

Tanta roba

Gigibian
07-09-2022, 07:29
Quindi é lecito aspettarsi una 4070 che va come una 3080 TI ed invece di consumare 350W ne consuma 175W?

Perché dai rumore che leggo il famoso +50% Perf/W non mi i sembra rispettato....

Voglio dire, la 4070 é data a 285W...abbastanza ridicolo...speriamo almeno il prezzo sia molto inferiore le 800 euro che oggi si trovano le 3080 ti

parcher
07-09-2022, 07:47
Voglio dire, la 4070 é data a 285W...abbastanza ridicolo...speriamo almeno il prezzo sia molto inferiore le 800 euro che oggi si trovano le 3080 ti

LA 3080TI a 800€ ?? La più bassa e' sui 1000€. La 3070TI vorrai dire... :cool:

Ubro92
07-09-2022, 08:05
Quindi é lecito aspettarsi una 4070 che va come una 3080 TI ed invece di consumare 350W ne consuma 175W?

Perché dai rumore che leggo il famoso +50% Perf/W non mi i sembra rispettato....

Questi chip sono molto tirati sul clock, se vuoi un alto perf/w dovresti limitarti quanto più possibile intorno al clock base di 2.5ghz.

Gia a 2.5ghz dovrebbe giocarsela tranquilla con 3080ti@1.9ghz, e probabilmente saresti nell'intorno dei 200w, poi è ovvio che se il silicio permette 2.8-3ghz le prestazioni salgono cosi come i consumi.

AceGranger
07-09-2022, 08:13
"Si dice che la scheda grafica NVIDIA GeForce RTX 40 offra oltre il doppio delle prestazioni di gioco rispetto alla serie RTX 30"

non è stato detto da quale SKU NVIDIA GeForce RTX 40 provengano questi numeri di prestazioni, ma è probabile che stiamo guardando l'RTX 4090 o l'RTX 4080, che avrebbero entrambi offerto un miglioramento delle prestazioni di oltre 2 volte rispetto al loro Predecessori RTX 30 secondo indiscrezioni . Il leaker ha affermato che i numeri non si basano sulla SKU di punta che indicherebbe queste come le prestazioni di RTX 4080. Ha pubblicato una seconda foto della presentazione GTC, questa volta mostrando quella che sembra essere l'RTX 4080 seduta accanto all'ammiraglia RTX 4090.
Le metriche delle prestazioni includono 6 giochi e 3 applicazioni di produttività. Non viene menzionato su quali impostazioni erano in esecuzione i giochi, ma il leaker afferma che la risoluzione utilizzata era 4K e RTX (Ray Tracing) era abilitato su tutti loro. Il leaker afferma di non pensare che il DLSS sia stato utilizzato per questi test.

https://cdn.wccftech.com/wp-content/uploads/2022/09/NVIDIA-GeForce-RTX-40-Series-GPU-Gaming-Productivity-Performance-Figures-740x418.jpg

I titoli includono Control, Metro Exodus Enhanced Edition, Minecraft, Quake II RTX, Dying Light 2 e Cyberpunk 2077. Tutti questi giochi favoriscono fortemente le GPU NVIDIA, quindi le prestazioni dovrebbero essere lo scenario migliore per la serie RTX 40 qui.

I numeri effettivi mostrano guadagni fino a 2-2,2 volte nella maggior parte dei titoli, mentre Minecraft con RTX mostra un miglioramento delle prestazioni dell'80%. In applicazioni come Autodesk Arnold, Blender e Chaos V-Ray, le prestazioni sono pari o superiori a 2x, un aumento piuttosto impressionante rispetto alla generazione precedente.

FONTE (https://wccftech.com/nvidia-geforce-rtx-40-series-gpus-gaming-productivity-performance-2x-faster-than-rtx-30/)

lato Pro siamo "in linea", perchè in realta il saltone in ambito pro c'è stato anche con la serie 3000; a differenza dei giochi, i software pro riescono a sfruttare appieno tutte le unita FP, RT e Tensor e a scalare praticamente sempre molto vicino al teorico; ovviamente, si parla della parte di calcolo render, non di fps delle vieport dove in quel caso si comportano piu come i videogiochi.

Maury
07-09-2022, 08:53
Stavolta da dove parlerà? Cesso, camera da letto o sala da pranzo? 😁


Inviato dal mio iPhone utilizzando Tapatalk

Visto il taglia e cuci direi dalla lavanderia/sartoria :sofico:

Maury
07-09-2022, 08:57
Dopo poi AMD aspetta nvidia e rinvia, con i wafer prodotti dentro la sua cucina.:p
Potrebbe anche non comunicarli, ma non ci vedo questo segreto da area51.
Presentazione di Ampere il 1° settembre, ben prima di navi, eppure ha detto tutto.:)
https://www.anandtech.com/show/16060/the-nvidia-geforce-special-event-2020-live-blog

Ad esempio, AMD i prezzi di zen gli ha già ufficializzati.
Tra l'altro AMD potrebbe presentare solo navi31 quest'anno.:)


Con i prezzi proposti per Zen mi sa tanto che AMD se ne infischia di Intel, lei ha la sua politica per le CPU, prezzi esagerati indipendentemente dal competitor :doh:

Il 20 è vicino, vediamo se JHH si espone per bene :D

Gigibian
07-09-2022, 09:15
Questi chip sono molto tirati sul clock, se vuoi un alto perf/w dovresti limitarti quanto più possibile intorno al clock base di 2.5ghz.

Gia a 2.5ghz dovrebbe giocarsela tranquilla con 3080ti@1.9ghz, e probabilmente saresti nell'intorno dei 200w, poi è ovvio che se il silicio permette 2.8-3ghz le prestazioni salgono cosi come i consumi.

Ma io non tocco niente, la ficco nel caso e la alimento.

Ma se per raggiungere le performance della 3080TI mi chiede 300W, (contro i 350 della 3080 TI) allora oltre ad essere palesemente falsi i claim del +50% perf/W, non hanno proprio senso queste schede. Compro ampere oggi.

Gigibian
07-09-2022, 09:16
LA 3080TI a 800€ ?? La più bassa e' sui 1000€. La 3070TI vorrai dire... :cool:

Ne ho beccata una su amazon warehouse ad 839

Ubro92
07-09-2022, 09:23
Ma io non tocco niente, la ficco nel caso e la alimento.

Ma se per raggiungere le performance della 3080TI mi chiede 300W, (contro i 350 della 3080 TI) allora oltre ad essere palesemente falsi i claim del +50% perf/W, non hanno proprio senso queste schede. Compro ampere oggi.

Le performance della 3080ti le prendi undercloccando, già di base la 4070 dovrebbe spingere di più XD

Se ti bastano le prestazioni di 3080/3080ti basterebbe attendere l'eventuale 4060ti con un cut a cuda e bus.

Gigibian
07-09-2022, 09:32
Le performance della 3080ti le prendi undercloccando, già di base la 4070 dovrebbe spingere di più XD

Se ti bastano le prestazioni di 3080/3080ti basterebbe attendere l'eventuale 4060ti con un cut a cuda e bus.

le X70 hanno sempre sfiorato (ma mai superato) le performance delle (X-1)80 TI...

con 6000 core e bus a 192 bit ci credo poco che stavolta la 3070 superi sempre e nettamente la 3080TI

Maury
07-09-2022, 09:38
le X70 hanno sempre sfiorato (ma mai superato) le performance delle (X-1)80 TI...

con 6000 core e bus a 192 bit ci credo poco che stavolta la 3070 superi sempre e nettamente la 3080TI

Da quanto ho capito dai 5000 rumors la 4070 equivale alla 3090, mentre la 4060TI alla 3080/TI.

Ubro92
07-09-2022, 09:41
le X70 hanno sempre sfiorato (ma mai superato) le performance delle (X-1)80 TI...

con 6000 core e bus a 192 bit ci credo poco che stavolta la 3070 superi sempre e nettamente la 3080TI

La 4070 dovrebbe avere 7680cc, e si parla di clock di oltre i 2.8ghz, nel teorico una 3090ti@1.9ghz la prendi con soli 2.6ghz.

La 4060ti si specula che potrebbe avere 6144cc e 160bit, un chip del genere è gia perfettamente allineato alla 3080.

Devi anche tenere a mente che qua abbiamo un passaggio di nodo importante, per certi versi anche più grosso di quello che separa Maxwell e Pascal, inoltre bisogna anche vedere l'impatto della cache sui giochi più recenti o prossimi all'uscita, Ampere soprattutto su questo aspetto potrebbe avere strozzature maggiori.

Gigibian
07-09-2022, 09:42
Da quanto ho capito dai 5000 rumors la 4070 equivale alla 3090, mentre la 4060TI alla 3080/TI.

Grazie.
Beh considerando che tra 3080TI e 3090 la differenza è un 3%... direi trascurabile.

Se la 4070 va come la 3090 va anche come la 3080TI.

e 285W per pareggiare le performance di 350W, sono decisamente ridicoli. altro che 50% di Perf/W...

devAngnew
07-09-2022, 09:52
Grazie.
Beh considerando che tra 3080TI e 3090 la differenza è un 3%... direi trascurabile.

Se la 4070 va come la 3090 va anche come la 3080TI.

e 285W per pareggiare le performance di 350W, sono decisamente ridicoli. altro che 50% di Perf/W...

Ma, io la notizia +50% perf/watt delle 4000 me la son persa, anzi la ricordo solo per le GPU AMD.

Ubro92
07-09-2022, 09:53
Grazie.
Beh considerando che tra 3080TI e 3090 la differenza è un 3%... direi trascurabile.

Se la 4070 va come la 3090 va anche come la 3080TI.

e 285W per pareggiare le performance di 350W, sono decisamente ridicoli. altro che 50% di Perf/W...

Non per qualcosa ma la 3090ti arriva a superare anche i 450w, e stiamo sempre ragionando su GA102@1.9ghz molti chip a default hanno anche clock inferiori.

https://tpucdn.com/review/nvidia-geforce-rtx-3090-ti-founders-edition/images/power-maximum.png

carloUba
07-09-2022, 09:59
Ma, io la notizia +50% perf/watt delle 4000 me la son persa, anzi la ricordo solo per le GPU AMD.

L’hai persa perché non esiste

Gigibian
07-09-2022, 10:06
Non per qualcosa ma la 3090ti arriva a superare anche i 450w, e stiamo sempre ragionando su GA102@1.9ghz molti chip a default hanno anche clock inferiori.

https://tpucdn.com/review/nvidia-geforce-rtx-3090-ti-founders-edition/images/power-maximum.png

Ma infatti chi se ne frega della 3090 TI :)

Io sto facendo riferimento 3090 (TDP 350W) vs 4070 (TDP ???) - Assumendo che le performance siano le stesse -

Se il TDP è 285W come si vocifera...o anche più alto... è epic fail...

craesilo
07-09-2022, 10:11
Da metà ottobre, con il debutto di A plague tale requiem (il predecessore era davvero una perla), inizieremmo a vedere l'Unreal engine 5, e ne seguiranno parecchi a seguire. E' già un passo avanti.


si graficamente sembra tanta roba (anche perchè non è cross gen) ma non credo sarà più pesante di un gow, horizon zd, uncharted 4 (in uscita sto anno) ecc...non credo metterà in crisi una 3070, idem callisto (che cmq sembra un corridoio stile dead space) in uscita a dicembre

Ubro92
07-09-2022, 10:13
Ma infatti chi se ne frega della 3090 TI :)

Io sto facendo riferimento 3090 (TDP 350W) vs 4070 (TDP ???) - Assumendo che le performance siano le stesse -

Se il TDP è 285W come si vocifera...o anche più alto... è epic fail...

E' un pò no sense il discorso che fai, se proprio vuoi farlo la 4070 consumerebbe come 3070ti e avrebbe prestazioni maggiori del 50%...
Poi se vuoi lo sweet spot come performance/consumi solitamente i chip tagliati sono messi meglio.

craesilo
07-09-2022, 10:14
E' un pò no sense il discorso che fai

togli un po

mikael84
07-09-2022, 11:36
"Si dice che la scheda grafica NVIDIA GeForce RTX 40 offra oltre il doppio delle prestazioni di gioco rispetto alla serie RTX 30"

non è stato detto da quale SKU NVIDIA GeForce RTX 40 provengano questi numeri di prestazioni, ma è probabile che stiamo guardando l'RTX 4090 o l'RTX 4080, che avrebbero entrambi offerto un miglioramento delle prestazioni di oltre 2 volte rispetto al loro Predecessori RTX 30 secondo indiscrezioni . Il leaker ha affermato che i numeri non si basano sulla SKU di punta che indicherebbe queste come le prestazioni di RTX 4080. Ha pubblicato una seconda foto della presentazione GTC, questa volta mostrando quella che sembra essere l'RTX 4080 seduta accanto all'ammiraglia RTX 4090.
Le metriche delle prestazioni includono 6 giochi e 3 applicazioni di produttività. Non viene menzionato su quali impostazioni erano in esecuzione i giochi, ma il leaker afferma che la risoluzione utilizzata era 4K e RTX (Ray Tracing) era abilitato su tutti loro. Il leaker afferma di non pensare che il DLSS sia stato utilizzato per questi test.



I titoli includono Control, Metro Exodus Enhanced Edition, Minecraft, Quake II RTX, Dying Light 2 e Cyberpunk 2077. Tutti questi giochi favoriscono fortemente le GPU NVIDIA, quindi le prestazioni dovrebbero essere lo scenario migliore per la serie RTX 40 qui.

I numeri effettivi mostrano guadagni fino a 2-2,2 volte nella maggior parte dei titoli, mentre Minecraft con RTX mostra un miglioramento delle prestazioni dell'80%. In applicazioni come Autodesk Arnold, Blender e Chaos V-Ray, le prestazioni sono pari o superiori a 2x, un aumento piuttosto impressionante rispetto alla generazione precedente.

FONTE (https://wccftech.com/nvidia-geforce-rtx-40-series-gpus-gaming-productivity-performance-2x-faster-than-rtx-30/)

La 4080 non farà mai 2x in gaming, altrimenti la 4070 andrebbe a +70% la 3080.:)
Un risultato del genere a pari dei software pro, significherebbe aver scorporato le INT.

Ma, io la notizia +50% perf/watt delle 4000 me la son persa, anzi la ricordo solo per le GPU AMD.

E' di AMD.
Però è un parametro importante, per quelli che 4080 + 20% la 3080, come se da un samsung 10nm a TSMC 5nm mod, a pari watt non ci fosse già da qui una netta differenza.

si graficamente sembra tanta roba (anche perchè non è cross gen) ma non credo sarà più pesante di un gow, horizon zd, uncharted 4 (in uscita sto anno) ecc...non credo metterà in crisi una 3070, idem callisto (che cmq sembra un corridoio stile dead space) in uscita a dicembre

I giochi finali alla fine saranno sempre tarati per le scatolette, ma è già qualcosa non essere tarati per le vecchie gen.:)

Gigibian
07-09-2022, 12:34
E' un pò no sense il discorso che fai, se proprio vuoi farlo la 4070 consumerebbe come 3070ti e avrebbe prestazioni maggiori del 50%...
Poi se vuoi lo sweet spot come performance/consumi solitamente i chip tagliati sono messi meglio.

No, il discorso che faccio é l'unico che ha senso. Cosa é che non ti riporta.

Prendi due schede che vanno uguale delle due generazioni:

3090
4070

Bene, quanti watt in meno consuma ?
50? Epic fail. 150? Bene.

Tutto il resto non ha senso

Già con 350w di scheda la camera diventa un forno e serve un full tower tra poco ... É useless avere schede da 500W per avere performance superiori.

amon.akira
07-09-2022, 12:42
NVIDIA Readies RTX 3060 8 GB, RTX 3060 Ti With GDDR6X & RTX 3070 Ti With GA102 GPU To Clear Away Ampere Inventory (https://wccftech.com/nvidia-readies-rtx-3060-8-gb-rtx-3060-ti-with-gddr6x-rtx-3070-ti-with-ga102-gpu-to-clear-away-ampere-inventory/)

lordsnk
07-09-2022, 13:07
NVIDIA Readies RTX 3060 8 GB, RTX 3060 Ti With GDDR6X & RTX 3070 Ti With GA102 GPU To Clear Away Ampere Inventory (https://wccftech.com/nvidia-readies-rtx-3060-8-gb-rtx-3060-ti-with-gddr6x-rtx-3070-ti-with-ga102-gpu-to-clear-away-ampere-inventory/)

Praticamente la nuova 3070 Ti è una 3080 rimarchiata con 2Gb in meno per venderla al giusto prezzo senza perdere la faccia :D

Ubro92
07-09-2022, 13:14
Praticamente la nuova 3070 Ti è una 3080 rimarchiata con 2Gb in meno per venderla al giusto prezzo senza perdere la faccia :D

Penso che sia più un modo per riciclare i die fallati.

Anche in passato furono prodotte GTX 1060 con GP104 e GDDR5X:
https://www.techpowerup.com/gpu-specs/geforce-gtx-1060-6-gb-gddr5x.c3328

Non credo cambierà nulla.

egounix
07-09-2022, 15:01
Forse cambierà il prezzo e la gente sarà più invitata a comprarla. Il consumo dipende quanto tempo uno ci gioca in realtà. Se uno lavora ci giocherà poco dunque conterà di meno.

Per il calore si ma tutto è soggettivo :) c'è gente che riesce a vivere con 30 gradi e gente con 24 in casa.

se compri una rtx 4000 di conseguenza abbassi il riscaldamento, dovrebbero prevedere un'altro bonus - nel paese delle mancette - per chi abbassa ulteriormente il riscaldamento

volete 2° in piu' in casa, oppure volete continuare a guardare qualcuno che suona il pianoforte col membro?

lordsnk
07-09-2022, 15:25
Penso che sia più un modo per riciclare i die fallati.

Anche in passato furono prodotte GTX 1060 con GP104 e GDDR5X:
https://www.techpowerup.com/gpu-specs/geforce-gtx-1060-6-gb-gddr5x.c3328

Non credo cambierà nulla.

Vero. Quelle 1060 le avevo proprio rimosse dalla memoria :D

mikael84
07-09-2022, 15:52
Penso che sia più un modo per riciclare i die fallati.

Anche in passato furono prodotte GTX 1060 con GP104 e GDDR5X:
https://www.techpowerup.com/gpu-specs/geforce-gtx-1060-6-gb-gddr5x.c3328

Non credo cambierà nulla.

Stesso giochetto con la 2060 e TU104, di cui nacque pure una discussione sul perchè certe 2060 rendevano meglio delle altre.:)
https://www.techpowerup.com/gpu-specs/geforce-rtx-2060-tu104.c3495

Ale55andr0
07-09-2022, 17:04
Praticamente la nuova 3070 Ti è una 3080 rimarchiata con 2Gb in meno per venderla al giusto prezzo senza perdere la faccia :D


invece che nello slot pcie è ottima per inserirsela fra gli incisivi, non importa se superiori o inferiori fa uguale :)

o in alternativa.....

Telstar
07-09-2022, 22:04
Tanto a me fa caldo anche senza riscaldamento in casa xD

Beato te, io accendo le stufe dall'ultima settimana di settembre. Quest'anno ne servirà una per stanza.

davide155
07-09-2022, 23:01
mi hai fatto venire la voglia di fare il test in 2k. Praticamente ho la GPU che non arriva mai al 100%, mediamente sul 85/90% e nel pezzo in mezzo alle case, l'ho vista stare al 72%...



Gioco di 5 anni fa esosissimo sulla CPU



https://i.imgur.com/a7rDedh.pngSi spiderman remastered è il primo gioco che senza dlss lo vedo stressare il 12900k oltre il 60% praticamente sempre.
La gpu però a me sta fissa al 99%.
Ps: il mio test di assasin's creed era in DLDSR 4k.... avendo un monitor 2k non potevo fare altrimenti :)

nico88desmo
08-09-2022, 08:31
Qualcosa inizia a muoversi ;)

https://videocardz.com/newz/nvidia-teases-project-beyond-has-geforce-rtx-40-marketing-campaign-started

egounix
08-09-2022, 08:41
sembra che nvidia abbia intenzione di tenere i prezzi alti con basse vendite, almeno stando a jay2cents e all'analisi delle dichiarazioni del pr

Salfox
08-09-2022, 08:46
sembra che nvidia abbia intenzione di tenere i prezzi alti con basse vendite, almeno stando a jay2cents e all'analisi delle dichiarazioni del pr

Se fosse così se le terrebbero tutte quante per sempre sul groppone :D :D :D

lordsnk
08-09-2022, 08:47
Vi segnalo questo (https://www.youtube.com/watch?v=c3voyiojWl4) interessante articolo sul DLDSR in cui viene confrontato con il DSR e utilizzato insieme al DLSS :eek: :D

Molto interessante per i futuri possessori delle 4000 che non hanno ancora acquistato un monitor 4K :)

Sonpazzo
08-09-2022, 09:02
Sono anni che uso downsampling, anche con giochi datati, è d'obbligo dai.

Non importa avere il monitor 4k.

Una cosa però, nei giochi con lo "scaler" integrato,è meglio mantenere la risoluzione nativa e usare quello integrato nel gioco.

Per esempio in bf1 o destiny 2

egounix
08-09-2022, 09:09
Se fosse così se le terrebbero tutte quante per sempre sul groppone :D :D :D

non penso, perchè una volta abituata la pecora a comprare ai loro prezzi, chi glielo farebbe fare di far ritornare i prezzi ad un valore normale?

come il "gasse", russia russia russia, e poi sono gli evasori del paradiso fiscale olandese che dettano legge e che ci stanno abituando a questi prezzi

tranquillo che ne venderanno, e a tonnellate... bisogna vedere anche che hashrate e consumi poi avranno sulle monete diverse da eth - alcune hanno profitti simili, minori ma simili, con un leggero aumento dei consumi

ma se tanto paghi 5 o 10cent a kw e hai anche dei pannelli solari... cazzomene cit.... io personalmente prevedo una situazione ben peggiore a 2 anni fa

io sicuro una la prendo per testare nuovamente il gsync, basta che 1) non mi rompa le bolas con connettori particolari o compatibilità con i precedenti alimenattori 2) che non mi faccia saltare in aria un 850w :stordita:

devAngnew
08-09-2022, 11:24
TwitterNVIDIA (https://twitter.com/NVIDIAGeForce/status/1567659030247575552)

@egounix

sul fatto di avere i pannelli ca...menefrega dei consumi elettrici ci sono seri dubbi nel merito :stordita:

Telstar
08-09-2022, 13:36
io sicuro una la prendo per testare nuovamente il gsync, basta che 1) non mi rompa le bolas con connettori particolari o compatibilità con i precedenti alimenattori 2) che non mi faccia saltare in aria un 850w :stordita:

Probabilmente fino alla 4080 ce la facciamo.
Io cmq l'alimentatore lo devo cambiare, sto aspettando di avere più scelta tra gli atx 3.0.

Andy1111
08-09-2022, 13:39
Vi consiglio di vedere questo video

https://youtu.be/15FX4pez1dw

e preparatevi a paper launch e shortage per la serie 4000

Ringraziate giacchetta!!!!

WarSide
08-09-2022, 14:00
Vi consiglio di vedere questo video

https://youtu.be/15FX4pez1dw

e preparatevi a paper launch e shortage per la serie 4000

Ringraziate giacchetta!!!!

Lanceranno solo la 4090 e passeranno mesi prima delle altre. Era scontato data la situazione dei magazzini. Quindi tenetevi strette le 3080/3090 e vendetele solo quando avrete la nuova scheda tra le mani ;)

devAngnew
08-09-2022, 14:18
Vi consiglio di vedere questo video

https://youtu.be/15FX4pez1dw

e preparatevi a paper launch e shortage per la serie 4000

Ringraziate giacchetta!!!!

Bhe, visto che lui può ordinare pochi chip e mantenere i prezzi alti, noi possiamo non comprare :sofico:

Lucageo
08-09-2022, 14:28
Sto seguendo la diretta di Drako del Giovedì e ha detto che secondo quanto dichiarato da giacchetta la serie 4000 sarà slittata al primo trimestre del 2023 e questo riguarderebbe tutti i modelli, dalla 4090 a scendere. A voi risulta ?

WarSide
08-09-2022, 14:32
Sto seguendo la diretta di Drako del Giovedì e ha detto che secondo quanto dichiarato da giacchetta la serie 4000 sarà slittata al primo trimestre del 2023 e questo riguarderebbe tutti i modelli, dalla 4090 a scendere. A voi risulta ?

IMHO dipende da AMD. Se AMD avrà le nuove schede pronta consegna senza avere magazzini stracolmi, allora vorrà battere sul tempo nvidia e vendere le nuove soluzioni che vanno il doppio facendoci bei soldi. A questo punto giacchetta non può regalare quote di mercato a sua sorella lisa e dovrà vendere le nuove a costo di svendere le vecchie.

WarSide
08-09-2022, 14:34
Bhe, visto che lui può ordinare pochi chip e mantenere i prezzi alti, noi possiamo non comprare :sofico:

Nvidia ha già ordinato una carriolata, anzi, vagonata, di wafer a TSMC. Hanno anche provato a chiedere a TSMC di ridurre la produzione e dare le linee ad altri, ma TSMC ha risposto con una grassa risata.

Quindi nvidia ha un magazzino abbondante adesso e lo avrà anche dopo. Stanno pregando tutte le divinità di tutte le religioni affinché il mining resusciti. Magari faranno loro una bella GREEN coin minabile per risollevarsi :sofico:

fraussantin
08-09-2022, 14:46
Nvidia ha già ordinato una carriolata, anzi, vagonata, di wafer a TSMC. Hanno anche provato a chiedere a TSMC di ridurre la produzione e dare le linee ad altri, ma TSMC ha risposto con una grassa risata.



Quindi nvidia ha un magazzino abbondante adesso e lo avrà anche dopo. Stanno pregando tutte le divinità di tutte le religioni affinché il mining resusciti. Magari faranno loro una bella GREEN coin minabile per risollevarsi :sofico:Nvidia ha anche tanti soldi. Puo permettersi in un primo momento di fare magazzino e tenere i prezzi alti per gli inscimmiati.
Poi aumentare la dose col tempo quando ci saremo abituati ai prezzi. Quindi il calo potrebbe arrivare più in la.

albero77
08-09-2022, 16:54
Sto seguendo la diretta di Drako del Giovedì e ha detto che secondo quanto dichiarato da giacchetta la serie 4000 sarà slittata al primo trimestre del 2023 e questo riguarderebbe tutti i modelli, dalla 4090 a scendere. A voi risulta ?

Fonte autorevolissima:asd: :asd: :asd:

Iceman69
08-09-2022, 18:25
Fonte autorevolissima:asd: :asd: :asd:

E soprattutto disinteressata ...

Salfox
08-09-2022, 18:35
avete letto questo? (https://www.dsogaming.com/news/steelrisings-ultra-textures-require-more-than-13gb-of-vram-even-at-1080p/)
Steelrising è un gioco che avevo in lista, meno male che ho una 3090 :D

Ubro92
08-09-2022, 18:38
avete letto questo? (https://www.dsogaming.com/news/steelrisings-ultra-textures-require-more-than-13gb-of-vram-even-at-1080p/)
Steelrising è un gioco che avevo in lista, meno male che ho una 3090 :D

Sinceramente a guadare gli screen, le texture e i modelli non mi sembrano tutto questo granchè.
I 13GB di vram mi sa che sono dovuti alla programmazione del gioco fatta alla meno peggio XD

Telstar
08-09-2022, 18:47
Sto seguendo la diretta di Drako del Giovedì e ha detto che secondo quanto dichiarato da giacchetta la serie 4000 sarà slittata al primo trimestre del 2023 e questo riguarderebbe tutti i modelli, dalla 4090 a scendere. A voi risulta ?

A me sembra una stronzata. JHH che la fa a fare la presentazione il 20?

FrancoBit
08-09-2022, 18:53
A me sembra una stronzata. JHH che la fa a fare la presentazione il 20?Staremo a vedere. Fatto sta che le azioni valgono la metà rispetto all'anno scorso. Deve smazzare tutte le ampere che ha ancora sul groppone, e deve guadagnare, per forza. Potrebbe spalmare nel tempo i rilasci delle 4080, 4070, ecc. Presenta la linea e comincia a vendere la più cara, la 4090.

Inviato dal mio M2101K9G utilizzando Tapatalk

albero77
08-09-2022, 20:36
Scusate ma a chi dovrebbero venderle ‘ste 3xxx? A me pare che chi le voleva le abbia già comprate da mo…Iniziassero allora ad abbassare i prezzi e non parlo solo delle 3090ti

Sonpazzo
08-09-2022, 20:44
100.000 visualizzazioni del post su twitter nvidia. Almeno la metà saranno acquirenti delle 4000. prepariamoci a lunghe code :D

amon.akira
08-09-2022, 20:56
A me sembra una stronzata. JHH che la fa a fare la presentazione il 20?

drako ha ancora i prezzi epoca mining/scalper, 3080 tuf 10gb a 1100€ in sconto da 1500 :sofico:

Ale55andr0
08-09-2022, 22:06
avete letto questo? (https://www.dsogaming.com/news/steelrisings-ultra-textures-require-more-than-13gb-of-vram-even-at-1080p/)
Steelrising è un gioco che avevo in lista, meno male che ho una 3090 :D

sempre detto che 8gb sulla 3070 erano/sono da cerebrolesi

davide155
08-09-2022, 23:45
Io scommetto la palla destra che il 20 presenterà le 4000 e farà uscire scadenzate dalla 4090 a scendere, da ottobre fino a marzo 2023 tutta la linea.
E costeranno più delle ampere. Con tutti gli aumenti che ci sono a livello di materie prime, ed il dollaro in forte ascesa rispetto all'euro, c'è poco da fare. Sarà un bagno di sangue. Se poi il mining riprende come fece 2 anni fa in concomitanza delle ampere, sarà la fine.

Io l'avevo detto che una tuf oc 3090 a 1100euro su amazon per la gaming week era da prendere ad occhi bendati. Già è risalita di 150 euro :asd: altro che scendono i prezzi...
Mo aspettate il 20. Secondo me ci sarà parecchio da ridere.

mikael84
08-09-2022, 23:53
Io scommetto la palla destra che il 20 presenterà le 4000 e farà uscire scadenzate dalla 4090 a scendere, da ottobre fino a marzo 2023 tutta la linea.
E costeranno più delle ampere. Con tutti gli aumenti che ci sono a livello di materie prime, ed il dollaro in forte ascesa rispetto all'euro, c'è poco da fare. Sarà un bagno di sangue. Se poi il mining riprende come fece 2 anni fa in concomitanza delle ampere, sarà la fine.

Io l'avevo detto che una tuf oc 3090 a 1100euro su amazon per la gaming week era da prendere ad occhi bendati. Già è risalita di 150 euro :asd: altro che scendono i prezzi...
Mo aspettate il 20. Secondo me ci sarà parecchio da ridere.

https://www.youtube.com/watch?v=2pFNhEZpfqk&ab_channel=PaulB

davide155
09-09-2022, 00:11
avete letto questo? (https://www.dsogaming.com/news/steelrisings-ultra-textures-require-more-than-13gb-of-vram-even-at-1080p/)
Steelrising è un gioco che avevo in lista, meno male che ho una 3090 :D chi è che diceva che i 24gb di vram della 3090 non servivano ad una beneamata e che il chip avrebbe mostrato i suoi limiti di calcolo ben prima del quantitativo di memoria? :asd:
Mo vedi che escono i primi giochi seri con ue5. Ok saranno fatti su misura delle scatolette, ma le features su pc saranno sempre più esose. https://www.youtube.com/watch?v=2pFNhEZpfqk&ab_channel=PaulBTe ci scherzi ma il mitico Diego non ci era andato tanto lontano :asd:
Sarà un bagno di sangue :O

Ubro92
09-09-2022, 00:58
Non so se hai letto la review... Ma viene criticato proprio perchè la richiesta di vram è oscena per quella che poi è la qualità effettiva delle texture...

Per la pace di chi ha preso la 3090, non saranno i 24gb a salvarla in game, quando la 3080 sarà obsoleta si porterà dietro tutte le GA102 :fagiano:

Qui c'è una review decisamente più accurata, ma sembra essere un porting fatto alla meno peggio:
https://gamegpu.com/rpg/%D1%80%D0%BE%D0%BB%D0%B5%D0%B2%D1%8B%D0%B5/steelrising-test-gpu-cpu

https://i.postimg.cc/TGz2s0ZL/Senza-titolo.png

gixio58
09-09-2022, 06:58
avete letto questo? (https://www.dsogaming.com/news/steelrisings-ultra-textures-require-more-than-13gb-of-vram-even-at-1080p/)
Steelrising è un gioco che avevo in lista, meno male che ho una 3090 :D

chi ha una 3080TI userà il DLSS qualità per giocare a 1080? E' chiaro che c'è molto da ottimizzare (sia lato driver-e Nvidia è assai meno energivora lato VRam di AMD- che sul motore grafico), altrimenti a chi lo vendono? Stiamo parlando di un Souls-like in cui affronti due nemici alla volta, manco fosse un GTA o uno Spider-man

Thunder-74
09-09-2022, 08:12
News 4090 oltre 3 ghz, timespy extreme 20k , 90x100 in più di una 3090

https://uploads.tapatalk-cdn.com/20220909/d67e70b8b82c03757a04cb57aecfb427.jpg

https://uploads.tapatalk-cdn.com/20220909/e3cb1d37db8f1a662011473534293f88.jpg


https://videocardz.com/newz/alleged-geforce-rtx-4090-gpu-runs-at-3-0-ghz-scores-20k-points-in-timespy-extreme


Mike ho la scimmia con i tremori :fagiano:

Guarda come va a finire brutto quest anno con l intero cambio pc . Mi costerà come una panda hahahahaha

Inviato dal mio iPhone X utilizzando Tapatalk

Ale55andr0
09-09-2022, 08:31
Io scommetto la palla destra che il 20 presenterà le 4000 e farà uscire scadenzate dalla 4090 a scendere, da ottobre fino a marzo 2023 tutta la linea.


e io scommetto che se lo fa le 3000 resteranno cmq a scaffale, a meno che non deprezzino DAVVVERO no perchè quelli che vediamo oggi sono i costi normali che dovevano avere, no nprezzi "buoni"....

kiwivda
09-09-2022, 09:59
Beh ma il deprezzamento attuale mica lo fa per svendere, lo sta facendo per fare spazio alla serie 40x0. Sta comprimendo la fascia alta per piazzare le 4000.

Secondo me alla fine ci troveremo con:

3070Ti a 550€

3080Ti a 1000€

3090Ti a 1200€

4090 a 1700€


Le versioni non Ti della 3000 spariranno e appena le scorte delle 3000Ti saranno esigue usciranno in sostituzione le 4070 e 4080, sempre che non le piazzi nel range 1000-1500 ma la 4070 si sovrapporrebbe con le 3080Ti e le 3090Ti rendendole invendibili (forse le 3090Ti meno perchè in ambito pro possono essere utili comunque).

Poi a fine lancio la 4090Ti a 2000€.

WarSide
09-09-2022, 10:06
Guarda come va a finire brutto quest anno con l intero cambio pc . Mi costerà come una panda hahahahaha


Dimmi da quale palazzo lo butti che ho un collega con un 2600k che verrebbe di corsa a recuperarlo. :asd:

caccapupu91
09-09-2022, 10:16
Costeranno tanto quanti fps fanno :asd:

Non so voi, come gioco i benchmark non mi piacciono molto

Thunder-74
09-09-2022, 10:19
Dimmi da quale palazzo lo butti che ho un collega con un 2600k che verrebbe di corsa a recuperarlo. :asd:


Ho scritto una frase strana, ma intendevo che l anno va a finire male (brutto). Il pc che ho non so se tenerlo per farci un muletto o venderne i pezzi , più la seconda credo


Inviato dal mio iPhone X utilizzando Tapatalk

WarSide
09-09-2022, 10:35
Ho scritto una frase strana, ma intendevo che l anno va a finire male (brutto). Il pc che ho non so se tenerlo per farci un muletto o venderne i pezzi , più la seconda credo


Inviato dal mio iPhone X utilizzando Tapatalk

Ma ho avuto le allucinazioni o la tua frase era differente prima che scrivessi il messaggio? :help:

Comunque la mia voleva essere una battuta :stordita:

Tody
09-09-2022, 10:54
e io scommetto che se lo fa le 3000 resteranno cmq a scaffale, a meno che non deprezzino DAVVVERO no perchè quelli che vediamo oggi sono i costi normali che dovevano avere, no nprezzi "buoni"....
Non credo che abbiano tutta questa fretta di vendere visto che non sono disponibili nemmeno sullo store nvidia...

Thunder-74
09-09-2022, 11:31
Ma ho avuto le allucinazioni o la tua frase era differente prima che scrivessi il messaggio? :help:

Comunque la mia voleva essere una battuta :stordita:


Allucinazione hahahahah
Si sì tranquillo avevo capito ;)


Inviato dal mio iPhone X utilizzando Tapatalk

WarSide
09-09-2022, 11:45
Allucinazione hahahahah
Si sì tranquillo avevo capito ;)


Inviato dal mio iPhone X utilizzando Tapatalk

Oops, allora chiamo l'oculista per prenotare il prossimo checkup :fagiano:

mikael84
09-09-2022, 11:46
News 4090 oltre 3 ghz, timespy extreme 20k , 90x100 in più di una 3090



https://videocardz.com/newz/alleged-geforce-rtx-4090-gpu-runs-at-3-0-ghz-scores-20k-points-in-timespy-extreme


Mike ho la scimmia con i tremori :fagiano:

Guarda come va a finire brutto quest anno con l intero cambio pc . Mi costerà come una panda hahahahaha

Inviato dal mio iPhone X utilizzando Tapatalk

Bella bestia se confermato, anche se ormai siamo davvero al lancio.
Considerando che la 3090 fa circa 10000, siamo ad un 2x.

Considerando che tra 4090 e 4080 ci ballerebbero il 68,42% di ALU e tra la 3090 e la 3070ti il 70%, direi che la 4080 dovrebbe stare il 35% dietro e stare mediamente sui 15000. Quasi il 70% dalla 3080.

Alla fine torna, perchè noi per prudenza ci basavamo sui 2,75.:)

Certo, poi bisogna vedere i rapporto tra OC non OC.

Te ci scherzi ma il mitico Diego non ci era andato tanto lontano :asd:
Sarà un bagno di sangue :O

La situazione potrebbe non essere delle migliori, soprattutto al lancio, è successo anche con altre serie, ma un pò di positivismo e che diamine :D
Di wafer ne ha a quintali, prima o poi tutto si assesta senza mining, poi se dovesse tornare, si correrà ai ripari velocemente.

Thunder-74
09-09-2022, 12:21
Bella bestia se confermato, anche se ormai siamo davvero al lancio.
Considerando che la 3090 fa circa 10000, siamo ad un 2x.

Considerando che tra 4090 e 4080 ci ballerebbero il 68,42% di ALU e tra la 3090 e la 3070ti il 70%, direi che la 4080 dovrebbe stare il 35% dietro e stare mediamente sui 15000. Quasi il 70% dalla 3080.

Alla fine torna, perchè noi per prudenza ci basavamo sui 2,75.:)

Certo, poi bisogna vedere i rapporto tra OC non OC.



La situazione potrebbe non essere delle migliori, soprattutto al lancio, è successo anche con altre serie, ma un pò di positivismo e che diamine :D
Di wafer ne ha a quintali, prima o poi tutto si assesta senza mining, poi se dovesse tornare, si correrà ai ripari velocemente.

Se queste saranno le performances, ovvero 4090 2x dalla 3080 e 4080 + 70% dalla 3080, mi "accontento" della 4080. Alla fine sicuramente la 4090 costerà il doppio della 4080. Vediamo ...

lordsnk
09-09-2022, 12:44
Considerando che tra 4090 e 4080 ci ballerebbero il 68,42% di ALU e tra la 3090 e la 3070ti il 70%, direi che la 4080 dovrebbe stare il 35% dietro e stare mediamente sui 15000. Quasi il 70% dalla 3080.

Alla fine torna, perché noi per prudenza ci basavamo sui 2,75.:)

Certo, poi bisogna vedere i rapporto tra OC non OC.

Se la 4080 dovesse confermare un deficit del 35% la si potrebbe considerare molto valida in rapporto prezzo/prestazioni in quanto la 4090 dovrebbe costare circa il doppio.

Secondo te, vista la suddetta premessa, si potrebbe chiudere un occhio sul fatto che la 4080 non è basata sul chippone ed "accontentarsi" delle semplici prestazioni, oppure aspettare la 4080ti?

davide155
09-09-2022, 12:44
Si ma non costerà di più la 4070 della 3090 attuale a 1200 euro. Dunque non serve.Si ma la 4070 la danno in uscita fra almeno 4 mesi e non si sa bene a quanto e quante.
La tuf oc 3090 a 1100euro era una settimana fa venduta e spedita da amazon.
Chi cerca una gpu top adesso, quella era una ottima alternativa.
Poi ovvio, gli enthusiast aspetteranno il 20 settembre come i bambini aspettano natale. Ma dubito fortemente che il 21 settembre ci sarà gli scaffali pieni di 4070 a prezzo msrp. News 4090 oltre 3 ghz, timespy extreme 20k , 90x100 in più di una 3090

https://uploads.tapatalk-cdn.com/20220909/d67e70b8b82c03757a04cb57aecfb427.jpg

https://uploads.tapatalk-cdn.com/20220909/e3cb1d37db8f1a662011473534293f88.jpg


https://videocardz.com/newz/alleged-geforce-rtx-4090-gpu-runs-at-3-0-ghz-scores-20k-points-in-timespy-extreme


Mike ho la scimmia con i tremori :fagiano:

Guarda come va a finire brutto quest anno con l intero cambio pc . Mi costerà come una panda hahahahaha

Inviato dal mio iPhone X utilizzando TapatalkBisogna vedere se quei 3ghz sono presi in scioltezza oppure con qualche mod. Però rimane una scheda con i contro caxxi.
L'unica che mi farebbe gola.
Anche se poi guardi il parco giochi disponibile da qui a fine anno e la scimmia scompare come neve al sole.

Thunder-74
09-09-2022, 12:51
Si ma la 4070 la danno in uscita fra almeno 4 mesi e non si sa bene a quanto e quante.
La tuf oc 3090 a 1100euro era una settimana fa venduta e spedita da amazon.
Chi cerca una gpu top adesso, quella era una ottima alternativa.
Poi ovvio, gli enthusiast aspetteranno il 20 settembre come i bambini aspettano natale. Ma dubito fortemente che il 21 settembre ci sarà gli scaffali pieni di 4070 a prezzo msrp. Bisogna vedere se quei 3ghz sono presi in scioltezza oppure con qualche mod. Però rimane una scheda con i contro caxxi.
L'unica che mi farebbe gola.
Anche se poi guardi il parco giochi disponibile da qui a fine anno e la scimmia scompare come neve al sole.


In scioltezza non so, ma avendola messa su un i5, mi vien da pensare che il tipo non sia smanettone , poi tutto può essere


Inviato dal mio iPhone X utilizzando Tapatalk

Ubro92
09-09-2022, 13:00
Dal rumors si precisa che i test sono fatti ad aria, con 30° di TA.
Quindi questi 3ghz potrebbero corrispondere a 1.9ghz delle attuali Ampere.

Thunder-74
09-09-2022, 13:06
Dal rumors si precisa che i test sono fatti ad aria, con 30° di TA.
Quindi questi 3ghz potrebbero corrispondere a 1.9ghz delle attuali Ampere.


Esatto, ottime premesse


Inviato dal mio iPhone X utilizzando Tapatalk

albero77
09-09-2022, 13:09
Si ma la 4070 la danno in uscita fra almeno 4 mesi e non si sa bene a quanto e quante.
La tuf oc 3090 a 1100euro era una settimana fa venduta e spedita da amazon.
Chi cerca una gpu top adesso, quella era una ottima alternativa.
Poi ovvio, gli enthusiast aspetteranno il 20 settembre come i bambini aspettano natale. Ma dubito fortemente che il 21 settembre ci sarà gli scaffali pieni di 4070 a prezzo msrp. Bisogna vedere se quei 3ghz sono presi in scioltezza oppure con qualche mod. Però rimane una scheda con i contro caxxi.
L'unica che mi farebbe gola.
Anche se poi guardi il parco giochi disponibile da qui a fine anno e la scimmia scompare come neve al sole.


Gli unici ad aspettare il paper launch come i bambini aspettano il Natale saranno gli scalper. Quelli mining o non mining ci saranno sempre. Vediamo se a ‘sto giro riescono ad arginare il fenomeno oppure se ne sbattono.

amon.akira
09-09-2022, 13:39
Esatto, ottime premesse


Inviato dal mio iPhone X utilizzando Tapatalk

dice anche che ha un dissi colossale, effettivamente se fosse come quello 3090 ma piu grosso (3.5?) si andrebbe verso i 2 chili e mezzo XD

kiwivda
09-09-2022, 13:56
Mettici anche oltre 2000 euro per le custom della 4090 :)

Si si concordo, ma li ci sono troppe variabili, io ragionavo Founders Edition.

davide155
09-09-2022, 14:08
Gli unici ad aspettare il paper launch come i bambini aspettano il Natale saranno gli scalper. Quelli mining o non mining ci saranno sempre. Vediamo se a ‘sto giro riescono ad arginare il fenomeno oppure se ne sbattono.Fra quelli che aspettano il 20 ci sono anch'io ed una dozzina di matti di questo thread.
Ma non per questo bisogna sdegnare le ampere in offerta adesso :)

mikael84
09-09-2022, 15:23
Se queste saranno le performances, ovvero 4090 2x dalla 3080 e 4080 + 70% dalla 3080, mi "accontento" della 4080. Alla fine sicuramente la 4090 costerà il doppio della 4080. Vediamo ...

La 4080 lato tecnico è molto piccola, ma a livello di performance è tanta roba. Questo PP va relazionato mediamente al salto avuto con Pascal, dove li una 1080 era addirittura da 314mm2.
Alla fine, qua parliamo di dati tecnici puri, ma le perf ci saranno, soprattutto a pari fascia.:)

Se la 4080 dovesse confermare un deficit del 35% la si potrebbe considerare molto valida in rapporto prezzo/prestazioni in quanto la 4090 dovrebbe costare circa il doppio.

Secondo te, vista la suddetta premessa, si potrebbe chiudere un occhio sul fatto che la 4080 non è basata sul chippone ed "accontentarsi" delle semplici prestazioni, oppure aspettare la 4080ti?

Tecnicamente l'occhio non si chiude, ma ci può stare per contenere i costi.
Il 35% medio è preso dalla parità di condizioni simili che troviamo tra 3090 e 3070ti, ma la prima a pari clock va pure oltre, in quanto nelle review la 3090 boosta a 1750. Il 68% di ALU rimane.
Sottolineo però una cosa lato tecnico, la 4090 è a sua volta un cut di oltre 2000 cuda del chippone. Il chippone vero 4090ti, ha quasi 2x i cuda della 4080, e rispetto a questa si posizionerebbe come 3090 vs 3060ti, un abisso.

Riguardo 4080 e 3080, che interessa la fascia, ti lascio due numeri:
3080: 8704 fp32 totali - 1800-1900 di clock -8,7mb di cache l1 - 5mb di cache l2 (2 tb/s banda).
4080: 9728 fp32 totali - 3ghz - 13mb l1 - 64mb l2 (6 tb/s).

E' un abisso. 30 vs 60 tf più le spaventose cache.:)

mikael84
09-09-2022, 15:42
Un pò di Giga 4090

https://cdn.wccftech.com/wp-content/uploads/2022/09/Gigabyte-GeForce-RTX-4090-Graphics-Card-Custom-Models-AORUS-903x688.png

"i rivenditori australiani hanno anche iniziato a elencare la gamma Gigabyte GeForce RTX 4090 con i loro prezzi preliminari che non dovrebbero essere presi come prezzo consigliato o prezzo finale. I rivenditori australiani, PCAOS e Computersperth hanno elencato le carte per prezzi fino a $ 4550 AUD che si convertono in oltre $ 3000 US."

https://wccftech.com/nvidia-geforce-rtx-4090-custom-graphics-cards-from-aorus-gigabyte-listed/


Dal rumors si precisa che i test sono fatti ad aria, con 30° di TA.
Quindi questi 3ghz potrebbero corrispondere a 1.9ghz delle attuali Ampere.

2,6 su un 7nm banale. JHH poteva competere con la 6900xt con la x70.

albero77
09-09-2022, 15:46
Fra quelli che aspettano il 20 ci sono anch'io ed una dozzina di matti di questo thread.
Ma non per questo bisogna sdegnare le ampere in offerta adesso :)

No ma se hai una 3080/3090 adesso non è che vai a fare un upgrade alla 3090ti anche se te la "regalano" a 1300 e rotti euro su amz. Poi vabbè, sempre imho, salvo prezzi davvero fuori di testa saranno ben pochi quelli che riusciranno ad accaparrarsi le nuove schede.

albero77
09-09-2022, 15:50
Un pò di Giga 4090

https://cdn.wccftech.com/wp-content/uploads/2022/09/Gigabyte-GeForce-RTX-4090-Graphics-Card-Custom-Models-AORUS-903x688.png

"i rivenditori australiani hanno anche iniziato a elencare la gamma Gigabyte GeForce RTX 4090 con i loro prezzi preliminari che non dovrebbero essere presi come prezzo consigliato o prezzo finale. I rivenditori australiani, PCAOS e Computersperth hanno elencato le carte per prezzi fino a $ 4550 AUD che si convertono in oltre $ 3000 US."

https://wccftech.com/nvidia-geforce-rtx-4090-custom-graphics-cards-from-aorus-gigabyte-listed/




2,6 su un 7nm banale. JHH poteva competere con la 6900xt con la x70.

Ecco appunto:D

FrancoBit
09-09-2022, 15:51
Un pò di Giga 4090


"i rivenditori australiani hanno anche iniziato a elencare la gamma Gigabyte GeForce RTX 4090 con i loro prezzi preliminari che non dovrebbero essere presi come prezzo consigliato o prezzo finale. I rivenditori australiani, PCAOS e Computersperth hanno elencato le carte per prezzi fino a $ 4550 AUD che si convertono in oltre $ 3000 US."

https://wccftech.com/nvidia-geforce-rtx-4090-custom-graphics-cards-from-aorus-gigabyte-listed/




2,6 su un 7nm banale. JHH poteva competere con la 6900xt con la x70.

Allafacciarucazzzzz... Ehm, da azionista non posso che consigliarne l'acquisto ai più, da appassionato mi sembra che stiamo un attimino sforando dal vaso però... :stordita:

albero77
09-09-2022, 15:53
Allafacciarucazzzzz... Ehm, da azionista non posso che consigliarne l'acquisto ai più, da appassionato mi sembra che stiamo un attimino sforando dal vaso però... :stordita:

La scimmia era rientrata dalle ferie, ma poi ha visto quel prezzo ed è tornata in gabbia:help:

mikael84
09-09-2022, 15:53
Ma non saranno quelli i prezzi finali, quelli li svelerà JHH il 20. Cmq oer certe custom massicce, ci saranno sicuramente salassi.:p

WarSide
09-09-2022, 15:58
I rivenditori australiani, PCAOS e Computersperth hanno elencato le carte per prezzi fino a $ 4550 AUD che si convertono in oltre $ 3000 US."

Ah, solo 3660 euro iva inclusa? Beh, dai, allora la compro sicuro :asd: :asd:

mikael84
09-09-2022, 16:04
Ah, solo 3660 euro iva inclusa? Beh, dai, allora la compro sicuro :asd: :asd:

i rivenditori australiani hanno anche iniziato a elencare la gamma Gigabyte GeForce RTX 4090 con i loro prezzi preliminari che non dovrebbero essere presi come prezzo consigliato o prezzo finale

Il prezzo lo comunica JHH il 20.
Un pò come le mobo dei ryzen, che costerebbero 1500$:)

Ubro92
09-09-2022, 16:05
4090 e 4090ti sono un insulto all'informatica e alla razionalità umana, ma almeno la 4080 sembra tirata bene e ben bilanciato in tutto, certo 4 anni fa avevamo 200watt in quella fascia e non 350watt, comunque tanti.

Rimane poi IL problema, il prezzo...

E' una titan rimarchiata, personalmente lo vedo un chip più indicato per lavorare che per altro.

ninja750
09-09-2022, 16:07
Il prezzo lo comunica JHH il 20.

"..starting from... " (cit. 2020)

mikael84
09-09-2022, 16:13
"..starting from... " (cit. 2020)

Nei drop le ha vendute al prezzo proposto, come Lisa. Le custom bene o male dopo il mining si sono assestate, anche se queste, già di loro avevano MSRP ben più elevate.
Le uniche a pari MSRP, sono state le Manli, le ventus MSI, le Eagle Giga, ovvero la fascia più bassa della serie.

amon.akira
09-09-2022, 16:40
"..starting from... " (cit. 2020)

effettivamente la presi a 713€ la 3080 tuf al dayone, ne presi 3...2 per gli amici :Prrr:

lordsnk
09-09-2022, 17:05
Tecnicamente l'occhio non si chiude, ma ci può stare per contenere i costi.
Il 35% medio è preso dalla parità di condizioni simili che troviamo tra 3090 e 3070ti, ma la prima a pari clock va pure oltre, in quanto nelle review la 3090 boosta a 1750. Il 68% di ALU rimane.
Sottolineo però una cosa lato tecnico, la 4090 è a sua volta un cut di oltre 2000 cuda del chippone. Il chippone vero 4090ti, ha quasi 2x i cuda della 4080, e rispetto a questa si posizionerebbe come 3090 vs 3060ti, un abisso.

Riguardo 4080 e 3080, che interessa la fascia, ti lascio due numeri:
3080: 8704 fp32 totali - 1800-1900 di clock -8,7mb di cache l1 - 5mb di cache l2 (2 tb/s banda).
4080: 9728 fp32 totali - 3ghz - 13mb l1 - 64mb l2 (6 tb/s).

E' un abisso. 30 vs 60 tf più le spaventose cache.:)

Grazie :D

effettivamente la presi a 713€ la 3080 tuf al dayone, ne presi 3...2 per gli amici :Prrr:

Da quale store le hai prese? :D

Havel
09-09-2022, 17:15
amazzone
io sono il 4°... :muro:

davide155
09-09-2022, 20:33
No ma se hai una 3080/3090 adesso non è che vai a fare un upgrade alla 3090ti anche se te la "regalano" a 1300 e rotti euro su amz. Poi vabbè, sempre imho, salvo prezzi davvero fuori di testa saranno ben pochi quelli che riusciranno ad accaparrarsi le nuove schede.

No ma io infatti stavo parlando per chi ADESSO è senza gpu e ne vuole una, come l'utente poco più su, io per ora sono a postissimo, ma se la 4090 avrà un prezzo consono allora ci potrei fare un pensierino. Le ampere di fascia alta vanno benissimo per i prossimi 4 anni al 95% delle persone interessate.

Un pò di Giga 4090

https://cdn.wccftech.com/wp-content/uploads/2022/09/Gigabyte-GeForce-RTX-4090-Graphics-Card-Custom-Models-AORUS-903x688.png

"i rivenditori australiani hanno anche iniziato a elencare la gamma Gigabyte GeForce RTX 4090 con i loro prezzi preliminari che non dovrebbero essere presi come prezzo consigliato o prezzo finale. I rivenditori australiani, PCAOS e Computersperth hanno elencato le carte per prezzi fino a $ 4550 AUD che si convertono in oltre $ 3000 US."

https://wccftech.com/nvidia-geforce-rtx-4090-custom-graphics-cards-from-aorus-gigabyte-listed/




2,6 su un 7nm banale. JHH poteva competere con la 6900xt con la x70.

Il bagno di sangue è servito :D :nera:
Ok non sono prezzi consigliati da nvidia, ma già fa capire la strada che vorrebbero intraprendere.
Se la 4090 supererà i 1800euro per le founders allora per me rimarrà a scaffale.

parcher
09-09-2022, 20:38
invece che nello slot pcie è ottima per inserirsela fra gli incisivi, non importa se superiori o inferiori fa uguale :)

o in alternativa.....

:D



Se la 4090 supererà i 1800euro per le founders allora per me rimarrà a scaffale.

4080 is the way.. ;)

Ubro92
09-09-2022, 20:41
Personalmente mi basterebbe anche una 4060ti a 439€ :sofico:

Maury
09-09-2022, 20:45
Personalmente mi basterebbe anche una 4060ti a 439€ :sofico:

Anche a me :D

fraussantin
09-09-2022, 21:11
Secondo ma starà sui 800 euro confronto alle 3000 almeno.Ma nooo.

Secondo me viste le info a 360 gradi ( slot tsmc, chip ristretti, concorrenza agguerrita , mining fermo ) non saranno tanto diversi da Ampere.
Almeno i prezzi di listino.

mikael84
09-09-2022, 21:38
Personalmente mi basterebbe anche una 4060ti a 439€ :sofico:

Anche a me :D

3ghz x 6144 ipotetici, sono 37TF + IPC. Una 3080 liscia sta a 33@1900.
Certo, poi c'è tutto il contorno, come bus, eventuali rop's 2x, ma un chip del genere, a meno di lanciarlo a 128bit, non sarebbe per niente male.

devAngnew
09-09-2022, 21:52
Ma nooo.

Secondo me viste le info a 360 gradi ( slot tsmc, chip ristretti, concorrenza agguerrita , mining fermo ) non saranno tanto diversi da Ampere.
Almeno i prezzi di listino.

:O to, che con la crisi mondiale e gli stipendi al palo JHH con quei prezzi rischirebbe di brutto.
Ovviamente quei prezzi sono solo dei place-order :sofico:

terranux
09-09-2022, 22:55
secondo me sono questi i prezzi. sennò le 3000 stanno lì ferme

Thunder-74
10-09-2022, 08:12
Prezzi pompatissimi proposti a catalogo dai negozi , quando ancora un prodotto deve essere lanciato, lo abbiamo sempre visto. È una sorta di prezzo cautelativo : sostanzialmente voglio mettere a catalogo per fare preorder, ma non conoscendo il prezzo mi tengo alto, poi ad abbassarlo in prossimità della data di approvvigionamento si fa sempre tempo.

Altri rumors

NVIDIA prepara GPU Ada più piccole


Secondo Kopite, sia AD106 che AD107 avranno 8 corsie, molto probabilmente dello standard Gen5. Se AD106 dovesse essere utilizzato per la serie RTX 4060, sarebbe la stessa larghezza di banda di Gen4 x16 su RTX 3060. L'unico scenario in cui questo dovrebbe essere considerato un downgrade è quando il sistema non supporta Gen5. In tal caso, la larghezza di banda passerà da 32 GT/s a 16 GT/s. Tuttavia, ciò dovrebbe comunque avere un piccolo impatto sulle prestazioni.

Secondo quanto riferito, l'AD107 supporterebbe solo 8 corsie, presumibilmente Gen5. Se è vero, allora questo dovrebbe essere considerato un aggiornamento per la grafica di livello più basso di NVIDIA, che viene utilizzata principalmente per i dispositivi mobili. L'attuale modello (GA107) è già limitato a 8 corsie.

Se si devono credere alle voci, né AD106 né AD107 verranno lanciati quest'anno. NVIDIA sta attualmente lavorando su GPU AD102, AD103 e AD104 che verranno lanciate nei prossimi mesi. Kopite sta anche menzionando che le prestazioni dell'AD106 sono ora stimate a 7000 punti in 3DMark Time Spy Extreme, che nelle sue parole "non è molto forte". Tuttavia, questo è ancora nel territorio delle prestazioni della serie RTX 3070.

https://videocardz.com/newz/nvidia-geforce-rtx-40-ad106-and-ad107-gpus-to-feature-8-pcie-lanes

Inviato dal mio iPad utilizzando Tapatalk

Maury
10-09-2022, 08:31
3ghz x 6144 ipotetici, sono 37TF + IPC. Una 3080 liscia sta a 33@1900.
Certo, poi c'è tutto il contorno, come bus, eventuali rop's 2x, ma un chip del genere, a meno di lanciarlo a 128bit, non sarebbe per niente male.

Avrebbe margine per prendere anche la TI, sinceramente a me andrebbe benissimo :)

Ubro92
10-09-2022, 09:37
Avrebbe margine per prendere anche la TI, sinceramente a me andrebbe benissimo :)

Anche con un taglio a 160bit rimarrebbe molto competitiva, solo che dubito la vedremo entro fine anno.

Penso che Nvidia in questa prima fase lanci prima 4090 e 4080, e se siamo fortunati 4070.

mikael84
10-09-2022, 11:46
Prezzi pompatissimi proposti a catalogo dai negozi , quando ancora un prodotto deve essere lanciato, lo abbiamo sempre visto. È una sorta di prezzo cautelativo : sostanzialmente voglio mettere a catalogo per fare preorder, ma non conoscendo il prezzo mi tengo alto, poi ad abbassarlo in prossimità della data di approvvigionamento si fa sempre tempo.

Altri rumors

NVIDIA prepara GPU Ada più piccole


Secondo Kopite, sia AD106 che AD107 avranno 8 corsie, molto probabilmente dello standard Gen5. Se AD106 dovesse essere utilizzato per la serie RTX 4060, sarebbe la stessa larghezza di banda di Gen4 x16 su RTX 3060. L'unico scenario in cui questo dovrebbe essere considerato un downgrade è quando il sistema non supporta Gen5. In tal caso, la larghezza di banda passerà da 32 GT/s a 16 GT/s. Tuttavia, ciò dovrebbe comunque avere un piccolo impatto sulle prestazioni.

Secondo quanto riferito, l'AD107 supporterebbe solo 8 corsie, presumibilmente Gen5. Se è vero, allora questo dovrebbe essere considerato un aggiornamento per la grafica di livello più basso di NVIDIA, che viene utilizzata principalmente per i dispositivi mobili. L'attuale modello (GA107) è già limitato a 8 corsie.

Se si devono credere alle voci, né AD106 né AD107 verranno lanciati quest'anno. NVIDIA sta attualmente lavorando su GPU AD102, AD103 e AD104 che verranno lanciate nei prossimi mesi. Kopite sta anche menzionando che le prestazioni dell'AD106 sono ora stimate a 7000 punti in 3DMark Time Spy Extreme, che nelle sue parole "non è molto forte". Tuttavia, questo è ancora nel territorio delle prestazioni della serie RTX 3070.

https://videocardz.com/newz/nvidia-geforce-rtx-40-ad106-and-ad107-gpus-to-feature-8-pcie-lanes

Inviato dal mio iPad utilizzando Tapatalk

La 4060 userà un misero 128 bit g6, se va bene con le 18g, arriva a 288 gb/s con 32mb di cache.
In calcolo teorico è più potente di una 3070ti a 3ghz, ma è troppo piccola in tutti gli altri stadi.
C'è anche da dire che il bus castrato ad 8x potrebbe influire abbastanza sul risultato finale di un bench 4k.


Avrebbe margine per prendere anche la TI, sinceramente a me andrebbe benissimo :)

Penso che la tarerà simil 3080 bene o male. Potrebbe competere anche con navi33 di AMD.

Telstar
10-09-2022, 11:55
Penso che Nvidia in questa prima fase lanci prima 4090 e 4080, e se siamo fortunati 4070.

Nulla ci vieta di aspettare però. La 4080 liscia sembra parecchio deludente. A me serve +50% in RT rispetto alla 3090ti.

lordsnk
10-09-2022, 12:17
Nulla ci vieta di aspettare però. La 4080 liscia sembra parecchio deludente. A me serve +50% in RT rispetto alla 3090ti.

Al momento sul RT non sappiamo niente, quindi tutto è possibile :D

devAngnew
10-09-2022, 14:43
Nulla ci vieta di aspettare però. La 4080 liscia sembra parecchio deludente. A me serve +50% in RT rispetto alla 3090ti.

Lo spero, anche se credo questa gen sia solo un aumento di clock e cache.
Non sò se postato ma stanno vendendo 3080 da 20GB a un max di 576 dollari e qui vogliono ancora un sacco di soldi :muro:. link (https://www-tomshw-it.cdn.ampproject.org/v/s/www.tomshw.it/hardware/geforce-rtx-3080-20gb-avvistata-in-vendita/?amp=1&amp_gsa=1&amp_js_v=a9&usqp=mq331AQIKAGwASCAAgM%3D#amp_tf=Da%20%251%24s&aoh=16628156472575&csi=0&referrer=https%3A%2F%2Fwww.google.com&ampshare=https%3A%2F%2Fwww.tomshw.it%2Fhardware%2Fgeforce-rtx-3080-20gb-avvistata-in-vendita%2F[)

Ubro92
10-09-2022, 15:48
Nulla ci vieta di aspettare però. La 4080 liscia sembra parecchio deludente. A me serve +50% in RT rispetto alla 3090ti.

Dipende, io sono arenato con una 980ti su un pannello 3440x1440, i titoli che avevo da recuperare e che sono ancora gestibili li ho quasi finiti tutti, restano i mattonazzi :fagiano:

La 4080 personalmente mi sembra un ottimo chip, rispetto la 3080 liscia dovrebbe avere un +60/70% di prestazioni e passare da 10 a 16GB di vram.

Lato RT sicuramente ci saranno miglioramenti considerando l'enorme cache di lovelace, ma non mi aspetto stravolgimenti a pari potenza, cioè non credo che tra una 3090 e 4070 ci sia chissà che differnza in RT.

Poi ovvio, per chi vuole un salto ancora più marcato, gli tocca attendere quanto meno l'arrivo della 4080ti, a meno di non fiondarsi da subito sulla 4090.

ste-87
10-09-2022, 16:06
Dipende, io sono arenato con una 980ti su un pannello 3440x1440, i titoli che avevo da recuperare e che sono ancora gestibili li ho quasi finiti tutti, restano i mattonazzi :fagiano:

La 4080 personalmente mi sembra un ottimo chip, rispetto la 3080 liscia dovrebbe avere un +60/70% di prestazioni e passare da 10 a 16GB di vram.

Lato RT sicuramente ci saranno miglioramenti considerando l'enorme cache di lovelace, ma non mi aspetto stravolgimenti a pari potenza, cioè non credo che tra una 3090 e 4070 ci sia chissà che differnza in RT.

Poi ovvio, per chi vuole un salto ancora più marcato, gli tocca attendere quanto meno l'arrivo della 4080ti, a meno di non fiondarsi da subito sulla 4090.

sono nella tua stessa identica situazione ma con una 1080Ti, secondo come se si conferma il +60/+70% dalla 3080 forse è già anche "troppo" per un 3440x1440 a 100-120Hz e volendo si può ripiegare anche una una 4070-4070Ti...vediamo con che prezzi le tiran fuori queste 4xxx

Telstar
10-09-2022, 17:06
Poi ovvio, per chi vuole un salto ancora più marcato, gli tocca attendere quanto meno l'arrivo della 4080ti, a meno di non fiondarsi da subito sulla 4090.

Per me è fuori budget. Piuttosto investo 7-800 in un 12700k con relativa mobo.

Thunder-74
10-09-2022, 17:42
PCI-SIG indaga se gli adattatori per cavi PCIe Gen5 "12VHPWR" rappresentano un rischio di sovracorrente

Un articolo sui potenziali problemi dell'adattatore 12VHPWR è stato pubblicato da Wccftech . Il sito è riuscito a ottenere un'e-mail dall'organizzazione PCI-SIG ai suoi membri, suscitando preoccupazione per la qualità degli adattatori del cavo di alimentazione per il connettore 12VHPWR.

La serie RTX 40 avrà bisogno di più potenza, almeno i modelli di fascia alta lo faranno. L'RTX 4090 ha un TGP predefinito di 450 W con una potenza ancora maggiore per i modelli personalizzati. Per tale TGP, sono necessari tre cavi di alimentazione a 8 pin e anche la minima regolazione del TGP significa che vengono superate le specifiche di alimentazione di 3 × 150 W.

PCI-SIG ha informato il suo membro che l'organizzazione è a conoscenza della potenziale varianza termica per gli adattatori 12VHPWR. L'organizzazione sta attualmente esaminando le segnalazioni di potenziale rischio di sovracorrente quando si utilizzano tali adattatori.

Il problema è stato spiegato da Wccftech che ha impostato un test con due adattatori di alimentazione a 8 pin e tripli a 8 pin utilizzati rispettivamente per un carico di 600 W e 450 W. Per il doppio adattatore a 8 pin, il carico era uniforme, ma ha superato la potenza nominale di 150 W di una magnitudine di 2. Per l'adattatore a triplo 8 pin (lo stesso fornito con RTX 3090Ti) la potenza non è stata distribuita proporzionalmente, e ha superato l'assorbimento di corrente dell'88% per il primo connettore a 8 pin.

Va notato, tuttavia, che gli alimentatori ATX 3.0 non sono tenuti a presentare il connettore Gen5, nemmeno quelli sopra i 450W. Ciò è stato confermato da HardwareBusters . Ciò significa che gli adattatori 12VHPWR potrebbero essere ancora necessari per le forniture ATX 3.0, se per qualsiasi motivo le aziende di alimentatori non volessero dotare i loro prodotti del nuovo connettore.

Mentre PCI-SIG studia la varianza termica per gli adattatori esistenti, si consiglia agli utenti di considerare gli alimentatori ATX 3.0 con il moderno connettore PCIe Gen5 12VHPWR implementati in modo nativo, poiché qui non si osserva alcuna variazione termica. L'organizzazione rilascerà presto un rapporto sul problema, possibilmente prima che NVIDIA lanci le sue nuove GPU. Si spera che anche questo venga studiato a fondo dai revisori tecnici in anticipo.

https://videocardz.com/newz/pci-sig-concerned-about-potential-thermal-variance-with-12vhpwr-pcie-gen5-power-cable-adapters


Il timore che avevo sugli adattatori, ovvero che il carico non fosse uniforme sui vari cavi.
A questo punto spero che le custom siano con vecchi connettori 8 pin, altrimenti per stare sicuri bisogna andare di connettore 16pin nativo . Vedremo cosa succederà .

Inviato dal mio iPad utilizzando Tapatalk

Thunder-74
10-09-2022, 18:24
Tienici informati :)


;)


Inviato dal mio iPad utilizzando Tapatalk

mikael84
10-09-2022, 18:27
PCI-SIG indaga se gli adattatori per cavi PCIe Gen5 "12VHPWR" rappresentano un rischio di sovracorrente

Un articolo sui potenziali problemi dell'adattatore 12VHPWR è stato pubblicato da Wccftech . Il sito è riuscito a ottenere un'e-mail dall'organizzazione PCI-SIG ai suoi membri, suscitando preoccupazione per la qualità degli adattatori del cavo di alimentazione per il connettore 12VHPWR.

La serie RTX 40 avrà bisogno di più potenza, almeno i modelli di fascia alta lo faranno. L'RTX 4090 ha un TGP predefinito di 450 W con una potenza ancora maggiore per i modelli personalizzati. Per tale TGP, sono necessari tre cavi di alimentazione a 8 pin e anche la minima regolazione del TGP significa che vengono superate le specifiche di alimentazione di 3 × 150 W.

PCI-SIG ha informato il suo membro che l'organizzazione è a conoscenza della potenziale varianza termica per gli adattatori 12VHPWR. L'organizzazione sta attualmente esaminando le segnalazioni di potenziale rischio di sovracorrente quando si utilizzano tali adattatori.

Il problema è stato spiegato da Wccftech che ha impostato un test con due adattatori di alimentazione a 8 pin e tripli a 8 pin utilizzati rispettivamente per un carico di 600 W e 450 W. Per il doppio adattatore a 8 pin, il carico era uniforme, ma ha superato la potenza nominale di 150 W di una magnitudine di 2. Per l'adattatore a triplo 8 pin (lo stesso fornito con RTX 3090Ti) la potenza non è stata distribuita proporzionalmente, e ha superato l'assorbimento di corrente dell'88% per il primo connettore a 8 pin.

Va notato, tuttavia, che gli alimentatori ATX 3.0 non sono tenuti a presentare il connettore Gen5, nemmeno quelli sopra i 450W. Ciò è stato confermato da HardwareBusters . Ciò significa che gli adattatori 12VHPWR potrebbero essere ancora necessari per le forniture ATX 3.0, se per qualsiasi motivo le aziende di alimentatori non volessero dotare i loro prodotti del nuovo connettore.

Mentre PCI-SIG studia la varianza termica per gli adattatori esistenti, si consiglia agli utenti di considerare gli alimentatori ATX 3.0 con il moderno connettore PCIe Gen5 12VHPWR implementati in modo nativo, poiché qui non si osserva alcuna variazione termica. L'organizzazione rilascerà presto un rapporto sul problema, possibilmente prima che NVIDIA lanci le sue nuove GPU. Si spera che anche questo venga studiato a fondo dai revisori tecnici in anticipo.

https://videocardz.com/newz/pci-sig-concerned-about-potential-thermal-variance-with-12vhpwr-pcie-gen5-power-cable-adapters


Il timore che avevo sugli adattatori, ovvero che il carico non fosse uniforme sui vari cavi.
A questo punto spero che le custom siano con vecchi connettori 8 pin, altrimenti per stare sicuri bisogna andare di connettore 16pin nativo . Vedremo cosa succederà .

Inviato dal mio iPad utilizzando Tapatalk

Tutto terrorismo inutile.
Avere 3x8 pin nativi o ad adattatore cambia nulla, conta la ripartizione della corrente della GPU. Lo stesso può avvenire su un 3x8 classico, ma anche 2x8
La 3090 ha modelli custom più esosi della 3090ti.
La FE 3090ti addirittura non ha PL.
La 3090 FE è tarata per due connettori.
https://tpucdn.com/review/nvidia-geforce-rtx-3090-ti-founders-edition/images/power-spikes.png

Thunder-74
10-09-2022, 19:17
Tutto terrorismo inutile.
Avere 3x8 pin nativi o ad adattatore cambia nulla, conta la ripartizione della corrente della GPU. Lo stesso può avvenire su un 3x8 classico, ma anche 2x8
La 3090 ha modelli custom più esosi della 3090ti.
La FE 3090ti addirittura non ha PL.
La 3090 FE è tarata per due connettori.
https://tpucdn.com/review/nvidia-geforce-rtx-3090-ti-founders-edition/images/power-spikes.png


Aspetta mike, un conto attingere dai cavi collegati direttamente ai singoli connettori 8pin della vga, dove la ripartizione viene gestita dalla scheda, un conto avere un adattatore che unisce più cavi collegati al connettore da 16 delle vga. In questo caso chi è che gestisce il carico sui vari cavi? È possibile che ci sia uno che sia più sovraccarico rispetto agli altri.
Mi auguro che tu abbia ragione e che sia solo terrorismo.


Inviato dal mio iPad utilizzando Tapatalk

WarSide
10-09-2022, 19:32
Penso che la questione sia solo termica. Un adattatore con saldature fatte male o cavi di sezione non adeguata possono portare a problemi di alimentazione o, nel peggiore dei casi, incendio.

Thunder-74
10-09-2022, 19:35
Penso che la questione sia solo termica. Un adattatore con saldature fatte male o cavi di sezione non adeguata possono portare a problemi di alimentazione o, nel peggiore dei casi, incendio.

sicuro, questo è emerso dai testi con i carchi da 600w su due connettori (auspicabile) e con carico da 450w su tre cavi, dove sul primo cavo sono stati assorbiti 282w e una miseria sugli altri 2...

Connettore 12VHPWR per adattatore 2 x 8 pin con carico di prova da 600 W:

1 connettore a 8 pin = 25,4 A o 304,8 W (aumento di 2 volte oltre 150 W nominale)
1 connettore a 8 pin = 25,1 A o 301,2 W (aumento di 2 volte oltre 150 W nominale)

Connettore 12VHPWR a adattatore 3 x 8 pin con carico di prova da 450 W:

1 x connettore a 8 pin = 25,34 A o 282,4 W (aumento dell'88% oltre 150 W nominale)
1 connettore a 8 pin = 7,9 A o 94,8 W (entro 150 W di potenza nominale)
1 connettore a 8 pin = 6,41 o 76,92 W (entro 150 W di potenza nominale)


il primo test mi pare assurdo averlo fatto, se non per mostrare che in questo modo si va a "chiedere" il doppio dal connettore 8pin e che la richiesta è ben bilanciata, ma sarebbe comunque da matti alimentare una scheda da 650W con due connettori; il secondo mi lascia più riflettere perchè potrebbe essere uno scenario reale. Se il cavo non fosse di qualità, sarebbero guai.

mikael84
10-09-2022, 21:30
sicuro, questo è emerso dai testi con i carchi da 600w su due connettori (auspicabile) e con carico da 450w su tre cavi, dove sul primo cavo sono stati assorbiti 282w e una miseria sugli altri 2...

Connettore 12VHPWR per adattatore 2 x 8 pin con carico di prova da 600 W:

1 connettore a 8 pin = 25,4 A o 304,8 W (aumento di 2 volte oltre 150 W nominale)
1 connettore a 8 pin = 25,1 A o 301,2 W (aumento di 2 volte oltre 150 W nominale)

Connettore 12VHPWR a adattatore 3 x 8 pin con carico di prova da 450 W:

1 x connettore a 8 pin = 25,34 A o 282,4 W (aumento dell'88% oltre 150 W nominale)
1 connettore a 8 pin = 7,9 A o 94,8 W (entro 150 W di potenza nominale)
1 connettore a 8 pin = 6,41 o 76,92 W (entro 150 W di potenza nominale)


il primo test mi pare assurdo averlo fatto, se non per mostrare che in questo modo si va a "chiedere" il doppio dal connettore 8pin e che la richiesta è ben bilanciata, ma sarebbe comunque da matti alimentare una scheda da 650W con due connettori; il secondo mi lascia più riflettere perchè potrebbe essere uno scenario reale. Se il cavo non fosse di qualità, sarebbero guai.

Non so che test siano, ma io vedo la 3090ti egregiamente ripartita con quel cavo.
Per abilitare i 600watt serve il 4x8 pin del cavo, non il 3x8.
https://i.postimg.cc/cCwk9TD1/3090ti.png

Come possono darti una scheda da 600 watt con un 3x8 pin.:sofico:

La questione adattatori è vero, ma considera che è un grosso adapter tutto AWG16, roba che solo pochi ali possiedono, non sono certo cavetti da nulla.

AWG16 o cavo nativo è praticamente uguale.
Nativo: 6 x 8,3A x12 = 600watt
8 pin AWG16 : 3 x 8,3 x 12 = 300 watt, x 2 cavi 600.


Quella ripartizione è no sense.:)

caccapupu91
10-09-2022, 21:59
quel 11.3v, pietà per questi poveri alimentatori D:

Thunder-74
10-09-2022, 22:53
Non so che test siano, ma io vedo la 3090ti egregiamente ripartita con quel cavo.
Per abilitare i 600watt serve il 4x8 pin del cavo, non il 3x8.
https://i.postimg.cc/cCwk9TD1/3090ti.png

Come possono darti una scheda da 600 watt con un 3x8 pin.:sofico:

La questione adattatori è vero, ma considera che è un grosso adapter tutto AWG16, roba che solo pochi ali possiedono, non sono certo cavetti da nulla.

AWG16 o cavo nativo è praticamente uguale.
Nativo: 6 x 8,3A x12 = 600watt
8 pin AWG16 : 3 x 8,3 x 12 = 300 watt, x 2 cavi 600.


Quella ripartizione è no sense.:)


Per capire Mike, gpuz vede l assorbimento lato scheda video, quindi sarebbe lecito che riportasse un solo connettore con intero assorbiremo, dato che la 3090ti ha il 16pin. O dici poche l assorbimento è gestito suddividendo in tre le fasi?


Inviato dal mio iPad utilizzando Tapatalk

fraussantin
10-09-2022, 22:55
quel 11.3v, pietà per questi poveri alimentatori D:Potrebbe essere un errore del sensore sulla gpu , perche sul pcie segna 12.1 .

Va anche detto che è impostato sul valore max

caccapupu91
10-09-2022, 23:34
@fraussantin

PCIe Slot Power/Voltage, non è la mobo che da corrente alla scheda? ò.o

fraussantin
10-09-2022, 23:35
@fraussantin



PCIe Slot Power/Voltage, non è la mobo che da corrente alla scheda? ò.oSi infatti ,ma la mobo la prende dall'alimentatore gia trasformata credo.(almeno il 12v)
Ora considerato che gli alimentatori economici dovrebbero avere un unica rail a 12v mi pare strano che droppi solo sulla gpu

WarSide
10-09-2022, 23:47
Si infatti ,ma la mobo la prende dall'alimentatore gia trasformata credo.(almeno il 12v)
Ora considerato che gli alimentatori economici dovrebbero avere un unica rail a 12v mi pare strano che droppi solo sulla gpu

In realtà tutti gli alimentatori migliori adesso sono monorail, mentre quelli più economici vanno al risparmio ed hanno più rail.

mikael84
11-09-2022, 00:22
quel 11.3v, pietà per questi poveri alimentatori D:

E' un ALI da test che ha 10 anni.:p

Per capire Mike, gpuz vede l assorbimento lato scheda video, quindi sarebbe lecito che riportasse un solo connettore con intero assorbiremo, dato che la 3090ti ha il 16pin. O dici poche l assorbimento è gestito suddividendo in tre le fasi?


Inviato dal mio iPad utilizzando Tapatalk

Non cambia niente Thunder, lo standard è AWG20, quindi cavo nativo, adattatori o cavi classici 3x8 pin siamo sempre li.
Aumentando il consumo, aumentano le fasi ed i VRM per le GPU.

Ad esempio, la tua GPU ha 3 VRM che pilotano e suddividono le fasi per GPU, pci e, e vram.
La 3090ti strix, aumenta le fasi a 28 e collega ben 5 VRM che si occupano di ripartire le fasi ai 3x8 pin (o cavo nativo).

La scheda su TPU l'hanno testata con un ALI di fine 2017 da 850 watt seasonic.:)

lordsnk
11-09-2022, 07:31
Ma se uno ha cavi separati dei 8 pin, ne potrei avere anche 4 con l'ali di ora anche se l'ho comprato nuovo non ho l'atx 3.0 purtroppo, vanno bene?

Certamente basta che tu non abbia un Lux o un Mars Gaming come alimentatore :D

WarSide
11-09-2022, 11:31
Il lux l'avevo sentito via internet come sono :D cmq ho il thor 1 della asus :)

Beh, direi che puoi stare tranquillo :)

lordsnk
11-09-2022, 12:00
Il lux l'avevo sentito via internet come sono :D cmq ho il thor 1 della asus :)


Si puoi stare tranquillo che hanno come main feature i fuochi pirotecnici in casa :sofico:

amon.akira
11-09-2022, 12:50
GeForce RTX 3060 8GB and RTX 3060 Ti with GDDR6X memory to launch ‘end of October’ (https://videocardz.com/newz/geforce-rtx-3060-8gb-and-rtx-3060-ti-with-gddr6x-memory-to-launch-end-of-october)

sta cosa mi fa pensare a un lancio della 4000 molto ma molto dilatato nei tempi...le 4060 a sto punto quando usciranno aprile almeno

Ubro92
11-09-2022, 14:57
GeForce RTX 3060 8GB and RTX 3060 Ti with GDDR6X memory to launch ‘end of October’ (https://videocardz.com/newz/geforce-rtx-3060-8gb-and-rtx-3060-ti-with-gddr6x-memory-to-launch-end-of-october)

sta cosa mi fa pensare a un lancio della 4000 molto ma molto dilatato nei tempi...le 4060 a sto punto quando usciranno aprile almeno

Penso siano varianti di riciclo da dare impasto agli OEM

mikael84
11-09-2022, 15:09
Penso siano varianti di riciclo da dare impasto agli OEM

Esatto.

GeForce RTX 3060 8GB and RTX 3060 Ti with GDDR6X memory to launch ‘end of October’ (https://videocardz.com/newz/geforce-rtx-3060-8gb-and-rtx-3060-ti-with-gddr6x-memory-to-launch-end-of-october)

sta cosa mi fa pensare a un lancio della 4000 molto ma molto dilatato nei tempi...le 4060 a sto punto quando usciranno aprile almeno

Così riporta wccftech:
"Si dice che NVIDIA concentrerà queste schede principalmente sugli OEM e offrirà enormi sconti ai produttori di PC per schede grafiche aggiornate nel tentativo di ripulire l'inventario GPU Ampere esistente. "

E' un modo per cercare di finire le scorte prima, anche declassando i chip buoni.

La 4060 cmq, è prevista più avanti. Forse sapremmo qualcosa al CES di gennaio.
La x60 generalmente debutta sempre più avanti, generalmente dopo 3 mesi.:)

lordsnk
11-09-2022, 16:47
Grazie :)




Però se sapevo che uscivano gli atx 3.0 con thor 2 un mese dopo forse avrei aspettato. Anche se magari sarebbero stati introvabili :) e costati 100 euro di più.

Non ci pensare. Gli alimentatori che abbiamo vanno bene anche se siamo costretti ad usare 4 cavi.
Io ho recentemente preso un Corsair SFX 750W Platinum e non mi preoccupo di questa storia.
Al max si comprerà un buon adattatore, ma non come questo (https://www.tiktok.com/@stefanocomputacion/video/7141067464112229638?is_from_webapp=v1&item_id=7141067464112229638&lang=en) :eek: :D

DVD2005
11-09-2022, 16:55
Non ci pensare. Gli alimentatori che abbiamo vanno bene anche se siamo costretti ad usare 4 cavi.
Io ho recentemente preso un Corsair SFX 750W Platinum e non mi preoccupo di questa storia.
Al max si comprerà un buon adattatore, ma non come questo (https://www.tiktok.com/@stefanocomputacion/video/7141067464112229638?is_from_webapp=v1&item_id=7141067464112229638&lang=en) :eek: :D

:D :D

fraussantin
12-09-2022, 06:38
Non ci pensare. Gli alimentatori che abbiamo vanno bene anche se siamo costretti ad usare 4 cavi.

Io ho recentemente preso un Corsair SFX 750W Platinum e non mi preoccupo di questa storia.

Al max si comprerà un buon adattatore, ma non come questo (https://www.tiktok.com/@stefanocomputacion/video/7141067464112229638?is_from_webapp=v1&item_id=7141067464112229638&lang=en) :eek: :DAnche perche se non andassero bene sarebbe un fail totale.

Probabile che l'adattatore sia già incluso nella scheda.

La 3090ti lo aveva?

davide155
12-09-2022, 08:44
Non so che test siano, ma io vedo la 3090ti egregiamente ripartita con quel cavo.

Per abilitare i 600watt serve il 4x8 pin del cavo, non il 3x8.

https://i.postimg.cc/cCwk9TD1/3090ti.png



Come possono darti una scheda da 600 watt con un 3x8 pin.:sofico:



La questione adattatori è vero, ma considera che è un grosso adapter tutto AWG16, roba che solo pochi ali possiedono, non sono certo cavetti da nulla.



AWG16 o cavo nativo è praticamente uguale.

Nativo: 6 x 8,3A x12 = 600watt

8 pin AWG16 : 3 x 8,3 x 12 = 300 watt, x 2 cavi 600.





Quella ripartizione è no sense.:)

Però chi gestisce la richiesta di corrente, anche nel caso del 4x8 pin con adattatore unico sulla gpu?
Chi gestisce quanta e da dove farla passare? L'alimentatore dovrebbe?
Perché quel test mi sembra alquanto allarmante. 300w su un connettore che ne può reggere solo 150 non mi sembra da sottovalutare. No?

ROBHANAMICI
12-09-2022, 09:13
Mi pare di capire che il sovraccarico di tensione dovrebbe interessare le gpu rtx 4xxx dalla 4090 (con un TBP di 450w) in su (in situazioni estreme), mentre per chi dovesse acquistare una 4080 (con TBP di 340w, sempre che siano confermati) o una 4070 (con TBP di 285w) non ci dovrebbero essere grandi problemi o sbaglio?

Anche considerando il fatto che ad esempio una asus tuf 3080ti con board power limit di 350w (e limit 375w) con 2 connettori da 8 pin (per un totale di 300w) sulla base di tale ragionamento, lavorerebbe con sovraccarico di tensione di 50/75w, quindi con sovraccarichi così limitati non ci dovrebbero essere grandi problemi, anche se poi questo è gestito dallo slot pci-e. Poi, chiaramente, immagino che questi test siano stati fatti su una "fe" e bisognerà vedere quando usciranno le varie custom.

Secondo me, poi, bisognerà anche ragionare in termini di pl massimo consentito, tagli di frequenze, temperature, etc, che dovrebbero abbassare le richieste di alimentazione in determinate situazioni (stress test, gaming).

lordsnk
12-09-2022, 10:28
Però chi gestisce la richiesta di corrente, anche nel caso del 4x8 pin con adattatore unico sulla gpu?
Chi gestisce quanta e da dove farla passare? L'alimentatore dovrebbe?
Perché quel test mi sembra alquanto allarmante. 300w su un connettore che ne può reggere solo 150 non mi sembra da sottovalutare. No?

La richiesta di corrente è gestita dall'alimentatore, ecco perché per le 4000 fascia alta è molto importante avere un alimentatore BUONO :D
Inoltre, per chi le usa le prolunghe ed adattatori, questi accessori dovranno essere anch'essi di ottima fattura.
Infine vi ricordo che, in caso di alimentatori modulari, di NON utilizzare i cavi di altri aziende perché anche se sono simili di fatto non sono uguali.
Quindi se avete un alimentatore modulare, per esempio EVGA, non potete installarci i cavi sleveed della Corsair, ma vanno installate le prolunghe sleeved. ;)

nessuno29
12-09-2022, 11:12
Io non farei troppo allarmismo un alimentatore di qualità sarà sufficiente come lo è stato sufficiente da quando esiste il pc.

ROBHANAMICI
12-09-2022, 11:14
Bisogna vedere pure che psu è stato usato (e la qualità dei cavi usati come dicevate), magari parliamo di un alimentatore con wattaggio inferiore ai 1000w e da qui la distribuzione di carico di tensione non proporzionata.

Io non farei troppo allarmismo un alimentatore di qualità sarà sufficiente come lo è stato sufficiente da quando esiste il pc.


Si infatti

mikael84
12-09-2022, 11:43
Anche perche se non andassero bene sarebbe un fail totale.

Probabile che l'adattatore sia già incluso nella scheda.

La 3090ti lo aveva?

Certo che l'aveva.

Però chi gestisce la richiesta di corrente, anche nel caso del 4x8 pin con adattatore unico sulla gpu?
Chi gestisce quanta e da dove farla passare? L'alimentatore dovrebbe?
Perché quel test mi sembra alquanto allarmante. 300w su un connettore che ne può reggere solo 150 non mi sembra da sottovalutare. No?

Quel test lascia il tempo che trova, come ho mostrato i VRM della GPU ripartiscono perfettamente a tutti i connettori.;)
Quando metteranno il cavo da 4x8 pin, i VRM piloteranno il carico sui 4 connettori, quindi anzichè leggere 3 valori, ne leggerai 4.

I VRM tarano la corrente grazie al controllo di alcune fasi dedicate.
Il procedimento, che sia 1 cavo o 4 cavi cambia nulla.:)

scorpion73
12-09-2022, 12:50
Mi pare di capire che il sovraccarico di tensione dovrebbe interessare le gpu rtx 4xxx dalla 4090 (con un TBP di 450w) in su (in situazioni estreme), mentre per chi dovesse acquistare una 4080 (con TBP di 340w, sempre che siano confermati) o una 4070 (con TBP di 285w) non ci dovrebbero essere grandi problemi o sbaglio?

Anche considerando il fatto che ad esempio una asus tuf 3080ti con board power limit di 350w (e limit 375w) con 2 connettori da 8 pin (per un totale di 300w) sulla base di tale ragionamento, lavorerebbe con sovraccarico di tensione di 50/75w, quindi con sovraccarichi così limitati non ci dovrebbero essere grandi problemi, anche se poi questo è gestito dallo slot pci-e. Poi, chiaramente, immagino che questi test siano stati fatti su una "fe" e bisognerà vedere quando usciranno le varie custom.

Secondo me, poi, bisognerà anche ragionare in termini di pl massimo consentito, tagli di frequenze, temperature, etc, che dovrebbero abbassare le richieste di alimentazione in determinate situazioni (stress test, gaming).


Scusa perché mi parli di sovraccarico?
Con 350W avresti 150W su ognuno dei due connettori e 50W sul PCI Express, che arriva se non erro a 65W (o 75W non ricordo), quindi tutto in linea con i massimali. Che poi i 150W sono il limite conservativo per evitare danni con cavi di qualità non eccelsa AWG20, che spesso sono contenuti negli alimentatori economici, perché il singolo connettore da 8 pin se non erro arriva ad un massimale teorico di 228W.
Il sovraccarico ce l'hai se vai in overclock pesante, perché mi parli di leggero sovraccarico in condizioni normali?

fraussantin
12-09-2022, 13:18
Certo che l'aveva.

)

Ecco quindi è un non problema.

ROBHANAMICI
12-09-2022, 13:52
Scusa perché mi parli di sovraccarico?
Con 350W avresti 150W su ognuno dei due connettori e 50W sul PCI Express, che arriva se non erro a 65W (o 75W non ricordo), quindi tutto in linea con i massimali. Che poi i 150W sono il limite conservativo per evitare danni con cavi di qualità non eccelsa AWG20, che spesso sono contenuti negli alimentatori economici, perché il singolo connettore da 8 pin se non erro arriva ad un massimale teorico di 228W.
Il sovraccarico ce l'hai se vai in overclock pesante, perché mi parli di leggero sovraccarico in condizioni normali?


No mi sono espresso male, anche perchè il carico in più è poi bilanciato dal connettore pci-e, il mio discorso era per far capire che in quel caso la scheda è stata spremuta in una situazione estrema e magari che il problema poteva risiedere in un connettore o psu di dubbia qualità.


Infatti lo dicono anche qui: https://www.guru3d.com/news-story/pci-sig-warns-8-pin-to-12vhpwr-adapters-can-get-too-hot.html per la 4070 e penso che il discorso sia implicito anche per le 4080 (ovviamente a seconda del tipo di custom utilizzata).

amon.akira
12-09-2022, 14:23
ZOTAC’s GeForce RTX 4090 AMP Extreme Custom Graphics Card Leaked & Pictured, Massive Quad-Slot Coolers (https://wccftech.com/zotac-geforce-rtx-4090-custom-graphics-card-leaked-pictured-massive-quad-slot-coolers/)

Thunder-74
12-09-2022, 14:25
NVIDIA GeForce RTX 4090 lancia ad ottobre, RTX 4080 a novembre nei gusti 16 GB 340 W e 12 GB 285 W

Scheda grafica NVIDIA GeForce RTX 4090 - Lancio di ottobre 2022
Scheda grafica NVIDIA GeForce RTX 4080 - Lancio di novembre 2022
Scheda grafica NVIDIA GeForce RTX 4070 - Lancio di dicembre 2022
Scheda grafica NVIDIA GeForce RTX 4060 - Presentazione del CES 2023 di gennaio

LINK (https://wccftech.com/nvidia-geforce-rtx-4090-launches-in-october-rtx-4080-in-november-in-16-gb-340w-12-gb-285w-flavors/)

WarSide
12-09-2022, 14:26
ZOTAC’s GeForce RTX 4090 AMP Extreme Custom Graphics Card Leaked & Pictured, Massive Quad-Slot Coolers (https://wccftech.com/zotac-geforce-rtx-4090-custom-graphics-card-leaked-pictured-massive-quad-slot-coolers/)

La confezione include anche fisher da 10mm, tiranti in kevlar e travi in acciaio. :stordita:

Non attacchi la scheda video alla motherboard. Devi attaccare la motherboard alla scheda video.

amon.akira
12-09-2022, 14:34
La confezione include anche fisher da 10mm, tiranti in kevlar e travi in acciaio. :stordita:

Non attacchi la scheda video alla motherboard. Devi attaccare la motherboard alla scheda video.

penso ti conviene, infatti sicuramente passerò a uno stand orizzontale bc1 v2 XD

ROBHANAMICI
12-09-2022, 14:36
NVIDIA GeForce RTX 4090 lancia ad ottobre, RTX 4080 a novembre nei gusti 16 GB 340 W e 12 GB 285 W

Scheda grafica NVIDIA GeForce RTX 4090 - Lancio di ottobre 2022
Scheda grafica NVIDIA GeForce RTX 4080 - Lancio di novembre 2022
Scheda grafica NVIDIA GeForce RTX 4070 - Lancio di dicembre 2022
Scheda grafica NVIDIA GeForce RTX 4060 - Presentazione del CES 2023 di gennaio

LINK (https://wccftech.com/nvidia-geforce-rtx-4090-launches-in-october-rtx-4080-in-november-in-16-gb-340w-12-gb-285w-flavors/)


Quindi tutto confermato, ottimo ;)

Thunder-74
12-09-2022, 14:40
non voglio fare allarmismi inutili in merito agli adattatori che potremo utilizzare con le nuove schede, ma a sollevare la questione, non è pincopallino, ma la stessa PCI-SIG come da loro email:

Gentile Membro PCI-SIG,

Si prega di notare che PCI-SIG è venuto a conoscenza del fatto che alcune implementazioni dei connettori e degli assiemi 12VHPWR hanno dimostrato una varianza termica, che potrebbe causare problemi di sicurezza in determinate condizioni. Sebbene le specifiche PCI-SIG forniscano le informazioni necessarie per l'interoperabilità, non tentano di comprendere tutti gli aspetti di una corretta progettazione, basandosi su numerosi metodi e pratiche di progettazione standard più noti del settore. Poiché i gruppi di lavoro PCI-SIG includono molti esperti competenti nel campo della progettazione di connettori e sistemi, esamineranno le informazioni disponibili su questo problema del settore e assisteranno in qualsiasi risoluzione nella misura appropriata.

Man mano che emergono ulteriori dettagli, PCI-SIG potrebbe fornire ulteriori aggiornamenti. Nel frattempo, consigliamo ai membri di lavorare a stretto contatto con i loro fornitori di connettori e di esercitare la due diligence nell'utilizzo di connessioni ad alta potenza, in particolare dove possono esistere problemi di sicurezza.


Io dico che alla fine useremo questi adattatori, ma che sarà importante che siano certificati. Se poi presenti nelle VGA, tanto meglio

ROBHANAMICI
12-09-2022, 14:45
non voglio fare allarmismi inutili in merito agli adattatori che potremo utilizzare con le nuove schede, ma a sollevare la questione, non è pincopallino, ma la stessa PCI-SIG come da loro email:

Gentile Membro PCI-SIG,

Si prega di notare che PCI-SIG è venuto a conoscenza del fatto che alcune implementazioni dei connettori e degli assiemi 12VHPWR hanno dimostrato una varianza termica, che potrebbe causare problemi di sicurezza in determinate condizioni. Sebbene le specifiche PCI-SIG forniscano le informazioni necessarie per l'interoperabilità, non tentano di comprendere tutti gli aspetti di una corretta progettazione, basandosi su numerosi metodi e pratiche di progettazione standard più noti del settore. Poiché i gruppi di lavoro PCI-SIG includono molti esperti competenti nel campo della progettazione di connettori e sistemi, esamineranno le informazioni disponibili su questo problema del settore e assisteranno in qualsiasi risoluzione nella misura appropriata.

Man mano che emergono ulteriori dettagli, PCI-SIG potrebbe fornire ulteriori aggiornamenti. Nel frattempo, consigliamo ai membri di lavorare a stretto contatto con i loro fornitori di connettori e di esercitare la due diligence nell'utilizzo di connessioni ad alta potenza, in particolare dove possono esistere problemi di sicurezza.





Spero che si risolva tutto in una bolla di sapone e che questa attività di investigazione non richieda troppo tempo, in quanto potrebbe tradursi in uno slittamento dei tempi di uscita delle nuove schede, anche perchè poi alimentatori certificati atx12vo 2.0 col nuovo adattatore a 600w già sono usciti (tipo il thor che ho acquistato :p), e che ciò non si traduca nel fatto di possedere per forza le nuove psu con lo standard atx 3.0 e, che, quindi gli adattatori vadano bene anche per le psu atx 2.0.

Telstar
12-09-2022, 14:50
ZOTAC’s GeForce RTX 4090 AMP Extreme Custom Graphics Card Leaked & Pictured, Massive Quad-Slot Coolers (https://wccftech.com/zotac-geforce-rtx-4090-custom-graphics-card-leaked-pictured-massive-quad-slot-coolers/)

Sembrano macchine da scontro :D

WarSide
12-09-2022, 14:57
Sembrano macchine da scontro :D

Io stavo pensando di comprarne 2. Così posso usarle d'inverno per scaldare casa e d'estate per uscire.

https://i.ebayimg.com/images/g/swwAAOSwkNFch4Ck/s-l400.jpg

mikael84
12-09-2022, 15:05
Ecco quindi è un non problema.

Assolutamente no, anche le 3090 fe lisce, arrivano sotto il ms ad oltre 500w con 2x8 pin e cavetti, quante se ne sono fuse?
https://www.igorslab.de/wp-content/uploads/2020/09/04-Peak-Power-1.png

NVIDIA GeForce RTX 4090 lancia ad ottobre, RTX 4080 a novembre nei gusti 16 GB 340 W e 12 GB 285 W

Scheda grafica NVIDIA GeForce RTX 4090 - Lancio di ottobre 2022
Scheda grafica NVIDIA GeForce RTX 4080 - Lancio di novembre 2022
Scheda grafica NVIDIA GeForce RTX 4070 - Lancio di dicembre 2022
Scheda grafica NVIDIA GeForce RTX 4060 - Presentazione del CES 2023 di gennaio

LINK (https://wccftech.com/nvidia-geforce-rtx-4090-launches-in-october-rtx-4080-in-november-in-16-gb-340w-12-gb-285w-flavors/)

Tutto da programma:)

non voglio fare allarmismi inutili in merito agli adattatori che potremo utilizzare con le nuove schede, ma a sollevare la questione, non è pincopallino, ma la stessa PCI-SIG come da loro email:

Gentile Membro PCI-SIG,

Si prega di notare che PCI-SIG è venuto a conoscenza del fatto che alcune implementazioni dei connettori e degli assiemi 12VHPWR hanno dimostrato una varianza termica, che potrebbe causare problemi di sicurezza in determinate condizioni. Sebbene le specifiche PCI-SIG forniscano le informazioni necessarie per l'interoperabilità, non tentano di comprendere tutti gli aspetti di una corretta progettazione, basandosi su numerosi metodi e pratiche di progettazione standard più noti del settore. Poiché i gruppi di lavoro PCI-SIG includono molti esperti competenti nel campo della progettazione di connettori e sistemi, esamineranno le informazioni disponibili su questo problema del settore e assisteranno in qualsiasi risoluzione nella misura appropriata.

Man mano che emergono ulteriori dettagli, PCI-SIG potrebbe fornire ulteriori aggiornamenti. Nel frattempo, consigliamo ai membri di lavorare a stretto contatto con i loro fornitori di connettori e di esercitare la due diligence nell'utilizzo di connessioni ad alta potenza, in particolare dove possono esistere problemi di sicurezza.


Io dico che alla fine useremo questi adattatori, ma che sarà importante che siano certificati. Se poi presenti nelle VGA, tanto meglio

Era una questione già discussa qualche mese fa, come marchetta per i nuovi ALI. Dovranno pur venderli.

Cmq chi ha ALI vecchi, e deve upgradare, meglio andare sul nativo, se mai si riescano a reperire, ma chi ha ALI di 2/3 anni di gran qualità, si fa solo abbindolare dal marketing.:)

fraussantin
12-09-2022, 15:27
NVIDIA GeForce RTX 4090 lancia ad ottobre, RTX 4080 a novembre nei gusti 16 GB 340 W e 12 GB 285 W

Scheda grafica NVIDIA GeForce RTX 4090 - Lancio di ottobre 2022
Scheda grafica NVIDIA GeForce RTX 4080 - Lancio di novembre 2022
Scheda grafica NVIDIA GeForce RTX 4070 - Lancio di dicembre 2022
Scheda grafica NVIDIA GeForce RTX 4060 - Presentazione del CES 2023 di gennaio

LINK (https://wccftech.com/nvidia-geforce-rtx-4090-launches-in-october-rtx-4080-in-november-in-16-gb-340w-12-gb-285w-flavors/)ecco questo è sufficente per scoraggiarmi. pessima notizia per chi è interessato alle fe
anche perchè probabilmente avremo anche prestazioni leggermente diverse
ZOTAC’s GeForce RTX 4090 AMP Extreme Custom Graphics Card Leaked & Pictured, Massive Quad-Slot Coolers (https://wccftech.com/zotac-geforce-rtx-4090-custom-graphics-card-leaked-pictured-massive-quad-slot-coolers/)

solo 4 condensatori , scoppieranno subito :asd:

Cutter90
12-09-2022, 15:36
ecco questo è sufficente per scoraggiarmi. pessima notizia per chi è interessato alle fe
anche perchè probabilmente avremo anche prestazioni leggermente diverse


solo 4 condensatori , scoppieranno subito :asd:

Perchè?

fraussantin
12-09-2022, 15:46
Perchè?

perchè è evidente che useranno la 12 giga per fare un prezzo di lancio ''bomba''

e tutti quei w di differenza non sono solo ram.


marketing rtx 4080 a partire da 699 ....

mikael84
12-09-2022, 15:53
perchè è evidente che useranno la 12 giga per fare un prezzo di lancio ''bomba''

e tutti quei w di differenza non sono solo ram.


marketing rtx 4080 a partire da 699 ....

Di questa scheda però ancora non si conosce nulla, se non per il bus cuttato e che sarà utilizzata solo dai partner come la 3080 12, mentre la FE dovrebbe essere la classica a 16gb, quindi JHH tarerà il prezzo su quest'ultima.
Speriamo non venga utilizzato AD104 per fare la 4080 12 :asd:

Thunder-74
12-09-2022, 15:54
perchè è evidente che useranno la 12 giga per fare un prezzo di lancio ''bomba''

e tutti quei w di differenza non sono solo ram.


marketing rtx 4080 a partire da 699 ....

sicuro differiranno per la banda , dato che la 12gb avrebbe il bus da 192bit e non 256bit come la 16gb.

Ovvio che la 12gb, qualora uscisse veramente, sarebbe scaffalone per i miei gusti.

ninja750
12-09-2022, 15:54
marketing rtx 4080 a partire da 699 ....

lo pensi davvero?

Cutter90
12-09-2022, 15:57
perchè è evidente che useranno la 12 giga per fare un prezzo di lancio ''bomba''

e tutti quei w di differenza non sono solo ram.


marketing rtx 4080 a partire da 699 ....

Beh e quindi? sarà come una fe 3080 vs una custom 3080. Che differenza c'è rispetto ad adesso?

fraussantin
12-09-2022, 16:05
Di questa scheda però ancora non si conosce nulla, se non per il bus cuttato e che sarà utilizzata solo dai partner come la 3080 12, mentre la FE dovrebbe essere la classica a 16gb, quindi JHH tarerà il prezzo su quest'ultima.
Speriamo non venga utilizzato AD104 per fare la 4080 12 :asd:

Potrebbe anche essere nome per tuting .

2060 a partire da 499 , ma la fe costava molto di più.
Boh
È solo una sensazione ma cacciare fuori al lancio quella zozzeria mi sa tanto di marketing perche hanno paira di floppare.

sicuro differiranno per la banda , dato che la 12gb avrebbe il bus da 192bit e non 256bit come la 16gb.

Ovvio che la 12gb, qualora uscisse veramente, sarebbe scaffalone per i miei gusti.

Troppi w per solo cache e ram. Cmq vada con quel tdp andra per forza meno.

lo pensi davvero?

Secondo me si. Almeno di facciata. O poco più.

Beh e quindi? sarà come una fe 3080 vs una custom 3080. Che differenza c'è rispetto ad adesso?

Che avrai al prezzo lancio non una 4080fe vera , quindi un briciolo di barlume di ipotetica speranza di prenderne una buona,ma un cesso a pedali quanto meno per chi viene da una 3080.

mikael84
12-09-2022, 16:22
Potrebbe anche essere nome per tuting .

2060 a partire da 499 , ma la fe costava molto di più.
Boh
È solo una sensazione ma cacciare fuori al lancio quella zozzeria mi sa tanto di marketing perche hanno paira di floppare.



Troppi w per solo cache e ram. Cmq vada con quel tdp andra per forza meno.



Secondo me si. Almeno di facciata. O poco più.



Che avrai al prezzo lancio non una 4080fe vera , quindi un briciolo di barlume di ipotetica speranza di prenderne una buona,ma un cesso a pedali quanto meno per chi viene da una 3080.

Diciamo che i leaker si sono un tantino incasinati.

Da poco hanno ammesso di conoscere un'eventuale 4080 da 12 per i partner non FE.
Quindi:
4080 16gb FE e custom a partire da 340 watt.
4080 12 solo partner e 280watt.

La stessa situazione, riguarda le x70, dove danno per possibili:
4070 12 FE e custom per 280watt
4070 10 FE e custom per 250

Non sanno ancora quella definitiva.

La 4080 12 e la 4070 12 sono riferimenti di watt identici.

Io nel dubbio, prenderei per buone solo le 4090 e 4080 16gb, poi vedremmo di saperne di più il 20.:)

caccapupu91
12-09-2022, 17:13
Non era meglio tirare nuovamente il "Super" con più ram e cuda? :asd:

scorpion73
12-09-2022, 17:29
Speriamo che la differenza fra le due 4080 comprenda anche che la versione 16gb sia fatta con gli originali 10270 cuda previsti.
Mi pare troppa la differenza di watt per soli 4 giga di memoria.

Thunder-74
12-09-2022, 17:34
Se lo sapevo che non c'erano problemi di disponibilità aspettavo a prendere il thor 1.




Io ce l'ho solo da un mese invece :D


Che poi il Thor 1 non è neanche un atx3 con relativo connettore . Perché non hai aspettato Loki o il Thor 2?


Inviato dal mio iPhone X utilizzando Tapatalk

devAngnew
12-09-2022, 18:08
Di questa scheda però ancora non si conosce nulla, se non per il bus cuttato e che sarà utilizzata solo dai partner come la 3080 12, mentre la FE dovrebbe essere la classica a 16gb, quindi JHH tarerà il prezzo su quest'ultima.
Speriamo non venga utilizzato AD104 per fare la 4080 12 :asd:

Non è che la 12 GB è la 4070/ti :stordita:

mikael84
12-09-2022, 18:33
Speriamo che la differenza fra le due 4080 comprenda anche che la versione 16gb sia fatta con gli originali 10270 cuda previsti.
Mi pare troppa la differenza di watt per soli 4 giga di memoria.

Più che altro è un taglio strano, che io ho paintizzato in 2 secondi.
Con questo taglio, si perde tanto, dalle rop's che passerebbero ad 88, ed in parte alla geometria.
https://i.postimg.cc/XBGkxrrY/ad103.png (https://postimg.cc/XBGkxrrY)



Inoltre AMD, immaginiamo di posizionarla come la 4090, si ritroverebbe con:
12288 - 7680 = 60%
16328 - 10240 = 60%.
Sarebbe pure più logico.

Non è che la 12 GB è la 4070/ti :stordita:

Avrebbe senso come 4070ti. Una 4080 con 192bit, non è che si possa vedere tanto a livello tecnico. Se già a spec, era la 3060ti di ampere, ora gli buttiamo giù anche il bus è la fine.:p

Nvidia sta giocando troppo con i clock, tanto sa che pur tagliando l'impensabile, le schede avranno sempre discrete performance.

nessuno29
12-09-2022, 18:37
Quindi le 4080 in realtà sono la 4070 e la 4060ti?

ZOTAC’s GeForce RTX 4090 AMP Extreme Custom Graphics Card Leaked & Pictured, Massive Quad-Slot Coolers (https://wccftech.com/zotac-geforce-rtx-4090-custom-graphics-card-leaked-pictured-massive-quad-slot-coolers/)

Mi ricorda molto le Crocs orribile ahah

WarSide
12-09-2022, 18:44
Nvidia sta giocando troppo con i clock, tanto sa che pur tagliando l'impensabile, le schede avranno sempre discrete performance.

Tanto la bolletta elettrica la pagano i clienti :stordita:

mikael84
12-09-2022, 21:12
Tanto la bolletta elettrica la pagano i clienti :stordita:

Beh, sarebbe un pazzo a non sfruttare i PP. Meglio downclockarli tu nel caso, piuttosto che te li piombi lui.:)

amon.akira
12-09-2022, 21:20
Beh, sarebbe un pazzo a non sfruttare i PP. Meglio downclockarli tu nel caso, piuttosto che te li piombi lui.:)

esatto :)

tobyax
13-09-2022, 06:22
percio da quello che ultimamente ho letto una psu corsair SF750 platinum plus potrebbe avere problemi a digerire una 4080 da 16gb? ma sul serio?:eek: :eek: :eek:

fraussantin
13-09-2022, 06:51
percio da quello che ultimamente ho letto una psu corsair SF750 platinum plus potrebbe avere problemi a digerire una 4080 da 16gb? ma sul serio?:eek: :eek: :eek:Non penso . Cioè sarebbe consigliato un upgrade , ma non strettamente necessario.
Almeno se si parla di giocare. Poi se fai oc , bench e altro cambia .
Considera che cpu intel + 3080 in gioco stanno sempre sotto i 600w alla presa almeno dagli screenshot visti .

I micropicchi sono un altra cosa. E vengono digeriti diversamente dall'alimentatore

Poi se sei uno che usa il pc 5 ore al giorno e sempre al massimo allora punterei su un 1000w


Ps ho usato per un anno la 3080 +3700x con un 650w e non si è mai ne spento ne avuto problemi

ROBHANAMICI
13-09-2022, 07:38
Se lo sapevo che non c'erano problemi di disponibilità aspettavo a prendere il thor 1.



Forse hai fatto bene, vedremo quando usciranno le varie vga con agli adattatori pci-e 5.0 (suppongo che siano inclusi). Considera che il mio l'ho pagato 400 e passa cucuzze, ma suppongo di tenermelo almeno una decina di anni. Lo standard del mio alimentatore è l'atx12vo 2.0 (quindi non l'ultimo atx 3.0) per cui potrei anche essere soggetto ai problemi segnalati dall'organizzazione PCI-SIG, la cosa sicura al 100% è di un puntare su una psu certificata atx 3.0, però staremo a vedere.

Ubro92
13-09-2022, 09:18
Io ho ancora l'EVGA Supernova G2 da 750w, oramai è all'ottavo anno di vita e ha ancora 2 anni di garanzia, quando usciranno le nuove schede vedrò il da farsi.

nessuno29
13-09-2022, 10:24
percio da quello che ultimamente ho letto una psu corsair SF750 platinum plus potrebbe avere problemi a digerire una 4080 da 16gb? ma sul serio?:eek: :eek: :eek:

Andrà benissimo, è un 750 watt.

Cutter90
13-09-2022, 10:32
Andrà benissimo, è un 750 watt.

Se la 4080 avrà 450 watt o 500 e ha un i9 750 watt sono molto stretti invece

WarSide
13-09-2022, 10:55
Se la 4080 avrà 450 watt o 500 e ha un i9 750 watt sono molto stretti invece

Concordo. C'è sempre da ricordarsi che, anche con un alimentatore platinum, c'è da decurtare un 15% dal valore nominale. Quindi sono 650W con 100% del carico. Con un Ali Gold decurterei il 20% per andare sul sicuro e con un bronze il 25%.

E' vero che un ali di fascia alta regge anche carichi superiori a quelli nominali, ma a lungo andare non fa una bella fine. :stordita:

fraussantin
13-09-2022, 11:16
Se la 4080 avrà 450 watt o 500 e ha un i9 750 watt sono molto stretti inveceSi parla di 340w non 450.


Alla presa starà sotto i 600.

Poi cambiare ok è sempre consigliato , ma non da farsi immediatamente.

I micropiccji sono appunti micropicchi l'alimentatore non li vede

E se li vede al massimo si spenge non è che esplode

Telstar
13-09-2022, 11:28
Io ho ancora l'EVGA Supernova G2 da 750w, oramai è all'ottavo anno di vita e ha ancora 2 anni di garanzia, quando usciranno le nuove schede vedrò il da farsi.

E il mio corsair 850HXi la decade l'ha compiuta, anche se è stato fermo un po'.

La potenza basterebbe, ma a questo punto conviene puntare al massimo (atx 3 con cavozzo vga nativo ed efficienza almeno platinum), quindi potrei anche arrivare a 1000W.
C'è veramente pochissimo in giro, non hanno finalizzato gran parte dei modelli aggiornati, ma penso che per novembre-dicembre ce la faranno.

craesilo
13-09-2022, 11:37
ho visto le foto delle 4090 zotac
riguardo le 4080 non credo ci saranno in 2 varianti

terranux
13-09-2022, 11:43
ho visto le foto delle 4090 zotac
riguardo le 4080 non credo ci saranno in 2 varianti

fà impressione. dissipatore da quanti kg?

tobyax
13-09-2022, 11:45
Se la 4080 avrà 450 watt o 500 e ha un i9 750 watt sono molto stretti invece

bhe ora come ora ho su un 5900x ed una 3080, a schermo leggo valori sui 100-110 per il 5900 e 340-350w per la 3080, infatti i miei pensieri non sono i consumi, cosa che un ali platinum da 750w regge tranquillamente, ma per quanto riguarda questo caxxo di nuovo connettore. e fino a che non usciranno le nuove AM5 in formato ITX non cambierò componenti se non appunto la gpu, giusto per sfizio eh....

Ubro92
13-09-2022, 12:06
E il mio corsair 850HXi la decade l'ha compiuta, anche se è stato fermo un po'.

La potenza basterebbe, ma a questo punto conviene puntare al massimo (atx 3 con cavozzo vga nativo ed efficienza almeno platinum), quindi potrei anche arrivare a 1000W.
C'è veramente pochissimo in giro, non hanno finalizzato gran parte dei modelli aggiornati, ma penso che per novembre-dicembre ce la faranno.

Anche io punto ai nuovi standard, l'idea di usare prolunghe non mi entusiasma se non per un uso temporaneo.

Per il resto dipende anche da quale gpu/cpu vuoi montare, per una 4080 1000w platinum sarebbero sprecati, già un buon 750/850w GOLD è già più che abbondante, a meno di non doverci minare H24 :fagiano:

Per 4090/4090ti è da vedere, ma in quel caso considerando quanto costano le gpu, il PSU è proprio l'ultima cosa su cui lesinare considerando anche i micro-picchi che potrebbero raggiungere, soprattutto se liquidate e in OC.

Thunder-74
13-09-2022, 12:07
Io ho visto in elenco la 4090 aorus xtreme con waterblock :fagiano: chissà se 2 reni basteranno .


Inviato dal mio iPad utilizzando Tapatalk

Kostanz77
13-09-2022, 12:34
Anche io punto ai nuovi standard, l'idea di usare prolunghe non mi entusiasma se non per un uso temporaneo.

Per il resto dipende anche da quale gpu/cpu vuoi montare, per una 4080 1000w platinum sarebbero sprecati, già un buon 750/850w GOLD è già più che abbondante, a meno di non doverci minare H24 :fagiano:

Per 4090/4090ti è da vedere, ma in quel caso considerando quanto costano le gpu, il PSU è proprio l'ultima cosa su cui lesinare considerando anche i micro-picchi che potrebbero raggiungere, soprattutto se liquidate e in OC.


Io credo con un Antec Signature ST TITANIUM 1000W(preso lo scorso anno), per intenderci piattaforma Seasonic TX, dovrei essere coperto per queste RTX 4XXX

https://imgur.com/a/4Lf4Q5h

Inviato dal mio iPhone utilizzando Tapatalk Pro

WarSide
13-09-2022, 12:46
Per il resto dipende anche da quale gpu/cpu vuoi montare, per una 4080 1000w platinum sarebbero sprecati, già un buon 750/850w GOLD è già più che abbondante, a meno di non doverci minare H24 :fagiano:

i7 12core + 3070 AIB occata di fabbrica, un po' di periferiche ed un mio amico mi diceva di non poterne più del pc che si spegne in game per i picchi di assorbimento. Il tutto con un seasonic gold 750W comprato 4 anni fa.

Stesso pc dava 0 problemi con la 970 precedente.

fraussantin
13-09-2022, 12:53
i7 12core + 3070 AIB occata di fabbrica, un po' di periferiche ed un mio amico mi diceva di non poterne più del pc che si spegne in game per i picchi di assorbimento. Il tutto con un seasonic gold 750W comprato 4 anni fa.



Stesso pc dava 0 problemi con la 970 precedente.Più probabile che sia difettoso. Perche quel pc a 700w non ci arriva. Manco con i picchi.

Tra l'altro non sarebbe il primo seasonic di quegli anni , anche se ho letto di Platinum 850 o 1000. Mai di gold

terranux
13-09-2022, 12:56
i7 12core + 3070 AIB occata di fabbrica, un po' di periferiche ed un mio amico mi diceva di non poterne più del pc che si spegne in game per i picchi di assorbimento. Il tutto con un seasonic gold 750W comprato 4 anni fa.

Stesso pc dava 0 problemi con la 970 precedente.

seeee. a da cosa se ne accorge

Iceman69
13-09-2022, 13:09
seeee. a da cosa se ne accorge

Secondo me proprio dal fenomeno che riscontra di spegnimento, non è un bel segnale. Dovrebbe provare un pari alimentatore nuovo per esserne certo, gli alimentatori si consumano con il tempo.

Ubro92
13-09-2022, 13:10
i7 12core + 3070 AIB occata di fabbrica, un po' di periferiche ed un mio amico mi diceva di non poterne più del pc che si spegne in game per i picchi di assorbimento. Il tutto con un seasonic gold 750W comprato 4 anni fa.

Stesso pc dava 0 problemi con la 970 precedente.

Sicuramente era difettato e andava in protezione.
Quel sistema arriva si e no a 500-600w in full load per cpu e gpu, in game già stare sui 350-400w è tanto.

E' anche strano che con 970 andava bene e con 3070 no, visto che tra le due ci sono si e no 60w di differenza:

970: https://tpucdn.com/review/msi-gtx-970-gaming/images/power_peak.gif

3070: https://tpucdn.com/review/nvidia-geforce-rtx-3070-founders-edition/images/power-gaming-peak.png

Figurati che il mio che ha 8 anni, regge ancora un 3930K occato a 4.7ghz e una 980ti custom (1430/7200mhz stock) e siamo li come consumi XD

EDIT: Oppure potrebbe anche essere una questione di polvere, il mio ha la funzione 0DB a bassi carichi, se nel suo PSU ha accumulato tanta polvere in quei 4 anni può comprometterne l'efficienza, oltre al deterioramento in sè.

nessuno29
13-09-2022, 13:23
Concordo. C'è sempre da ricordarsi che, anche con un alimentatore platinum, c'è da decurtare un 15% dal valore nominale. Quindi sono 650W con 100% del carico. Con un Ali Gold decurterei il 20% per andare sul sicuro e con un bronze il 25%.

E' vero che un ali di fascia alta regge anche carichi superiori a quelli nominali, ma a lungo andare non fa una bella fine. :stordita:

Ma non è vero, non bisogna decurtare nulla semmai aggiungere al consumo totale l'assorbimento dell'alimentatore stesso. Premesso che un i9 da 250watt in gioco ne consuma meno della metà, con una 4080 difficilmente si supereranno i 600watt.

Cutter90
13-09-2022, 13:32
Si parla di 340w non 450.


Alla presa starà sotto i 600.

Poi cambiare ok è sempre consigliato , ma non da farsi immediatamente.

I micropiccji sono appunti micropicchi l'alimentatore non li vede

E se li vede al massimo si spenge non è che esplode

La 3080 custom aveva delle versioni da 450 watt. La 4080 non penso proprio scenda sotto questa soglia nelle varianti spinte custom, anzi... per me arriverà quasi sui 500 nelle varianti top.

Cutter90
13-09-2022, 13:37
Ma non è vero, non bisogna decurtare nulla semmai aggiungere al consumo totale l'assorbimento dell'alimentatore stesso. Premesso che un i9 da 250watt in gioco ne consuma meno della metà, con una 4080 difficilmente si supereranno i 600watt.

Si ma il conto va fatto con la massima potenza possibile, non con quella che "credi si usi". inoltre il 15% no, ma il 10% va decurtato per davvero per quanto riguarda l'efficienza e un minimo di margine.
Se hai un i9 da 250 watt fai quelli + i watt massimi della gpu. Se devi fare un test che spinge tutto il pc cos'è, non lo fai perchè se no l'ali non ce la fa? E se domani ti esce un gioco che ti consuma 250 watt di cpu che succede?
Io con l'alimentatore voglio stare safe.

Ubro92
13-09-2022, 13:39
La 3080 custom aveva delle versioni da 450 watt. La 4080 non penso proprio scenda sotto questa soglia nelle varianti spinte custom, anzi... per me arriverà quasi sui 500 nelle varianti top.

La 3080 è un GA102, cuttato e devastato ma sempre un GA102, se inizi ad occare puoi avere anche consumi maggiori di una 3090, soprattutto con un pessimo pp come quello di samsung.
La 4080 sarà basata su AD103 da 380mm2, è un chip decisamente più minuto, paragonabile a una 3070ti tirata per il collo.

I problemi si potrebbero riscontare su AD102, che è decisamente più denso come chip.

fraussantin
13-09-2022, 13:45
Si ma il conto va fatto con la massima potenza possibile, non con quella che "credi si usi". inoltre il 15% no, ma il 10% va decurtato per davvero per quanto riguarda l'efficienza e un minimo di margine.

Se hai un i9 da 250 watt fai quelli + i watt massimi della gpu. Se devi fare un test che spinge tutto il pc cos'è, non lo fai perchè se no l'ali non ce la fa? E se domani ti esce un gioco che ti consuma 250 watt di cpu che succede?

Io con l'alimentatore voglio stare safe.Le 4080 secondo me sono gia spinte tanto . Non credo che andranno troppo su con i consumi le custom

È un 5mn e consuma più di un 10nm.


Di certo con una 750w non vai a metterci una kingpin .

WarSide
13-09-2022, 13:51
i7 12core + 3070 AIB occata di fabbrica, un po' di periferiche ed un mio amico mi diceva di non poterne più del pc che si spegne in game per i picchi di assorbimento. Il tutto con un seasonic gold 750W comprato 4 anni fa.

Stesso pc dava 0 problemi con la 970 precedente.

Più probabile che sia difettoso. Perche quel pc a 700w non ci arriva. Manco con i picchi.

Tra l'altro non sarebbe il primo seasonic di quegli anni , anche se ho letto di Platinum 850 o 1000. Mai di gold

Secondo me proprio dal fenomeno che riscontra di spegnimento, non è un bel segnale. Dovrebbe provare un pari alimentatore nuovo per esserne certo, gli alimentatori si consumano con il tempo.

Il problema sono i picchi di assorbimento temporanei. L'ali ha sempre funzionato perfettamente ed è sotto ups il suo pc. UPS APC ad onda sinusoidale pura, quindi l'ali è sicuramente in buona salute per avere 4 anni. Un ali se non soggetto a stress dura senza problemi 10 anni.

I produttori non sono scemi... se danno 10 anni di garanzia è perché han fatto bene i loro conti. :)

Cutter90
13-09-2022, 14:04
Potrebbe essere però il mio thor 1 dice che consumo sui 550 watt con un 12900ks e 3090 a pieno carico. Avendo un 1200 :)

Perchè o hai una 3090 da 300 watt, oppure non sei a pieno carico. Se hai una 3090 da 450 watt aggiungine 250 di cpu fa già 700. +50 di altri componenti, vento9le led ecc ecc, vai a 750. Poi aggiungi un po' dimargine, magari 50 watt ed ecco che sei a 800watt.
Chiaro che se prendi un a 3090 da 300 watt (o la mantieni sempre lì in undervolt), nonb fai test a pieno carico e giochi solo, con al cpu che sta sui 100-150 watt massimi allora ok. Ma perchè stare lì ogni volta a studiare se ci stai dentro?
PS: pure tu però.. un 1200 è anche troppo :D

WarSide
13-09-2022, 14:05
Potrebbe essere però il mio thor 1 dice che consumo sui 550 watt con un 12900ks e 3090 a pieno carico. Avendo un 1200 :)

Se al 50% di carico con un platinum. Sei nello sweet spot di quell'ali in quanto ad efficienza (quindi in realtà stai assorbendo sui 600W circa)

Kostanz77
13-09-2022, 14:06
Comunque credo che un Seasonic TX o come anche il mio Antec Signature 1000W TITANIUM possano reggere tranquillamente anche una 4090 usando magari un adattatore 4X8 PIN-16 PIN
Parlo di un alimentatore di qualità pagato 270 euro mica bruscolini

Inviato dal mio iPhone utilizzando Tapatalk Pro

WarSide
13-09-2022, 14:09
Comunque credo che un Seasonic TX o come anche il mio Antec Signature 1000W TITANIUM possano reggere tranquillamente anche una 4090 usando magari un adattatore 4X8 PIN-16 PIN
Parlo di un alimentatore di qualità pagato 270 euro mica bruscolini

Inviato dal mio iPhone utilizzando Tapatalk Pro

Ma chi ha un buon 1000W (insomma, non un trust o uno di quei gigabyte esplosivi... :D ) può dormire sogni tranquilli. Non vi fate seghe mentali ;)

fraussantin
13-09-2022, 14:15
Il problema sono i picchi di assorbimento temporanei. L'ali ha sempre funzionato perfettamente ed è sotto ups il suo pc. UPS APC ad onda sinusoidale pura, quindi l'ali è sicuramente in buona salute per avere 4 anni. Un ali se non soggetto a stress dura senza problemi 10 anni.



I produttori non sono scemi... se danno 10 anni di garanzia è perché han fatto bene i loro conti. :)Con i picchi non arriva cmq a 750w.

Rimangono solo i micro picchi , ma sono difficilissimi da rilevare anche con gli strumenti.

Quell'ali è rotto.
E ripeto non è il solo di quegli anni

fraussantin
13-09-2022, 14:16
Perchè o hai una 3090 da 300 watt, oppure non sei a pieno carico. Se hai una 3090 da 450 watt aggiungine 250 di cpu fa già 700. +50 di altri componenti, vento9le led ecc ecc, vai a 750. Poi aggiungi un po' dimargine, magari 50 watt ed ecco che sei a 800watt.

Chiaro che se prendi un a 3090 da 300 watt (o la mantieni sempre lì in undervolt), nonb fai test a pieno carico e giochi solo, con al cpu che sta sui 100-150 watt massimi allora ok. Ma perchè stare lì ogni volta a studiare se ci stai dentro?

PS: pure tu però.. un 1200 è anche troppo :D250 di cpu? In gioco? Ma neanche con spiderman

Kostanz77
13-09-2022, 14:17
Con i picchi non arriva cmq a 750w.

Rimangono solo i micro picchi , ma sono difficilissimi da rilevare anche con gli strumenti.

Quell'ali è rotto.
E ripeto non è il solo di quegli anni


Comunque anche te con il tuo Seasonic GX 1000W sei tranquillo


Inviato dal mio iPhone utilizzando Tapatalk Pro

fraussantin
13-09-2022, 14:18
Comunque anche te con il tuo Seasonic GX 1000W sei tranquillo


Inviato dal mio iPhone utilizzando Tapatalk ProMa certamente . Gli adattatori li metteranno nella scatola quindi saranno sicuri.

Se spwrano di vendere 4000 solo a chi cambia alimentatore faranno un fiasco clamoroso

Cutter90
13-09-2022, 14:26
250 di cpu? In gioco? Ma neanche con spiderman

Si ma io parlavo di test al massimo delle prestazioni possibili. io ragiono in questa maniera per acquistare l'ali.
Evga G3 da 100 watt... con cacchio che lo cambio.

Kostanz77
13-09-2022, 14:26
Ma certamente . Gli adattatori li metteranno nella scatola quindi saranno sicuri.

Se spwrano di vendere 4000 solo a chi cambia alimentatore faranno un fiasco clamoroso


Si ma poi stiamo parlando di piattaforma Seasonic GX, PX,TX
credo che in giro non ci sia nulla di superiore, forse si avvicinano i SuperFlower

La storia del cavo 16 PIN bho…..a me pare una cosa più di marketing


Inviato dal mio iPhone utilizzando Tapatalk Pro

ninja750
13-09-2022, 14:30
Se spwrano di vendere 4000 solo a chi cambia alimentatore faranno un fiasco clamoroso

gli enthusiast se vorranno il top lo cambieranno, gli altri ripiegheranno sulle 4070 lisce a scendere, o sulla concorrenza

già solo qua dentro ricordo non so in quanti hanno cambiato alimentatori perfettamente funzionanti all'arrivo delle 3000

fraussantin
13-09-2022, 14:30
Si ma io parlavo di test al massimo delle prestazioni possibili. io ragiono in questa maniera per acquistare l'ali.

Evga G3 da 100 watt... con cacchio che lo cambio.Si , spe qui non si parla di acquistare alimentatori. Si parla di tenersi il suo.

Se deve comprarlo detto subito che un 850 o un 1000 sono più indicati per intel+4080 . Visto anche il costo irrisorio a cui sono arrivati. ( Irrisorio per modo di dire sono sempre 135-180 euro non spiccioli )

Ps il g3 da 1000 non va giù manco a cannonate che vuoi cambiare.
gli enthusiast se vorranno il top lo cambieranno, gli altri ripiegheranno sulle 4070 lisce a scendere, o sulla concorrenza



già solo qua dentro ricordo non so in quanti hanno cambiato alimentatori perfettamente funzionanti all'arrivo delle 3000

E ma non campano con noi 4 gatti.
Quanti wafers ha prenotato nvidia?

Vai che la 4080 deve diventare mainstream.

Cutter90
13-09-2022, 14:52
Si , spe qui non si parla di acquistare alimentatori. Si parla di tenersi il suo.

Se deve comprarlo detto subito che un 850 o un 1000 sono più indicati per intel+4080 . Visto anche il costo irrisorio a cui sono arrivati. ( Irrisorio per modo di dire sono sempre 135-180 euro non spiccioli )

Ps il g3 da 1000 non va giù manco a cannonate che vuoi cambiare.


E ma non campano con noi 4 gatti.
Quanti wafers ha prenotato nvidia?

Vai che la 4080 deve diventare mainstream.

Ok, d'accordo su tutto infatti

scorpion73
13-09-2022, 14:58
gli enthusiast se vorranno il top lo cambieranno, gli altri ripiegheranno sulle 4070 lisce a scendere, o sulla concorrenza

già solo qua dentro ricordo non so in quanti hanno cambiato alimentatori perfettamente funzionanti all'arrivo delle 3000


Ma uno che ha preso un seasonic px due anni fa non cambia certo alimentatore per far piacere ad nvidia o per lo meno solo pochi e ricchi possono permettersi di farlo. e questo loro li sanno se vogliono vendere devono far sì che gli adattatori funzionino.


Inviato dal mio iPhone utilizzando Tapatalk

Telstar
13-09-2022, 15:03
Anche io punto ai nuovi standard, l'idea di usare prolunghe non mi entusiasma se non per un uso temporaneo.

Per il resto dipende anche da quale gpu/cpu vuoi montare, per una 4080 1000w platinum sarebbero sprecati, già un buon 750/850w GOLD è già più che abbondante, a meno di non doverci minare H24 :fagiano:

Si 4080 probabilmente ti.
Ma siccome deve durarmi 10 anni, preferisco avere piu margine. Il trend sembra essere quello di aumentare consumi e performance, anche lato CPU per cui non sono affatto ottimista.