PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 [345] 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467

bonzoxxx
03-08-2022, 12:40
dalla tua estrema config sembra che caghi soldi quindi il problema più che altro è aspettare giochi che ti interessano :asd:

Sommo poeta :D :D :D

No, a dire la verità sono povero come la merda solo che ho "dovuto" metter su sto popò de pc per un progetto che ora è terminato per cui sto via via downgradando, inoltre l'idea era quella di giocherellare ma alla mia età + famiglia + caxxi = 0 tempo a meno di non smettere di dormire.

La 3080 l'ho presa a prezzo msrp per fortuna, 5900x usato, scheda madre amazon warehouse, il monitor in offerta + ho venduto il tablet, il resto finanziamento

Vul
03-08-2022, 15:51
Ragazzi una domanda niubba, non linciatemi.

Ho una 3080 FE, schermo 3440*1440 165hz, 5900X e 64GB, non sto giocando da mesi ormai e sono quasi deciso a vendere tutto il pc che sta più spento che acceso.

Ora, dato che sta 3080 praticamente non la sto usando stavo pensando a 2 alternative: provare a prendere una 3060ti a prezzo MSRP e andare avanti con quella per qualche anno oppure mettere sotto una scheda muletto scrausissima e aspettare lovelace e provare a prendere una 4060/4060ti/4070, di più non mi serve.

Ripeto, non linciatemi vorrei solo "ottimizzare" la spesa in base alle mie attuali necessità, ho letto le ultime 5 pagine del thread e mi sembra di capire che la 4070 piallerà tutte le attuali Ampere anche se non si sa a che prezzo.

Grazie mille e scusatemi :)

Se non giochi che ci fai con una 3060ti?

TigerTank
03-08-2022, 17:28
Sommo poeta :D :D :D

No, a dire la verità sono povero come la merda solo che ho "dovuto" metter su sto popò de pc per un progetto che ora è terminato per cui sto via via downgradando, inoltre l'idea era quella di giocherellare ma alla mia età + famiglia + caxxi = 0 tempo a meno di non smettere di dormire.

La 3080 l'ho presa a prezzo msrp per fortuna, 5900x usato, scheda madre amazon warehouse, il monitor in offerta + ho venduto il tablet, il resto finanziamento

Aspetta un pò che magari nel prossimo autunno-inverno con le giornate corte e i weekend freddi ti torna la voglia di giocare :D
Oltretutto su Epic è in regalo un simulatore di giardinaggio in cui si deve tagliare il prato con i tosaerba. Sono esperienze da fare! :sofico:

Telstar
03-08-2022, 17:30
Oltretutto su Epic è in regalo un simulatore di giardinaggio in cui si deve tagliare il prato con i tosaerba. Sono esperienze da fare! :sofico:

nooo, lo voglio! mi tocca reinstallare epic!

Ubro92
03-08-2022, 20:14
Se no si prende una steam deck e gioca direttamente sul trono 🤣

Inviato dal mio M2012K11AG utilizzando Tapatalk

bonzoxxx
03-08-2022, 22:49
Aspetta un pò che magari nel prossimo autunno-inverno con le giornate corte e i weekend freddi ti torna la voglia di giocare :D
Oltretutto su Epic è in regalo un simulatore di giardinaggio in cui si deve tagliare il prato con i tosaerba. Sono esperienze da fare! :sofico:

Spette che corro a prendere una 3090ti cosi lo gioco come si deve :doh: :doh:
Mi bastano quei pochi mq di giardino simil steppa che devo tagliare col tosaerba :D :D
Se non giochi che ci fai con una 3060ti?

Perché mi sembra che sia la migliore qualità/prezzo a patto di prenderla MSRP, inoltre ogni tanto una partitella me la faccio ma non tanto da necessitare una 3080:)

Thunder-74
04-08-2022, 07:14
Aggiornamento di Kopite7kimi sulla 4070... ripento, per me spara minchiate a raffica e prima o poi la indovina..


Secondo quanto riferito, la scheda grafica NVIDIA GeForce RTX 4070 ora include 7680 core, 12 GB di memoria GDDR6X, 300 W TBP, corrisponde a RTX 3090 Ti in 3DMark

quindi secondo cip&ciop, quello che doveva essere la 4070ti lo sarà la 4070 liscia, ma meno energivora...

LINK (https://wccftech.com/nvidia-geforce-rtx-4070-graphics-card-now-7680-cores-12-gb-gddr6x-memory-300w-tdp-matches-rtx-3090-ti-rumor/)

bonzoxxx
04-08-2022, 07:17
Tranquillo anche io ho fatto due finanziamenti tempo fa per i pc dunque ti capisco :) ora mi trovo con una z690 che da un po di problemi mella scheda di rete ma spero di risolvere. E poi 4090 se riesco nei 2000 euro anche se di budget penso di avere 3000.

Azz spari alto :D

Aggiornamento di Kopite7kimi sulla 4070... ripento, per me spara minchiate a raffica e prima o poi la indovina..


Secondo quanto riferito, la scheda grafica NVIDIA GeForce RTX 4070 ora include 7680 core, 12 GB di memoria GDDR6X, 300 W TBP, corrisponde a RTX 3090 Ti in 3DMark

quindi secondo cip&ciop, quello che doveva essere la 4070ti lo sarà la 4070 liscia, ma meno energivora...

LINK (https://wccftech.com/nvidia-geforce-rtx-4070-graphics-card-now-7680-cores-12-gb-gddr6x-memory-300w-tdp-matches-rtx-3090-ti-rumor/)

Se cosi fosse scheda perfetta per il mio 3K, se giocassi. Cmq bel salto prestazionale ma consumi belli sparati in alto.

Ubro92
04-08-2022, 07:37
Se cosi fosse scheda perfetta per il mio 3K, se giocassi. Cmq bel salto prestazionale ma consumi belli sparati in alto.

Ma se hai una 3080 che te ne fai della 4070? :mbe:
Personalmente io punto o una 4070 o 3080 12gb/3080ti usate.

Comunque spero che quelle specifiche siano confermate, quanto meno per i 192bit, le GDDR6X non sono poi neanche cosi fondamentali.

bonzoxxx
04-08-2022, 07:39
Ma se hai una 3080 che te ne fai della 4070? :mbe:
Personalmente io punto o una 4070 o 3080 12gb/3080ti usate.

Comunque spero che quelle specifiche siano confermate, quanto meno per i 192bit, le GDDR6X non sono poi neanche cosi fondamentali.

Pure te hai ragione :D :D

fraussantin
04-08-2022, 07:41
Azz spari alto :D



Se cosi fosse scheda perfetta per il mio 3K, se giocassi. Cmq bel salto prestazionale ma consumi belli sparati in alto.Fosse stata 250w di tdp l'avrei fatto.

A a sto punto a meno di non fare il passaggio quasi gratis non vedo il motivo

bonzoxxx
04-08-2022, 07:44
Fosse stata 250w di tdp l'avrei fatto.

A a sto punto a meno di non fare il passaggio quasi gratis non vedo il motivo

magari come per le 3080 basta limare un po i voltaggi e scende di 50W però si, praticamente hanno raddoppiato i consumi delle 1070 con performance però molto più alte.

Secondo me stanno sparando alto per fare numeri altrimenti con sti PP si potrebbe tranquillamente stare su consumi umani.

Ubro92
04-08-2022, 07:59
Ma questi chip sono tirati a morte sul clock, 50w li si abbattono facili con un pò di undervolt.

bonzoxxx
04-08-2022, 08:02
Ma questi chip sono tirati a morte sul clock, 50w li si abbattono facili con un pò di undervolt.

Se faranno come la 3080 che undervoltata va di più :D :D :D

fraussantin
04-08-2022, 08:21
Sempre se non bombardano taiwan prima :(

Freisar
04-08-2022, 08:28
Sempre se non bombardano taiwan prima :(

Prima devo prendere la GPU :mc:

bonzoxxx
04-08-2022, 08:38
Sempre se non bombardano taiwan prima :(

A quel punto la 3080 potrei venderla al doppio del prezzo cosi come il pc, poi poi comprarci il pane a 10 euro al kg visto che saremo nella terza guerra mondiale... :muro: :muro: :muro: :muro: :muro:

Ubro92
04-08-2022, 08:55
Se bombardassero taiwan il pc è l'ultimo dei problemi visto che saremo a tutti gli effetti entrati nella terza guerra mondiale.

Ci manca solo quello e abbiamo completato il quadro post pandemia...

fraussantin
04-08-2022, 09:31
Se bombardassero taiwan il pc è l'ultimo dei problemi visto che saremo a tutti gli effetti entrati nella terza guerra mondiale.Era battuta ... Trista , ma una battuta .

Thunder-74
04-08-2022, 09:36
il mondo va a Pu...ne e noi con lui :doh:

bonzoxxx
04-08-2022, 10:47
Si ma non sono ricco. Al posto di prendere le auto e cambiarle piu spesso spendo in un pc che ci sto sicuramente piu dietro che di un auto :)

Non parliamo di auto che ho fatto il preventivo per un rav4 plug in e mi hanno sparato 62K euro, mi tengo la mia fidata auris usque ad finem..

ArchibaldJr
04-08-2022, 10:56
Non parliamo di auto che ho fatto il preventivo per un rav4 plug in e mi hanno sparato 62K euro, mi tengo la mia fidata auris usque ad finem..

Tu tieni la auris poi con 10k ti fai pc+monitor+postazione e giochi ad assetto corse è morta li :asd:

fraussantin
04-08-2022, 11:10
Non parliamo di auto che ho fatto il preventivo per un rav4 plug in e mi hanno sparato 62K euro, mi tengo la mia fidata auris usque ad finem..Con una panda a 3 cilindri a 14k non ci si può aspettare nulla di meglio

mikael84
04-08-2022, 11:28
Aggiornamento di Kopite7kimi sulla 4070... ripento, per me spara minchiate a raffica e prima o poi la indovina..


Secondo quanto riferito, la scheda grafica NVIDIA GeForce RTX 4070 ora include 7680 core, 12 GB di memoria GDDR6X, 300 W TBP, corrisponde a RTX 3090 Ti in 3DMark

quindi secondo cip&ciop, quello che doveva essere la 4070ti lo sarà la 4070 liscia, ma meno energivora...

LINK (https://wccftech.com/nvidia-geforce-rtx-4070-graphics-card-now-7680-cores-12-gb-gddr6x-memory-300w-tdp-matches-rtx-3090-ti-rumor/)

Ultimamente neppure lo sto seguendo, aspetto che parli magari Igor. ha parlato anche di cache disaccoppiata, e neppure l'ho riportato in quanto proprio non mi torna, doppie rop's, e non mi torna, Int slegate, e proprio qua non ci siamo.

Cmq, alla fine i 3dmark sono supposti, quindi parliamo quasi del nulla, altro che fughe di test. Alla fine i valori saranno quelli, ma quelli li ho calcolati pure io, e dovremmo essere li.

Cmq una 4070 con 10gb è pure strana, al massimo un taglio così lo usa per una devastata 4060ti.

bonzoxxx
04-08-2022, 12:18
Tu tieni la auris poi con 10k ti fai pc+monitor+postazione e giochi ad assetto corse è morta li :asd:

Ah beh come idea non è male, mi basta la postazione il pc ce l'ho cosi risparmio pure qualcosa :D :D

Con una panda a 3 cilindri a 14k non ci si può aspettare nulla di meglio

Come darti torto... una aygo automatica 17500 euro, ma questi se so bevuti la candeggina..

fraussantin
04-08-2022, 14:45
Anche io ho preso una dacia , diciamo che finche costavano poco eran ottimi compromessi.

Cioè un Duster 15k o una sandero sw a 12k ci stava nonostante i evidenti difetti o "risparmiosità" .
Adesso una Duster gpl costa 22k sinceramente non la consiglierei mai. Anche le dr sono ormai a quelle cifre

Sono un po come le manli delle gpu.

Ale55andr0
04-08-2022, 16:07
il mondo va a Pu...ne e noi con lui :doh:

e purtroppo non abbiamo ancora visto "niente"...

RedPrimula
04-08-2022, 19:48
Ciao ragazzi, ho la scimmia che freme... ho un buono amazzone da 200 euri quindi ammortizzerei la spesa: vado di 3060/3060Ti o aspetto?

bonzoxxx
04-08-2022, 19:52
Se il buono non scade e non hai fretta..

RedPrimula
04-08-2022, 19:58
Se il buono non scade e non hai fretta..

scade fra 10 anni :sofico:

bonzoxxx
04-08-2022, 21:59
scade fra 10 anni :sofico:

A sto punto, se non hai fretta, aspetterei. Magari succede come con la serie 2000 che gente con la paura di perdere troppi soldi ha venduto 2080 a 4 spicci (e usi il buono per altro) oppure visto che il mining non è profittevole e eth sta passando al PoS magari le lovelace si troveranno e a prezzo msrp..

amon.akira
05-08-2022, 00:08
china_cannot_control_tsmc_by_force_-_ceo_confirms (https://www.overclock3d.net/news/misc_hardware/china_cannot_control_tsmc_by_force_-_ceo_confirms/1)

fraussantin
05-08-2022, 04:55
china_cannot_control_tsmc_by_force_-_ceo_confirms (https://www.overclock3d.net/news/misc_hardware/china_cannot_control_tsmc_by_force_-_ceo_confirms/1)La situazione è molto delicata e la cina ha cmq una buona produzione interna di chip , anche se di qualità sicuramente inferiore rispetto a taiwan.

Probabilmente è solo un teatrino per mostrare i muscoli in vista delle "elezioni" del presidente del partito cinese , come sostengono alcuni analisti, ma alcuni lo sostenevano anche delle manovre militari di putin a confine con l'ucraina.

Sicuramente ci rimetteremmo più noi che loro da un eventuale guerra, quindi c'è il rischio che l'america faccia come sempre "per evitare il conflitto mondiale" cioè si tiri indietro.

scorpion73
05-08-2022, 09:12
https://videocardz.com/newz/nvidia-geforce-rtx-4080-rumored-specs-downgraded-to-9728-cuda-cores

altro giro altra corsa... manco 10k cuda se sono veri sti rumors....

devAngnew
05-08-2022, 09:12
Io non venderei nulla adesso fossi in te, basta fare un giro sulla baia il 99% delle aste va invenduto con zero offerte e parliamo di 3080 a 600 euro e 3070 a 450 o addirittura 6800/6700 senza nemmeno un offerta a prezzi ben inferiori al msrp, su subito stessa solfa. Tieni tutti spento e aspetta la prossima bolla del mining per vendere tutto, sempre che non ti pressi avere liquidità. Oppure aspetta il paper launch delle 40XX e poi ti vendi la 3080 a quelli che da Pascal aspettano di aggiornare la 1070 con una XX70 allo stesso prezzo.

Per curiosità mi invieresti un link anche in privato ?
grazie. :D

devAngnew
05-08-2022, 09:19
https://videocardz.com/newz/nvidia-geforce-rtx-4080-rumored-specs-downgraded-to-9728-cuda-cores

altro giro altra corsa... manco 10k cuda se sono veri sti rumors....

https://c.tenor.com/qo12_48eAUIAAAAC/checco-zalone-mestiere.gif

Si scherza
:D :asd: :asd:

Ubro92
05-08-2022, 09:30
https://videocardz.com/newz/nvidia-geforce-rtx-4080-rumored-specs-downgraded-to-9728-cuda-cores

altro giro altra corsa... manco 10k cuda se sono veri sti rumors....

Alla fine non cambierebbe comunque nulla, è meno del 5% di differenza.
Avrebbe anche senso in ottica 4070s e 4080s.

scorpion73
05-08-2022, 09:55
Alla fine non cambierebbe comunque nulla, è meno del 5% di differenza.
Avrebbe anche senso in ottica 4070s e 4080s.

Senti, onestamente, una 4080 con meno di 10k cuda si magari a prestazioni sarà poca roba, ma onestamente mi lascia comunque perplesso.
Sarà una scheda fenomeno non dubito, ma sarà sorpassata e strasvalutata nel giro di sei mesi, molto più di tutte le altre della gamma, visto che la situazione di Lovelace sarà profondamente diversa da Ampere.
A sto punto meglio una 4090, se non troppo inaccessibile, o attendere la 4080ti.
Almeno hai una scheda top che rivenderai come top della generazione passata.
La 4080 cosi fatta la pagherai uno sproposito e la vederai a due lire ancora prima che esca la 5080, basterà l'uscita della super o della ti....

Gigibian
05-08-2022, 10:06
Dagli ultimi rumors la nuova 4070 con bus a 192 bit e 7800 core, non dovrebbe andare meno di una 3080 TI ?

Ubro92
05-08-2022, 10:07
Alla fine è come per la 2080, anche quella non era full chip, e successivamente uscii la 2080s con memorie più veloci e tutte le unità abilitate.

Non sarebbe strano che ripropongano la gerarchia turing.

scorpion73
05-08-2022, 10:12
Alla fine è come per la 2080, anche quella non era full chip, e successivamente uscii la 2080s con memorie più veloci e tutte le unità abilitate.

Non sarebbe strano che ripropongano la gerarchia turing.

Oppure addirittura rispolverare la vecchia questione della ti come full AD103...

Gigibian
05-08-2022, 10:13
Alla fine è come per la 2080, anche quella non era full chip, e successivamente uscii la 2080s con memorie più veloci e tutte le unità abilitate.

Non sarebbe strano che ripropongano la gerarchia turing.

beh pero' la 2070 andava come la 1080 TI
la 3070 andava come la 2080 TI
Qui la 4070 se quelle caratteristiche sono vere (192 bit e 7800 core) non dovrebbe andare dicisamente meno della 3080 TI? Chiedo a mikael magari

Ubro92
05-08-2022, 10:17
beh pero' la 2070 andava come la 1080 TI
la 3070 andava come la 2080 TI
Qui la 4070 se quelle caratteristiche sono vere (192 bit e 7800 core) non dovrebbe andare dicisamente meno della 3080 TI? Chiedo a mikael magari

Al contrario prenderebbe anche la 3090ti.

C'è stato un importante upgrade non tanto per unità abilitate passando da 7168 a 7680cc ma per il bus e le memorie, si passa dai precedenti 160bit e 18gbps (360gb/s) a 192bit e 21gbps (504gb/s), inoltre con un bus pieno ripristini anche il collegamento con la cache che avevi perso.

Per prendere la 3080 liscia ti bastano 6144cc e 160bit, specifiche che probabilmente vedremo per la 4060ti.

Devi tenere conto anche dei clock, il pp di samsung era decisamente sfigato, qua abbiamo un clock oltre i 2.5-2.6ghz.

La 1080ti in raster era più vicina alla 2070s che alla 2070, poi vabbè dipende dai giochi, negli engine moderni tendenzialmente si sovrappone a 3060/2070 e quest'ultime hanno anche la possibilità di sfruttare il DLSS.

Nelson Muntz
05-08-2022, 11:13
beh pero' la 2070 andava come la 1080 TI


no
provato sul campo , la 1080ti andava praticamente come la 2070s , quindi sopra la 2070

Gello
05-08-2022, 11:19
no
provato sul campo , la 1080ti andava praticamente come la 2070s , quindi sopra la 2070

Di brutto, anche sei nei titoli moderni Dx 12 la 2070s recuperava di qualcosa, superandola. La 2070 liscia rimaneva decisamente indietro. Fatto diversi test fra Titan X Pascal e 2070s entrambe occate/liquidate.

In dx11 pure la 2070s prendeva la paga.

Gigibian
05-08-2022, 11:29
Al contrario prenderebbe anche la 3090ti.

C'è stato un importante upgrade non tanto per unità abilitate passando da 7168 a 7680cc ma per il bus e le memorie, si passa dai precedenti 160bit e 18gbps (360gb/s) a 192bit e 21gbps (504gb/s), inoltre con un bus pieno ripristini anche il collegamento con la cache che avevi perso.

Per prendere la 3080 liscia ti bastano 6144cc e 160bit, specifiche che probabilmente vedremo per la 4060ti.

Devi tenere conto anche dei clock, il pp di samsung era decisamente sfigato, qua abbiamo un clock oltre i 2.5-2.6ghz.

La 1080ti in raster era più vicina alla 2070s che alla 2070, poi vabbè dipende dai giochi, negli engine moderni tendenzialmente si sovrappone a 3060/2070 e quest'ultime hanno anche la possibilità di sfruttare il DLSS.

Guarda che una 3080 TI ha 10200 core, 384 bit di bus ed 1TB/s di banda passante... caratteristiche molto superiori alla 4070, di che parliamo?

Non capisco, come fate a dire che raggiunge una 3090 TI?

mikael84
05-08-2022, 11:36
https://videocardz.com/newz/nvidia-geforce-rtx-4080-rumored-specs-downgraded-to-9728-cuda-cores

altro giro altra corsa... manco 10k cuda se sono veri sti rumors....

Facendo un taglio simile, non perdi solo la percentuale di cuda, ma tutta una primitiva ed 8 rop's. Si indebolisce abbastanza.
Attualmente siamo sotto la 3070 liscia di ampere a spec.

beh pero' la 2070 andava come la 1080 TI
la 3070 andava come la 2080 TI
Qui la 4070 se quelle caratteristiche sono vere (192 bit e 7800 core) non dovrebbe andare dicisamente meno della 3080 TI? Chiedo a mikael magari

No, perchè aumenta drasticamente il clock, si parla di 2,75-3ghz.
A 2,75, avrebbe gli stessi TF della 3090ti.

Di brutto, anche sei nei titoli moderni Dx 12 la 2070s recuperava di qualcosa, superandola. La 2070 liscia rimaneva decisamente indietro. Fatto diversi test fra Titan X Pascal e 2070s entrambe occate/liquidate.

In dx11 pure la 2070s prendeva la paga.

La 2070 liscia malgrado i 2300cc, recuperava con il calcolo parallelo degli interi.
A 36 interi equivaleva ad un pascal sui 3100cc circa. Es tomb raider stava sui 38, battlefield sui 40. Quindi si avvicinava molto.
Tuttavia è stata dotata di FP16, Independent Thread Scheduling e varie per vulkan e dx12.

Il problema però era il grave warp stall, ovvero a parità di risorse, Turing rimaneva sottosfruttato, tanto che pascal sta una spanna sopra pure a turing che è stato aggiustato in parte ad l1 a 2x BW, cache registri più grande etc.:)

Gigibian
05-08-2022, 12:15
Facendo un taglio simile, non perdi solo la percentuale di cuda, ma tutta una primitiva ed 8 rop's. Si indebolisce abbastanza.
Attualmente siamo sotto la 3070 liscia di ampere a spec.



No, perchè aumenta drasticamente il clock, si parla di 2,75-3ghz.
A 2,75, avrebbe gli stessi TF della 3090ti.



La 2070 liscia malgrado i 2300cc, recuperava con il calcolo parallelo degli interi.
A 36 interi equivaleva ad un pascal sui 3100cc circa. Es tomb raider stava sui 38, battlefield sui 40. Quindi si avvicinava molto.
Tuttavia è stata dotata di FP16, Independent Thread Scheduling e varie per vulkan e dx12.

Il problema però era il grave warp stall, ovvero a parità di risorse, Turing rimaneva sottosfruttato, tanto che pascal sta una spanna sopra pure a turing che è stato aggiustato in parte ad l1 a 2x BW, cache registri più grande etc.:)

Grazie Mikael della risposta.
pero' non ho capito: prima dici che la 4080 è inferiore alla 3070 a livello di spec, e poi che la 4070 andrà come una 3090 ti grazie al maggior clock...

Quando ti riferisci alla 4080 parli solo di architettura giusto? non come performace.

Gigibian
05-08-2022, 12:21
anyway, la 4080 420W col processo produttivo a 4nm e solo 9000 core...

Praticamente la scelta più inefficente possibile.

Invece di portare il clock a 2.8Ghz, potevano tenerlo più basso, ed aumentare i core, invece di sparare sul clock. Così da avere stesse performance ma caldo e consumi più bassi.

praticamente come numero di core siamo inferiori alla generazione precedente...

mikael84
05-08-2022, 12:34
Grazie Mikael della risposta.
pero' non ho capito: prima dici che la 4080 è inferiore alla 3070 a livello di spec, e poi che la 4070 andrà come una 3090 ti grazie al maggior clock...

Quando ti riferisci alla 4080 parli solo di architettura giusto? non come performace.

No, non intendevo quello.
A sto giro, per sviare ai costi, grazie alle possibilità del salto nodo (nvidia con turing è rimasta ferma, poi ha preso il PP samsung che è osceno), nvidia ha declassato pesantemente i chip.
La x80 è sempre stata 2/3 del chippone, questa in proporzione sarebbe più tagliata della 3070 rispetto alla 3090ti
La 3070 ha meno l'82% delle ALU rispetto alla 3090ti.
La 4080 avrebbe così meno del 90% delle ALU della 4090ti (che avrà 18,4k cuda)

A livello di prestazioni, visto il clock, e le ottimizzazioni sulla cache, sarà ben superiore di GA102.

Gigibian
05-08-2022, 12:42
No, non intendevo quello.
A sto giro, per sviare ai costi, grazie alle possibilità del salto nodo (nvidia con turing è rimasta ferma, poi ha preso il PP samsung che è osceno), nvidia ha declassato pesantemente i chip.
La x80 è sempre stata 2/3 del chippone, questa in proporzione sarebbe più tagliata della 3070 rispetto alla 3090ti
La 3070 ha meno l'82% delle ALU rispetto alla 3090ti.
La 4080 avrebbe così meno del 90% delle ALU della 4080ti (che avrà 18,4k cuda)

A livello di prestazioni, visto il clock, e le ottimizzazioni sulla cache, sarà ben superiore di GA102.

Chiaro, tnx!

fraussantin
05-08-2022, 12:54
Quale era la data per la 4080?

mikael84
05-08-2022, 12:55
Quale era la data per la 4080?

Ottobre-Novembre

amon.akira
05-08-2022, 12:57
Quale era la data per la 4080?

gli ultimi rumor dicevano ottobre 4090 novembre 4080, ma dobbiamo aspettare la presentazione ufficiale che sicuramente sarà inizio settembre

Ubro92
05-08-2022, 12:57
anyway, la 4080 420W col processo produttivo a 4nm e solo 9000 core...

Praticamente la scelta più inefficente possibile.

Invece di portare il clock a 2.8Ghz, potevano tenerlo più basso, ed aumentare i core, invece di sparare sul clock. Così da avere stesse performance ma caldo e consumi più bassi.

praticamente come numero di core siamo inferiori alla generazione precedente...

Proprio per via dell'enorme salto di clock e a una cache 8x volte più ampia che un chip da 7680cc e bus a 192bit compete con uno di generazione precedente più denso.

Non è neanche qualcosa che dovrebbe stupire, soprattutto se hai citato pascal che ha fatto la medesima cosa rispetto maxwell, solo che li si sono limitati con la 1080ti a un die di 471mmq, con lovelace non si sono limitati a AD103 :fagiano:

Mikael quando ragiona dicendo che ti stanno vendendo un chip come la 4080 con la complessità di 3070 non è per le prestazioni bensi per le dimensioni del die.

Per farti capire:

4090 611mmq vs 3090 628mmq
4080 380mmq vs 3080 628mmq (qua abbiamo un anomalia dato che la 3080 è uno scarto di GA102, in teoria doveva essere ricavata da GA103 ma è pervenuto solo nel mobile e ha un die di 496mmq)
4070 300mmq vs 3070 392mmq
4060 203mmq vs 3060 276mmq

Ma lato prestazioni considerando l'enorme balzo di nodo dai 8nm di samsung ai 5nm di tsmc, hai praticamente un raddoppio della densità e un incremento del 40% del clock ma anche oltre in realtà.

Vul
05-08-2022, 13:24
Che prestazioni dovrebbe avere un eventuale 4060?

Se avesse prestazioni da 3070 mi sa che questa volta apro il portafoglio :D

Per gaming 4k senza pretese di maxare tutto ad ultra e con RT dovrebbe essere piu adeguata.

scorpion73
05-08-2022, 13:27
Facendo un taglio simile, non perdi solo la percentuale di cuda, ma tutta una primitiva ed 8 rop's. Si indebolisce abbastanza.
Attualmente siamo sotto la 3070 liscia di ampere a spec.


Infatti, potrà anche andare e sicuramente andrà un 30% in più della precedente generazione, ma per me una scheda così non mi convince da un punto di vista tecnico, sarà sovrapprezzata e successivamente supersvalutata perché rimpiazzata presto nell'ambito della stessa generazione.
Io una cosa così non la voglio, anche se va di più.
Per cui, dal mio punto di vista, o punto alla 4090, o se non è accessibile aspetto la ti, un refresh, insomma qualcosa di tecnicamente più decente.
Altrimenti salto e ci vediamo alla 5000, non è mica un problema. Con i giochi che ci sono adesso, poi....

bonzoxxx
05-08-2022, 13:32
Che prestazioni dovrebbe avere un eventuale 4060?

Se avesse prestazioni da 3070 mi sa che questa volta apro il portafoglio :D

Per gaming 4k senza pretese di maxare tutto ad ultra e con RT dovrebbe essere piu adeguata.

Ad occhio potrebbe pure superarla

mikael84
05-08-2022, 15:18
Che prestazioni dovrebbe avere un eventuale 4060?

Se avesse prestazioni da 3070 mi sa che questa volta apro il portafoglio :D

Per gaming 4k senza pretese di maxare tutto ad ultra e con RT dovrebbe essere piu adeguata.

Si tranquillo. Dovrebbe basarsi su AD106 con 4608 cuda (che sono quasi i cuda della 3060ti).
Prenderebbe la 3070 a soli 2,5ghz e le danno per 2,75/3.

Infatti, potrà anche andare e sicuramente andrà un 30% in più della precedente generazione, ma per me una scheda così non mi convince da un punto di vista tecnico, sarà sovrapprezzata e successivamente supersvalutata perché rimpiazzata presto nell'ambito della stessa generazione.
Io una cosa così non la voglio, anche se va di più.
Per cui, dal mio punto di vista, o punto alla 4090, o se non è accessibile aspetto la ti, un refresh, insomma qualcosa di tecnicamente più decente.
Altrimenti salto e ci vediamo alla 5000, non è mica un problema. Con i giochi che ci sono adesso, poi....

Se guardiamo le pure prestazioni, sarà valida, alla fine è quello lo scopo, ma, considerando che siamo in un thread tecnico, la valutazione è negativa.

Gli è andata veramente di lusso il PP davvero spinto, rispetto quella ciofeca di samsung.

Per il resto, a livello di performance sarà una buonissima scheda, veloce, equilibrata con 16gb di ram, però lato tecnico è davvero una presa in giro. E' meno della 3070 ampere in rapporto ALU chippone.

Come siamo messi sul pci express sarà 5.0? E sopratutto satura la 3.0?

Sarà 4.0, più che sufficiente.

magic carpet
05-08-2022, 15:19
A proposito di maxare, tra pochi giorni uscirà Spiderman.
Non sono appassionato di supereroi e non l'ho giocato mai su PS.
Però per PC che ne dite? Riusciamo a spremere un po' in 4K RTX queste Ampere?
Mi sa tanto di canto del cigno...:D
Tra l'altro a giorni dovrebbero uscire anche i nuovi driver Game Ready.
È un mese che non li aggiornano...

Wolf91
05-08-2022, 15:48
A proposito di maxare, tra pochi giorni uscirà Spiderman.
Non sono appassionato di supereroi e non l'ho giocato mai su PS.
Però per PC che ne dite? Riusciamo a spremere un po' in 4K RTX queste Ampere?
Mi sa tanto di canto del cigno...:D
Tra l'altro a giorni dovrebbero uscire anche i nuovi driver Game Ready.
È un mese che non li aggiornano...

Un mese ?

Gli ultimi driver sono usciti il 26 Luglio i 516.93

Comunque Spiderman essendo un porting,non metterà in difficolta le nostre RTX 3080

Thunder-74
05-08-2022, 16:14
Daje con i rumors... New day, new RTX 40 specs

Dopo un aggiornamento a RTX 4090 e RTX 4070, l'RTX 4080 è ora in linea per un aggiornamento. Va notato che le specifiche di RTX 40 sono cambiate alcune volte prima, l'aggiornamento più recente per RTX 4080 è stato intorno a giugno . Da allora Kopite ha aggiornato le specifiche RTX 4090 e RTX 4070, con l'unica parte rimanente 4080.

Almeno in questo caso le specifiche non sono cambiate drasticamente, c'è solo un aggiornamento alle specifiche CUDA Core, ora si dice a 9728. Ciò significa un downgrade da 80 multiprocessori di streaming attivi a 76. Sembra che la memoria, il TDP e le stime delle prestazioni siano lo stesso.

RTX 4080,

PG136/139-SKU360
AD103-300-A1
9728 FP32 CUDA
256bit 16G 21Gbps GDDR6X
potenza totale ~420W
TSE ~15000

LINK (https://videocardz.com/newz/nvidia-geforce-rtx-4080-rumored-specs-downgraded-to-9728-cuda-cores)

Telstar
05-08-2022, 20:18
Dunque chi ha le motherboard 3.0 consigli di cambiarle?

nah, con slot 16x secondo me neanche la 4090 lo maxa.

Gigibian
05-08-2022, 20:22
Daje con i rumors... New day, new RTX 40 specs

Dopo un aggiornamento a RTX 4090 e RTX 4070, l'RTX 4080 è ora in linea per un aggiornamento. Va notato che le specifiche di RTX 40 sono cambiate alcune volte prima, l'aggiornamento più recente per RTX 4080 è stato intorno a giugno . Da allora Kopite ha aggiornato le specifiche RTX 4090 e RTX 4070, con l'unica parte rimanente 4080.

Almeno in questo caso le specifiche non sono cambiate drasticamente, c'è solo un aggiornamento alle specifiche CUDA Core, ora si dice a 9728. Ciò significa un downgrade da 80 multiprocessori di streaming attivi a 76. Sembra che la memoria, il TDP e le stime delle prestazioni siano lo stesso.

RTX 4080,

PG136/139-SKU360
AD103-300-A1
9728 FP32 CUDA
256bit 16G 21Gbps GDDR6X
potenza totale ~420W
TSE ~15000

LINK (https://videocardz.com/newz/nvidia-geforce-rtx-4080-rumored-specs-downgraded-to-9728-cuda-cores)

Cmq con il processo produttivo a 4nm TSMC, raggiungerr 420W per una scheda mainstream come la serie X80 è assurdo... Quasi schifoso.

Ti obbliga a usare un AIO per il processore (altrimenti un dissi ad aria fa ristagnare l'aria calda. Tra CPU e GPU ) ed un caso più grande della media....bah....

Rimango dell'idea che potevano inserire molti più core a frequenze molto più basse per ridurre i consumi.

Gigibian
05-08-2022, 20:24
Dunque chi ha le motherboard 3.0 consigli di cambiarle?

Ma che ve frega... Il bus PCI Express entra in gioco solo durante i caricamenti iniziali...poi le texture e le mappe vengo tutte precaricate sulla VRAM e li rimangono.

Durante il gaming è tutto sulla VRAM, non passa nulla per il PCI Express.

Thunder-74
05-08-2022, 20:43
Ma che ve frega... Il bus PCI Express entra in gioco solo durante i caricamenti iniziali...poi le texture e le mappe vengo tutte precaricate sulla VRAM e li rimangono.

Durante il gaming è tutto sulla VRAM, non passa nulla per il PCI Express.


Magari nei giochi openworld quando si viaggia da una parte all altra, hai caricamenti in game , ma non mi porrei tanti problemi


Inviato dal mio iPhone X utilizzando Tapatalk

fraussantin
05-08-2022, 21:12
Magari nei giochi openworld quando si viaggia da una parte all altra, hai caricamenti in game , ma non mi porrei tanti problemi


Inviato dal mio iPhone X utilizzando Tapatalk

si ma non penso che ci sia un degrado tale da necessitare un cambio pc.

casomai piu facile la cpu che se vecchiotta limiti

mikael84
06-08-2022, 00:56
Daje con i rumors... New day, new RTX 40 specs

Dopo un aggiornamento a RTX 4090 e RTX 4070, l'RTX 4080 è ora in linea per un aggiornamento. Va notato che le specifiche di RTX 40 sono cambiate alcune volte prima, l'aggiornamento più recente per RTX 4080 è stato intorno a giugno . Da allora Kopite ha aggiornato le specifiche RTX 4090 e RTX 4070, con l'unica parte rimanente 4080.

Almeno in questo caso le specifiche non sono cambiate drasticamente, c'è solo un aggiornamento alle specifiche CUDA Core, ora si dice a 9728. Ciò significa un downgrade da 80 multiprocessori di streaming attivi a 76. Sembra che la memoria, il TDP e le stime delle prestazioni siano lo stesso.

RTX 4080,

PG136/139-SKU360
AD103-300-A1
9728 FP32 CUDA
256bit 16G 21Gbps GDDR6X
potenza totale ~420W
TSE ~15000

LINK (https://videocardz.com/newz/nvidia-geforce-rtx-4080-rumored-specs-downgraded-to-9728-cuda-cores)

Si thunder, l'abbiamo commentato la pagina precedente, ormai non si capisce più se vaneggi lui, o JHH vuole smontare un 379mm2.
La decurtazione così, farebbe perdere anche a livello geometrico e di rop's.

Dai suoi dati, l'unica cosa positiva è la possibile 3070ti su AD103, e quindi con 16gb.

Dunque chi ha le motherboard 3.0 consigli di cambiarle?

Sicuramente sarebbe meglio montare le cpu più recenti per tali GPU, ma non avrai limiti sul pci e.:)

Cmq con il processo produttivo a 4nm TSMC, raggiungerr 420W per una scheda mainstream come la serie X80 è assurdo... Quasi schifoso.

Ti obbliga a usare un AIO per il processore (altrimenti un dissi ad aria fa ristagnare l'aria calda. Tra CPU e GPU ) ed un caso più grande della media....bah....

Rimango dell'idea che potevano inserire molti più core a frequenze molto più basse per ridurre i consumi.

E' da mesi che mi lamento, però avrà le sue ragioni a declassare così le fasce. Il 5nm gli costa 3 volte il PP di samsung a wafer.
Praticamente sta sfruttando al massimo il PP, ma lo stesso sta facendo AMD con ryzen.
Inoltre, deve anche guardarsi le spalle, in quanto AMD ha un ottimo progetto.:)

Gigibian
06-08-2022, 01:55
Si thunder, l'abbiamo commentato la pagina precedente, ormai non si capisce più se vaneggi lui, o JHH vuole smontare un 379mm2.
La decurtazione così, farebbe perdere anche a livello geometrico e di rop's.

Dai suoi dati, l'unica cosa positiva è la possibile 3070ti su AD103, e quindi con 16gb.



Sicuramente sarebbe meglio montare le cpu più recenti per tali GPU, ma non avrai limiti sul pci e.:)



E' da mesi che mi lamento, però avrà le sue ragioni a declassare così le fasce. Il 5nm gli costa 3 volte il PP di samsung a wafer.
Praticamente sta sfruttando al massimo il PP, ma lo stesso sta facendo AMD con ryzen.
Inoltre, deve anche guardarsi le spalle, in quanto AMD ha un ottimo progetto.:)

Assolutamente, praticamente meno core, chip più piccoli, più resa per wafer e bassi costi. Considerando che l'architettura è rimasta sostanzialmente la stessa... Hanno pagato per un pp 4nm più costoso del Samsung che gli ha permesso di tirare su le frequenze e basta. Zero non ricorrenti e spese di progettazione. "Ponsi ponsi popopom...ti piace vincere facile?"

A sto giro secondo me AMD sarà davanti.

magic carpet
06-08-2022, 07:55
Un mese ?

Gli ultimi driver sono usciti il 26 Luglio i 516.93

Comunque Spiderman essendo un porting,non metterà in difficolta le nostre RTX 3080L'ultima release WHQL per W11 disponibile sul sito Nvidia è la 516.59 del 28/06.

Ubro92
06-08-2022, 08:15
Però il 10900x aveva ancora il pci 3.0 a differenza di alcuni amd più nuovi come ho consigliato a mio fratello una b550, qualche tempo fa, apposta per il pci 4.0 per un futuro dato che li passerò la mia 3090 quando la cambio(dato che ha un monitor da 4k a 244hz).

Ma in realtà anche con schede come 3080/3090 non ci sono grosse strozzature, inizi a notare cali prestazionali se hai molti dispositivi pci-e connessi e ti ritrovi la gpu in modalità pci-e 3.0 x8.

https://www.techspot.com/review/2104-pcie4-vs-pcie3-gpu-performance/

Il pci-e 5.0 è abbastanza superfluo, prima che le gpu ne necessitino realmente saranno obsolete già le cpu, infatti anche amd con i prossimi chipset supporterà il 5.0 solo per lo storage, per il reparto grafico sarà garantito solo sui chipset serie E.

Poi vabbè in controtendenza il 4.0 potrà tornare utile sulle gpu entry level, visto che ultimamente sta andando di moda strozzare le linee pcie in modalità 4x, come la 6500xt :fagiano:

Ubro92
06-08-2022, 08:21
L'ultima release WHQL per W11 disponibile sul sito Nvidia è la 516.59 del 28/06.

Si poi c'è anche il canale hotfix con l'ultima 516.79 e il canale vulkan con la 516.89.

Thunder-74
06-08-2022, 08:22
L'ultima release WHQL per W11 disponibile sul sito Nvidia è la 516.59 del 28/06.


Poi sono usciti gli hotfix 516.79. Quelli di cui lui parla sono gli Studio non i Game. Però sento dire degli Studio che vanno anche meglio sugli FPS minimi, rispetto ai game, a discapito di qualche fps massimo. Non li ho mai provati


Inviato dal mio iPhone X utilizzando Tapatalk

mikael84
06-08-2022, 11:33
Assolutamente, praticamente meno core, chip più piccoli, più resa per wafer e bassi costi. Considerando che l'architettura è rimasta sostanzialmente la stessa... Hanno pagato per un pp 4nm più costoso del Samsung che gli ha permesso di tirare su le frequenze e basta. Zero non ricorrenti e spese di progettazione. "Ponsi ponsi popopom...ti piace vincere facile?"

A sto giro secondo me AMD sarà davanti.

Esatto.
La 4080 o meglio AD103 è praticamente un GA102, con meno bus è una cache mastodontica, che riprende in parte l'infinity cache di AMD, solo sulla l2.
Il tutto su un 380mm2 scarsi.

Il chippone da ben 611mm2, al momento sarà esclusiva delle x90/ti, quadro più costose, come la L6000/L8000 da 48gb.

AMD pare avere un bel progetto da 4, 8 e 12k shader, con i wgp a 256 st e non più a 128. Già il 4k grazie ai clock ed alla semplificazione dei wgp, dovrebbe allinearsi a navi21.:)

Maury
06-08-2022, 11:37
A me pare un pó strano che giacchetta voglia correre il rischio di stare dietro ad Amd, non è nel suo DNA, farà di tutto per spuntarla. Non mi preoccuperei troppo per le prestazioni finali.

mikael84
06-08-2022, 12:08
A me pare un pó strano che giacchetta voglia correre il rischio di stare dietro ad Amd, non è nel suo DNA, farà di tutto per spuntarla. Non mi preoccuperei troppo per le prestazioni finali.

Se la giocheranno, bisogna vedere sul campo ovviamente, ma già navi32 (7800xt) tra cache separate e die, dovrebbe arrivare sui 440mm2 vs 380mm2 di AD103. Si parla anche di ben 8196 shader per tale chip, praticamente 2x la navi33 che ne avrà 4096st (navi 21 like).

Ovviamente, è da vedere pure il lavoro fatto sul RT, le eventuali latenze delle cache impilate, lo scaling su molti core etc.

Ubro92
06-08-2022, 12:36
Esatto.
La 4080 o meglio AD103 è praticamente un GA102, con meno bus è una cache mastodontica, che riprende in parte l'infinity cache di AMD, solo sulla l2.
Il tutto su un 380mm2 scarsi.

Idem anche per AD104 e GA103S, stessa struttura e il die passa da 496mm2 a 300mm2.

Solo AD106 rispetto a GA106 vede un incremento delle unità interne da 3840cc a 4608cc, come avvenne per Pascal si sono appoggiati in toto al pp sfruttando l'incremento di clock e la maggior densità.

Ma è ovvio che i progettisti vanno sempre per l'opzione più prestante a costi inferiori, fare chip più densi costava di più e hanno optato per alzare i clock quanto possibile.

Nel mobile di sicuro sarà interessante, un AD103 mobile è praticamente li con la 3090 desktop considerando che difficilmente andrà oltre i 2ghz per rientrare nei 175w :sofico:

Gigibian
06-08-2022, 12:48
Esatto.
La 4080 o meglio AD103 è praticamente un GA102, con meno bus è una cache mastodontica, che riprende in parte l'infinity cache di AMD, solo sulla l2.
Il tutto su un 380mm2 scarsi.

Il chippone da ben 611mm2, al momento sarà esclusiva delle x90/ti, quadro più costose, come la L6000/L8000 da 48gb.

AMD pare avere un bel progetto da 4, 8 e 12k shader, con i wgp a 256 st e non più a 128. Già il 4k grazie ai clock ed alla semplificazione dei wgp, dovrebbe allinearsi a navi21.:)

Ottimo! Tnx siamo allineati.

A questo giro vedendo quanto Lisa Su sta spingendo su ingegneria e progettazione, ho il sospetto che ci sarà il sorpasso...

mikael84
06-08-2022, 13:11
Idem anche per AD104 e GA103S, stessa struttura e il die passa da 496mm2 a 300mm2.

Solo AD106 rispetto a GA106 vede un incremento delle unità interne da 3840cc a 4608cc, come avvenne per Pascal si sono appoggiati in toto al pp sfruttando l'incremento di clock e la maggior densità.

Ma è ovvio che i progettisti vanno sempre per l'opzione più prestante a costi inferiori, fare chip più densi costava di più e hanno optato per alzare i clock quanto possibile.

Nel mobile di sicuro sarà interessante, un AD103 mobile è praticamente li con la 3090 desktop considerando che difficilmente andrà oltre i 2ghz per rientrare nei 175w :sofico:

Con AD106 e 107, praticamente ha preso GA106, nel primo ha fatto il classico TPC x GPC (che faceva sempre), nel secondo sempre TPC x GPC ma in negativo.:)
Sui clock del mobile vediamo a 175watt quanto riuscirà a tirare. Sicuramente su AD104 mobile, riesce a tirare abbastanza bene, non mi stupirei di vedere anche 2,4/2,5. Su AD103 è tosta, bisogna vedere l'efficienza su certi clock, ma non saranno molto bassi. :)

Ottimo! Tnx siamo allineati.

A questo giro vedendo quanto Lisa Su sta spingendo su ingegneria e progettazione, ho il sospetto che ci sarà il sorpasso...

Vedremmo sul campo. Ha dichiarato 50% perf/watt, quindi un 2x sarebbe sui 450 watt almeno.
un 2x lo farà anche nvidia.:)

TigerTank
06-08-2022, 15:22
Vorrei condividere un pensiero che ho da un pò...
Secondo voi, considerato quanto sono diventate energivore e calorose le vga, per "rientrare" nei limiti delle dissipazioni ad aria senza che le ventole debbano andare a regimi troppo alti e dunque diventare troppo rumorose, potrebbe essere che le vram molto calorose siano cosa "voluta" a livello progettuale/costruttivo?
Nel senso di limitare la dissipazione tramite pad non al top, tenendole comunque entro limiti di "sicurezza", per non "caricare" troppo il dissipatore ed evitare temperature eccessive sulla gpu?
E' un'idea che terrò in considerazione soprattutto con le nuove con TDP più alti e soprattutto quando inizieranno a fare dei teardown degni di tal nome.

Gello
06-08-2022, 15:32
Ma guarda lo fanno solo perche' sono dei "pulciari" dove 2 euro di pad moltiplicato per mass production diventano soldi veri, per lo stesso motivo delle CPU con pasta del capitano di qualche anno fa, a loro interessa solo che il tutto rientri nelle specifiche e duri almeno due anni, al minor costo possibile, al netto chiaramente di eventuali errori di progettazione.

Alekos Panagulis
06-08-2022, 15:34
Vorrei condividere un pensiero che ho da un pò...
Secondo voi, considerato quanto sono diventate energivore e calorose le vga, per "rientrare" nei limiti delle dissipazioni ad aria senza che le ventole debbano andare a regimi troppo alti e dunque diventare troppo rumorose, potrebbe essere che le vram molto calorose siano cosa "voluta" a livello progettuale/costruttivo?
Nel senso di limitare la dissipazione tramite pad non al top, tenendole comunque entro limiti di "sicurezza", per non "caricare" troppo il dissipatore ed evitare temperature eccessive sulla gpu?
E' un'idea che terrò in considerazione soprattutto con le nuove con TDP più alti e soprattutto quando inizieranno a fare dei teardown degni di tal nome.

Mi sembra un ragionamento un po' forzato. E' più probabile che i pad scadenti vengano scelti per risparmiare qualche centesimo su ogni vga. D'altronde è stato sempre così, indipendentemente dai consumi del chip e della vga nel suo complesso.

Wolf91
06-08-2022, 15:49
Vorrei condividere un pensiero che ho da un pò...
Secondo voi, considerato quanto sono diventate energivore e calorose le vga, per "rientrare" nei limiti delle dissipazioni ad aria senza che le ventole debbano andare a regimi troppo alti e dunque diventare troppo rumorose, potrebbe essere che le vram molto calorose siano cosa "voluta" a livello progettuale/costruttivo?
Nel senso di limitare la dissipazione tramite pad non al top, tenendole comunque entro limiti di "sicurezza", per non "caricare" troppo il dissipatore ed evitare temperature eccessive sulla gpu?
E' un'idea che terrò in considerazione soprattutto con le nuove con TDP più alti e soprattutto quando inizieranno a fare dei teardown degni di tal nome.

Ti danno pad di m***a anche con WB da 350€,qualcuno ha detto EkWb ?

Figurati con una Vga....che in proporzione costa meno dei suddetti WB...oramai stiamo rasentando il ridicolo

TigerTank
06-08-2022, 15:58
Eh sì mi sa che è così...però considerato che comunque i TDP aumentano ma parallelamente non possono compensare con dei dissipatori eccessivamente grossi, magari giocano con un pò di strategia sui potenziali di dissipazione perchè alla fine l'occhio dell'user medio cade principalmente sulla temp. della gpu(da cui dipende anche il comportamento del ventolame e dunque della rumorosità) :D
Giusto per dire, se tarpo leggermente il passaggio di calore da vram e vrm al dissipatore, il dissipatore mantiene più margine per "saturarsi" meno e smaltire meglio la gpu. Mia ipotesi :D

Ubro92
06-08-2022, 16:21
Ma dipende anche dalla tolleranza dei componenti elettronici, ci sono componenti che hanno tolleranze anche fino a 120° se anche si trovano a temperature di 80-90° sei ancora in specifica.

Per la GPU, già sforare 80° significa strozzare le prestazioni.

Comunque raga a me questi TDP non sconcertano più di tanto, l'utente "appassionato" si é sempre trovato in queste condizioni ai limiti, basti pensare a tutti gli sli e cross tirati per il collo fino a qualche anno fa...

Per chi punta all'efficienza, va di undervolt e si cerca il miglior compromesso, o comunque sceglie il chip che meglio si adatta alle sue esigenze, fondamentalmente abbiamo chip per tutti i TDP 🤣


Inviato dal mio M2012K11AG utilizzando Tapatalk

TigerTank
06-08-2022, 16:22
Ma dipende anche dalla tolleranza dei componenti elettronici, ci sono componenti che hanno tolleranze anche fino a 120° se anche si trovano a temperature di 80-90° sei ancora in specifica.

Per la GPU, già sforare 80° significa strozzare le prestazioni.

Comunque raga a me questi TDP non sconcertano più di tanto, l'utente "appassionato" si é sempre trovato in queste condizioni ai limiti, basti pensare a tutti gli sli e cross tirati per il collo fino a qualche anno fa...

Per chi punta all'efficienza, va di undervolt e si cerca il miglior compromesso, o comunque sceglie il chip che meglio si adatta alle sue esigenze, fondamentalmente abbiamo chip per tutti i TDP ��


Inviato dal mio M2012K11AG utilizzando Tapatalk

Esatto Ubro, proprio per quello, dunque ti potrei mettere anche un pad strategicamente meno efficiente caricando meno il dissipatore :)

Sì certo, fortuna che c'è l'undervolt strategico ma quando proverai una 4000 imho vedrai quanto sarà calorosa, essendole già le attuali a voltaggio pieno.

mikael84
06-08-2022, 16:30
Ma dipende anche dalla tolleranza dei componenti elettronici, ci sono componenti che hanno tolleranze anche fino a 120° se anche si trovano a temperature di 80-90° sei ancora in specifica.

Per la GPU, già sforare 80° significa strozzare le prestazioni.

Comunque raga a me questi TDP non sconcertano più di tanto, l'utente "appassionato" si é sempre trovato in queste condizioni ai limiti, basti pensare a tutti gli sli e cross tirati per il collo fino a qualche anno fa...

Per chi punta all'efficienza, va di undervolt e si cerca il miglior compromesso, o comunque sceglie il chip che meglio si adatta alle sue esigenze, fondamentalmente abbiamo chip per tutti i TDP ��


Inviato dal mio M2012K11AG utilizzando Tapatalk

Esatto Ubro, proprio per quello, dunque ti potrei mettere anche un pad strategicamente meno efficiente caricando meno il dissipatore :)

Sì certo, fortuna che c'è l'undervolt strategico ma quando proverai una 4000 imho vedrai quanto sarà calorosa, essendole già le attuali a voltaggio pieno.

Sulle vram si potrebbe mettere anche il regolatore di tensione sbloccato in negativo (alcune multifase blasonate ce l'hanno sbloccato completamente). Questo potrebbe aiutare un pochino.

Telstar
06-08-2022, 17:43
A me pare un pó strano che giacchetta voglia correre il rischio di stare dietro ad Amd, non è nel suo DNA, farà di tutto per spuntarla. Non mi preoccuperei troppo per le prestazioni finali.

A quello servono le Ti :D

TigerTank
06-08-2022, 18:13
Sulle vram si potrebbe mettere anche il regolatore di tensione sbloccato in negativo (alcune multifase blasonate ce l'hanno sbloccato completamente). Questo potrebbe aiutare un pochino.

Mike ti dovrebbero assumere come consulente nella sezione vga discrete della Intel :sofico:

mikael84
06-08-2022, 18:21
Mike ti dovrebbero assumere come consulente nella sezione vga discrete della Intel :sofico:

Beh tanto peggio di Koduri non può fare nessuno:asd: :asd: :fiufiu:
Scherzo ovviamente.

A quello servono le Ti :D

Probabilmente quel tipo sta delirando, ma se la 4070 sarà full AD104, la 4070ti sarà un cut di AD103, quindi lasciando i collegamenti rop's completi, potrebbe avere 8700cc e 16gb (14 in caso di devastazione, ma è sempre buono)

Arrow0309
06-08-2022, 18:32
Infatti volevo un futuro mettere gli m2 in pci dato che le asus rog danno in bundle, sia la hero che la extreme, un pci express da mettere 2 m2 5.0 dentro.

E non vuoi pure un raid 0 di due nvme gen5?
E la scheda video pure a 16x in pcie 5.0? :doh:

Imparate a leggere, UNO solo M2 in pcie 5.0 sulla Hyper, quello chiamato Hyper M2_1 slot:

https://dlcdnets.asus.com/pub/ASUS/mb/LGA1700/ROG_MAXIMUS_Z690_HERO/E20159_ROG_MAXIMUS_Z690_HERO_UM_V3_WEB.pdf

https://i.ibb.co/0YcqYsV/Screenshot-2022-08-06-181811.jpg

E giustamente, non sara' mica più potente della Extreme che analogicamente offre sempre un solo nvme gen5 ma sulla Extreme messo nello slot M2 primario con 4 linee della cpu dedicate (e senza interferire coi slot pcie che andranno in 5.0 16x uno solo oppure 5.0 8x/8x se usati entrambi).
La schedina di espansione M2 dual slot chiamata Dimm.2 supporta altri due M2 nvme ma sempre in 4.0.

OT Out

Ale55andr0
06-08-2022, 20:33
A me pare un pó strano che giacchetta voglia correre il rischio di stare dietro ad Amd, non è nel suo DNA, farà di tutto per spuntarla. Non mi preoccuperei troppo per le prestazioni finali.

perchè, se fossero un -5% sarebbe una tragedia greca? Per i fanboy, forse, ma qua conta solo prezzo e disponibilità specialmente guardando al passato, con la generazione attuale il gap sarà cmq marcato

mikael84
06-08-2022, 21:43
perchè, se fossero un -5% sarebbe una tragedia greca? Per i fanboy, forse, ma qua conta solo prezzo e disponibilità specialmente guardando al passato, con la generazione attuale il gap sarà cmq marcato

Obbiettivamente il miracolo vero lo sta facendo AMD.
Nella scorsa gen, AMD non competeva con il RT, ma era mediamente simile in raster. Di contro oltre al RT aveva un nodo abissalmente superiore.
Se l'avesse avuto JHH non ci sarebbe stata storia.

Ora però viene il bello, JHH per fare questo super salto, sta passando da un nodo osceno, ad uno abissalmente più performante, sta sfruttando tutto il clock, sacrificando i consumi per restare nei chippetti.

AMD dovrebbe competere però passando da un 7nmP, che a spec è vicino ai 5nm base (salvo la densità).
Quindi 50% perf/watt tra i 2 nodi vicini è tantissimo.:)

Ale55andr0
06-08-2022, 22:13
Obbiettivamente il miracolo vero lo sta facendo AMD.
Nella scorsa gen, AMD non competeva con il RT, ma era mediamente simile in raster. Di contro oltre al RT aveva un nodo abissalmente superiore.
Se l'avesse avuto JHH non ci sarebbe stata storia.

Ora però viene il bello, JHH per fare questo super salto, sta passando da un nodo osceno, ad uno abissalmente più performante, sta sfruttando tutto il clock, sacrificando i consumi per restare nei chippetti.

AMD dovrebbe competere però passando da un 7nmP, che a spec è vicino ai 5nm base (salvo la densità).
Quindi 50% perf/watt tra i 2 nodi vicini è tantissimo.:)

il miracolo AMD lo farà se sarà non dico uguale ma molto vicina in RT (diciamo max 10%). La vedo durissima in tal senso visto da che parte, ma si vedrà, non resta che pazientare qualche mese... di certo NON voglio vedere schede tirate al limite ne da una parte ne dall'altra, o si sono bevuti il cervello: non so voi ma io il caro energia (e carburante) lo sto vivendo PESANTEMENTE, e quando un gioco mi infogna accendo il pc in tardo pomeriggio e faccio le 2 di notte per giorni e giorni....inoltre da me (Sicilia) si FONDE in estate, di certo non voglio vedere roiti da 350w in fascia x70 o x700

fraussantin
06-08-2022, 22:14
Obbiettivamente il miracolo vero lo sta facendo AMD.

Nella scorsa gen, AMD non competeva con il RT, ma era mediamente simile in raster. Di contro oltre al RT aveva un nodo abissalmente superiore.

Se l'avesse avuto JHH non ci sarebbe stata storia.



Ora però viene il bello, JHH per fare questo super salto, sta passando da un nodo osceno, ad uno abissalmente più performante, sta sfruttando tutto il clock, sacrificando i consumi per restare nei chippetti.



AMD dovrebbe competere però passando da un 7nmP, che a spec è vicino ai 5nm base (salvo la densità).

Quindi 50% perf/watt tra i 2 nodi vicini è tantissimo.:)Secondo me , e lo dico seriamente , dovrebbero iniziare a fare schede dual bios.
Un bios per chi vuole spingere , e uno soft per i consumi bassi e l'estate.

Poi è vero che si può fare tutto da soli in 5 mm, ma averlo stock già pronto secondo me potrebbe essere un plus.

mikael84
07-08-2022, 00:05
il miracolo AMD lo farà se sarà non dico uguale ma molto vicina in RT (diciamo max 10%). La vedo durissima in tal senso visto da che parte, ma si vedrà, non resta che pazientare qualche mese... di certo NON voglio vedere schede tirate al limite ne da una parte ne dall'altra, o si sono bevuti il cervello

Con i costi del PP, sarà sempre peggio, già un capoccione di AMD ha detto che saliranno, e non c'è da stupirsi, se il perf/watt al 50% sarà tarato su un chip da 450 watt.
Al momento, i salti PP sono davvero osceni, per pretendere prestazioni 2x a salto.
La stessa cosa sta succedendo in campo cpu.


: non so voi ma io il caro energia (e carburante) lo sto vivendo PESANTEMENTE, e quando un gioco mi infogna accendo il pc in tardo pomeriggio e faccio le 2 di notte per giorni e giorni....inoltre da me (Sicilia) si FONDE in estate, di certo non voglio vedere roiti da 350w in fascia x70 o x700

Tutti lo stiamo vivendo altrochè, ed io seguo pure una dieta molto iperproteica (aumenti pazzeschi), ci sarà chi si prende la 3090ti è si mangia un panino (sono scelte).:p
Sul caldo, ho temperature forse più alte delle tue, ma da svariati anni ho le stanze climatizzate e sono come un ghiacciolo, altrimenti non reggerei proprio al pc.;)
Prima viene il benessere personale.

Chiudo OT.

Secondo me , e lo dico seriamente , dovrebbero iniziare a fare schede dual bios.
Un bios per chi vuole spingere , e uno soft per i consumi bassi e l'estate.

Poi è vero che si può fare tutto da soli in 5 mm, ma averlo stock già pronto secondo me potrebbe essere un plus.

Si potrebbe fare, basta, sia nel primo, che nel secondo caso, tarare sul boost base, e tutto crolla.:)

Anche io d'estate spegnevo il pc per il caldo ma ora ho il condizionatore in camera da poche settimane e non ho piu questo problema. Prima ce l'avevo in un altra stanza e faceva sempre caldissimo.

Comunque il lancio di amd è vicino? Anche se ormai mi sono fissato con le nvidia da quando avevo la amd 5000, 15 anni fa, che mi faceva sempre bloccare il pc xD

Dovrebbe essere novembre, ma non si sa, se è per tutta la gamma.:)

Arrow0309
07-08-2022, 00:32
In realtà ho notato che il mio rog thor mi segna tra 510 e 530(red dead in questo caso) mentre gioco con un 12900ks e 3090 nonostante ho 6 ssd e ventole e luci.

Dunque forse ci stanno un po incartando di marketing con questi alimentatori. Per me un 850 ci sta bene lo stesso su una scheda almeno.

Ma che c'entra con la domanda di Tiger (che condivido)?


Quello intendevo :D ho solo semplificato. Per non fare un papiro :)

Avevi detto 2 M2 5.0

Per me conviene queste 4000 solo per chi vuole il top e fare il passo da 3090 a 4090 per il resto conviene comprare le 3000 al più basso prezzo possibile.

Non credo che prezzo, prestazioni, consumo cambi molto da aspettare le 4000. Tanto vale aspettare le 5000.

Ah quindi per te passare da 3090 a 4090 si, per tutti gli altri non ha senso (4080, 4070)
Ma come ragioni?

Anche io d'estate spegnevo il pc per il caldo ma ora ho il condizionatore in camera da poche settimane e non ho piu questo problema. Prima ce l'avevo in un altra stanza e faceva sempre caldissimo.

Comunque il lancio di amd è vicino? Anche se ormai mi sono fissato con le nvidia da quando avevo la amd 5000, 15 anni fa, che mi faceva sempre bloccare il pc xD

AMD 5000, 15 anni fa :wtf:
Visto che nomini nvidia intendi gpu ma faccio fatica a capire di cosa parli.
Le (ultime) Ati serie 5000??? :wtf:

eXeS
07-08-2022, 07:39
Secondo me , e lo dico seriamente , dovrebbero iniziare a fare schede dual bios.
Un bios per chi vuole spingere , e uno soft per i consumi bassi e l'estate.

Poi è vero che si può fare tutto da soli in 5 mm, ma averlo stock già pronto secondo me potrebbe essere un plus.La soluzione semplice c'è già, basta abbassare lo slider del pl, da inizio estate sto usando un profilo a 250w contro i 320 di default, 3-5% di perf in meno, risparmio del 25% di consumi, temperatura gpu più bassa di 4/5 gradi

Inviato dal mio 21051182G utilizzando Tapatalk

fraussantin
07-08-2022, 07:49
La soluzione semplice c'è già, basta abbassare lo slider del pl, da inizio estate sto usando un profilo a 250w contro i 320 di default, 3-5% di perf in meno, risparmio del 25% di consumi, temperatura gpu più bassa di 4/5 gradi

Inviato dal mio 21051182G utilizzando Tapatalk

A 250w altro che 5 gradi .

Prob hai anche abbassato il regime delle ventole

Gia io la tengo sui 300 e cambia tanto.

Per curiosità che clock riesci a tenere a 250w?

eXeS
07-08-2022, 08:42
A 250w altro che 5 gradi .

Prob hai anche abbassato il regime delle ventole

Gia io la tengo sui 300 e cambia tanto.

Per curiosità che clock riesci a tenere a 250w?

Abbassando solo il PL e senza smanettare con la curva, dipende molto dal gioco e dalla risoluzione, ad esempio con day gone in 4k dsr sta sui 1700
https://i.postimg.cc/rKScSJLg/Days-Gone-2022-08-07-09-26-11-527.jpg (https://postimg.cc/rKScSJLg)

Mentre con FC6 con la nativa del mio monitor 2560x1440 sta sui 1900
https://i.postimg.cc/LJYWt4fS/Far-Cry6-2022-08-07-09-33-25-882.jpg (https://postimg.cc/LJYWt4fS)

Comunque in realtà la differenza tra 250w e 320W è di quasi il 10% in termini di fps quantomeno con days gone, quindi più consistente di quello che avevo ipotizzato.

Thunder-74
07-08-2022, 09:17
Follie di mezza estate:

EVGA GeForce RTX 3090 Ti FTW3 scende a 1149 USD, ora costa 1000 USD in meno

L'ammiraglia RTX 3090 Ti scende di 1000 USD in pochi mesi.

Il prezzo consigliato per RTX 3090 Ti è di 1999 USD, ma i modelli personalizzati EVGA con il loro migliore raffreddamento e prestazioni più elevate sono stati venduti a un prezzo più alto. Il modello FTW3 più economico introdotto con un prezzo di 2149 USD è ora disponibile per … 1000 USD in meno. La serie di giochi EVGA RTX 3090 Ti FTW3 presenta 3 SKU, la più economica, che offre clock di riferimento NVIDIA è ora disponibile per 1149 USD.
https://cdn.videocardz.com/1/2022/08/EVGA-RTX3090Ti-AUGUST-2-768x586.png
LINK (https://videocardz.com/newz/evga-geforce-rtx-3090-ti-ftw3-drops-to-1149-usd-it-is-now-1000-usd-cheaper)


ok che saranno 4 gatti, ma quanto può girare a quelli che l'hanno pagata a prezzo pieno? :mc:

StylezZz`
07-08-2022, 09:30
L'offerta nvidia con 3 giochi e sconto di 350 rimane la migliore :sofico:

Lucageo
07-08-2022, 09:52
Come ricordavo in qualche post precedente secondo me conviene più investire sulle nuove CPU in uscita verso fine anno. Vedi Raptor Lake (13900K) con chipset Z790 e le nuove CPU Core-X Sapphire Rapids con chipset W790 per gli HEDT Pc che aggiorneranno il 10980XE. Lato scheda video chi già possiede una 3080 e a salire non conviene aggiornare. Per AMD potrebbe esserci un grosso salto prestazionale ma anche lì tutto da vedere e dimostrare.
Chi può e a chi serve realmente conviene acquistare adesso una GPU serie 3000 a prezzo basso perchè sicuramente dopo Agosto vedrete i prezzi torneranno a salire.

Ale55andr0
07-08-2022, 09:58
Con i costi del PP, sarà sempre peggio, già un capoccione di AMD ha detto che saliranno, e non c'è da stupirsi, se il perf/watt al 50% sarà tarato su un chip da 450 watt.
Al momento, i salti PP sono davvero osceni, per pretendere prestazioni 2x a salto.
La stessa cosa sta succedendo in campo cpu.

Ma infatti non si deve pretendere il 2x, non a questi termini almeno. Batsa così poco a calibrare meglio i prodotti risparmiando una bolgia di watt per poche performance in meno





Tutti lo stiamo vivendo altrochè, ed io seguo pure una dieta molto iperproteica (aumenti pazzeschi), ci sarà chi si prende la 3090ti è si mangia un panino (sono scelte).:p
Sul caldo, ho temperature forse più alte delle tue, ma da svariati anni ho le stanze climatizzate e sono come un ghiacciolo, altrimenti non reggerei proprio al pc.;)
Prima viene il benessere personale.

Chiudo OT.



Pure io, ma "fortunatamente" non ne risento più di tanto al carrello perchè il mio organismo non riesce ad assimilarle adeguatamente (mi creano problemi intestinali, pupu' molle e bucio de c...:stordita: ) posto che a prescindere dalla mia particolare condizione nefasta, le proteine sono piuttosto "sopravvalutate" nel mondo del fitness (i più assumono più di quelle che servono effettivamente per costruire muscolo, e in più calcolano questo macro specifico sul proprio peso corporeo, sbagliando, visto che va calcolato sulla sola massa magra che si ha, non l'intero peso...).A ogni modo la mia genetica di cacca fa il resto, tanto che ormai seguendo l'impossibile non dico che sto mollando dieta e allenamento ma non ci sto più dietro da malato visto che non rispondo più come prima e cmq non come certi sculati. Stupidamente poi, con la scusa della massa "sporca, tanto poi faccio un bel cut" ho messo nei mesi la pancetta e le maniglie e purtoppo non c'è stato verso di liberarmente :muro: ne' riesco più ad avere il volume d'allenamento che avevo qualche anno fa (stramazzerei al suolo e francamente non capisco nemmeno io come facevo, solo pochi anni fa mica 10 :fagiano: ).../ MegaOT

fraussantin
07-08-2022, 09:59
Follie di mezza estate:



EVGA GeForce RTX 3090 Ti FTW3 scende a 1149 USD, ora costa 1000 USD in meno



L'ammiraglia RTX 3090 Ti scende di 1000 USD in pochi mesi.



Il prezzo consigliato per RTX 3090 Ti è di 1999 USD, ma i modelli personalizzati EVGA con il loro migliore raffreddamento e prestazioni più elevate sono stati venduti a un prezzo più alto. Il modello FTW3 più economico introdotto con un prezzo di 2149 USD è ora disponibile per … 1000 USD in meno. La serie di giochi EVGA RTX 3090 Ti FTW3 presenta 3 SKU, la più economica, che offre clock di riferimento NVIDIA è ora disponibile per 1149 USD.

https://cdn.videocardz.com/1/2022/08/EVGA-RTX3090Ti-AUGUST-2-768x586.png

LINK (https://videocardz.com/newz/evga-geforce-rtx-3090-ti-ftw3-drops-to-1149-usd-it-is-now-1000-usd-cheaper)





ok che saranno 4 gatti, ma quanto può girare a quelli che l'hanno pagata a prezzo pieno? :mc:Posso dire senza, offendere nessuno , che un po se lo meritano?

Thunder-74
07-08-2022, 10:17
Come ricordavo in qualche post precedente secondo me conviene più investire sulle nuove CPU in uscita verso fine anno. Vedi Raptor Lake (13900K) con chipset Z790 e le nuove CPU Core-X Sapphire Rapids con chipset W790 per gli HEDT Pc che aggiorneranno il 10980XE. Lato scheda video chi già possiede una 3080 e a salire non conviene aggiornare. Per AMD potrebbe esserci un grosso salto prestazionale ma anche lì tutto da vedere e dimostrare.
Chi può e a chi serve realmente conviene acquistare adesso una GPU serie 3000 a prezzo basso perchè sicuramente dopo Agosto vedrete i prezzi torneranno a salire.

io difatti inizio così: dal 17 ottobre cerco di prendere un 13900k, poi vediamo per la 4080.

Posso dire senza, offendere nessuno , che un po se lo meritano?

si, però dopo 2 mesi vedersi dimezzare il prezzo è da class action.

Dono89
07-08-2022, 10:21
Posso dire senza, offendere nessuno , che un po se lo meritano?


Posso dire, offendendo volutamente chi l'ha presa a 2000euro, che gli sta bene? 😂




si, però dopo 2 mesi vedersi dimezzare il prezzo è da class action.
Perché? Compri al prezzo di vendita, non al prezzo medio che avrà la scheda nei giorni seguenti.

Quando compri accetti le condizioni di vendita, prezzo compreso

TigerTank
07-08-2022, 10:28
Secondo me , e lo dico seriamente , dovrebbero iniziare a fare schede dual bios.
Un bios per chi vuole spingere , e uno soft per i consumi bassi e l'estate.

Poi è vero che si può fare tutto da soli in 5 mm, ma averlo stock già pronto secondo me potrebbe essere un plus.

Frauss ci sono già da tanto le vga con dual bios e relativo switch su pcb :D
Lo aveva la mia ex 2080 Gainward Phantom e ce l'ha anche la mia attuale FTW3.
OC bios e Silent bios, quest'ultimo con frequenze più basse e anche 0db fan. Mentre in quello OC la ventola ha un minimo del 30%.

Follie di mezza estate:

EVGA GeForce RTX 3090 Ti FTW3 scende a 1149 USD, ora costa 1000 USD in meno

L'ammiraglia RTX 3090 Ti scende di 1000 USD in pochi mesi.

Il prezzo consigliato per RTX 3090 Ti è di 1999 USD, ma i modelli personalizzati EVGA con il loro migliore raffreddamento e prestazioni più elevate sono stati venduti a un prezzo più alto. Il modello FTW3 più economico introdotto con un prezzo di 2149 USD è ora disponibile per … 1000 USD in meno. La serie di giochi EVGA RTX 3090 Ti FTW3 presenta 3 SKU, la più economica, che offre clock di riferimento NVIDIA è ora disponibile per 1149 USD.
https://cdn.videocardz.com/1/2022/08/EVGA-RTX3090Ti-AUGUST-2-768x586.png
LINK (https://videocardz.com/newz/evga-geforce-rtx-3090-ti-ftw3-drops-to-1149-usd-it-is-now-1000-usd-cheaper)


ok che saranno 4 gatti, ma quanto può girare a quelli che l'hanno pagata a prezzo pieno? :mc:

Però se non ho capito male, a parte che negli USA, per tutti gli altri spediscono da Taipei, come successo nel mio caso. Efficientissimi comunque, da Taiwan a casa mia in 4 giorni con DHL.
Comunque quoto Frauss....queste sono le conseguenze del fatto che prima hanno tirato tutti troppo la corda salassando per benino mentre ora si ritrovano con un esubero di offerta rispetto ad una domanda ormai ridotta e dunque con prezzi ormai inaccettabili che ora cercano di tagliare il più possibile pur di vendere.
Ed il salasso riprenderà con le prossime, ancor di più che con le Ampère se anche lì arrivassero alla spicciolata e/o ci fosse la ripresa del mining. Imho comunque la 3090Ti, uscita anche troppo tardi, è solo uno spreco di silicio, di componentistica e di materie prime in generale.

fraussantin
07-08-2022, 10:30
Frauss ci sono già da tanto le vga con dual bios :D

Lo aveva la mia ex 2080 gainward Phantom e ce l'ha anche l'attuale FTW3.

OC bios e Silent bios, quest'ultimo con frequenze più basse e anche 0db fan. mentre in quello OC la ventola ha un minimo del 30%.

.

Si ma sono solo per il profilo delle ventole.

Io intendo proprio due profili di prestazioni , visto che alle prossime gli tirano il collo a manetta.

Sarebbe bello avercene uno con tdp più basso frequenze tranquille e anche sulle ram visto che scaldano parecchio.

Per le ventole veranente è il meno.

Ubro92
07-08-2022, 10:50
si, però dopo 2 mesi vedersi dimezzare il prezzo è da class action.

Non sono d'accordo perchè i prezzi gonfiati erano dati esclusivamente dal mercato saturo dovuto all'esubero della domanda.

Inoltre nonostante la situazione sia migliorata molti chip ancora non si trovano al prezzo MSRP, e chi segue da anni il mercato pc penso ricorderà che a quasi fine ciclo le gpu dovrebbero costare anche meno del prezzo consigliato al day one.

Anche nvidia ha iniziato a riciclare tagli di chip che in condizioni normali probabilmente non sarebbero mai usciti, come 3080 12GB, 3070ti, 3080ti o variati LHR o le antagoniste miner edition XD

Per non parlare del raschio dei fondi di magazzino, tirando fuori la 2060 12GB che tra le altre cose costa uguale alla 3050 e performa di più...

TigerTank
07-08-2022, 10:51
Si ma sono solo per il profilo delle ventole.

Io intendo proprio due profili di prestazioni , visto che alle prossime gli tirano il collo a manetta.

Sarebbe bello avercene uno con tdp più basso frequenze tranquille e anche sulle ram visto che scaldano parecchio.

Per le ventole veranente è il meno.

In effetti potrebbero fare un distinguo più corposo anche a livello frequenze però alla fine il sistema migliore è usare la curva V-Mhz di afterburner e via, eventualmente salvando dei profili differenziati e switchabili anche in game tramite tasti rapidi.
Circa le vram invece io le ho sempre lasciate a default. C'è il cursore in AB che permetterebbe anche di andare in negativo ma non l'ho mai usato.

Gigibian
07-08-2022, 10:54
L'offerta nvidia con 3 giochi e sconto di 350 rimane la migliore :sofico:Dove dove ?

Inviato dal mio Pixel 6 Pro utilizzando Tapatalk

TigerTank
07-08-2022, 11:02
Dove dove ?

Inviato dal mio Pixel 6 Pro utilizzando Tapatalk

QUI (https://www.nvidia.com/it-it/geforce/campaigns/pc-bundle-doom-eternal-ghostwire-tokyo/).
In pratica dai soliti partners tipo AK, NEXT, Drako e altri.

Gigibian
07-08-2022, 11:03
Follie di mezza estate:



EVGA GeForce RTX 3090 Ti FTW3 scende a 1149 USD, ora costa 1000 USD in meno



L'ammiraglia RTX 3090 Ti scende di 1000 USD in pochi mesi.



Il prezzo consigliato per RTX 3090 Ti è di 1999 USD, ma i modelli personalizzati EVGA con il loro migliore raffreddamento e prestazioni più elevate sono stati venduti a un prezzo più alto. Il modello FTW3 più economico introdotto con un prezzo di 2149 USD è ora disponibile per … 1000 USD in meno. La serie di giochi EVGA RTX 3090 Ti FTW3 presenta 3 SKU, la più economica, che offre clock di riferimento NVIDIA è ora disponibile per 1149 USD.

https://cdn.videocardz.com/1/2022/08/EVGA-RTX3090Ti-AUGUST-2-768x586.png

LINK (https://videocardz.com/newz/evga-geforce-rtx-3090-ti-ftw3-drops-to-1149-usd-it-is-now-1000-usd-cheaper)





ok che saranno 4 gatti, ma quanto può girare a quelli che l'hanno pagata a prezzo pieno? :mc:Ho provato ad acquistarla ma nada...spediscono solo USA e Puerto Rico...

Inviato dal mio Pixel 6 Pro utilizzando Tapatalk

Gigibian
07-08-2022, 11:03
QUI (https://www.nvidia.com/it-it/geforce/campaigns/pc-bundle-doom-eternal-ghostwire-tokyo/).
In pratica dai soliti partners tipo AK, NEXT, Drako e altri.Grazie!
Si ma.sono 350 euro e 3 giochi su 2200 e rotti euro...non mi pare tanto conveniente...

Inviato dal mio Pixel 6 Pro utilizzando Tapatalk

TigerTank
07-08-2022, 11:05
Ho provato ad acquistarla ma nada...spediscono solo USA e Puerto Rico...

Inviato dal mio Pixel 6 Pro utilizzando Tapatalk

Esatto, perchè a noi fa riferimento il sito europeo(anche se poi appunto è facile che ormai spediscano da Taipei) ma...circa quei prezzi, tanti saluti! :asd:
LINK (https://eu.evga.com/products/productlist.aspx?type=0&family=GeForce+30+Series+Family&chipset=RTX+3090+Ti).

Grazie!
Si ma.sono 350 euro e 3 giochi su 2200 e rotti euro...non mi pare tanto conveniente...

Inviato dal mio Pixel 6 Pro utilizzando Tapatalk
Eh sì, per quello te l'ho linkato :)
Oltretutto Doom Eternal ormai lo si può trovare a poco ed eventualmente anche le espansioni.

StylezZz`
07-08-2022, 11:07
Dove dove ?

Sullo store nvidia, 3090 Ti FE 2249 scontata a 1899 + 4 giochi (non 3, mi correggo), un affare!

https://store.nvidia.com/it-it/geforce/store/?page=1&limit=9&locale=it-it&gpu=RTX%203090%20Ti&sorting=lp&gpu_filter=RTX%203090%20Ti~1,RTX%203090~1,RTX%203080%20Ti~1,RTX%203080~1,RTX%203070%20Ti~1,RTX%203070~1,RTX%203060%20Ti~1

Ubro92
07-08-2022, 11:14
L'affare sarebbe stato avere quei giochi regalati anche per le x70, ed eventualmente almeno 1 per le x60, considerando che siamo a fine ciclo.

E' palese che stanno cercando di vendere quello che possono sui chip grossi, aggiungendo un contorno di 2 spicci in proporzione...

Thunder-74
07-08-2022, 11:16
Ripeto, se vi interessa, sentite Drako che metterà questa settimana , 24 3090TI KFA2 a 1599.

https://uploads.tapatalk-cdn.com/20220807/ae796b23b116c1ca06226e5a1503fc01.jpg

Inviato dal mio iPhone X utilizzando Tapatalk

mikael84
07-08-2022, 11:32
Follie di mezza estate:

EVGA GeForce RTX 3090 Ti FTW3 scende a 1149 USD, ora costa 1000 USD in meno

L'ammiraglia RTX 3090 Ti scende di 1000 USD in pochi mesi.

Il prezzo consigliato per RTX 3090 Ti è di 1999 USD, ma i modelli personalizzati EVGA con il loro migliore raffreddamento e prestazioni più elevate sono stati venduti a un prezzo più alto. Il modello FTW3 più economico introdotto con un prezzo di 2149 USD è ora disponibile per … 1000 USD in meno. La serie di giochi EVGA RTX 3090 Ti FTW3 presenta 3 SKU, la più economica, che offre clock di riferimento NVIDIA è ora disponibile per 1149 USD.
LINK (https://videocardz.com/newz/evga-geforce-rtx-3090-ti-ftw3-drops-to-1149-usd-it-is-now-1000-usd-cheaper)


ok che saranno 4 gatti, ma quanto può girare a quelli che l'hanno pagata a prezzo pieno? :mc:

E questo è ancora niente, lascia uscire la nuove:p

Ma infatti non si deve pretendere il 2x, non a questi termini almeno. Batsa così poco a calibrare meglio i prodotti risparmiando una bolgia di watt per poche performance in meno




Non è detto che ci sarà un 2x, ma sicuramente un salto marcato, stando al capoccione AMD ed al 50% perf watt dichiarato.
la prossima gen, inoltre potrebbe essere ancora senza ribbonfet.
Se pensi che una x70 è mediamente sempre tarata quanto il chippone precedente, puoi farti due calcoli.

Per il resto ti mando pvt.:)

TigerTank
07-08-2022, 11:36
Sullo store nvidia, 3090 Ti FE 2249 scontata a 1899 + 4 giochi (non 3, mi correggo), un affare!

https://store.nvidia.com/it-it/geforce/store/?page=1&limit=9&locale=it-it&gpu=RTX%203090%20Ti&sorting=lp&gpu_filter=RTX%203090%20Ti~1,RTX%203090~1,RTX%203080%20Ti~1,RTX%203080~1,RTX%203070%20Ti~1,RTX%203070~1,RTX%203060%20Ti~1

Doom Eternal + 2 espansioni = Doom Eternal Deluxe che si trova a meno di 30€ sui Gamesplanet.
Ghostwire, presumo la liscia, 30€ sui Gamesplanet.
In pratica 60€ di bundle e dunque 1839€ di scheda che ormai imho è fin troppo anche per una 3090Ti.

Ripeto, se vi interessa, sentite Drako che metterà questa settimana , 24 3090TI KFA2 a 1599.

Inviato dal mio iPhone X utilizzando Tapatalk
Ma secondo me o ti accontenti di una 3080 sotto le 1000€(nel caso serva una vga subito) o tanto vale comprare direttamente una 4080(risparmiando pure) o anche 4090 al lancio.

E questo è ancora niente, lascia uscire la nuove:p

Solo negli USA però...qui vedi sito europeo che ho linkato sopra :D

Thunder-74
07-08-2022, 11:43
Doom Eternal + 2 espansioni = Doom Eternal Deluxe che si trova a meno di 30€ sui Gamesplanet.
Ghostwire, presumo la liscia, 30€ sui Gamesplanet.
In pratica 60€ di bundle e dunque 1839€ di scheda che ormai imho è fin troppo anche per una 3090Ti.


Ma secondo me o ti accontenti di una 3080 sotto le 1000€(nel caso serva una vga subito) o tanto vale comprare direttamente una 4080(risparmiando pure) o anche 4090 al lancio.


Solo negli USA però...qui vedi sito europeo che ho linkato sopra :D


Sai come la penso, ampere ora non sarebbe da prendere, ma vedo utenti interessati alla 3090ti, a questo punto, ad oggi, 1599 per una 3090ti è un buon prezzo, oltretutto neanche male come brand.


Inviato dal mio iPhone X utilizzando Tapatalk

TigerTank
07-08-2022, 11:50
Sai come la penso, ampere ora non sarebbe da prendere, ma vedo utenti interessati alla 3090ti, a questo punto, ad oggi, 1599 per una 3090ti è un buon prezzo, oltretutto neanche male come brand.


Sì per quello credo che al momento se proprio sia la situazione migliore, di sicuro meglio della FE + bundle di giochi. Ho visto che include anche l'adattatore di alimentazione che sembra ben fatto.

http://i.imgur.com/XRzkenBl.jpg (https://imgur.com/XRzkenB)

Poi chiaro che la PSU dev'essere all'altezza, se si vuol mettere tipo il tuo amato Cyberpunk maxato in 4K :cool:

Gigibian
07-08-2022, 12:10
Doom Eternal + 2 espansioni = Doom Eternal Deluxe che si trova a meno di 30€ sui Gamesplanet.
Ghostwire, presumo la liscia, 30€ sui Gamesplanet.
In pratica 60€ di bundle e dunque 1839€ di scheda che ormai imho è fin troppo anche per una 3090Ti.


Ma secondo me o ti accontenti di una 3080 sotto le 1000€(nel caso serva una vga subito) o tanto vale comprare direttamente una 4080(risparmiando pure) o anche 4090 al lancio.


Solo negli USA però...qui vedi sito europeo che ho linkato sopra :DVeramente si trovano su warehouse 3080 a 800 euro e 3080 12 a 850

Inviato dal mio Pixel 6 Pro utilizzando Tapatalk

devAngnew
07-08-2022, 12:59
Veramente si trovano su warehouse 3080 a 800 euro e 3080 12 a 850

Inviato dal mio Pixel 6 Pro utilizzando Tapatalk

Troppo per una scheda usata.
Si aspettano le prossime rtx :D

TigerTank
07-08-2022, 13:31
Veramente si trovano su warehouse 3080 a 800 euro e 3080 12 a 850

Inviato dal mio Pixel 6 Pro utilizzando Tapatalk

Forse a quei prezzi erano giusto un paio di "mosche bianche". Io non ne ho viste :)

LINK (https://www.amazon.it/s?k=3080&i=warehouse-deals&bbn=3581999031&__mk_it_IT=%C3%85M%C3%85%C5%BD%C3%95%C3%91&crid=3OY9OBVH73RZB&qid=1659875216&sprefix=3080%2Cwarehouse-deals%2C85&ref=sr_pg_1).
Però se proprio come nuovo e disponibile, su amazon(venduto e spedito da loro) al momento c'è solo la 3080 12GB Amp Holo a 982.
Secondo me al momento è l'unica situazione tipo consigliabile per chi ha proprio bisogno ora di una vga(salvo occasione d'usato) su tale fascia, per poi prendersela con molta calma per le nuove tra il 2023 e il 2024(Ti o refresh postumi).

magic carpet
07-08-2022, 14:15
Sì per quello credo che al momento se proprio sia la situazione migliore, di sicuro meglio della FE + bundle di giochi. Ho visto che include anche l'adattatore di alimentazione che sembra ben fatto.

http://i.imgur.com/XRzkenBl.jpg (https://imgur.com/XRzkenB)

Poi chiaro che la PSU dev'essere all'altezza, se si vuol mettere tipo il tuo amato Cyberpunk maxato in 4K :cool:Questo adattatore andrà bene anche per la 4090 o servirà il 4x16 pin?

TigerTank
07-08-2022, 14:35
Questo adattatore andrà bene anche per la 4090 o servirà il 4x16 pin?
Presumo che l'adattatore sarà questo a livello di connettori 8pin(3x150 = 450W) mentre credo che il top di fascia alta sarà avere il singolo cavo da 600W che da un alimentatore di nuova generazione con connettore 12+4 (12VHPWR) si connetta alla vga.
Da vedere se metteranno il 12pin su tutte le nuove schede(al di là delle founders) o solo su quelle di fascia più alta.

fraussantin
07-08-2022, 14:37
Questo adattatore andrà bene anche per la 4090 o servirà il 4x16 pin?4x32pin imao :asd:

TigerTank
07-08-2022, 14:50
Comunque sì, questo è il nuovo connettore sugli alimentatori:

http://i.imgur.com/q7t3zq4l.jpg (https://imgur.com/q7t3zq4)

Questo il connettore della 3090TI:

http://i.imgur.com/uJHPYvNl.png (https://imgur.com/uJHPYvN)

Se non ho capito male sono la stessa cosa per cui un domani basterà collegare alla vga un singolo cavo con range 150-600W di erogazione. I consumi per fascia potranno essere anche maggiori ma addio all'ingombrante 3x8pin in primis :D

Thunder-74
07-08-2022, 15:33
Comunque sì, questo è il nuovo connettore sugli alimentatori:

http://i.imgur.com/q7t3zq4l.jpg (https://imgur.com/q7t3zq4)

Questo il connettore della 3090TI:

http://i.imgur.com/uJHPYvNl.png (https://imgur.com/uJHPYvN)

Se non ho capito male sono la stessa cosa per cui un domani basterà collegare alla vga un singolo cavo con range 150-600W di erogazione. I consumi per fascia potranno essere anche maggiori ma addio all'ingombrante 3x8pin in primis :D


Piccola parentesi sui Nuovi asus Thor 2. Con questi viene dato in bundle un cavo 16 pin (12+4) verso vga, mentre lato ali , il Thor non ha il connettore 16 pin diversamente dal futuro Asus Loki. inoltre mi è sembrato di vedere che due pin dei 4 del suddetto connettore, non sono collegati. Quindi a me questo ali da più l idea di non essere stato concepito come un ATX 3, ma in corsa lo hanno dotato di un cavo compatibile .
Della serie io prederei altro

Chiudo OT


Inviato dal mio iPhone X utilizzando Tapatalk

TigerTank
07-08-2022, 15:39
Piccola parentesi sui Nuovi asus Thor 2. Con questi viene dato in bundle un cavo 16 pin (12+4) verso vga, mentre lato ali , il Thor non ha il connettore 16 pin diversamente dal futuro Asus Loki. inoltre mi è sembrato di vedere che due pin dei 4 del suddetto connettore, non sono collegati. Quindi a me questo ali da più l idea di non essere stato concepito come un ATX 3, ma in corsa lo hanno dotato di un cavo compatibile .
Della serie io prederei altro

Chiudo OT


Sì imho finchè è possibile direi di tirare avanti tranquillamente con gli alimentatori che si hanno già, usando l'adattatore. Poi quando ci saranno un bel pò di alimentatori di nuova generazione in giro, ben rodati e ben fixati...se necessario si cambierà :)
Anche perchè mi sa che i primi costeranno un bel pò...come succede per ogni "novità". Poi beh, se parliamo di Asus...

mikael84
07-08-2022, 15:53
4x32pin imao :asd:

2400watt, tantini, magari per la 6090ti, di questo passo.:sofico:

Comunque sì, questo è il nuovo connettore sugli alimentatori:



Questo il connettore della 3090TI:



Se non ho capito male sono la stessa cosa per cui un domani basterà collegare alla vga un singolo cavo con range 150-600W di erogazione. I consumi per fascia potranno essere anche maggiori ma addio all'ingombrante 3x8pin in primis :D

Il cavo è quello, ma dovrebbe avere un 4x8pin 600watt.:)

magic carpet
07-08-2022, 16:07
4x32pin imao :asd:

:D :D sì scusa intendevo 4x8 pin :D

Freisar
07-08-2022, 19:28
Ma con il mio seasonic 750 vanno bene lo stesso i cavi vero? Sia nvdia che amd...

TigerTank
07-08-2022, 20:50
Il cavo è quello, ma dovrebbe avere un 4x8pin 600watt.:)
Mi sa che cambieranno a seconda della fascia di schede :D
Per dire...per schede entro i 375W potrebbero includere un semplice 12+4 @ 2x8pin e con il PCI-E arrivare a 375W.
Andando oltre un adattatore come quello della 3090Ti, singolo 12+4@3x8pin(525W).
Oltre credo che probabilmente piazzeranno 2 connettori 12+4 sulla vga e magari includeranno 2 adattatori con 2x8pin ciascuno(675W).

Anche se imho a questo punto diventerebbero meglio 2 connettori da 12+4 su vga e 2 su nuova PSU di alto taglio con i 2 cavi da 600W. Alla fine questi nuovi cavi gestiscono un range da 150 a 600W :D
Se davvero faranno anche schede che arriveranno a 700-800W o più non vedo altra soluzione.
Tutto questo ovviamente in uno dei peggiori momenti di sempre a livello di costi energetici.

mikael84
07-08-2022, 21:54
Mi sa che cambieranno a seconda della fascia di schede :D
Per dire...per schede entro i 375W potrebbero includere un semplice 12+4 @ 2x8pin e con il PCI-E arrivare a 375W.
Andando oltre un adattatore come quello della 3090Ti, singolo 12+4@3x8pin(525W).
Oltre credo che probabilmente piazzeranno 2 connettori 12+4 sulla vga e magari includeranno 2 adattatori con 2x8pin ciascuno(675W).

Anche se imho a questo punto diventerebbero meglio 2 connettori da 12+4 su vga e 2 su nuova PSU di alto taglio con i 2 cavi da 600W. Alla fine questi nuovi cavi gestiscono un range da 150 a 600W :D
Se davvero faranno anche schede che arriveranno a 700-800W o più non vedo altra soluzione.
Tutto questo ovviamente in uno dei peggiori momenti di sempre a livello di costi energetici.

Il problema del vecchio cavetto, è che non è uno standard, è stata solo una soluzione temporanea di nvidia. La 3090ti è nata proprio come trampolino di lancia della nuova specifica molex.
La 3090ti paradossalmente è stata tarata a 450 watt/PL0, mentre le custom più basse delle 3090 lisce.
C'è stato un ordine di JHH di tararle così. Infatti non tutto è saldato e attivo sui PCB.
Es jumper non saldato, per limitare la scheda.
https://www.igorslab.de/wp-content/uploads/2022/04/Pin-Switch.png
Con AD102 dovremmo vedere i cavi completi, 4x8, a meno che, non faccia lo stesso giochetto sulle FE, e lasci manovra ai partner, che da quel che si legge, le custom per pompare saliranno ben sopra i 500watt.

Tuttavia non credo, in quanto la 4090ti FE, stesso PCB, avrà il full 600watt, quindi la 4090 liscia seguirà con delle limitazioni TDP/PL.:)

2 cavi non nativi da 12 pin per le kP necessiteranno di ben 2 adattatori da 8x 8.:sofico:

Sulla 4080 potrebbe fare come la 3090ti, con jumper non saldati per limitarla.
Anche le varie manli e simili dovranno adattarsi al 3x8, se non usano il cavo.

Freisar
08-08-2022, 06:03
Non ci sto capendo niente con tutti sti pin :stordita:

Ubro92
08-08-2022, 07:10
Non ci sto capendo niente con tutti sti pin :stordita:

Ma tanto due cose dovrai capire se ti serve un nuovo PSU o un nuovo adattatore XD

Ginopilot
08-08-2022, 07:18
E anche a sto giro per avere qualcosa che non consumi come uno scaldabagno e abbia bisogno di cavetti aggiuntivi bisognerà attendere e tanto le quadro.

Sonpazzo
08-08-2022, 07:30
Ma dove avete letto la necessità di tutto sto tripudio di cavi e consumi. 600w non è mai esistito

davide155
08-08-2022, 07:39
Ma dove avete letto la necessità di tutto sto tripudio di cavi e consumi. 600w non è mai esistitoBenvenuto nel 2022 e nell'era del giacchetta.

davide155
08-08-2022, 07:41
Si ma sono solo per il profilo delle ventole.

Io intendo proprio due profili di prestazioni , visto che alle prossime gli tirano il collo a manetta.

Sarebbe bello avercene uno con tdp più basso frequenze tranquille e anche sulle ram visto che scaldano parecchio.

Per le ventole veranente è il meno.

Errato.
La mia 3080 SuprimX aveva il dual bios. E cambiava pure il boost clock nell'oc bios, oltre che il profilo ventole. Nulla di che.

Thunder-74
08-08-2022, 07:55
La memoria Micron 24 Gbps GDDR6X per GeForce RTX serie 40 è ora in produzione

Il sito web dell'azienda è stato ora aggiornato con nuove informazioni sui nuovi moduli GDDR6X. Sembra che i moduli da 16 Gb (2 GB) con velocità di 24 Gbps siano ora in produzione, solo 2 mesi prima del lancio della serie NVIDIA RTX 40.

Si dice che NVIDIA utilizzi velocità di 21 e 24 Gbps per le sue serie di fascia alta. Se le voci fossero corrette, NVIDIA utilizzerà moduli GDDR6X a 21 Gbps per tre delle SKU di fascia alta: RTX 4090, 4080 e 4070. Allo stesso tempo, voci sul presunto modello di punta, una GPU per workstation professionale o un vero successore di TITAN , potrebbe ricevere moduli da 24 Gbps.


LINK (https://videocardz.com/newz/micron-24-gbps-gddr6x-memory-for-geforce-rtx-40-series-is-now-in-production)

Ubro92
08-08-2022, 07:59
Ma dove avete letto la necessità di tutto sto tripudio di cavi e consumi. 600w non è mai esistito

Ci si basa sullo standard del nuovo connettore 12VHPWR che ha tolleranze di 150-600w, la 4090 è data per circa 450w, e si ipotizza che un full AD102 spinto molto lato clock arrivi tranquillamente a soglie di 550-600w.

Comunque è una scelta soggettiva puntare a questi uber chip, personalmente già in passato dual gpu e sli/cross non mi hanno mai ispirato proprio per via dei consumi e delle temperature.

In questa gen credo di puntare al solito target dei 250-300w, andando per la 4070, però non nego che se becco qualche buona occasione per 3080 12GB la valuto in previsione di fargli anche un bel undervolt XD

TigerTank
08-08-2022, 08:14
Il problema del vecchio cavetto, è che non è uno standard, è stata solo una soluzione temporanea di nvidia. La 3090ti è nata proprio come trampolino di lancia della nuova specifica molex.
La 3090ti paradossalmente è stata tarata a 450 watt/PL0, mentre le custom più basse delle 3090 lisce.
C'è stato un ordine di JHH di tararle così. Infatti non tutto è saldato e attivo sui PCB.
Es jumper non saldato, per limitare la scheda.
https://www.igorslab.de/wp-content/uploads/2022/04/Pin-Switch.png
Con AD102 dovremmo vedere i cavi completi, 4x8, a meno che, non faccia lo stesso giochetto sulle FE, e lasci manovra ai partner, che da quel che si legge, le custom per pompare saliranno ben sopra i 500watt.

Tuttavia non credo, in quanto la 4090ti FE, stesso PCB, avrà il full 600watt, quindi la 4090 liscia seguirà con delle limitazioni TDP/PL.:)

2 cavi non nativi da 12 pin per le kP necessiteranno di ben 2 adattatori da 8x 8.:sofico:

Sulla 4080 potrebbe fare come la 3090ti, con jumper non saldati per limitarla.
Anche le varie manli e simili dovranno adattarsi al 3x8, se non usano il cavo.

Mamma mia che delirio...
No ma davvero, io un adattatore da 4x8 pin non lo concepisco proprio a livello di casino di cavi :asd:
Sicuramente oltre a salassare sulle vga faranno in modo di spingere verso l'acquisto dei nuovi alimentatori...che ovviamente nei primi tempi, a parità di W di targa, costeranno un bel pò di più.
I super enthusiast ovviamente staranno già pensando agli ali con 2 12VHPWR e relativi cavi diretti sleevati singolarmente tipo cablmod e simili :D

Ubro92
08-08-2022, 08:21
Altrimenti devi comprarti una semplice prolunga/adattatore per fare pulizia.

Comunque delle 4x8pin ci sono già state, se pensi alla 295x2 Devil13:

https://www.guru3d.com/articles_pages/powercolor_radeon_290x_295x2_devil13_review,4.html

fraussantin
08-08-2022, 08:22
Mamma mia che delirio...
No ma davvero, io un adattatore da 4x8 pin non lo concepisco proprio a livello di casino di cavi :asd:
Sicuramente oltre a salassare sulle vga faranno in modo di spingere verso l'acquisto dei nuovi alimentatori...che ovviamente nei primi tempi, a parità di W di targa, costeranno un bel pò di più.
I super enthusiast ovviamente staranno già pensando agli ali con 2 12VHPWR e relativi cavi diretti sleevati singolarmente tipo cablmod e simili :DSi troveranno sicuramente cavi per la maggior parte delle psu.

Certo che con quello che si fanno pagare certe schede una prolunga di qualità 4x8->16 da almeno 50 cm che gli costerà 1 euro in cina potrebbero anche metterla.

Freisar
08-08-2022, 08:25
Ma imho è un problema delle nvidia! Cioè avevo una rx 6900 poi tornata indietro, che non neccessitava di nessun adattatore boh!

fraussantin
08-08-2022, 08:31
Ma imho è un problema delle nvidia! Cioè avevo una rx 6900 poi tornata indietro, che non neccessitava di nessun adattatore boh!Il problema è dei consumi.

Se fai una scheda da 600w devi metterci 4x8 connettori , o il nuovo da 16.

Se amd farà una scheda con questi consumi , dovrà cmq adottare un sistema di questi. Se riuscirà a fare una scheda con prestazioni simili o poco inferiori con consumi migliori tanto di cappello , avrà vinto a mani basse

Nvidia con le ampere ha voluto solamente risparmiare spazio sul pcb ( già piccolo ) con un connettore unico

Thunder-74
08-08-2022, 08:37
tutte le VGA di un certo livello prima o poi adotteranno questo connettore. E' diventato elemento dello standard ATX 3.0

TigerTank
08-08-2022, 08:44
Sì alla fine ci sarà una fase di transizione dove bisognerà avere a che fare con tali adattatori. O comunque tanti hanno già parzialmente sperimentato la cosa con le Founders ed ora lo faranno quelli che stanno eventualmente prendendo le 3090Ti.
Poi in futuro la 12VHPWR diventerà sempre più uno standard e allora avremo tutte le vga con uno o due cavi di questo tipo diretti da alimentatori a vga.

Ubro92
08-08-2022, 09:03
Alla fine il connettore 12VHPWR avrà 4 diversi set di alimentazione: 150w, 300w, 450w e 600w.

Quindi è solo una questione di tempo, una volta che tutte le build saranno passate ai nuovi standard diventerà la base, in termini di cablaggio non ci sarà differenza da un chip da 150w e uno da 600w.

Finchè si punta a minimizzare è sempre positivo, poi è ovvio che nelle fasi di transizione ci siano sempre disagi, in passato fino alla gen maxwell ho sempre odiato vedere gpu con 2x6pin quando si poteva tranquillamente minimizzare a un classico 1x8pin...

Anche per me è un disagio, ho un vecchio EVGA 750G2 da 8 anni e ha ancora 2 anni di garanzia ma volevo cambiarlo proprio insieme alla GPU, e li dovrò valutare bene il da farsi.

Thunder-74
08-08-2022, 09:11
Sì alla fine ci sarà una fase di transizione dove bisognerà avere a che fare con tali adattatori. O comunque tanti hanno già parzialmente sperimentato la cosa con le Founders ed ora lo faranno quelli che stanno eventualmente prendendo le 3090Ti.
Poi in futuro la 12VHPWR diventerà sempre più uno standard e allora avremo tutte le vga con uno o due cavi di questo tipo diretti da alimentatori a vga.

sicuramente, però quel connettore non ha il solo scopo di ridurre il numero di cavi, ma ha 4 sensori. Di cui uno analizza la potenza dell'ali nel singolo momento e probabilmente va a tagliare sulla richiesta, qualora fosse eccessiva.
Comunque riporto i punti salienti del nuovo Standard ATX 3.0, tra i quali la copertura di speak di almeno 2 volte la potenza massima dell'ali per 100ms

Le principali modifiche apportate dall'ATX12V v3.0 sono le seguenti:

Il nuovo connettore 12VHPWR per schede aggiuntive (come le GPU) può fornire fino a 600 W
Il 12VHPWR deve essere etichettato in base alla potenza massima erogata
Tutti gli alimentatori con più di 450 W di potenza massima devono avere connettori 12VHPWR per soddisfare le più recenti specifiche ATX.
L'alimentatore segnala alla scheda PCIe, tramite segnali in banda laterale, le sue capacità di alimentazione, in modo che quest'ultima possa impostare il proprio limite di potenza di conseguenza.
Gli alimentatori dovrebbero essere in grado di accendersi/spegnersi 175.200 volte all'anno senza rompersi!
Cambiamenti nell'efficienza a basso carico. Oltre il 60% è richiesto per 10 W o il 2% della capacità massima nominale e oltre il 70% è una raccomandazione.
Maggiore tolleranza per picchi di potenza elevati, per le piattaforme PSU compatibili. Fino al 200% della potenza nominale dell'alimentatore per 100μs con un ciclo di lavoro del 10%.
Velocità di risposta aumentate per carichi transitori (2,5 - 5 volte superiore per il binario +12V)
La guida a 12 V può arrivare fino a 12,2 V per consentire cadute di tensione inferiori
Limiti di regolazione del carico più ampi per la guida +12V (+5 - -8% sui connettori PCIe e +5 - -7% per gli altri connettori).
Cambiamenti nella velocità del segnale di accensione per consentire una risposta più rapida e il risveglio del sistema, anche quando i binari non sono a livelli zero ma da qualche parte nel mezzo.
Requisiti di efficienza e progettazione per ALPM ( Alternative Low Power Modes ), precedentemente denominate Modalità di sospensione alternative
Le etichette sugli alimentatori dovrebbero includere i tempi T1 e T3, tra gli altri.
L'aggiunta di un nuovo standard di certificazione, Cybenetics, oltre a 80 Plus, è nella sezione riferimenti.


FONTE (https://www.tomshardware.com/news/intel-atx-v3-psu-standard) se volete approfondire i vari punti

EDIT:
riporto una cosa importante, problema presentato con alcuni ali (Seasonic ad esempio) e RTX 3000:

La serie Nvidia RTX 3000 presenta diversi problemi di compatibilità anche con potenti alimentatori a causa dei maggiori picchi di potenza. Sembra che la nuova generazione di GPU sarà anche peggiore, quindi Intel ha preso in mente la PCIe CEM (Card Electromechanical specifica) e ha escogitato alcuni nuovi requisiti, che richiederanno alcune modifiche alle piattaforme precedenti principalmente per soddisfarli.

Quindi non è da escludere che alcuni di noi che passeranno alla serie 4000 possano dover cambiare comunque ALI

LkMsWb
08-08-2022, 09:43
EDIT:
riporto una cosa importante, problema presentato con alcuni ali (Seasonic ad esempio) e RTX 3000:

La serie Nvidia RTX 3000 presenta diversi problemi di compatibilità anche con potenti alimentatori a causa dei maggiori picchi di potenza. Sembra che la nuova generazione di GPU sarà anche peggiore, quindi Intel ha preso in mente la PCIe CEM (Card Electromechanical specifica) e ha escogitato alcuni nuovi requisiti, che richiederanno alcune modifiche alle piattaforme precedenti principalmente per soddisfarli.

Quindi non è da escludere che alcuni di noi che passeranno alla serie 4000 possano dover cambiare comunque ALI

Problema che poi Seasonic ha sistemato ma è relativo ai bassi limiti di OCP, anche con le Radeon si è presentato seppur in maniera minore. Io ho un 750w Titanium smontato per questo esatto motivo... :eek: . Nelle produzioni da non ricordo che mese del 2018 in poi hanno aumentato il limite e il problema non si presenta più.

albero77
08-08-2022, 10:17
https://www.hwupgrade.it/news/skvideo/evga-sconta-di-1000-dollari-il-prezzo-di-una-scheda-geforce-rtx-3090ti_109235.html

devAngnew
08-08-2022, 10:28
Si troveranno sicuramente cavi per la maggior parte delle psu.

Certo che con quello che si fanno pagare certe schede una prolunga di qualità 4x8->16 da almeno 50 cm che gli costerà 1 euro in cina potrebbero anche metterla.

Una volta gli adattatori erano presenti nella scatola delle s. video :rolleyes:
Se non erro nelle 3000 FE c'era.

Ubro92
08-08-2022, 10:36
Una volta gli adattatori erano presenti nella scatola delle s. video :rolleyes:
Se non erro nelle 3000 FE c'era.

Si un bell'adattore da 5cm giallo e nero, con tanto di molex bianco e 3x8pin appesi all'altro capo :fagiano:

fraussantin
08-08-2022, 10:39
Una volta gli adattatori erano presenti nella scatola delle s. video :rolleyes:
Se non erro nelle 3000 FE c'era.

si da 15 cm però . esteticamente è una ciofega.

Si un bell'adattore da 5cm giallo e nero, con tanto di molex bianco e 3x8pin appesi all'altro capo :fagiano:

oddio almeno il mio è tutto nero. cmq si potevano sforzare di più visto quanto costa il cavo

TigerTank
08-08-2022, 11:30
Considera che io l'ho appena comprato e non ho intenzione di comprarne se non un adattatore XD


Oppure lo rimando indietro che ho fatto male? Mi dispiacerebbe perchè funziona bene :\

Idem...ho dovuto per forza cambiarlo di recente e ne ho preso uno EVGA di una serie molto recente. Per cui mi auguro davvero che i problemi che ha scritto Thunder sopra mal che vada riguardino solo produzioni che risalgano ad annate precedenti.

Una volta gli adattatori erano presenti nella scatola delle s. video :rolleyes:
Se non erro nelle 3000 FE c'era.

Beh sì anche le attuali 3090Ti hanno per forza l'adattatore incluso. Presumo che nelle prossime vga a maggior ragione li includeranno per poter alimentare le vga dagli 8pin degli alimentatori ancora buoni/adeguati :)

Si un bell'adattore da 5cm giallo e nero, con tanto di molex bianco e 3x8pin appesi all'altro capo :fagiano:
Quelli erano proprio orrendi, un pugno in un occhio quando aprivi la scatola della vga nuova :D

mikael84
08-08-2022, 11:32
Mamma mia che delirio...
No ma davvero, io un adattatore da 4x8 pin non lo concepisco proprio a livello di casino di cavi :asd:
Sicuramente oltre a salassare sulle vga faranno in modo di spingere verso l'acquisto dei nuovi alimentatori...che ovviamente nei primi tempi, a parità di W di targa, costeranno un bel pò di più.
I super enthusiast ovviamente staranno già pensando agli ali con 2 12VHPWR e relativi cavi diretti sleevati singolarmente tipo cablmod e simili :D

Si già hanno sollevato un polverone con questi cavi non nativi.
Il problema è che si sta passando all'AWG16 nativo, ma sempre sdoppiato in AWG20 150 watt, e questo anche con cablaggi superiori devi sempre portartelo dietro, in quanto molti ali non sono in AWG16.

Immagina il casino con 2 x16 pin a livello di adattatori.:)

fraussantin
08-08-2022, 11:44
A in un primo momento credo che si limiteranno ad inserire un cavo o al massimo 2 con le entrate propietarie della psu e l'uscita nuova a 16 pin

Non penso che si rimettano a rifare tutte le psu.

Poi quando usciranno progetti totalmente nuovi forse includeranno dei connettori piu piccoli.

Ma mi sembra che i produttori di psu non abbiamo mai avuta molta simpatia sul mettere connettori standard lato psu , quindi non ci giurerei.

Thunder-74
08-08-2022, 12:11
A in un primo momento credo che si limiteranno ad inserire un cavo o al massimo 2 con le entrate propietarie della psu e l'uscita nuova a 16 pin

Non penso che si rimettano a rifare tutte le psu.

Poi quando usciranno progetti totalmente nuovi forse includeranno dei connettori piu piccoli.

Ma mi sembra che i produttori di psu non abbiamo mai avuta molta simpatia sul mettere connettori standard lato psu , quindi non ci giurerei.

il problema è che se non lo metti, non includi i 4 sensori extra power previsto dallo standard. Sinceramente se dovessi prendere un ali nuovo, eviterei i modelli che non adottano a pieno il nuovo standard.
Per ora andiamo avanti con quelli che abbiamo e con adattatori, se poi vediamo che si spegne di botto, sapremo cosa fare.

mikael84
08-08-2022, 12:11
La memoria Micron 24 Gbps GDDR6X per GeForce RTX serie 40 è ora in produzione

Il sito web dell'azienda è stato ora aggiornato con nuove informazioni sui nuovi moduli GDDR6X. Sembra che i moduli da 16 Gb (2 GB) con velocità di 24 Gbps siano ora in produzione, solo 2 mesi prima del lancio della serie NVIDIA RTX 40.

Si dice che NVIDIA utilizzi velocità di 21 e 24 Gbps per le sue serie di fascia alta. Se le voci fossero corrette, NVIDIA utilizzerà moduli GDDR6X a 21 Gbps per tre delle SKU di fascia alta: RTX 4090, 4080 e 4070. Allo stesso tempo, voci sul presunto modello di punta, una GPU per workstation professionale o un vero successore di TITAN , potrebbe ricevere moduli da 24 Gbps.


LINK (https://videocardz.com/newz/micron-24-gbps-gddr6x-memory-for-geforce-rtx-40-series-is-now-in-production)

Aspè, questo dove l'hanno preso. 24000 di GS il chip FULL:p
https://i.postimg.cc/gJBYHF7X/RIS.png

amon.akira
08-08-2022, 12:20
Aspè, questo dove l'hanno preso. 24000 di GS il chip FULL:p


forse dagli 800w XD

mikael84
08-08-2022, 12:30
forse dagli 800w XD

Una FE con 800 watt e due cavetti, vorrei proprio vederla.:p
Cmq c'è il 26% di differenza su 10% ALU.
Dando peso a quel GS, significa che scalando 1:1 in clock ed ALU, il chip partirebbe da 3,2 (veramente assurdo). OC 3,4/3,5 (roba da sandy bridge stock):D

Thunder-74
08-08-2022, 12:33
Una FE con 800 watt e due cavetti, vorrei proprio vederla.:p
Cmq c'è il 26% di differenza su 10% ALU.
Dando peso a quel GS, significa che scalando 1:1 in clock ed ALU, il chip partirebbe da 3,2 (veramente assurdo). OC 3,4/3,5 (roba da sandy bridge stock):D

non lo avevo visto. Calcolo empirico a membro di segugio.

fraussantin
08-08-2022, 12:35
il problema è che se non lo metti, non includi i 4 sensori extra power previsto dallo standard. Sinceramente se dovessi prendere un ali nuovo, eviterei i modelli che non adottano a pieno il nuovo standard.

Per ora andiamo avanti con quelli che abbiamo e con adattatori, se poi vediamo che si spegne di botto, sapremo cosa fare.Ma il sensore è nel cavo o nella psu?


Cmq alla fine i nuovi sensori serviranno solo in casi estremi con gpu top , tirate al top.


Io ho preso un seasonic prime 1000 gold 6 mesi fa se ne riparla fra 9 anni e 6 mesi di cambiarlo.

Thunder-74
08-08-2022, 12:48
Ma il sensore è nel cavo o nella psu?


Cmq alla fine i nuovi sensori serviranno solo in casi estremi con gpu top , tirate al top.


Io ho preso un seasonic prime 1000 gold 6 mesi fa se ne riparla fra 9 anni e 6 mesi di cambiarlo.


Il cavo veicolerà il segnale che sarà poi interpretato dalla psu. Lo standard ATX3.0 prevede che tale connettore sia implementato negli ALI dai 450w in su.
Certo, lo trovo al quanto assurdo. Chi va per una 4080 che si ipotizza si assesti dai 420w a salire (custom ecc), minimo uno prende un 850w.


Inviato dal mio iPhone X utilizzando Tapatalk

Ubro92
08-08-2022, 12:52
Una FE con 800 watt e due cavetti, vorrei proprio vederla.:p
Cmq c'è il 26% di differenza su 10% ALU.
Dando peso a quel GS, significa che scalando 1:1 in clock ed ALU, il chip partirebbe da 3,2 (veramente assurdo). OC 3,4/3,5 (roba da sandy bridge stock):D

Te lo dico io, hanno preso i 19000 e hanno fatto +10% di ALU, +10% di clock e +5% per le memorie e poi arrotondato tutto XD

Il cavo veicolerà il segnale che sarà poi interpretato dalla psu. Lo standard ATX3.0 prevede che tale connettore sia implementato negli ALI dai 450w in su.
Certo, lo trovo al quanto assurdo. Chi va per una 4080 che si ipotizza si assesti dai 420w a salire (custom ecc), minimo uno prende un 850w.


Inviato dal mio iPhone X utilizzando Tapatalk

Vabbè il nuovo standard è fatto anche per gestire i profili 150w e 300w, i pichi non li hai solo sui chipponi, anzi considerando le ciofeche di PSU nella fascia bassa forse ha più senso tenerlo su un 450w che su 1000/1200w.
Poi è ovvio che per una 4080 non consiglierei di stare sotto un psu da 750w di qualità.

TigerTank
08-08-2022, 13:13
Ma il sensore è nel cavo o nella psu?


Cmq alla fine i nuovi sensori serviranno solo in casi estremi con gpu top , tirate al top.


Io ho preso un seasonic prime 1000 gold 6 mesi fa se ne riparla fra 9 anni e 6 mesi di cambiarlo.

Il cavo veicolerà il segnale che sarà poi interpretato dalla psu. Lo standard ATX3.0 prevede che tale connettore sia implementato negli ALI dai 450w in su.
Certo, lo trovo al quanto assurdo. Chi va per una 4080 che si ipotizza si assesti dai 420w a salire (custom ecc), minimo uno prende un 850w.


https://cdn.videocardz.com/1/2022/02/PCIE-Gen5-16-pin-DATA-768x275.jpg

"So what does it mean exactly? It means that Geforce RTX 30 Founders Edition will work with PCIe Gen5 connectors, simply because they do not need more than 450W. This is a limit imposed by the S3 (SENSE0) signal, if it is not grounded, the PSU won’t supply 600W but up to 450W. In an example of ASUS Thor PSU and their 600W claim for 12-pin cable, this means that the SENSE0 signal must be internally grounded.

Meanwhile, the S1 (CARD_PWR_STABLE) and S2 (CARD_CBL_PRES) signals are to ensure that the graphics card is correctly connected and that the power budget has been negotiated properly. The fourth signal (S4) is not defined by the latest PCI-SIG specs."

Potrebbe essere che magari i produttori decidano di rendere "proprietaria" la forma delle asole dei pin sulle PSU ma credo convenga a tutti rispettare tutto il resto :D

Freisar
08-08-2022, 13:31
Il problema è dei consumi.

Se fai una scheda da 600w devi metterci 4x8 connettori , o il nuovo da 16.

Se amd farà una scheda con questi consumi , dovrà cmq adottare un sistema di questi. Se riuscirà a fare una scheda con prestazioni simili o poco inferiori con consumi migliori tanto di cappello , avrà vinto a mani basse

Nvidia con le ampere ha voluto solamente risparmiare spazio sul pcb ( già piccolo ) con un connettore unico

Spero che la 7600xt e la 7700xt abbiano pin normali e consumi contenuti a sto punto!

fraussantin
08-08-2022, 13:39
Il cavo veicolerà il segnale che sarà poi interpretato dalla psu. Lo standard ATX3.0 prevede che tale connettore sia implementato negli ALI dai 450w in su.
Certo, lo trovo al quanto assurdo. Chi va per una 4080 che si ipotizza si assesti dai 420w a salire (custom ecc), minimo uno prende un 850w.


Inviato dal mio iPhone X utilizzando TapatalkMmm il problema è se in futuro il sensore che risponde alla gpu dovesse diventare obbligatorio ( di certo non con questa gen) o non si accende .

Però hanno anche rotto il caxzo , non è che uno puo gettare soldi a casaccio perche si inventano ste boiate , quando poi tutti gli ali ha gia le protezioni contro il sovraccarico.

Piuttosto compro un connettore e i sensori su aliexpress e ce li saldo prima di cambiare tutto di nuovo xD
Spero che la 7600xt e la 7700xt abbiano pin normali e consumi contenuti a sto punto!

Ovvio che li avranno. Non me li aspetto bassi , ma sicuramente saranno consumi decenti

Rigiardo il connettore , boh vedremo.
https://cdn.videocardz.com/1/2022/02/PCIE-Gen5-16-pin-DATA-768x275.jpg


Gia mi immagino un dispositivo da 5 euro da agganciare ai 4 pin che simula una risposta positiva della psu ..

:asd:

Thunder-74
08-08-2022, 13:44
Te lo dico io, hanno preso i 19000 e hanno fatto +10% di ALU, +10% di clock e +5% per le memorie e poi arrotondato tutto XD



Vabbè il nuovo standard è fatto anche per gestire i profili 150w e 300w, i pichi non li hai solo sui chipponi, anzi considerando le ciofeche di PSU nella fascia bassa forse ha più senso tenerlo su un 450w che su 1000/1200w.
Poi è ovvio che per una 4080 non consiglierei di stare sotto un psu da 750w di qualità.


Giustissima osservazione Ubro, da qui si deduce che tale connettore lo potremmo vedere su tutti modelli vga che richiederanno dai 225w (75+150w) in su . Uso il condizionale perché alla fine sicuro vedremo ancora soluzioni con un connettore 8 pin. Magari lo implementerei per le schede che necessiterebbero di 2 connettori 8 pin


Inviato dal mio iPad utilizzando Tapatalk

TigerTank
08-08-2022, 13:58
Giustissima osservazione Ubro, da qui si deduce che tale connettore lo potremmo vedere su tutti modelli vga che richiederanno dai 225w (75+150w) in su . Uso il condizionale perché alla fine sicuro vedremo ancora soluzioni con un connettore 8 pin. Magari lo implementerei per le schede che necessiterebbero di 2 connettori 8 pin


Mi sa che dipenderà dalle scelte dei produttori, però imho alla fine tale nuovo 12+4 pin ci starebbe bene sulle gpu di tutte le fasce(o perlomeno dalla x60 in su) proprio perchè il singolo cavo spazia dai 150W ai 600W(o 450W, dipende dal pin S3) :)
Per la 4060 si parla di presunti 220W di TDP.

Thunder-74
08-08-2022, 14:23
Mi sa che dipenderà dalle scelte dei produttori, però imho alla fine tale nuovo 12+4 pin ci starebbe bene sulle gpu di tutte le fasce(o perlomeno dalla x60 in su) proprio perchè il singolo cavo spazia dai 150W ai 600W(o 450W, dipende dal pin S3) :)
Per la 4060 si parla di presunti 220W di TDP.


Sicuro le FE lo adotteranno. Non so se nVidia lo imporrà anche agli AIB. Vedremo.


Inviato dal mio iPad utilizzando Tapatalk

TigerTank
08-08-2022, 14:32
Sicuro le FE lo adotteranno. Non so se nVidia lo imporrà anche agli AIB. Vedremo.


Secondo me su Strix e simili ci sarà se verranno calibrate tra i 500 e i 600W :D
Altrimenti ci vorrebbero 4 connettori 8pin :sofico:

mikael84
08-08-2022, 15:03
non lo avevo visto. Calcolo empirico a membro di segugio.

Te lo dico io, hanno preso i 19000 e hanno fatto +10% di ALU, +10% di clock e +5% per le memorie e poi arrotondato tutto XD

Cmq ci sta un distacco, la 4090 per essere poco più del 20% sopra la 4080 significa che è davvero in relax.
La 4090ti è quasi 2x la 4080 in specifiche.
Li la 4080 viene vista raggiungere (da varie fonti) 15k ed oltre, ma già una 3090 a 2,8 supera i 14k.
Quindi è lecito aspettarsi 3 ghz, se non oltre su tale modello.
Sono quasi 100 watt oltre la 3080ti, che ha pure meno più cuda.

Se ci pensate però, siamo a 2,2x la 4070, questo evidenzia quanto siano declassati, non solo, la 5070 salvo cambiamenti sarà allineata ai top Lovelace.




Giustissima osservazione Ubro, da qui si deduce che tale connettore lo potremmo vedere su tutti modelli vga che richiederanno dai 225w (75+150w) in su . Uso il condizionale perché alla fine sicuro vedremo ancora soluzioni con un connettore 8 pin. Magari lo implementerei per le schede che necessiterebbero di 2 connettori 8 pin


Inviato dal mio iPad utilizzando Tapatalk

Sulle 4060 non è detto, con Ampere la 3060 FE non è uscita. Con la 3070 faranno un 2x8, come il 12pin, declassandolo, anch'esso doveva essere 3x8.:)

Mi sa che dipenderà dalle scelte dei produttori, però imho alla fine tale nuovo 12+4 pin ci starebbe bene sulle gpu di tutte le fasce(o perlomeno dalla x60 in su) proprio perchè il singolo cavo spazia dai 150W ai 600W(o 450W, dipende dal pin S3) :)
Per la 4060 si parla di presunti 220W di TDP.

Si basta declassarlo, come fatto dal 12pin attuale.:)
La 4060 potrebbe anche non uscire FE, anche con Ampere è successo, idem AMD non ha fatto i riferimenti di tale fascia.

Cmq la si vuol girare, il tutto viene sempre adattato al AWG20, ovvero il vrm pilota sempre 150 watt per cavo.
Il cavo nativo è pratico, in quanto hai tutto a portata via.

Sostanzialmente quello di ripartire in 4 cavi è per via dello stardard AWG20, se prendiamo ALI AWG16 (es quello di thunder, la maggior parte è 18), lui avrebbe gli stessi risultati con 2 cavi da 8, mentre in quelli comuni 3x8.

Chiaramente devi trovare una soluzione per tutti gli ALI, anche quelli low coast di alto wattaggio.:)

Secondo me su Strix e simili ci sarà se verranno calibrate tra i 500 e i 600W :D
Altrimenti ci vorrebbero 4 connettori 8pin :sofico:

Si probabilmente ci sarà anche li, già con la 3090ti, tutte le custom avevano il cavetto.
https://www.techpowerup.com/review/asus-geforce-rtx-3090-ti-strix-lc/4.html
Se poi le varie manli, ventus, vogliono fare un reference da 3x8 possono farlo. Con il pci express 500 watt possono tirarli fuori, un pò come ora che hanno TPD/PL0

WarSide
08-08-2022, 15:10
Io ho preso un seasonic prime 1000 gold 6 mesi fa se ne riparla fra 9 anni e 6 mesi di cambiarlo.


Io spero non si inventino una nuova cavolata all'anno. :muro:

Che si mettessero d'accordo e si passasse di botto a 12VO e questa roba qui. Non è possibile cambiare anche un alimentatore che è fatto per durare anni.

Inoltre stanno aumentando anche molto i consumi, questo causa non solo il cambio di PSU, ma anche di eventuali UPS a monte.

Tra l'altro gli UPS montano batterie a 12V e se si passerà allo standard 12VO, è anche assurdo avere: ( 220V AC -> 12V DC -> 220V AC )[UPS] -> 12V DC :muro:

Si mettessero tutti d'accordo per una buona volta, così da rivedere tutto l'impianto una volta sola.

TigerTank
08-08-2022, 15:21
Si basta declassarlo, come fatto dal 12pin attuale.:)
La 4060 potrebbe anche non uscire FE, anche con Ampere è successo, idem AMD non ha fatto i riferimenti di tale fascia.

Cmq la si vuol girare, il tutto viene sempre adattato al AWG20, ovvero il vrm pilota sempre 150 watt per cavo.
Il cavo nativo è pratico, in quanto hai tutto a portata via.

Sostanzialmente quello di ripartire in 4 cavi è per via dello stardard AWG20, se prendiamo ALI AWG16 (es quello di thunder, la maggior parte è 18), lui avrebbe gli stessi risultati con 2 cavi da 8, mentre in quelli comuni 3x8.

Chiaramente devi trovare una soluzione per tutti gli ALI, anche quelli low coast di alto wattaggio.:)


Capito :)
Comunque io credo che con le prossime, forse salvo le AIB più economiche e specialmente sulle custom spinte, adotteranno il nuovo connettore(se non 2 sulle supercustom) + adattatori(dipendenti da fascia e relativo TDP).
Sarà più interessante del solito vedere anche i pcb nudi in teardown fatti come si deve.

mikael84
08-08-2022, 15:38
Capito :)
Comunque io credo che con le prossime, forse salvo le AIB più economiche e specialmente sulle custom spinte, adotteranno il nuovo connettore(se non 2 sulle supercustom) + adattatori(dipendenti da fascia e relativo TDP).
Sarà più interessante del solito vedere anche i pcb nudi in teardown fatti come si deve.

Si, già la KP ne metteva 2 per l'azoto. Raggiungere 1200/1300watt non è complicato.

Quel link che avevi postato prima, AWG14 e 12 (sono tubi non cavi o quasi:p ), non vengono utilizzati.
Il casotto dello standard AWG è nato soprattutto per quegli ALI di fascia bassa che mentivano, dichiaravano AWG18 ed erano 20, e molte schede prima se ne sbattevano di certi limiti.

Ora gli ALI di buona fascia, sono tutti AWG18 e 16, però la tara è sempre in 20 perchè lo standard più misero è quello.
AWG20 sono 150 watt poco più di 4A per linea, AWG12 6A per linea, AWG16 8A.:)

Chiudo OT

TigerTank
08-08-2022, 15:49
Si, già la KP ne metteva 2 per l'azoto. Raggiungere 1200/1300watt non è complicato.

Quel link che avevi postato prima, AWG14 e 12 (sono tubi non cavi o quasi:p ), non vengono utilizzati.
Il casotto dello standard AWG è nato soprattutto per quegli ALI di fascia bassa che mentivano, dichiaravano AWG18 ed erano 20, e molte schede prima se ne sbattevano di certi limiti.

Ora gli ALI di buona fascia, sono tutti AWG18 e 16, però la tara è sempre in 20 perchè lo standard più misero è quello.
AWG20 sono 150 watt poco più di 4A per linea, AWG12 6A per linea, AWG16 8A.:)

Sì poi ho tolto quel link perchè a rileggere meglio riguardava il cavo da presa elettrica ad alimentatori, negli USA...e non c'entrava nulla con i cavi PCIE e altri :D
Madò Mike....chissà come saranno le Kingpin della serie 4000...rischio di blackout di quartiere :asd:

P.S. Tutte le 3080 12GB messe a $799 sul sito americano di evga sono andate out of stock.

fraussantin
08-08-2022, 16:16
ma la data di uscita presunta era trapelata?

mikael84
08-08-2022, 16:18
Sì poi ho tolto quel link perchè a rileggere meglio riguardava il cavo da presa elettrica ad alimentatori, negli USA...e non c'entrava nulla con i cavi PCIE e altri :D
Madò Mike....chissà come saranno le Kingpin della serie 4000...rischio di blackout di quartiere :asd:

P.S. Tutte le 3080 12GB messe a $799 sul sito americano di evga sono andate out of stock.

:p

Cmq a vedere come volano i drop di 3080 non mi stupisce.:)

ma la data di uscita presunta era trapelata?


Ancora no, la 4090 per ora è prevista ad ottobre. Farà una conferenza 2 settimane prima.

Thunder-74
08-08-2022, 17:38
NVIDIA annuncia un calo delle vendite di GPU di gioco nel secondo trimestre, ora collaborando con i partner di canale per adeguare i prezzi

Le entrate dell'azienda dal mercato dei giochi sono diminuite del 44% da un trimestre all'altro, il che è descritto dal CEO di NVIDIA come un "declino significativo". La società aveva precedentemente previsto entrate per 8,1 miliardi di dollari per il trimestre, ma i risultati preliminari mostrano entrate inferiori di 1,4 miliardi di dollari a 6,7 ​​miliardi di dollari.

La piattaforma di gioco registra un fatturato di 2,04 miliardi di dollari, il 33% in meno di anno in anno. NVIDIA sta ora collaborando con i partner per adeguare i prezzi e l'inventario che dovrebbe migliorare il sell-through nel terzo trimestre.
Alla fine del terzo trimestre si prevede che NVIDIA rivelerà i suoi piani per la serie di GPU di nuova generazione, ovvero la GeForce RTX 40. Si ritiene che a causa delle vendite più deboli della serie RTX 30 e dell'inventario in eccesso, NVIDIA sia stata costretta ad abbandonare i suoi piani per rilascio anticipato della next-gen.

Le vendite più deboli sono probabilmente il risultato del crollo della criptovaluta e del mercato post-COVID con una minore domanda di hardware per PC.

FONTE (https://videocardz.com/newz/nvidia-announces-weaker-q2-gaming-gpu-sales-now-working-with-channel-partners-to-adjust-prices)

Salfox
08-08-2022, 17:41
NVIDIA annuncia un calo delle vendite di GPU di gioco nel secondo trimestre, ora collaborando con i partner di canale per adeguare i prezzi


Le vendite più deboli sono probabilmente il risultato del crollo della criptovaluta e del mercato post-COVID con una minore domanda di hardware per PC.

FONTE (https://videocardz.com/newz/nvidia-announces-weaker-q2-gaming-gpu-sales-now-working-with-channel-partners-to-adjust-prices)

Ottima notizia, questo dovrebbe preludere anche ad un posizionamento del prezzo più in basso di quanto previsto per le nuove 4000, se no mi sa che non vendono nemmeno quelle....

Thunder-74
08-08-2022, 17:53
Ottima notizia, questo dovrebbe preludere anche ad un posizionamento più in basso di quanto previsto per le nuove 4000, se no mi sa che non vendono nemmeno quelle....

speriamo, perchè a forza di succhiare, alla fine il sangue finisce..

WarSide
08-08-2022, 18:03
Ottima notizia, questo dovrebbe preludere anche ad un posizionamento più in basso di quanto previsto per le nuove 4000, se no mi sa che non vendono nemmeno quelle....

Potrebbero sempre fare cartello e posticipare sia AMD che nvidia.. soprattutto se hanno un surplus di schede invendute. Anche i partner potrebbero spingere per posticipare.

ste-87
08-08-2022, 18:25
Ottima notizia, questo dovrebbe preludere anche ad un posizionamento del prezzo più in basso di quanto previsto per le nuove 4000, se no mi sa che non vendono nemmeno quelle....

le premesse sono buone, MA guardando in faccia la realtà se le prestazioni saranno anche solo vicino a quanto ci si aspetta (al di là dei consumi) sarà comunque un bagno di sangue lato prezzi...personalmente preferisco non illudermi.

L'unica cosa positiva è che se va bene, con il monitor che mi ritrovo dovrebbe bastarmi una 4070/4070Ti, senza dovermi svenare con la 4080

devAngnew
08-08-2022, 18:26
Potrebbero sempre fare cartello e posticipare sia AMD che nvidia.. soprattutto se hanno un surplus di schede invendute. Anche i partner potrebbero spingere per posticipare.

Eh infatti altro che limare i prezzi XD siete troppo ottimisti.

Le 3000 costano troppo, siamo a fine serie meglio se gli rimangano sul groppone :sofico: cosi si adeguano :D Ora dovrebbero stare sotto il prezzo consigliato.

Certo in futuro potrebbero sempre offrire meno gpu per tenere i prezzi alti.

le premesse sono buone, MA guardando in faccia la realtà se le prestazioni saranno anche solo vicino a quanto ci si aspetta (al di là dei consumi) sarà comunque un bagno di sangue lato prezzi...personalmente preferisco non illudermi.

L'unica cosa positiva è che se va bene, con il monitor che mi ritrovo dovrebbe bastarmi una 4070/4070Ti, senza dovermi svenare con la 4080

Ma no, altrimenti a quest'ora la s. video costerebbero quanto le ferrari se ad ogni gen aumentassero i prezzi. :D

TigerTank
08-08-2022, 18:29
Ottima notizia, questo dovrebbe preludere anche ad un posizionamento del prezzo più in basso di quanto previsto per le nuove 4000, se no mi sa che non vendono nemmeno quelle....

No io non credo....perchè con quelle la domanda si rialzerà, probabilmente già a livello di prenotazioni anticipate(dove possibile) da parte degli ultra-inscimmiati :D

mikael84
08-08-2022, 18:40
le premesse sono buone, MA guardando in faccia la realtà se le prestazioni saranno anche solo vicino a quanto ci si aspetta (al di là dei consumi) sarà comunque un bagno di sangue lato prezzi...personalmente preferisco non illudermi.

L'unica cosa positiva è che se va bene, con il monitor che mi ritrovo dovrebbe bastarmi una 4070/4070Ti, senza dovermi svenare con la 4080

I costi del wafer sono saliti non poco, ma non vedo tutto questo catastrofismo.
A cambio gen, c'è sempre stato un riposizionamento delle fasce, altrimenti ora come facevamo.:)
Anche la 1070 andava come la titan maxwell, la 970 come la titan kepler, eppure...
Purtroppo i costi aumentano, ma già di loro sono parecchio declassati.
La 4070 è una x60, la 4080 una x70.
4070 300mm2 / 3060 276mm2.

Considera anche che la 7700xt di AMD (navi21) sarà creata su un PP a 6nm economico e che avrà un die poco sopra la 6700xt.

Ampere è stato problematico per il casino successo, altrimenti il MSRP era uno dei migliori degli ultimi anni. 499 una 2080ti like:)

Concordo :D spero almeno per natale io :) anche perchè all'inizio ci saranno i bagarini che faranno incette. Avevo un amico di un amico, sta anche su questo forum ma non faccio nomi, che ha venduto, detto da lui, decine di 3000 da bagarinaggio.

Fai te se non risuccede anche stavolta con tutti i soldi che si sono accumulati dalle 3000 :\

Se c'è disponibilità, i bagarini possono fare poco.

Arrow0309
08-08-2022, 18:55
[... cut ...]

Se c'è disponibilità, i bagarini possono fare poco.


:cincin: :yeah: :mano:

Ubro92
08-08-2022, 19:04
I costi del wafer sono saliti non poco, ma non vedo tutto questo catastrofismo.
A cambio gen, c'è sempre stato un riposizionamento delle fasce, altrimenti ora come facevamo.:)
Anche la 1070 andava come la titan maxwell, la 970 come la titan kepler, eppure...
Purtroppo i costi aumentano, ma già di loro sono parecchio declassati.
La 4070 è una x60, la 4080 una x70.
4070 300mm2 / 3060 276mm2.

Considera anche che la 7700xt di AMD (navi21) sarà creata su un PP a 6nm economico e che avrà un die poco sopra la 6700xt.

Ampere è stato problematico per il casino successo, altrimenti il MSRP era uno dei migliori degli ultimi anni. 499 una 2080ti like:)



Se c'è disponibilità, i bagarini possono fare poco.

Vabbè alla fine anche la 1070 era da 314 mm2 cosi come la GTX 770 da 294 mm2, diciamo che quando nvidia ha l'opportunità di risparmiare sul silicio lo fa senza troppi problemi XD

Considerando il passaggio da un pessimo pp come gli 8mn di samsung ha avuto importanti margini, se già ampere fosse stata stampata a 7nm avrebbe di sicuro rivisto la densità dei vari chip.

ste-87
08-08-2022, 20:03
Le 3000 costano troppo, siamo a fine serie meglio se gli rimangano sul groppone :sofico: cosi si adeguano :D Ora dovrebbero stare sotto il prezzo consigliato.

Certo in futuro potrebbero sempre offrire meno gpu per tenere i prezzi alti.



Ma no, altrimenti a quest'ora la s. video costerebbero quanto le ferrari se ad ogni gen aumentassero i prezzi. :D

Senza voler andare troppo indietro, a suo tempo una 980Ti stava di listino a 649$, ora per l'equivalente scheda, all'uscita a distanza di 5 anni (2015 -> 2020), di listino ne servivano 1199€ :fagiano:

I costi del wafer sono saliti non poco, ma non vedo tutto questo catastrofismo.
A cambio gen, c'è sempre stato un riposizionamento delle fasce, altrimenti ora come facevamo.:)
Anche la 1070 andava come la titan maxwell, la 970 come la titan kepler, eppure...
Purtroppo i costi aumentano, ma già di loro sono parecchio declassati.
La 4070 è una x60, la 4080 una x70.
4070 300mm2 / 3060 276mm2.

Considera anche che la 7700xt di AMD (navi21) sarà creata su un PP a 6nm economico e che avrà un die poco sopra la 6700xt.

Ampere è stato problematico per il casino successo, altrimenti il MSRP era uno dei migliori degli ultimi anni. 499 una 2080ti like:)



Se c'è disponibilità, i bagarini possono fare poco.



Ragazzi io spero di sbagliarmi e che abbiate ragione voi, non fraintendiamo :D...è che questo schifo alla fine fine mi ha lasciato fermo alla 1080Ti che per quanto buona a 3440x1440 in diversi titoli ormai devi saper necessariamente gestire i setting e sapere a cosa rinunciare...penso possiate ben immaginare come sia disilluso da certe aspettative sui prezzi a questo punto.

Detto questo non dico che una 4070 che magari va molto simile a una 3090/3090Ti me la piazzano a 1000€ o più, ma vuoi che un ulteriore "ritocchino" a rialzo per ogni fascia di 80-100€ non provino a farlo?

devAngnew
08-08-2022, 20:22
Senza voler andare troppo indietro, a suo tempo una 980Ti stava di listino a 649$, ora per l'equivalente scheda, all'uscita a distanza di 5 anni (2015 -> 2020), di listino ne servivano 1199€ :fagiano:





Ragazzi io spero di sbagliarmi e che abbiate ragione voi, non fraintendiamo :D...è che questo schifo alla fine fine mi ha lasciato fermo alla 1080Ti che per quanto buona a 3440x1440 in diversi titoli ormai devi saper necessariamente gestire i setting e sapere a cosa rinunciare...penso possiate ben immaginare come sia disilluso da certe aspettative sui prezzi a questo punto.

Detto questo non dico che una 4070 che magari va molto simile a una 3090/3090Ti me la piazzano a 1000€ o più, ma vuoi che un ulteriore "ritocchino" a rialzo per ogni fascia di 80-100€ non provino a farlo?

Ora non esagerare basta vedere prezzo rtx 2000 vs rtx 3000 escludendo le speculazioni. :D

mikael84
08-08-2022, 20:35
Vabbè alla fine anche la 1070 era da 314 mm2 cosi come la GTX 770 da 294 mm2, diciamo che quando nvidia ha l'opportunità di risparmiare sul silicio lo fa senza troppi problemi XD

Considerando il passaggio da un pessimo pp come gli 8mn di samsung ha avuto importanti margini, se già ampere fosse stata stampata a 7nm avrebbe di sicuro rivisto la densità dei vari chip.

Si ma la differenza non è così stata così abissale, la 1070 era metà delle ALU del chippone e ci sono casi in cui la x70 ha avuto un rapporto ALU superiore alla 4080 attuale.:sofico:
Pascal ha avuto una fortuna incredibile anche perchè la concorrenza era ai minimi termini, ma soprattutto per la storia dei 20nm, dove dovevano essere scritte le fury, le maxwell.

Vedere la 4070 2,2 volte inferiore la 4090ti è davvero pazzesco.

Senza voler andare troppo indietro, a suo tempo una 980Ti stava di listino a 649$, ora per l'equivalente scheda, all'uscita a distanza di 5 anni (2015 -> 2020), di listino ne servivano 1199€ :fagiano:





Ragazzi io spero di sbagliarmi e che abbiate ragione voi, non fraintendiamo :D...è che questo schifo alla fine fine mi ha lasciato fermo alla 1080Ti che per quanto buona a 3440x1440 in diversi titoli ormai devi saper necessariamente gestire i setting e sapere a cosa rinunciare...penso possiate ben immaginare come sia disilluso da certe aspettative sui prezzi a questo punto.

Detto questo non dico che una 4070 che magari va molto simile a una 3090/3090Ti me la piazzano a 1000€ o più, ma vuoi che un ulteriore "ritocchino" a rialzo per ogni fascia di 80-100€ non provino a farlo?

La 980ti stava a quasi 6x il wafer. Un die che oggi costa 430 circa (4090), prima ti veniva 70 euro.
Ad una densità di circa 80mmt x mm2, una 980ti sarebbe un chip da 100mm2, facendola clockare a 3ghz pure.:p


E' lecito aspettarsi qualche aumento MSRP, dopo bisogna vedere la disponibilità, ma TSMC è bella carica, è solo nvidia incasinata nel vendere le schede di fascia alta, che non hanno più senso, vedi 3080ti/3090ti.

Se ne avessero in quantità industriale, farebbero anche più drop, ma non stanno facendo neppure più quelli, o sono abbastanza rari.
AMD addirittura, non so se ne fa più da svariato tempo.:)

Ubro92
08-08-2022, 20:36
Ma basta vedere a quanto vende le gpu nvidia sul proprio shop...

I prezzi saranno quelli, la 4070 a msrp si porrà tra 499$ e 599$ per il resto dipende esclusivamente dal mercato e dalla domanda.

Nel caso della generazione Ampere la 3080 FE stava a 729€ e non è che dalla 3090 ci fossero chissà che super prestazioni.

Anche in passato tra la Ti e la Titan c'era quasi un raddoppio del prezzo.

Bisogna per lo più sperare che non si generino sorpresine all'ultimo minuto che portino a una nuova esplosione del mercato, ma dubito, anzi ho la sensazione che i mercatini saranno pieni di 3000/2000.

Ubro92
08-08-2022, 20:43
Si ma la differenza non è così stata così abissale, la 1070 era metà delle ALU del chippone e ci casi in cui la x70 ha avuto un rapporto ALU superiore alla 4080 attuale.:sofico:
Pascal ha avuto una fortuna incredibile anche perchè la concorrenza era ai minimi termini, ma soprattutto per la storia dei 20nm, dove dovevano essere scritte le fury, le maxwell.

Vedere la 4070 2,2 volte inferiore la 4090ti è davvero pazzesco.


Si ma c'è da dire che anche la 1080ti non era un vero chippone, cioè se prendi AD103 e lo schiaffi su bus a 384bit ottieni un chip paragonabile alla 1080ti, al massimo gli dai una sistemata ai gpc per avere un pò di densità ma tra GP102 e AD102 c'è un abisso con le dovute proporzioni :sofico:

Comuque alla luce delle nuove specifiche abbiamo una 4070 che è la meta esatta di una 4090 quindi siamo in linea, poi sicuramente insieme al full AD102 arriverà anche lo scarto di AD103 XD



E' lecito aspettarsi qualche aumento MSRP, dopo bisogna vedere la disponibilità, ma TSMC è bella carica, è solo nvidia incasinata nel vendere le schede di fascia alta, che non hanno più senso, vedi 3080ti/3090ti.

Se ne avessero in quantità industriale, farebbero anche più drop, ma non stanno facendo neppure più quelli, o sono abbastanza rari.
AMD addirittura, non so se ne fa più da svariato tempo.:)

Ma mettici pure la 3070ti, di chip insensati ce ne sono stati a bizzeffe da parte di nvidia per vendere e cavalcare l'onda delle vendite...

mikael84
08-08-2022, 21:00
Si ma c'è da dire che anche la 1080ti non era un vero chippone, cioè se prendi AD103 e lo schiaffi su bus a 384bit ottieni un chip paragonabile alla 1080ti, al massimo gli dai una sistemata ai gpc per avere un pò di densità ma tra GP102 e AD102 c'è un abisso con le dovute proporzioni :sofico:

Comuque alla luce delle nuove specifiche abbiamo una 4070 che è la meta esatta di una 4090 quindi siamo in linea, poi sicuramente insieme al full AD102 arriverà anche lo scarto di AD103 XD




Ma mettici pure la 3070ti, di chip insensati ce ne sono stati a bizzeffe da parte di nvidia per vendere e cavalcare l'onda delle vendite...

La metà esatta è 8192, neppure così ci arrivi.:sofico:
La 4080 perfetta 2/3 delle ALU, sarebbe dovuta essere ad 8GPC almeno, 400mm2 circa in linea anche con maxwell.
La 4070 a 6 e la 4060 a 5 (6144cc = 3080).

La 3070ti spero che gli serva da lezione. La 4070ti, a questo punto sarà per forza di cose un cut di AD103, e se vuole lasciare integro il GPC dalle rop's, dovrà tagliarla a 8704 (i cuda della 3080) e sarebbe un gioiellino prezzo permettendo.:)

Dono89
08-08-2022, 21:23
La 4070 non andrà mai a 499, rispetto la 3070 il chip costa molto di più e in generale la scheda ha un costo di produzione differente. L'azienda ha visto quanto sono disposti a spendere i giocatori e sopratutto quanti.


Bisogna vedere il discorso bus come si cala sulle performance, ma è qualcosa che nvidia ha sicuramente già calcolato.
Anche se, tra la 3060ti e la 3060 cambia solo il bus, ma c'è tantissima differenza in game anche rimanendo al solo fhd

Ubro92
08-08-2022, 21:24
La metà esatta è 8192, neppure così ci arrivi.:sofico:
La 4080 perfetta 2/3 delle ALU, sarebbe dovuta essere ad 8GPC almeno, 400mm2 circa in linea anche con maxwell.
La 4070 a 6 e la 4060 a 5 (6144cc = 3080).

La 3070ti spero che gli serva da lezione. La 4070ti, a questo punto sarà per forza di cose un cut di AD103, e se vuole lasciare integro il GPC dalle rop's, dovrà tagliarla a 8704 (i cuda della 3080) e sarebbe un gioiellino prezzo permettendo.:)

Si ma devi tenere conto anche dei clock, la 4090 la vedo decisamente rilassata rispetto 4070, e poi ci sono gli scarti.

E' molto probabile che lo scarto di AD104 sarà bene o male intorno ai 6144cc.

Inoltre la 4080 è stata strategicamente depotenziata negli ultimi rumors, mi lascia presupporre c'è la possibilità di vedere un full AD103 con le nuove memorie a 24gbps, in stile 2080s.

Mettere una 4070 a 499 mi fa ricordare davide dei prodigeek xD probabilmente saranno sicuramente di più di questi prezzi :) devono ancora vendere le tremila d'altronde.

Ma la 4070 è attesa per fine 2022 se non addirittura nel 2023, parliamo di 4 mesi e oltre di vendite, e considerati i rincari dell'energia dubito che la domanda risalirà.

Alla forbice dovrebbe aggiungersi anche intel, che comunque si insedierà sul range 3060/3060ti quindi potremmo aspettarci altre riduzioni anche sui chip mid.

In ogni gen la x70 ha sempre avuto un dimezzamento dei prezzi rispetto al chippone, anche la 3070 liscia parte da 499$ e 599$ per la 3070ti, rispetto ai 999-1199$ di 2080ti.

Ciò che è successo nel periodo pandemico è un'anomalia, una cosa del genere non si era mai vista in passato e francamente amd e nvidia se li sogneranno i fatturati 2020-2021...

La 4070 non andrà mai a 499, rispetto la 3070 il chip costa molto di più e in generale la scheda costa decisamente di più tra vram e tutto. L'azienda ha visto quanto sono disposti a spendere i giocatori e sopratutto quanti.


Bisogna vedere il discorso bus come si cala sulle performance, ma è qualcosa che nvidia ha sicuramente già calcolato.
Anche se, tra la 3060ti e la 3060 cambia solo il bus, ma c'è tantissima differenza in game anche rimanendo al solo fhd

Hanno già provveduto a recuperare i soldi del silicio scalando verso il basso le fasce, la 3070 ha un die di 392mm2 come complessità è paragonabile alla 4080 che è circa 380mm2 XD

mikael84
08-08-2022, 21:54
Si ma devi tenere conto anche dei clock, la 4090 la vedo decisamente rilassata rispetto 4070, e poi ci sono gli scarti.

E' molto probabile che lo scarto di AD104 sarà bene o male intorno ai 6144cc.

Inoltre la 4080 è stata strategicamente depotenziata negli ultimi rumors, mi lascia presupporre c'è la possibilità di vedere un full AD103 con le nuove memorie a 24gbps, in stile 2080s.



Che centrano clock e scarti. A livello tecnico si calcola alla base del chippone. I clock sono bassi nella FE, ed onestamente non sappiamo neppure quelli sulla 4070. L'unica sparata pare la 4080.
Tutte alla base FE.

Ubro92
08-08-2022, 22:16
Ma a livello tecnico i ragionamenti sono limitati, commercialmente vanno tenuti conto anche dei tagli ed è già da anni che vediamo chip sempre più monchi.

Una volta la x80ti se non era full poco ci mancava, già con lovelace abbiamo una 4090 tagliata e neanche di poco, e una 4080ti che sicuramente subirà un trattamento simil 3080.

Fondamentalmente faranno riferimento solo le prestazioni nei vari bench alla stampa, cosa c'è sotto al chip importerà poco e nulla.

La 4070 credo sia più giusto paragonarla all'eventuale 4080ti considerando che oramai le x90 sono praticamente delle new-titan e pensate più per i pro sfruttando anche l'nvlink che per i giocatori.

amon.akira
08-08-2022, 23:06
La 4070 non andrà mai a 499, rispetto la 3070 il chip costa molto di più e in generale la scheda ha un costo di produzione differente. L'azienda ha visto quanto sono disposti a spendere i giocatori e sopratutto quanti.


Bisogna vedere il discorso bus come si cala sulle performance, ma è qualcosa che nvidia ha sicuramente già calcolato.
Anche se, tra la 3060ti e la 3060 cambia solo il bus, ma c'è tantissima differenza in game anche rimanendo al solo fhd

ma infatti sopperirà al costo di produzione maggiorato con il taglio, essendo in realtà un taglio da x60 rinominata a x70, solo che non lo sai, quindi magari un piccolo aumento ci sarà ma non di tanto, forse da 499 a 549 imho

sulla x90 invece se la vende sempre intorno ai 1499 barra 1599 significherà semplicemente che ci marginerà meno rispetto alle 3090

mikael84
09-08-2022, 00:01
Ma a livello tecnico i ragionamenti sono limitati, commercialmente vanno tenuti conto anche dei tagli ed è già da anni che vediamo chip sempre più monchi.

Una volta la x80ti se non era full poco ci mancava, già con lovelace abbiamo una 4090 tagliata e neanche di poco, e una 4080ti che sicuramente subirà un trattamento simil 3080.

Qua parliamo a livello tecnico non commerciale. A livello commerciale, bastano le sole perf.


Fondamentalmente faranno riferimento solo le prestazioni nei vari bench alla stampa, cosa c'è sotto al chip importerà poco e nulla.

Qua parliamo tecnico, e 2,2x sulla x70 è imbarazzante, visto che poi le paghiamo care. E' praticamente lo stesso di una 3090ti/3060 liscia.


La 4070 credo sia più giusto paragonarla all'eventuale 4080ti considerando che oramai le x90 sono praticamente delle new-titan e pensate più per i pro sfruttando anche l'nvlink che per i giocatori.

No, non è questione di Titan, è questione che a livello tecnico, va paragonata al top chip della famiglia. Se mi fanno una 4080ti AD103 con 24gb/s pam4, che riferimento è? Siamo a 7 GPC vs 12.
Il fattore commerciale è un conto, il fattore tecnico è un altro.;)

mikael84
09-08-2022, 00:09
La 4070 non andrà mai a 499, rispetto la 3070 il chip costa molto di più e in generale la scheda ha un costo di produzione differente. L'azienda ha visto quanto sono disposti a spendere i giocatori e sopratutto quanti.


Bisogna vedere il discorso bus come si cala sulle performance, ma è qualcosa che nvidia ha sicuramente già calcolato.
Anche se, tra la 3060ti e la 3060 cambia solo il bus, ma c'è tantissima differenza in game anche rimanendo al solo fhd

Beh oddio, non è che cambi solo il bus. La 3060ti ha 4864 vs 3584 cc totali, ovvero il 36% totale dei cuda e del texture fill rate.
Non solo, oltre ai cuda, cambia che ha quasi il doppio della potenza geometrica 3 vs 5 primitive e quasi un 2x sulle rop's, 48 vs 80.
Un abisso.:)

Ubro92
09-08-2022, 06:47
Qua parliamo a livello tecnico non commerciale. A livello commerciale, bastano le sole perf.



Qua parliamo tecnico, e 2,2x sulla x70 è imbarazzante, visto che poi le paghiamo care. E' praticamente lo stesso di una 3090ti/3060 liscia.



No, non è questione di Titan, è questione che a livello tecnico, va paragonata al top chip della famiglia. Se mi fanno una 4080ti AD103 con 24gb/s pam4, che riferimento è? Siamo a 7 GPC vs 12.
Il fattore commerciale è un conto, il fattore tecnico è un altro.;)

Ma la 4080ti non la faranno mai da AD103, non avrebbe senso, avresti si e no un +10/15% di prestazioni reali, è più probabile che taglieranno AD102 in stile 3080, quindi bus a 320bit e circa 15k cc.

Ma potresti anche non vederlo proprio un full AD103 desktop e potrebbero usarli solo per il mobile.

A livello tecnico sicuramente potrebbe non piacerti la cosa, ma invece di fare chip AD103 e AD104 più grossi, pensa se facevano un AD102 più piccolo, almeno in questa gen ti hanno tirato fuori un 600mm2 per chi lo vorrà, nella generazione Pascal si sono limitati a un chip da 471mm2.

Il vero guaio sono stati gli 8nm di samsung, se le Ampere fossero state stampate sui 7nm anche lovelace strutturalmente sarebbe stato diverso.

Beh oddio, non è che cambi solo il bus. La 3060ti ha 4864 vs 3584 cc totali, ovvero il 36% totale dei cuda e del texture fill rate.
Non solo, oltre ai cuda, cambia che ha quasi il doppio della potenza geometrica 3 vs 5 primitive e quasi un 2x sulle rop's, 48 vs 80.
Un abisso.:)

Fondamentalmente lo stesso divario si creerà tra 4060 e 4060ti, una 4060ti con 6144c e 160bit rispetto a un full AD106 avrebbe un divario molto simile a quello tra 3060 e 3060ti.

Dono89
09-08-2022, 09:02
Beh oddio, non è che cambi solo il bus. La 3060ti ha 4864 vs 3584 cc totali, ovvero il 36% totale dei cuda e del texture fill rate.
Non solo, oltre ai cuda, cambia che ha quasi il doppio della potenza geometrica 3 vs 5 primitive e quasi un 2x sulle rop's, 48 vs 80.
Un abisso.:)


Hai ragione, ma anche la 4070 rispetto le schede superiori (per ora non c'è una ti, o si, o no) non ha solo il bus

Va capito quanto solo questo incide nelle perf

Ubro92
09-08-2022, 09:23
Hai ragione, ma anche la 4070 rispetto le schede superiori (per ora non c'è una ti, o si, o no) non ha solo il bus

Va capito quanto solo questo incide nelle perf

Ma in realtà con le nuove specifiche la 4070 si posiziona bene, ha 12gb di vram e dalla 4080 dovrebbe staccare un 25%.

Con le precedenti specifiche di 4070 e 4080 ci passava quasi un 40% di stacco, decisamente troppo marcato.

Telstar
09-08-2022, 10:06
Ma in realtà con le nuove specifiche la 4070 si posiziona bene, ha 12gb di vram e dalla 4080 dovrebbe staccare un 25%.

Con le precedenti specifiche di 4070 e 4080 ci passava quasi un 40% di stacco, decisamente troppo marcato.

vero, ma probabilmente non esce prima della fine dell'anno.

mikael84
09-08-2022, 11:38
Ma la 4080ti non la faranno mai da AD103, non avrebbe senso, avresti si e no un +10/15% di prestazioni reali, è più probabile che taglieranno AD102 in stile 3080, quindi bus a 320bit e circa 15k cc.

Ma potresti anche non vederlo proprio un full AD103 desktop e potrebbero usarli solo per il mobile.

Questo non è detto, dipende anche dalla concorrenza. Con 4 TPC e le nuove micron tutto è possibile.
Se fossero attendibili quegli score ci passa il 25% tra 4080 e 4090, per via del TDP troppo basso (almeno per la sku) di quest'ultima.


A livello tecnico sicuramente potrebbe non piacerti la cosa, ma invece di fare chip AD103 e AD104 più grossi, pensa se facevano un AD102 più piccolo, almeno in questa gen ti hanno tirato fuori un 600mm2 per chi lo vorrà, nella generazione Pascal si sono limitati a un chip da 471mm2.

Così avrebbe avuto un senso.
Riguardo Pascal, non potevano fare un chip da 628mm2, per via della difficoltà a stampare chip troppo grossi, infatti hanno creato un PP mod 12nm, tanto che il massimo utilizzato per la tesla è di appena 600mm2.

Inoltre avendo già scritto turing, non potevi creare un chip di pari specifica senza RT, e non avendo le g6, dovevi pure utilizzare il 512bit.
Pascal è morto a 471mm2.
La fortuna di pascal è stata la concorrenza ancora indietro, su un PP peggio, ed il casino successo con i 20nm che doveva adottare maxwell.


Il vero guaio sono stati gli 8nm di samsung, se le Ampere fossero state stampate sui 7nm anche lovelace strutturalmente sarebbe stato diverso.

Anche questo è abbastanza da vedere, i chip li aveva scritti molto probabilmente mettendo in conto questo aspetto.
Alla fine la 3070 l'ha tagliata come la 2080ti e mediamente come AMD. Lui ha già i codici della 6000 pronti, però il nodo è sempre un' incognita, vedi il casino sui 20nm.
Ora le cose cambiano con la concorrenza, e devi anche adeguarti.

A livello commerciale, non sta sbagliando, a livello tecnico, è in atto un vero declassamento;)



Fondamentalmente lo stesso divario si creerà tra 4060 e 4060ti, una 4060ti con 6144c e 160bit rispetto a un full AD106 avrebbe un divario molto simile a quello tra 3060 e 3060ti.

Se la 4060ti sarà cuttata a 6144cc mediamente saremmo li. Sempre che anche AD106 non abbia TPC disabilitati, rendendo ancora più grande lo scempio.



Hai ragione, ma anche la 4070 rispetto le schede superiori (per ora non c'è una ti, o si, o no) non ha solo il bus

Va capito quanto solo questo incide nelle perf

Chiaro, tra x70 è x80 la differenza c'è, ed è evidente in tutto, è una sku superiore.:)

Vul
09-08-2022, 11:50
L'azienda ha visto quanto sono disposti a spendere i giocatori e sopratutto quanti.


Nvidia viene da un trimestre in cui ha guadagnato 6 anziche 8 miliardi, motivo per cui stanno svendendo gpu a destra e manca.

Pensavano che i miners avrebbero comprato in eterno.

I gamers non sono affatto disposti a pagare cosi tanto per l'hardware, quella e' una visione distorta che hai stando su un forum...di smanettoni hardware.

Le gpu piu diffuse sul mercato sono:

NVIDIA GeForce GTX 1060
NVIDIA GeForce GTX 1650
NVIDIA GeForce GTX 1050 Ti
NVIDIA GeForce RTX 2060
NVIDIA GeForce RTX 3060 Laptop
NVIDIA GeForce GTX 1050
NVIDIA GeForce GTX 1660 Ti
NVIDIA GeForce RTX 3060
NVIDIA GeForce GTX 1660 SUPER
NVIDIA GeForce GTX 1070

La somma di gpu dalla 3070 in su di prestazioni e prezzo e' all'incirca una gpu venduta su 30. Parliamo del 4% del mercato, ad essere generosi.
Quindi no, non confondere gente che in questo forum pensa sia sensato spendere 600/800/1000 euro o piu per passare da 40 a 60 fps perche' se non maxano tutto muoiono, con il mercato delle gpu. Perche' a conti fatti, il numero di 3070, 3080, 3090 o superiori sul mercato e' pressapoco quello delle...1050 da sole.

Poi non ci piove che guadagnano molto ma molto di piu per gpu venduta sulla fascia alta, chiaro che dietro a trimestri fiscali dove fanno il 30/40% di profitto sul fatturato e' perche' la gpu che paghi 1000 euro a loro gli costa 250 e che sia un mercato molto piu redditizio della fascia bassa, ma parliamo sempre di aziende che puntano piu a spremere la nicchia di entusiasti, perche' profittevole, che competere in fascia media e medio bassa.

Sonpazzo
09-08-2022, 12:31
Nvidia viene da un trimestre in cui ha guadagnato 6 anziche 8 miliardi, motivo per cui stanno svendendo gpu a destra e manca.

Pensavano che i miners avrebbero comprato in eterno.

I gamers non sono affatto disposti a pagare cosi tanto per l'hardware, quella e' una visione distorta che hai stando su un forum...di smanettoni hardware.

Le gpu piu diffuse sul mercato sono:

NVIDIA GeForce GTX 1060
NVIDIA GeForce GTX 1650
NVIDIA GeForce GTX 1050 Ti
NVIDIA GeForce RTX 2060
NVIDIA GeForce RTX 3060 Laptop
NVIDIA GeForce GTX 1050
NVIDIA GeForce GTX 1660 Ti
NVIDIA GeForce RTX 3060
NVIDIA GeForce GTX 1660 SUPER
NVIDIA GeForce GTX 1070

La somma di gpu dalla 3070 in su di prestazioni e prezzo e' all'incirca una gpu venduta su 30. Parliamo del 4% del mercato, ad essere generosi.
Quindi no, non confondere gente che in questo forum pensa sia sensato spendere 600/800/1000 euro o piu per passare da 40 a 60 fps perche' se non maxano tutto muoiono, con il mercato delle gpu. Perche' a conti fatti, il numero di 3070, 3080, 3090 o superiori sul mercato e' pressapoco quello delle...1050 da sole.

Poi non ci piove che guadagnano molto ma molto di piu per gpu venduta sulla fascia alta, chiaro che dietro a trimestri fiscali dove fanno il 30/40% di profitto sul fatturato e' perche' la gpu che paghi 1000 euro a loro gli costa 250 e che sia un mercato molto piu redditizio della fascia bassa, ma parliamo sempre di aziende che puntano piu a spremere la nicchia di entusiasti, perche' profittevole, che competere in fascia media e medio bassa.

Beh è normale che siano le più vendute,costano niente in confrronto ad una 3080. basta una 3090 per comprare 10 1650.

ste-87
09-08-2022, 12:55
Nvidia viene da un trimestre in cui ha guadagnato 6 anziche 8 miliardi, motivo per cui stanno svendendo gpu a destra e manca.

Pensavano che i miners avrebbero comprato in eterno.

I gamers non sono affatto disposti a pagare cosi tanto per l'hardware, quella e' una visione distorta che hai stando su un forum...di smanettoni hardware.



svendono è veramente un parolone azzardato...si trovano 3080 a 740€ usate sul wharehouse come prezzi migliori, quando a situazione normale dopo 2 anni sarebbero dovute costare si e no 600-700€ da nuove

devil_mcry
09-08-2022, 12:59
svendono è veramente un parolone azzardato...si trovano 3080 a 740€ usate sul wharehouse come prezzi migliori, quando a situazione normale dopo 2 anni sarebbero dovute costare si e no 600-700€ da nuove

si ma consideriamo anche il periodo storico
quello capitava quando tutto andava bene

fraussantin
09-08-2022, 13:23
svendono è veramente un parolone azzardato...si trovano 3080 a 740€ usate sul wharehouse come prezzi migliori, quando a situazione normale dopo 2 anni sarebbero dovute costare si e no 600-700€ da nuoveConsidera anche che c'è una inflazione sul dollaro e di tutti i prezzi in generale.

Averle ora a prezzo di listino comprese di iva è gia un segnale di qualcosa.

amon.akira
09-08-2022, 13:57
GeForce RTX 4080/4070 with lower power requirement (https://videocardz.com/newz/nvidia-geforce-rtx-4080-and-4070-get-new-lower-power-specs-mysterious-20gb-model-also-mentioned)

kopite ridà le carte :asd:

Sonpazzo
09-08-2022, 14:19
Lol, 600w per una vga adesso. Mai sentito. 300 400 è già uno sproposito

TigerTank
09-08-2022, 14:25
GeForce RTX 4080/4070 with lower power requirement (https://videocardz.com/newz/nvidia-geforce-rtx-4080-and-4070-get-new-lower-power-specs-mysterious-20gb-model-also-mentioned)

kopite ridà le carte :asd:

Cosa che si aggiungerebbe alle voci che già parlavano di un TDP da 450W per la 4090...cioè come la 3090Ti.
Certo che se le segassero di TDP, castrandole per questioni energetiche e termiche...risicando di conseguenza sui margini prestazionali potenziali ma facendosele pagare anche più delle Ampère, sarebbe un pò comico... :D
Imho potrebbe anche essere che schede troppo energivore in queste fasi energetiche difficili possano influire negativamente a livello vendite o magari chissà che il panorama dei nuovi alimentatori sia troppo indietro rispetto alle tempistiche delle vga. Bisogna attendere gli sviluppi degli eventi e relative delucidazioni nel caso questi cali siano veri.

fraussantin
09-08-2022, 14:31
Cosa che si aggiungerebbe alle voci che già parlavano di un TDP da 450W per la 4090...
Certo che se le segassero di TDP, castrandole per questioni energetiche e termiche...risicando di conseguenza sui margini prestazionali potenziali ma facendosele pagare anche più delle Ampère, sarebbe un pò comico... :DCmq 300w per la 4080 sono good for me.

Quanto va va .. , ma se riescono ad ottimizzarla su quei consumi sarebbe cmq un miglioramento rispetto alla 3080 con un bell'incremento di prestazioni e memoria.

TigerTank
09-08-2022, 14:38
Cmq 300w per la 4080 sono good for me.

Quanto va va .. , ma se riescono ad ottimizzarla su quei consumi sarebbe cmq un miglioramento rispetto alla 3080 con un bell'incremento di prestazioni e memoria.

Sì, in tal caso non resterà che vedere gli incrementi su pari fascia di consumi, sperando però che non sparino i prezzi "di quel che doveva essere", vendendoci "quello che invece è". Non so se mi spiego :D

Ubro92
09-08-2022, 14:38
Ci sta già la 2080 ti usata a 600 euro non credo che la faranno pagare meno.

Non capisco perchè dovresti comprarti una 2080ti usata a 600€ quando a meno di 600€ trovi le 3070 nuove di pacca...
Da BPMpower partono da 580€...

Stessa cosa per 3080 che la si trova a meno di 800€.

mikael84
09-08-2022, 15:09
GeForce RTX 4080/4070 with lower power requirement (https://videocardz.com/newz/nvidia-geforce-rtx-4080-and-4070-get-new-lower-power-specs-mysterious-20gb-model-also-mentioned)

kopite ridà le carte :asd:

Ma era scontato, sempre detto di prenderli con le pinze.
Se tale chip girerà pure su un portatile da 175watt max...
A livello di PP, considerando che samsung clocka come i 12nm (spesso pure peggio in clock massimo) c'è tantissimo margine per rimanere sullo stesso TDP.
Per sforare di 100 watt ce ne vuole...
https://www.gizchina.com/wp-content/uploads/images/2020/04/TSMC.jpg

Gello
09-08-2022, 15:28
Chi l'avrebbe mai detto, a parte tutti quelli dotati di sale in zucca :stordita:

amon.akira
09-08-2022, 15:47
Ma era scontato, sempre detto di prenderli con le pinze.

nello stesso rumor citano pure una sku da 14800cuda 20gb come possibile x80ti

Dono89
09-08-2022, 16:00
Ok, non seguo più

Si è passati da 400w a 300w per la 80 con un taglio della 4070 da 256bit a 160 e ora 192...
Praticamente il 90% delle news sono clickbait

devil_mcry
09-08-2022, 16:00
Ok, non seguo più

Si è passati da 400w a 300w per la 80 con un taglio della 4070 da 256bit a 160 e ora 192...
Praticamente il 90% delle news sono clickbait

:D ma dai :D

mikael84
09-08-2022, 16:11
Chi l'avrebbe mai detto, a parte tutti quelli dotati di sale in zucca :stordita:

:sofico:


Non penso che la nvidia le metterà a meno di 600 euro quando c e gente che la compra a 600 la 2080 ti. Percui dicevo io. Troppo ottimista.

Anche le Titan kepler o le 780ti le compravano felici e contenti tra i 6/1000 euro, ma la 970 non le hanno messe a 6/1000 euro, perchè tanto le compravano lo stesso.:D

Senza il mining, non può fare quello che vuole.
Probabilmente ci saranno aumenti, soprattutto da noi, ma non bisogna essere neppure così catastrofici.

nello stesso rumor citano pure una sku da 14800cuda 20gb come possibile x80ti




Si potrebbe pure starci. 2 GPC spenti e 2 TPC, lasciando invariate la geometria del GPC e le rop's del nono GPC.
Non escludo nulla.
Da considerare anche la linea pro ex quadro, dove con GA102 era molto attivo.

mikael84
09-08-2022, 16:20
Ok, non seguo più

Si è passati da 400w a 300w per la 80 con un taglio della 4070 da 256bit a 160 e ora 192...
Praticamente il 90% delle news sono clickbait

In gran parte si. Infatti, bisogna sempre prendere con le pinze.
Ad oggi, sono sicuri i chip per via dell'hack. Abbiamo le scale dei PP, e possiamo aspettarci certe prestazioni.

Poi che siano 9800cc/10000cc cambia poco. AD103 ad esempio supporta sino a 10752cc, ma per rese ci sarà sempre una decurtazione.

In ogni caso, il processo di test, dura 3 mesi, e solo in mezzo a questo processo che cominciano ad arrivare info più veritiere, infatti gli stanno ancora testando.

Dire che la 4070 avrà un bus da 160 bit, senza fase di test è solo un azzardo o un sentito dire.

amon.akira
09-08-2022, 16:44
Anche le Titan kepler o le 780ti le compravano felici e contenti tra i 6/1000 euro, ma la 970 non le hanno messe a 6/1000 euro, perchè tanto le compravano lo stesso.:D

esatto, altrimenti non si andrebbe mai avanti :)

Dono89
09-08-2022, 16:49
In gran parte si. Infatti, bisogna sempre prendere con le pinze.
Ad oggi, sono sicuri i chip per via dell'hack. Abbiamo le scale dei PP, e possiamo aspettarci certe prestazioni.

Poi che siano 9800cc/10000cc cambia poco. AD103 ad esempio supporta sino a 10752cc, ma per rese ci sarà sempre una decurtazione.

In ogni caso, il processo di test, dura 3 mesi, e solo in mezzo a questo processo che cominciano ad arrivare info più veritiere, infatti gli stanno ancora testando.

Dire che la 4070 avrà un bus da 160 bit, senza fase di test è solo un azzardo o un sentito dire.


Son d'accordo mikael, però capisci che argomentare una scheda che ha 16gb di vram e 256bit di bus a 350w (o quello che era) a una scheda che ha 160bit e 10gb da 270w (o quello che è ora) ce ne passa. Senza fare i calcoli, ma non parliamo di un taglio dei cc da 10000 a 9500, ma parliamo di avere due schede completamente diverse

devAngnew
09-08-2022, 17:26
Considera anche che c'è una inflazione sul dollaro e di tutti i prezzi in generale.

Averle ora a prezzo di listino comprese di iva è gia un segnale di qualcosa.

A ma non le facevano o taiwan e dintorni :sofico:

mikael84
09-08-2022, 17:39
esatto, altrimenti non si andrebbe mai avanti :)

Infatti.:)

Son d'accordo mikael, però capisci che argomentare una scheda che ha 16gb di vram e 256bit di bus a 350w (o quello che era) a una scheda che ha 160bit e 10gb da 270w (o quello che è ora) ce ne passa. Senza fare i calcoli, ma non parliamo di un taglio dei cc da 10000 a 9500, ma parliamo di avere due schede completamente diverse

Ma infatti, almeno io, se vedi, mi sono sempre opposto ai leak sui consumi, come gli 800watt.
Io quello che faccio, è sempre un rapporto tra PP CC e tutto il contorno. Infatti i leak confermano quello, in quanto la 4090 è ormai semiufficiosa.

Se poi una scheda viene sparata oltre le soglie del PP in rapporto ai watt della serie precedente (come hanno fatto con i nuovi ryzen ad esempio), non puoi saperlo, non essendo il progettista.

Consumi, prezzi, rese, solo i progettisti lo sanno per sicuro, questi hanno fughe di notizie come in ogni campo, ma non tutto è ufficiale, a meno che il leaker non sia JHH, visto che ha già i codici delle 5 e 6000.:) .

AMD ha parlato personalmente, ed ha detto 50% perf watt, nvidia no.

mikael84
09-08-2022, 17:42
Lo spero per voi ma non sono del tutto convinto :) si sa quando metteranno i prezzi?

I prezzi verranno svelati dal CEO, alla presentazione. Se il lancio sarà metà ottobre per la 4090 (inizia con quella), probabilmente due settimane prima farà una conferenza, dove spiegherà tutto in maniera ufficiale e darà i prezzi.:)

egounix
09-08-2022, 21:20
non so voi, ma questo anno per me ne vedremo ancora di brutte con i prezzi...

fraussantin
09-08-2022, 21:24
non so voi, ma questo anno per me ne vedremo ancora di brutte con i prezzi...Sono relativamente ottimista.
Perche gli stanno ristagnando.
Costeranno di più , ma non penso quanto avesse in mente Jackye Chan

Sonpazzo
09-08-2022, 21:31
I prezzi verranno svelati dal CEO, alla presentazione. Se il lancio sarà metà ottobre per la 4090 (inizia con quella), probabilmente due settimane prima farà una conferenza, dove spiegherà tutto in maniera ufficiale e darà i prezzi.:)

presentazione dal forno di una pizzeria???:sofico:

sono curioso che si inventerà quel matto questa volta:D

TigerTank
09-08-2022, 21:42
Sono relativamente ottimista.
Perche gli stanno ristagnando.
Costeranno di più , ma non penso quanto avesse in mente Jackye Chan

Queste ristagnano perchè ormai sono "vecchie"(anche se in verità le 3080 12GB di evga scontate sono andate esaurite) ma vedrai che con le nuove torneranno a pompare i prezzi perchè ovviamente si ripartirà da 0 a livello di domanda degli inscimmiati, enthusiast in primis :D

presentazione dal forno di una pizzeria???:sofico:

sono curioso che si inventerà quel matto questa volta:D
Vista la moda del momento, io direi presentazione dallo spazio! :D

Kostanz77
09-08-2022, 21:51
Queste ristagnano perchè ormai sono "vecchie"(anche se in verità le 3080 12GB di evga scontate sono andate esarite) ma vedrai che con le nuove torneranno a pompare i prezzi perchè ovviamente si ripartirà da 0 a livello di domanda degli inscimmiati, enthusiast in primis :D


Vista la moda del momento, io direi presentazione dallo spazio! :D


Dimentichi una cosa, il periodo dei miners disposti a tutto per accaparrarsi GPU anche a prezzi folli è finito.
Gli inscimmiati su scala globale si contano sulle dita di una mano e non fanno statistica.

P.S. Vedo che sei tornato bello attivo dopo il tuo periodo sabbatico 😀

Inviato dal mio iPhone utilizzando Tapatalk Pro

fraussantin
09-08-2022, 22:00
Queste ristagnano perchè ormai sono "vecchie"(anche se in verità le 3080 12GB di evga scontate sono andate esaurite) ma vedrai che con le nuove torneranno a pompare i prezzi perchè ovviamente si ripartirà da 0 a livello di domanda degli inscimmiati, enthusiast in primis :D


Vista la moda del momento, io direi presentazione dallo spazio! :DGl iinscimmiati ci sono sempre stati , e si al lancio ci sarà speculazione , e sicuramente avremo prezzi msrp maggiori , ma robe tipo x60 a 1000 euro come tempi andati non penso.

A meno che non riparta il mining

amon.akira
09-08-2022, 22:03
ma queste le bloccheranno x il mining dall inizio? o faranno 2x anche li e si ricomincia? :D

Kostanz77
09-08-2022, 22:08
ma queste le bloccheranno x il mining dall inizio? o faranno 2x anche li e si ricomincia? :D


Le cripto stanno andando maluccio, non credo si ripeterà quello che è successo due anni fa


Inviato dal mio iPhone utilizzando Tapatalk Pro

amon.akira
09-08-2022, 22:15
Le cripto stanno andando maluccio, non credo si ripeterà quello che è successo due anni fa


Inviato dal mio iPhone utilizzando Tapatalk Pro

ethereum dai 1000 di luglio ora sta a 1600, se le nuove schede facessero un 2x a pari watt senza blocchi potrebbero renderla profittevole e iniziare una nuova escalation

ne so poco, spero di sbagliarmi :P

fraussantin
09-08-2022, 22:15
ma queste le bloccheranno x il mining dall inizio? o faranno 2x anche li e si ricomincia? :DPiù che altro le bloccheranno seriamente o faranno finta come con le ampere?

fraussantin
09-08-2022, 22:16
ethereum dai 1000 di luglio ora sta a 1600, se le nuove schede facessero un 2x a pari watt senza blocchi potrebbero renderla profittevole e iniziare una nuova escalation



ne so poco, spero di sbagliarmi :PÈ l'energia che costa tipo 60 cent adesso a fare la differenza

amon.akira
09-08-2022, 22:18
È l'energia che costa tipo 60 cent adesso a fare la differenza

produrre il doppio con la maggiore potenza di calcolo potrebbe ribilanciare il costo aumentato dell energia, perciò spero che applichino blocchi fin dall inizio

Kostanz77
09-08-2022, 22:22
produrre il doppio con la maggiore potenza di calcolo potrebbe ribilanciare il costo aumentato dell energia, perciò spero che applichino blocchi fin dall inizio


Comunque il vero problema è il costo dell energia


Inviato dal mio iPhone utilizzando Tapatalk Pro

fraussantin
09-08-2022, 22:32
produrre il doppio con la maggiore potenza di calcolo potrebbe ribilanciare il costo aumentato dell energia, perciò spero che applichino blocchi fin dall inizioLo speriamo tutti , ma anche col blocco scorso minavano belli e allegri con 2 o 3 crypto alla volta.

Serve tipo un bios che gli cancelli i dischi con i bitcoin salvati per fermarli :asd:

amon.akira
09-08-2022, 22:35
Serve tipo un bios che gli cancelli i dischi con i bitcoin salvati per fermarli :asd:

magari :p