View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
marbasso
04-09-2024, 19:31
Quindi ci stai dicendo che per avere il salto dalla 4090 deve per forza consumare oltre 500w?
No, più di 550w...
Per ora sono 600.
Ale55andr0
04-09-2024, 20:25
https://multiplayer.it/notizie/nvidia-citata-a-giudizio-dal-dipartimento-di-giustizia-usa-per-le-ia-a-picco-le-azioni.html?comment_page=1#comment_c11366001
sono addoloratissimo, povero giacco :cry:
mikael84
04-09-2024, 21:06
Quindi ci stai dicendo che per avere il salto dalla 4090 deve per forza consumare oltre 500w?
No, il discorso era su base lovelace, dove un chip del genere avrebbe necessariamente creato un ulteriore altra fascia, essendo oltre 2x la 4080s.
Con Black. ancora non conosco il progetto ne le modfiche interne (se ci saranno), quindi è tutto uno speculare, però, ci può stare che GB202 sia più esoso considerando i cuda ed il bus da alimentare.
Ipotizzando un +40/50% sulla 4090, a 450watt sarebbe un +40/50% perf/watt da 4n a 4nmP.
I 4nmp li sta usando AMD con zen5, ed hanno portato pochi benefici.
Per fare un esempio col passato.
La 3090 ha lo stesso identico perf/watt della 2080ti, e se prendiamo il classico TPU, vediamo che la 3090 fa +33% consumando il 33% in più.
La 2080ti fa +12% perf/watt rispetto la 1080ti ma consumando +18%.
Di conseguenza puoi trarre alcune considerazioni, di come un +40-50% a pari watt non è certo semplice, salvo miracoli microarchitetturale o salti nodi destanti.
Ale55andr0
05-09-2024, 07:38
https://wccftech.com/nvidia-geforce-rtx-5090-550w-5080-350w-september-launch-rumor/
ghiltanas
05-09-2024, 08:01
è comunque tanto, stanno alzando troppo l'asticella, 550w sono tanti in senso assoluto.
Riguardando la scheda riepilogativa, gb205 nè esce veramente male come specifiche, c'è un cut mostruoso con i chip sopra
https://wccftech.com/nvidia-geforce-rtx-5090-550w-5080-350w-september-launch-rumor/
E magari rifanno le 70 con 12gb di ram...
Ale55andr0
05-09-2024, 12:50
E magari rifanno le 70 con 12gb di ram...
mi pare di si ma non sono sicuro. A quanto si legge in giro sono delle 4000 migliorate più per il pp e il clock che non per stravolgimenti nell'impostazione, poi vabè, sono tutti rumor: a me parrebbe strano, visto che si sono sentiti "costretti" a fare la 70Ti S con 16gb e 256bit, se la next gen 70 non partisse da li'. Poi si sa giacco is giacco.
mikael84
05-09-2024, 12:56
Salvo un cut di GB203, GB205 è 192bit. Quindi in fascia media vedremmo i 12gb (salvo non le lancino molto tardi con la tripla densità, ma ne dubito).
L'unica sicura di avere 18gb x192bit sarà la 6070.
mi pare di si ma non sono sicuro. A quanto si legge in giro sono delle 4000 migliorate più per il pp e il clock che non per stravolgimenti nell'impostazione, poi vabè, sono tutti rumor: a me parrebbe strano, visto che si sono sentiti "costretti" a fare la 70Ti S con 16gb e 256bit, se la next gen 70 non partisse da li'. Poi si sa giacco is giacco.
Salvo un cut di GB203, GB205 è 192bit. Quindi in fascia media vedremmo i 12gb (salvo non le lancino molto tardi con la tripla densità, ma ne dubito).
L'unica sicura di avere 18gb x192bit sarà la 6070.
:muro: :muro:
E magari upperanno un altro centone... no perchè al peggio non c'è mai fine.
Le attuali 70 sono sfruttate per il 2k quindi 12gb vanno bene mentre per le prossime 70 avendo più potenza potrebbero realmente limitare in 4k +rt
ninja750
05-09-2024, 13:12
a me parrebbe strano, visto che si sono sentiti "costretti" a fare la 70Ti S con 16gb e 256bit, se la next gen 70 non partisse da li'. Poi si sa giacco is giacco.
Salvo un cut di GB203, GB205 è 192bit. Quindi in fascia media vedremmo i 12gb
d'altra parte sono quelli che avevano già sdoganato i 12 nella fascia alta con la 4080-12 :O
amon.akira
05-09-2024, 13:33
mi pare di si ma non sono sicuro. A quanto si legge in giro sono delle 4000 migliorate più per il pp e il clock che non per stravolgimenti nell'impostazione, poi vabè, sono tutti rumor: a me parrebbe strano, visto che si sono sentiti "costretti" a fare la 70Ti S con 16gb e 256bit, se la next gen 70 non partisse da li'. Poi si sa giacco is giacco.
con la 7900 20giga stai a posto fino alle 7000nvidia secondo me
ghiltanas
05-09-2024, 13:56
Salvo un cut di GB203, GB205 è 192bit. Quindi in fascia media vedremmo i 12gb (salvo non le lancino molto tardi con la tripla densità, ma ne dubito).
L'unica sicura di avere 18gb x192bit sarà la 6070.
si dai rumor anch'io ero rimasto ai 12gb sulla 5070 visto il bus.
Il problema è che una 5070, visto anche il prezzo, non è fascia media per me :asd:
una scheda di questa fascia dovrebbe avere i 16gb
Cutter90
05-09-2024, 14:03
Le attuali 70 sono sfruttate per il 2k quindi 12gb vanno bene mentre per le prossime 70 avendo più potenza potrebbero realmente limitare in 4k +rt
Le 5070 saranno sempre da 1440p, fascia media 600 euri. Semplicemente perchè i giochi saranno sempre più pesanti.
Questo è uno dei concetti chiave che secondo me molti non comprendono. Le fasce sono sempre quelle, dalla serie 1000 almeno.
60- 1080p
70-1440p
80- 4k
90- 4k Max fps
Ecco perchè la 3070 all'inizio veniva bistrattata per il 4k, pensando andasse a sostituire in toto la 2080 ti,. perchè di fatto andava quasi uguale. Ma la 2080 ti con l'avvento delle 3000 è diventata una scheda da 1440p. Così come la 3070, ormai è una scheda da 1080p
Intendo in giochi graficamente e tecnicamente al passo
mikael84
05-09-2024, 14:17
si dai rumor anch'io ero rimasto ai 12gb sulla 5070 visto il bus.
Il problema è che una 5070, visto anche il prezzo, non è fascia media per me :asd:
una scheda di questa fascia dovrebbe avere i 16gb
Il prezzo è da enthusiast degli anni che furono (pascal), ma per pignoleria, la fascia è bassa. 6400cc (magari cuttati) sono 48SM che in rapporto al chippone corrisponde ad 1/4, che è sempre stata la fascia x50, invece da ADA era la 4060ti mediamente.
Diciamo che a livello commerciale è una mid, mid high, a livello tecnico è fascia bassa/medio-bassa della serie.
1/4 di ADA erano 4608 (circa la 4060ti).
1/4 di ampere erano circa 2560cc (3050)
1/4 di turing 1152cc (1650 super circa)
1/4 di pascal 960, con la 1050ti a 768.
Tecnicamente la situazione è abbastanza grave.
Le attuali 70 sono sfruttate per il 2k quindi 12gb vanno bene
No, come ho già detto decine di volte 12 giga non sempre bastano per 1440p specie se 21:9. E le prossime sarà una vergogna totale.
Semplicemente perchè i giochi saranno sempre più pesanti.
Correggo la tua tabella con le prestazioni reali (senza DLSS o con DLSS e RT):
50- lasciale ai portatili peggiori
60- 1080p medium
70- 1080p max, 1440p medium
80- 1440p max, 21:9 almost max
90- 4k
Ma perché tagliare i chip così??? Il chip 70 non possono farlo con 10k cuda, il chip 80 15k è 90 20k?
Sicuro mi perdo un pezzo, ma non capisco perché passare da 20k a 10k e poi 6k
Le 5070 saranno sempre da 1440p, fascia media 600 euri. Semplicemente perchè i giochi saranno sempre più pesanti.
Questo è uno dei concetti chiave che secondo me molti non comprendono. Le fasce sono sempre quelle, dalla serie 1000 almeno.
60- 1080p
70-1440p
80- 4k
90- 4k Max fps
Ecco perchè la 3070 all'inizio veniva bistrattata per il 4k, pensando andasse a sostituire in toto la 2080 ti,. perchè di fatto andava quasi uguale. Ma la 2080 ti con l'avvento delle 3000 è diventata una scheda da 1440p. Così come la 3070, ormai è una scheda da 1080p
Intendo in giochi graficamente e tecnicamente al passo
Ma insomma non è che la gtx770 ai suoi tempi facesse chissà quanti FPS in 1440p.
https://i.postimg.cc/r0z8Q0p9/Screenshot-2024-09-05-19-00-29-72-40deb401b9ffe8e1df2f1cc5ba480b12-2.jpg (https://postimg.cc/r0z8Q0p9)
E la gtx780 in 4k manco a parlarne.
Diciamo che uno spostamento verso l alto con la risoluzione c'è stato vedi ora come va una 4070super in 2k. La 5070 se come prestazioni si avvicina all' attuale 4080 non sarà mica poi tanto male in 4k
Cutter90
05-09-2024, 18:30
Correggo la tua tabella con le prestazioni reali (senza DLSS o con DLSS e RT):
50- lasciale ai portatili peggiori
60- 1080p medium
70- 1080p max, 1440p medium
80- 1440p max, 21:9 almost max
90- 4k
Ma no, considera le super e le ti nelle varie fasce. E considere il 4k 60 fps maxato sui giochi più pesanti come base. Quindi è settata molto in alto e nel 90 % dei giochi anche la fascia sotto va bene.
Perché alla fine giochi in raster come Horizon si giocano in 4k anche con una 4070 ti ad esempio.
Ma insomma non è che la gtx770 ai suoi tempi facesse chissà quanti FPS in 1440p.
https://i.postimg.cc/r0z8Q0p9/Screenshot-2024-09-05-19-00-29-72-40deb401b9ffe8e1df2f1cc5ba480b12-2.jpg (https://postimg.cc/r0z8Q0p9)
E la gtx780 in 4k manco a parlarne.
Diciamo che uno spostamento verso l alto con la risoluzione c'è stato vedi ora come va una 4070super in 2k. La 5070 se come prestazioni si avvicina all' attuale 4080 non sarà mica poi tanto male in 4k
Infatti ho detto dalla 1000 in linea generale
La 4080è praticamente la scheda che ho ora. Pensare che è per il 4k anche no
Ma perché tagliare i chip così??? Il chip 70 non possono farlo con 10k cuda, il chip 80 15k è 90 20k?
Sicuro mi perdo un pezzo, ma non capisco perché passare da 20k a 10k e poi 6k
Concorrenza come sempre. Ti basti vedere lo scempio dei chip del mercato notebook dove praticamente non ne ha.
Ale55andr0
05-09-2024, 19:31
con la 7900 20giga stai a posto fino alle 7000nvidia secondo me
A me non interessa affatto cambiare gpu, anzi sono mesi che manco uso la mia :asd:
Aspetto solo stalker 2 quest'anno poi altri mesi di stop video ludico sino all'uscita di non so nemmeno io cosa :asd:.
Cmq a sto giro le nuove CPU e le nuove gpu non farebbero nemmeno venir voglia anche avendo l'idea malsana, sino a che non si avrà un serio salto di nodo conviene restar fermi i o puntare i prodotti della scorsa generazione in cerca dell'affare per chi deve aggirnare
Cutter90
05-09-2024, 20:33
La 4080è praticamente la scheda che ho ora. Pensare che è per il 4k anche no
Per il 4k a 60 fps perché no scusa?
A parte che la 4080 va di più
mikael84
05-09-2024, 20:46
Ma perché tagliare i chip così??? Il chip 70 non possono farlo con 10k cuda, il chip 80 15k è 90 20k?
Sicuro mi perdo un pezzo, ma non capisco perché passare da 20k a 10k e poi 6k
Perchè ormai seguono una logica totalmente diversa.
Una uber pro da 64gb (col clamshell) adattata e distrutta per il gaming, ed una serie distaccata x80.
Anche i requisiti ormai sono fuori controllo, una x80 da 350-400watt, era equivalente ad uno SLI di 980.
Ma insomma non è che la gtx770 ai suoi tempi facesse chissà quanti FPS in 1440p.
https://i.postimg.cc/r0z8Q0p9/Screenshot-2024-09-05-19-00-29-72-40deb401b9ffe8e1df2f1cc5ba480b12-2.jpg (https://postimg.cc/r0z8Q0p9)
E la gtx780 in 4k manco a parlarne.
Diciamo che uno spostamento verso l alto con la risoluzione c'è stato vedi ora come va una 4070super in 2k. La 5070 se come prestazioni si avvicina all' attuale 4080 non sarà mica poi tanto male in 4k
Il 1440p in quei tempi, malgrado il solo raster, era decisamente impegnativo. Alcuni titoli per stare sopra i 60 necessitavano dello SLI di 780 (ac unity ad esempio).
Inoltre, rispetto alle CPU, si tende sempre a salire con i requisiti, se ci fossimo fermati a quei wattaggi, applicando solo nodo ed IPC, oggi quella 770 sarebbe la 4060ti.
mcsilenzio
05-09-2024, 23:24
Ribadisco come in qualche post fa: ma sono l’unico con una 3080ti a giocare in 4k con dlss quasi sempre a 60fps senza lamentarsi? Certo ho una scheda di passata generazione e devo accontentarmi del FG amd se volessi andare oltre i 60 ma per quello che ho speso (560€ usata 1 anno fa) mi ritengo soddisfatto. Se il prossimo anno ci sarà una 70 con 12gb che va come l’attuale 80 con 16Gb probabilmente prendero una 80 usata. Ormai la differenza la fanno le tecnologie. Magari mi sbaglio e quei 12Gb saranno più che sufficienti con i nuovi metodi di compressione delle texture, che scommetto saranno esclusivi per la nuova generazione.
La 4080è praticamente la scheda che ho ora. Pensare che è per il 4k anche no
Infatti.
amon.akira
06-09-2024, 01:12
Ribadisco come in qualche post fa: ma sono l’unico con una 3080ti a giocare in 4k con dlss quasi sempre a 60fps senza lamentarsi? Certo ho una scheda di passata generazione e devo accontentarmi del FG amd se volessi andare oltre i 60 ma per quello che ho speso (560€ usata 1 anno fa) mi ritengo soddisfatto. Se il prossimo anno ci sarà una 70 con 12gb che va come l’attuale 80 con 16Gb probabilmente prendero una 80 usata. Ormai la differenza la fanno le tecnologie. Magari mi sbaglio e quei 12Gb saranno più che sufficienti con i nuovi metodi di compressione delle texture, che scommetto saranno esclusivi per la nuova generazione.
calcola che con dlss ultra performance da 4k passi a 720p con performance a 1080p, inoltre dipende anche dai settings se maxi o se rinunci a qualcosa...quindi dire gioco a 4k con la 3080ti è abbastanza relativo.
Dracula1975
06-09-2024, 06:47
io sono sempre piu' convinto di tenermi la mia 4090 fino alla generazione 6000 (presa a gennaio 2023 quindi alla uscita delle 5000 avrà 2 anni secchi)
dovro' attingere a piene mani a dlss e fram gen..ma pazienza....mi adattero' :D
perche' se la 5090 avrà quelle specs costerà davvero una fucilata...(potremmo quasi sfiorare i 2999 euro..opinione personale)
Cutter90
06-09-2024, 07:49
Ribadisco come in qualche post fa: ma sono l’unico con una 3080ti a giocare in 4k con dlss quasi sempre a 60fps senza lamentarsi? Certo ho una scheda di passata generazione e devo accontentarmi del FG amd se volessi andare oltre i 60 ma per quello che ho speso (560€ usata 1 anno fa) mi ritengo soddisfatto. Se il prossimo anno ci sarà una 70 con 12gb che va come l’attuale 80 con 16Gb probabilmente prendero una 80 usata. Ormai la differenza la fanno le tecnologie. Magari mi sbaglio e quei 12Gb saranno più che sufficienti con i nuovi metodi di compressione delle texture, che scommetto saranno esclusivi per la nuova generazione.
Ma infatti dipende davvero tantissimo da quello che uno gioca. Ora più che mai c'è una differenza importante tra i giochi con Path tracing e quelli puro raster.
La 4080è praticamente la scheda che ho ora. Pensare che è per il 4k anche no
Io gioco a 4k con molto meno.
Dipende tutto da te e quanto vuoi maxare, chiaro che se uno vuole maxare tutto e il path tracing e questo e quell'altro e nei giochi futuri, non bastera' nemmeno la 5090 per il 1080p.
mcsilenzio
06-09-2024, 13:08
calcola che con dlss ultra performance da 4k passi a 720p con performance a 1080p, inoltre dipende anche dai settings se maxi o se rinunci a qualcosa...quindi dire gioco a 4k con la 3080ti è abbastanza relativo.
Non ho mai usato la modalità performance, nell’80% dei casi in quality sono tra i 50 e 60fps. Piuttosto che usare la modalità performance abbasso i dettagli, preferisco qualche dettaglio in meno all’immagine impastata. Sul benchmark di wukong è l’unico caso dove ho dovuto per forza abbassare ad ultra per poter attivare il FG con risultati soddisfacenti. Non ho provato alan wake perché non mi interessava il gioco ma in generale penso che il dlss sia un compromesso accettabile. https://i.postimg.cc/x8pW6cw4/IMG-1333.jpg
ninja750
06-09-2024, 14:20
Cmq a sto giro le nuove CPU e le nuove gpu non farebbero nemmeno venir voglia anche avendo l'idea malsana, sino a che non si avrà un serio salto di nodo conviene restar fermi i o puntare i prodotti della scorsa generazione in cerca dell'affare per chi deve aggirnare
perchè sei :old: e ragioni ancora in ottica da gamerZ
una volta se avevi 1000€ in tasca ci compravi la nvidia top e nel tempo libero ci facevi mining così raccattavi 100€ dopo qualche anno, corrente permettendo
adesso se hai 1000€ ti ci conviene comprare le azioni nvidia che da 1000€ passi a 1800€ in un anno e tre quarti :asd:
penso a quei [bip] che hanno creato mining farm in mezzo al deserto spendendo milioni e milioni per guadagnare pochi cent a scheda quando senza muovere un muscolo e sprecare risorse del pianeta avrebbero potuto raddoppiare nel breve l'investimento
amon.akira
06-09-2024, 14:37
Non ho mai usato la modalità performance
qui sei in performance 2160p*0.5=1080p
A64FX+DFI nF4
06-09-2024, 17:56
perchè sei :old: e ragioni ancora in ottica da gamerZ
una volta se avevi 1000€ in tasca ci compravi la nvidia top e nel tempo libero ci facevi mining così raccattavi 100€ dopo qualche anno, corrente permettendo
adesso se hai 1000€ ti ci conviene comprare le azioni nvidia che da 1000€ passi a 1800€ in un anno e tre quarti :asd:
penso a quei [bip] che hanno creato mining farm in mezzo al deserto spendendo milioni e milioni per guadagnare pochi cent a scheda quando senza muovere un muscolo e sprecare risorse del pianeta avrebbero potuto raddoppiare nel breve l'investimento
in verità le azioni stanno colando a picco piano piano, sto apettando di vedere se ci sarà risalita proprio per investire
Io gioco a 4k con molto meno.
Dipende tutto da te e quanto vuoi maxare, chiaro che se uno vuole maxare tutto e il path tracing e questo e quell'altro e nei giochi futuri, non bastera' nemmeno la 5090 per il 1080p.Puoi giocarci anche in 8K ma se devi fare tante rinunce (che non significa passare da ultra ad alto, quello è sensato) vuol dire che non è campo per lei
Per il 4k a 60 fps perché no scusa?
A parte che la 4080 va di più
Alla 70 ti super basta tirare le ram e la prendi. La vera differenza di performance è data da quello. Motivo per cui i cuda della 4080s non danno alcun vantaggio, poi se rimani indietro di un 2% sei cmq lì
Tolto questo, i 60 dipende dal titolo, e giocare a 60 con una scheda pagata 1000€ secondo me è riduttivo. La 4080 è perfetta per il 2K e ancora meglio per il WQHD
Cutter90
07-09-2024, 10:06
Puoi giocarci anche in 8K ma se devi fare tante rinunce (che non significa passare da ultra ad alto, quello è sensato) vuol dire che non è campo per lei
Alla 70 ti super basta tirare le ram e la prendi. La vera differenza di performance è data da quello. Motivo per cui i cuda della 4080s non danno alcun vantaggio, poi se rimani indietro di un 2% sei cmq lì
Tolto questo, i 60 dipende dal titolo, e giocare a 60 con una scheda pagata 1000€ secondo me è riduttivo. La 4080 è perfetta per il 2K e ancora meglio per il WQHD
Io credo che i 60 fps siano il target delle varie fasce secondo le Sh e chi fa le gpu:A lmeno, vedendo un po' i giochi e le gpu appunto.
Anche la 4080 in oc va più su in ogni caso.
La 4080 per il 2k è overkill nella stragande maggioranza dei giochi. Chiaro, ti da il margine. ma in 4k è perfettamente usabile, così come una 4070 ti super pure lo è.
marbasso
07-09-2024, 10:21
Solo a me la distanza tra le due pciex lascia da pensare?
https://cdn.wccftech.com/wp-content/uploads/2024/09/pd-meg_x870e_godlike-lg.webp
Stessa cosa su alcune z890
https://www.techpowerup.com/img/Mmu7n0dIS5cGUTJk.jpg
anche asrock
https://www.club386.com/wp-content/uploads/2024/06/asrock-z870-taichi.jpg
A me non interessa affatto cambiare gpu, anzi sono mesi che manco uso la mia :asd:
Aspetto solo stalker 2 quest'anno poi altri mesi di stop video ludico sino all'uscita di non so nemmeno io cosa :asd:.
Cmq a sto giro le nuove CPU e le nuove gpu non farebbero nemmeno venir voglia anche avendo l'idea malsana, sino a che non si avrà un serio salto di nodo conviene restar fermi i o puntare i prodotti della scorsa generazione in cerca dell'affare per chi deve aggirnare
Idem, dopo Alan Wake 2, sto aspettando come te Stalker 2, che tanto per cambiare su PC esce dopo, tra prezzi in generale dell'hw e relative mancanze di novità (abituato ai salti che c'erano fino a 10 anni fa) penso che starò fermo così fino all'anno nuovo.
Poi questi presunti tagli delle x70 proprio non li digerisco: fare un salto come fu da gtx 770 a gtx 970 è forse chiedere troppo ormai? (Senza tirare in ballo i prezzi)
aled1974
07-09-2024, 12:52
Solo a me la distanza tra le due pciex lascia da pensare?
no, lo dicevo pure io quando ci siamo "confrontati" sulla PTM, e in un'altra occasione precedente, che le schede video sono ormai sempre più spesse. E con dissipatori da 3-3,5-4 slot non capisco ci si meravigli siano pure fresche :sofico:
evidentemente le prossime future gpu non invertiranno la tendenza, da qui l'inutilità da parte dei produttori di mobo nel fare pettini pci-ex troppo ravvicinati, se tanto poi almeno uno/due vengono ostruiti dal dissi delle gpu :doh:
(anzi, a parte gli x16, ce ne sono altri? x8, x4, x2 ???)
meglio infilare slot m.2 nvme..... tanto dal 4.0 in su neanche scaldano, no? :D :muro:
ciao ciao
Edit
e questi pettini mi sembrano anche belli rinforzati, e su questo dico "finalmente" :mano:
marbasso
07-09-2024, 13:21
no, lo dicevo pure io quando ci siamo "confrontati" sulla PTM, e in un'altra occasione precedente, che le schede video sono ormai sempre più spesse. E con dissipatori da 3-3,5-4 slot non capisco ci si meravigli siano pure fresche :sofico:
evidentemente le prossime future gpu non invertiranno la tendenza, da qui l'inutilità da parte dei produttori di mobo nel fare pettini pci-ex troppo ravvicinati, se tanto poi almeno uno/due vengono ostruiti dal dissi delle gpu :doh:
(anzi, a parte gli x16, ce ne sono altri? x8, x4, x2 ???)
meglio infilare slot m.2 nvme..... tanto dal 4.0 in su neanche scaldano, no? :D :muro:
ciao ciao
Edit
e questi pettini mi sembrano anche belli rinforzati, e su questo dico "finalmente" :mano:
Speriamo aumentino lo spessore dei pcb delle vga, o si inventino qualcosa per far si che non si spezzino.
fraussantin
07-09-2024, 13:27
Speriamo aumentino lo spessore dei pcb delle vga, o si inventino qualcosa per far si che non si spezzino.Il sistema di gigabyte anche se macchinoso non è malvagio alla fine.
Kostanz77
07-09-2024, 14:41
Io credo che i 60 fps siano il target delle varie fasce secondo le Sh e chi fa le gpu:A lmeno, vedendo un po' i giochi e le gpu appunto.
Anche la 4080 in oc va più su in ogni caso.
La 4080 per il 2k è overkill nella stragande maggioranza dei giochi. Chiaro, ti da il margine. ma in 4k è perfettamente usabile, così come una 4070 ti super pure lo è.
Confermo, io uso la 4080 Super in 4K e va benissimo
Inviato dal mio iPhone utilizzando Tapatalk Pro
Se andare oltre 60fps significa essere overkill allora sono d'accordo, se invece si gioca ad alto frame (che non significa solo 240, anche 100/120 che cambiano comunque l'esperienza) allora decisamente no.
Poi uno può tenere anche la 4070ti per il 4k così come si usavano le 3090, ma sei davvero al minimo.
Ognuno gioca come vuole, ci mancherebbe, ma accontentarsi dei 60 con una scheda da 1000euro mi sembra un po' una limitazione, tutto qui
Cutter90
07-09-2024, 15:03
Se andare oltre 60fps significa essere overkill allora sono d'accordo, se invece si gioca ad alto frame (che non significa solo 240, anche 100/120 che cambiano comunque l'esperienza) allora decisamente no.
Poi uno può tenere anche la 4070ti per il 4k così come si usavano le 3090, ma sei davvero al minimo.
Ognuno gioca come vuole, ci mancherebbe, ma accontentarsi dei 60 con una scheda da 1000euro mi sembra un po' una limitazione, tutto qui
Alla fine 60 fps spendendo 1000 oppure 80/90 spendendo 1800. Questa è la situazione 4080 vs 4090. Quindi alla fine ci può stare, 60 fps per i single sono già sufficienti. E magari qualcuno non li spende 800 euro in più per andare più su.
Dopotutto si può anche guidare con i dettagli e il dlss per andare più su.
Dipende uno cosa vuole in base al suo budget
Confermo, io uso la 4080 Super in 4K e va benissimo
Inviato dal mio iPhone utilizzando Tapatalk Pro
Come lo confermano i vari test che si trovano in rete...
Kostanz77
07-09-2024, 15:42
Come lo confermano i vari test che si trovano in rete...
Appunto e poi dipende molto dai titoli che si giocano
P.S. Ho due PC con 4080S e 4090 collegate a due monitor 4K, posso dire tranquillamente che la 4080/4080S sono schede da 4K
Inviato dal mio iPhone utilizzando Tapatalk Pro
Solo a me la distanza tra le due pciex lascia da pensare?
Sì che siamo al punto che per mettere le mani su un ssd toccherà smontare mezzo pc :stordita:.
Come lo confermano i vari test che si trovano in rete...
Allora guardali meglio i test. Se prendi Alan wake ed altri titoloni a volte non arrivi a 60 e non si considera nemmeno il RT. Altrimenti addio. Poi c'è il dlss che viene in soccorso che per l'appunto non fa altro che abbassare la res e portarla dove la 4080 splende.
Ripeto, non ho mai detto che con la 4080 non giochi in 4k, ma che non è la sua risoluzione e ne è la prova che senza dlss devi per forza scendere a compromessi.
Considero titoli aaa, altrimenti anche una 4070 basta.
Per dovere di cronaca (da tpu) in 4k ripeto senza rt (e senza dlss)
Alan wake 55
Hellblade 45
Ghost of t (che non è paragonabile agli altri due) 67
Se per voi spendere 1000euro per una vga ed avere malapena 60fps è ok va benissimo. Io preferisco giocare con circa 30/40fps in più e l'unico modo è scendere di risoluzione. Tutto qui
Ot a parte, le g7 sono confermate anche sulle 5070? Si sa a quanto andranno le prime sfornate che metteranno sulle schede?
Cutter90
07-09-2024, 16:36
Allora guardali meglio i test. Se prendi Alan wake ed altri titoloni a volte non arrivi a 60 e non si considera nemmeno il RT. Altrimenti addio. Poi c'è il dlss che viene in soccorso che per l'appunto non fa altro che abbassare la res e portarla dove la 4080 splende.
Ripeto, non ho mai detto che con la 4080 non giochi in 4k, ma che non è la sua risoluzione e ne è la prova che senza dlss devi per forza scendere a compromessi.
Considero titoli aaa, altrimenti anche una 4070 basta.
Per dovere di cronaca (da tpu) in 4k ripeto senza rt (e senza dlss)
Alan wake 55
Hellblade 45
Ghost of t (che non è paragonabile agli altri due) 67
Se per voi spendere 1000euro per una vga ed avere malapena 60fps è ok va benissimo. Io preferisco giocare con circa 30/40fps in più e l'unico modo è scendere di risoluzione. Tutto qui
Il dlss Q non è un compromesso di fatto. Quindi giocare in nativa ha ormai poco senso.
Hai poi preso giochi pesantissimi
Il dlss Q non è un compromesso di fatto. Quindi giocare in nativa ha ormai poco senso.
Hai poi preso giochi pesantissimi
Ho preso i giochi che meritano il confronto, se prendiamo valorant una 4070 basta e avanza.
Mi aspetto che chi prende una 4080 non debba escludere dei titoli perché non riesce a giocarci e quelli sono il riferimento.
Certo che è un compromesso. Sposta l'asticella verso il basso per migliorare l'immagine post. Il dlss abbassa la res, qualità dell'immagine a parte stai giocando in 2k così.
Se la scheda andasse davvero bene per il 4k metteresti il dlaa. Cosa che non puoi fare, perché altrimenti non arrivi nemmeno a 60
Cutter90
07-09-2024, 16:48
Ho preso i giochi che meritano il confronto, se prendiamo valorant una 4070 basta e avanza.
Mi aspetto che chi prende una 4080 non debba escludere dei titoli perché non riesce a giocarci e quelli sono il riferimento.
Certo che è un compromesso. Sposta l'asticella verso il basso per migliorare l'immagine post. Il dlss abbassa la res, qualità dell'immagine a parte stai giocando in 2k così.
Se la scheda andasse davvero bene per il 4k metteresti il dlaa. Cosa che non puoi fare, perché altrimenti non arrivi nemmeno a 60
Dai lo sai. 2k sembra in tutto e per tutto 4k, quindi poco importa del numeretto.. Soprattutto nei giochi da te citati. Io preferisco SEMPRE guadagnare 20 fps con il dlssq rispetto a perderne 30 con il dlaa, soprattutto quando con quest ultimo scendo sotto i 60.
Dai lo sai. 2k sembra in tutto e per tutto 4k, quindi poco importa del numeretto.. Soprattutto nei giochi da te citati. Io preferisco SEMPRE guadagnare 20 fps con il dlssq rispetto a perderne 30 con il dlaa, soprattutto quando con quest ultimo scendo sotto i 60.
Questo è un altro discorso :)
Questo significa che la resa del 4k non merita il costo prestazionale (e si potrebbe disquisire).
Sul resto sono assolutamente d'accordo con te! Se però stai "elemosinando" (passami il termine) 20fps è perché sei alla canna del gas. Discorso che non fai in 2k.
"Eh ma allora a 1080p va anche meglio!"
Vero, ma li prendi frame "inutili", cosa diversa che passare da 60 a 90.
Se elemosini frame è solo perché non è il tuo territorio.
Poi ovvio che viene passata per scheda da 4k, non c'è di meglio al netto della 90, ma non significa che vada bene.
Ripeto, consigliavano anche la 3090 per il 4k...
mikael84
07-09-2024, 17:56
Parlare di res. è completamente relativo con gli upscaler.
Si parlava di res. prima di turing, dove eri vincolato ad essa, ed a pure il MSAA.
Ot a parte, le g7 sono confermate anche sulle 5070? Si sa a quanto andranno le prime sfornate che metteranno sulle schede?
Si dovrebbe partire da 28gb/s, anche con GB205, che potrebbe essere il chip della 5070. Di conseguenza un chip a 192bit, avrà banda e cache della 4070tis, anche se i clock aumenteranno la banda cache.
Parlare di res. è completamente relativo con gli upscaler.
Si parlava di res. prima di turing, dove eri vincolato ad essa, ed a pure il MSAA.
Si dovrebbe partire da 28gb/s, anche con GB205, che potrebbe essere il chip della 5070. Di conseguenza un chip a 192bit, avrà banda e cache della 4070tis, anche se i clock aumenteranno la banda cache.
Ma quindi anche la futura x70 sarà nuovamente a 192 bit e non i classici 256? O sono solo supposizioni? Perché questa prima 4070 non mi è piaciuta per nulla (discorso diverso per la Ti), speravo in un ritorno alla "retta via" con Blackwell dato che con la serie 4xxx son stati piuttosto conservativi con le performance sotto la x80.
mikael84
07-09-2024, 21:08
Ma quindi anche la futura x70 sarà nuovamente a 192 bit e non i classici 256? O sono solo supposizioni? Perché questa prima 4070 non mi è piaciuta per nulla (discorso diverso per la Ti), speravo in un ritorno alla "retta via" con Blackwell dato che con la serie 4xxx son stati piuttosto conservativi con le performance sotto la x80.
Al momento le nomenclature non si conoscono, ma i chip ormai sembrano palesi, e tra questi il GB205 avrà 192bit, possibilissima sku della 5070, in quanto GB203 dovrebbe essere la 5080, quindi un cut, al massimo sarebbe la 5070ti.
Ancora è tutto da vedere in ogni caso.
Per i 192bit, i GB sono 12, salvo utilizzo della tripla e di conseguenza 18gb, ma per questa gen. non ne sono sicuro. Da considerare anche i costi, 18gb g7 potrebbero far lievitare i costi.
Al momento le nomenclature non si conoscono, ma i chip ormai sembrano palesi, e tra questi il GB205 avrà 192bit, possibilissima sku della 5070, in quanto GB203 dovrebbe essere la 5080, quindi un cut, al massimo sarebbe la 5070ti.
Ancora è tutto da vedere in ogni caso.
Per i 192bit, i GB sono 12, salvo utilizzo della tripla e di conseguenza 18gb, ma per questa gen. non ne sono sicuro. Da considerare anche i costi, 18gb g7 potrebbero far lievitare i costi.
Certo che però l'ennesima x70 con 12 GB sarebbe davvero il minimo sindacale per il 1440p. A quel punto dipende tutto dal prezzo a cui sarà proposta. Purtroppo mi pare di capire che senza concorrenza si sta ripetendo quello che si è visto con Intel e le cpu fino al 2015. :doh:
mcsilenzio
08-09-2024, 08:39
Certo che però l'ennesima x70 con 12 GB sarebbe davvero il minimo sindacale per il 1440p. A quel punto dipende tutto dal prezzo a cui sarà proposta. Purtroppo mi pare di capire che senza concorrenza si sta ripetendo quello che si è visto con Intel e le cpu fino al 2015. :doh:
Per quanto mi riguarda la prossima 70 con 12 gb, avesse anche le performance della 4080, resta a scaffale. Outlaw da quello che ho visto fa fatica anche con 16gb, probabilmente sarà un bell upgrade se La 5070ti andasse quasi come la 4090 come d’altronde oggi la 4070ti va circa come una 3090. Poi secondo me vi state facendo tante pippe mentali, c’è chi si accontenta del 4k dlss quality per andare intorno ai 60fps e chi usa la 4080 per il 2k e giocare ben oltre i 60 in raster. Penso sia inutile stare lì a crucciarsi per chi ha la scheda più adatta alla propria risoluzione, le prestazioni delle schede sono oggettive, l’uso è soggettivo. Sapevamo tutti che a fine gen anche la 4090 avrebbe arrancato su qualche titolo 4k.
StylezZz`
08-09-2024, 09:22
Certo che però l'ennesima x70 con 12 GB sarebbe davvero il minimo sindacale per il 1440p. A quel punto dipende tutto dal prezzo a cui sarà proposta. Purtroppo mi pare di capire che senza concorrenza si sta ripetendo quello che si è visto con Intel e le cpu fino al 2015. :doh:
Mi sa che la '70 che conoscevamo non tornerà più, è stata la mia fascia di riferimento per tantissimi anni, ma vederla declassata a '60 e venduta a 500/600€ non mi va proprio giù. Purtroppo noi siamo la minoranza, figurati se la maggioranza si concentra sul bus o altri dettagli tecnici che non conoscono nemmeno...guardano solo gli fps.
La concorrenza nella fascia media non è un problema e se tutto andrà bene anche Intel potrà dire la sua con Battlemage. Ma Nvidia con le sue quote di mercato, forte del suo marchio e supportata dai sui clienti che la scelgono sempre e comunque, se ne frega e fa quello che vuole. Quindi non mi stupisco che riesca a vendere francobolli con 8GB a 400€ anche quando ci sono alternative migliori.
La concorrenza nella (nuova) fascia media è un problema.
L'avversaria della 5070 sarà una scheda che andrà poco di più in rt e affosserà alla prima tecnologia abilitata.
se la nuova fascia della 70 sono 700euro è un compromesso che non si accetta. Non parliamo di 200euro.
Personalmente non reputo i 12gb un problema essendo una scheda da 2k, il problema è più la potenza che con 7k cuda sei un po' limitato.
Ma è anche vero che in 2k non c'è titolo che non giri su una 4080/5070 quindi tutto sommato va anche bene. A me scoccia solo il prezzo.
Fosse come la 3070 che aveva un prezzo buono e poca ram andrebbe benissimo.
Chi vuole il 4k deve andare sulla 90 e già lo sa
ultimate trip
08-09-2024, 10:10
Al momento le nomenclature non si conoscono, ma i chip ormai sembrano palesi, e tra questi il GB205 avrà 192bit, possibilissima sku della 5070, in quanto GB203 dovrebbe essere la 5080, quindi un cut, al massimo sarebbe la 5070ti.
e in base ai chip il rumor di qualche gg fa che dà la 5080 il 10% sopra la 4090 ti sembra realistico?
Mi sa che la '70 che conoscevamo non tornerà più, è stata la mia fascia di riferimento per tantissimi anni, ma vederla declassata a '60 e venduta a 500/600€ non mi va proprio giù. Purtroppo noi siamo la minoranza, figurati se la maggioranza si concentra sul bus o altri dettagli tecnici che non conoscono nemmeno...guardano solo gli fps.
La concorrenza nella fascia media non è un problema e se tutto andrà bene anche Intel potrà dire la sua con Battlemage. Ma Nvidia con le sue quote di mercato, forte del suo marchio e supportata dai sui clienti che la scelgono sempre e comunque, se ne frega e fa quello che vuole. Quindi non mi stupisco che riesca a vendere francobolli con 8GB a 400€ anche quando ci sono alternative migliori.
Andrà a finire che il marketing delle 70 sarà incentrato sui bench dlss only come per le 4060.
mikael84
08-09-2024, 11:06
e in base ai chip il rumor di qualche gg fa che dà la 5080 il 10% sopra la 4090 ti sembra realistico?
Quale rumour?
amon.akira
08-09-2024, 12:01
By kopite 5080 400w e 1.1x sulla 4090
mikael84
08-09-2024, 12:12
By kopite 5080 400w e 1.1x sulla 4090
Quella ipotesi, dovrebbe riguardare la 5080D, ovvero una GPU fatta ad arte per il mercato cinese e le relative sanzioni. Quindi potrebbe essere un GB202 totalmente distrutto.
https://videocardz.com/newz/nvidia-expected-to-finalize-geforce-rtx-5090-and-rtx-5080-design-this-month-5080d-for-china-also-expected
e in base ai chip il rumor di qualche gg fa che dà la 5080 il 10% sopra la 4090 ti sembra realistico?
non so quale sia il rumor, ma lo trovo parecchio irrealistico
Sapevamo tutti che a fine gen anche la 4090 avrebbe arrancato su qualche titolo 4k.
mi sembra una considerazione esagerata, vista la potenza monstre della 4090...se si ha la sensazione che la 4090 arranchi allora tutto quello che uscirà prossimamente sotto la 5090 in 4k "arrancherà" ugualmente in 4k, visto che sarà già tanto se la futura 5080 ci si avvicinerà molto (esempio -5% dalla 4090 in media)
Per dovere di cronaca (da tpu) in 4k ripeto senza rt (e senza dlss)
Alan wake 55
Hellblade 45
Ghost of t (che non è paragonabile agli altri due) 67
E quelli sono fps medi, bisogna invece guardare l'1% dei minimi. E' quello che deve stare sempre sopra a 60fps. Poi, abbiamo monitor da quattordicimila hertz e giochiamo a 50fps?
Il dlss Q non è un compromesso di fatto. Quindi giocare in nativa ha ormai poco senso
Esatto, è l'unico modo per usare la 4080/s in 4k, e abbassare i dettagli.
amon.akira
08-09-2024, 12:38
"An important detail not mentioned earlier but confirmed to VideoCardz by Kopite7kimi is that the RTX 5080 is projected to show a 1.1x increase in performance over the RTX 4090." (https://videocardz.com/newz/nvidia-geforce-rtx-5090-reportedly-targets-600w-rtx-5080-aims-for-400w-with-10-performance-increase-over-rtx-4090)
mikael84
08-09-2024, 13:05
"An important detail not mentioned earlier but confirmed to VideoCardz by Kopite7kimi is that the RTX 5080 is projected to show a 1.1x increase in performance over the RTX 4090." (https://videocardz.com/newz/nvidia-geforce-rtx-5090-reportedly-targets-600w-rtx-5080-aims-for-400w-with-10-performance-increase-over-rtx-4090)
Bisogna vedere di che chip si parla precisamente. Se GB203 viene valutato +10 (in base a cosa...), GB202 quanto fa, +60% a 550watt (circa +22%)? Di cui il TDP neppure si conosce di preciso, in quanto stanno facendo confusione tra TDP e potenza del dissipatore.:)
GB203 per fare +10 sulla 4090, dovrebbe avere picchi del 35-45% su AD103 a 350watt.
Di conseguenza anche GB205 dovrebbe avvicinarsi e agganciare o addirittura superare la 4080.:O
Cmq, il base clock se confermato per essere un 4nP (sicuramente moddato ad arte) è davvero pazzesco, significherebbe boostare a 3,5.
amon.akira
08-09-2024, 13:19
magari sarà veramente un 202 cut e sparirebbero tutti i problemi, chissà...certo anche senza sapere nulla la cosa strana sarebbe una x80 pari o inferiore alla precedente x90
ultimate trip
08-09-2024, 14:13
...certo anche senza sapere nulla la cosa strana sarebbe una x80 pari o inferiore alla precedente x90
Vero anche perchè alla fine, per quanto contestata, la 4070/super prende la 3090 e la 5070 deve avvicinarsi alla 4090 (magari con un frame gen più evoluto).
Allo stesso modo la 5080 sarebbe un mezzo fail se non migliora sulla 4090.
Le prestazione devono esserci senò non c'è motivo di fare l'upgrade, poi nulla vieta che mantengano le due serie vive per un certo periodo di tempo.
E in tutto questo c'è ancora l'incognita prezzi. Molto curioso cmq
mikael84
08-09-2024, 15:18
magari sarà veramente un 202 cut e sparirebbero tutti i problemi,
Bisognerebbe in primis avere qualche conferma anche sul clock, perchè viene ipotizzato 2,9 base, che si tradurrebbe in 3,3-3,5.
Una GPU cuttata ai livelli di AD102 con quei clock e 28 gb/s prenderebbe il volo.
Ben diverso se 2,9 è il base boost, allora starebbe nella nm.
16k su 24 sono 4 GPC in meno, una bella devastazione.
chissà...certo anche senza sapere nulla la cosa strana sarebbe una x80 pari o inferiore alla precedente x90
Vero anche perchè alla fine, per quanto contestata, la 4070/super prende la 3090 e la 5070 deve avvicinarsi alla 4090 (magari con un frame gen più evoluto).
Allo stesso modo la 5080 sarebbe un mezzo fail se non migliora sulla 4090.
Le prestazione devono esserci senò non c'è motivo di fare l'upgrade, poi nulla vieta che mantengano le due serie vive per un certo periodo di tempo.
E in tutto questo c'è ancora l'incognita prezzi. Molto curioso cmq
Con la 4090 si è alzata l'asticella, immettendo un ulteriore fascia, che dovrebbe essere recuperata con appena 220-250watt.
Guardatevi il perf/watt delle vecchie...
La 4070 super ha recuperato la 3090, passando dal 10nm 3° gen di samsung (8lpp) al 4n mod TSMC.
Certo una x80 che non batte la 90 sarebbe un paradosso, come lo è il salto tra GB202 e GB203, l'equivalente di una 4090 vs 4070 super.
mcsilenzio
08-09-2024, 15:34
Vero anche perchè alla fine, per quanto contestata, la 4070/super prende la 3090 e la 5070 deve avvicinarsi alla 4090 (magari con un frame gen più evoluto).
Allo stesso modo la 5080 sarebbe un mezzo fail se non migliora sulla 4090.
Le prestazione devono esserci senò non c'è motivo di fare l'upgrade, poi nulla vieta che mantengano le due serie vive per un certo periodo di tempo.
E in tutto questo c'è ancora l'incognita prezzi. Molto curioso cmq
La 70 super prende la 3090, non la 4070 liscia.
Cutter90
08-09-2024, 16:16
La 70 super prende la 3090, non la 4070 liscia.
In realtà la 3090 va come la 4070 ti nei giochi, circa
Per quanto mi riguarda la prossima 70 con 12 gb, avesse anche le performance della 4080, resta a scaffale. Outlaw da quello che ho visto fa fatica anche con 16gb, probabilmente sarà un bell upgrade se La 5070ti andasse quasi come la 4090 come d’altronde oggi la 4070ti va circa come una 3090. Poi secondo me vi state facendo tante pippe mentali, c’è chi si accontenta del 4k dlss quality per andare intorno ai 60fps e chi usa la 4080 per il 2k e giocare ben oltre i 60 in raster. Penso sia inutile stare lì a crucciarsi per chi ha la scheda più adatta alla propria risoluzione, le prestazioni delle schede sono oggettive, l’uso è soggettivo. Sapevamo tutti che a fine gen anche la 4090 avrebbe arrancato su qualche titolo 4k.
Quello è più che chiaro: ognuno ha esigenze diverse e c'è chi si accontenta e chi vuole il top ad ogni costo.
Per la memoria io già un paio di anni fa avevo notato che gli 8 GB della 3070Ti causavano stuttering sui giochi meno ottimizzati a 1440p nativa senza upscaler. 12 GB forse con DLSS potrebbero ancora resistere, però nel 2025 ai prezzi che posso immaginare (salvo sbagliarmi) non è per nulla allettante.
Mi sa che la '70 che conoscevamo non tornerà più, è stata la mia fascia di riferimento per tantissimi anni, ma vederla declassata a '60 e venduta a 500/600€ non mi va proprio giù. Purtroppo noi siamo la minoranza, figurati se la maggioranza si concentra sul bus o altri dettagli tecnici che non conoscono nemmeno...guardano solo gli fps.
La concorrenza nella fascia media non è un problema e se tutto andrà bene anche Intel potrà dire la sua con Battlemage. Ma Nvidia con le sue quote di mercato, forte del suo marchio e supportata dai sui clienti che la scelgono sempre e comunque, se ne frega e fa quello che vuole. Quindi non mi stupisco che riesca a vendere francobolli con 8GB a 400€ anche quando ci sono alternative migliori.
Battleimage vediamo quando esce, dopo quasi 2 anni di driver le ARC son maturate parecchio, però sulle tempistiche di uscita ancora non si sa nulla, lato AMD sembrerebbe la stessa cosa, pare quasi che vogliano vedere cosa presenta nVidia per poi tarare ad hoc prezzi delle loro.
Per me l'ultima vera x70 è stata la 970: avrà anche avuto 3.5 GB di vram, ma era una vga dall'ottimo rapporto price/performance, nel 2015 presi la 980 solo causa scimmia per poi pentirmi amaramente all'uscita della 980Ti.
Già con la RTX 2070 ebbi la sensazione che fosse un chip troppo cuttato rispetto al prezzo che la pagai D1, la 3070 era di nuovo degna di nota non fosse stato per gli 8 GB di vram. Ma la 4070 liscia e questa presunta 5070 liscia, mamma mia... :rolleyes:
E quelli sono fps medi, bisogna invece guardare l'1% dei minimi. E' quello che deve stare sempre sopra a 60fps. Poi, abbiamo monitor da quattordicimila hertz e giochiamo a 50fps?
Esatto, è l'unico modo per usare la 4080/s in 4k, e abbassare i dettagli.
Se guardi l'1% (condivido in toto il tuo discorso) anche la 4090 arranca. Lo dico da anni che ancora è presto per giocare in 4K, anche con una 4090 figuriamoci con una scheda che è pesantemente cuttata.
Se per usare la 4080 senza pensieri in 4K occorre abbassare pesantemente i dettagli/filtri o peggio si può avere un'esperienza buona solo grazie al dlss q (leggasi: giocare in 4K finto, ma 2K reale) allora non è semplicemente campo per lei.
La 4080 e 4090 rendono meglio (ma non bene) in 4K che 2K, ma ciò non significa che siano pronte per quel terreno.
Forse la 5090 renderà il 4K il nuovo 2K grazie ai 20K cuda un bel bus, una cache maggiorata ed altro e renderà il 4K utilizzabile, un po' come avvenne per il fullhd con il 2K, ma ancora è presto e se uno ha la 4080 e ci gioca in 4K , sta di fatto giocando a 60 fps scarsi, pure con qualche stutter dato dai 50 di 1%. Se il gioco è fatto bene, se ha 1% basso arriva anche a 40
Kostanz77
08-09-2024, 16:41
Forse la 5090 renderà il 4K il nuovo 2K grazie ai 20K cuda un bel bus, una cache maggiorata ed altro e renderà il 4K utilizzabile, un po' come avvenne per il fullhd con il 2K, ma ancora è presto e se uno ha la 4080 e ci gioca in 4K , sta di fatto giocando a 60 fps scarsi, pure con qualche stutter dato dai 50 di 1%. Se il gioco è fatto bene, se ha 1% basso arriva anche a 40
Dipende dai giochi(al netto delle tech demo AW e simili) e poi dimentichi il frame generation che spesso funziona molto bene
Inviato dal mio iPhone utilizzando Tapatalk Pro
Cutter90
08-09-2024, 17:26
Se guardi l'1% (condivido in toto il tuo discorso) anche la 4090 arranca. Lo dico da anni che ancora è presto per giocare in 4K, anche con una 4090 figuriamoci con una scheda che è pesantemente cuttata.
Se per usare la 4080 senza pensieri in 4K occorre abbassare pesantemente i dettagli/filtri o peggio si può avere un'esperienza buona solo grazie al dlss q (leggasi: giocare in 4K finto, ma 2K reale) allora non è semplicemente campo per lei.
La 4080 e 4090 rendono meglio (ma non bene) in 4K che 2K, ma ciò non significa che siano pronte per quel terreno.
Forse la 5090 renderà il 4K il nuovo 2K grazie ai 20K cuda un bel bus, una cache maggiorata ed altro e renderà il 4K utilizzabile, un po' come avvenne per il fullhd con il 2K, ma ancora è presto e se uno ha la 4080 e ci gioca in 4K , sta di fatto giocando a 60 fps scarsi, pure con qualche stutter dato dai 50 di 1%. Se il gioco è fatto bene, se ha 1% basso arriva anche a 40
Ancora, stai peri prendendo quei 4 giochi che richiedono qualche sacrificio. Che poi sacrificio non è perché il dlss è il frame gen sono sacrificio minuscoli.
Hai poi detto che si è costretti ad abbassare pesantemente i dettagli o "ancora peggio usare io dlss q".
Usare il dlss Q è nettamente meglio che abbassare i dettagli. Ma di gran lunga eh.
Oltre al fatto che non è vero che sono da abbassare pesantemente i dettagli.
La 4080 rende da dio in 4k con tutto.
La 4080 si usa benissimo in 4k nel 98% dei giochi.
Pure la 4070 ti super va benone in 4k.
Se per te una scheda per essere Ida 4k deve far girare i giochi, TUTTI, in 4k a 80 fps in nativo tutto al max (rt e pt compresi) allora nessuna scheda sarà mai da 4k.
Ma è una visione distorta e poco furba, per me.
Ps: grazie al gsync/vrr se gli fps scendono sotto i 60 non si ha alcuno stutter.....
Ancora, stai peri prendendo quei 4 giochi che richiedono qualche sacrificio. Che poi sacrificio non è perché il dlss è il frame gen sono sacrificio minuscoli.
Hai poi detto che si è costretti ad abbassare pesantemente i dettagli o "ancora peggio usare io dlss q".
Usare il dlss Q è nettamente meglio che abbassare i dettagli. Ma di gran lunga eh.
Oltre al fatto che non è vero che sono da abbassare pesantemente i dettagli.
La 4080 rende da dio in 4k con tutto.
La 4080 si usa benissimo in 4k nel 98% dei giochi.
Pure la 4070 ti super va benone in 4k.
Se per te una scheda per essere Ida 4k deve far girare i giochi, TUTTI, in 4k a 80 fps in nativo tutto al max (rt e pt compresi) allora nessuna scheda sarà mai da 4k.
Ma è una visione distorta e poco furba, per me.
Ps: grazie al gsync/vrr se gli fps scendono sotto i 60 non si ha alcuno stutter.....
Non vuoi capire e non capisco perchè
Te hai una 4090, passione e bench a parte, l'hai comprata perchè spinto da titoli esigenti o l'hai comprata per i titoli che girerebbero anche su una 4060? L'hai presa, verosimilmente, per titoli che meritano l'acquisto.
La scheda non deve fare 200fps, ma nemmeno 60 di medi, perchè al primo cedimento sei a 40/50 e se per te giocare a 50 frame è una buona esperienza allora ok, ma non si giocava così nemmeno anni fa. Le schede non sono da 4K oggi, come non lo erano per il 2K qualche anno fa. Usi il DLSS per compensare? Bene, stai di fatto dicendo in altre parole che usi la scheda in 2K che è esattamente il concetto che cerco di far arrivare.
Il tema era se una 4080 va bene o meno per il 4K e la risposta è no. RT a parte che rende ingiocabile il tutto se non con DLSS che per l'appunto abbassa la res.
Non dico che debba fare PT, RT e tutto al massimo, ma sembra non sia chiaro che la 4080 non riesce nemmeno con il puro e semplice raster, figuriamoci il resto...
Se dovesse esserci un titolo serio senza DLSS la 4080 in 4K regala un'esperienza pessima. In 2K no e questo ha solo una chiave di lettura.
Non so più come scriverlo :rolleyes:
Chiudo il discorso che siamo giustamente ot
mikael84
08-09-2024, 21:53
Non vuoi capire e non capisco perchè
Te hai una 4090, passione e bench a parte, l'hai comprata perchè spinto da titoli esigenti o l'hai comprata per i titoli che girerebbero anche su una 4060? L'hai presa, verosimilmente, per titoli che meritano l'acquisto.
La scheda non deve fare 200fps, ma nemmeno 60 di medi, perchè al primo cedimento sei a 40/50 e se per te giocare a 50 frame è una buona esperienza allora ok, ma non si giocava così nemmeno anni fa. Le schede non sono da 4K oggi, come non lo erano per il 2K qualche anno fa. Usi il DLSS per compensare? Bene, stai di fatto dicendo in altre parole che usi la scheda in 2K che è esattamente il concetto che cerco di far arrivare.
Il tema era se una 4080 va bene o meno per il 4K e la risposta è no. RT a parte che rende ingiocabile il tutto se non con DLSS che per l'appunto abbassa la res.
Non dico che debba fare PT, RT e tutto al massimo, ma sembra non sia chiaro che la 4080 non riesce nemmeno con il puro e semplice raster, figuriamoci il resto...
Se dovesse esserci un titolo serio senza DLSS la 4080 in 4K regala un'esperienza pessima. In 2K no e questo ha solo una chiave di lettura.
Non so più come scriverlo :rolleyes:
Chiudo il discorso che siamo giustamente ot
Chiudo l'OT, ma non l'hai chiuso anzi, ho dovuto ripulire 2 pagine di thread.
Oltre all'OT si stava arrivando al Flame per le solite divergenze.
mikael84
08-09-2024, 21:55
Per ora mi limito a ripulire, ma sappiate che al prossimo giro, le sansioni saranno pesanti, quindi invito a darvi tutti una regolata.
Ora torniamo a parlare delle nuove uscite.
ultimate trip
09-09-2024, 08:39
...
Certo una x80 che non batte la 90 sarebbe un paradosso, come lo è il salto tra GB202 e GB203, l'equivalente di una 4090 vs 4070 super.
mamma mia... una discreta voragine
vedendo la complessità della 5090 cmq ho come l'impressione che cercheranno di slegarla da una logica puramente gaming lasciando alla 80 il ruolo di riferimento per questo campo.
Chissà cosa si inventa Jensen a sto giro
ninja750
09-09-2024, 08:45
mamma mia... una discreta voragine
vedendo la complessità della 5090 cmq ho come l'impressione che cercheranno di slegarla da una logica puramente gaming lasciando alla 80 il ruolo di riferimento per questo campo.
Chissà cosa si inventa Jensen a sto giro
AI ovunque, AI nei driver, AI nel silicio, AI sulle scatole delle VGA
i miei 2 cent :O
magic carpet
09-09-2024, 11:41
AI ovunque, AI nei driver, AI nel silicio, AI sulle scatole delle VGA
i miei 2 cent :O
Sicuramente AI legata al DLSS e qualche funzione gaming disponibile solo sulle 5000 (magari qualcosa legato al PT).
Ora si tratta di capire se saranno game-changing come il FG.
EDIT: questo cmq sarà un problema enorme
https://www.tomshw.it/hardware/amd-non-fara-schede-video-top-di-gamma-il-segmento-mainstream-ha-la-priorita-2024-09-09
AI ovunque, AI nei driver, AI nel silicio, AI sulle scatole delle VGA
i miei 2 cent :O
Sicuramente AI legata al DLSS e qualche funzione gaming disponibile solo sulle 5000 (magari qualcosa legato al PT).
Ora si tratta di capire se saranno game-changing come il FG.
EDIT: questo cmq sarà un problema enorme
https://www.tomshw.it/hardware/amd-non-fara-schede-video-top-di-gamma-il-segmento-mainstream-ha-la-priorita-2024-09-09
Ormai anche AMD sta investendo più sulla AI che sullo sviluppo di vga, ricordo JHH che in una intervista intorno al 2017 o giù di lì, comunque all'uscita della serie 1XXX, parlava già della ricerca che stavano svolgendo per creare un frame partendo da pochissime informazioni per ricostruire le immagini. La realtà è che per le aziende è più remunerativo investire e vendere prodotti destinati all'allenamento di AI piuttosto che vga per giocare, la nostra sfortuna è che i prezzi si ripercuotono anche nel gaming.
mcsilenzio
09-09-2024, 12:51
Alla luce del ritiro ufficiale di amd dalla fascia alta, non sarebbe una buona idea prendere una scheda top di gamma ora Nvidia? L’anno prossimo mi aspetto prezzi mirabolanti per le 5000.
Ale55andr0
09-09-2024, 13:07
Alla luce del ritiro ufficiale di amd dalla fascia alta, non sarebbe una buona idea prendere una scheda top di gamma ora Nvidia? L’anno prossimo mi aspetto prezzi mirabolanti per le 5000.
No, perchè le nuove le faranno calare di prezzo ulteriormente (teoricamente). E poi da come si legge in giro escono quest'anno non il prossimo le 5000
amon.akira
09-09-2024, 13:12
No, perchè le nuove le faranno calare di prezzo ulteriormente (teoricamente). E poi da come si legge in giro escono quest'anno non il prossimo le 5000
se escono quest anno si devono sbrigare...di solito annunciavano conferenza ad agosto per settembre e dalla conferenza l uscita dopo un 20-30giorni...e iniziavano a circolare i vari leak timespy etc...magari se iniziano ora con l annuncio della conferenza per novembre ce la fanno
Kostanz77
09-09-2024, 13:18
se escono quest anno si devono sbrigare...di solito annunciavano conferenza ad agosto per settembre e dalla conferenza l uscita dopo un 20-30giorni...e iniziavano a circolare i vari leak timespy etc...magari se iniziano ora con l annuncio della conferenza per novembre ce la fanno
Per me presentazione a gennaio al CES
Inviato dal mio iPhone utilizzando Tapatalk Pro
ninja750
09-09-2024, 13:21
Alla luce del ritiro ufficiale di amd dalla fascia alta, non sarebbe una buona idea prendere una scheda top di gamma ora Nvidia? L’anno prossimo mi aspetto prezzi mirabolanti per le 5000.
se la storia dovesse ripetersi ancora una volta, è il momento giusto per prendere le 4000 usate nel mercatino al giusto prezzo. a ridosso dell'uscita delle nuove, gli enthusiast vendono le top per prendere il nuovo giocattolo al day1 qualsivoglia sia il prezzo
4000 nuove oggi meh
Cutter90
09-09-2024, 13:32
se la storia dovesse ripetersi ancora una volta, è il momento giusto per prendere le 4000 usate nel mercatino al giusto prezzo. a ridosso dell'uscita delle nuove, gli enthusiast vendono le top per prendere il nuovo giocattolo al day1 qualsivoglia sia il prezzo
4000 nuove oggi meh
Esatto, come ho sempre fatto io. peccato che se cerchi di fare un affare farai molta fatica. la 4090 si venderà alla grande nell'usato perchè avrà le perf della 5080 circa e avrà i 24 gb.
Io è 3 volte che vendo la top allo stesso prezzo della nuova come perf.
Se la 5080 andrà 10% in più dalla 4090, avrà 16 gb, nessuna fetures esclusiva e costerà 1100 euro la 4090 si potrà vendere anche a 1200 tranquillamente.
RoUge.boh
09-09-2024, 13:45
Alla luce del ritiro ufficiale di amd dalla fascia alta, non sarebbe una buona idea prendere una scheda top di gamma ora Nvidia? L’anno prossimo mi aspetto prezzi mirabolanti per le 5000.
Nessuno ha la sfera di cristallo ma il moto di NVDIA è sempre stato
"the more you buy the more you save"
Se oggi la 4080 costa €1000, e la 5080 andrà veramente un 10% in più di una 4090 la metteranno (di listino) a 1500 come nulla.
Non avere competitor, in quella fascia, porta a questo.
Inoltre, sicuramente metteranno un DLSS 4.0 che farà vacillare, gli appassionati, a cambiare scheda video.
La scelta spetta a te.
ninja750
09-09-2024, 13:51
mah buon per te io ricordo bene le 2080ti svendute a 550€ (il giorno prima 1200€) o le 3090 a 650€ (il giorno prima 1499€) tutti cavalcando le onde dei leak
magic carpet
09-09-2024, 14:03
No, perchè le nuove le faranno calare di prezzo ulteriormente (teoricamente). E poi da come si legge in giro escono quest'anno non il prossimo le 5000Qui addirittura parlano del lancio di due GPU (presumibilmente 5080 e 5090) a settembre!
A me sembra irrealistico.
https://www.pcgamer.com/hardware/graphics-cards/nvidia-rtx-5080-and-rtx-5090-are-reportedly-scheduled-to-officially-launch-in-september-and-well-believe-it-when-we-see-them/
Cutter90
09-09-2024, 14:11
mah buon per te io ricordo bene le 2080ti svendute a 550€ (il giorno prima 1200€) o le 3090 a 650€ (il giorno prima 1499€) tutti cavalcando le onde dei leak
2080 ti venduto a 800 e 3090 a 940 :)
mikael84
09-09-2024, 14:13
mamma mia... una discreta voragine
vedendo la complessità della 5090 cmq ho come l'impressione che cercheranno di slegarla da una logica puramente gaming lasciando alla 80 il ruolo di riferimento per questo campo.
Chissà cosa si inventa Jensen a sto giro
A livello commerciale una voragine così, non sarebbe sicuramente ben vista, facendo passare la 5080 come la 4080 12 o quasi.
Lo scopo di GB202 è principalmente creare una nuova fascia sulle work (ex quadro) da ben 64gb utilizzando il clamshell.
Ormai il x02 sta andando nella direzione 00, con costi sempre più elevati.
Ancora non si conosce il die, e la densità dei 4nmp non è molto distante da quella dei 5nm di ADA.
Pensa che un eventuale chip, simil turing, avrebbe appena 30 die per wafer validati.
Qui addirittura parlano del lancio di due GPU (presumibilmente 5080 e 5090) a settembre!
A me sembra irrealistico.
https://www.pcgamer.com/hardware/graphics-cards/nvidia-rtx-5080-and-rtx-5090-are-reportedly-scheduled-to-officially-launch-in-september-and-well-believe-it-when-we-see-them/
Praticamente impossibile. Nel caso annuncia lui una manifestazione. Un debutto a settembre (siamo quasi a metà tra l'altro), significherebbe che i chip hanno già i bios pronti per il lancio.
Probabile al CES di gennaio.
Kostanz77
09-09-2024, 14:40
Qui addirittura parlano del lancio di due GPU (presumibilmente 5080 e 5090) a settembre!
A me sembra irrealistico.
https://www.pcgamer.com/hardware/graphics-cards/nvidia-rtx-5080-and-rtx-5090-are-reportedly-scheduled-to-officially-launch-in-september-and-well-believe-it-when-we-see-them/
se leggi bene tra le righe dell articolo, specifica che si tratta di una finalizzazione del progetto delle 5080/5090 a settembre, non del lancio pre commercializzazione
Inviato dal mio iPhone utilizzando Tapatalk Pro
Latrodectus
09-09-2024, 14:50
Qui addirittura parlano del lancio di due GPU (presumibilmente 5080 e 5090) a settembre!
A me sembra irrealistico.
https://www.pcgamer.com/hardware/graphics-cards/nvidia-rtx-5080-and-rtx-5090-are-reportedly-scheduled-to-officially-launch-in-september-and-well-believe-it-when-we-see-them/
Entro fine ottobre-novembre in vendita al pubblico. Mi è stato appena confermato da un mio amico rivenditore che è uno tra i più grandi in Italia...
Kostanz77
09-09-2024, 14:59
Entro fine ottobre-novembre in vendita al pubblico. Mi è stato appena confermato da un mio amico rivenditore che è uno tra i più grandi in Italia...
😂no dai è una battuta la tua
Inviato dal mio iPhone utilizzando Tapatalk Pro
amon.akira
09-09-2024, 15:08
😂no dai è una battuta la tua
Inviato dal mio iPhone utilizzando Tapatalk Pro
saremo qui tra 2mesi :asd:
Predator_1982
10-09-2024, 08:51
Vabbè alla fine meglio che se la prendano con comodo, tanto concorrenza non esiste e l'avere poi prodotti con problemi non giova a a nessuno.
In più, ad oggi, giochi che ne necessitano assolutamente non mi sembra ce ne siano molti.
A mio parere presentazione a gennaio 2025 e commercializzazione delle 5080 e 5090 (insieme) a marzo.
Non ci sarebbero assolutamente i tempi per averle prima.
nagashadow
10-09-2024, 10:37
Esatto, come ho sempre fatto io. peccato che se cerchi di fare un affare farai molta fatica. la 4090 si venderà alla grande nell'usato perchè avrà le perf della 5080 circa e avrà i 24 gb.
Io è 3 volte che vendo la top allo stesso prezzo della nuova come perf.
Se la 5080 andrà 10% in più dalla 4090, avrà 16 gb, nessuna fetures esclusiva e costerà 1100 euro la 4090 si potrà vendere anche a 1200 tranquillamente.
Le 4090 le trovi anche adesso su subito a 1300 usate e 1500 le rog strix nuove prese con gli errori di prezzo di Amazon….
Cutter90
10-09-2024, 10:58
Le 4090 le trovi anche adesso su subito a 1300 usate e 1500 le rog strix nuove prese con gli errori di prezzo di Amazon….
Eh, caleranno di molto poco se la 5080 andrà come la 4090 :)
terranux
10-09-2024, 11:42
Eh, caleranno di molto poco se la 5080 andrà come la 4090 :)
non andrà di più. è la prassi
Cutter90
10-09-2024, 11:44
non andrà di più. è la prassi
Non è detto. Alla fine in questa gen la 4070 ti andava come la 3090. E la 2080 ti andava come la 3070.....
mikael84
10-09-2024, 11:51
Vabbè alla fine meglio che se la prendano con comodo, tanto concorrenza non esiste e l'avere poi prodotti con problemi non giova a a nessuno.
In più, ad oggi, giochi che ne necessitano assolutamente non mi sembra ce ne siano molti.
Però non tutti hanno una 4080/4090, e sono disposti a spendere 1100 o 1800-2000 per quelle prestazioni. Con la nuova serie ci sarà un minimo di riposizionamento e perchè no, ADA che crolla sull'usato, con relativi vantaggi.;)
magic carpet
10-09-2024, 13:32
se leggi bene tra le righe dell articolo, specifica che si tratta di una finalizzazione del progetto delle 5080/5090 a settembre, non del lancio pre commercializzazione
Inviato dal mio iPhone utilizzando Tapatalk ProNon so leggere tra le righe :)
E cmq hanno postato un update in cui affermano proprio quello che hai detto tu.
Psycho77
10-09-2024, 22:24
Entro fine ottobre-novembre in vendita al pubblico. Mi è stato appena confermato da un mio amico rivenditore che è uno tra i più grandi in Italia...
Me la sono segnata.:read:
Una rtx 5080 é in programma, speriamo per prezzi e prestazioni.
Anche se mi sono affezionato a questa manli 4070 Ti biventola con le ventole di cartone pressato che fa il suo lavoro alla grande. :asd:
Anche se mi sono affezionato a questa manli 4070 Ti biventola con le ventole di cartone pressato che fa il suo lavoro alla grande. :asd:
:D :D :D
ultimate trip
11-09-2024, 08:53
Ciao ragazzi una considerazione. Ieri hanno presentato ps5 pro a 799€, dovrebbe montare una simil 7700xt con una sorta di dlss hardware.
Mi viene in mente il parallelo di fine 2020 quando la ps5 era stata presentata a 399€ e le nvidia ampere 3070 e 3080 a 519€ e 719€.
Ci dobbiamo aspettare che anche le 5000 raddoppieranno il prezzo rispetto al 2020? 1.049 la 5070 e 1.449 la 5080?
Cutter90
11-09-2024, 08:57
Ciao ragazzi una considerazione. Ieri hanno presentato ps5 pro a 799€, dovrebbe montare una simil 7700xt con una sorta di dlss hardware.
Mi viene in mente il parallelo di fine 2020 quando la ps5 era stata presentata a 399€ e le nvidia ampere 3070 e 3080 a 519€ e 719€.
Ci dobbiamo aspettare che anche le 5000 raddoppieranno il prezzo rispetto al 2020? 1.049 la 5070 e 1.449 la 5080?
Assolutamente no. Sony ha proposto una console a 920 €. da verificare le perf ovviamente, ma è un vero e proprio suicidio, con un prezzo fuori mercato. Le nvidia non dipenderanno assolutamente da questa follia.
ultimate trip
11-09-2024, 09:02
Tu che prezzo ti aspetti per 5070 e 5080?
Cutter90
11-09-2024, 09:25
Tu che prezzo ti aspetti per 5070 e 5080?
In linea con le 4080 e 4090 al d1
Tu che prezzo ti aspetti per 5070 e 5080?
Io mi aspetto prezzi simili alle 40x0 della stessa fascia, magari simili alle super.
marbasso
11-09-2024, 16:36
Io mi aspetto prezzi simili alle 40x0 della stessa fascia, magari simili alle super.
La 5090 stesso msrp della 4090? LOL
:sofico:
La 5090 stesso msrp della 4090? LOL
:sofico:
Ricorda che Nvidia ha già un'esperienza fallimentare con i prezzi folli della 3090ti che infatti non ha comprato nessuno.
Non credo proprio che se ne usciranno con un prezzo molto distante da quello della 4090.
StylezZz`
11-09-2024, 18:58
Ricorda che Nvidia ha già un'esperienza fallimentare con i prezzi folli della 3090ti che infatti non ha comprato nessuno.
Non credo proprio che se ne usciranno con un prezzo molto distante da quello della 4090.
La 3090 Ti non portava nessuna novità rilevante rispetto la 3090 liscia, oltre ad essere lanciata a pochi mesi di distanza dalle RTX 4000...questo è stato il motivo principale del suo flop.
La 3090 Ti non portava nessuna novità rilevante rispetto la 3090 liscia, oltre ad essere lanciata a pochi mesi di distanza dalle RTX 4000...questo è stato il motivo principale del suo flop.
Anche il prezzo, fidati...
Stiamo anche parlando di un periodo in cui si vedevano 3070 a 1000€...
Ci hanno lucrato alla grande, non credo che nelle gen precedenti ci siano stati cosi tanti ricicli su un chip, neanche kepler ne ebbe cosi tante.
GA102 ha visto: 3080 10GB, 3080 12GB, 3080ti, 3090 e 3090ti, praticamente 5 sku.
Anche lo stacco prestazionale tra 3080 e 3090 era piuttosto misero in relazione al divario di prezzo, considerando che il chip di base era lo stesso, quindi difficile che un 3090ti con un mercato cosi saturo, potesse aver senso o mostrarsi appetibile.
Ricorda che Nvidia ha già un'esperienza fallimentare con i prezzi folli della 3090ti che infatti non ha comprato nessuno.
Non credo proprio che se ne usciranno con un prezzo molto distante da quello della 4090.
un centino in più se va "bene", 200 se va male (quindi 1699-1799 di msrp) sparandoti una supercazzola mista alla mostruosità della potenza della scheda di base più qualche magheggio dei bench con tecnologià FG per farti vedere che doppia quasi la 4080 e fa un +40% sulla 4090 e sembrerà alla fascia enthusistast quasi regalata, è un film gà visto e rivisto :asd:
io spero che la 5080 ricalchi i prezzi della 4080 super di oggi, dato che si sono accorti che l'avevano fatta ampiamente fuori dal vaso con la 4080 per come l'avevano prezzata
io spero che la 5080 ricalchi i prezzi della 4080 super di oggi, dato che si sono accorti che l'avevano fatta ampiamente fuori dal vaso con la 4080 per come l'avevano prezzata
speriamo.
Lo Straniero Misterioso
12-09-2024, 01:30
Molto probabilmente usciranno costose. Tanto si fa sempre in tempo a correggere il prezzo dopo un anno coi refresh... :)
Iceman69
12-09-2024, 07:21
La 5090 stesso msrp della 4090? LOL
:sofico:
Dai credibile direi. Anche perché lasciando da parte qualsiasi ragionamento sulla sensatezza dei prezzi c'è un problema molto pratico nell'andare oltre i 2000/2500 euro, la capienza della carta di credito, molti hanno i massimali a quel livello, io per esempio se costerà più di 2500 euro di sicuro non la compro, non tanto per il prezzo in se, quanto per la menata di dover modificare i massimali per poterla comprare.
Non essendo un bene di prima necessità, ma un gioco/sfizio, se in mezzo ci si mettono troppe menate io lascio perdere. Non è più divertente.
Daedra007
12-09-2024, 09:54
http://www.koreaherald.com/view.php?ud=20240912050616
OrazioOC
12-09-2024, 11:21
https://videocardz.com/newz/nvidia-geforce-rtx-4070-gddr6-vs-gddr6x-tested-99-performance-at-1440p-1080p-98-at-4k
Dai credibile direi. Anche perché lasciando da parte qualsiasi ragionamento sulla sensatezza dei prezzi c'è un problema molto pratico nell'andare oltre i 2000/2500 euro, la capienza della carta di credito, molti hanno i massimali a quel livello, io per esempio se costerà più di 2500 euro di sicuro non la compro, non tanto per il prezzo in se, quanto per la menata di dover modificare i massimali per poterla comprare.
Non essendo un bene di prima necessità, ma un gioco/sfizio, se in mezzo ci si mettono troppe menate io lascio perdere. Non è più divertente.
Tu credi che un acquirente si basi su quello per spendere migliaia di euro? Chi compra quel tipo di scheda avrà mille problemi forse ma di certo non economici e non di limite di spesa. Tra le altre cose moltissimi di quei prodotti così costosi vengono comprati online tramite bonifico o Paypal.
Tu credi che un acquirente si basi su quello per spendere migliaia di euro? Chi compra quel tipo di scheda avrà mille problemi forse ma di certo non economici e non di limite di spesa. Tra le altre cose moltissimi di quei prodotti così costosi vengono comprati online tramite bonifico o Paypal.
Dimentichi che le spese con la carta di credito le paghi in maniera differita, quindi hai più tempo di pianificare la spesa. A mio parere quello che dice il buon Iceman (mio coetaneo :) :) ) è verissimo.
Cutter90
12-09-2024, 13:04
Ehhmm ragazzi, davvero pensate che il problema dei prezzi siano i massimali delle carte? ma seri?
AL di là di paypal e bonifici, sapete vero che entrando nell'app della vostra banca lo si può alzare in qualsiasi momento con 2 click? Lo si può fare anche solo per 1 spesa per poi farlo ritornare automaticamente come prima. L'ho già fatto 1000 volte ed è semplicissimo
Aggiorniamoci a questo secolo :D
Ehhmm ragazzi, davvero pensate che il problema dei prezzi siano i massimali delle carte? ma seri?
AL di là di paypal e bonifici, sapete vero che entrando nell'app della vostra banca lo si può alzare in qualsiasi momento con 2 click? Lo si può fare anche solo per 1 spesa per poi farlo ritornare automaticamente come prima.
Aggiorniamoci a questo secolo :D
Si vede che sei "piccolino" caro mio :D :D :D .
Hai mai provato ad alzare il massimale della carta? Secondo me no. Specie per cifre alte per farlo devi essere radiografato, devi superare l'esame di solvibilità della banca e tante altre cose, non serve solo un click, fidati.:D :D :D
mikael84
12-09-2024, 13:18
Stop OT!
https://videocardz.com/newz/nvidia-geforce-rtx-4070-gddr6-vs-gddr6x-tested-99-performance-at-1440p-1080p-98-at-4k
Da 20 a 21 gb/s la differenza è poca alla fine.
Bisognerebbe vedere la banda effettiva più che altro tra le due ram.
Sonpazzo
12-09-2024, 14:42
Stop OT!
Da 20 a 21 gb/s la differenza è poca alla fine.
Bisognerebbe vedere la banda effettiva più che altro tra le due ram.
anche le stesse temperature dici?
Stop OT!
Da 20 a 21 gb/s la differenza è poca alla fine.
Bisognerebbe vedere la banda effettiva più che altro tra le due ram.
Sinceramente non credo che sia problematico, 4070s è un chip più denso e ha la stessa BW di 4070, quindi dubito che un chip cosi mutilato come la 4070 abbia deficit con solo 5% di BW in meno.
Credo che le GDDR6 dovrebbero anche consumare e scaldare meno delle GDDR6X.
mikael84
12-09-2024, 18:04
anche le stesse temperature dici?
Non abbiamo comparazioni dirette, ma a livello di consumi sono li.
Sinceramente non credo che sia problematico, 4070s è un chip più denso e ha la stessa BW di 4070, quindi dubito che un chip cosi mutilato come la 4070 abbia deficit con solo 5% di BW in meno.
Credo che le GDDR6 dovrebbero anche consumare e scaldare meno delle GDDR6X.
Ora hanno messo anche i giochi, e diciamo che quei 20gb/s in meno, la fanno leggermente scende in 4k.
https://videocardz.com/newz/nvidia-geforce-rtx-4070-gddr6-vs-gddr6x-tested-99-performance-at-1440p-1080p-98-at-4k
Curioso metro, che anche in 1440p passa da 140 a 154 con le g6x.
La 4070 super deve alimentare più thread, ma ha 48mb di cache, mentre la 4070 solo 32.
Per una 4070 penso che i 1440p siano un target più adeguato, a parte metro negli altri engine i risultati sono abbastanza sovrapponibili.
Penso che oltre alla BW, anche i timings delle ram impattino.
mikael84
12-09-2024, 18:46
Per quello servirebbe la bw effettiva.
Cmq vediamo se qualcuno le testa a 21. Sarebbe interessante.
Il 4k non è proprio la res. di riferimento, ma è un modo per valutare reali differenze, come per le CPU il 720p.
Per quello servirebbe la bw effettiva.
Cmq vediamo se qualcuno le testa a 21. Sarebbe interessante.
Il 4k non è proprio la res. di riferimento, ma è un modo per valutare reali differenze, come per le CPU il 720p.
Si non sarebbe male un test a pari BW, giusto per avere un confronto 1 a 1 tra gddr6 e gddr6x.
Alla fine anche in 4k siamo abbastanza vicini, resta il divario su metro e qualcosa con doom, però nulla che distacchi concretamente.
Si vede che sei "piccolino" caro mio :D :D :D .
Hai mai provato ad alzare il massimale della carta? Secondo me no. Specie per cifre alte per farlo devi essere radiografato, devi superare l'esame di solvibilità della banca e tante altre cose, non serve solo un click, fidati.:D :D :D
Dipende dalla banca che hai e dal tipo di carta.
Per esempio con Intesa puoi alzare il massimale del 50% per tre mesi direttamente dall'app in pochi secondi.
Se invece devo alzare il massimale in maniera definitiva allora valgono le tue considerazioni. ;)
magic carpet
14-09-2024, 08:08
Vabbe ragazzi, siamo in pieno OT.
Cmq esiste anche paga in 3 rate con paypal e il problema è risolto.
Il discorso, per quanto mi riguarda, è che non voglio superare la soglia dei 2k.
Se la 5090 la piazzano a 2500 USD, quindi 2.700/800€, stavolta io mi tengo stretto la mia 4090.
Devono capire che la corda si sta spezzando (vedi PS5 pro).
Il discorso, per quanto mi riguarda, è che non voglio superare la soglia dei 2k.
Se la 5090 la piazzano a 2500 USD, quindi 2.700/800€, stavolta io mi tengo stretto la mia 4090.
Devono capire che la corda si sta spezzando (vedi PS5 pro).
Questo è un po' quello che pensa la maggioranza della gente, secondo me per una VGA già 2000 euro sono tantissimi, ma non perchè di più non potrei permettermela ma perchè secondo me c'è un limite a tutto.
Vabbè che in questo periodo tutto sta aumentando in maniera spropositata ma (vedi il crollo delle vendite delle auto nuove) come dicevo prima, c'è un limite a tutto e se viene superato la gente non compra più.
albero77
14-09-2024, 10:48
Vabbe ragazzi, siamo in pieno OT.
Cmq esiste anche paga in 3 rate con paypal e il problema è risolto.
Il discorso, per quanto mi riguarda, è che non voglio superare la soglia dei 2k.
Se la 5090 la piazzano a 2500 USD, quindi 2.700/800€, stavolta io mi tengo stretto la mia 4090.
Devono capire che la corda si sta spezzando (vedi PS5 pro).
Si dicono tutti così. Vediamo cosa tira fuori jackets dal cilindro, non posso metterci la mano sul fuoco, avevo detto che non avrei mai speso 2k per una vga ed eccomi qua. C'è da dire che la 4090 mi sta regalando grandissime gioie, se escono con un'altra mostruosità a nome 5090 non posso garantire che non comprerò. Ad ogni modo per me 2k è già una follia, io non penso vogliano andare oltre quella cifra. Spero di non essere smentito. Per quanto riguarda sony è una follia quasi quanto 2k per una vga, non vedo grosse differenze.
Vabbe ragazzi, siamo in pieno OT.
Cmq esiste anche paga in 3 rate con paypal e il problema è risolto.
Il discorso, per quanto mi riguarda, è che non voglio superare la soglia dei 2k.
Se la 5090 la piazzano a 2500 USD, quindi 2.700/800€, stavolta io mi tengo stretto la mia 4090.
Devono capire che la corda si sta spezzando (vedi PS5 pro).
a seconda della scimmia, poi si passa al ragionamento "ma tanto rivendo la mia 4090 ci riprendo qualcosa", magari 1000€ e poi li ci si dice eh va bhe anche se sono 2800€ ne ho ripresi 1000 quindi sono 1800€ da metterci di differenzae si compra anche a 2800...un'altro film già visto
un +45-50% di prestazioni dalla 4090 è molto plausibile con la 5090?
OrazioOC
14-09-2024, 12:37
https://www.youtube.com/watch?v=HMciftpkk2k
Cutter90
14-09-2024, 12:41
https://www.youtube.com/watch?v=HMciftpkk2k
Ne abbiamo già parlato. Mossa bruttina ma perdita di perf irrilevante. UU un po troppo "contro" in questa review
OrazioOC
14-09-2024, 12:45
Ne abbiamo già parlato. Mossa bruttina ma perdita di perf irrilevante. UU un po troppo "contro" in questa review
Ha ragione HU, semplicemente nvidia doveva tagliare un po' il prezzo di questa 4070, anche di soli 20 dollari eh. :stordita:
Vero che perde "solo" tra il 3-5% di performance rispetto alla 4070 gddr6x, ma rimane comunque una perdita a sfavore del compratore. :rolleyes:
Fa abbastanza schifo a livello di tutela del consumatore una mossa del genere.
mikael84
14-09-2024, 12:57
Ripeto, stop OT su carte e banche!
a seconda della scimmia, poi si passa al ragionamento "ma tanto rivendo la mia 4090 ci riprendo qualcosa", magari 1000€ e poi li ci si dice eh va bhe anche se sono 2800€ ne ho ripresi 1000 quindi sono 1800€ da metterci di differenzae si compra anche a 2800...un'altro film già visto
un +45-50% di prestazioni dalla 4090 è molto plausibile con la 5090?
Non c'è modo di fare una previsione un minimo sensata purtroppo. Manca ancora il taglio del chip, eventuali revisioni interne microarchitetturali ed il clock. Clock che viene riportato come 2,9 base, ma può anche essere base boost.
https://www.youtube.com/watch?v=HMciftpkk2k
Troppo generalista, ok sappiamo che va un tantino meno, ma è pure logico, le g6x hanno un accesso leggermente migliore, oltre che bw in più.
Sarebbe stata interessante, una prova a 21gb/s per analizzare meglio le ram, una prova in OC, visto che le monta solo AMD, ma per via del controller ad errore clockano meno.
Un discorso sui prezzi di tale ram, le g6 stanno a circa 40$ per 12gb, le g6x erano ben più costose di quando il gb g6 stava a 11,8$.
Cmq, al giorno d'oggi, è sicuramente meglio attendere, o orientarsi su una 4070 super che ha prezzi quasi analoghi.
marbasso
14-09-2024, 13:08
Ripeto, stop OT su carte e banche!
Non c'è modo di fare una previsione un minimo sensata purtroppo. Manca ancora il taglio del chip, eventuali revisioni interne microarchitetturali ed il clock. Clock che viene riportato come 2,9 base, ma può anche essere base boost.
Troppo generalista, ok sappiamo che va un tantino meno, ma è pure logico, le g6x hanno un accesso leggermente migliore, oltre che bw in più.
Sarebbe stata interessante, una prova a 21gb/s per analizzare meglio le ram, una prova in OC, visto che le monta solo AMD, ma per via del controller ad errore clockano meno.
Un discorso sui prezzi di tale ram, le g6 stanno a circa 40$ per 12gb, le g6x erano ben più costose di quando il gb g6 stava a 11,8$.
Cmq, al giorno d'oggi, è sicuramente meglio attendere, o orientarsi su una 4070 super che ha prezzi quasi analoghi.
Ma erro io a livello di memoria o ricordo di un articolo che parlava di una impennata sui prezzi di Blackwell dovuto appunto alle Gddr7?
OrazioOC
14-09-2024, 13:09
Troppo generalista, ok sappiamo che va un tantino meno, ma è pure logico, le g6x hanno un accesso leggermente migliore, oltre che bw in più.
Sarebbe stata interessante, una prova a 21gb/s per analizzare meglio le ram, una prova in OC, visto che le monta solo AMD, ma per via del controller ad errore clockano meno.
Un discorso sui prezzi di tale ram, le g6 stanno a circa 40$ per 12gb, le g6x erano ben più costose di quando il gb g6 stava a 11,8$.
Cmq, al giorno d'oggi, è sicuramente meglio attendere, o orientarsi su una 4070 super che ha prezzi quasi analoghi.
Penso anche io che non ci si debba stracciare le vesta con questa 4070, tanto chi voleva una gpu del genere ha avuto 18 mesi buoni per mettersela nel case. :rolleyes:
Detto questo, sono le solite strategie di marketing anticonsumatore. :doh:
Cutter90
14-09-2024, 13:40
Ha ragione HU, semplicemente nvidia doveva tagliare un po' il prezzo di questa 4070, anche di soli 20 dollari eh. :stordita:
Vero che perde "solo" tra il 3-5% di performance rispetto alla 4070 gddr6x, ma rimane comunque una perdita a sfavore del compratore. :rolleyes:
Fa abbastanza schifo a livello di tutela del consumatore una mossa del genere.
Sicuramente non una bella mossa. Ma HU ne parla come se fosse un disastro. Non è così.
Tanto ormai la 4070 è proprio difficile da consigliare
mikael84
14-09-2024, 14:14
Ma erro io a livello di memoria o ricordo di un articolo che parlava di una impennata sui prezzi di Blackwell dovuto appunto alle Gddr7?
Ufficialmente non so nulla, ma sappiamo due cose;
1) utilizzano il PAM3 che è meno complesso del PAM4 g6x.
2) usano l'ultima mod di samsung 1-beta (1β), che è più densa, capace di fornire 3gb il modulino.
Di fatto però le g6x usano la mod. del PP vecchia (1x, dove ci stampavano ancora le vecchie ddr4), ed ormai sono in giro da anni, quindi il prezzo è sicuramente ai minimi.
Penso anche io che non ci si debba stracciare le vesta con questa 4070, tanto chi voleva una gpu del genere ha avuto 18 mesi buoni per mettersela nel case. :rolleyes:
Detto questo, sono le solite strategie di marketing anticonsumatore. :doh:
Avrebbe avuto senso una 4060ti super a 499 con le g6 visto i costi ormai irrisori di tali ram, ma sono scelte interne, anche per via delle perdite AIB.
StylezZz`
14-09-2024, 18:14
https://www.youtube.com/watch?v=HMciftpkk2k
Bene, un motivo in più per consigliare 7700/7800 XT in questa fascia!
Bene, un motivo in più per consigliare 7700/7800 XT in questa fascia!
Meglio aspettare le 8700xt che migliorano il ray tracing
Cutter90
16-09-2024, 22:04
Bene, un motivo in più per consigliare 7700/7800 XT in questa fascia!
La 7800 xt costa di più della 4070... o sbaglio?
La 7800 xt costa di più della 4070... o sbaglio?
Costa abbastanza meno a pari negozio, la 4070 liscia fra la 7800XT a meno e la Super che si trova a poco di più in questo momento è piazzata male (imho).
Cutter90
17-09-2024, 06:19
Costa abbastanza meno a pari negozio, la 4070 liscia fra la 7800XT a meno e la Super che si trova a poco di più in questo momento è piazzata male (imho).
Beh si va dai 30-40 euro in meno allo stesso prezzo quindi più o meno siamo lì. Sicuramente la 4070 super è meglio piazzata. Ma per uno a cui non Interessa il RT la 7800 xt potrebbe essere un acquisto buono
AceGranger
17-09-2024, 09:07
Vabbe ragazzi, siamo in pieno OT.
Cmq esiste anche paga in 3 rate con paypal e il problema è risolto.
Il discorso, per quanto mi riguarda, è che non voglio superare la soglia dei 2k.
Se la 5090 la piazzano a 2500 USD, quindi 2.700/800€, stavolta io mi tengo stretto la mia 4090.
Devono capire che la corda si sta spezzando (vedi PS5 pro).
mi sa che dovete capire voi che i prezzi non li fanno in base agli stipendi/inflazione Italiani :p...
https://rivistapaginauno.it/wp-content/uploads/2023/02/1.jpg
per la PS5 Pro mi pare una mossa sensata, hanno ben visto che una marea di gente ha dato la stessa cifra per acquistare la PS5 normale al tempo della carenza di scorte, quindi perchè mai dare soldi ai bagarini :stordita:
mi sa che dovete capire voi che i prezzi non li fanno in base agli stipendi/inflazione Italiani :p...
stipendi fermi da 30 anni quando il costo delle vita era in Lire e adesso il costo della vita è in Franchi Svizzeri neanche più in Euro :asd: :muro:
fraussantin
17-09-2024, 09:42
mi sa che dovete capire voi che i prezzi non li fanno in base agli stipendi/inflazione Italiani :p...
https://rivistapaginauno.it/wp-content/uploads/2023/02/1.jpg
per la PS5 Pro mi pare una mossa sensata, hanno ben visto che una marea di gente ha dato la stessa cifra per acquistare la PS5 normale al tempo della carenza di scorte, quindi perchè mai dare soldi ai bagarini :stordita:Il prezzo di adatta al mercato col tempo .
Se ps5 pro non vende calerà . Se vende rimane cosí.
Idem per per 5090 , anche se dubito avranno quei prezzi.
amon.akira
17-09-2024, 12:34
Vabbe ragazzi, siamo in pieno OT.
Cmq esiste anche paga in 3 rate con paypal e il problema è risolto.
Il discorso, per quanto mi riguarda, è che non voglio superare la soglia dei 2k.
Se la 5090 la piazzano a 2500 USD, quindi 2.700/800€, stavolta io mi tengo stretto la mia 4090.
Devono capire che la corda si sta spezzando (vedi PS5 pro).
3090 1499dollari
4090 1599dollari
5090 dici che fanno +900dollari dalla 4090? potrebbe essere solo se volessero identificarla come solo pro, quindi 512bit e 32gb...insomma in stile titan v, ma in quel caso butterebbe fuori anche la corrispettiva gaming cuttata.
mikael84
17-09-2024, 12:51
3090 1499dollari
4090 1599dollari
5090 dici che fanno +900dollari dalla 4090? potrebbe essere solo se volessero identificarla come solo pro, quindi 512bit e 32gb...insomma in stile titan v, ma in quel caso butterebbe fuori anche la corrispettiva gaming cuttata.
Titan V, era una tesla, la Hopper attuale (FP64 /80gb HBM).
La versione da 512bit e 64gb, la userà quasi esclusivamente la work (ex quadro), che è quella che viene demolita per le pro-gaming.
AceGranger
17-09-2024, 14:20
Il prezzo di adatta al mercato col tempo .
Se ps5 pro non vende calerà . Se vende rimane cosí.
Idem per per 5090 , anche se dubito avranno quei prezzi.
certo, ma il punto di base è che in Italia sembra tutto molto piu caro per via di quel grafico la sopra.
Psycho77
17-09-2024, 15:49
3090 1499 dollari
4090 1599 dollari
5090 1699 dollari.
5080 1200 dollari
Ecco la mia previsione.
Se riescono a vendere una ps5 pro a 950 dollari saliranno anche i prezzi delle gpu. Perchè mai NVIDIA non dovrebbe salire sul carrozzone dei fessacchiotti visto che è stata proprio lei a pompare a dismisura i prezzi delle gpu?
Vuoi una gpu 4 volte più potente di ps5 pro? Sgancia 2500 euro che ci sto già rimettendo direbbe Gengis Kahn......
Fate la proporzione di 800 x 4 e la rtx 5090 sarà un affare.:sofico:
Cutter90
17-09-2024, 16:00
3090 1499 dollari
4090 1599 dollari
5090 1699 dollari.
5080 1200 dollari
Ecco la mia previsione.
Se riescono a vendere una ps5 pro a 950 dollari saliranno anche i prezzi delle gpu. Perchè mai NVIDIA non dovrebbe salire sul carrozzone dei fessacchiotti visto che è stata proprio lei a pompare a dismisura i prezzi delle gpu?
Vuoi una gpu 4 volte più potente di ps5 pro? Sgancia 2500 euro che ci sto già rimettendo direbbe Gengis Kahn......
Fate la proporzione di 800 x 4 e la rtx 5090 sarà un affare.:sofico:
In realtà è stato fatto il contrario. ossia che prima sono saliti i prezzi per le gpu... poi ora sony ci prova con ps5 pro in stile apple....
Psycho77
17-09-2024, 16:11
In realtà è stato fatto il contrario. ossia che prima sono saliti i prezzi per le gpu... poi ora sony ci prova con ps5 pro in stile apple....
Hanno visto che ai tempi della pandemia i bagarini vendevano le ps5 al doppio del prezzo e quindi si sono sentiti autorizzati ad imitarli.:p
Anche amd si è adeguata ai tempi ai prezzi NVIDIA, quindi da pericoloso complottista, ti dico che sono tutti d'accordo.
Il loro obiettivo è quello di traghettare tutti al cloud gaming e prima o poi ce la faranno.
Guarda la gente che gioca con il gamepass, crede di fare un affare a pagare un abbonamento per avere il nulla e sono super contenti di giocare a titoli che decide microlol e a non possedere nulla.
Come disse ufficialmente Klauss Schwab, non avrete nulla e sarete felici.
terranux
17-09-2024, 18:59
3090 1499 dollari
4090 1599 dollari
5090 1699 dollari.
5080 1200 dollari
Ecco la mia previsione.
Se riescono a vendere una ps5 pro a 950 dollari saliranno anche i prezzi delle gpu. Perchè mai NVIDIA non dovrebbe salire sul carrozzone dei fessacchiotti visto che è stata proprio lei a pompare a dismisura i prezzi delle gpu?
Vuoi una gpu 4 volte più potente di ps5 pro? Sgancia 2500 euro che ci sto già rimettendo direbbe Gengis Kahn......
Fate la proporzione di 800 x 4 e la rtx 5090 sarà un affare.:sofico:la tua manli è rumorosa? quanti fanno le ventole?
Psycho77
17-09-2024, 19:31
la tua manli è rumorosa? quanti fanno le ventole?
Si è abbastanza rumorosa ma non è un problema poichè gioco con le cuffie.
Non sorpassa i 72 gradi in full load con oc, questo è più importante.
Essendo una biventola al momento dell'acquisto mi aspettavo molto di peggio.
magic carpet
18-09-2024, 06:44
mi sa che dovete capire voi che i prezzi non li fanno in base agli stipendi/inflazione Italiani :p...
https://rivistapaginauno.it/wp-content/uploads/2023/02/1.jpg
per la PS5 Pro mi pare una mossa sensata, hanno ben visto che una marea di gente ha dato la stessa cifra per acquistare la PS5 normale al tempo della carenza di scorte, quindi perchè mai dare soldi ai bagarini :stordita:I prezzi possono stabilirli in base ai criteri che meglio ritengono.
Saranno poi i consumatori a lasciare i prodotti sugli scaffali e a farli tornare sulla Terra.
Per quanto riguarda PS5 Pro, il paragone non regge.
Era un periodo storico particolare, la gente era chiusa in casa ed era presa per il collo.
Ora puoi scegliere liberamente e il risultato che per ora ha ottenuto Sony è che i bagarini si sono accaparrati tutti i lettori ottici.
5090 1699 dollari.
5080 1200 dollari
Ecco la mia previsione.
Nope, 5090 tra 2000 e 2300$. Sulla 5080 probabilmente ci hai azzeccato.
https://wccftech.com/nvidia-geforce-rtx-4090-4090d-discontinued-next-month-in-preparation-for-next-gen-rtx-5090-5090d-gpus/
Bye bye 4090
fraussantin
18-09-2024, 15:56
Domanda a titolo informativo , ma si sa piu o meno wuando uscirà la 5080 e se ci saranno feature rtx esclusive?
amon.akira
19-09-2024, 17:01
Domanda a titolo informativo , ma si sa piu o meno wuando uscirà la 5080 e se ci saranno feature rtx esclusive?
no però posso fare il nostradamus di turno :asd: ...31gennaio alle ore 15:00 1199$ con neural texture e framegen2.0 ribatezzati dlss4 in esclusiva
DarkNiko
19-09-2024, 17:27
https://wccftech.com/nvidia-geforce-rtx-4090-4090d-discontinued-next-month-in-preparation-for-next-gen-rtx-5090-5090d-gpus/
Bye bye 4090
Ma bye bye de che? :D
Legolas84
19-09-2024, 18:02
https://wccftech.com/nvidia-geforce-rtx-4090-4090d-discontinued-next-month-in-preparation-for-next-gen-rtx-5090-5090d-gpus/
Bye bye 4090
Evidentemente forse non manca molto alla 5090....
Per la build che mi durerà per i prossimi due anni ho ben pochi dubbi sulla scheda video... 5090 o Strix o Suprim X a meno ovviamente di sorprese nelle recensioni....
La parte difficile a sto giro sembra la scelta della CPU, ero praticamente quasi certo di prendere un Ryzen 9000X3D, ma tra il fail di Zen 5 e Arrow Lake che non si capisce bene come andrà è tutto molto fumoso.
ultimate trip
19-09-2024, 18:12
Evidentemente forse non manca molto alla 5090....
Per la build che mi durerà per i prossimi due anni ho ben pochi dubbi sulla scheda video... 5090 o Strix o Suprim X a meno ovviamente di sorprese nelle recensioni....
La parte difficile a sto giro sembra la scelta della CPU, ero praticamente quasi certo di prendere un Ryzen 9000X3D, ma tra il fail di Zen 5 e Arrow Lake che non si capisce bene come andrà è tutto molto fumoso.
io invece sono molto combattuto, se rimanere con la mia 4090 o puntare a una 5080. credo che la 5090 sarà fuori budget...poi escono e si scoprirà che la 5090 doppia la 5080 e via di nuovo di dubbi :)
amon.akira
19-09-2024, 18:34
io invece sono molto combattuto, se rimanere con la mia 4090 o puntare a una 5080. credo che la 5090 sarà fuori budget...poi escono e si scoprirà che la 5090 doppia la 5080 e via di nuovo di dubbi :)
Ma realisticamente un +50% e con una 5080 a 1200dollari+50% fino a 1800dollari sei lineare con il price\perf e in quel caso si conviene la 5090
ultimate trip
19-09-2024, 18:53
Ma realisticamente un +50% e con una 5080 a 1200dollari+50% fino a 1800dollari sei lineare con il price\perf e in quel caso si conviene la 5090
è anche vero che se con la 5080 parti sopra la 4090, e bisogna vedere quanto, avere ancora un altro +50 è buono per l'ego ma poi nel concreto ti servirà rarissimamente.
se l'incremento è lineare non mi lamento ma vedendo Ada...
amon.akira
19-09-2024, 19:00
Calcola che la 4080 debuttò a 1469€+35% perf una 4090 fino a 2000euro compravi prestazioni 1 a 1
La parte difficile a sto giro sembra la scelta della CPU, ero praticamente quasi certo di prendere un Ryzen 9000X3D, ma tra il fail di Zen 5 e Arrow Lake che non si capisce bene come andrà è tutto molto fumoso.
Aspetta e vedi :)
Psycho77
19-09-2024, 21:54
Evidentemente forse non manca molto alla 5090....
Per la build che mi durerà per i prossimi due anni ho ben pochi dubbi sulla scheda video... 5090 o Strix o Suprim X a meno ovviamente di sorprese nelle recensioni....
La parte difficile a sto giro sembra la scelta della CPU, ero praticamente quasi certo di prendere un Ryzen 9000X3D, ma tra il fail di Zen 5 e Arrow Lake che non si capisce bene come andrà è tutto molto fumoso.
La serie amd 9000 era castrata dal vecchio windows 11 h23h2, con la versione di windows 11 h24h2 ( la versione stabile è in uscita questo mese) ha conquistato qualcosa, anche se ritengo che il ryzen 7 7800x3d rimanga il best buy ad oggi per un pc da gioco.
https://youtu.be/L59E4tDcOq4?si=Jy5ONassYJe2POoW
Novità per la serie nvidia 5000 mi pare non ci siano, altrimenti i nostri cani da caccia del forum le avrebbero già postate credo.:p
fraussantin
20-09-2024, 06:50
Evidentemente forse non manca molto alla 5090....
Ma kopite non aveva detto che sarebbe uscita prima la 80?
Legolas84
20-09-2024, 07:23
Ad oggi con le tecnologie che ha tirato fuori NVIDIA dal cilindro si gioca benissimo anche con una 4070 Ti Super... prendere qualcosa di meglio secondo me è per passione più che per necessità.
Aspetta e vedi :)
Sicuramente, in generale ho sempre preferito intel perchè storicamente ho sempre trovato le sue piattaforme molto più stabili, ma ultimamente ha fatto davvero troppi pasticci.
La serie amd 9000 era castrata dal vecchio windows 11 h23h2, con la versione di windows 11 h24h2 ( la versione stabile è in uscita questo mese) ha conquistato qualcosa, anche se ritengo che il ryzen 7 7800x3d rimanga il best buy ad oggi per un pc da gioco.
https://youtu.be/L59E4tDcOq4?si=Jy5ONassYJe2POoW
Novità per la serie nvidia 5000 mi pare non ci siano, altrimenti i nostri cani da caccia del forum le avrebbero già postate credo.:p
Vediamo quando esce l'X3D... a quel punto il quadro sarà completo.
Ma kopite non aveva detto che sarebbe uscita prima la 80?
Ero rimasto che la 80 e la 90 uscivano insieme e per prime.... boh....
OrazioOC
20-09-2024, 08:13
Ad oggi con le tecnologie che ha tirato fuori NVIDIA dal cilindro si gioca benissimo anche con una 4070 Ti Super... prendere qualcosa di meglio secondo me è per passione più che per necessità.
Beh parliamo comunque di una gpu da quasi 900 sacchi e con performance iso 3090 ti. :asd:
Detto questo, dai leak(o meglio da quel poco che si sà) 5090 e 5080 dovrebbero arrivare nello stesso momento...
Legolas84
20-09-2024, 08:38
Beh parliamo comunque di una gpu da quasi 900 sacchi e con performance iso 3090 ti. :asd:
Detto questo, dai leak(o meglio da quel poco che si sà) 5090 e 5080 dovrebbero arrivare nello stesso momento...
Si esatto, quindi meno della metà di quanto costa la 4090 :)
E' brutto ma i prezzi oggi sono questi anche grazie all'assenza totale di concorrenza e di alternative valide. Ai tempi di 3dfx, Matrox, NVIDIA, ATi le differenze tra i competitor c'erano ma ognuno aveva i suoi punti di forza e le sue debolezze. Oggi si è attraversato un periodo in cui dalla parte di AMD c'era almeno il prezzo, oggi nemmeno quello.
Quindi si, si parla di una scheda a 900 carte, ma i prezzi e la situazione oggi è questa.
Secondo me 5090 =4090 + 100 euro
JakobDylan
20-09-2024, 17:53
la 5090 minimo 2000
la 5080 minimo 1400
la 5070 minimo 800
la 5060 minimo 450
Psycho77
20-09-2024, 20:43
la 5090 minimo 2000
la 5080 minimo 1400
la 5070 minimo 800
la 5060 minimo 450
https://imgur.com/a/qcqTAAR
La rtx 5090 io dico minimo 2500 euro visto che la 4090 si aggirava intorno ai 2100 e le 2300 al day one.
Metti 200 euro in più per la 5080 e ci siamo quasi.:Perfido:
Per la l'icula.. finale butteranno fumo sugli occhi con le miracolose ram gddr7 e DLSS 4.0 che sarà miracoloso (Meglio della res nativa ! Profezia del momento) con un g-sync special edition con assenza di ghosting e vai col tango.
NVIDIA è l'azienda che lucra più di tutte in assoluto, creando obsolescenza programmata da fare schifo, addirittura per la gen di gpu precedente.
Vi basti pensare che sto giocando a gow ragnarok a 1440p con DLAA e frame gen fsr3 AMD, poichè il DLSS 3.0 frame gen è rotto e non funziona.
AMD ci ricorda quanto lucra NVIDIA, ma all'utente medio sembra non interessare.
Qui una gtx 1060 performa quanto una ps5 pro a momenti con l'fsr 3.1 di amd.:ciapet:
https://youtu.be/ZoFo9wA0Kwk?si=j8RWRqqkNABRfhk6
Cutter90
20-09-2024, 21:47
https://imgur.com/a/qcqTAAR
La rtx 5090 io dico minimo 2500 euro visto che la 4090 si aggirava intorno ai 2100 e le 2300 al day one.
Metti 200 euro in più per la 5080 e ci siamo quasi.:Perfido:
Per la l'icula.. finale butteranno fumo sugli occhi con le miracolose ram gddr7 e DLSS 4.0 che sarà miracoloso (Meglio della res nativa ! Profezia del momento) con un g-sync special edition con assenza di ghosting e vai col tango.
NVIDIA è l'azienda che lucra più di tutte in assoluto, creando obsolescenza programmata da fare schifo, addirittura per la gen di gpu precedente.
Vi basti pensare che sto giocando a gow ragnarok a 1440p con DLAA e frame gen fsr3 AMD, poichè il DLSS 3.0 frame gen è rotto e non funziona.
AMD ci ricorda quanto lucra NVIDIA, ma all'utente medio sembra non interessare.
Qui una gtx 1060 performa quanto una ps5 pro a momenti con l'fsr 3.1 di amd.:ciapet:
https://youtu.be/ZoFo9wA0Kwk?si=j8RWRqqkNABRfhk6
Con una patch lo sistemeranno. Invece con tutti gli altri giochi in cui FG amd aveva problemi non ne parliamo vero?
Sul resto stiamo un po delirando non tu pare?
mikael84
20-09-2024, 21:55
Buoni!
la 5090 minimo 2000
la 5080 minimo 1400
la 5070 minimo 800
la 5060 minimo 450
per la 5080 sarà un deja vu con le vendite, come lo è stato per la 4080 se la piazzano a quei prezzi :D
Legolas84
21-09-2024, 15:00
Il mod è già intervenuto per dirvi di smetterla.
Questo è il thread dove si discute delle prossime schede NVIDIA, se non vi interessano perché tanto si gioca benissimo con la fascia bassa, va benissimo ma evitate di venire qui ad accendere flame.
Inviato dal mio iPhone utilizzando Tapatalk Pro
mikael84
21-09-2024, 15:24
Thread ripulito, vi avverto che la misura è colma!
SinapsiTXT
21-09-2024, 16:46
@mikael84
Sulla base degli spoiler usciti e/o sulla base del progetto secondo te le prestazioni di una 5060 potrebbero raggiungere/pareggiare le prestazioni di una 4070super oppure è qualcosa di irrealizzabile?
mikael84
21-09-2024, 19:01
@mikael84
Sulla base degli spoiler usciti e/o sulla base del progetto secondo te le prestazioni di una 5060 potrebbero raggiungere/pareggiare le prestazioni di una 4070super oppure è qualcosa di irrealizzabile?
Al momento di preciso sappiamo veramente poco, sia di microarchitettura, sia di clock che di nomenclature:
Faccio un recap per tornare in tema:
GB202: 24576cc - 512bit - 128mb l2 - 32gb.
RTX 5090: 20-22kcc - 448 bit (cache 84-112)- 28gb gddr7 28gb/s (clock stimato base o boost 2,9, quindi range 3,1-3,5
GB203: 10752cc - 256bit - 16gb gddr7- 64mb l2 (boost 3,1-3,5)
RTX5080 potrebbe essere un cut di GB202 o addirittura GB203.
GB205: 6400cc - 192bit - 12-18gb (difficile la tripla)
Questa potrebbe essere la 5070, che x cc ed ipotetico clock e banda della 4070ti super, si allineerebbe.
GB206: 4608cc -128bit -8-16gb (5060-ti).
Sappiamo che i chip, ma forse solo il chippone, potrebbe essere visualizzato come due chip, in stile MIG, ma non dual die.
I tensor core dovrebbero implementare il FP4 delle HPC ex tesla (anche se pare sia disabilitato sulle gaming - pro.
Le OFA saranno sicuramente maggiorate per DLSS/FG, oltre al Neural Texture Compression.
Presentazione prevista CES di gennaio.
Per tornare alla tua domanda, bisogna quindi vedere, cosa intende usare per tale chip. Potrebbe essere GB206, una 4060ti clockata e con le g7.;)
Legolas84
21-09-2024, 19:27
Addirittura Gennaio... speravo di vedere qualcosa prima...
ultimate trip
22-09-2024, 07:35
Qualcuno parlava di novembre ma siamo quasi a ottobre e non è uscito praticamente nulla da far pensare a quella data. stiamo a vedere cmq perchè qualche pag fa era uscita la notizia che la 4090 cominciava a essere non più prodotta
Si sa qualcosa sulle carrieristiche della RTX 5050 e il costo?
shauni86
22-09-2024, 10:55
Al momento di preciso sappiamo veramente poco, sia di microarchitettura, sia di clock che di nomenclature:
Faccio un recap per tornare in tema:
GB202: 24576cc - 512bit - 128mb l2 - 32gb.
RTX 5090: 20-22kcc - 448 bit (cache 84-112)- 28gb gddr7 28gb/s (clock stimato base o boost 2,9, quindi range 3,1-3,5
GB203: 10752cc - 256bit - 16gb gddr7- 64mb l2 (boost 3,1-3,5)
RTX5080 potrebbe essere un cut di GB202 o addirittura GB203.
GB205: 6400cc - 192bit - 12-18gb (difficile la tripla)
Questa potrebbe essere la 5070, che x cc ed ipotetico clock e banda della 4070ti super, si allineerebbe.
GB206: 4608cc -128bit -8-16gb (5060-ti).
Sappiamo che i chip, ma forse solo il chippone, potrebbe essere visualizzato come due chip, in stile MIG, ma non dual die.
I tensor core dovrebbero implementare il FP4 delle HPC ex tesla (anche se pare sia disabilitato sulle gaming - pro.
Le OFA saranno sicuramente maggiorate per DLSS/FG, oltre al Neural Texture Compression.
Presentazione prevista CES di gennaio.
Per tornare alla tua domanda, bisogna quindi vedere, cosa intende usare per tale chip. Potrebbe essere GB206, una 4060ti clockata e con le g7.;)
la 5070 sarebbe presentata pure a gennaio?
mikael84
22-09-2024, 11:37
Addirittura Gennaio... speravo di vedere qualcosa prima...
Qualcuno parlava di novembre ma siamo quasi a ottobre e non è uscito praticamente nulla da far pensare a quella data. stiamo a vedere cmq perchè qualche pag fa era uscita la notizia che la 4090 cominciava a essere non più prodotta
Ufficialmente non si sa nulla, quindi si ipotizza il classico CES. Se uscissero a novembre, ad ottobre sarebbero in fase di bios, ed in fase ultimata. Con lovelace, aveva programmato una presentazione due mesi prima.
Qua ancora tutto tace, e siamo quasi ad ottobre.
Addirittura non ha presentato un dev. delle HPC, le quali sono sempre debuttate a maggio.
Si sa qualcosa sulle carrieristiche della RTX 5050 e il costo?
La serie 50, non è uscita neppure con lovelace, e nel caso, sono le ultimissime a debuttare, ma ne dubito.
la 5070 sarebbe presentata pure a gennaio?
Da quello che sappiamo, solo 5080 e 5090. Una volta presentate quelle, non tarderanno.
nessuno29
22-09-2024, 11:47
Quindi 5060ti ai livelli della 4070 forse, nulla di eclatante per noi della fascia media.
mikael84
22-09-2024, 11:59
Dipende dalla sku che usa, e da varie modfiche AI o di microarchitettura.
Se usa GB206 come 5060ti, c'è il rischio di trovarsi una simil 4070 da 8/16gb a 399/499$.
Non mi aspetto grossi salti in quelle fasce.
La vedo come gen. refresh, ne più ne meno, con miglioramenti lato RT core (per PT)/tensor e OFA..
Secondo voi diminuiranno le dimensioni?
Secondo voi diminuiranno le dimensioni?
di che, dei die?
Secondo voi diminuiranno le dimensioni?
In che senso?
A seconda della personalizzazione e del PL le dimensioni saranno probabilmente analoghe alle attuali, se ti riferisci ai dissipatori.
In questa gen ci sono anche 4070ti Super dual fan: https://www.asus.com/motherboards-components/graphics-cards/dual/dual-rtx4070tis-16g/
Se ti aspetti che facciano una 5090 ITX, penso sia altamente improbabile :sofico:
Legolas84
22-09-2024, 13:11
Le dimensioni dei dissipatori spero rimangano mastodontiche come ora perché riescono a tenere la scheda fresca e far poco rumore.. (e io ho una gainward che sono tra le più rumorose, infatti la 5090 sarà o strix o suprim x)..
Inviato dal mio iPhone utilizzando Tapatalk Pro
Le dimensioni dei dissipatori spero rimangano mastodontiche come ora perché riescono a tenere la scheda fresca e far poco rumore.. (e io ho una gainward che sono tra le più rumorose, infatti la 5090 sarà o strix o suprim x)..
Inviato dal mio iPhone utilizzando Tapatalk Pro
Su un chip grosso come GB202, a meno di liquidarlo con un AIO, non credo ci siano molte opzioni.
Già da GB203 potrebbero proporre qualcosa di più compatto, ma dipende sempre dal PL base.
Una dual fan con i classici due slot di spessore, può essere ottima fino a 200-225w, oltre non la consiglierei francamente.
Cutter90
22-09-2024, 13:36
In che senso?
A seconda della personalizzazione e del PL le dimensioni saranno probabilmente analoghe alle attuali, se ti riferisci ai dissipatori.
In questa gen ci sono anche 4070ti Super dual fan: https://www.asus.com/motherboards-components/graphics-cards/dual/dual-rtx4070tis-16g/
Se ti aspetti che facciano una 5090 ITX, penso sia altamente improbabile :sofico:
La ventus msi è ancora più piccola, quella che ho io, 4070 ti super. E in UV sta sui 66 gradi con impegno 100% in questo periodo
Psycho77
22-09-2024, 15:11
Le dimensioni dei dissipatori spero rimangano mastodontiche come ora perché riescono a tenere la scheda fresca e far poco rumore.. (e io ho una gainward che sono tra le più rumorose, infatti la 5090 sarà o strix o suprim x)..
Inviato dal mio iPhone utilizzando Tapatalk Pro
Se continua così tra due o tre generazioni le gpu saranno grandi quanto un'utilitaria, quindi spero che le dimensioni siano al massimo come la mia ex rtx 3080 tuf oc che raggiungeva i 55 gradi in full load. La gpu più fresca e silenziosa che abbia mai avuto.
Io stavolta, se le dimensioni in altezza saranno accettabili andrò di galax, ma di solito sono le gpu con le dimensioni più generose e se nel caso avrò problemi a farla entrare nel case virerò proprio sulla asus proart che quanto a dimensioni e prestazioni, è quanto di meglio si possa trovare sul mercato.
nessuno29
22-09-2024, 15:21
Dipende dalla sku che usa, e da varie modfiche AI o di microarchitettura.
Se usa GB206 come 5060ti, c'è il rischio di trovarsi una simil 4070 da 8/16gb a 399/499$.
Non mi aspetto grossi salti in quelle fasce.
La vedo come gen. refresh, ne più ne meno, con miglioramenti lato RT core (per PT)/tensor e OFA..
5-7 anni fa stagnava la fascia sui 250 euro a livello prestazionale, adesso quella da 550 euro assurda la fine che sta facendo il pc gaming.
5-7 anni fa stagnava la fascia sui 250 euro a livello prestazionale, adesso quella da 550 euro assurda la fine che sta facendo il pc gaming.
il futuro sono abbonamenti via streaming. Non possiedi nulla e sei felice (finché paghi l'abbonamento)
5-7 anni fa stagnava la fascia sui 250 euro a livello prestazionale, adesso quella da 550 euro assurda la fine che sta facendo il pc gaming.
Se devo essere franco, oggi le prestazioni abbondano, 5-7 anni fa con un notebook da 800-1000€ te lo sognavi di farci girare AAA con dettagli quasi maxati.
Oggi con chip come 4050/4060, con DLSS e frame gen, praticamente tiri su qualsiasi cosa.
Anche dispositivi come le handheld te li sognavi, quindi, non vedo nessuna fine strana per il pc gaming, anzi...
Ovvio che per chi punta sempre al target di fascia alta si ritrova a spendere, ma lo ha sempre fatto, una volta si andava di configurazioni dual/quad sli/cross, oggi si vira direttamente sui chipponi.
Se devo essere franco, oggi le prestazioni abbondano, 5-7 anni fa con un notebook da 800-1000 te lo sognavi di farci girare AAA con dettagli quasi maxati.
Oggi con chip come 4050/4060, con DLSS e frame gen, praticamente tiri su qualsiasi cosa.
Anche dispositivi come le handheld te li sognavi, quindi, non vedo nessuna fine strana per il pc gaming, anzi...
Ovvio che per chi punta sempre al target di fascia alta si ritrova a spendere, ma lo ha sempre fatto, una volta si andava di configurazioni dual/quad sli/cross, oggi si vira direttamente sui chipponi.
No, con il costo di uno SLI di 1080 (2x500$) non ottieni il chippone, e nella stessa fascia di oggi sei a oltre 2 volte il prezzo di una singola GPU. Dubito che le 5000 cambino molto, il frame generation non conta davvero, non è garantito ovunque e ha limiti.
Oggi per il chippone devi aggiungere un 50% in più rispetto allo SLI, e la 5090 probabilmente non scenderà sotto i 1500. Anche confrontando con la 4080, che è nella stessa fascia, stiamo comunque oltre i 1000, quindi 2x.
Direi che non va bene per niente, poi per noi appassionati ok, la giustifichiamo come passione e ci sta, ma siamo a livelli davvero indecenti
La 1080 è un chippino da 314mmq, e Pascal già fa parte di un periodo in cui le dual gpu non esistevano, anche il chippone come 1080ti era di base limitato a 250-300w, tralasciando le custom.
Al più dovresti fare uno sli di 1080ti per equipararle agli attuali chip tirati a morte, la vecchia 1080 sia per consumi che per dimensioni del die al massimo la puoi confrontare con una 4070s attuale.
mikael84
22-09-2024, 19:31
Pascal è al momento il salto più grande di sempre o quasi.
Pensiamo che 8 GPC pascal sarebbero rientrati in un 628mm2 (lo stesso die di ampere) con 5120cc x 512bit.
Un bestione da 350-450watt che avrebbe oscurato una 2080ti in raster o poco ci mancava.
Discorso diverso da lovelace, dove il salto è mastodontico per via anche della fascia da 450watt. Con il limite a 250, il max è AD104.
Con blackwell ancora non se ne discute, ma la densità dei 4nmp, non è certo distante da quella dei 4n (che sono 5nm mod non 4nm), e questo potrebbe essere un bel problema.
Già mantenere GB203 sui 370mm2, significherebbe, avere un chip simil tesla per GB202.
GB203 ad esempio, sarà un AD103, ma che per mantenere quella dimensione, dovrà utilizzare densità extra, ed il margine è poco, visto che rispetto ad AD103 avrà abbastanza più transistor.
Pensiamo che AD106/128bit, ha 22,9mtransistor vs i 28,4 di GA102 3090TI, e AD104 ne integra il 30% in più.
Pascal è al momento il salto più grande di sempre o quasi.
Pensiamo che 8 GPC pascal sarebbero rientrati in un 628mm2 (lo stesso die di ampere) con 5120cc x 512bit.
Un bestione da 350-450watt che avrebbe oscurato una 2080ti in raster o poco ci mancava.
Discorso diverso da lovelace, dove il salto è mastodontico per via anche della fascia da 450watt. Con il limite a 250, il max è AD104.
Con blackwell ancora non se ne discute, ma la densità dei 4nmp, non è certo distante da quella dei 4n (che sono 5nm mod non 4nm), e questo potrebbe essere un bel problema.
Già mantenere GB203 sui 370mm2, significherebbe, avere un chip simil tesla per GB202.
GB203 ad esempio, sarà un AD103, ma che per mantenere quella dimensione, dovrà utilizzare densità extra, ed il margine è poco, visto che rispetto ad AD103 avrà abbastanza più transistor.
Pensiamo che AD106/128bit, ha 22,9mtransistor vs i 28,4 di GA102 3090TI, e AD104 ne integra il 30% in più.
Fa davvero riflettere che un chip 102 della fascia altissima della serie prima, viene eguagliato dalla fascia bassa come numero di transistor
Poi ovviamente complice il pp li metti in meno spazio, ma se da blackwell ad ada non cambia granché come pp, questo vuol dire che i chip saranno simili come densità e quindi dimensioni?
mikael84
23-09-2024, 01:05
Fa davvero riflettere che un chip 102 della fascia altissima della serie prima, viene eguagliato dalla fascia bassa come numero di transistor
Beh, no, siamo passati da una derivazione dei 10nm samsung, ad un 5nm di TSMC. Questo ha portato a 2,85x di transistor effettivi impillati.
Il punto di forza del salto nodo, è soprattutto quello, come dovevano essere i 3nm (anche se non certo a quei livelli).
Una 3090ti, a 5nm sarebbe a cavallo tra AD106 a 104.
Poi ovviamente complice il pp li metti in meno spazio, ma se da blackwell ad ada non cambia granché come pp, questo vuol dire che i chip saranno simili come densità e quindi dimensioni?
Qua dipende dai transistor finali, e da quanto riesci ad impillarne usando il 4np.
Il 4np usato da zen5 ha lo stesso ratio di lovelace per dire, ma si può andare oltre, tanto che il teorico di logica/sram è di 146mt x mm2 vs 137.
GB203, è AD103 con i tensor nuovi, rt core nuovi etc, quindi la densità dev'essere spremuta, altrimenti sali a 450circa, e GB202 è oltre il doppio.
Anche riuscendo a rimanere sui 378mm2, GB202 è oltre il doppio, e di certo non puoi proporre fasce da over 7-800 con questa nanometria. Non hai rese.
In che senso?
A seconda della personalizzazione e del PL le dimensioni saranno probabilmente analoghe alle attuali, se ti riferisci ai dissipatori.
In questa gen ci sono anche 4070ti Super dual fan: https://www.asus.com/motherboards-components/graphics-cards/dual/dual-rtx4070tis-16g/
Se ti aspetti che facciano una 5090 ITX, penso sia altamente improbabile :sofico:
Allora devo aspettare le prossime AMD tra 2 anni, la XT è piccina.
Pascal è al momento il salto più grande di sempre o quasi.
Ni, non si puo' ignorare Maxwell uscisse di fabbrica piuttosto underclockato (non ci dimentichiamo le 980ti che passavano da 1000 a 1400 mhz base piuttosto facilmente, piu di una persona qui dentro le ha portate a quasi 1500 stabili) mentre Pascal uscivano di fabbrica voltate e clockate relativamente alte e con margine di OC piuttosto basso.
Alla fine della fiera Pascal beneficiava quasi esclusivamente di PP migliore e frequenze di fabbrica superiori.
https://www.tweaktown.com/news/100633/geforce-rtx-5090-could-ship-with-two-16-pin-power-connectors-require-new-psu/index.html
Non so se è stato già postato, nel caso...
https://www.tweaktown.com/news/100633/geforce-rtx-5090-could-ship-with-two-16-pin-power-connectors-require-new-psu/index.html
hahahaha
ninja750
23-09-2024, 11:21
sarebbe la conferma che sia davvero un x2 rispetto alle 4080 per come le conosciamo oggi
certo che ormai la situazione è sfuggita di mano
https://www.tweaktown.com/news/100633/geforce-rtx-5090-could-ship-with-two-16-pin-power-connectors-require-new-psu/index.html
Non so se è stato già postato, nel caso...
https://i.ibb.co/F5cT9sf/Fe-XWa-Ia-AAA5-Hg-I.jpg (https://ibb.co/jyqXdVx)
the new rtx 5090.
mikael84
23-09-2024, 11:35
Ni, non si puo' ignorare Maxwell uscisse di fabbrica piuttosto underclockato (non ci dimentichiamo le 980ti che passavano da 1000 a 1400 mhz base piuttosto facilmente, piu di una persona qui dentro le ha portate a quasi 1500 stabili) mentre Pascal uscivano di fabbrica voltate e clockate relativamente alte e con margine di OC piuttosto basso.
Alla fine della fiera Pascal beneficiava quasi esclusivamente di PP migliore e frequenze di fabbrica superiori.
Vero Maxwell aveva un perf/watt non tanto distante da pascal, e fu soprattutto lato IPC non nodo. Quindi da quel punto di vista era molto buono.
Tuttavia passava la 780ti di appena il 40%, ed aveva un 600mm2, pascal con lo stesso die poteva fare un 2x, quindi per die, è stato uno dei salti più grandi di sempre.
Sul clock ni. Andava per asic. Io che avevo un +62, partivo da 1164 (non 1000) e piombavo a 1400, quindi 20% buono. I 1500 non erano semplici da prendere stabili, e cmq per asic partivi da 1240.
Bene o male anche Pascal saliva, quasi a quei valori, in quanto downclockava.
https://www.computerbase.de/2016-05/geforce-gtx-1080-test/6/
Io l'avevo tirata la 1080, quasi a 2100.;)
Ora come ora, servirebbe proprio un maxwell 2.0, e non solo cuda x clock max.
La 5090 ad esempio, con 8 TPC, avrebbe la possibilità di rasterizzare a 32 pixel, e quindi la prima serie nvidia con 32 rop's per GPC, ma difficilmente lo farà.
https://www.tweaktown.com/news/100633/geforce-rtx-5090-could-ship-with-two-16-pin-power-connectors-require-new-psu/index.html
Non so se è stato già postato, nel caso...
Purtroppo ci può stare.
Ni, non si puo' ignorare Maxwell uscisse di fabbrica piuttosto underclockato (non ci dimentichiamo le 980ti che passavano da 1000 a 1400 mhz base piuttosto facilmente, piu di una persona qui dentro le ha portate a quasi 1500 stabili) ...
Momento amarcord
Cavolo se salivano! 970 tirata a 1620 <3
https://www.hwupgrade.it/forum/showpost.php?p=46166887&postcount=28895
Scusate ot
Purtroppo ci può stare.
Sicuramente meglio veicolare 600w+ su due connettori invece che su uno, certo è che molti ali anche potenti, di connettori 12v-2x6 ne hanno uno solo.
fraussantin
23-09-2024, 13:00
https://www.tweaktown.com/news/100633/geforce-rtx-5090-could-ship-with-two-16-pin-power-connectors-require-new-psu/index.html
Non so se è stato già postato, nel caso...Potrebbero anche essere solo le custom oc che spingendosi oltre i 600 w e su un cinnettore andrebbero fuori specifica.
La fe dovrebbe stare sotto i 600 .
Dovrebbero mettere la classe energetica anche dell'hw pc .
Magari la piantano di strizzare a stock ste schede fino all'assurdo
Cutter90
23-09-2024, 13:02
Sicuramente meglio veicolare 600w+ su due connettori invece che su uno, certo è che molti ali anche potenti, di connettori 12v-2x6 ne hanno uno solo.
Secondo me non ha senso infatti. 675 watt bastano e avanzano anche per la 5090. O meglio, sarà meglio che lo sia.
fraussantin
23-09-2024, 13:07
O magari nvidia ci soprrenderà col ritorno dello sli :cool:
Cutter90
23-09-2024, 13:15
O magari nvidia ci soprrenderà col ritorno dello sli :cool:
Che se fosse quello frega zero :D
caccapupu91
23-09-2024, 13:38
che animo nobile nvidia a dar cibo per i nuovi power supply :asd:
il 770 sli :cry:
edit: ho visto dopo il PRIME PX-2200
Psycho77
23-09-2024, 13:55
Ni, non si puo' ignorare Maxwell uscisse di fabbrica piuttosto underclockato (non ci dimentichiamo le 980ti che passavano da 1000 a 1400 mhz base piuttosto facilmente, piu di una persona qui dentro le ha portate a quasi 1500 stabili) mentre Pascal uscivano di fabbrica voltate e clockate relativamente alte e con margine di OC piuttosto basso.
Alla fine della fiera Pascal beneficiava quasi esclusivamente di PP migliore e frequenze di fabbrica superiori.
I bei tempi, quando evga vendeva e prezzava le gpu sul suo sito in base all'ASIC. (ricordo le kingpin vendute a 1200/1300 euro LOL)
Termini non consoni., vendendo gpu in base alla qualità del silicio e a peso d'oro.:fagiano:
All'epoca avevo una gtx 980 ti della zotac con un asic osceno, che quando accendevo il pc sembrava di sentire il rombo di un jumbo in fase di decollo.:sofico:
marbasso
23-09-2024, 15:12
Sicuramente meglio veicolare 600w+ su due connettori invece che su uno, certo è che molti ali anche potenti, di connettori 12v-2x6 ne hanno uno solo.
Nessun problema, usi un 2x8pin pcie@12vhpwr (il 12v2x6 è solo il connettore lato psu o vga, il cavo è il medesimo).
Con 20€ te la cavi se non vuoi il modello uber rgb
scorpion73
23-09-2024, 19:58
Nessun problema, usi un 2x8pin pcie@12vhpwr (il 12v2x6 è solo il connettore lato psu o vga, il cavo è il medesimo).
Con 20€ te la cavi se non vuoi il modello uber rgb
Io non lo farei su una scheda come quella: chi prende una scheda come la 5090 che costerà 8 reni può prendere una PSU adeguata invece di fare un accrocco come quello che hai detto tu (perdonami ci tengo a dire scanso equivoci che non è verso di te ma verso la soluzione ovviamente) , che mixa connettori ATX 2 e ATX 3.1, con relativo casino nella gestione della tensione, visto che tu non sai se le schede nuove saranno ancora in grado di funzionare bene con gli adattatori, e comunque io almeno non lo farei a priori.
Comunque una scheda del genere a prescindere dal prezzo la lascio a scaffale, perché è un insulto al risparmio energetico e all'efficienza richiedere quasi 1kw per funzionare.
scorpion73
23-09-2024, 19:59
Purtroppo ci può stare.
Sarebbe una cacata a livelli mastodontici: è ora che mettano dei freni: ci menano le scatole con le macchine elettriche e poi dopo ci propinano ste mondezze energivore, per giocare poi...
marbasso
23-09-2024, 20:12
Io non lo farei su una scheda come quella: chi prende una scheda come la 5090 che costerà 8 reni può prendere una PSU adeguata invece di fare un accrocco come quello che hai detto tu (perdonami ci tengo a dire scanso equivoci che non è verso di te ma verso la soluzione ovviamente) , che mixa connettori ATX 2 e ATX 3.1, con relativo casino nella gestione della tensione, visto che tu non sai se le schede nuove saranno ancora in grado di funzionare bene con gli adattatori, e comunque io almeno non lo farei a priori.
Comunque una scheda del genere a prescindere dal prezzo la lascio a scaffale, perché è un insulto al risparmio energetico e all'efficienza richiedere quasi 1kw per funzionare.
Direttamente dalle spec atx3.1:
<<If a PSU uses 2x 8pin headers on its modular board to power the 12VHPWR (or 12V-2×6) cable, it is automatically ATX v3.1 compliant (provided it follows the rest of the requirements).>>
Infatti la mia psu è atx 3.1 (quindi soddisfa anche la + tosta atx3.0) e pcie5.1 ed utilizza 2 cavi con connettori 2x8pin@12vhpwr.
I sense pin poi solo 2 sono connessi a terra, gli altri due sono inutili e facoltativi. Sempre da atx spec.
Non scrivo cazzate, se scrivo è perchè lo so.
Prima di commentare informiamoci.
edit
E aggiungo anche un' altra cosa, <<un dettaglio che la maggior parte degli utenti ignora è che il cavo rimane lo stesso ! Non c'è alcuna modifica al cavo che collega il pin 12+4 dell'alimentatore (o 2x 8 pin) all'intestazione pin 12+4 della scheda grafica! Per darti un quadro completo, c'è una differenza: lo schema di denominazione! Invece di cavo 12VHPWR, ora si chiama cavo 12V-2×6>>
Quelli che cambiano meccanicamente sono i connettori lato psu e lato vga, da 12vhpwr a 12v2x6.
.
aled1974
23-09-2024, 20:46
https://www.tweaktown.com/news/100633/geforce-rtx-5090-could-ship-with-two-16-pin-power-connectors-require-new-psu/index.html
Non so se è stato già postato, nel caso...
speriamo che questa v1 gli esca meglio della v1 precedente
mi associo alle risate e allo sconforto generale :mano:
ciao ciao
Psycho77
23-09-2024, 21:00
https://thinglabs.io/nvidia-rtx-5080-expected-release-date-now-pushed-back-to-2025
Gennaio/febbraio 2025, ogni speranza per questo anno mi sa che è ormai sfumata come diceva Mikael.
mikael84
23-09-2024, 21:17
Sarebbe una cacata a livelli mastodontici: è ora che mettano dei freni: ci menano le scatole con le macchine elettriche e poi dopo ci propinano ste mondezze energivore, per giocare poi...
Infatti nvidia sta completamente spostando la fascia GB202 pro dal resto. Sulle ex tesla HPC è arrivata al kw. GB200 consuma 1000 watt.
GB203, è meno della metà, tralasciando i cut, e sarà una simil 4070 super vs 4090 un abisso.
Raggiungere 40-50% ipotetico di perf/watt è davvero allucinante e miracoloso da parte dei progettisti (in un nodo molto vicino a quello di ADA), a meno che non abbiano tirato fuori un maxwell 2.0, sfruttando però il colabrodo kepler.
Se non riescono, alzi i watt c'è poco da fare.
Ampere 3080 è il 55% più veloce della 2080, col 55% circa di consumo.
Purtroppo, ad oggi, se ci fossimo fermati a 250watt, i top chip, sarebbero GA104 e AD104, e se a 450watt gli esce un +10-15% di perf, penso che verrebbe messa in croce per i pochi risultati.
Le strade sono queste.
scorpion73
23-09-2024, 22:08
Direttamente dalle spec atx3.1:
<<If a PSU uses 2x 8pin headers on its modular board to power the 12VHPWR (or 12V-2×6) cable, it is automatically ATX v3.1 compliant (provided it follows the rest of the requirements).>>
Infatti la mia psu è atx 3.1 (quindi soddisfa anche la + tosta atx3.0) e pcie5.1 ed utilizza 2 cavi con connettori 2x8pin@12vhpwr.
I sense pin poi solo 2 sono connessi a terra, gli altri due sono inutili e facoltativi. Sempre da atx spec.
Non scrivo cazzate, se scrivo è perchè lo so.
Prima di commentare informiamoci.
edit
E aggiungo anche un' altra cosa, <<un dettaglio che la maggior parte degli utenti ignora è che il cavo rimane lo stesso ! Non c'è alcuna modifica al cavo che collega il pin 12+4 dell'alimentatore (o 2x 8 pin) all'intestazione pin 12+4 della scheda grafica! Per darti un quadro completo, c'è una differenza: lo schema di denominazione! Invece di cavo 12VHPWR, ora si chiama cavo 12V-2×6>>
Quelli che cambiano meccanicamente sono i connettori lato psu e lato vga, da 12vhpwr a 12v2x6.
.
Non fare il permaloso. In ogni caso rimane comunque un accrocco del cavolo che non ha ne arte ne parte.
Su una x90 vanno fatte le cose per bene.
Infatti nvidia sta completamente spostando la fascia GB202 pro dal resto. Sulle ex tesla HPC è arrivata al kw. GB200 consuma 1000 watt.
GB203, è meno della metà, tralasciando i cut, e sarà una simil 4070 super vs 4090 un abisso.
Raggiungere 40-50% ipotetico di perf/watt è davvero allucinante e miracoloso da parte dei progettisti (in un nodo molto vicino a quello di ADA), a meno che non abbiano tirato fuori un maxwell 2.0, sfruttando però il colabrodo kepler.
Se non riescono, alzi i watt c'è poco da fare.
Ampere 3080 è il 55% più veloce della 2080, col 55% circa di consumo.
Purtroppo, ad oggi, se ci fossimo fermati a 250watt, i top chip, sarebbero GA104 e AD104, e se a 450watt gli esce un +10-15% di perf, penso che verrebbe messa in croce per i pochi risultati.
Le strade sono queste.Penso che esagerando, sulla falsariga della 1080ti/titan xp, per 250w, potevano proporre un chip da 12k CUDA e 384bit, con clock e tensioni più rilassate.
In passato chip del genere lasciavano anche più spazio agli aib per le custom più spinte, vedi la 2080ti, un chip con un potenziale altissimo ma menomato dal pl base di 250w, con una buona custom non era molto lontano da una 3080.
Ora é tutto piatto, guardi solo il pl e il dissipatore praticamente, e si và di undervolt.
Inviato dal mio M2012K11AG utilizzando Tapatalk
ninja750
24-09-2024, 08:04
Purtroppo, ad oggi, se ci fossimo fermati a 250watt, i top chip, sarebbero GA104 e AD104
saremmo messi davvero così male con i competitor con lo stesso cap energivoro? devono per forza mettere un freno ai consumi altrimenti arrivati al limite del PP oggi aggiungiamo 300w domani alotri 400w dopodomani abbiamo una centrale nucleare
marbasso
24-09-2024, 08:30
Non fare il permaloso. In ogni caso rimane comunque un accrocco del cavolo che non ha ne arte ne parte.
Su una x90 vanno fatte le cose per bene.
Bo va be. Ti ricordo che 2x8 PIN reggono più di un 12vhpwr.
E se le spec atx dicono una cosa puoi stare sereno.
Poi ognuno la vede a modo suo. Anche Corsair fino ad oggi ha usato solo 2x8pin, passando al 12v2x6 solo con gli ultimi RM.
Che poi il problema era ed è molto chiaro, il connettore 12vhpwr delle PSU e delle VGA, non gli 8 pin ne il cavo.
Ed il tuo vertex ad esempio essendo 3.0 monta l'incriminato 12vhpwr.
Se fosse stato 3.1 con 2x8pin rispettando anche le altre spec saresti stato ok, perché il cavo è sempre uguale meccanicamente, sono i connettori sulle periferiche che differiscono tra 3.0 e 3.1 (12vhpwr e 12v2x6). 3.0 con 12vhpwr è obsoleto con 2x8pin no.
Però paradossalmente con un cavo 2x8pin @ 16pin saresti messo meglio di ora.
Non lo dico io, lo dice Intel.
Ciao
marbasso
24-09-2024, 10:32
https://www.techpowerup.com/326912/nvidia-rtx-5090-blackwell-could-feature-two-16-pin-power-connectors
Due x 16pin LOL
I am ready.
https://www.techpowerup.com/326912/nvidia-rtx-5090-blackwell-could-feature-two-16-pin-power-connectors
Due x 16pin LOL
I am ready.
https://www.youtube.com/watch?v=GY8vhwVvhWM
:sofico:
non vedo l'ora di vederle all'opera :D
RoUge.boh
24-09-2024, 10:45
Sono pronti...
https://www.techpowerup.com/326869/seasonic-launches-the-new-prime-px-2200-power-supply
https://www.techpowerup.com/img/85fKs5JKh1OwUu4I.jpg
Sono pronti...
https://www.techpowerup.com/326869/seasonic-launches-the-new-prime-px-2200-power-supply
https://www.techpowerup.com/img/85fKs5JKh1OwUu4I.jpg
Meravigliosi :love:
saremmo messi davvero così male con i competitor con lo stesso cap energivoro? devono per forza mettere un freno ai consumi altrimenti arrivati al limite del PP oggi aggiungiamo 300w domani alotri 400w dopodomani abbiamo una centrale nucleare
Miglioramenti a pari consumo devono sempre esserci, altrimenti si va in stallo.
Che poi vogliano proporre nuove fasce con consumi più alti è un'altra storia.
Comunque pure in passato ci andavano pesanti con le custom, ricordo ancora la R9 295x2 Devil13, un mostro con 4x8pin:
https://elchapuzasinformatico.com/wp-content/uploads/2014/06/PowerColor-Radeon-R9-295X2-Devil13-3-600x480.jpg
scorpion73
24-09-2024, 10:58
Miglioramenti a pari consumo devono sempre esserci, altrimenti si va in stallo.
Che poi vogliano proporre nuove fasce con consumi più alti è un'altra storia.
Comunque pure in passato ci andavano pesanti con le custom, ricordo ancora la R9 295 Devil13, un mostro con 4x8pin:
Si ma appunto erano supercustom, schede di nicchia per chi voleva strafare. Qui si parla di due connettori 16 pin sulle founders, di alimentatori da 2200W.
Siamo alla follia pura e più totale, fra poco servirà un contratto dell'Enel solo per giocare.
Stiamo sfiorando il ridicolo onestamente, anzi, ci siamo dentro con tutto il braccio...
Scaffale è l'unica parola che ci vuole per sta roba. Io andrò di 5080, se non costa una follia e non va come la 4090, altrimenti amen, per la prima volta nella mia storia "computeresca" passerò la mano.
Ma onestamente schede del genere, può essere un mio personale pensiero, ma non le reputo schede da gamers, cosi come 10 anni fa non reputavo tali le varie configurazioni tri e quad sli/cross considerando anche il pessimo scaling.
Già lo sli e le dual gpu, le vedevo molto bordline, comunque non è che sei obbligato ad acquistare, nel target dei 225-250w credo sia fattibile vedere un chip con prestazioni simil 4080
mikael84
24-09-2024, 12:33
Penso che esagerando, sulla falsariga della 1080ti/titan xp, per 250w, potevano proporre un chip da 12k CUDA e 384bit, con clock e tensioni più rilassate.
In passato chip del genere lasciavano anche più spazio agli aib per le custom più spinte, vedi la 2080ti, un chip con un potenziale altissimo ma menomato dal pl base di 250w, con una buona custom non era molto lontano da una 3080.
Ora é tutto piatto, guardi solo il pl e il dissipatore praticamente, e si và di undervolt.
Inviato dal mio M2012K11AG utilizzando Tapatalk
Fondamentalmente non avrebbe senso spendere in grossi die per piombarli e lasciare tutto il margine agli AIB, visto che quei watt li tireresti fuori ugualmente. Se lo piombi, ipotizzando a 950mv (BB) per 2500, sicuramente guadagni in consumi, ma in linea di massima paghi per avere di meno, visto che a loro costano lo stesso tanto.
Certo con qualche compromesso, riesci sicuramente a fare meglio.
Ricordo inoltre che ormai le gpu si stanno spostando nel pro. GB200 è tarata per il kw vs i 400watt della Ampere.
saremmo messi davvero così male con i competitor con lo stesso cap energivoro? devono per forza mettere un freno ai consumi altrimenti arrivati al limite del PP oggi aggiungiamo 300w domani alotri 400w dopodomani abbiamo una centrale nucleare
Il competitor non avrebbe tirato fuori navi31. Cmq i chip nvidia, soprattutto x02 sono più da pro che da gaming. GB200 è arrivata al kw. La gente chiede prestazioni a qualsiasi costo.
In campo mainstream, probabilmente si andrà a passetti, e si distaccherà sempre più il big chip dal resto.
Da GB202 a 03, è come se nel paragone con AMD si passasse da navi31 ad un chip con circa 2600shader.
Bo va be. Ti ricordo che 2x8 PIN reggono più di un 12vhpwr.
E se le spec atx dicono una cosa puoi stare sereno.
Poi ognuno la vede a modo suo. Anche Corsair fino ad oggi ha usato solo 2x8pin, passando al 12v2x6 solo con gli ultimi RM.
Che poi il problema era ed è molto chiaro, il connettore 12vhpwr delle PSU e delle VGA, non gli 8 pin ne il cavo.
Ed il tuo vertex ad esempio essendo 3.0 monta l'incriminato 12vhpwr.
Se fosse stato 3.1 con 2x8pin rispettando anche le altre spec saresti stato ok, perché il cavo è sempre uguale meccanicamente, sono i connettori sulle periferiche che differiscono tra 3.0 e 3.1 (12vhpwr e 12v2x6). 3.0 con 12vhpwr è obsoleto con 2x8pin no.
Però paradossalmente con un cavo 2x8pin @ 16pin saresti messo meglio di ora.
Non lo dico io, lo dice Intel.
Ciao
2x8 pin AWG16 forniscono 600watt, lo stesso del cavetto.
AMD, ad esempio, nella GPU di belta, ha messo 2x8 AWG16, e lo faceva anche nelle dual gpu.
ninja750
24-09-2024, 13:40
Cmq i chip nvidia, soprattutto x02 sono più da pro che da gaming. GB200 è arrivata al kw. La gente chiede prestazioni a qualsiasi costo.
In campo mainstream, probabilmente si andrà a passetti, e si distaccherà sempre più il big chip dal resto.
la gente pro non è la gente da gaming, settore nel quale i consumi dovrebbero avere ancora una enorme rilevanza
chiaro che se tarano tutto per quei 4 inscimmiati che vogliono le super prestazioni fosse anche con 10kw non si va da nessuna parte e ovviamente i cut a seguire saranno da 5kw a scendere
che voglio dire, tutto ok io prendo la 250w fintanto che poi gli sviluppatori non tarano i setup ultra setting su quei mostri
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.