View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
mikael84
21-04-2023, 11:38
Ma come, non erano il punto di ingresso a Lovelace?
Inviato dal mio Pixel 6 utilizzando Tapatalk
L'unica lovelace degna è la 4090.
Questa scheda oltre al prezzo, è stata criticata per le performance, molti si aspettavano una 3080ti in tutto e per tutto. E con questo nodo per prendere una 3080ti basta davvero niente.
Che sia da monito per le prossime sku ad106/107, non si azzardino a lanciare quella 4060 ti con 8gb di vram a 500 euro. :rolleyes:
399$ sicuri, poi se ha il coraggio di fare 449, beh...
Infatti, come riportavano su wccf " un calo a 549$ per le 4070, ammazzerebbe le 4060ti, che sarebbero troppo vicine".
Cmq in fascia medio-bassa, si sapeva da tempo che sarebbe stato un bel casotto.
Avevo letto che oltre al rinnovato optical flow accelerator Ada aggiunge alcune features non ancora utilizzate, nemmeno per il PT di Cyberpunk.
Ma se è come dici tanto meglio, così il primo che rompe perché la prossima Switch userà Ampere anziché Lovelace gli sparo una testata sulle gengive :asd:
Non credo ci saranno stravolgimenti comunque, ma un piccolo boost dovuto alla maturità dei driver (come è sempre avvenuto) in combinazione con gli altri elementi menzionati che sarà sufficiente perché la scheda non le prenda dalla 3080 in praticamente nessun caso coi prossimi titoli, tranne qualche raro caso (in 4K) dove i vantaggi in termini di bus e bandwidth delle 3080 risulteranno particolarmente importanti.
Lol, piuttosto limitassero il prezzo questi buffoni :asd:
Internamente è 1:1, fatto salvo per RT core, cache e struttura, tensor. I vantaggi di Lovelace sono nel path tracing (anche se non stravolgente), in tutto il resto è uguale.
Dalla prossima gen, probabilmente rivedranno la microarchitettura, allora si che in seguito ci potrebbero essere differenza in base ai titoli.
che è la conferma che piuttosto che calare di prezzo, preferiscono non vendere e produrne meno
Chiaro, l'ha detto pure AMD che per ora giocano così. Tuttavia, i wafer sono prenotati e prima o poi li dovranno consumare. E' chiaro che l'anno prossimo vedremmo la 5090, e Lovelace farà come ampere per molto tempo.
Nvidia cmq, i wafer può consumarli tranquillamente nei datacenter, visto che data la mole, ogni 30 chip un wafer viene bruciato.
Cutter90
21-04-2023, 12:30
il punto è che il messaggio che si vuole far passare è che una vga che in 4K fa 30fps, con il FG diventano 60fps. mantenendo pari esperienza ludica pari risultato visivo (artefatti) in tutti i giochi e pari latenza rispetto ad altra vga 60fps nativi
da un lato sono curioso di vedere se quando uscirà la 5090 che farà +50% sulla 4090 se considereranno ancora questo FG, o se visto che il tutto potrebbe girare in nativa lo metteranno nel cassetto
Ripeto, artefatti zero. Latenza trascurabile con Reflex
mikael84
21-04-2023, 12:40
Va precisato che la 4070 è una scheda per 1440p, ed in tale res va quanto GA102, però in 4k paga troppo la fascia x60. Alcuni giochi la mettono proprio a nudo.
https://i.postimg.cc/28MY146H/di2.png
:muro:
Ma anche no, su trovapre... la differenza é di 40 euro, la 4070 é uscita si puó dire DOMANI quindi ha tutto il suo tempo per assestarsi a livello di price.
Prendere una 6800xt oggi é da co... una scheda che va uguale, consuma molto di piú, rt va meno, non ha FG e ancora e ancora.
Lasciamo perdere, AMD é morta e sepolta ormai.
Come fate a consigliare ancora 6800xt/6900xt, 3080/3080ti ad oggi che sul nuovo c'é la 4070 che ha l'unico scopo di mandare in pensione ste schede.
p.s anche se le 3080ti e 6900xt vanno poco piú, ma non hanno i vantaggi della nuova.
Si fa eccome, una 6800XT usata si prende dai 500 ero ai 550, è siamo ancora cari, per una scheda che massimo può valere 400 euro usata.
mikael84
21-04-2023, 13:07
p.s menzione d'onore alla 3080 che si comporta veramente bene.
E' ancora una grandissima scheda insieme alle altre GA102. RT di livello, muscle GPU.
La 4080 invece è una roccia, in qualsiasi condizione il 256 bit con i 64mb di cache, non perdono un colpo.
Boh forse non ho colto io, ma se entro su amz la meno cara (6800 XT) é prezzata a 580 nuova.
E qui siamo d'accordo max 400 ma proprio massimo massimo.
Bhe si, sulle 500 puoi prenderti un GA102 decisamente migliore, soprattutto lato RT.
Ale55andr0
21-04-2023, 15:10
E' ancora una grandissima scheda insieme alle altre GA102. RT di livello, muscle GPU.
La 4080 invece è una roccia, in qualsiasi condizione il 256 bit con i 64mb di cache, non perdono un colpo.
Bhe si, sulle 500 puoi prenderti un GA102 decisamente migliore, soprattutto lato RT.
si ma oggi 10 gb non si possono vedere, e l'rt "intensivo" gira con fatica anche li' senza uspcale. Non ci siamo. O ti fai inchiappettare sul nuovo o ripieghi sull'usato con un, appunto, ripiego. Ma di certo se spendo 500 per una 3080 usata tanto vale spenderne 800 per una 4070ti nuova di pacca e con 12, pur calibratissimi al pelo, Gb.
devil_mcry
21-04-2023, 15:12
Comunque col senno di poi, secondo me la 4080 non è tanto male, è un 103 però è fatta bene imho. il problema è solo il prezzo
Ale55andr0
21-04-2023, 15:13
Pensa se avessero messo il FG su queste schede, sarebbero rimasti solo i consumi come contro:D
Le 3090 iper corrazzate di vram full bus non avrebbero temuto nulla da qui alle 5000, altro che 4070ti:D
Il DLSS 2 per quella cmq basta tranquillamente, dove hai il 3 hai cmq anche il 2
Comunque col senno di poi, secondo me la 4080 non è tanto male, è un 103 però è fatta bene imho. il problema è solo il prezzo
Nessuna gpu è male in se, sono i prezzi che le hanno rese una sola. A 399/599/799 4070/70ti/80 erano le gpu migliori di sempre o giu' di della storia nvidia. L'unica che vale il costo è la 90, scesa pure a 1500 per alcune varianti: NON si può vedere la 80 a 1200, è veramente un insulto
Comunque col senno di poi, secondo me la 4080 non è tanto male, è un 103 però è fatta bene imho. il problema è solo il prezzo
Hai centrato la questione. :D
Se analizziamo bene l'architettura è più una x70 che una x80, ma visto che le prestazioni ci sono si può chiudere un occhio.
Il problema è che dalla 4080 in giù sono i prezzi sballati e l'unica scheda che conviene comprare è la 4090 tenendo conto che ora la si trova adirittura a 1600€.
Cmq nei principali mercati il lancio della 4070 è stato giustamente un flop e speriamo che la tendenza rimanga questa perché è l'unico modo per riportare i prezzi delle GPU a un valore normale.
mikael84
21-04-2023, 15:34
Pensa se avessero messo il FG su queste schede, sarebbero rimasti solo i consumi come contro:D
Le 3090 iper corrazzate di vram full bus non avrebbero temuto nulla da qui alle 5000, altro che 4070ti:D
Le 3090 possono tranquillamente saltare la serie, senza avere alcun problema. Anzi sono le uniche che integrano nvlink per i pro. Se non mette il DLSS3, prima o poi metteranno il fsr3, che qualità a parte, funzionerà così.
Io cmq vorrei vedere girare il DLSS3 su ampere, per vedere come gira.:)
si ma oggi 10 gb non si possono vedere, e l'rt "intensivo" gira con fatica anche li' senza uspcale. Non ci siamo. O ti fai inchiappettare sul nuovo o ripieghi sull'usato con un, appunto, ripiego. Ma di certo se spendo 500 per una 3080 usata tanto vale spenderne 800 per una 4070ti nuova di pacca e con 12, pur calibratissimi al pelo, Gb.
Senza upscale il RT è tosto per tutte, almeno nell'intensivo. Basta un quality cmq.
La 4070ti da un sito appena appena decente (bpm) costa 900 euro, ed onestamente tra 2/3 anni, ti ritroveresti a chiamarla roito, come chiami la 3070.
Se non usi upscale, prendere una 3080ti usata(in garanzia)o una 4070ti a 900 ti cambia nulla
Comunque col senno di poi, secondo me la 4080 non è tanto male, è un 103 però è fatta bene imho. il problema è solo il prezzo
Diciamo che se ci fosse il full AD102, si vedrebbe in modo drastico la differenza. Come chip no, non è male, è equilibrato per iniziare a giocare decentemente sul 4k.
Basta far finta che è il reale sostituto della 3080ti, e che si chiami 4080ti. Alla fine a pari MSRP, dopo la 4090 è l'unica a dare uno stacco abbastanza deciso alla precedente.
Ale55andr0
21-04-2023, 15:43
)
Senza upscale il RT è tosto per tutte, almeno nell'intensivo. Basta un quality cmq.
La 4070ti da un sito appena appena decente (bpm) costa 900 euro, ed onestamente tra 2/3 anni, ti ritroveresti a chiamarla roito, come chiami la 3070.
Se non usi upscale, prendere una 3080ti usata(in garanzia)o una 4070ti a 900 ti cambia nulla
La 4090 dissente :O
Ma i 12 Gb non la rendono automaticamente roito (la 70ti intendo ovviamente), sono i 900 di cui parli, i 12Gb in se' oggi sono meglio posizionati degli 8 della 3070 in una fascia che non muoveva il taglio di RAM da eoni ed era decisamente ora di farlo da allora....
Cmq personalissimamente oggi, ammesso di riuscire a (s)vendere la mia 3070/1700x/ram io guarderei per l'upgrade solo due schede: 7800XT ammesso esisterà e avrà 16GB o la 7900XT se riuscissi a spuntare un buon prezzo dall'amico del cugino etc bla bla visto che al lancio all'ingrosso la XTX veniva "appena" 800 e parliamo della top.... L'RT "serio" senza di mezzo upscale (non mi piace, se ne facciano una ragione gli apostoli di giacco) è roba dalla 80 in su, non lo considero. Non riesco proprio a vedere quel bus a 192 e quel 12pin da sdoppiare/striplare dalla 70ti in su, men che meno a QUEL prezzo immondo
devil_mcry
21-04-2023, 15:54
https://www.techpowerup.com/307110/amd-plays-the-vram-card-against-nvidia
ahahahha TOP
mikael84
21-04-2023, 15:59
La 4090 dissente :O
Che mi pare di capire non è il tuo genere.
Ma i 12 Gb non la rendono automaticamente roito, sono i 900 di cui parli, i 12Gb in se' oggi sono meglio posizionati degli 8 della 3070 in una fascia che non muoveva il taglio di RAM da eoni ed era decisamente ora di farlo....
Cmq personalissimamente oggi, ammesso di riuscire a (s)vendere la mia 3070/1700x/ram io guarderei per l'upgrade solo due schede: 7800XT ammesso esisterà e avrà 16GB o la 7900XT se riuscissi a spuntare un buon prezzo dall'amico del cugino etc bla bla visto che al lancio all'ingrosso la XTX veniva "appena" 800 e parliamo della top.... L'RT "serio" senza di mezzo upscale (non mi piace, se ne facciano una ragione gli apostoli di giacco) è roba dalla 80 in su, non lo considero. Non riesco proprio a vedere quel bus a 192 e quel 12pin da sdoppiare/striplare dalla 70ti in su, men che meno a QUEL prezzo immondo
i 192bit offrono la stessa ampiezza banda della 6900xt alla fine, perdono un tantino, quando vengono paragonate a quello delle GA102. La 4070 soffre ancora di più, perchè la cache è davvero troppo poca, ed anche le rop's sono appena 64.
Il RT intensivo sulla 7800xt scordatelo senza upscale, ma anche sulla 7900xt, che essenzialmente è una 3080/12. Dipende anche dal frame che sei disposto ad accettare.
LurenZ87
21-04-2023, 16:01
Guardate la questione sotto un altro punto di vista... Forse è sbagliato, ma se si parte che entrambe collaborano per fare cartello (si, sono malizioso su queste cose :P ) il ragionamento fila. Al momento sappiamo tutti il giochino delle nomenclature sulle vga e i prezzi gonfiati, quindi se Nvidia immettesse il supporto al DLSS3 per le Ampere, si darebbe una zappata sui piedi clamorosa e finirebbe di ammazzare le vendite delle attuali 4070/4070Ti. Per AMD sdoganare l'FSR3 su tutte le vga sarebbe la stessa identica cosa, anzi sarebbe pure peggio perché andrebbe davvero a crepare il mercato delle 7900XT/XTX, che pure lì non è tutto rose e fiori, quindi eventualmente me lo aspetto solo su RDNA3 con qualche scusa in stile "supercazzola". Che poi a tutt'oggi è una chimera come il resto della famiglia 7xxx, sempre se ci siano altre schede all'infuori delle top.
Boh, se dovessi cambiare vga, sinceramente non saprei davvero cosa prendere... Puntare sulle 4070/4070Ti, con gpu menomate, con vram centellinata ma dai consumi contenuti e dal supporto alle nuove tecnologie (DLSS3 con FG), puntare alle 3080 12Gb/3080Ti usate, ma con sempre lo stesso problema della vram (la 3080 da 10Gb non la prendo nemmeno in considerazione) ma con consumi decisamente più elevati e senza supporto al DLSS3+FG, oppure puntare alla concorrenza con 6800XT/6900XT ed avere molta più vram, potenza bruta in raster, consumi sempre superiori alle Lovelace ma senza DLSS e un RT degno di nota.
Davvero, come la si giri si giri sempre in cxxo al videogiocatore va :/
Inviato dal mio Pixel 7 utilizzando Tapatalk
appleroof
21-04-2023, 16:23
Guardate la questione sotto un altro punto di vista... Forse è sbagliato, ma se si parte che entrambe collaborano per fare cartello (si, sono malizioso su queste cose :P ) il ragionamento fila. Al momento sappiamo tutti il giochino delle nomenclature sulle vga e i prezzi gonfiati, quindi se Nvidia immettesse il supporto al DLSS3 per le Ampere, si darebbe una zappata sui piedi clamorosa e finirebbe di ammazzare le vendite delle attuali 4070/4070Ti. Per AMD sdoganare l'FSR3 su tutte le vga sarebbe la stessa identica cosa, anzi sarebbe pure peggio perché andrebbe davvero a crepare il mercato delle 7900XT/XTX, che pure lì non è tutto rose e fiori, quindi eventualmente me lo aspetto solo su RDNA3 con qualche scusa in stile "supercazzola". Che poi a tutt'oggi è una chimera come il resto della famiglia 7xxx, sempre se ci siano altre schede all'infuori delle top.
Boh, se dovessi cambiare vga, sinceramente non saprei davvero cosa prendere... Puntare sulle 4070/4070Ti, con gpu menomate, con vram centellinata ma dai consumi contenuti e dal supporto alle nuove tecnologie (DLSS3 con FG), puntare alle 3080 12Gb/3080Ti usate, ma con sempre lo stesso problema della vram (la 3080 da 10Gb non la prendo nemmeno in considerazione) ma con consumi decisamente più elevati e senza supporto al DLSS3+FG, oppure puntare alla concorrenza con 6800XT/6900XT ed avere molta più vram, potenza bruta in raster, consumi sempre superiori alle Lovelace ma senza DLSS e un RT degno di nota.
Davvero, come la si giri si giri sempre in cxxo al videogiocatore va :/
Inviato dal mio Pixel 7 utilizzando Tapatalk
Dipende molto dalla vga che si ha, imho
LurenZ87
21-04-2023, 16:32
Dipende molto dalla vga che si ha, imhoSicuramente, le variabili da prendere in considerazione sono tante, come la vga di provenienza, la risoluzione usata, l'importanza dell'RT e l'uso delle tecnologie di upscaling (DLSS o FSR). L'esempio era riferito alla mia persona, se dovessi fare un cambio dalla 3070 su un monitor 4k.
Inviato dal mio Pixel 7 utilizzando Tapatalk
mikael84
21-04-2023, 16:44
https://www.techpowerup.com/307110/amd-plays-the-vram-card-against-nvidia
ahahahha TOP
Si, però con le slide a sto giro sta un pò esagerando.:p
Tralasciando che paragonare un chip x90 vs uno x70, fa capire come entrambe stiano giocando con le sigle.
Dying light 2 RT, 7900xt vs 4070ti +1%
https://i.postimg.cc/gjmXFVVk/dj-2-post.png
Cmq, AMD ha deciso di puntare sulla ram, in quanto si ritrova a competere con i chippetti nvidia, e di conseguenza si ritrova più ram.
AD104 doveva avere un 256 bit. AMD o non AMD
Per il resto, è in parte un autogol, che me la prendo a fare le 6600 (o le future 7600) con solo 8gb, meglio la 3060 liscia che ne ha 12 (ok non sono da 4k, ma sempre pochi sono).:p
Anche lei presenterà schede da 12 e 8.
devil_mcry
21-04-2023, 17:14
Si, però con le slide a sto giro sta un pò esagerando.:p
Tralasciando che paragonare un chip x90 vs uno x70, fa capire come entrambe stiano giocando con le sigle.
Dying light 2 RT, 7900xt vs 4070ti +1%
https://i.postimg.cc/gjmXFVVk/dj-2-post.png
Cmq, AMD ha deciso di puntare sulla ram, in quanto si ritrova a competere con i chippetti nvidia, e di conseguenza si ritrova più ram.
AD104 doveva avere un 256 bit. AMD o non AMD
Per il resto, è in parte un autogol, che me la prendo a fare le 6600 (o le future 7600) con solo 8gb, meglio la 3060 liscia che ne ha 12 (ok non sono da 4k, ma sempre pochi sono).:p
Anche lei presenterà schede da 12 e 8.
si è un po' trolling un po' verità
il top era più che altro per il trolling ben fatto di lisa
Andy1111
21-04-2023, 18:15
https://gaming.hwupgrade.it/news/videogames/cyberpunk-2077-con-rt-overdrive-il-path-tracing-o-full-ray-tracing-fa-la-differenza_116115.html
A quanto pare sto Path Tracing è stato ridimensionato ....
Non vogliamo farvi perdere tempo, la risposta è che le differenze si vedono appena. Abbiamo fatto due screenshot in 4K, di giorno e di notte, oltre ad alcuni ingrandimenti. Potete vedere che c'è della differenza in come si diffonde la luce, ma da qui a dire che l'esperienza muta, ce ne passa.
devil_mcry
21-04-2023, 18:35
https://gaming.hwupgrade.it/news/videogames/cyberpunk-2077-con-rt-overdrive-il-path-tracing-o-full-ray-tracing-fa-la-differenza_116115.html
A quanto pare sto Path Tracing è stato ridimensionato ....
Non vogliamo farvi perdere tempo, la risposta è che le differenze si vedono appena. Abbiamo fatto due screenshot in 4K, di giorno e di notte, oltre ad alcuni ingrandimenti. Potete vedere che c'è della differenza in come si diffonde la luce, ma da qui a dire che l'esperienza muta, ce ne passa.
ammazza già le performance l'RT normale...
Non gradisco molto i fermo immagine in generale però.
perché parliamoci chiaro, tante opzioni grafiche su PC le noti solo dagli screenshot, quando mentre giochi oggettivamente scompaiono per cui si possono diminuire allegramente guadagnando framerate (magari anche VRAM occupata, dipende).
così come FSR e DLSS al fermo immagine non sono ben valutabili come in game.
anche questo nuovo RT...preferirei vederlo in movimento per dire la mia.
Ale55andr0
21-04-2023, 20:12
Il RT intensivo sulla 7800xt scordatelo senza upscale, ma anche sulla 7900xt, che essenzialmente è una 3080/12. Dipende anche dal frame che sei disposto ad accettare.
infatti ho detto che dell'rt non mi importa più di tanto, non la considero una feature matura per l'hardware attuale salvo i mostri come la 90 (a tratti, perchè se ci vai pesante fai piangere anche quella senza fake pixel e fake frames..) e che, a prescindere, non da' questa sfavillante immagine rispetto a un "raster fatto bene" da meritare quel crollo di frame. Si nota? Si'. Cade la mascella? No, a me almeno. In CP2077 lo attivavo solo sui riflessi dove effettivamente fa la sua figura, ma la GI a tratti era indistinguibile dal raster e laddove si distingueva pareva una storta di effetto "bloom", tutto li'. Persino le ombre le preferivo in raster :asd:
devil_mcry
21-04-2023, 20:45
infatti ho detto che dell'rt non mi importa più di tanto, non la considero una feature matura per l'hardware attuale salvo i mostri come la 90 (a tratti, perchè se ci vai pesante fai piangere anche quella senza fake pixel e fake frames..) e che, a prescindere, non da' questa sfavillante immagine rispetto a un "raster fatto bene" da meritare quel crollo di frame. Si nota? Si'. Cade la mascella? No, a me almeno. In CP2077 lo attivavo solo sui riflessi dove effettivamente fa la sua figura, ma la GI a tratti era indistinguibile dal raster e laddove si distingueva pareva una storta di effetto "bloom", tutto li'. Persino le ombre le preferivo in raster :asd:
No secondo me il punto è che dovrebbe essere usato con cognizione, solo a specifici casi e momenti, come fanno su console
sparare l'intero gioco in rt lo rende più bello ma in alcuni casi ingiocabile
Cutter90
21-04-2023, 23:24
No secondo me il punto è che dovrebbe essere usato con cognizione, solo a specifici casi e momenti, come fanno su console
sparare l'intero gioco in rt lo rende più bello ma in alcuni casi ingiocabile
Infatti la RT su console è castrato a bestia, quasi inutile da quanto implementato male e con scarsa risoluzione......
Cutter90
21-04-2023, 23:27
https://gaming.hwupgrade.it/news/videogames/cyberpunk-2077-con-rt-overdrive-il-path-tracing-o-full-ray-tracing-fa-la-differenza_116115.html
A quanto pare sto Path Tracing è stato ridimensionato ....
Non vogliamo farvi perdere tempo, la risposta è che le differenze si vedono appena. Abbiamo fatto due screenshot in 4K, di giorno e di notte, oltre ad alcuni ingrandimenti. Potete vedere che c'è della differenza in come si diffonde la luce, ma da qui a dire che l'esperienza muta, ce ne passa.
Ho guardato gli screen e posso dire che hanno preso punti in cui il RT ha poco effetto dato che ci sono 1/2 fonti di luce. Facciamo uno screen della città di notte o anche di giorno e poi vediamo se la differenza non si vede.
Cioè per vederefar vedere il path tracing hanno preso un palo della luce e una pietra.... ma LOL
ColdWarGuy
22-04-2023, 00:52
US retailer is now giving away $100 Steam Gift cards with all GeForce RTX 40 GPUs (https://videocardz.com/newz/us-retailer-is-now-giving-away-100-steam-gift-cards-with-all-geforce-rtx-40-gpus)
Japanese retailer to bundle free Arc A750 GPU with GeForce RTX 4090 (https://videocardz.com/newz/japanese-retailer-to-bundle-free-arc-a750-gpu-with-geforce-rtx-4090)
Molto bene.
amon.akira
22-04-2023, 01:01
il ray tracing o path tracing nasce per essere "fedele" non "piu bello", potrebbe piacermi di piu una zona magari in ombra in raster che dovrebbe invece essere illuminata o viceversa, ma rimarrebbe comunque una rappresentazione sbagliata.
quindi l unico lato negativo del raytracing è la pesantezza.
Nhirlathothep
22-04-2023, 04:34
La 4090 monta AD102-300 come l' RTX 6000, però la 6000 ha 18176 cc anzichè 16384.
c'è la possibilità di una 4090 TI con 18176 cc?
ultimate trip
22-04-2023, 07:52
La 4090 monta AD102-300 come l' RTX 6000, però la 6000 ha 18176 cc anzichè 16384.
c'è la possibilità di una 4090 TI con 18176 cc?
secondo me si, magari sarà il classico esercizio di stile come la 3090ti con prezzi alti e disponibilità limitate.
speriamo anche da settembre di vedere la 4080ti e magari sarebbe l'occasione per ridurre il gap prezzo/prestazioni tra fasce.
tipo passare da così
4060: 399?
4060ti: 499?
4070: 599
4070ti: 799
4080: 1.199
4090: 1.599
a così
4060: 349?
4060ti: 449?
4070: 499?
4070ti: 699?
4080: 899?
4080ti: 1.199?
4090: 1.499?
4090ti: 1.999?
rimangono cmq prezzi sempre alti
ultimate trip
22-04-2023, 08:01
US retailer is now giving away $100 Steam Gift cards with all GeForce RTX 40 GPUs (https://videocardz.com/newz/us-retailer-is-now-giving-away-100-steam-gift-cards-with-all-geforce-rtx-40-gpus)
Japanese retailer to bundle free Arc A750 GPU with GeForce RTX 4090 (https://videocardz.com/newz/japanese-retailer-to-bundle-free-arc-a750-gpu-with-geforce-rtx-4090)
Molto bene.
e anche
https://videocardz.com/newz/amd-rx-7900-xt-drops-to-779-geforce-rtx-40-and-radeon-7000-series-now-available-at-or-below-msrp
la direzione sembra giusta, ora con la bella stagione si spera in un ancora maggiore disinteresse
ColdWarGuy
22-04-2023, 09:31
e anche
https://videocardz.com/newz/amd-rx-7900-xt-drops-to-779-geforce-rtx-40-and-radeon-7000-series-now-available-at-or-below-msrp
la direzione sembra giusta, ora con la bella stagione si spera in un ancora maggiore disinteresse
Concordo con il discorso stagionale, questo è il periodo in cui bisogna muovere il sedere all'aperto e non piazzarlo su una sedia oltre al dovuto.
Io sono sempre più convinto che entrambi meriterebbero una lezione magistrale, NVIDIA in primis, quindi stò gufando a tutto vapore visto che ritengo del tutto improbabile che abbassino i prezzi ai livelli che qui i più avveduti bramano.
I segnali di questi ultimi giorni sono incoraggianti, sembrerebbe che non tutti accettino il tentativo di estorsione in corso, in tal senso ci tengo a precisare che non è necessariamente una questione di banda del portafoglio ma di rispetto del valore dei soldi.
Concordo con il discorso stagionale, questo è il periodo in cui bisogna muovere il sedere all'aperto e non piazzarlo su una sedia oltre al dovuto.
Io sono sempre più convinto che entrambi meriterebbero una lezione magistrale, NVIDIA in primis, quindi stò gufando a tutto vapore visto che ritengo del tutto improbabile che abbassino i prezzi ai livelli che qui i più avveduti bramano.
I segnali di questi ultimi giorni sono incoraggianti, sembrerebbe che non tutti accettino il tentativo di estorsione in corso, in tal senso ci tengo a precisare che non è necessariamente una questione di banda del portafoglio ma di rispetto del valore dei soldi.
Concordo. Un mesetto fa volevo prendere una Nvidia ma i prezzi sono troppo da schifo. Una 3080 stava oltre 800€ ma stanno fuori. Un po' come pagare una margherita 25€ e magari pure mezza cruda.
Concordo con il discorso stagionale, questo è il periodo in cui bisogna muovere il sedere all'aperto e non piazzarlo su una sedia oltre al dovuto.
Io sono sempre più convinto che entrambi meriterebbero una lezione magistrale, NVIDIA in primis, quindi stò gufando a tutto vapore visto che ritengo del tutto improbabile che abbassino i prezzi ai livelli che qui i più avveduti bramano.
I segnali di questi ultimi giorni sono incoraggianti, sembrerebbe che non tutti accettino il tentativo di estorsione in corso, in tal senso ci tengo a precisare che non è necessariamente una questione di banda del portafoglio ma di rispetto del valore dei soldi.
Quoto al 100% :D
sembrerebbe che non tutti accettino il tentativo di estorsione in corso, in tal senso ci tengo a precisare che non è necessariamente una questione di banda del portafoglio ma di rispetto del valore dei soldi.
Scusa ma stai andando completamente fuori dal seminato, io ad esempio non spenderei mai 1500 euro per un iphone ma li spendo volentieri per una vga, così come chi spende soldi per BMW e Mercedes che per me possono stare bene dove stanno. Tutti hanno il diritto di spendere i propri soldi come vogliono e non c'è nessun "rispetto del valore dei soldi" che in questo caso è una frase davvero senza senso...
ColdWarGuy
22-04-2023, 10:23
Scusa ma stai andando completamente fuori dal seminato, io ad esempio non spenderei mai 1500 euro per un iphone ma li spendo volentieri per una vga, così come chi spende soldi per BMW e Mercedes che per me possono stare bene dove stanno. Tutti hanno il diritto di spendere i propri soldi come vogliono e non c'è nessun "rispetto del portafogio" che in questo caso che è una frase davvero senza senso...
Ti ribalto il discorso dicendo che nessuno ti vieta di pagare la margherita 25 euro e nel contempo tutti hanno diritto nell'evidenziare l'inculata insita nella suddetta azione.
Seguendo il tuo ragionamento dovrebbe poter essere considerato etico buttare 2000 euro dal finestrino di un treno in corsa con a fianco qualcuno che per la metà dell'importo si rompe il culo nei campi per un mese.
Sul mio libro non lo è.
Ti ribalto il discorso dicendo che nessuno ti vieta di pagare la margherita 25 euro e nel contempo tutti hanno diritto nell'evidenziare l'inculata insita nella suddetta azione.
Seguendo il tuo ragionamento dovrebbe poter essere considerato etico buttare 2000 euro dal finestrino di un treno in corsa con a fianco qualcuno che per la metà dell'importo si rompe il culo nei campi per un mese.
Sul mio libro non lo è.
Continui a fare ragionamenti senza senso e quindi poichè siamo OT e mi sembra che tu abbia frainteso il mio discorso, la chiudo qui.
mikael84
22-04-2023, 11:35
La 4090 monta AD102-300 come l' RTX 6000, però la 6000 ha 18176 cc anzichè 16384.
c'è la possibilità di una 4090 TI con 18176 cc?
Il chip c'è, e le rese sono quelle al momento, ma in versione desktop ancora non se ne sa nulla.
secondo me si, magari sarà il classico esercizio di stile come la 3090ti con prezzi alti e disponibilità limitate.
speriamo anche da settembre di vedere la 4080ti e magari sarebbe l'occasione per ridurre il gap prezzo/prestazioni tra fasce.
tipo passare da così
4060: 399?
4060ti: 499?
4070: 599
4070ti: 799
4080: 1.199
4090: 1.599
a così
4060: 349?
4060ti: 449?
4070: 499?
4070ti: 699?
4080: 899?
4080ti: 1.199?
4090: 1.499?
4090ti: 1.999?
rimangono cmq prezzi sempre alti
Mi pare strano scali di fascia, prima del lancio delle nuove, che potrebbe portare per l'appunto la 5090 a 1999.
Delle versioni 4090ti e 4080ti non se ne sente proprio parlare.
La 4090ti è realizzabile, ma il problema è che potrebbe togliere totalmente quota alla 5080. Dalla 4080 alla 4090ti si supereranno il 50% di perf, soprattutto in RT e la 5080 con il 3nm, non può certo fare +70/80%.
La 4080ti, è già la 4090 praticamente, sono soluzioni che potrebbero rientrare in caso di declass di AD102, ma al momento non ha collocazione di mercato, ne di competitor, infatti non c'è alcuna voce.
JHH al momento posiziona la 4080 come diretta post 3080ti.
il ray tracing o path tracing nasce per essere "fedele" non "piu bello", potrebbe piacermi di piu una zona magari in ombra in raster che dovrebbe invece essere illuminata o viceversa, ma rimarrebbe comunque una rappresentazione sbagliata.
quindi l unico lato negativo del raytracing è la pesantezza.
Esatto, ma questo concetto spesso non viene capito.
secondo me si, magari sarà il classico esercizio di stile come la 3090ti con prezzi alti e disponibilità limitate.
speriamo anche da settembre di vedere la 4080ti e magari sarebbe l'occasione per ridurre il gap prezzo/prestazioni tra fasce.
tipo passare da così
4060: 399?
4060ti: 499?
4070: 599
4070ti: 799
4080: 1.199
4090: 1.599
a così
4060: 349?
4060ti: 449?
4070: 499?
4070ti: 699?
4080: 899?
4080ti: 1.199?
4090: 1.499?
4090ti: 1.999?
rimangono cmq prezzi sempre alti
Dipende molto dal mercato, ma per come hanno sparano i prezzi con le 4000 possono uscirsene elegantemente solo con un refresh con prezzi più in linea, come accadde con le Super.
Anche perchè la 4070 è veramente messa male, hanno devastato un chip, ed è strano che un chip cosi piccolo abbia rese cosi pessime.
Ma si vedrà, per ora almeno io non sono minimamente interessato al cambio gpu, se ne parla tra un annetto abbondante, quest'anno preferisco riguardarmi il reparto cpu visto che il 3930K è oramai alla frutta, ma pure li sinceramente non c'è nulla che mi ispira considerato il periodo di transizione alle nuove piattaforme.
ColdWarGuy
22-04-2023, 13:27
Continui a fare ragionamenti senza senso e quindi poichè siamo OT e mi sembra che tu abbia frainteso il mio discorso, la chiudo qui.
Io il senso lo vedo eccome, comprare queste GPU a questo sovrapprezzo osceno fà il gioco di NVIDIA e và contro gli interessi della comunità dei giocatori PC, concetto semplice, chiaro e tondo.
Praticamente non c'è una singola testata web, YT, etc che non sia andata contro questo listino prezzi, dove, facendo un paragone automobilistico, le BMW serie 5 sono vendute al prezzo della serie 7 dopo aver taroccato le sigle esposte.
In questo thread c'è chi non ha ancora ceduto alle lusinghe del DLSS 3 e del FG e che ha la pretesa di sborsare per quello che riceve, per chi ha già operato una scelta differente c'è il club esclusivo della sua, cara, nuova scheda.
bagnino89
22-04-2023, 13:37
Condivido.
Che poi, per dire, sulle auto è molto molto peggio!
Inviato dal mio Pixel 6 utilizzando Tapatalk
ultimate trip
22-04-2023, 14:11
Il chip c'è, e le rese sono quelle al momento, ma in versione desktop ancora non se ne sa nulla.
Mi pare strano scali di fascia, prima del lancio delle nuove, che potrebbe portare per l'appunto la 5090 a 1999.
Delle versioni 4090ti e 4080ti non se ne sente proprio parlare.
La 4090ti è realizzabile, ma il problema è che potrebbe togliere totalmente quota alla 5080. Dalla 4080 alla 4090ti si supereranno il 50% di perf, soprattutto in RT e la 5080 con il 3nm, non può certo fare +70/80%.
La 4080ti, è già la 4090 praticamente, sono soluzioni che potrebbero rientrare in caso di declass di AD102, ma al momento non ha collocazione di mercato, ne di competitor, infatti non c'è alcuna voce.
JHH al momento posiziona la 4080 come diretta post 3080ti.
praticamente quindi per non infastidire la prox gen è molto probabile non venga fuori più nulla e a settembre 2024 ci troveremo una 5080 che va max il 10% in più della 4090 ma con meno ram a 1399$ e una 5090 che andrà il 50% in più della 4090 a 1999$. Mamma mia che paura :(
ultimate trip
22-04-2023, 14:18
Dipende molto dal mercato, ma per come hanno sparano i prezzi con le 4000 possono uscirsene elegantemente solo con un refresh con prezzi più in linea, come accadde con le Super.
Anche perchè la 4070 è veramente messa male, hanno devastato un chip, ed è strano che un chip cosi piccolo abbia rese cosi pessime.
Ma si vedrà, per ora almeno io non sono minimamente interessato al cambio gpu, se ne parla tra un annetto abbondante, quest'anno preferisco riguardarmi il reparto cpu visto che il 3930K è oramai alla frutta, ma pure li sinceramente non c'è nulla che mi ispira considerato il periodo di transizione alle nuove piattaforme.
io mi sono imposto di non fare cambi attualmente con le 4000 anche se fatico a tenere i 60 con la 3080. il mercato cpu è certamente più competitivo e interessante
io mi sono imposto di non fare cambi attualmente con le 4000 anche se fatico a tenere i 60 con la 3080. il mercato cpu è certamente più competitivo e interessante
Anche troppo interessante è la il problema XD
mikael84
22-04-2023, 15:26
praticamente quindi per non infastidire la prox gen è molto probabile non venga fuori più nulla e a settembre 2024 ci troveremo una 5080 che va max il 10% in più della 4090 ma con meno ram a 1399$ e una 5090 che andrà il 50% in più della 4090 a 1999$. Mamma mia che paura :(
A questo giro, probabile che la microarchitettura venga rivista e affinata, però il 3nm vs il 5, non è come il 5 tsmc vs il 10 di samsung. Sarà difficile ripetere quanto fatto con la 4090.
RDNA, ad ogni gen, calcola il +54%, che a sto giro realmente non ha neppure preso sempre, e credo che sarà 8900xtx vs 5080 ed il big chip come fascia a se.
Si punterà soprattutto al PT, ed eventuali nuove tecniche di interpolazione.
Ci sono anche alcune variazioni in base ai PP che hai a disposizione, ad esempio, se Ampere fosse stato fatto da TSMC, quindi con le ampere che clockavano sui 2300-2400, la 4080 passava a 4070ti, e la 4080ti doveva vedersela con la 7900xtx.
Lo stesso discorso, valeva in caso di utilizzo del 4lpp di samsung, con lovelace che boostava sui 2300-2400.
Con i 3nm cmq si potrebbe ricreare AD102 con circa 380mm2, quindi mediamente la fascia x80, sarà su quei livelli. Il clock potrebbe però toccare i 3ghz:)
amon.akira
22-04-2023, 16:05
A questo giro, probabile che la microarchitettura venga rivista e affinata, però il 3nm vs il 5, non è come il 5 tsmc vs il 10 di samsung. Sarà difficile ripetere quanto fatto con la 4090.
RDNA, ad ogni gen, calcola il +54%, che a sto giro realmente non ha neppure preso sempre, e credo che sarà 8900xtx vs 5080 ed il big chip come fascia a se.
Si punterà soprattutto al PT, ed eventuali nuove tecniche di interpolazione.
Ci sono anche alcune variazioni in base ai PP che hai a disposizione, ad esempio, se Ampere fosse stato fatto da TSMC, quindi con le ampere che clockavano sui 2300-2400, la 4080 passava a 4070ti, e la 4080ti doveva vedersela con la 7900xtx.
Lo stesso discorso, valeva in caso di utilizzo del 4lpp di samsung, con lovelace che boostava sui 2300-2400.
Con i 3nm cmq si potrebbe ricreare AD102 con circa 380mm2, quindi mediamente la fascia x80, sarà su quei livelli. Il clock potrebbe però toccare i 3ghz:)
d'altronde mancano ancora un 12% di cuda all appello.
magari un altro boost potrebbe derivare dal ripristino fasce quindi real x80 vs 4080(x70+), un altro po al nodo quindi clock, architettura magari e il salto ci sarà anche per le 5000
se vogliono esagerare potrebbero anche farla dal chippone.
mikael84
22-04-2023, 16:39
d'altronde mancano ancora un 12% di cuda all appello.
magari un altro boost potrebbe derivare dal ripristino fasce quindi real x80 vs 4080(x70+), un altro po al nodo quindi clock, architettura magari e il salto ci sarà anche per le 5000
se vogliono esagerare potrebbero anche farla dal chippone.
Si, al full chip mancano il 12,5% di cuda, 16 rop's ed una primitiva a livello di calcolo, ma va ricordato che la 4090 è azzoppata sui collegamenti, in quanto la cache da 96mb e scesa a 72, quasi quanto quella della 4080. Inoltre se mai debutterà, utilizzerà probabilmente le 24 gb/s, non le 21.:)
Riguardo BL102, su un monolite di 607, ci puoi impilare dai 120 ai 125mtransitor vs i 76,5 di AD102 full, quindi siamo oltre il 50%, valore che abbiamo visto con Ampere vs turing (18,6 vs 28,4), anche se samsung in clock è stato per certi versi peggio del 16 di tsmc.:)
Scendendo sulla fascia x80, i 76,5mtransistor di AD102 puoi mediamente impilarli su un 380mm2, e già da questi parametri si può stimare mediamente ciò che vedremmo, microarchitettura a parte.
Probabile quindi rdna4 vs 5080 +50%, anche se Blackwell, punterà molto sul PT.
devil_mcry
22-04-2023, 18:38
una 4090 full così raccontata sembra qualcosa di mostruoso :|
mikael84
22-04-2023, 20:32
una 4090 full così raccontata sembra qualcosa di mostruoso :|
Diciamo che tra ram a 24 gb/s, cache da 96mb, 12,5% unità di calcolo e clock magari un pò tirato, può tranquillamente prendere il 10/15% in base al gioco.
Nel grafico di hwu, la 4090 in 4k stacca il 44% la 4080, immagina con quella...:p
Oltre una gen di differenza media tra AD102 e AD103.
https://www.hwupgrade.it/articoli/6448/media-rt.png
LurenZ87
23-04-2023, 08:26
Buongiorno e buona domenica a tutti :)
Domanda, visto che al momento ci sono tre schede sui 650€ (più o meno), ossia la 4070, 6950XT e la 3090, voi quale prendereste e perché, tenendo conto che la risoluzione di utilizzo è il 4k usando le varie tecnologie di DLSS o FSR2 (l'FSR1 non lo considero, è ignobile) e eventualmente l'RT (di cui ignoro ancora il reale potenziale, visto che l'unico gioco che ho è Chernobylite e se lo attivo la 3070 muore :asd: ).
Vorrei fare il passaggio ma sono indeciso :/
Grazie per le eventuali risposte :)
Inviato dal mio Pixel 7 utilizzando Tapatalk
ColdWarGuy
23-04-2023, 09:07
Buongiorno e buona domenica a tutti :)
Domanda, visto che al momento ci sono tre schede sui 650€ (più o meno), ossia la 4070, 6950XT e la 3090, voi quale prendereste e perché, tenendo conto che la risoluzione di utilizzo è il 4k usando le varie tecnologie di DLSS o FSR2 (l'FSR1 non lo considero, è ignobile) e eventualmente l'RT (di cui ignoro ancora il reale potenziale, visto che l'unico gioco che ho è Chernobylite e se lo attivo la 3070 muore :asd: ).
Vorrei fare il passaggio ma sono indeciso :/
Grazie per le eventuali risposte :)
Inviato dal mio Pixel 7 utilizzando Tapatalk
3090 a 650 euro ... dove ? :D
Riguardo alla 6950XT, se guardi il grafico dell'RT postato da Mikael lo stacco verso la 3070 non è tale da giustificare un upgrade.
Ho anche io quella scheda (3070) ed il minimo che posso considerare in sostituzione è una 4070 Ti, se vado a vedere la prestazione media in raster la 4070 liscia è scartata all'istante.
Io comunque ieri sera ho giocato una mezz'ora a TLOU in 2K su uno dei miei PC secondari con 1080 e ryzen 5600, ovviamente senza RT e devo dire che non gli manca niente, anzi ...
Io ho il dubbio che siamo tutti caduti nella trappola dell'RT di giacchetta, a questo livello di implementazione lo scotto da pagare secondo me non vale la candela.
Buongiorno e buona domenica a tutti :)
Domanda, visto che al momento ci sono tre schede sui 650€ (più o meno), ossia la 4070, 6950XT e la 3090, voi quale prendereste e perché, tenendo conto che la risoluzione di utilizzo è il 4k usando le varie tecnologie di DLSS o FSR2 (l'FSR1 non lo considero, è ignobile) e eventualmente l'RT (di cui ignoro ancora il reale potenziale, visto che l'unico gioco che ho è Chernobylite e se lo attivo la 3070 muore :asd: ).
Vorrei fare il passaggio ma sono indeciso :/
Grazie per le eventuali risposte :)
Inviato dal mio Pixel 7 utilizzando Tapatalk
La 3090 nel nostro mercato a quel prezzo non la trovi manco usata :asd:
Se devi giocare a 4K, in previsione delle prossime uscite con UE5, la 4080 è il minimo sindacabile, ma purtroppo il prezzo fa schifo.
Quindi, se non hai una reale necessità, aspetta.
Sicuramente a settembre ci saranno delle novità ;)
fraussantin
23-04-2023, 09:41
Ma penso intendesse usata a 650.
LurenZ87
23-04-2023, 09:42
La 3090 usata, mi sembrava ovvio :)
Inviato dal mio Pixel 7 utilizzando Tapatalk
fraussantin
23-04-2023, 09:45
La 3090 usata, mi sembrava ovvio :)
Inviato dal mio Pixel 7 utilizzando TapatalkCmq se non vuoi sborsare cifre folli per il 2k la 4070 sui 650 rimante il "farsi meno male possibile" o una 3080 usata a 500 max
Se giochi in 4k valuta seramente una 7900xt o un mutuo in banca per una 4090. La.4080 a quel prezzo boh è cmq tanto e cmq non abbastanza secondo me per la spesa.
Ovviamente se uno puo aspettare , meglio aspettare
Ma penso intendesse usata a 650.
La base di partenza per l'asta è di 700-750 e di solito la si porta a casa con 800-850€ ;)
Con 650-700 invece si prende una 3080 TI :D
LurenZ87
23-04-2023, 09:59
La base di partenza per l'asta è di 700-750 e di solito la si porta a casa con 800-850 ;)
Con 650-700 invece si prende una 3080 TI :DMa no, guarda che ci sono anche sul mercatino a 700€ e non se le fila nessuno :)
Inviato dal mio Pixel 7 utilizzando Tapatalk
ColdWarGuy
23-04-2023, 10:01
La 3090 usata, mi sembrava ovvio :)
Inviato dal mio Pixel 7 utilizzando Tapatalk
Beh, per le altre due schede 650 è il prezzo da nuove, ma vabbuò.
Detto questo, con la 4070 liscia sarebbero sicuramente soldi buttati
Cmq se non vuoi sborsare cifre folli per il 2k la 4070 sui 650 rimante il "farsi meno male possibile" o una 3080 usata a 500 max
Se giochi in 4k valuta seramente una 7900xt o un mutuo in banca per una 4090. La.4080 a quel prezzo boh è cmq tanto e cmq non abbastanza secondo me per la spesa.
Ovviamente se uno puo aspettare , meglio aspettare
La 7900xt per i 4K non va bene perché scala male come da tradizione AMD :asd:
In rasterizzazione a 4K la 7900xt supera mediamente la 4070 TI di un 3% e tenendo conto che appena attivi l'RT la scheda si siede e non c'è il FG, il gioco non vale la candela.
In 1440p il discorso è diverso ;)
Per i 4K eventualmente si può valutare una 7900 XTX :D
https://i.postimg.cc/bvR3jxHw/Radeon-RX-7900-XT-vs-Ge-Force-RTX-4070-Ti-4-K.jpg (https://postimg.cc/VSdjqbVx)
bagnino89
23-04-2023, 10:23
Buongiorno e buona domenica a tutti :)
Domanda, visto che al momento ci sono tre schede sui 650€ (più o meno), ossia la 4070, 6950XT e la 3090, voi quale prendereste e perché, tenendo conto che la risoluzione di utilizzo è il 4k usando le varie tecnologie di DLSS o FSR2 (l'FSR1 non lo considero, è ignobile) e eventualmente l'RT (di cui ignoro ancora il reale potenziale, visto che l'unico gioco che ho è Chernobylite e se lo attivo la 3070 muore :asd: ).
Vorrei fare il passaggio ma sono indeciso :/
Grazie per le eventuali risposte :)
Inviato dal mio Pixel 7 utilizzando TapatalkSe hai una 3070, il minimo upgrade sensato è la 4070 Ti. Ma costa decisamente troppo, e quei 12 GB a 192 bit non sono niente di buono.
Bisogna aspettare le 5xxx (o cali di prezzo corposi).
Inviato dal mio Pixel 6 utilizzando Tapatalk
nessuno29
23-04-2023, 10:55
La 7900xt per i 4K non va bene perché scala male come da tradizione AMD :asd:
In rasterizzazione a 4K la 7900xt supera mediamente la 4070 TI di un 3% e tenendo conto che appena attivi l'RT la scheda si siede e non c'è il FG, il gioco non vale la candela.
In 1440p il discorso è diverso ;)
Per i 4K eventualmente si può valutare una 7900 XTX :D
https://i.postimg.cc/bvR3jxHw/Radeon-RX-7900-XT-vs-Ge-Force-RTX-4070-Ti-4-K.jpg (https://postimg.cc/VSdjqbVx)
A me dal grafico pare tutt'altro
ColdWarGuy
23-04-2023, 11:10
Se hai una 3070, il minimo upgrade sensato è la 4070 Ti. Ma costa decisamente troppo, e quei 12 GB a 192 bit non sono niente di buono.
Bisogna aspettare le 5xxx (o cali di prezzo corposi).
Inviato dal mio Pixel 6 utilizzando Tapatalk
Concordo 100%, inutile rigirare la frittata, se si vuole usare l'RT al momento l'upgrade minimo dalla 3070 parte dai 900 euro medi della 4070 Ti, altrimenti si rinuncia a questo virus (RT) inoculato a tutti da giacchetta e si valuta qualche AMD che in raster hanno il loro porco valore.
Domanda sullo store P*K :
visto il marcato gap di prezzo verso gli altri venditori non vi puzza di VAT player che all'improvviso chiudi i battenti con il bottino ?
mikael84
23-04-2023, 12:12
La 3090 usata, mi sembrava ovvio :)
Inviato dal mio Pixel 7 utilizzando Tapatalk
La 3090 è davvero una signora scheda, nei grafici prendi praticamente come riferimento la 3090ti, in quanto sulle review downclocka molto.
Purtroppo rispetto a Lovelace, pecca sulla mancanza di FG, e che consuma troppo.
Se hai una 3070, il minimo upgrade sensato è la 4070 Ti. Ma costa decisamente troppo, e quei 12 GB a 192 bit non sono niente di buono.
Bisogna aspettare le 5xxx (o cali di prezzo corposi).
Inviato dal mio Pixel 6 utilizzando Tapatalk
192 bit + 48mb di cache, fosse solo a 192bit, sarebbe un bel disastro, come dimostrato con la 3090 a 192bit.:)
https://videocardz.com/newz/nvidia-geforce-rtx-3090-has-been-tested-with-custom-20gb-320b-and-12gb-192b-memory-bioses
Purtroppo la cache non può sopperire sempre i bus giganti di GA102, mentre su un 1440p, spesso è meglio, in quanto la cache oltre che sgravare la banda, intercetta prima i dati, con una banda di quasi 6 tb/s.
devil_mcry
23-04-2023, 12:16
la 3090 immagino sia 3x8pin vero? se ha il tdp sbloccato fino a 450w hai una 3090ti praticamente però senza FG...
amon.akira
23-04-2023, 12:35
la 3090 immagino sia 3x8pin vero? se ha il tdp sbloccato fino a 450w hai una 3090ti praticamente però senza FG...
la 3090FE è 12pin 2x8 400watt
devil_mcry
23-04-2023, 12:48
la 3090FE è 12pin 2x8 400watt
ma non ci sono solo le FE, prende quella? non ho letto me culpa
per dire la zotac 3090 trinity oc è 2x8pin
375w max teorici ma a quella potenza tutti gli ad-102 arrivano più o meno allo stesso punto massimo
fraussantin
23-04-2023, 13:06
La base di partenza per l'asta è di 700-750 e di solito la si porta a casa con 800-850 ;)
Con 650-700 invece si prende una 3080 TI :DCaleranno , io gia le.ho viste a quei prezzi e cmq ripeto secondo me non vale la pena con le xt a 800
LurenZ87
23-04-2023, 13:23
ma non ci sono solo le FE, prende quella? non ho letto me culpa
per dire la zotac 3090 trinity oc è 2x8pin
375w max teorici ma a quella potenza tutti gli ad-102 arrivano più o meno allo stesso punto massimo
No era una questione indicativa, ero curioso di leggere pensieri in merito :)
Comunque no, su quelle cifre ormai trovi un po' di tutto (se alzi il tutto max a 700€ te la scegli).
Inviato dal mio Pixel 7 utilizzando Tapatalk
LurenZ87
23-04-2023, 13:25
La 3090 è davvero una signora scheda, nei grafici prendi praticamente come riferimento la 3090ti, in quanto sulle review downclocka molto.
Purtroppo rispetto a Lovelace, pecca sulla mancanza di FG, e che consuma troppo.
192 bit + 48mb di cache, fosse solo a 192bit, sarebbe un bel disastro, come dimostrato con la 3090 a 192bit.:)
https://videocardz.com/newz/nvidia-geforce-rtx-3090-has-been-tested-with-custom-20gb-320b-and-12gb-192b-memory-bioses
Purtroppo la cache non può sopperire sempre i bus giganti di GA102, mentre su un 1440p, spesso è meglio, in quanto la cache oltre che sgravare la banda, intercetta prima i dati, con una banda di quasi 6 tb/s.
Consuma davvero un macello e se non sbaglio ho visto che lavora a tensioni contenute già di suo, quindi non credo si possano fare grandi miracoli con l'undervolt, inoltre rispetto alla 3090Ti (che usa i moduli a doppia intensità) ha le vram messe a conchiglia e quelle che si trovano sul retro del pcb scaldano un casino.
Inviato dal mio Pixel 7 utilizzando Tapatalk
mikael84
23-04-2023, 13:54
Consuma davvero un macello e se non sbaglio ho visto che lavora a tensioni contenute già di suo, quindi non credo si possano fare grandi miracoli con l'undervolt, inoltre rispetto alla 3090Ti (che usa i moduli a doppia intensità) ha le vram messe a conchiglia e quelle che si trovano sul retro del pcb scaldano un casino.
Inviato dal mio Pixel 7 utilizzando Tapatalk
Di base lavora vicino ad 1,1v ed il PP è pessimo. Basta impostarla a 0,9v più il clock che riesci a dare in base al modello. Tenerla ad 1,1 ti porta anche micro picchi elevatissimi. Se è ben impostata però si riesce a trovare un compromesso.
Sulle ram, si, sono in clamshell ( a conchiglia). Micron come al solito era in ritardo.
ColdWarGuy
24-04-2023, 10:04
RT sì, RT no e dintorni:
Cyberpunk 2077 | 1440p XeSS 1.1 vs FSR 2.1 vs DLSS 3.1 Graphics/Performance Comparison | RTX 4080 (https://www.youtube.com/watch?v=mX6hdIszkgI)
Cyberpunk 2077 RT Overdrive - Ray Tracing vs Path Tracing On vs Off Comparison | RTX 4080 4K DLSS (https://www.youtube.com/watch?v=7NQqWlYZ2RA)
Cyberpunk 2077 - Ray Tracing OVERDRIVE Comparison Patch 1.62 Update | RTX 4090 | OFF/ON/OVERDRIVE (https://www.youtube.com/watch?v=Q-BVBJEYtCo)
Comunque il path tracing imho rende obsoleto completamente il ray tracing nvidia.
C'e` molta meno differenza fra RT OFF ed RT ON (specie quando c'e` un buon lavoro artistico di luci e shadow maps) che tra RT ON e pathtracing.
Per la prima volta da Arkham City guardando CP 2077 path tracing (o anche Portal 2 PT) posso dire che abbiamo fatto dei passi in avanti che non siano nel numero dei pixel o triangoli su una scena.
Mi chiedo tuttavia se le prossime evoluzioni del RT Nvidia possano colmare il gap visivo significante con ulteriori migliorie software e maggiore potenza computazionale.
Comunque il path tracing imho rende obsoleto completamente il ray tracing nvidia.
Tanta roba..
Ale55andr0
24-04-2023, 11:51
Comunque il path tracing imho rende obsoleto completamente il ray tracing nvidia.
C'e` molta meno differenza fra RT OFF ed RT ON (specie quando c'e` un buon lavoro artistico di luci e shadow maps) che tra RT ON e pathtracing.
Per la prima volta da Arkham City guardando CP 2077 path tracing (o anche Portal 2 PT) posso dire che abbiamo fatto dei passi in avanti che non siano nel numero dei pixel o triangoli su una scena.
Mi chiedo tuttavia se le prossime evoluzioni del RT Nvidia possano colmare il gap visivo significante con ulteriori migliorie software e maggiore potenza computazionale.
il mondo è bello perchè vario: io continuo a vedere differenze lievi a fronte di un costo di performance semplicemente ridicolo. Comunque il "ray tracing nvidia" non esiste :fagiano:
ColdWarGuy
24-04-2023, 12:05
Comunque il path tracing imho rende obsoleto completamente il ray tracing nvidia.
C'e` molta meno differenza fra RT OFF ed RT ON (specie quando c'e` un buon lavoro artistico di luci e shadow maps) che tra RT ON e pathtracing.
-snip
Sicuro ? :confused:
https://i.postimg.cc/V5Pk8KCf/COMP.png
mikael84
24-04-2023, 12:31
il mondo è bello perchè vario: io continuo a vedere differenze lievi a fronte di un costo di performance semplicemente ridicolo. Comunque il "ray tracing nvidia" non esiste :fagiano:
Ho visto che stai salutando il roito.
Ho visto che stai salutando il roito.
Ma il roito è la cpu o la gpu? :fagiano:
Ma il roito è la cpu o la gpu? :fagiano:
Entrambi :D
@ Ale55andr0
Che scheda prendi?
nessuno29
24-04-2023, 12:46
Un vero peccato che l'abbia venduta prima di averla testata con una cpu migliore, giusto per capire quanta differenza fa un serie 5000.
Moreno Morello
24-04-2023, 12:49
tanta immagino
con una 3070 a 1440p ho avvertito un miglioramento soprattutto sugli fps minimi e frametime passando da un 3600x a 5600x
nessuno29
24-04-2023, 13:01
tanta immagino
con una 3070 a 1440p ho avvertito un miglioramento soprattutto sugli fps minimi e frametime passando da un 3600x a 5600x
Io mostruosa nella fluidità da un 1600 al 5600g.
VanCleef
24-04-2023, 13:01
Un vero peccato che l'abbia venduta prima di averla testata con una cpu migliore, giusto per capire quanta differenza fa un serie 5000.
Un piccolo investimento su un 5600x :)
dipende anche dai giochi. In alcuni probabilmente differenze insignificanti in altri una bella differenza
Ale55andr0
24-04-2023, 13:04
Ho visto che stai salutando il roito.
è ancora li', mi sa che non lo saluto facilmente :asd:
dipende anche dai giochi. In alcuni probabilmente differenze insignificanti in altri una bella differenza
Vabbè dal ryzen 1000 ai 5000 senza neanche scomodare il 3d il salto è epocale.
mikael84
24-04-2023, 13:13
è ancora li', mi sa che non lo saluto facilmente :asd:
Ok, ma che GPU stai puntando? 7900xt o 4070ti?:)
Vabbè dal ryzen 1000 ai 5000 senza neanche scomodare il 3d il salto è epocale.
su questo non c'è dubbio
Ale55andr0
24-04-2023, 13:16
Sicuro ? :confused:
https://i.postimg.cc/V5Pk8KCf/COMP.png
Si', perchè quello screen si chiama fare cherry picking, lo posso fare pure io:
https://i.postimg.cc/m2pQSrQT/rt2.jpg
ma di che stiamo parlando? Fra rt e od c'è differenza, ma come dicevo parliamo di poca roba e mi deve pure stuprare il frame rate e ricorrere a fake frame su una QUARANTANOVANTA. Ma sul serio? Ma stiamo vivendo una forma di rimbambimento collettivo o cosa? :muro: Poi c'è anche il punto in cui la differenza è un po' migliore, ma parliamo appunto di continui alti ( si fa per dire, in nessun caso ho perso la mascella) e bassi, e il tutto per cosa? E a che costo? Ma se lo tengano l'RT! Quel gioco per me sarebbe MILLE volte meglio avendo texture decenti ed elementi fatti con più di 4 poligoni e mezzo, altro che l'OD
Ale55andr0
24-04-2023, 13:22
Ok, ma che GPU stai puntando? 7900xt o 4070ti?:)
Sto puntando a far cassa e vedere se muoio prima io o il mercato delle GPU :asd:
Scherzi a parte, non ne ho idea, vedo che riesco a combinare ma sono più confuso che altro, a parte il fatto di voler cambiare gpu. Di sicuro prendo un 5700x e 32gb appena posso, per la gpu non ho fretta, tanto tutto quello che mi interessa uscirà minimo a fine e anno (stalker 2, starfield, the phantom liberty) in più sto avendo problemi di salute e depressione che mettono il pc non certo in primo piano :stordita:
nessuno29
24-04-2023, 13:25
Sicuro ? :confused:
Ti sfido a giocare in movimento con rt ultra o od e capire a colpo d'occhio quale sia l'impostazione attiva, qua è normale che ci siano differenze hai preso proprio il caso migliore.
Un piccolo investimento su un 5600x :)
Non è questione di soldi, mai più cpu senza vga integrata.
Ale55andr0
24-04-2023, 13:25
Entrambi :D
@ Ale55andr0
Che scheda prendi?
vedi sopra
Un vero peccato che l'abbia venduta prima di averla testata con una cpu migliore, giusto per capire quanta differenza fa un serie 5000.
come dicevo, è ancora li', il mercato ristagna pure sull'usato.
Comunque qualche smanettone ha deciso di montare i tanto agognati 16GB sulla 3070 :sofico:
https://www.youtube.com/watch?v=W6uaUHBNFOU&t
LurenZ87
24-04-2023, 13:31
in più sto avendo problemi di salute e depressione che mettono il pc non certo in primo piano :stordita:
Un abbraccio ❤️
Inviato dal mio Pixel 7 utilizzando Tapatalk
ColdWarGuy
24-04-2023, 13:33
è ancora li', mi sa che non lo saluto facilmente :asd:
Anche perchè se speravi nella wunderwaffe AMD con 16GB di VRAM e prestazioni di 4070 TI a 500 euro devi attendere il 2025.
Ale55andr0
24-04-2023, 13:35
Un abbraccio ❤️
Inviato dal mio Pixel 7 utilizzando Tapatalk
grazie ;)
Anche perchè se speravi nella wunderwaffe AMD con 16GB di VRAM e prestazioni di 4070 TI a 500 euro devi attendere il 2025.
Basterebbe un prodotto che una volta visti costo e caratteristiche non faccia salire i conati di vomito (e l'istinto omicida...)
ColdWarGuy
24-04-2023, 13:41
Ti sfido a giocare in movimento con rt ultra o od e capire a colpo d'occhio quale sia l'impostazione attiva, qua è normale che ci siano differenze hai preso proprio il caso migliore.
Ma avete guardato l'immagine che ho postato :confused: ... sto dicendo esattamente la stessa cosa, c'è una grande differenza tra RT OFF e RT ON, molta meno tra RT ON e PATH tracing.
StylezZz`
24-04-2023, 13:43
Comunque qualche smanettone ha deciso di montare i tanto agognati 16GB sulla 3070 :sofico:
https://www.youtube.com/watch?v=W6uaUHBNFOU&t
Non capisco come fanno ad avere quei minimi e stuttering su RE4 :confused:
ColdWarGuy
24-04-2023, 13:44
grazie ;)
Basterebbe un prodotto che una volta visti costo e caratteristiche non faccia salire i conati di vomito (e l'istinto omicida...)
Quindi 2025, brame nazionaliste di Xi permettendo.
Se dovessero invadere Taiwan la 3070 varrebbe 10x, altro che roito.
Intanto fatti prestare almeno un 5600 perchè la poveretta che hai in firma vive di stenti.
Ale55andr0
24-04-2023, 13:44
Ma avete guardato l'immagine che ho postato :confused: ... sto dicendo esattamente la stessa cosa, c'è una grande differenza tra RT OFF e RT ON, molta meno tra RT ON e PATH tracing.
avevamo capito l'esatto opposto XD
:mano:
Quindi 2025, brame nazionaliste di Xi permettendo.
Se dovessero invadere Taiwan la 3070 varrebbe 10x, altro che roito.
Intanto fatti prestare almeno un 5600 perchè la poveretta che hai in firma vive di stenti.
ho venduto a 180 la 1080 appena prima della pandemia, sta a vedere che do via la 3070 per due lecca lecca e una caramella e mi succede uguale :asd:
nessuno29
24-04-2023, 13:45
come dicevo, è ancora li', il mercato ristagna pure sull'usato.
Vabbè diciamo che col fatto che non spedisci è più difficile vendere altrimenti andava via facilmente la 3070 nonostante tutto.
ColdWarGuy
24-04-2023, 14:08
ho venduto a 180 la 1080 appena prima della pandemia, sta a vedere che do via la 3070 per due lecca lecca e una caramella e mi succede uguale :asd:
Posso immaginare che poi ti sei mangiato i gomiti :)
Io ho una 1080 Strix e me la tengo fino a che non muore di morte naturale, l'ho messa in un PC con una vecchia CH6 rinnovata con un 5600 e la uso in 2K, ovviamente RT OFF :D.
Prima era con un 2700x tirato a chiodo e spesso batteva in testa.
zanflank
24-04-2023, 14:50
Sto puntando a far cassa e vedere se muoio prima io o il mercato delle GPU :asd:
Scherzi a parte, non ne ho idea, vedo che riesco a combinare ma sono più confuso che altro, a parte il fatto di voler cambiare gpu. Di sicuro prendo un 5700x e 32gb appena posso, per la gpu non ho fretta, tanto tutto quello che mi interessa uscirà minimo a fine e anno (stalker 2, starfield, the phantom liberty) in più sto avendo problemi di salute e depressione che mettono il pc non certo in primo piano :stordita:
Mi dispiace, rimettiti.
Queste sono solo frivolezze rispetto alla cosa più importante: la salute.
Auguri veramente.
mikael84
24-04-2023, 14:53
Sto puntando a far cassa e vedere se muoio prima io o il mercato delle GPU :asd:
Scherzi a parte, non ne ho idea, vedo che riesco a combinare ma sono più confuso che altro, a parte il fatto di voler cambiare gpu. Di sicuro prendo un 5700x e 32gb appena posso, per la gpu non ho fretta, tanto tutto quello che mi interessa uscirà minimo a fine e anno (stalker 2, starfield, the phantom liberty) in più sto avendo problemi di salute e depressione che mettono il pc non certo in primo piano :stordita:
Mi spiace, me ne avevi già parlato.;)
Cmq se la spedisci, la vendi easy.;)
Comunque qualche smanettone ha deciso di montare i tanto agognati 16GB sulla 3070 :sofico:
https://www.youtube.com/watch?v=W6uaUHBNFOU&t
L'avevano fatto pure su una 2080ti e 2070 se non ricordo male.
Alessandro occhio che seguire il mondo dell'hardware, specie quello gpu, non aiuta a rimanere di buon umore!
Moreno Morello
24-04-2023, 15:07
anche io sto pensando di passare da 3070 a 4070 ti o 7900 xt
ma se guardo la seconda vedo che
consuma di più e forse dovrei cambiare pure alimentatore (focus gx 550w)
driver che fanno bizzeffe (avevo rdna1 e ho ancora gli incubi)
inferiore come feature (no dlss, rt inferiore)
anche la 4070 ti mi puzza un po' per via della vram e del bus, ma non avendo intenzione di muovermi dai 1440p potrebbe essere il male minore la scelta migliore
ColdWarGuy
24-04-2023, 15:32
anche io sto pensando di passare da 3070 a 4070 ti o 7900 xt
ma se guardo la seconda vedo che
consuma di più e forse dovrei cambiare pure alimentatore (focus gx 550w)
driver che fanno bizzeffe (avevo rdna1 e ho ancora gli incubi)
inferiore come feature (no dlss, rt inferiore)
anche la 4070 ti mi puzza un po' per via della vram e del bus, ma non avendo intenzione di muovermi dai 1440p potrebbe essere il male minore la scelta migliore
Togli il forse, l'alimentatore lo devi cambiare a prescindere da quale scegli, io tempo fa mi sono tolto il pensiero con un Focus GX 850, comunque a pieno carico la 7900 RX è circa 40W sopra la 4070 Ti (320 vs 280), stiamo in ogni caso parlando di numeri attorno a 300 che sicuramente sono un problema se il PC è in un locale già tendenzialmente caldo di suo nella bella stagione.
Io la 3070 l'ho downvoltata a 900mV @ 1850 e sono passato da 270W a circa 180W, una bella differenza d'estate, non sò quali margini di manovra ci sono in tal senso con le schede sopra citate.
Il 7900 pero' ha margini elevatissimi di undervolt (certo c'e` la lotteria del silicio), che possono avvicinare quei numeri ai 200.
mikael84
24-04-2023, 15:53
anche io sto pensando di passare da 3070 a 4070 ti o 7900 xt
ma se guardo la seconda vedo che
consuma di più e forse dovrei cambiare pure alimentatore (focus gx 550w)
driver che fanno bizzeffe (avevo rdna1 e ho ancora gli incubi)
inferiore come feature (no dlss, rt inferiore)
anche la 4070 ti mi puzza un po' per via della vram e del bus, ma non avendo intenzione di muovermi dai 1440p potrebbe essere il male minore la scelta migliore
Con quell'alimentatore non va bene nessuna delle due, forse la 4070ti, ma a patto di downvoltarla pesante per evitare i micropicchi.
Ad esempio, se prendiamo una 7900xt, tu dai programmi a 500ms, vedi circa 320-350 watt, ma in realtà, non è proprio così.
Questo è ciò che rilevano gli oscilloscopi a 20ms.
https://www.igorslab.de/wp-content/uploads/2022/12/11-Gaming-Power-1.png
In 2 minuti di gioco, la GPU ha sforato i 500watt per 2 brevissimi ed impercettibili istanti, mentre tu vedi 300 watt su GPU-Z.
Per ridurre i micropicchi, la soluzione è abbassare drasticamente la tensione, o devi sperare che il tuo ALI sia talmente "sveglio", da resistere a livello di condensatori secondari.
Riguardo il bus, sono 192bit + 48mb di cache, che come vedi qua, non è proprio uguale a 192bit ampere.
https://videocardz.com/newz/nvidia-geforce-rtx-3090-has-been-tested-with-custom-20gb-320b-and-12gb-192b-memory-bioses
Chiaro che la cache, non può colmare tutto vs i giganti 384bit ampere.
La 4070 ne soffre ancora di più, in quanto la cache è segata.:)
ColdWarGuy
24-04-2023, 15:55
Il 7900 pero' ha margini elevatissimi di undervolt (certo c'e` la lotteria del silicio), che possono avvicinare quei numeri ai 200.
Questa è un'ottima cosa, già un massimo limitato a 230-240W senza perdite evidenti di prestazione farebbe una bella differenza, rimane da vedere che margine ha 4070 Ti in tal senso.
C'è comunque sempre il tarlo dell'RT / DLSS che giacchetta ha inoculato praticamente a tutti, io stesso non riesco a capire se il ray tracing mi piace o no, motivo per cui non trovo scuse con me stesso per spendere 900 o più euro solo per soddisfare questo aspetto.
Di sicuro non mi faccio incantare da esperimenti tipo path tracing su CP2077, il costo in termini di prestazione è assolutamente inaccettabile per quello che ritorna, al più lo prendo come un esercizio tecnico.
fraussantin
24-04-2023, 15:56
anche io sto pensando di passare da 3070 a 4070 ti o 7900 xt
ma se guardo la seconda vedo che
consuma di più e forse dovrei cambiare pure alimentatore (focus gx 550w)
driver che fanno bizzeffe (avevo rdna1 e ho ancora gli incubi)
inferiore come feature (no dlss, rt inferiore)
anche la 4070 ti mi puzza un po' per via della vram e del bus, ma non avendo intenzione di muovermi dai 1440p potrebbe essere il male minore la scelta miglioreTralasciando come ti han detto che l'alimentatore cmq lo devi cambiare , se hai un monitor freesync e non cambi spesso gpu prenderei amd.
Se invece sai già che il prossimo anno cambierai alle 5000 meglio nvidia perche tiene meglio il valore in media nonostante sian meno longeva.
Oltre al fatto che hai ozioni da sfruttare in più.
ColdWarGuy
24-04-2023, 16:02
-snip
sto avendo problemi di salute e depressione che mettono il pc non certo in primo piano :stordita:
Per quell'aspetto, a meno di impedimenti legati alla salute, consiglio attività fisica all'aperto e attività sociali non digitali, a costo di farsi violenza per sforzarsi a farlo.
Stare in casa davanti uno schermo è l'ultima delle soluzioni, ne sò qualcosa perchè ci sono passato anch'io anni fa a causa di una malattia non banale che per fortuna si è poi risolta.
Moreno Morello
24-04-2023, 16:21
azz non sapevo questa cosa dell'ali, con un corsair rmx 750w dovrei andare bene, vero?
Questa è un'ottima cosa, già un massimo limitato a 230-240W senza perdite evidenti di prestazione farebbe una bella differenza, rimane da vedere che margine ha 4070 Ti in tal senso.
C'è comunque sempre il tarlo dell'RT / DLSS che giacchetta ha inoculato praticamente a tutti, io stesso non riesco a capire se il ray tracing mi piace o no, motivo per cui non trovo scuse con me stesso per spendere 900 o più euro solo per soddisfare questo aspetto.
Di sicuro non mi faccio incantare da esperimenti tipo path tracing su CP2077, il costo in termini di prestazione è assolutamente inaccettabile per quello che ritorna, al più lo prendo come un esercizio tecnico.
Figurati, anche per me il RT ad oggi è un lusso che non vincola necessariamente un acquisto. Anche perché a parte pochi casi come CP2077 l'implementazione generale lascia molto a desiderare.
Il DLSS d'altro canto sì, sono fps gratuiti visto che a quality la perdita di qualità rispetto alla risoluzione nativa non la percepisco come "visibile quindi fastidiosa", anzi alcune volte lo trovo migliore del nativo perché va a sostituire il pessimo TAA di alcuni giochi.
IL FSR 2.0 invece da proprio fastidio in genere, l'immagine è visibilmente impastata
Il problema della 4070Ti è che è oggettivamente una 4070 pompata, non è che abbia più VRAM, bus diverso ne niente. Infatti mica NVIDIA l'ha chiamata 4080 (ah giusto :sofico: )
solo che se già la 4070 è sovraprezzata per essere "la VGA da qhd" la versione Ti per essere "la vga da qhd ancora meglio" :asd: va molto sul ridicolo secondo me. Lo sforzone di dare almeno la 4080 a 900 euro no?
ColdWarGuy
24-04-2023, 16:44
azz non sapevo questa cosa dell'ali, con un corsair rmx 750w dovrei andare bene, vero?
Figurati, anche per me il RT ad oggi è un lusso che non vincola necessariamente un acquisto. Anche perché a parte pochi casi come CP2077 l'implementazione generale lascia molto a desiderare.
Il DLSS d'altro canto sì, sono fps gratuiti visto che a quality la perdita di qualità rispetto alla risoluzione nativa non la percepisco come "visibile quindi fastidiosa", anzi alcune volte lo trovo migliore del nativo perché va a sostituire il pessimo TAA di alcuni giochi.
IL FSR 2.0 invece da proprio fastidio in genere, l'immagine è visibilmente impastata
L'OEM dell'RMX750 dovrebbe essere CWT, in quella categoria personalmente preferisco i Seasonic serie GX, progetto più recente ed esecuzione più "pulita", ma è anche vero che queste sono "pippe" da elettronici :D
Se fai un giro su trovaprezzi il Focus 750 GX lo trovi attorno ai 130-140 euro, il mio 850 l'ho preso l'anno scorso di culo a 122 euro su Amazon.
ColdWarGuy
24-04-2023, 16:49
Il problema della 4070Ti è che è oggettivamente una 4070 pompata, non è che abbia più VRAM, bus diverso ne niente. Infatti mica NVIDIA l'ha chiamata 4080 (ah giusto :sofico: )
solo che se già la 4070 è sovraprezzata per essere "la VGA da qhd" la versione Ti per essere "la vga da qhd ancora meglio" :asd: va molto sul ridicolo secondo me. Lo sforzone di dare almeno la 4080 a 900 euro no?
Eh sì, hanno peccato un "tantinello" di ingordigia :D
L'imperativo è non comprare adesso, così poi forse abbassano, altrimenti è certo che non lo fanno, anzi ...
Il problema della 4070Ti è che è oggettivamente una 4070 pompata, non è che abbia più VRAM, bus diverso ne niente. Infatti mica NVIDIA l'ha chiamata 4080 (ah giusto :sofico: )
solo che se già la 4070 è sovraprezzata per essere "la VGA da qhd" la versione Ti per essere "la vga da qhd ancora meglio" :asd: va molto sul ridicolo secondo me. Lo sforzone di dare almeno la 4080 a 900 euro no?
Vabbè, tra 4070 e 4070ti c'è un divario persino maggiore di quello che c'è tra 3060ti e 3070ti, quindi la differenza c'è ma è ovvio che se vuoi il salto di fascia devi prendere un chip più grosso e quindi AD103...
Il problema di fondo, che oramai è diventato anche ridondante ripeterlo, è il modo in cui sono posizionati commercialmentei chip, se la 4070ti si fosse chiamata 4070 e l'avessero piazzata a 599$, già sarebbe stato più tollerabile, e di conseguenza anche per la 4070 se si fosse chiamata 4060ti e prezzata sui 449$ non credo che ci saremmo lamentati come ora.
Vabbè, tra 4070 e 4070ti c'è un divario persino maggiore di quello che c'è tra 3060ti e 3070ti, quindi la differenza c'è ma è ovvio che se vuoi il salto di fascia devi prendere un chip più grosso e quindi AD103...
Il problema di fondo, che oramai è diventato anche ridondante ripeterlo, è il modo in cui sono posizionati commercialmentei chip, se la 4070ti si fosse chiamata 4070 e l'avessero piazzata a 599$, già sarebbe stato più tollerabile, e di conseguenza anche per la 4070 se si fosse chiamata 4060ti e prezzata sui 449$ non credo che ci saremmo lamentati come ora.
ma alla fine puoi pure dire che con 4070 indichi la "nuova fascia da 1440p", con 12GB di VRAM e 192bit (come le due 4070 appunto), ha un suo senso logico se non la fai arrivare a 900 euro o quel che è e non fai partire quella non-Ti da 669.
4080 fai la fascia superiore con 16GB di VRAM e 256bit
delle x90 onestamente frega nulla facessero roba elitaria al prezzo che vogliono, basta che non fai diventare elitario tutto il PC gaming
Ma sarà anche peggio il posizionamento con 4060ti e soprattutto 4060.
Sinceramente io mi aspetto un refresh a fine anno con prezzi più in linea.
Altrimenti se si ha una GPU minimamente decente conviene saltare Lovelace di sana pianta, ma anche dal lato rosso non è che le 7000 siano rose e fiori, in tanti sono addirittura speranzosi verso il lato blu con Battlemage XD
StylezZz`
24-04-2023, 20:22
...in tanti sono addirittura speranzosi verso il lato blu con Battlemage XD
presente!
Ale55andr0
24-04-2023, 20:32
Vabbè, tra 4070 e 4070ti c'è un divario persino maggiore di quello che c'è tra 3060ti e 3070ti, quindi la differenza c'è ma è ovvio che se vuoi il salto di fascia devi prendere un chip più grosso e quindi AD103...
Il problema di fondo, che oramai è diventato anche ridondante ripeterlo, è il modo in cui sono posizionati commercialmentei chip, se la 4070ti si fosse chiamata 4070 e l'avessero piazzata a 599$, già sarebbe stato più tollerabile, e di conseguenza anche per la 4070 se si fosse chiamata 4060ti e prezzata sui 449$ non credo che ci saremmo lamentati come ora.
sarebbe stata ottima, non tollerabile, come ottima sarebbe stata la 4080 a 799.
mikael84
24-04-2023, 21:08
Ma sarà anche peggio il posizionamento con 4060ti e soprattutto 4060.
Sinceramente io mi aspetto un refresh a fine anno con prezzi più in linea.
Altrimenti se si ha una GPU minimamente decente conviene saltare Lovelace di sana pianta, ma anche dal lato rosso non è che le 7000 siano rose e fiori, in tanti sono addirittura speranzosi verso il lato blu con Battlemage XD
Battlemage sui 4nm, ed un die da 400mm2 circa, avrà costi un tantino superiori alla 4080 a livello di die puro. Quasi 200$ solo qua.
Non ci saranno i prezzi attuali, considerando che la fascia di riferimento non saranno le 4060/7600, ma le x70.
DJurassic
24-04-2023, 22:42
Sto puntando a far cassa e vedere se muoio prima io o il mercato delle GPU :asd:
Scherzi a parte, non ne ho idea, vedo che riesco a combinare ma sono più confuso che altro, a parte il fatto di voler cambiare gpu. Di sicuro prendo un 5700x e 32gb appena posso, per la gpu non ho fretta, tanto tutto quello che mi interessa uscirà minimo a fine e anno (stalker 2, starfield, the phantom liberty) in più sto avendo problemi di salute e depressione che mettono il pc non certo in primo piano :stordita:
Per quanto possa valere mi dispiace molto per quello che hai scritto nell'ultima frase e spero proprio che tu riesca a uscirne al più presto. Un grande in bocca al lupo per tutto e rimettiti alla svelta, se non ci sei tu a parlare male del DLSS qui dentro con chi me la prendo? :asd:
Ale55andr0
24-04-2023, 23:00
Per quanto possa valere mi dispiace molto per quello che hai scritto nell'ultima frase e spero proprio che tu riesca a uscirne al più presto. Un grande in bocca al lupo per tutto e rimettiti alla svelta, se non ci sei tu a parlare male del DLSS qui dentro con chi me la prendo? :asd:
Cmq devo dire che ho scritto una frase che è fraintendibile, si' sto male e ho un problema (o meglio più di uno) di salute del tipo che fa star male al punto, purtroppo, da compromette la qualità della vita, ma non è del tipo "cassa da morto in tempi brevi", cioè...però adesso non vorrei però essermela tirata al contrario :asd:
Cmq grazie per l'augurio ;)
/OT
Cmq devo dire che ho scritto una frase che è fraintendibile, si' sto male e ho un problema (o meglio più di uno) di salute del tipo che fa star male al punto, purtroppo, da compromette la qualità della vita, ma non è del tipo "cassa da morto in tempi brevi", cioè...però adesso non vorrei però essermela tirata al contrario :asd:
Cmq grazie per l'augurio ;)
/OT
Un po' di pazienza.
Ho avuto anche io qualche anno fa problemi fisici tosti che non sto a spiegare e che ancora mi trascino seppur migliorato molto.
All inizio mi sono buttato giù psicologicamente, ho venduto lo scooter, e vari medici.
Durante la pandemia c'è stato un mese che non riuscivo manco a camminare e stavo a letto. Poi è arrivata la chiamata di lavoro che aspettavo e ho chiesto a mio padre di guidare per 600km ed io sdraiato sul sedile posteriore dell' auto. A lavoro soffrivo come un cane in quel periodo ma non ho mai detto niente sul mio stato.
Dobbiamo accettare le cose così come vengono e soprattutto cercare di migliorarle :)
Ale55andr0
25-04-2023, 06:46
Un po' di pazienza.
Ho avuto anche io qualche anno fa problemi fisici tosti che non sto a spiegare e che ancora mi trascino seppur migliorato molto.
All inizio mi sono buttato giù psicologicamente, ho venduto lo scooter, e vari medici.
Durante la pandemia c'è stato un mese che non riuscivo manco a camminare e stavo a letto. Poi è arrivata la chiamata di lavoro che aspettavo e ho chiesto a mio padre di guidare per 600km ed io sdraiato sul sedile posteriore dell' auto. A lavoro soffrivo come un cane in quel periodo ma non ho mai detto niente sul mio stato.
Dobbiamo accettare le cose così come vengono e soprattutto cercare di migliorarle :)
Buondì, essi', hai assolutamente ragione, bisogna anche avere atteggiamento e forza di volontà anche se facile a dirlo un filo meno a farlo. Fra l'altro (parlo di qualche giorno fa) preso dalla frustrazione ho dato una palmata al parabrezza dell'auto: 230 euro di danno :doh:
/OT
fraussantin
25-04-2023, 07:02
Buondì, essi', hai assolutamente ragione, bisogna anche avere atteggiamento e forza di volontà anche se facile a dirlo un filo meno a farlo. Fra l'altro (parlo di qualche giorno fa) preso dalla frustrazione ho dato una palmata al parabrezza dell'auto: 230 euro di danno :doh:
/OTPer mia esperienza tu posso dire che quasi tutti abbiamo qualche problemino di salute o cmq problemi in generale , e c'è sempre qualcuno che sta peggio , proprio ieri un collega mi si è sfogato e sono rimasto di ghiaccio dalla quantità di problemi sia di salute ( gravi) che economici che ha. Ed è costretto a lavorare anche se non ce la.fa e prende un sacco di medicinali.
L'unico consiglio che posso darti come ho fatto anche con lui è di farsi forza , andare avanti e cercare di viverecal meglio delle possibilita , fregandosene di chi è più fortunato e di cosa pensa la gente.
Spesso parlare aiuta più di di quanto si pensa , con amici colleghi o anche un professionista se necessario , ma l'importante è non chiudersi dentro perche tanto presto o tardi si finisce per sfogare in altro modo le emozioni.
fraussantin
25-04-2023, 07:08
Battlemage sui 4nm, ed un die da 400mm2 circa, avrà costi un tantino superiori alla 4080 a livello di die puro. Quasi 200$ solo qua.
Non ci saranno i prezzi attuali, considerando che la fascia di riferimento non saranno le 4060/7600, ma le x70.
Ma è previsto solo la mattonella o faranno anche qualcosa di più piccolo?
Cmq alla fine il prezzo lo fa anche il mercato, se fanno una scheda che andrà a costare anche 500 dollari finita (quindi 1000 euro a scaffale), se non avrà le prestazioni simili alla concorrenza dovranno cmq piazzarla a meno.
Potrebbe anche darsi che non puntino sulla fascia bassa del mercato perche quella zona potrebbe essere coperta dalle apu. ( Quindi è probabile che anche loro stiano lavorando in quel senso)
Si vociferava una apu con prestazioni simili alla 4070 , che fra 2 anni potrebbe essere benissimo la fascia 5050ti\5060
Comunque andrebbe data in bundle con case ITX sta VGA :p (il case gratis visto il prezzo della VGA :asd: )
https://tpucdn.com/review/nvidia-geforce-rtx-4070-founders-edition/images/power-vsync.png
https://tpucdn.com/review/nvidia-geforce-rtx-4070-founders-edition/images/power-gaming.png
https://tpucdn.com/review/nvidia-geforce-rtx-4070-founders-edition/images/power-spikes.png
bello anche questo
https://tpucdn.com/review/nvidia-geforce-rtx-4070-founders-edition/images/power-multi-monitor.png
Lato consumi è li con 3060ti...
E' ironico che una soluzione del genere abbia dissipatori mastodontici o comunque non proprio adattissimi agli ITX.
Lato consumi è li con 3060ti...
E' ironico che una soluzione del genere abbia dissipatori mastodontici o comunque non proprio adattissimi agli ITX.
ma tanto ormai quando vedi le build itx...sembrano più microatx un po' più piccoli che altro.
ma tanto ormai quando vedi le build itx...sembrano più microatx un po' più piccoli che altro.
Personalmente non mi hanno mai attratto, anche perchè fondamentalmente l'area di appoggio sulla scrivania è la stessa di un classico mid tower, variano solo per l'altezza.
Fatta eccezione per quelli in verticale come l'H1, dove è l'opposto.
Poi dipende dove devi infilarlo, però se devo liberare la scrivania mi farei direttamente un desk pc.
ColdWarGuy
25-04-2023, 10:31
Battlemage sui 4nm, ed un die da 400mm2 circa, avrà costi un tantino superiori alla 4080 a livello di die puro. Quasi 200$ solo qua.
Non ci saranno i prezzi attuali, considerando che la fascia di riferimento non saranno le 4060/7600, ma le x70.
Qui c'è da sperare che compaia qualche altro attore nel mondo delle fab silicio a bassa nanometria perchè, da una parte, TSMC ci stà marciando alla grande e dall'altra i cinesi mi sembrano abbastanza determinati a rompere le uova nel paniere del mondo occidentale.
Anche rimanendo sui 5nm, le cui frequenze di lavoro sono un deciso progresso rispetto al passato, spero che con il tempo i costi del die diminuiscano e/o si incominci ad investire nello sviluppo di nuove architetture, sia HW che SW, anche perchè sappiamo bene che con le nanometrie non si scenderà all'infinito.
Qui c'è da sperare che compaia qualche altro attore nel mondo delle fab silicio a bassa nanometria perchè, da una parte, TSMC ci stà marciando alla grande e dall'altra i cinesi mi sembrano abbastanza determinati a rompere le uova nel paniere del mondo occidentale.
Anche rimanendo sui 5nm, le cui frequenze di lavoro sono un deciso progresso rispetto al passato, spero che con il tempo i costi del die diminuiscano e/o si incominci ad investire nello sviluppo di nuove architetture, sia HW che SW, anche perchè sappiamo bene che con le nanometrie non si scenderà all'infinito.
Potrebbe esserci un ritorno di GlobalFoundries che è rimasta ferma ai 12nm, e da quanto so ci sono state diverse controversie con TSMC e brevetti vari.
ColdWarGuy
25-04-2023, 10:49
Personalmente non mi hanno mai attratto, anche perchè fondamentalmente l'area di appoggio sulla scrivania è la stessa di un classico mid tower, variano solo per l'altezza.
Fatta eccezione per quelli in verticale come l'H1, dove è l'opposto.
Poi dipende dove devi infilarlo, però se devo liberare la scrivania mi farei direttamente un desk pc.
Probabilmente hanno ormai senso solo per una pseudo consolle da gioco da mettere sotto il televisore, mentre le build home theater per la visione dei video ad alta qualità sono ormai storia antica, hanno vinto le TV stick di Amazon :D
Probabilmente hanno ormai senso solo per una pseudo consolle da gioco da mettere sotto il televisore, mentre le build home theater per la visione dei video ad alta qualità sono ormai storia antica, hanno vinto le TV stick di Amazon :D
ma ormai va lo streaming e tutte le app possibili stanno già sulla TV stessa (che poi leggerebbe pure i file video direttamente e dalla rete volendo).
più che altro è scelta estetica, io odio gli ATX e le giganterie, adesso sto su MicroATX che già è più compatto ma ero contento sul mio vecchio Node 304 (VGA dual slot, ormai limitazione enorme).
alla fine sono andati di moda appunto case che sono dei piccoli MicroATX, e qualche case più particolare come l'H1 (che poi la prima versione era facile mandarla a temperature ben poco simpatiche).
sicuro una 4070 permette una build in un case piccolo con airflow limitato, rispetto alle sue "pari" 6800XT e 3080 la differenza è grossa
il vero itx è morto da tempo, ricordo le VGA single slot :asd:
mikael84
25-04-2023, 11:24
Ma è previsto solo la mattonella o faranno anche qualcosa di più piccolo?
Cmq alla fine il prezzo lo fa anche il mercato, se fanno una scheda che andrà a costare anche 500 dollari finita (quindi 1000 euro a scaffale), se non avrà le prestazioni simili alla concorrenza dovranno cmq piazzarla a meno.
Potrebbe anche darsi che non puntino sulla fascia bassa del mercato perche quella zona potrebbe essere coperta dalle apu. ( Quindi è probabile che anche loro stiano lavorando in quel senso)
Si vociferava una apu con prestazioni simili alla 4070 , che fra 2 anni potrebbe essere benissimo la fascia 5050ti\5060
Si conosce solo (almeno da rumour) il chip post arc770. Cmq non che costerà come la 4080, ma ci sarà un aumento lato die di quasi 2x. E' vero che parliamo di circa 75-80$, ma sicuro impatterà nel prezzo finale.
Inoltre andrà a giocarsela con la fascia x70, non 60 come ora, di conseguenza, chi si aspetta 300-350 euro, potrebbe rimanere abbastanza deluso.:)
260$ stanno solo tra die e ram.
Qui c'è da sperare che compaia qualche altro attore nel mondo delle fab silicio a bassa nanometria perchè, da una parte, TSMC ci stà marciando alla grande e dall'altra i cinesi mi sembrano abbastanza determinati a rompere le uova nel paniere del mondo occidentale.
Anche rimanendo sui 5nm, le cui frequenze di lavoro sono un deciso progresso rispetto al passato, spero che con il tempo i costi del die diminuiscano e/o si incominci ad investire nello sviluppo di nuove architetture, sia HW che SW, anche perchè sappiamo bene che con le nanometrie non si scenderà all'infinito.
Il problema è che si fanno pagare anche loro. Ora non è stato pubblicato ancora il listino samsung, ma quello utilizzato su ampere costava 6k$, quanto quello di TSMC$. Ora però con i 3nm TSMC chiederà ben 20k$ a wafer, ed inizialmente si parlava di ben 30$, che avrebbe parzialmente ucciso il mercato con i costi.
Da considerare cmq, che sono PP inferiori, quindi anche facendoti un prezzo leggermente più appetibile, lo paghi in prestazioni e consumi.
Si conosce solo (almeno da rumour) il chip post acr770. Cmq non che costerà come la 4080, ma ci sarà un aumento lato die di quasi 2x. E' vero che parliamo di circa 75-80$, ma sicuro impatterà nel prezzo finale.
Inoltre andrà a giocarsela con la fascia x70, non 60 come ora, di conseguenza, chi si aspetta 300-350 euro, potrebbe rimanere abbastanza deluso.:)
260$ stanno solo tra die e ram.
Il problema è che si fanno pagare anche loro. Ora non è stato pubblicato ancora il listino samsung, ma quello utilizzato su ampere costava 6k$, quanto quello di TSMC$. Ora però con i 3nm TSMC chiederà ben 20k$ a wafer, ed inizialmente si parlava di ben 30$, che avrebbe parzialmente ucciso il mercato con i costi.
Da considerare cmq, che sono PP inferiori, quindi anche facendoti un prezzo leggermente più appetibile, lo paghi in prestazioni e consumi.
Si ma mettici che la 4080 è e rimane un chippetto da 379mm2 venduto a 1200$, per quanti rincari si possano avere siamo lontani dai 699$ di 3080 su un GA102 da 628mm2.
Già ora Intel sta vendendo le A750/A770 da 406mm2 ben al di sotto degli equivalenti in die come Navi 22 (335mm2)/GA104(392mm2).
Quindi non dico che ti costerà 400€, ma probabilmente si fermerà alla soglia dei 600$, con prestazioni teoriche a cavallo tra 4070ti e 4080 e con la solita fluttuazione a seconda dell'engine.
mikael84
25-04-2023, 11:47
Si ma mettici che la 4080 è e rimane un chippetto da 379mm2 venduto a 1200$, per quanti rincari si possano avere siamo lontani dai 699$ di 3080 su un GA102 da 628mm2.
Già ora Intel sta vendendo le A750/A770 da 406mm2 ben al di sotto degli equivalenti in die come Navi 22/GA104.
Quindi non dico che ti costerà 400€, ma probabilmente si fermerà alla soglia dei 600€, con prestazioni teoriche a cavallo tra 4070ti e 4080 e con la solita fluttuazione a seconda dell'engine.
Appunto, chi spera in battlemage sulla fascia bassa, rimarrà deluso, salvo non venda in perdita o con margini quasi inesistenti.
Chiaramente sulla 4080 è tutta speculazione, non è certo colpa del die, a conti fatti costa 100$ in più della 4070ti costruirla.
600 euro ci potrebbe anche stare.
Sulle perf, alla 4080 non ci arriverà, a die e transistor circa equivalenti, non supererà mai nvidia. Il chip sarà mediamente pensato per scontrarsi in fascia x70
Ma penso sia più che probabile che con 600$ si vedrà la soluzione top con eventuali 32GB, inseguendo la strategia delle attuali Arc come posizionamento.
L'eventuale cut in stile A750, potrebbe invece essere quello più interessante con prezzi nell'intorno dei 450€.
mikael84
25-04-2023, 12:03
Ma penso sia più che probabile che con 600$ si vedrà la soluzione top con eventuali 32GB, inseguendo la strategia delle attuali Arc come posizionamento.
L'eventuale cut in stile A750, potrebbe invece essere quello più interessante con prezzi nell'intorno dei 450€.
Per 32 gb dovresti avere ram già pronte con la quadrupla densità, non farà clamshell.
L'unico modo per un competitor sia intel che AMD, di poter far male a JHH, sarebbe utilizzare il 3nm prima di lui, ma ti devi chiamare Apple :p
Un 400mm2 a 3nm riesce ad impilare più transistor di AD102.
fraussantin
25-04-2023, 12:18
Ma penso sia più che probabile che con 600$ si vedrà la soluzione top con eventuali 32GB, inseguendo la strategia delle attuali Arc come posizionamento.
L'eventuale cut in stile A750, potrebbe invece essere quello più interessante con prezzi nell'intorno dei 450€.32 giga sarebbero solo marketing però.
Avrebbe piu senso una 16 giga e cercare di contenere i costi.
Cmq 600 dollari sarebbero 750 euro da noi , se fosse veramente top non sarebbe male.
Ma ho paura che se i costi sono quelli indicati da Micheal fra guadagni intel , rivenditori e iva saremo piu alti
ColdWarGuy
25-04-2023, 12:35
Inoltre andrà a giocarsela con la fascia x70, non 60 come ora, di conseguenza, chi si aspetta 300-350 euro, potrebbe rimanere abbastanza deluso.:)
260$ stanno solo tra die e ram.
Dovranno confrontarsi con una fascia di prezzo di strada che va dai 659 euro ai 1100 euro, vedo ampio margine di concorrenza, a meno che l'operazione "noi raddoppiamo i prezzi e voi stronzi state muti e comprate" di Nvidia alla fine abbia la meglio.
Per quello che mi concerne la parola d'ordine continua ad essere : SCAFFALE
Il problema è che si fanno pagare anche loro. Ora non è stato pubblicato ancora il listino samsung, ma quello utilizzato su ampere costava 6k$, quanto quello di TSMC$. Ora però con i 3nm TSMC chiederà ben 20k$ a wafer, ed inizialmente si parlava di ben 30$, che avrebbe parzialmente ucciso il mercato con i costi.
Ora come ora i 3nm hanno senso solo per il mercato mobile, basterebbe che il 5nm non rimanesse esclusiva di TSMC, a meno che l'occidente non voglia definitivamente suicidarsi tecnologicamente.
Comunque ripeto : NON COMPRATE NIENTE.
32 giga sarebbero solo marketing però.
Avrebbe piu senso una 16 giga e cercare di contenere i costi.
Cmq 600 dollari sarebbero 750 euro da noi , se fosse veramente top non sarebbe male.
Ma ho paura che se i costi sono quelli indicati da Micheal fra guadagni intel , rivenditori e iva saremo piu alti
Si, è esattamente quello che ha fatto con le attuali arc, pure la Arc 770 con 16GB non è che serva a molto, tranne forse in produttività.
Poi nulla vieta di riproporre lo stesso scherma visto con le attuali arc, quindi proporre anche varianti da 16GB e relativo cut di ALU.
Alla fine pure la Arc A750 come prestazioni è giusto un 5-10% meno performante della A770, lato vram non è che 8GB siano problematici in quel target di prestazioni e sui 250€ è un chip molto interessante, forse più della A770 che si va a scontrare come prezzo con 6700xt e 3060ti che risultano più bilanciate.
Per 32 gb dovresti avere ram già pronte con la quadrupla densità, non farà clamshell.
L'unico modo per un competitor sia intel che AMD, di poter far male a JHH, sarebbe utilizzare il 3nm prima di lui, ma ti devi chiamare Apple :p
Un 400mm2 a 3nm riesce ad impilare più transistor di AD102.
In teoria visto che battleimage è atteso per l'anno prossimo non sarebbe impossibile che monti le GDDR6W di samsung, almeno come tempi dovremmo esserci.
Poi lato prestazionale mi riferivo alle prestazioni teoriche poi lato pratico non mi aspetto nulla di diverso dalle attuali Arc in proporzione.
mikael84
25-04-2023, 12:59
Dovranno confrontarsi con una fascia di prezzo di strada che va dai 659 euro ai 1100 euro, vedo ampio margine di concorrenza, a meno che l'operazione "noi raddoppiamo i prezzi e voi stronzi state muti e comprate" di Nvidia alla fine abbia la meglio.
Per quello che mi concerne la parola d'ordine continua ad essere : SCAFFALE
Ora come ora i 3nm hanno senso solo per il mercato mobile, basterebbe che il 5nm non rimanesse esclusiva di TSMC, a meno che l'occidente non voglia definitivamente suicidarsi tecnologicamente.
Comunque ripeto : NON COMPRATE NIENTE.
Infatti già con Lovelace si doveva usare il 4lpp di samsung, ma alla fine ha puntato a TSMC.
Ciò però avrebbe portato a consumi ben più alti (ecco i dissipatori mastodontici) e clock inferiori.
Con blackwell non è escluso si ritorni a samsung, se le rese dei GAAFET avranno buone rese.
I 3nm sarebbero molto più economici se usati per i chip attuali rispetto ai 5nm, il problema è quando devi costruire die grandi uguali.
Ad esempio, una 4080, avrebbe un die da 220-225mm2 a 3nm più un clock over 3ghz.:)
presente!
Siamo in 2!
Dopo praticamente una vita con Nvidia sta mossa qui che ha fatto Huang con Lovelace mi ha proprio lasciato con l'amaro in bocca, per non dire altro!
Spero che si mantenga questo andazzo così magari Blackwell tornerà non dico a prezzi umani, ma almeno su quelli delle Amperè, poi che diano i chip da fare di nuovo a Samsung piuttosto che TSMC o Globalfoundries non è una cosa che mi riguarda se aiuterà a mantenere prestazioni e prezzi decenti.
La tanto bistrattata A770 per 340€, anzi, ora pure qualcosa meno su alcuni shop, fa il suo e senza troppi problemi come pensavo prima di prenderla, i driver migliorano sensibilmente ad ogni release e ricordiamoci che a meno di 350€ ora come ora nemmeno la più pezzente delle 3070 o delle 3060Ti usate si riesce ad acquistare.
devil_mcry
25-04-2023, 18:25
Siamo in 2!
Dopo praticamente una vita con Nvidia sta mossa qui che ha fatto Huang con Lovelace mi ha proprio lasciato con l'amaro in bocca, per non dire altro!
Spero che si mantenga questo andazzo così magari Blackwell tornerà non dico a prezzi umani, ma almeno su quelli delle Amperè, poi che diano i chip da fare di nuovo a Samsung piuttosto che TSMC o Globalfoundries non è una cosa che mi riguarda se aiuterà a mantenere prestazioni e prezzi decenti.
La tanto bistrattata A770 per 340€, anzi, ora pure qualcosa meno su alcuni shop, fa il suo e senza troppi problemi come pensavo prima di prenderla, i driver migliorano sensibilmente ad ogni release e ricordiamoci che a meno di 350€ ora come ora nemmeno la più pezzente delle 3070 o delle 3060Ti usate si riesce ad acquistare.
credo che i pc da gaming saranno sempre meno "popolari"
credo che i pc da gaming saranno sempre meno "popolari"
Purtroppo non posso che darti ragione, una volta la differenza tra PC e consolle era abissale, ricordo giocare a Need for Speed Porsche 2000 su Playstation e poi giocare lo stesso gioco su PC, non sembrava la stessa cosa sia per fluidità che per grafica ed il costo medio di un PC "decente" non era tanto lontano da quello di una consolle.
Ora abbiamo consolle che con 500€ o qualcosa di più ti offrono un'esperienza decente priva di problemi quali mal ottimizzazioni e altre amenità, mentre per un PC che faccia più o meno lo stesso lavoro con stessa grafica e magari più frame bisogna sborsare minimo 3 volte tanto, in quanto con 500€ nemmeno la sola vga ci compri a momenti. :mc:
Si sa già se le nuove schede video serie 5000 saranno ancora su pci-e gen 4 o 5?
Tra la sfilza di schede madri AM5, stavo capendo se conveniva o meno investire di più per una che avesse lo slot gen 5 per la vga visto che vorrei sfruttare la nuova scheda madre per l'attuale e successiva gen nvidia prima di cambiarla tra 3 anni.
grazie
Purtroppo non posso che darti ragione, una volta la differenza tra PC e consolle era abissale, ricordo giocare a Need for Speed Porsche 2000 su Playstation e poi giocare lo stesso gioco su PC, non sembrava la stessa cosa sia per fluidità che per grafica ed il costo medio di un PC "decente" non era tanto lontano da quello di una consolle.
Ora abbiamo consolle che con 500 o qualcosa di più ti offrono un'esperienza decente priva di problemi quali mal ottimizzazioni e altre amenità, mentre per un PC che faccia più o meno lo stesso lavoro con stessa grafica e magari più frame bisogna sborsare minimo 3 volte tanto, in quanto con 500 nemmeno la sola vga ci compri a momenti. :mc:Sono due ecosistemi software agli antipodi.
E il PC non é solo il fisso, ma si suddivide in tante soluzioni diversificate come notebook, handheld, mini-pc, tablet...
Quindi il paragone con le console lo trovo sempre no sense... Se uno gioca su PC lo fa anche per tutto l'ecosistema che c'è dietro.
Inviato dal mio M2012K11AG utilizzando Tapatalk
StylezZz`
25-04-2023, 19:08
Si sa già se le nuove schede video serie 5000 saranno ancora su pci-e gen 4 o 5?
Tra la sfilza di schede madri AM5, stavo capendo se conveniva o meno investire di più per una che avesse lo slot gen 5 per la vga visto che vorrei sfruttare la nuova scheda madre per l'attuale e successiva gen nvidia prima di cambiarla tra 3 anni.
grazie
ma anche se fosse non avresti nessun beneficio, il PCIe 3 va ancora bene, figuriamoci sfruttare pienamente il 4 o addirittura il 5.
Sono due ecosistemi software agli antipodi.
E il PC non é solo il fisso, ma si suddivide in tante soluzioni diversificate come notebook, handheld, mini-pc, tablet...
Quindi il paragone con le console lo trovo sempre no sense... Se uno gioca su PC lo fa anche per tutto l'ecosistema che c'è dietro.
Inviato dal mio M2012K11AG utilizzando Tapatalk
Non son sceso nei dettagli per rendere appunto nel modo più diretto possibile il paragone, ovvio che son due ecosistemi diversi, col PC fai N cose, con la consolle no.
Però lato prezzi paragonando consolle e PC fisso, il divario da inizio anni 2000 non è mai stato così ampio come ora, volevo arrivare lì come punto del discorso. :)
I tempi cambiano, per carità, ma non si può passare dai 550€ di una gtx 980 ad i 1400€ di una rtx 4080 neanche 10 anni dopo, al netto di tutti gli aumenti possibili immaginabili concepibili dei materiali e le lavorazioni necessarie per la produzione.
ma anche se fosse non avresti nessun beneficio, il PCIe 3 va ancora bene, figuriamoci sfruttare pienamente il 4 o addirittura il 5.
su una 4090 il gen 3 non basta... già sulla 3090 si perdeva quel 2-3% che è pochissimo in termini assoluti, ma tantissimo quando spendi migliaia di euro sulla scheda video...
mikael84
25-04-2023, 20:39
Si sa già se le nuove schede video serie 5000 saranno ancora su pci-e gen 4 o 5?
Tra la sfilza di schede madri AM5, stavo capendo se conveniva o meno investire di più per una che avesse lo slot gen 5 per la vga visto che vorrei sfruttare la nuova scheda madre per l'attuale e successiva gen nvidia prima di cambiarla tra 3 anni.
grazie
Difficile da dire, quello lo vedremmo probabilmente nelle fasi finali.
Nvidia da Hopper (HPC), ha introdotto il pci-e 5, oltre che il nuovo nvlink, ma nella versione Lovelace, ha semplificato tutto, lasciando il pci-e 4 e levando addirittura tutto il nvlink (per la prima volta).
E' piuttosto probabile vederlo nella prossima gen.
StylezZz`
25-04-2023, 21:52
su una 4090 il gen 3 non basta... già sulla 3090 si perdeva quel 2-3% che è pochissimo in termini assoluti, ma tantissimo quando spendi migliaia di euro sulla scheda video...
ci sono voluti 10 anni, dubito fortemente che il PCIe 4 sarà messo in difficoltà con la prossima gen.
Difficile da dire, quello lo vedremmo probabilmente nelle fasi finali.
Nvidia da Hopper (HPC), ha introdotto il pci-e 5, oltre che il nuovo nvlink, ma nella versione Lovelace, ha semplificato tutto, lasciando il pci-e 4 e levando addirittura tutto il nvlink (per la prima volta).
E' piuttosto probabile vederlo nella prossima gen.
grazie :)
nessuno29
25-04-2023, 22:36
su una 4090 il gen 3 non basta... già sulla 3090 si perdeva quel 2-3% che è pochissimo in termini assoluti, ma tantissimo quando spendi migliaia di euro sulla scheda video...
Non è vero, soprattutto su schede da 24gb di vram tra pci-e 3.0 e 4.0 non cambia una cippa.
ci sono voluti 10 anni, dubito fortemente che il PCIe 4 sarà messo in difficoltà con la prossima gen.
No però sui chip di fascia medio-bassa, se le fanno 5.0 e tagliano a x4 o x8, potresti notarlo.
Comunque non mi farei troppi problemi, posso capire se uno ha una vecchia mobo come x370/x470 che sono limitate a 3.0 e quindi ci si fanno due conti, ma già su un sistema 4.0 con cpu come il 5800x3d non mi farei troppi problemi, prima che il 4.0 strozzi sarà proprio la cpu a inchiodare.
StylezZz`
25-04-2023, 23:06
No però sui chip di fascia medio-bassa, se le fanno 5.0 e tagliano a x4 o x8, potresti notarlo.
Comunque non mi farei troppi problemi, posso capire se uno ha una vecchia mobo come x370/x470 che sono limitate a 3.0 e quindi ci si fanno due conti, ma già su un sistema 4.0 con cpu come il 5800x3d non mi farei troppi problemi, prima che il 4.0 strozzi sarà proprio la cpu a inchiodare.
sicuramente...sperando di non vedere la fascia medio-alta a x8, al peggio non c'è mai fine :asd:
fraussantin
26-04-2023, 06:45
sicuramente...sperando di non vedere la fascia medio-alta a x8, al peggio non c'è mai fine :asd:Ma si tirerebbero la zappa sui piedi senza nessuna utilità.
Gli slot per la gpu sono da 16 , le schede sono almeno lunghe il doppio , che senso avrebbe
nessuno29
26-04-2023, 06:51
sicuramente...sperando di non vedere la fascia medio-alta a x8, al peggio non c'è mai fine :asd:
la 4060ti sarà x8 :D dovrebbe essere ufficiale, con gli 8gb di vram sarà una goduria per chi è su b450 o x470
Non è vero, soprattutto su schede da 24gb di vram tra pci-e 3.0 e 4.0 non cambia una cippa.
Avere tanta vram non significa che non si scambino più informazioni con la cpu… Basta che ti cerchi una qualsiasi comparazione per vedere che un 2/3% lo lasci per strada.
È pochissimo in termini assoluti, ma si spende non si vuole lasciare dietro nemmeno quel poco.
la 4060ti sarà x8 :D dovrebbe essere ufficiale, con gli 8gb di vram sarà una goduria per chi è su b450 o x470
Mamma mia, non voglio crederci! :rolleyes:
450€ di scheda poi.
ColdWarGuy
26-04-2023, 08:49
"In a new update to the price fall of NVIDIA's GeForce RTX 4070 GPU, it appears that the graphics card has sunk below the €600 mark in German markets"
NVIDIA GeForce RTX 4070 Prices Continue To Fall In Europe As Sales Remain Stagnant (https://wccftech.com/nvidia-geforce-rtx-4070-prices-continue-to-fall-in-europe-as-sales-remain-stagnant/)
"In a new update to the price fall of NVIDIA's GeForce RTX 4070 GPU, it appears that the graphics card has sunk below the €600 mark in German markets"
NVIDIA GeForce RTX 4070 Prices Continue To Fall In Europe As Sales Remain Stagnant (https://wccftech.com/nvidia-geforce-rtx-4070-prices-continue-to-fall-in-europe-as-sales-remain-stagnant/)
Speriamo! Una 4070 sotto i 500€ non mi farebbe poi così schifo in 1440p.
ColdWarGuy
26-04-2023, 09:13
Speriamo! Una 4070 sotto i 500€ non mi farebbe poi così schifo in 1440p.
Dubito fortemente che si arrivi a tanto, probabilmente il minimo si stabilizzerà attorno ai 600 euro, ma questa è la conferma che non premiare l'ingordigia funziona.
Quindi avanti così, NON COMPRATE NIENTE !
:D
Dubito fortemente che si arrivi a tanto, probabilmente il minimo si stabilizzerà attorno ai 600 euro, ma questa è la conferma che non premiare l'ingordigia funziona.
Quindi avanti così, NON COMPRATE NIENTE !
:D
Sperare non costa nulla, non credo che togliendo un 100€ diventi di colpo appetibile per tutti, la 2070 sotto ai 500 si trovava, non vedo perché questa non possa arrivare a quel prezzo vista anche uarch e struttura della scheda.
Basta lasciarle sullo scaffale e scenderanno tutte XD
ninja750
26-04-2023, 09:27
Basta lasciarle sullo scaffale e scenderanno tutte XD
e ai margini di jensen chi ci pensa? :(
bagnino89
26-04-2023, 09:28
"In a new update to the price fall of NVIDIA's GeForce RTX 4070 GPU, it appears that the graphics card has sunk below the €600 mark in German markets"
NVIDIA GeForce RTX 4070 Prices Continue To Fall In Europe As Sales Remain Stagnant (https://wccftech.com/nvidia-geforce-rtx-4070-prices-continue-to-fall-in-europe-as-sales-remain-stagnant/)
Molto bene. Mi auguro scendano anche 4070 Ti e 4080.
ColdWarGuy
26-04-2023, 09:43
e ai margini di jensen chi ci pensa? :(
Ha venduto 10000 GPU PRO a Elon Musk, per quest'anno è servito :D
su una 4090 il gen 3 non basta... già sulla 3090 si perdeva quel 2-3% che è pochissimo in termini assoluti, ma tantissimo quando spendi migliaia di euro sulla scheda video...
Dipende da quale risoluzione utilizzi.
Fino a 4K la perdita è trascurabile.
Dai 6K in su serve la gen 4 ;)
Sperare non costa nulla, non credo che togliendo un 100€ diventi di colpo appetibile per tutti, la 2070 sotto ai 500 si trovava, non vedo perché questa non possa arrivare a quel prezzo vista anche uarch e struttura della scheda.
Non possono farlo perchè Nvidia sta tenendo in piedi da sola tutta la baracca del nuovo e dell'usato. Ti immagini una 4070 a 500 euro? La 4060ti a quanto la venderebbero? 400?
Dipende da quale risoluzione utilizzi.
Fino a 4K la perdita è trascurabile.
Dai 6K in su serve la gen 4 ;)
In realtà è il contrario dalle comparative che ho visto. La perdita è maggiore a risoluzioni più basse dove si è maggiormente cpu limited.
In realtà è il contrario dalle comparative che ho visto. La perdita è maggiore a risoluzioni più basse dove si è maggiormente cpu limited.
La regola è quello che ho scritto sopra.
La 4090 non fa testo perché al momento non ci sono processori che la sfruttano al 100% ed inoltre la sua architettura scala male al di sotto dei 4K.
La 4090 ha senso dai 4K in su, infatti alcuni utenti utilizzano il DSR per tirarla a 5K o 6K :D
In molti giochi se si smanetta con i settaggi si può addirittura giocare a 8K 60 fps :D
Testare la 4090 a 1080p con gli attuali processori non ha senso perché sono falsati dal fatto che non sfruttano la GPU al 100% ;)
ColdWarGuy
26-04-2023, 12:19
Hardware Unboxed ancora all'attacco, giusto per alimentare il tarlo della Vram :
Nvidia's 16GB RTX 3070... Sort Of: 16GB A4000 vs 8GB RTX 3070 (https://www.youtube.com/watch?v=alguJBl-R3I)
L'argomento è valido ma sono d'accordo com mikael, loro sono molto biased.
Non possono farlo perchè Nvidia sta tenendo in piedi da sola tutta la baracca del nuovo e dell'usato. Ti immagini una 4070 a 500 euro? La 4060ti a quanto la venderebbero? 400?
Per me può starci, i prezzi negli ultimi 3 anni son stati gonfiati da vari fattori, ora che la bolla è scoppiata o volere o volare saranno costretti a rivedere i prezzi di tutta la lineup 4090 a parte se vogliono vendere, altrimenti voglio vedere come smaltiscono gli ordini prenotati a TSMC se i partner non acquistano chip per assemblare le schede dato che non vendono quelle già prodotte.
Ale55andr0
26-04-2023, 12:43
Hardware Unboxed ancora all'attacco, giusto per alimentare il tarlo della Vram :
Nvidia's 16GB RTX 3070... Sort Of: 16GB A4000 vs 8GB RTX 3070 (https://www.youtube.com/watch?v=alguJBl-R3I)
L'argomento è valido ma sono d'accordo com mikael, loro sono molto biased.
biased contro nvidia? quindi meritano il massimo del supporto, a prescindere, vado subito a mettere +1 sul video, grazie della segnalazione! :O
mikael84
26-04-2023, 12:44
Hardware Unboxed ancora all'attacco, giusto per alimentare il tarlo della Vram :
Nvidia's 16GB RTX 3070... Sort Of: 16GB A4000 vs 8GB RTX 3070 (https://www.youtube.com/watch?v=alguJBl-R3I)
L'argomento è valido ma sono d'accordo com mikael, loro sono molto biased.
E' una sorta di crociata contro la 3070. Ci può anche stare, anche se stuttering così marcato molti non lo avvertono, soprattutto con 32gb.
In linea meno faziosa, dovrebbero bolare tutte le schede da 8gb, come le 6650xt/3060ti.
Ad esempio, visto che si parla di 1080p/RT perchè non esaminare le 6600 con le 3060, visto che la crociata è la ram.
Il confronto di FPS tra ex quadro A4000 e 6800 è no sense, la A6000 per TDP lavora a 1400, che a conti fatti produce spesso meno di una 3060ti.
Diciamo che l'argomento è giusto trattarlo, ma con meno faziosità.
biased contro nvidia? quindi meritano il massimo del supporto, a prescindere, vado subito a mettere +1 sul video, grazie della segnalazione! :O
Tanto sai come va a finire la crociata? Che prima o poi, non essendoci alternativa, la gente si stufa e compra una 4070 o 4070ti. :D
Hardware Unboxed ancora all'attacco, giusto per alimentare il tarlo della Vram :
Nvidia's 16GB RTX 3070... Sort Of: 16GB A4000 vs 8GB RTX 3070 (https://www.youtube.com/watch?v=alguJBl-R3I)
L'argomento è valido ma sono d'accordo com mikael, loro sono molto biased.
Hwunboxed ormai son contro ad Nvidia per principio, io non dò più molta retta alle loro osservazioni da tempo ormai.
La 3070 si è sempre saputo che 8 GB di vram sarebbero bastati giusto per il biennio in cui è stata lanciata.
Io stesso ho avuto la 3070Ti, il chip non era male, ma 8 GB erano troppo pochi, di GDDR6X poi, facevano schizzare il tdp oltre i 280W senza UV.
Presa soltanto perché come dice il proverbio: "in tempo di carestia, ogni gpu che riesci ad acquistare ti dà un poco di allegria". :D
Ale55andr0
26-04-2023, 12:58
Tanto sai come va a finire la crociata? Che prima o poi, non essendoci alternativa, la gente si stufa e compra una 4070 o 4070ti. :D
Si, può essere, ma intanto io faccio la mia parte :O
Cmq l'alternativa alla 70ti c'è, bisogna vedere che priorità si hanno :)
Hwunboxed ormai son contro ad Nvidia per principio
Bravissime persone, sono commosso, magari fossero tutti così :ave:
Hwunboxed ormai son contro ad Nvidia per principio, io non dò più molta retta alle loro osservazioni da tempo ormai.
La 3070 si è sempre saputo che 8 GB di vram sarebbero bastati giusto per il biennio in cui è stata lanciata.
Io stesso ho avuto la 3070Ti, il chip non era male, ma 8 GB erano troppo pochi, di GDDR6X poi, facevano schizzare il tdp oltre i 280W senza UV.
Presa soltanto perché come dice il proverbio: "in tempo di carestia, ogni gpu che riesci ad acquistare ti dà un poco di allegria". :D
Ma pure io ho fatto un ragionamento simile, la 3060ti l'ho presa per tamponare, visto che la mia precedente 980ti era alla frutta oramai.
ColdWarGuy
26-04-2023, 13:07
biased contro nvidia? quindi meritano il massimo del supporto, a prescindere, vado subito a mettere +1 sul video, grazie della segnalazione! :O
Beh sì dai, 3 video sull'argomento in due settimane ...
https://i.postimg.cc/Xvc5d9PQ/3070.png
e 0 sui 7900x che fondono gonfiandosi spaccando anche la mainboard :D
https://www.youtube.com/watch?v=arDqhxM8Wog
Ale55andr0
26-04-2023, 13:09
Beh sì dai, 3 video sull'argomento in due settimane ...
https://i.postimg.cc/Xvc5d9PQ/3070.png
addirittura
e 0 sui 7900x che fondono gonfiandosi spaccando anche la mainboard :D
https://www.youtube.com/watch?v=arDqhxM8Wog
ma io questi li LOVVO! :vicini: :ubriachi:
ColdWarGuy
26-04-2023, 13:13
addirittura
ma io questi li LOVVO! :vicini: :ubriachi:
Tanto finirà come dice mikael, comprerai anche tu una 4070 :sofico:
Ale55andr0
26-04-2023, 13:17
Tanto finirà come dice mikael, comprerai anche tu una 4070 :sofico:
mal che vada una 70ti, 5888cc > 5888cc manco morto, ma se va realisticamente, resto a piedi e basta...:asd:
ninja750
26-04-2023, 13:18
Beh sì dai, 3 video sull'argomento in due settimane ...
hanno fatto due comparative DLSS vs FSR elogiando DLSS a più non posso, più videorecensione "DLSS è meglio della nativa" e sono tra i pochi che non hanno "cassato" la 4070 per come è collocata
e 0 sui 7900x che fondono gonfiandosi spaccando anche la mainboard :D
non ne hanno le competenze, der8uer nel suo video ha detto che ne ha parlato con il capellone gamersnexus che sta investigando, e ho appena appreso da reddit (ha un account lì) che ha comprato mobo+cpu di un utente a cui si è fuso tutto per investigare e fare un video ma è ancora presto sia per metterci le mani sopra sia per trovare una possibile causa sia per farci un video che non sia "le cpu amd fondono e nessuno sa perchè"
ninja750
26-04-2023, 13:20
mal che vada una 70ti, 5888cc > 5888cc manco morto, ma se va realisticamente, resto a piedi e basta...:asd:
naa che poi vieni a lamentarti dei 12gb come la 3060
bagnino89
26-04-2023, 13:22
mal che vada una 70ti, 5888cc > 5888cc manco morto, ma se va realisticamente, resto a piedi e basta...:asd:
In effetti passare da una 3070 ad una 4070 liscia è proprio nonsense.
Ci vuole almeno la Ti, ma 12 GB di VRAM sanno tanto di fregatura.
Ma pure io ho fatto un ragionamento simile, la 3060ti l'ho presa per tamponare, visto che la mia precedente 980ti era alla frutta oramai.
La tua 3060Ti è molto più equilibrata della 3070Ti, la mossa che hai fatto è più che corretta visto il mercato attuale. :)
A me la 3070Ti FE per 649€ e 280W, con soli 8 GB, un pochino il bruciore al didietro me lo ha fatto venire, motivo per cui ho preferito venderla prima che si svalutasse troppo.
ColdWarGuy
26-04-2023, 13:31
hanno fatto due comparative DLSS vs FSR elogiando DLSS a più non posso, più videorecensione "DLSS è meglio della nativa" e sono tra i pochi che non hanno "cassato" la 4070 per come è collocata
non ne hanno le competenze, der8uer nel suo video ha detto che ne ha parlato con il capellone gamersnexus che sta investigando, e ho appena appreso da reddit (ha un account lì) che ha comprato mobo+cpu di un utente a cui si è fuso tutto per investigare e fare un video ma è ancora presto sia per metterci le mani sopra sia per trovare una possibile causa sia per farci un video che non sia "le cpu amd fondono e nessuno sa perchè"
Ripeto, 3 video in 2 settimane sullo stesso argomento, siamo al livello di ossessione.
ColdWarGuy
26-04-2023, 13:36
La tua 3060Ti è molto più equilibrata della 3070Ti, la mossa che hai fatto è più che corretta visto il mercato attuale. :)
A me la 3070Ti FE per 649€ e 280W, con soli 8 GB, un pochino il bruciore al didietro me lo ha fatto venire, motivo per cui ho preferito venderla prima che si svalutasse troppo.
E sei passato ad una 770 dalla 3070 ?
VRAM a parte è un bel passo indietro.
Moreno Morello
26-04-2023, 13:37
Peccato che per dimostrare la testi "8gb di vram bad" abbiano preso come esempi dei giochi rotti tipo TLOU (al day one nemmeno si avviava) o ottimizzati col culo come HL. E continuano guardacaso a portare gli stessi giochi in ogni video che fanno sull'argomento.
Tra l'altro uno dei giochi che hanno testato in questi video è Resident Evil 4 che crashava sulle 3070 se attivavi il RT. Ma proprio ieri il gioco è stato patchato e guarda un po'? Posso giocare con RT attivo anche con la 3070, senza stuttering o altro.
Insomma non per dire che 8Gb di vram siano un paradiso oggi, ma la loro metodologia è abbastanza capziosa.
mikael84
26-04-2023, 13:44
addirittura
ma io questi li LOVVO! :vicini: :ubriachi:
Quindi "lovvi" chi dice che il DLSS è meglio della nativa.:p
mal che vada una 70ti, 5888cc > 5888cc manco morto, ma se va realisticamente, resto a piedi e basta...:asd:
In effetti passare da una 3070 ad una 4070 liscia è proprio nonsense.
Ci vuole almeno la Ti, ma 12 GB di VRAM sanno tanto di fregatura.
La 4070 ha seguito pari pari la 6700xt vs 5700xt.
Stessi shader, , bus da 256bit a 192 + cache, 8 vs 12gb e la differenza tutto nel clock. AMD + 80$ di MSRP, nvidia più 100$.
Nvidia aggiunge anche il DLSS3.
A conti fatti è la stessa mossa.
devil_mcry
26-04-2023, 13:45
ma infatti la 3070 come scheda è sensata con i suoi 8gb
poteva averne di più? forse si
se ne faceva qualcosa di più? probabilmente no, perché il target è quello che è per quella scheda
tra l'altro la 3070 non è uscita oggi, quando è nata 8gb erano sufficienti per tutto
Ale55andr0
26-04-2023, 13:49
Quindi "lovvi" chi dice che il DLSS è meglio della nativa.:p
La 4070 ha seguito pari pari la 6700xt vs 5700xt.
Stessi shader, , bus da 256bit a 192 + cache, 8 vs 12gb e la differenza tutto nel clock. AMD + 80$ di MSRP, nvidia più 100$.
Nvidia aggiunge anche il DLSS3.
A conti fatti è la stessa mossa.
partendo da una scheda da 450 (io ricordo fosse 450 msrp la 5700xt), non facendola diventare da 700
ma infatti la 3070 come scheda è sensata con i suoi 8gb
poteva averne di più? forse si
se ne faceva qualcosa di più? probabilmente no, perché il target è quello che è per quella scheda
tra l'altro la 3070 non è uscita oggi, quando è nata 8gb erano sufficienti per tutto
Non poteva, doveva, e senza forse, e non è vero che non te ne facevi nulla, perchè ridurre il dettaglio delle texture per non aver problemi è una roba semplicemente ridicola (e no, non c'è solo TLOU), mentre NON lo è dover ridurre/non usare RT per quella presa per nei fondelli che si sta mostrando: 25fps a 1440p su una demo non interattiva con la 4090... siamo veramente appecorabili come pochi in questo settore :doh:
nvidia sapeva BENISSIMO di fare obsolescenza programmata con la 3070 quando le console avevano già 16gb unificati che anche senza il discorso SO, possono tranquillamente utilizzare 10-11gb per il frame buffer.
mikael84
26-04-2023, 13:54
partendo da una scheda da 450 (io ricordo fosse 450 msrp la 5700xt), non facendola diventare da 700
No 399, ma avevamo altri cambi.
ma infatti la 3070 come scheda è sensata con i suoi 8gb
poteva averne di più? forse si
se ne faceva qualcosa di più? probabilmente no, perché il target è quello che è per quella scheda
tra l'altro la 3070 non è uscita oggi, quando è nata 8gb erano sufficienti per tutto
Infatti le 8gb stanno crollando ora in qualche titolo sponsorizzato.... ma sono schede che hanno quasi 3 anni. Potremmo fare lo stesso discorso su 980 nel 2017, o 980ti nel 2018.
Il problema saranno le 4060/ti e 7600 che usciranno ora con 8gb di ram, coprendo fasce da 4-500 euro (almeno inizialmente)..
E sei passato ad una 770 dalla 3070 ?
VRAM a parte è un bel passo indietro.
Sì, mi piace smanettare ed ero curioso di vedere di persona come andavano, in più mi son rimasti quasi 200€ nel portafoglio dalla vendita della 3070Ti FE e coi driver, da dicembre ad ora la situazione è cambiata drasticamente e secondo me da qui ad altri 3 mesi cambierà ancora.
Per le mie esigenze va bene così, faccio meno frame, ma con minimi e frametime più stabili rispetto alla 3070Ti.
Ale55andr0
26-04-2023, 14:01
No 399, ma avevamo altri cambi.
Infatti le 8gb stanno crollando ora in qualche titolo sponsorizzato.... ma sono schede che hanno quasi 3 anni. Potremmo fare lo stesso discorso su 980 nel 2017, o 980ti nel 2018.
Il problema saranno le 4060/ti e 7600 che usciranno ora con 8gb di ram, coprendo fasce da 4-500 euro (almeno inizialmente)..
perdonami ma dissento ancora, erano EONI che eravamo fermi a 8gb, era decisamente ora di alzare la dotazione in quella fascia che ricordo era da 600 euro, non due spicci. Sul discorso cambi che facciamo, consideriamo l'inflazione rispetto al 90? dai, il peso di 400/450 euro allora (un paio di anni fa) non è cmq quello di 700 oggi che restano più pesanti ugualmente in proporzione, essù
Quindi "lovvi" chi dice che il DLSS è meglio della nativa.:p
Sono molto intelligenti (sono biased contro nvidia, non possono essere altrimenti :O ) ma anche ipovedenti, li perdono, non è colpa loro :O
ninja750
26-04-2023, 14:01
Ripeto, 3 video in 2 settimane sullo stesso argomento, siamo al livello di ossessione.
pensa: quello DLSS meglio della nativa 10 giorni fa, quello DLSS vs FSR 15 giorni fa.. ossessionati anche a scrivere che il DLSS è meglio in lungo e in largo sti faziosi :O
Peccato che per dimostrare la testi "8gb di vram bad" abbiano preso come esempi dei giochi rotti tipo TLOU (al day one nemmeno si avviava) o ottimizzati col culo come HL.
sono situazioni borderline per evidenziare OGGI un difetto o un limite che è roba da poco conto ma che DOMANI probabilmente non lo sarà, è come testare le cpu da 1000€ a 720P low settings e fare vedere che una va il doppio dell'altra, e una la chiami cpu gaming top bella, l'altra cpu giusto per word e office. un domani sti giochi saranno sempre di più e questi video evidenziano questo aspetto
la loro metodologia è abbastanza capziosa.
ci hanno fatto un video in proposito che ovviamente nessuno ha avuto voglia di aprire, rispondendo punto punto a queste "accuse":
https://www.youtube.com/watch?v=LW6BeCnmx6c
Moreno Morello
26-04-2023, 14:08
No, le situazioni borderline si cercano nei videogiochi sviluppati bene e che giustamente richiedono tot risorse, non prendendo merda fatta coi piedi che per forza di cose va ad esacerbare aspetti di un prodotto (gli 8gb di vram)
Perché a conti fatti, anche in giochi unicamente current gen come Returnal, la 3070 non ha nessun tipo di problema. Performa come dovrebbe performare una scheda video di 3 anni fa.
Quindi si, QUELLA SERIE di video è capziosa, riguardo gli altri video non mi esprimo.
Sì, mi piace smanettare ed ero curioso di vedere di persona come andavano, in più mi son rimasti quasi 200€ nel portafoglio dalla vendita della 3070Ti FE e coi driver, da dicembre ad ora la situazione è cambiata drasticamente e secondo me da qui ad altri 3 mesi cambierà ancora.
Per le mie esigenze va bene così, faccio meno frame, ma con minimi e frametime più stabili rispetto alla 3070Ti.
C'è anche da dire che con la 3070ti la cpu faticava pure
Cutter90
26-04-2023, 14:16
No, le situazioni borderline si cercano nei videogiochi sviluppati bene e che giustamente richiedono tot risorse, non prendendo merda fatta coi piedi che per forza di cose va ad esacerbare aspetti di un prodotto (gli 8gb di vram)
Perché a conti fatti, anche in giochi unicamente current gen come Returnal, la 3070 non ha nessun tipo di problema. Performa come dovrebbe performare una scheda video di 3 anni fa.
Quindi si, QUELLA SERIE di video è capziosa, riguardo gli altri video non mi esprimo.
Infatti il discorso va fatto guardando alla maggior parte dei giochi. Ci sono 2 giochi che saturano gli 8 gb della 3070 e quei due giochi hanno una grafica inferiore agli altri che magari ne usano 6. Quindi addossare la colpa alla 3070, ricordo scheda da 2k al d1 e non da 4k, è follia.
Nonm si possono usare i giochi programmati con i piedi come baluardo del "8 gb non bastana". Se programmano sempre peggio nemmeno 24 basteranno tra un po..... ma se non c'è balzo grafico è sempre e SOLO colpa delle SH.
StylezZz`
26-04-2023, 14:25
Hardware Unboxed ancora all'attacco, giusto per alimentare il tarlo della Vram :
Nvidia's 16GB RTX 3070... Sort Of: 16GB A4000 vs 8GB RTX 3070 (https://www.youtube.com/watch?v=alguJBl-R3I)
L'argomento è valido ma sono d'accordo com mikael, loro sono molto biased.
la mia 3070:
https://www.stateofmind.it/wp-content/uploads/2017/10/American-Psycho-lo-specchio-di-una-societa-fondata-sullapparire-Psicologia-680x382.jpg
sono situazioni borderline per evidenziare OGGI un difetto o un limite che è roba da poco conto ma che DOMANI probabilmente non lo sarà, è come testare le cpu da 1000€ a 720P low settings e fare vedere che una va il doppio dell'altra, e una la chiami cpu gaming top bella, l'altra cpu giusto per word e office. un domani sti giochi saranno sempre di più e questi video evidenziano questo aspetto
Ma secondo te una gpu come la 3070 (uscita nel 2020) per quanti altri anni ancora reggerà a 1440p? Appena cominceranno a uscire giochi dove farà a malapena 30/40fps a dettagli medi con DLSS, non ci sarà VRAM che potrà salvarla, anche se fosse stata con 16GB.
Quelle situazioni borderline mostrate da hwunboxed (compreso altri utubers) sono montate ad hoc per fare visuals, screditare le vecchie gpu e spingere le persone ad acquistare le nuove perchè ormai con 8GB non ci giochi nemmeno a 720p.
devil_mcry
26-04-2023, 14:31
partendo da una scheda da 450 (io ricordo fosse 450 msrp la 5700xt), non facendola diventare da 700
Non poteva, doveva, e senza forse, e non è vero che non te ne facevi nulla, perchè ridurre il dettaglio delle texture per non aver problemi è una roba semplicemente ridicola (e no, non c'è solo TLOU), mentre NON lo è dover ridurre/non usare RT per quella presa per nei fondelli che si sta mostrando: 25fps a 1440p su una demo non interattiva con la 4090... siamo veramente appecorabili come pochi in questo settore :doh:
nvidia sapeva BENISSIMO di fare obsolescenza programmata con la 3070 quando le console avevano già 16gb unificati che anche senza il discorso SO, possono tranquillamente utilizzare 10-11gb per il frame buffer.
La tua crociata contro la 3070 è ridicola tanto quanto usarla con un 1700x. E' una gpu vecchia, che OGGI ha problemi con alcuni giochi ottimizzati male. Il fatto che in RT ogni tanto bisogna fare scelte beh, grazie ma è così con tutte le gpu che supportano il ray tracing.
Quando è uscita era una buona soluzione, costava pure il giusto. Poi tutto quello che ne è conseguito sui prezzi è un altro discorso
La tua esperienza conta poco guarda qui
https://static.techspot.com/articles-info/2201/bench/Avg-Ultra-1080p.png
https://static.techspot.com/articles-info/2201/bench/Avg-Medium-1440p.png
Guarda quanto già castra la 3070 una cpu come la tua sul 1080p maxato, 1440p medio (il suo target)
No 399, ma avevamo altri cambi.
Infatti le 8gb stanno crollando ora in qualche titolo sponsorizzato.... ma sono schede che hanno quasi 3 anni. Potremmo fare lo stesso discorso su 980 nel 2017, o 980ti nel 2018.
Il problema saranno le 4060/ti e 7600 che usciranno ora con 8gb di ram, coprendo fasce da 4-500 euro (almeno inizialmente)..
infatti...
C'è anche da dire che con la 3070ti la cpu faticava pure
In alcuni giochi tipo CB2077 sì, ma in altri in 1440p il collo di bottiglia era proprio la vram in quanto bastava attivare il DLSS per riportare la situazione a livelli eccellenti, fosse stata la cpu sarebbe dovuta peggiorare anzichè migliorare.
Però a me personalmente gli upscaler non fanno impazzire e a mio avviso DLSS, FSR e XeSS danno il meglio in 4K, quando si parte da una risoluzione di base abbastanza elevata, quindi in 1440p, se posso, li evito.
StylezZz`
26-04-2023, 14:35
La tua crociata contro la 3070 è ridicola tanto quanto usarla con un 1700x. E' una gpu vecchia, che OGGI ha problemi con alcuni giochi ottimizzati male. Il fatto che in RT ogni tanto bisogna fare scelte beh, grazie ma è così con tutte le gpu che supportano il ray tracing.
Quando è uscita era una buona soluzione, costava pure il giusto. Poi tutto quello che ne è conseguito sui prezzi è un altro discorso
se ti riferisci a TLOU possiamo anche escluderlo, dato che con le ultime patch è migliorato tantissimo...è facile fare video mostrando un gioco rotto e dire ''guardate, 8GB non bastano più'' :doh:
ColdWarGuy
26-04-2023, 14:36
pensa: quello DLSS meglio della nativa 10 giorni fa, quello DLSS vs FSR 15 giorni fa.. ossessionati anche a scrivere che il DLSS è meglio in lungo e in largo sti faziosi :O
sono situazioni borderline per evidenziare OGGI un difetto o un limite che è roba da poco conto ma che DOMANI probabilmente non lo sarà, è come testare le cpu da 1000€ a 720P low settings e fare vedere che una va il doppio dell'altra, e una la chiami cpu gaming top bella, l'altra cpu giusto per word e office. un domani sti giochi saranno sempre di più e questi video evidenziano questo aspetto
ci hanno fatto un video in proposito che ovviamente nessuno ha avuto voglia di aprire, rispondendo punto punto a queste "accuse":
https://www.youtube.com/watch?v=LW6BeCnmx6c
Hanno fatto cherry picking sui games, hanno ignorato l'indicatore di TLOU sulla VRAM richiesta dai settaggi selezionati e hanno fatto passare la 3070 come l'unica scheda da 8GB che và in crisi con tutto su ULTRA, dicendo poi che le AMD con 16GB vanno molto meglio.
E grazie al pesce.
devil_mcry
26-04-2023, 14:36
se ti riferisci a TLOU possiamo anche escluderlo, dato che con le ultime patch va alla grande...è facile fare video con un gioco rotto e dire ''guardate, 8GB non bastano più'' :doh:
no era in generale, cmq sicuramente tlous al lancio è uno dei giochi che genera problemi ma non è l'esempio medio e poi non è una cosa che per forza permane (stile fallout 4 che va male perché si su tutto :D)
Ale55andr0
26-04-2023, 14:48
ci sono altri giochi dove limitano, non fissatevi su TLOU. In CP2077 dopo un po' inizi ad avere problemi di saturazione con gpu da 8gb (cosa segnalata pure sul forum ufficiale, più volte ), e ripeto, quello che è assurdo è giustificare una gpu da 600 euro (stand alone mica un pc intero) coeva a scatolette all inclusive da 9 -10tflop che possono tranquillamente usare 10-11gb per il frame buffer :read.. Se AMD e intel hanno piazzato a costi inferiori 12-16gb, non c'è giustificazione che tenga, la scelta di nvidia è "errata" o meglio, dettata dai loro porci comodi e basta, punto. E qua vi lascio a coccolarvi il sacro marchio, possano chiedervi felicemente 1500 euro per la 5070ti e ci rimetto pure, buon proseguimento :)
mikael84
26-04-2023, 14:51
perdonami ma dissento ancora, erano EONI che eravamo fermi a 8gb, era decisamente ora di alzare la dotazione in quella fascia che ricordo era da 600 euro, non due spicci. Sul discorso cambi che facciamo, consideriamo l'inflazione rispetto al 90? dai, il peso di 400/450 euro allora (un paio di anni fa) non è cmq quello di 700 oggi che restano più pesanti ugualmente in proporzione, essù
Sono molto intelligenti (sono biased contro nvidia, non possono essere altrimenti :O ) ma anche ipovedenti, li perdono, non è colpa loro :O
Scusami Alessandro, ma tecnicamente JHH che doveva fare, avendo già la linea scritta Lovelace e blackwell, ti metteva 16gb di ram su un chip contatto per il 1440?
Se hai un contratto con micron che non ha doppia densità, che fai 3070 da 16gb e 3080 da 10?
La linea lovelace con il bus da 192bit, già scritto, poteva montare solo 12gb (la quadrupla non c'è), quindi che facevi un downgrade? Lo farà sulle x60 e vedrai il fail pazzesco che farà, se già lo sonno queste.
Poteva montare un bus da 192 bit e darti 12gb, ma ormai era già scritto anni fa il chip, e dalle loro proiezioni hanno calcolato che per il biennio 8gb andavano bene.
Anche qua, calare il bus, faceva crollare le schede con il vero margine, le ex quadro.
L'unica cosa che dovevi fare, e non comprare quella scheda, se la vedevi limitata per vari anni.:)
Ale55andr0
26-04-2023, 14:53
Scusami Alessandro, ma tecnicamente JHH che doveva fare, avendo già la linea scritta Lovelace e blackwell, ti metteva 16gb di ram su un chip contatto per il 1440?
Se hai un contratto con micron che non ha doppia densità, che fai 3070 da 16gb e 3080 da 10?
ah ma possono fare la 3060 da 12 e la 3070ti da 8 e la non si pongono dilemmi. Interessante :D
16 e 20 e nessuno avrebbe alitato contro nvidia.
Le loro proiezioni sono sul loro interesse, non su cio' che è meglio per l'acquirente consumer
sotto i ponti sono passati 3 anni e mille giochi senza problemi (anche con RT quando si è potuto), che in informatica è parecchio.
la 3070 dopo 3 anni legittimo che sia più una VGA da "ottimo fullhd" o che se la cavi in qhd per chi vuole accontentarsi.
tanto che quella "nuova fascia fhd" sia NVIDIA che AMD vogliono coprirla con 8GB di VRAM ancora.
La realtà è che le VGA vecchie fanno molto meglio del previsto per mancanza di progresso tecnico (no, non intendo il film di Sony come progresso ci mancherebbe pure, quello è solo uscito male).
Allora magari nella "via di mezzo" una AMD pari fascia con più VRAM potrà permettere qualche setting in più dopo 3 anni in qualche gioco, ma in generale sono schede destinate a scalare di fascia\setting\risoluzione (sempre che non basti giocare con ben poco framerate).
mikael84
26-04-2023, 15:09
ah ma possono fare la 3060 da 12 e la 3070ti da 8 e la non si pongono dilemmi. Interessante :D
16 e 20 e nessuno avrebbe alitato contro nvidia.
Le loro proiezioni sono sul loro interesse, non su cio' che è meglio per l'acquirente consumer
Sulla 3060, hanno scelto 12gb in quanto 6gb dalle loro proiezioni erano troppo limitanti, sarebbe stato un vero suicidio. Se avessero un bus da 256 bit, ne avrebbe messo 8.
20gb sulla 3080 non potevi metterli, se non in clamshell, ma sai i costi ed il calore... Ti ricordo che il margine è in picchiata per gli AIB, con EVGA che si è defilata. Non solo, gli AIB hanno fatto un casino assurdo in quanto era troppo gravoso realizzare la 3080 a quel MSRP, immagina inserendo altri 10gb di g6x che sono piuttosto care, oltre al PCB moddato per il clamshell e dissi da x90.
Inoltre, tralasciando tutti i costi, oggi che lanciavi una 4070ti da 12gb con 3080 e 3080ti da 20-24gb? Mettevi il clamshell anche alle 4070? 24gb per il 1440p? :D
Strategia commerciale pari a 0.:p
Se lanciavi un 3080 da 20gb, buttavi fuori la 3090 che è la scheda dal margine più elevato.
Capisco che lato acquirente può non piacere, ma se già i grafici dei margini AIB sonno in picchiata, è logico che certe scelte non potevi farle.
Ma infatti la serie 3000 ha fatto il suo tempo e sono state ottime x giocare a tutto sia con 8 che con 10gb.
Ora le cose stanno cambiando e la questione vram è da fare sulle 4000
sotto i ponti sono passati 3 anni e mille giochi senza problemi (anche con RT quando si è potuto), che in informatica è parecchio.
la 3070 dopo 3 anni legittimo che sia più una VGA da "ottimo fullhd" o che se la cavi in qhd per chi vuole accontentarsi.
tanto che quella "nuova fascia fhd" sia NVIDIA che AMD vogliono coprirla con 8GB di VRAM ancora.
La realtà è che le VGA vecchie fanno molto meglio del previsto per mancanza di progresso tecnico (no, non intendo il film di Sony come progresso ci mancherebbe pure, quello è solo uscito male).
Allora magari nella "via di mezzo" una AMD pari fascia con più VRAM potrà permettere qualche setting in più dopo 3 anni in qualche gioco, ma in generale sono schede destinate a scalare di fascia\setting\risoluzione (sempre che non basti giocare con ben poco framerate).
Discorso più che giusto. :)
Non fosse stato per il prezzo a cui si trovavano, da qui nasce l'astio per i soli 8 gb di vram.
Cutter90
26-04-2023, 15:33
Discorso più che giusto. :)
Non fosse stato per il prezzo a cui si trovavano, da qui nasce l'astio per i soli 8 gb di vram.
Prezzi che però non hanno nulla a che vedere con il materiale di cui sono composti. Nel senso che la 3070 si trovava a 1000 euro perchè non ce n0erano, non percjè li valesse
StylezZz`
26-04-2023, 15:39
ci sono altri giochi dove limitano, non fissatevi su TLOU. In CP2077 dopo un po' inizi ad avere problemi di saturazione con gpu da 8gb (cosa segnalata pure sul forum ufficiale, più volte )...
Ma anche se satura di qualche GB chissenefrega? Su TLOU (che oggi rimane il caso peggiore) ho visto anche 22GB (VENTIDUE) di RAM occupata, eppure il gioco mi fila abbastanza bene senza avere quegli scattoni e singhiozzi mostrati nei vari video, idem RE4 che me lo sono goduto maxato usando anche la mod che permette di usare DLSS che è 10000 volte meglio quella schifezza di FSR implementata malissimo nel gioco. CP2077 l'ho provato con la mod overdrive, e non ho avuto stuttering ne nulla.
I problemi causati dalla saturazione si presentano se hai poca RAM e da qualche parte dovrà pure allocare, e ti usa l'ssd che è LENTISSIMO a confronto.
devil_mcry
26-04-2023, 15:39
Discorso più che giusto. :)
Non fosse stato per il prezzo a cui si trovavano, da qui nasce l'astio per i soli 8 gb di vram.
si ma di listino il prezzo della 3070 era ottimo, all'epoca erano tutti li gasati
poi c'è stato il mining e quello che ne ha portato sui prezzi, chi l'ha presa al prezzo giusto al lancio ha fatto un buon affare
Prezzi che però non hanno nulla a che vedere con il materiale di cui sono composti. Nel senso che la 3070 si trovava a 1000 euro perchè non ce n0erano, non percjè li valesse
infatti partiamo dal presupposto 519 euro 3 anni fa per la 3070, 669 euro oggi per la 4070. se domani succede di tutto e la 4070 viene sovr...ehm sovra-sovraprezzata :sofico: negli shop\dai partner sempre 669 resta il suo prezzo.
Se la 3070 (che all'epoca lasciò di sasso per quanto era conveniente rispetto alla precedente gen) avesse avuto più VRAM? meglio eh, mica sarebbe stato un male in quei casi che torna utile c'è, ma non è uscita male ne costava realmente certi prezzi suvvia.
devil_mcry
26-04-2023, 15:44
Ma anche se satura di qualche GB chissenefrega? Su TLOU (che oggi rimane il caso peggiore) ho visto anche 22GB (VENTIDUE) di RAM occupata, eppure il gioco mi fila abbastanza bene senza avere quegli scattoni e singhiozzi mostrati nei vari video, idem RE4 che me lo sono goduto maxato usando anche la mod che permette di usare DLSS che è 10000 volte meglio quella schifezza di FSR implementata malissimo nel gioco. CP2077 l'ho provato con la mod overdrive, e non ho avuto stuttering ne nulla.
I problemi causati dalla saturazione si presentano se hai poca RAM, e sa qualche parte dovrè pure allocarla, e ti usa l'ssd che è LENTISSIMO in confronto.
è un discorso perso in partenza, togliamo tlous che da problemi a tutti i pc di fascia medio bassa soprattutto senza 32gb di ram, lui si lamenta della sua esperienza ma con quella cpu che ha la 3070 a 1440p gli rende meno di una 3060 ti, probabilmente poco più di una 3060 liscia
ma il discorso è il sistema nell'insieme, è sempre li a scrivere roito di qui roito di la ma la cpu gli fa perdere un botto di prestazioni, i ryzen 1000 erano già limitanti in gaming quando uscirono, figurati anni dopo (lo dimostrano i bench)
Prezzi che però non hanno nulla a che vedere con il materiale di cui sono composti. Nel senso che la 3070 si trovava a 1000 euro perchè non ce n0erano, non percjè li valesse
Esatto, Nvidia le aveva prezzate correttamente le Ampere, è stata tutta la situazione mondiale che ha fatto sì che si trovassero solo a prezzo raddoppiato.
In tutto ciò però Nvidia, visto come andavano le vendite, avevano già ritoccato al rialzo i listini e con Lovelace ha deciso di diventare direttamente lei scalper.
Queste non è che abbiano componenti o pcb particolari, anzi, son semplificate al massimo a livello costruttivo.
è un discorso perso in partenza, togliamo tlous che da problemi a tutti i pc di fascia medio bassa soprattutto senza 32gb di ram, lui si lamenta della sua esperienza ma con quella cpu che ha la 3070 a 1440p gli rende meno di una 3060 ti, probabilmente poco più di una 3060 liscia
ma il discorso è il sistema nell'insieme, è sempre li a scrivere roito di qui roito di la ma la cpu gli fa perdere un botto di prestazioni, i ryzen 1000 erano già limitanti in gaming quando uscirono, figurati anni dopo (lo dimostrano i bench)
No infatti mi spiace ma è una CPU tremenda oggi. Già avere 16GB non fai test realistici (perché certi giochi hanno quello di problema, di sforare i 16, allora per i test seri ne servono 32) ma con un 1700 non testi proprio niente seriamente, sbilanciato in modo enorme
mikael84
26-04-2023, 16:11
Ma infatti la serie 3000 ha fatto il suo tempo e sono state ottime x giocare a tutto sia con 8 che con 10gb.
Ora le cose stanno cambiando e la questione vram è da fare sulle 4000
Ecco, le 4060 e 4060ti (o relative 7600 di amd) andranno ampiamente analizzate e criticate, in quanto debutteranno con 8gb di ram e 128bit +24/32mb di cache, e dovranno reggere almeno il biennio.
Oltre al fatto che per la prima volta, una classe x60 utilizza una sku 07, quella delle x50.
Ecco, le 4060 e 4060ti (o relative 7600 di amd) andranno ampiamente analizzate e criticate, in quanto debutteranno con 8gb di ram e 128bit +24/32mb di cache, e dovranno reggere almeno il biennio.
Oltre al fatto che per la prima volta, una classe x60 utilizza una sku 07, quella delle x50.
Chi compra quelle schede gioca in FHD.
No infatti mi spiace ma è una CPU tremenda oggi. Già avere 16GB non fai test realistici (perché certi giochi hanno quello di problema, di sforare i 16, allora per i test seri ne servono 32) ma con un 1700 non testi proprio niente seriamente, sbilanciato in modo enorme
Vero... ma infatti nei giochi recenti il paging arriva a dimensioni allucinati, si superano anche i 40GB, non dico che 32GB di ram siano essenziali ma praticamente i 16GB sono appena diventati gli 8GB di 10 anni fa...
La vram la gestisci facilmente in realtà, basta capire quali sono i set che pesano, io con la 3060ti tutti questi problemi non li sto notando francamente, qualche problema che c'è è dovuto alla cpu che non riesce a stargli dietro in tutti i contesti, ma è un problema facile da verificare con l'OSD attivo.
StylezZz`
26-04-2023, 16:16
è un discorso perso in partenza, togliamo tlous che da problemi a tutti i pc di fascia medio bassa soprattutto senza 32gb di ram, lui si lamenta della sua esperienza ma con quella cpu che ha la 3070 a 1440p gli rende meno di una 3060 ti, probabilmente poco più di una 3060 liscia
ma il discorso è il sistema nell'insieme, è sempre li a scrivere roito di qui roito di la ma la cpu gli fa perdere un botto di prestazioni, i ryzen 1000 erano già limitanti in gaming quando uscirono, figurati anni dopo (lo dimostrano i bench)
Se fosse stata davvero un roito l'avrei già venduta e preso una RX 6800 usata...ma la scheda fa ancora bene il suo lavoro, e avendola pagata a prezzo msrp con 3 anni di garanzia diretta nvidia, non posso che esserne soddisfatto...
ninja750
26-04-2023, 16:17
Chi compra quelle schede gioca in FHD.
ho paura a chiederti il target di 3060 e 3060ti
Chi compra quelle schede gioca in FHD.
Non ci metterei la mano sul fuoco
Tipo la 4060ti probabilmente avrà prestazioni simili ad una 3070/6750 quindi mica male per il 2k..
mikael84
26-04-2023, 16:30
Chi compra quelle schede gioca in FHD.
Full hd o 1440p non cambia poi molto nella gestione ram.
Inoltre la 4060ti sarà una scheda da 450-500 euro in base allo shop, modello, e queste devono garantire almeno un biennio tranquillo, e già partono male, considerando che a breve dovranno vedersela con gli unreal 5.
Non stiamo parlando di schede da 2-300 euro, dove si possono chiudere gli occhi.:)
Ale55andr0
26-04-2023, 16:33
Full hd o 1440p non cambia poi molto nella gestione ram.
Inoltre la 4060ti sarà una scheda da 450-500 euro in base allo shop, modello, e queste devono garantire almeno un biennio tranquillo, e già partono male, considerando che a breve dovranno vedersela con gli unreal 5.
Non stiamo parlando di schede da 2-300 euro, dove si possono chiudere gli occhi.:)
l'unreal 5 ha già fatto vedere che mette spavento a una 4090. Gli altri possono giocare in 1024*768 DLSS performance, almeno col CRT hanno un contrasto come si deve :asd:
l'unreal 5 ha già fatto vedere che mette spavento a una 4090. Gli altri possono giocare in 1024*768 DLSS performance, almeno col CRT hanno un contrasto come si deve :asd:
Vabbè è un motore scalabile...
Altrimenti non girerebbe neanche sulle console, e non è che la PS5 ha chissà quanta potenza computezionale, bene o male siamo ai livelli della 6700 liscia da 10GB, poi ok l'ottimizzazione però...
mikael84
26-04-2023, 16:41
l'unreal 5 ha già fatto vedere che mette spavento a una 4090. Gli altri possono giocare in 1024*768 DLSS performance, almeno col CRT hanno un contrasto come si deve :asd:
Si ma nelle techdemo.:p
Si ma nelle techdemo.:p
Ultimamente si parla molto di Unrecord, ma ancora non sono trapelati i requisiti
https://store.steampowered.com/app/2381520/Unrecord/
Ale55andr0
26-04-2023, 16:53
Si ma nelle techdemo.:p
era pur sempre una foresta, terreno e alberi, 0 ia o centinaia di oggetti in movimento, e se devo dirla tutti se uno mi diceva che era skyrim moddato + enb gli avrei prue creduto. ma tranquillissimamente eh :asd:
https://www.youtube.com/watch?v=R9maLsar4OA&ab_channel=OmenApollo
giusto per ribadire quello che penso di sto RT :asd:
mikael84
26-04-2023, 16:55
Ultimamente si parla molto di Unrecord, ma ancora non sono trapelati i requisiti
https://store.steampowered.com/app/2381520/Unrecord/
Si visto, se ne parla tantissimo. Si parla di un periodo d'uscita tra 2024-26, e che dovrà essere adattato alle console. Spesso però i video sono ingannevoli o pompati, ricorderai ciò che doveva essere watch dogs o the division. :D
Per non parlare di anthem
https://www.youtube.com/watch?v=QBcPS6XVABA&ab_channel=Nick930
Avete visto la recensione di prodigeek sulla 4070?
premessa: molto tempo fa techspot testò 6700XT e 3060Ti sugli stessi giochi, tanti giochi, e il risultato 3060Ti vs 6700XT fu FHD -2% QHD +0% 4K +3%.
Lasciate perdere le percentuali in se, cambi giochi cambiano, cambi driver cambiano...ma come mai a pari tutto una VGA con 8GB di VRAM è sfruttata meglio di una con 12GB al salire di risoluzione?
3060Ti bus 256bit vs 6700XT bus 192bit
Ora con la 4070 i risultati dei giochi presi da prodigeek sono:
4070 vs 3080 QHD +2.1%
4070 vs 3080 UWQHD -3.5%
4070 vs 3080 4K circa -10%
3080 bus 256bit vs 4070 bus 192bit
devil_mcry
26-04-2023, 18:43
Avete visto la recensione di prodigeek sulla 4070?
premessa: molto tempo fa techspot testò 6700XT e 3060Ti sugli stessi giochi, tanti giochi, e il risultato 3060Ti vs 6700XT fu FHD -2% QHD +0% 4K +3%.
Lasciate perdere le percentuali in se, cambi giochi cambiano, cambi driver cambiano...ma come mai a pari tutto una VGA con 8GB di VRAM è sfruttata meglio di una con 12GB al salire di risoluzione?
3060Ti bus 256bit vs 6700XT bus 192bit
Ora con la 4070 i risultati dei giochi presi da prodigeek sono:
4070 vs 3080 QHD +2.1%
4070 vs 3080 UWQHD -3.5%
4070 vs 3080 4K circa -10%
3080 bus 256bit vs 4070 bus 192bit
la 3080 è 10gb vero? cmq il motivo da quanto ho capito è che il bus è troppo piccolo e la cache anche, la cache non riesce a sopperire ad alte risoluzione al bus piccolo, mentre alle basse si
la 3080 è 10gb vero? cmq il motivo da quanto ho capito è che il bus è troppo piccolo e la cache anche, la cache non riesce a sopperire ad alte risoluzione al bus piccolo, mentre alle basse si
si dovrebbero avere una 3080 founders da 10GB
altri risultati in qhd sono stati su quei giochi 6800XT vs 4070 +2%, 3070 vs 4070 -31%
Moreno Morello
26-04-2023, 18:59
il target unreal 5 per le console attuali è 1080p (risoluzione interna) e 30 fps
fonte: il tizio di digital foundry che fa le analisi PC dei giochi
devil_mcry
26-04-2023, 19:10
si dovrebbero avere una 3080 founders da 10GB
altri risultati in qhd sono stati su quei giochi 6800XT vs 4070 +2%, 3070 vs 4070 -31%
si è per quello comunque, lo spiegava mikael
Avete visto la recensione di prodigeek sulla 4070?
premessa: molto tempo fa techspot testò 6700XT e 3060Ti sugli stessi giochi, tanti giochi, e il risultato 3060Ti vs 6700XT fu FHD -2% QHD +0% 4K +3%.
Lasciate perdere le percentuali in se, cambi giochi cambiano, cambi driver cambiano...ma come mai a pari tutto una VGA con 8GB di VRAM è sfruttata meglio di una con 12GB al salire di risoluzione?
3060Ti bus 256bit vs 6700XT bus 192bit
Ora con la 4070 i risultati dei giochi presi da prodigeek sono:
4070 vs 3080 QHD +2.1%
4070 vs 3080 UWQHD -3.5%
4070 vs 3080 4K circa -10%
3080 bus 256bit vs 4070 bus 192bit
La 3080 ha un bus a 320bit, in termini di banda parliamo di 504 Gb/s vs 760 Gb/s però c'è da considerare che la 4070 ha 36mb di cache l2 mentre la 3080 solo 5mb.
In linea teorica la cache è sufficiente a sopperire le differenze, più che altro la 4070 ha solo 5888cc rispetto ai 8704cc della 3080, una differenza di ALU di quasi il 50% e il clock non compensa del tutto.
Quindi in se per sè il chip resta validissimo soprattutto considerando che hanno demolito AD104, non pensavo che un choppetto potesse subire un taglio cosi brutale.
mikael84
26-04-2023, 22:02
Avete visto la recensione di prodigeek sulla 4070?
premessa: molto tempo fa techspot testò 6700XT e 3060Ti sugli stessi giochi, tanti giochi, e il risultato 3060Ti vs 6700XT fu FHD -2% QHD +0% 4K +3%.
Lasciate perdere le percentuali in se, cambi giochi cambiano, cambi driver cambiano...ma come mai a pari tutto una VGA con 8GB di VRAM è sfruttata meglio di una con 12GB al salire di risoluzione?
3060Ti bus 256bit vs 6700XT bus 192bit
Ora con la 4070 i risultati dei giochi presi da prodigeek sono:
4070 vs 3080 QHD +2.1%
4070 vs 3080 UWQHD -3.5%
4070 vs 3080 4K circa -10%
3080 bus 256bit vs 4070 bus 192bit
Ti rispondo in modo semplificato al massimo, ma ti devo per forza annoiare.:D
La 6700 con la 3060ti hanno mediamente la stessa potenza di calcolo (fp32), ma le rispettive microarchitetture hanno reparti non del tutto uguali. La 6700 ha il texture fill rate superiore, l'hardware scheduler per la gestione delle code CPU e la possibilità di avere accesso più veloce ai dati tramite una cache da 2 tb/s.
La 3060ti, in 4k, può dare risultati superiori, quando riesce a sfruttare al meglio le risorse e le sue ALU (a basse res, soffre il warp stall o thread in stallo), tra questi il punto di forza è elaborare un SM in 4 cicli vs i 5 della 6700, ma il vero punto di forza, è il rapporto tra rop's-cache e sistema di compressione, visto che in 4k le rop's devono scrivere molti più dati in banda. Da pascal infatti utilizza un sistema di compressione davvero superiore ed efficace.
Tra 4070 e 3080 c'è la stessa identica potenza in tutti i reparti, ma alle basse res, ampere fa più fatica, visto il thread stall, mentre Lovelace riesce ad alimentare le ALU più facilmente visto la cache da quasi 6 tb/s.
In 4k purtroppo la cache da 32mb non può sopperire sempre un bus decisamente più grosso, e può succedere che si schianta.
32mb in 4k, riescono nel migliore die modi a sgravare meno del 30% il bus, ma l'enorme richiesta di banda causa anche cache miss.
Se noi prendessimo una 3090 a 192bit, senza cache, il chip crollerebbe sino a perf da 3070 o poco più.:)
https://cdn.videocardz.com/1/2022/07/RTX3090-TS-2_videocardz-850x478.jpg
ColdWarGuy
26-04-2023, 23:57
Analyst estimates that TSMC’s 3nm chip yields for the A17 Bionic and M3 are at 55 percent (https://wccftech.com/tsmc-3nm-chip-struggling-to-make-a17-bionic-and-m3/)
Resa del 55% con chip die da 135-150 mm2 :confused:
Potete aggiungere Jedi Survivor ai disastri tecnici mangia-vram, facciamo 24GB di VRAM e 64GB di RAM e non se ne parla più :asd:
https://www.neogaf.com/threads/star-wars-jedi-survivor-pc-performance-discussion-port-is-a-mess-worse-than-tlou.1655896/
Ti rispondo in modo semplificato al massimo, ma ti devo per forza annoiare.:D
La 6700 con la 3060ti hanno mediamente la stessa potenza di calcolo (fp32), ma le rispettive microarchitetture hanno reparti non del tutto uguali. La 6700 ha il texture fill rate superiore, l'hardware scheduler per la gestione delle code CPU e la possibilità di avere accesso più veloce ai dati tramite una cache da 2 tb/s.
La 3060ti, in 4k, può dare risultati superiori, quando riesce a sfruttare al meglio le risorse e le sue ALU (a basse res, soffre il warp stall o thread in stallo), tra questi il punto di forza è elaborare un SM in 4 cicli vs i 5 della 6700, ma il vero punto di forza, è il rapporto tra rop's-cache e sistema di compressione, visto che in 4k le rop's devono scrivere molti più dati in banda. Da pascal infatti utilizza un sistema di compressione davvero superiore ed efficace.
Tra 4070 e 3080 c'è la stessa identica potenza in tutti i reparti, ma alle basse res, ampere fa più fatica, visto il thread stall, mentre Lovelace riesce ad alimentare le ALU più facilmente visto la cache da quasi 6 tb/s.
In 4k purtroppo la cache da 32mb non può sopperire sempre un bus decisamente più grosso, e può succedere che si schianta.
32mb in 4k, riescono nel migliore die modi a sgravare meno del 30% il bus, ma l'enorme richiesta di banda causa anche cache miss.
Se noi prendessimo una 3090 a 192bit, senza cache, il chip crollerebbe sino a perf da 3070 o poco più.:)
https://cdn.videocardz.com/1/2022/07/RTX3090-TS-2_videocardz-850x478
Tutto chiaro ;)
nooooooooooooo io e mio figlio lo attendevamo con così tanta impazienza, che brutta notizia :mad:
Cutter90
27-04-2023, 08:25
Potete aggiungere Jedi Survivor ai disastri tecnici mangia-vram, facciamo 24GB di VRAM e 64GB di RAM e non se ne parla più :asd:
https://www.neogaf.com/threads/star-wars-jedi-survivor-pc-performance-discussion-port-is-a-mess-worse-than-tlou.1655896/
Tutto chiaro ;)
No ma dai e che due scatole..... ma la piantano?
nessuno29
27-04-2023, 08:40
Aspettate recensione con patch day one almeno, poi raga 8gb ormai sono pochi abituiamoci
Ale55andr0
27-04-2023, 09:00
Aspettate recensione con patch day one almeno, poi raga 8gb ormai sono pochi abituiamoci
Anche 16gb di sistema
Aspettate recensione con patch day one almeno, poi raga 8gb ormai sono pochi abituiamoci
No aspetta, pochi ma giustificati lato tecnico è ok, qua dovrebbero vergognarsi ad aver dato il gioco da testare in queste condizioni pietose, immagino stiano già lavorando per uscire dalla fase beta (ma chissene l'importante è vendere, tra l'altro è un gioco sponsorizzato da AMD :asd: ).
16GB di VRAM per mandare meglio in QHD quella roba anche no
No aspetta, pochi ma giustificati lato tecnico è ok, qua dovrebbero vergognarsi ad aver dato il gioco da testare in queste condizioni pietose, immagino stiano già lavorando per uscire dalla fase beta (ma chissene l'importante è vendere, tra l'altro è un gioco sponsorizzato da AMD :asd: ).
16GB di VRAM per mandare meglio in QHD quella roba anche no
adesso ho la scusa per la moglie, tesoro il bambino vuole questo gioco mi serve una 4090 da 1500€ :D
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.