View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
amon.akira
19-07-2022, 01:47
Ti ricordi la WF5 SOC della Giga.:sofico:
Cmq dai test sulla 3090ti, la strix 3090ti AIO 450w è micidiale.:)
Si assottiglia o aumenta pure a seconda dei casi.:)
Cmq ho fatto un breve calcolo, e la 4080 a pari condizioni dovrebbe fare 14000, però quest'ultima sarà sparata, la 4090 contenuta.
diciamo un +30% sulla 3090 che poi era quello che si era detto, ma questa volta con la x90 si fa un ulteriore balzo di +35%
x ora scimmia assoluta sulla 4090 :P
mikael84
19-07-2022, 02:18
diciamo un +30% sulla 3090 che poi era quello che si era detto, ma questa volta con la x90 si fa un ulteriore balzo di +35%
x ora scimmia assoluta sulla 4090 :P
Si, stando ai miei calcoletti, dovremmo stare al 35%, però a pari condizioni (clock per clock tra 4080 e 4090). Quindi un 14k a salire.
Intorno al 60% ed oltre tra 3080 e 4080.
La 4090 inscimmia davvero, e non è neppure il full chip, pazzesco.
Thunder-74
19-07-2022, 07:14
Si, stando ai miei calcoletti, dovremmo stare al 35%, però a pari condizioni (clock per clock tra 4080 e 4090). Quindi un 14k a salire.
Intorno al 60% ed oltre tra 3080 e 4080.
La 4090 inscimmia davvero, e non è neppure il full chip, pazzesco.
sarà da vedere quanti organi servono per lo scambio :fagiano:
FrancoBit
19-07-2022, 08:32
Raga però così non va bene, non si può inscimmiare la gente in sta maniera :muro:
Scusate non me ne intendo molto per una 4080 che ali ci vorrebbe?
TigerTank
19-07-2022, 08:54
Scusate non me ne intendo molto per una 4080 che ali ci vorrebbe?
Dipende dal resto del sistema ma direi che se uno deve cambiarlo e vuole puntare alle schede delle fasce più alte, meglio che si faccia almeno un 1000W buono :D
Se poi può aspettare meglio, per vedere come andranno le cose a livello di nuovi ali(ma chissà che prezzi, ormai non è una sorpresa...) e connessioni vga.
Dipende dal resto del sistema ma direi che se uno deve cambiarlo e vuole puntare alle schede delle fasce più alte, meglio che si faccia almeno un 1000W buono :D
Se poi può aspettare meglio, per vedere come andranno le cose a livello di nuovi ali(ma chissà che prezzi, ormai non è una sorpresa...) e connessioni vga.
Con il mio attuale sistema, che non cambierò, reggevo una rx 6900 xt(rimandata indietro per il costo elevato) ora non ho particolari pretese penso di andare di amd(ho il monitor freesync). Se mi offrono na scheda a prezzo contenuto che va come la 6900 circa, ma con prestazioni in rt migliori e consumi minori (7700 probabilmente) bene se no valuto nvidia!
Thunder-74
19-07-2022, 10:53
il piccolo dissi della 4090 FE :fagiano:
https://i.ibb.co/tcyPxcZ/Bv-Ua-Sfdu-GOr-A7-Kp-U.jpg (https://ibb.co/4MBgYMs)
Portocala
19-07-2022, 11:11
Quindi chi come me ha un 550W Platinum e fa 1080p, una 4060/70 non dovrebbe dare problemi, vero? O è meglio che mi guardo già i 650/750W?
Intendo anche passare a 5600x + B550 appena trovo offerta :asd:
La 4090 inscimmia davvero, e non è neppure il full chip, pazzesco.
Costerà tra 1600 e 2000.
Quindi chi come me ha un 550W Platinum e fa 1080p, una 4060/70 non dovrebbe dare problemi, vero? O è meglio che mi guardo già i 650/750W?
Sono chip che resteranno nel range dei 200-300w quindi rientri, poi dipende anche dal reparto cpu ma un 550w platinum non dovrebbe aver problemi.
Già per la 4080 non adrei sotto un 750w sempre di qualità.
Per una 4090 un ali da 1000w è dovuto considerando anche i picchi, e non vorrei dire però se si spendono 2000€ di GPU non si può essere taccagni sul PSU e restare coerenti :sofico:
mikael84
19-07-2022, 11:24
sarà da vedere quanti organi servono per lo scambio :fagiano:
Bisogna vedere che hanno deciso nel famoso "tavolo"con Lisa:)
La rivale non sarà un chip particolarmente economico (die 5nm , interposer, cache a parte, ram).
Metti in conto anche i 16gb di g6x per la 4080.
In ogni caso, non possono neppure tirare troppo la corda.
Costerà tra 1600 e 2000.
Si, mediamente il prezzo sarà li compreso, dopo gli assestamenti.
Poi dipende da uber custom- eshop, richiesta.
Quindi chi come me ha un 550W Platinum e fa 1080p, una 4060/70 non dovrebbe dare problemi, vero? O è meglio che mi guardo già i 650/750W?
Io ho un 850W e penso di essere al limite per la 4080.
Il problema sono i picchi.
Io ho un 850W e penso di essere al limite per la 4080.
Il problema sono i picchi.
Penso di si, nel tuo caso hai un 9900K OC che i 280-300w se li prende in full load, anche se in game di sicuro sarà inferiore il carico.
TigerTank
19-07-2022, 11:54
Quindi chi come me ha un 550W Platinum e fa 1080p, una 4060/70 non dovrebbe dare problemi, vero? O è meglio che mi guardo già i 650/750W?
Intendo anche passare a 5600x + B550 appena trovo offerta :asd:
Secondo me l'alimentatore è il componente forse più importante di un sistema perchè qualità e buona erogazione significano vita migliore per gli altri componenti ben più costosi(vga in primis). Soprattutto in caso di stress da gaming. E in genere salvo imprevisti dura anche parecchi anni in un pc.
Per cui secondo me se cambi anche config. (e fai bene o castreresti una nuova vga), punterei anche un pò più in alto(senza esagerare) a livello alimentatore considerando i picchi, dispersioni ed efficienze a tot percentuali di carico. per non parlare delle connessioni onboard.
Tipo almeno un 750-850W 80 Plus Gold. Il tuo è un Platinum ma sempre un 550W resta...e già per una 2080 si consigliava un 650W.
Poi se si possono attendere gli ATX v3.0, meglio ancora.
Secondo me l'alimentatore è il componente forse più importante di un sistema...
Poi se si possono attendere gli ATX v3.0, meglio ancora.
Infatti, è quello che sto facendo io.
mikael84
19-07-2022, 12:03
Prendete sempre con le pinze, ma pare che ormai sia in fase di test.
EDIT: Parrebbe confermata la full, quindi 2x la 3090ti.
https://i.postimg.cc/Y2J9KS3d/control-bench-2.png
https://i.postimg.cc/9XqmphhZ/control-bench.png
mikael84
19-07-2022, 12:14
Secondo me l'alimentatore è il componente forse più importante di un sistema perchè qualità e buona erogazione significano vita migliore per gli altri componenti ben più costosi(vga in primis). Soprattutto in caso di stress da gaming. E in genere salvo imprevisti dura anche parecchi anni in un pc.
Per cui secondo me se cambi anche config. (e fai bene o castreresti una nuova vga), punterei anche un pò più in alto(senza esagerare) a livello alimentatore considerando i picchi, dispersioni ed efficienze a tot percentuali di carico. per non parlare delle connessioni onboard.
Tipo almeno un 750-850W 80 Plus Gold. Il tuo è un Platinum ma sempre un 550W resta...e già per una 2080 si consigliava un 650W.
Poi se si possono attendere gli ATX v3.0, meglio ancora.
Secondo Sam Naffziger, capoccione di AMD, sarà sempre peggio.
Ed è anche prevedibile visto i prossimi nodi.
https://venturebeat.com/2022/07/06/amd-addressing-the-challenge-of-energy-efficient-computing/
Per il 2024 dovremmo usare questi o varianti del N3.:)
https://i.postimg.cc/Y94hwLmC/n3.png
Thunder-74
19-07-2022, 12:40
Bisogna vedere che hanno deciso nel famoso "tavolo"con Lisa:)
La rivale non sarà un chip particolarmente economico (die 5nm , interposer, cache a parte, ram).
Metti in conto anche i 16gb di g6x per la 4080.
In ogni caso, non possono neppure tirare troppo la corda.
Si, mediamente il prezzo sarà li compreso, dopo gli assestamenti.
Poi dipende da uber custom- eshop, richiesta.
mi riferivo alla 4090 :oink:
TigerTank
19-07-2022, 12:56
Secondo Sam Naffziger, capoccione di AMD, sarà sempre peggio.
Ed è anche prevedibile visto i prossimi nodi.
https://venturebeat.com/2022/07/06/amd-addressing-the-challenge-of-energy-efficient-computing/
Per il 2024 dovremmo usare questi o varianti del N3.:)
Già il tizio della foto ha uno sguardo un pò inquietante. :ops:
Comunque sì...l'importanza dell'efficienza farà un bel balzo...
FrancoBit
19-07-2022, 13:24
Già il tizio della foto ha uno sguardo un pò inquietante. :ops:
Comunque sì...l'importanza dell'efficienza farà un bel balzo...
Ha gli occhi alla Bishop di Aliens :stordita:
mikael84
19-07-2022, 15:01
mi riferivo alla 4090 :oink:
Vuoi fare il super salto...:Perfido:
Cmq a prezzi allineati sui 1600-2000, almeno ipotizzo. Inizialmente, giocherà sugli inscimmiati.
Già il tizio della foto ha uno sguardo un pò inquietante. :ops:
Comunque sì...l'importanza dell'efficienza farà un bel balzo...
Indirettamente sta dicendo che AMD arriverà a consumi altissimi con la prossima gen, e JHH lo risponderà a dovere...in peggio.:p
Thunder-74
19-07-2022, 15:05
Vuoi fare il super salto...:Perfido:
Cmq a prezzi allineati sui 1600-2000, almeno ipotizzo. Inizialmente, giocherà sugli inscimmiati.
Indirettamente sta dicendo che AMD arriverà a consumi altissimi con la prossima gen, e JHH lo risponderà a dovere...in peggio.:p
Sai cosa succede ad andare di schedona? Che poi ad ogni cambio non si può prendere in esame fascia più bassa . No dai, al Max la Ti . 2 baiocchi o giù di lì, sono troppi per giocare a Battlefield hahahah
Inviato dal mio iPhone X utilizzando Tapatalk
TigerTank
19-07-2022, 15:10
Poi ti leggi notizie come questa (https://auto.hwupgrade.it/news/energie-rinnovabili/il-gran-caldo-blocca-le-centrali-nucleari-in-francia-e-in-svizzera_108733.html) e capisci che il concetto di maggiori consumi sta cozzando di brutto con le necessità di questi tempi piuttosto nefasti :mc:
Portocala
19-07-2022, 15:34
Secondo me l'alimentatore è il componente forse più importante di un sistema perchè qualità e buona erogazione significano vita migliore per gli altri componenti ben più costosi(vga in primis). Soprattutto in caso di stress da gaming. E in genere salvo imprevisti dura anche parecchi anni in un pc.
Il fatto è proprio questo. il 550W Platinum 3 anni fa sembra ottima scelta perchè il trend andava verso "efficienza", green, Greta e lato CPU non c'era nulla di cosi energivoro.
Poi di colpo hanno deciso di maxare tutto ovunque. mille mila watt di CPU, mille mila watt di GPU, mille mila RGB (che solo quelli ormai assorbono 500w :asd: )
mikael84
19-07-2022, 15:50
Sai cosa succede ad andare di schedona? Che poi ad ogni cambio non si può prendere in esame fascia più bassa . No dai, al Max la Ti . 2 baiocchi o giù di lì, sono troppi per giocare a Battlefield hahahah
Inviato dal mio iPhone X utilizzando Tapatalk
Si questa tipologia di schede è sprecata per ambiti puramente gaming. Alla fine paghi un surplus che tu non utilizzi.
E se con le altre, si poteva dire "almeno hanno la ram bella maggiorata", ora con 16 o 20 di una ipotetica TI, non si pone neppure quel problema.:)
Poi ti leggi notizie come questa (https://auto.hwupgrade.it/news/energie-rinnovabili/il-gran-caldo-blocca-le-centrali-nucleari-in-francia-e-in-svizzera_108733.html) e capisci che il concetto di maggiori consumi sta cozzando di brutto con le necessità di questi tempi piuttosto nefasti :mc:
Letto, è un casino.
Il fatto è proprio questo. il 550W Platinum 3 anni fa sembra ottima scelta perchè il trend andava verso "efficienza", green, Greta e lato CPU non c'era nulla di cosi energivoro.
Poi di colpo hanno deciso di maxare tutto ovunque. mille mila watt di CPU, mille mila watt di GPU, mille mila RGB (che solo quelli ormai assorbono 500w :asd: )
Basta fare come me: non comprare. Si abbassa qualche filtro e si gioca comunque senza avere un forno al posto del pc. Quando tireranno fuori prodotti sensati in fascia media se ne riparlera'.
Magari la mid gen sara' facilmente downvoltabile e consumera' poco, ma le premesse non sono brillanti per ora.
Il fatto è proprio questo. il 550W Platinum 3 anni fa sembra ottima scelta perchè il trend andava verso "efficienza", green, Greta e lato CPU non c'era nulla di cosi energivoro.
Poi di colpo hanno deciso di maxare tutto ovunque. mille mila watt di CPU, mille mila watt di GPU, mille mila RGB (che solo quelli ormai assorbono 500w :asd: )
Diciamo che man mano che si passa a pp sempre più densi sarà sempre più difficile ottenere un'alta efficienza energetica.
In questa gen si passa dai precedenti 8nm di samsung ai 5nm di tsmc, quindi come performance/consumi il salto è marcato, già sarebbe stato molto più sottile se invece degli 8nm, ampere fosse stata stampata sui 7nm di TSMC.
Con Lovelace potresti tranquillamente ottenere un chip dalle prestazioni di 3080 in 200w o giù di li.
Per chi non vuole sforare i 250w, anche una 4070 in undervolt farebbe il suo, da vedere poi quale sarà il miglior bilanciamento clock/tensioni in relazione a consumi/prestazioni, visto che da quanto si legge questi chip sono stati già belli che spremuti sui clock, e per quella che è la mia esperienza sui chipponi quando arrivi al muro dell'architettura delle volte basta un banale +50mhz per avere +100w XD
Diciamo che man mano che si passa a pp sempre più densi sarà sempre più difficile ottenere un'alta efficienza energetica.
Tutti i pp portano a notevoli migliorie lato performance/prestazioni, il problema sono i produttori che non concepiscono piu' gpu di dimensioni ridotte ma solo padelle.
Una 1080 era un chip da 300 mm2, una 2060 era da 460 mm2, GA104/103 sono gpu da 400/500 mm2.
I chip RT hanno un costo considerevole lato spazio, transistor e consumi.
Chissa' cosa succedera' davvero al lancio della prossima gen, forse AD104 non sara' poi cosi male lato consumi essendo di soli 300 mm2.
Ma quando mai, tutti i pp portano a notevoli migliorie lato performance/prestazioni, il problema sono i produttori che non concepiscono piu' gpu di dimensioni ridotte ma solo padelle.
Una 1080 era un chip da 300 mm2, GA104/103 sono gpu da 400/500 mm2.
Che portino migliorie importanti sicuramente, ma una volta potevi avere anche un quasi dimezzamento dei consumi a pari prestazioni tra una gen e l'altra, traguardo che difficilmente si riuscirà più a ottenere con i prossimi salti di nodo, anzi se ti vedì le specifiche dei prossimi nodi si può stendere un grosso velo XD
Se vuoi un chip di "dimensioni ridotte" ti basta scalare di fascia XD
In 300mmq ci rientra la 4070 su AD104 ma anche la 4080 non è che ecceda molto dato che ha un die di 380mmq, Pascal fu una generazione anomala visto che si sono limitati a 471mmq sulla loro top (dimensioni solo di poco maggiori della GTX 980) e hanno letteralmente campato di rendita sul pp visto che come struttura interna Pascal era praticamente 1 a 1 con maxwell.
Semmai i produttori stanno spingendo tutti i chip ai limiti, non si lasciano più grossi margini all'OC, e per chi è abituato ad occare sa bene che quando arrivi al muro ogni mhz in più pesa enormemente su consumi e calore.
TigerTank
19-07-2022, 17:07
Il fatto è proprio questo. il 550W Platinum 3 anni fa sembra ottima scelta perchè il trend andava verso "efficienza", green, Greta e lato CPU non c'era nulla di cosi energivoro.
Poi di colpo hanno deciso di maxare tutto ovunque. mille mila watt di CPU, mille mila watt di GPU, mille mila RGB (che solo quelli ormai assorbono 500w :asd: )
La cosa positiva è che perlomeno in ambito alimentatori si trovano tagli buoni di buone marche a prezzi non esagerati. Tanto per dire Seasonic, Corsair, MSI da 850W 80 Plus Gold dai 130 ai 150€. Io ho dovuto sostituire il mio 850W e ho preso direttamente un 1000W sulle 180 in previsione delle nuove vga. Per cui almeno da questo punto di vista ci si può fare un pò di "margine energetico" senza spendere troppo.
mikael84
19-07-2022, 18:54
Si, stando ai miei calcoletti, dovremmo stare al 35%, però a pari condizioni (clock per clock tra 4080 e 4090). Quindi un 14k a salire.
Intorno al 60% ed oltre tra 3080 e 4080.
La 4090 inscimmia davvero, e non è neppure il full chip, pazzesco.
Cmq qua chiarisce bene. 19000 easy in relax.
https://i.postimg.cc/90hx6xdB/kop.png
Raga però così non va bene, non si può inscimmiare la gente in sta maniera :muro:
:D
Immagina la scimmia dal mio punto di vista che sono ancora con turing e neppure la top.:sofico:
Black"SLI"jack
19-07-2022, 19:07
va beh, ho la scimmia nonostante abbia 2080ti, 3080 12Gb e 3090. :sofico:
amon.akira
19-07-2022, 19:12
Cmq qua chiarisce bene. 19000 easy in relax.
:D
Immagina la scimmia dal mio punto di vista che sono ancora con turing e neppure la top.:sofico:
si l avevo letto non ho voluto puntualizzarlo per restare in ottica "worst case" :D
dai che a sto giro la 4080 (che poi è la scelta di testa ^^) ci sta tutta.
Cmq a prezzi allineati sui 1600-2000, almeno ipotizzo. Inizialmente, giocherà sugli inscimmiati.
Esattamente la mia stessa previsione :)
La cosa positiva è che perlomeno in ambito alimentatori si trovano tagli buoni di buone marche a prezzi non esagerati.
Insomma... per i titanium ci vogliono 250-350. Da spalmare in 10 anni non sono un problema. Ma tanto vale ottenere quel 5% in più di efficienza a mezzo carico. Secondo me ci si ripaga.
Staranno aspettando le 4xxx per far uscire sti benedetti atx 3?
fraussantin
19-07-2022, 20:51
Insomma... per i titanium ci vogliono 250-350. Da spalmare in 10 anni non sono un problema. Ma tanto vale ottenere quel 5% in più di efficienza a mezzo carico. Secondo me ci si ripaga.
Staranno aspettando le 4xxx per far uscire sti benedetti atx 3?Vabbè ma ci sono moltissimi alimentatori anche bronze di ottima fattura . E i gold ormai costano un prezzo giusto
Il titanium è per chi veramente vuole esagerare.
Ma proprio per i PSU stanno mettendo sconti su sconti quindi sono proprio l'ultimo dei problemi.
L'unico inghippo sono solo i nuovi connettori, e per chi deve cambiare forse conviene aspettare considerando che un alimentatore di buona fattura si fa 5-10 anni tranquillamente e in garanzia.
Inviato dal mio M2012K11AG utilizzando Tapatalk
mikael84
20-07-2022, 01:00
Tutti i pp portano a notevoli migliorie lato performance/prestazioni, il problema sono i produttori che non concepiscono piu' gpu di dimensioni ridotte ma solo padelle.
Una 1080 era un chip da 300 mm2, una 2060 era da 460 mm2, GA104/103 sono gpu da 400/500 mm2.
I chip RT hanno un costo considerevole lato spazio, transistor e consumi.
Non tanti, gli RT core e tensor occupavano mediamente il 10% d'area, con Ampere pure meno.
Considera però che quel 10% scende enormemente perchè nvidia al contrario di AMD usa i tensor per calcolare fp16 ed INT.
Il problema di turing era il PP uguale con la stessa densità di transistor.
Inoltre rispetto a pascal scala molto peggio.
I veri problemi stavano tra logica e cache:)
https://i.postimg.cc/3wPqQF7R/cache-ampere.png
Chissa' cosa succedera' davvero al lancio della prossima gen, forse AD104 non sara' poi cosi male lato consumi essendo di soli 300 mm2.
Cmq non ti preoccupare, c'è un trucchetto, basta perdere un 10% di perf, nei casi peggiori, allinearsi al base boost, ed i consumi scendono in maniera a dir poco drastica.:)
va beh, ho la scimmia nonostante abbia 2080ti, 3080 12Gb e 3090. :sofico:
Ci sta, quando dicevo che samsung era una schifezza...:p
si l avevo letto non ho voluto puntualizzarlo per restare in ottica "worst case" :D
dai che a sto giro la 4080 (che poi è la scelta di testa ^^) ci sta tutta.
In base ai prezzi, sarà il BB di serie. Un chip perfetto e calibrato. Certo magari è sparato e ci sarà da lavorarci su, ma è una barzelletta fare quello. In 10 minuti la smonto e trovo tutto il possibile.:)
Inoltre è da vedere come hanno calibrato i VRM.
Insomma... per i titanium ci vogliono 250-350. Da spalmare in 10 anni non sono un problema. Ma tanto vale ottenere quel 5% in più di efficienza a mezzo carico. Secondo me ci si ripaga.
Staranno aspettando le 4xxx per far uscire sti benedetti atx 3?
Al momento lancio fake, ci sono, sono stati annunciati, ma se li trovate bene.
Es questo:
https://www.gigabyte.com/it/Press/News/1975
L'asus loki pci 5, Thermaltake Toughpower iRGB 1250/1650, tutti di taglia grandissima.
Per questa gen, sono in netto ritardo, nonostante con il lancio della 3090ti hanno spolverato un casino per fargli da marketta, tra cui Intel.:)
Thunder-74
20-07-2022, 06:45
Non tanti, gli RT core e tensor occupavano mediamente il 10% d'area, con Ampere pure meno.
Considera però che quel 10% scende enormemente perchè nvidia al contrario di AMD usa i tensor per calcolare fp16 ed INT.
Il problema di turing era il PP uguale con la stessa densità di transistor.
Inoltre rispetto a pascal scala molto peggio.
I veri problemi stavano tra logica e cache:)
https://i.postimg.cc/3wPqQF7R/cache-ampere.png
Cmq non ti preoccupare, c'è un trucchetto, basta perdere un 10% di perf, nei casi peggiori, allinearsi al base boost, ed i consumi scendono in maniera a dir poco drastica.:)
Ci sta, quando dicevo che samsung era una schifezza...:p
In base ai prezzi, sarà il BB di serie. Un chip perfetto e calibrato. Certo magari è sparato e ci sarà da lavorarci su, ma è una barzelletta fare quello. In 10 minuti la smonto e trovo tutto il possibile.:)
Inoltre è da vedere come hanno calibrato i VRM.
Al momento lancio fake, ci sono, sono stati annunciati, ma se li trovate bene.
Es questo:
https://www.gigabyte.com/it/Press/News/1975
L'asus loki pci 5, Thermaltake Toughpower iRGB 1250/1650, tutti di taglia grandissima.
Per questa gen, sono in netto ritardo, nonostante con il lancio della 3090ti hanno spolverato un casino per fargli da marketta, tra cui Intel.:)
Voglio bene a gigabyte, ma un loro ali non lo vorrei proprio dopo le ultime, meglio i Corsair che detesto :)
Anche MSI ha presentato un modello interessante della linea MEG . Il 1300w mi stuzzica . Comunque hanno una tolleranza di picco fino a 3 volte il loro carico massimo, proprio per evitare spegnimento/reset
https://www.google.com/amp/s/www.tomshw.it/hardware/i-nuovi-alimentatori-msi-arriveranno-sino-a-1300w/%3Famp%3D1
Discorso consumi vga, assolutamente si Mike, pensa che io in BF2042 sto a 265w con 1905mhz/0.900v e avrò sacrificato un paio di fps, a fronte di un centinaio di watt risparmiati
Inviato dal mio iPhone X utilizzando Tapatalk
fraussantin
20-07-2022, 07:00
Non tanti, gli RT core e tensor occupavano mediamente il 10% d'area, con Ampere pure meno.
Considera però che quel 10% scende enormemente perchè nvidia al contrario di AMD usa i tensor per calcolare fp16 ed INT.
Il problema di turing era il PP uguale con la stessa densità di transistor.
Inoltre rispetto a pascal scala molto peggio.
I veri problemi stavano tra logica e cache:)
https://i.postimg.cc/3wPqQF7R/cache-ampere.png
Cmq non ti preoccupare, c'è un trucchetto, basta perdere un 10% di perf, nei casi peggiori, allinearsi al base boost, ed i consumi scendono in maniera a dir poco drastica.:)
Ci sta, quando dicevo che samsung era una schifezza...:p
In base ai prezzi, sarà il BB di serie. Un chip perfetto e calibrato. Certo magari è sparato e ci sarà da lavorarci su, ma è una barzelletta fare quello. In 10 minuti la smonto e trovo tutto il possibile.:)
Inoltre è da vedere come hanno calibrato i VRM.
Al momento lancio fake, ci sono, sono stati annunciati, ma se li trovate bene.
Es questo:
https://www.gigabyte.com/it/Press/News/1975
L'asus loki pci 5, Thermaltake Toughpower iRGB 1250/1650, tutti di taglia grandissima.
Per questa gen, sono in netto ritardo, nonostante con il lancio della 3090ti hanno spolverato un casino per fargli da marketta, tra cui Intel.:)
Cmq non ti preoccupare, c'è un trucchetto, basta perdere un 10% di perf, nei casi peggiori, allinearsi al base boost, ed i consumi scendono in maniera a dir poco drastica.:)
Ci facessero mettere mano anche ai voltaggi delle ram sarebbe fantastico .
Pensavo na cosa se per giocare a 4k60fps mi basta che so una 7700/4700, i consumi saranno contenuti spero! Anzi considerando che le top sono per alti frame e in futuro 8k, dovrei riuscire a contenere i costi, immagino che il 4k diventerà uno standard come lo è stato il 1080p!
Buongiorno,
secondo le vostre predizioni, tagli di chip, a che livello si posizionerà la 4060 rispetto le attuali? E a che prezzo? Più o meno, ovviamente.
Sono indeciso se fare upgrade o aspettare la 4060..
Grazie a tutti
AD106 dovrebbe allinearsi alla 3070/2080ti, bene o male il target di prestazioni sarà quello per la 4060 però è da vedere come vorranno posizionarla, in questo range di prestazioni oltre ad AMD si va a scontrare anche con la prossima A770 di intel quindi ci sarà sicuramente molta concorrenza su questa fascia.
Comunque per un 4K@60fps come minimo punterei a una 4070, l'eventuale 4060 può essere interessante a 1440p per chi accetta qualche compromesso sui soliti mattoni.
Pensavo na cosa se per giocare a 4k60fps mi basta che so una 7700/4700, i consumi saranno contenuti spero! Anzi considerando che le top sono per alti frame e in futuro 8k, dovrei riuscire a contenere i costi, immagino che il 4k diventerà uno standard come lo è stato il 1080p!
Per me quelle schede che citi al 4k@60 fps rock solid, maxato e RT ON, non ci arrivano.
Vedo il minimo in una una 4080.
devAngnew
20-07-2022, 10:10
Prendete sempre con le pinze, ma pare che ormai sia in fase di test.
EDIT: Parrebbe confermata la full, quindi 2x la 3090ti.
https://i.postimg.cc/Y2J9KS3d/control-bench-2.png
https://i.postimg.cc/9XqmphhZ/control-bench.png
Ma sempre stò DLSS di mezzo, senza upscaler non si trova più nulla :muro:
Per me quelle schede che citi al 4k@60 fps rock solid, maxato e RT ON, non ci arrivano.
Vedo il minimo in una una 4080.
E in certi giochi pure per 1440p (RT maxato).
Cutter90
20-07-2022, 10:44
Ma sempre stò DLSS di mezzo, senza upscaler non si trova più nulla :muro:
Perchè non usare il dlss non ha di fatto nessun senso....
Per me quelle schede che citi al 4k@60 fps rock solid, maxato e RT ON, non ci arrivano.
Vedo il minimo in una una 4080.
Infatti già con la 4070 andrebbe fatto un compromesso sui mattoni, per il RT è da vedere se ci saranno miglioramenti con Lovelace ma in genere senza DLSS non vai da nessuna parte.
La 4080 è sicuramente l'opzione migliore per il 4K, da vedere però i prezzi e se rientra nel budget.
mikael84
20-07-2022, 11:59
Voglio bene a gigabyte, ma un loro ali non lo vorrei proprio dopo le ultime, meglio i Corsair che detesto :)
Anche MSI ha presentato un modello interessante della linea MEG . Il 1300w mi stuzzica . Comunque hanno una tolleranza di picco fino a 3 volte il loro carico massimo, proprio per evitare spegnimento/reset
https://www.google.com/amp/s/www.tomshw.it/hardware/i-nuovi-alimentatori-msi-arriveranno-sino-a-1300w/%3Famp%3D1
Quella è più che altro una markettata per far vendere gli ALI.:)
Il vero vantaggio è che è un AWG16 nativo diretto, senza adattatori (4x8), metti quello ed amen, ma è sempre tarato in AWG20 (4x 150w)
Il tuo ALI ad esempio ha i canali separati in AWG16, ed un solo 8 pin ad 8A come il cavo a 16 pin, trasporta 300w.
Praticamente con 2 canali separati, ed utilizzando 2 x8pin AWG16, avresti gli stessi risultati di quel cavo.
Il tutto su un ALI migliore di Gigabyte.:D
Discorso consumi vga, assolutamente si Mike, pensa che io in BF2042 sto a 265w con 1905mhz/0.900v e avrò sacrificato un paio di fps, a fronte di un centinaio di watt risparmiati
Inviato dal mio iPhone X utilizzando Tapatalk
Esatto, basta prendersi il base boost in clock ed in volt, ed i consumi crollano letteralmente a picco.
Capisco che a qualcuno possa dar fastidio scendere anche a 1710/1770/0,87v su schede fe o reference (non la tua ovviamente), ma se in un gioco x faccio 130fps a 350watt, e scendo a 120fps a 220-250watt, cambia davvero poco l'esperienza, al contrario di temp e consumi.:)
Ci facessero mettere mano anche ai voltaggi delle ram sarebbe fantastico .
AMD un tempo lo permetteva, mentre nvidia l'ha sempre permesso sulle varie lightning/kp.
Tuttavia in negativo ci potrebbe stare, ma solo in negativo. Le g6x variano da 1,3/1,39v e sono settate a 1,35/1,365v.
Senza overclock, le potresti tenere tranquillamente ad 1,31v.
mikael84
20-07-2022, 13:11
si l avevo letto non ho voluto puntualizzarlo per restare in ottica "worst case" :D
dai che a sto giro la 4080 (che poi è la scelta di testa ^^) ci sta tutta.
Riprendo il discorso che dalla fretta non ho osservato, e che tutte le news stanno riprendendo.
https://i.postimg.cc/90hx6xdB/kop.png
Kopite avrà buoni informatori, ma in quanto a conoscenza microarchitetturale è 0.
La cache l2 non può essere dimezzata o abbassata nel modo più assoluto. E' collegata ai canali di memoria.
Se la dimezzassimo, si dimezzerebbe anche il bus, questa diciamo che è stata una sua trovata.:)
Come la 4070 10gb, che per girare a 160 bit scende da 48 a 40mb di cache.
Lo dico giusto a scopo informativo, visto che tutti riportano questo aspetto.
TigerTank
20-07-2022, 13:29
Mike dovresti fare tu lo youtuber/twittatore, così poi magari ti mandano pure i samples di vga e me ne regali qualcuna :sofico: :D
amon.akira
20-07-2022, 14:23
Kopite avrà buoni informatori, ma in quanto a conoscenza microarchitetturale è 0.
si, infatti ho letto e mi son detto "what?", vabbe basta che leaka i numeri visto che ha i contatti :P
poi vabbe per me low tgp penso intenda base 450w che per me sarebbe già il max sinceramnete anche se ti dessero la possibilità di alzarlo ulteriormente.
Ale55andr0
20-07-2022, 15:14
Perchè non usare il dlss non ha di fatto nessun senso....
da possessore di 3070, il più delle volte preferisco la nativa (per dire in CP2077 scaletta più che in nativa, in RDR2, idem). Il DLSS è tutto fuorchè perfetto o miracoloso, ma ormai è entrato nella testa di tutti che lo è va usato, di default
Cutter90
20-07-2022, 15:20
da possessore di 3070, il più delle volte preferisco la nativa (per dire in CP2077 scaletta più che in nativa, in RDR2, idem). Il DLSS è tutto fuorchè perfetto o miracoloso, ma ormai è entrato nella testa di tutti che lo è va usato, di default
In cp2077 in qualità da un bel boost ad un gioco altrimenti ingiocabile con rt. In generale il dlss qualità dove c'è il TAA è migliore della nativa. Questo è un dato di fatto e ci sono milioni di analisi a riguardo. Poi, nei giochi dove cmq si "perde" è talmente esigua la perdita che conviene ugualmente usarlo se si guadagnano 20 fps in 4k..... I casi in cui il dlss non sia da preferire alla nativa sono praticamente inesistenti, se non in quei casi in cui si ha un surplus di performance.
mikael84
20-07-2022, 15:28
Mike dovresti fare tu lo youtuber/twittatore, così poi magari ti mandano pure i samples di vga e me ne regali qualcuna :sofico: :D
Con qualcuna (4090/TI) mi prenderei la macchina nuova o quasi visti i costi, altrochè.:sofico: :p
si, infatti ho letto e mi son detto "what?", vabbe basta che leaka i numeri visto che ha i contatti :P
poi vabbe per me low tgp penso intenda base 450w che per me sarebbe già il max sinceramnete anche se ti dessero la possibilità di alzarlo ulteriormente.
Si TDP base 450. Con la 3090ti ha messo pure PL0. Paradossalmente con il PL alcune 3090 stavano sopra i 500, con la 3090ti solo la strix AIO ha toccato i 510.
Con la 4090, però dovrebbe mettere il cavo da 16 full a (4x8), quindi già dalla FE penso che il PL sia maggiorato.
Anche le custom penso che integrino tutti il cavetto, altrimenti dovrebbero mettere 4x8pin, occupando mezzo PCB.
E' anche probabile vedere delle schede A2, con bin scarsi con il 3x8 e PL0
TigerTank
20-07-2022, 17:19
da possessore di 3070, il più delle volte preferisco la nativa (per dire in CP2077 scaletta più che in nativa, in RDR2, idem). Il DLSS è tutto fuorchè perfetto o miracoloso, ma ormai è entrato nella testa di tutti che lo è va usato, di default
Prova ad usare il DLSS e a dare un colpetto di smaa+lumasharpen da reshade :)
P.S. Un paio di giorni fà è uscita la 5.3.0.
Con qualcuna (4090/TI) mi prenderei la macchina nuova o quasi visti i costi, altrochè.:sofico: :p
Giusto :D
Ale55andr0
20-07-2022, 17:30
In generale il dlss qualità dove c'è il TAA è migliore della nativa. Questo è un dato di fatto e ci sono milioni di analisi a riguardo.
Bella forza se smerdi l'immagine apposta col TAA per far apparire il DLSS meglio di cio che in realtà è...non ho bisogno dei "milioni di analisi al riguardo" tanto e palese e ovvia la cosa, MA, perchè fai partire consapevolmente l'immagine con una schifezza di filtro spesso non dando alternativa (chissà perchè è sui titoli verdi sta cosa qua...). Non ci vedo nessun miracolo, come dire "beh ma se facciamo il raffronto tu col freno a mano tirato io no andrò meglio, lo dicono milioni di test" :asd:
amon.akira
20-07-2022, 17:46
l ideale sarebbe dlaa se non si hanno problemi di potenza, ma con alcune realtà di giochi ci vuole per forza il dlss.
spiderman in uscita il 12agosto avrà anche il dlaa
Cutter90
20-07-2022, 22:15
Bella forza se smerdi l'immagine apposta col TAA per far apparire il DLSS meglio di cio che in realtà è...non ho bisogno dei "milioni di analisi al riguardo" tanto e palese e ovvia la cosa, MA, perchè fai partire consapevolmente l'immagine con una schifezza di filtro spesso non dando alternativa (chissà perchè è sui titoli verdi sta cosa qua...). Non ci vedo nessun miracolo, come dire "beh ma se facciamo il raffronto tu col freno a mano tirato io no andrò meglio, lo dicono milioni di test" :asd:
Schifezza o no in tanti usano il TAA senza dare alternative. Ed anni ed anni che si usa, da molto prima del dlss. Il dlss quality in 4k è meglio del taa? Si. Quindi usarlo è la via giusta per guadagnare performance E nitidezza.
Inoltre non ho capito sta crociata contro il taa: resta migliore dell msaa e molto migliore dell fxaa...
Ale55andr0
20-07-2022, 22:35
Schifezza o no in tanti usano il TAA senza dare alternative. Ed anni ed anni che si usa, da molto prima del dlss. Il dlss quality in 4k è meglio del taa? Si. Quindi usarlo è la via giusta per guadagnare performance E nitidezza.
Inoltre non ho capito sta crociata contro il taa: resta migliore dell msaa e molto migliore dell fxaa...
un 4k nativo più un semplice fxxa il dlss quality lo fa a fette. Vatti a vedere come si vedono le linee e le geometrie fini a poi ne riparliamo (vedi il lunotto termico sulla porsche di silverhand in CP2077, tutto scalettato in 4K dlss quality e PERFETTO in 4k nativo..). E questo senza tirare in ballo ghosting e altre porcherie, solo la pura efficacia nel rimuovere le scalette in OGNI condizione. Poi fa/pensa quel che ti pare, ci mancherebbe, tu usa i tuoi occhi, io miei. Niente supera la nativa, e quella del TAA è un paragone senza alcun senso fatto palesemente per sporcare apposta l'immagine per "vendere" un algoritmo che a oggi non fa nessun miracolo per quanto mi riguarda. Non è ne la prima ne l'ultima delle strategie "vili" messe in atto da nvidia negli anni.
amon.akira
20-07-2022, 22:52
in cyberpunk è meglio nativo, ma perchè ha il taa embebbed ma non lo puoi giocare perchè non hai la potenza, potresti mettere 1440p nativo senza dlss e giocarlo upscalato in quel caso come lo vedi? una merda...meglio il dlss quality.
god of war per esempio a 4k 60 l ho giocato senza dlss perchè era meglio cosi (idem anche lui ha il taa non disattivabile), c era qualche artefatto, ma se non avessi avuto le performance o metti che avessi avuto un display ad alti hz, il dlss era ottimo come compromesso.
in alcuni casi invece migliora proprio e li giocherei con il dlss anche a potenza illimitata esempio control e death strading su tutti...ecco perchè vorrei che introducessero sempre piu il dlaa cosi avremmo il dlss a pari risoluzione.
29Leonardo
21-07-2022, 06:52
un 4k nativo più un semplice fxxa il dlss quality lo fa a fette. Vatti a vedere come si vedono le linee e le geometrie fini a poi ne riparliamo (vedi il lunotto termico sulla porsche di silverhand in CP2077, tutto scalettato in 4K dlss quality e PERFETTO in 4k nativo..). E questo senza tirare in ballo ghosting e altre porcherie, solo la pura efficacia nel rimuovere le scalette in OGNI condizione. Poi fa/pensa quel che ti pare, ci mancherebbe, tu usa i tuoi occhi, io miei. Niente supera la nativa, e quella del TAA è un paragone senza alcun senso fatto palesemente per sporcare apposta l'immagine per "vendere" un algoritmo che a oggi non fa nessun miracolo per quanto mi riguarda. Non è ne la prima ne l'ultima delle strategie "vili" messe in atto da nvidia negli anni.
Quoto, non mi capacito di come si vada contro l'evidenza e ritenere il 4k con il dlss superiore alla nativa.:doh: Comunque tanto di cappello a quelli nvidia "The way it's meant to be brainwashed" :asd:
Thunder-74
21-07-2022, 07:00
Il problema di cp2077 non è un cattivo dlss, è CP2077 stesso. :fagiano:
Inviato dal mio iPhone X utilizzando Tapatalk
Il problema è che abbiano dovuto innventare il dlls e fsr....4k nativo tutta la vita!
Thunder-74
21-07-2022, 08:11
Il problema è che abbiano dovuto innventare il dlls e fsr....4k nativo tutta la vita!
Non sarei così categorico. In alcuni titoli il dlss restituisce immagini migliori del nativo. Comunque la vedo come una possibilità in più per tutti. 4K sono ancora esosi su alcuni titoli e se si cerca un alto numero di fps, la strada da percorrere è con il dlss.
Inoltre, con il tempo è migliorato molto. Il dlss 1 faceva pena in certi frangenti. Adesso siamo al 2.4.6 se non erro, e dal 2.4 tante migliorie sono state apportate: eliminazione di effetto scia in primis.
Personalmente io lo uso quando presente, a volte avrei potuto evitare, ma preferisco fare più fps possibili.
Alla fine meglio averlo e decidere di non attivarlo, che non averlo per nulla :)
Inviato dal mio iPhone X utilizzando Tapatalk
FrancoBit
21-07-2022, 08:19
Ma ragazzi il DLSS non è obbligatorio, basta non attivarlo. Poi se alcuni titoli andranno a 30frame pace, ognuno è libero di scegliere quello che vuole e di giocarci secondo el proprie preferenze, Nvidia non obbliga nessuno a usarlo, tantomenno a spendere fior di denari per comprarele sue schede dai...
Cutter90
21-07-2022, 08:27
un 4k nativo più un semplice fxxa il dlss quality lo fa a fette. Vatti a vedere come si vedono le linee e le geometrie fini a poi ne riparliamo (vedi il lunotto termico sulla porsche di silverhand in CP2077, tutto scalettato in 4K dlss quality e PERFETTO in 4k nativo..). E questo senza tirare in ballo ghosting e altre porcherie, solo la pura efficacia nel rimuovere le scalette in OGNI condizione. Poi fa/pensa quel che ti pare, ci mancherebbe, tu usa i tuoi occhi, io miei. Niente supera la nativa, e quella del TAA è un paragone senza alcun senso fatto palesemente per sporcare apposta l'immagine per "vendere" un algoritmo che a oggi non fa nessun miracolo per quanto mi riguarda. Non è ne la prima ne l'ultima delle strategie "vili" messe in atto da nvidia negli anni.
Forse perchè tu giochi in un monitor "piccolo". Su un tv da 65 pollici fxaa è impresentabile, seghetta il mondo. Il taa è molto più morbido su una grande diagonale ed è volente o nolente il metodo più+ usato, quindi di che parliamo? Il paragone va fatto con il taa perchè quello si usa.
In alcuni giochi il dlss quality è meglio della nativa, giocati anche personalmente: da Control a Nioh 2, da Death stranding e Bright memory e sicuramente non ne ricordo altri.....
Negli altri giochi in cui non supera la nativa resta un """""""COMPROMESSO""""" tra mille virgolette perchè ti da un bel boost di performance e si avvicina tantissimo alla nativa.
Il ghsting in alcuni giochi lo crea, verissimo (penso ad acc ad esempio, con le auto in lontananza), ma anche il TAA non è esente da difetti. E' meglio vedere ogni tanto un leggero ghosting e guadagnare 20 fps oppure non vederlo ma perderli? Ognuno poi fa le sue scelte, senza dubbio. MA è a tutti gli effetti un qualcosa di valido e molto intertessante e grazie a quello abbiamo potuto giocare dignitosamente a giochi con rt principalmente altrimenti quasi ingiocabili: Se non ha fatto la differenza questo....
Cioè, per una volta che abbiamo veramente una features all'avanguardia e valida si grida al "complotto" di nvidia.... mah
devAngnew
21-07-2022, 08:40
Perchè non usare il dlss non ha di fatto nessun senso....
Vedo che siete tutti passati al lato oscuro :sofico: una volta tutti contro i consolari e l'upscaler :rolleyes:
Che poi il DLSS non è perfetto e lo sapete tutti quindi almeno un grafico senza upscaler sarebbe gradito per vedere la forza bruta di una GPU. :)
Thunder-74
21-07-2022, 08:45
Vedo che siete tutti passati al lato oscuro :sofico: una volta tutti contro i consolari e l'upscaler :rolleyes:
Che poi il DLSS non è perfetto e lo sapete tutti quindi almeno un grafico senza upscaler sarebbe gradito per vedere la forza bruta di una GPU. :)
Hai ragione che fare upscale fa storcere il naso, ma un upscale di una console vuol dire essere a livello di 3dfx di vent anni fa :) un upscale dlss su PC è già di molto più definito della nativa console :)
Ovviamente esagero, ma il senso è quello ;)
Inviato dal mio iPhone X utilizzando Tapatalk
Vedo che siete tutti passati al lato oscuro :sofico: una volta tutti contro i consolari e l'upscaler :rolleyes:
Che poi il DLSS non è perfetto e lo sapete tutti quindi almeno un grafico senza upscaler sarebbe gradito per vedere la forza bruta di una GPU. :)
*
Amen.
Cutter90
21-07-2022, 09:26
Hai ragione che fare upscale fa storcere il naso, ma un upscale di una console vuol dire essere a livello di 3dfx di vent anni fa :) un upscale dlss su PC è già di molto più definito della nativa console :)
Ovviamente esagero, ma il senso è quello ;)
Inviato dal mio iPhone X utilizzando Tapatalk
Esatto. Paragoni fatti con poca sapienza tecnica secondo me. Ci sono upscale e upscale.
devAngnew
21-07-2022, 09:52
Non tanti, gli RT core e tensor occupavano mediamente il 10% d'area, con Ampere pure meno.
Considera però che quel 10% scende enormemente perchè nvidia al contrario di AMD usa i tensor per calcolare fp16 ed INT.
https://i.postimg.cc/3wPqQF7R/cache-ampere.png
cut
Ma nel senso di calcolo inferenziale (AI) e algortimi di upscale , e altri AI algorithm.
Esatto. Paragoni fatti con poca sapienza tecnica secondo me. Ci sono upscale e upscale.
Hai ragione che fare upscale fa storcere il naso, ma un upscale di una console vuol dire essere a livello di 3dfx di vent anni fa :) un upscale dlss su PC è già di molto più definito della nativa console :)
Ovviamente esagero, ma il senso è quello ;)
Inviato dal mio iPhone X utilizzando Tapatalk
Certo, però non ci si deve "nascondere" dietro l'ipocrisia e dire tutto a posto DLSS non plus ultra quando non è vero e qualcuno non tu mi vuol far passare per poco sapiente. I problemi sono evidenti però qualcuno dice va bene anzi benissimo contento lui contenti tutti escluso me, Ale55andr0 e qualcun altro...
Che poi la mia richiesta era fatta apposta proprio per vedere i miglioramenti architetturali lato RT senza avere infulze dai tensor. :)
Vedo che siete tutti passati al lato oscuro :sofico: una volta tutti contro i consolari e l'upscaler :rolleyes:
Che poi il DLSS non è perfetto e lo sapete tutti quindi almeno un grafico senza upscaler sarebbe gradito per vedere la forza bruta di una GPU. :)
Ma i grafici nelle review li vedrai sempre...
Poi sei tu che valuti caso per caso quando, come e se attivarlo.
Certo, però non ci si deve "nascondere" dietro l'ipocrisia e dire tutto a posto DLSS non plus ultra quando non è vero e qualcuno non tu mi vuol far passare per poco sapiente. I problemi sono evidenti però qualcuno dice va bene anzi benissimo contento lui contenti tutti escluso me, Ale55andr0 e qualcun altro...
Che poi la mia richiesta era fatta apposta proprio per vedere i miglioramenti architetturali lato RT senza avere infulze dai tensor. :)
Tutto apposto no, ma non tutti si svenano spendendo il fior fior dei soldi, per chi cerca un buon compromesso o comunque vuole sfruttare un pò più a lungo la propria GPU il DLSS è comunque un supporto aggiuntivo che può far comodo.
Per il resto le review in genere sono molto accurate, fanno test con 4k nativo, dlss e relativo RT ON/OFF, come detto su tiri tu le somme e valuti quale chip si adatta meglio alle tue esigenze/budget
Cutter90
21-07-2022, 10:05
Ma nel senso di calcolo inferenziale (AI) e algortimi di upscale , e altri AI algorithm.
Certo, però non ci si deve "nascondere" dietro l'ipocrisia e dire tutto a posto DLSS non plus ultra quando non è vero e qualcuno non tu mi vuol far passare per poco sapiente. I problemi sono evidenti però qualcuno dice va bene anzi benissimo contento lui contenti tutti escluso me, Ale55andr0 e qualcun altro...
Che poi la mia richiesta era fatta apposta proprio per vedere i miglioramenti architetturali lato RT senza avere infulze dai tensor. :)
I problemi sono evidenti? Cioè, dalla tua frase sembra che faccia pena quando è l'esatto opposto. Cioè, boh :stordita:
Su 100 è a 85, per dire. Gli manca da aggiustare qualche dettaglio, come il saltuari ghosting. Quindi si, va dal bene al benissimo al migliore della nativa. Io... mi accontento :)
Naturalmente se con le nuove riuscissi a fare 4k a 120 fps enza usarlo in quei giochi dove non è migliore della nativa, ben venga. Altrimenti, lo attivo come sempre e godo. :D
Thunder-74
21-07-2022, 10:05
Ma i grafici nelle review li vedrai sempre...
Poi sei tu che valuti caso per caso quando, come e se attivarlo.
Tutto apposto no, ma non tutti si svenano spendendo il fior fior dei soldi, per chi cerca un buon compromesso o comunque vuole sfruttare un pò più a lungo la propria GPU il DLSS è comunque un supporto aggiuntivo che può far comodo.
Per il resto le review in genere sono molto accurate, fanno test con 4k nativo, dlss e relativo RT ON/OFF, come detto su tiri tu le somme e valuti quale chip si adatta meglio alle tue esigenze/budget
Si esatto, i test vengono sempre condotti con e senza DLSS. Si saggerà così il Delta tra Ampere e Lovelace in entrambe le situazioni. Poi attendiamo il DLSS 3, magari annunciato con le 4000 :)
Piccolo OT. Sono a Vienna , ho lasciato i 37 gradi di Roma per trovarne 34, forse meno umido, ma sempre caldo :fagiano:
Inviato dal mio iPhone X utilizzando Tapatalk
devAngnew
21-07-2022, 11:09
I problemi sono evidenti? Cioè, dalla tua frase sembra che faccia pena quando è l'esatto opposto. Cioè, boh :stordita:
Su 100 è a 85, per dire.
Vedi che è già diverso quello che hai detto ora, rispetto a quello che di solito viene ribadito sul forum "tutto perfetto".
Gli manca da aggiustare qualche dettaglio, come il saltuari ghosting. Quindi si, va dal bene al benissimo al migliore della nativa. Io... mi accontento :)
Naturalmente se con le nuove riuscissi a fare 4k a 120 fps enza usarlo in quei giochi dove non è migliore della nativa, ben venga. Altrimenti, lo attivo come sempre e godo. :D
Sono contento per te, ma anche per chi si accontenta di FSR 1 o 2. :D
Cutter90
21-07-2022, 11:16
Vedi che è già diverso quello che hai detto ora, rispetto a quello che di solito viene ribadito sul forum "tutto perfetto".
Sono contento per te, ma anche per chi si accontenta di FSR 1 o 2. :D
Mai detto questo :)
mikael84
21-07-2022, 11:34
Ma nel senso di calcolo inferenziale (AI) e algortimi di upscale , e altri AI algorithm.
Anche per FP16 base.
AMD splitta una FP32 in 2 FP16, nvidia sino a Turing non aveva unità native FP16.
Ad esempio, la 1660ti non ha tensor, ma metà dei tensor l'hanno dovuto utilizzare per fare FP16.
https://i.postimg.cc/tCsT4yqB/gtx-1660ti.png
devAngnew
21-07-2022, 15:35
Anche per FP16 base.
AMD splitta una FP32 in 2 FP16, nvidia sino a Turing non aveva unità native FP16.
Ad esempio, la 1660ti non ha tensor, ma metà dei tensor l'hanno dovuto utilizzare per fare FP16.
https://i.postimg.cc/tCsT4yqB/gtx-1660ti.png
Aspe' Mike spiegati meglio che dall'esempio la 1660ti non ha tensor ma allo stesso tempo ne usa la metà etc...
mikael84
21-07-2022, 16:05
Aspe' Mike spiegati meglio che dall'esempio la 1660ti non ha tensor ma allo stesso tempo ne usa la metà etc...
Praticamente si tende a pensare che i chip siano particolarmente grandi per via delle unità RT e tensor, ma tutto questo occupa il 10% del die, meno con ampere.
RT core 0,7mm2 per dire.
Pascal non aveva FP16 native, ma solo FP32, di conseguenza da turing in poi le hanno dovuto implementare, non a caso, AMD le introduceva in svariati vulkan danneggiando nvidia, spariti dopo che le ha implementate nvidia.
Ora, in quel 10% (leggermente meno in ampere) d'area bisogna considerare che parte del tensor sarebbe cmq utilizzato per le unità fp16 native, di conseguenza l'area scende ancora.
https://i.postimg.cc/Z5RqNtzM/2080ti.png
AMD invece le splitta, da una FP32, può calcolare 2 FP16.
Andy1111
21-07-2022, 22:36
Nuovo Rumor sulle 5000 però
https://twitter.com/kopite7kimi/status/1549382169302564865?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1549382169302564865%7Ctwgr%5E%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fwww.hardwaretimes.com%2Fnvidia-delays-the-move-to-chiplet-gpus-rtx-50-series-blackwell-to-leverage-monolithic-die-rumor%2F
ADA-next seems to be another monolithic chip.
mikael84
22-07-2022, 00:27
Nuovo Rumor sulle 5000 però
https://twitter.com/kopite7kimi/status/1549382169302564865?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1549382169302564865%7Ctwgr%5E%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fwww.hardwaretimes.com%2Fnvidia-delays-the-move-to-chiplet-gpus-rtx-50-series-blackwell-to-leverage-monolithic-die-rumor%2F
ADA-next seems to be another monolithic chip.
Si potrebbe essere, questi i codici vecchi.
Blackwell dovrebbe essere serie Tesla, come hopper.
Sia su Hopper che su Blackwell, era previsto un x2 MCM, ma non se n'è fatto nulla, quindi è probabile che pure la serie prossima sia totalmente mono.
Se lo sarà nel calcolo puro tesla, lo sarà pure per le gaming.
https://i.postimg.cc/G2RR8zt2/black.png
Una cosa è certa, tanta, tanta cache.:p
devAngnew
22-07-2022, 09:42
Praticamente si tende a pensare che i chip siano particolarmente grandi per via delle unità RT e tensor, ma tutto questo occupa il 10% del die, meno con ampere.
RT core 0,7mm2 per dire.
Pascal non aveva FP16 native, ma solo FP32, di conseguenza da turing in poi le hanno dovuto implementare, non a caso, AMD le introduceva in svariati vulkan danneggiando nvidia, spariti dopo che le ha implementate nvidia.
Ora, in quel 10% (leggermente meno in ampere) d'area bisogna considerare che parte del tensor sarebbe cmq utilizzato per le unità fp16 native, di conseguenza l'area scende ancora.
https://i.postimg.cc/Z5RqNtzM/2080ti.png
AMD invece le splitta, da una FP32, può calcolare 2 FP16.
SI, adesso non ho tempo di cercare il paper di pascal ma mi sembra di ricordare che le fp16 "le gestiva" ma non ricordo se facendo lavorare le fp32 "alla metà" sprecando cicli. :)
amon.akira
22-07-2022, 12:12
SI, adesso non ho tempo di cercare il paper di pascal ma mi sembra di ricordare che le fp16 "le gestiva" ma non ricordo se facendo lavorare le fp32 "alla metà" sprecando cicli. :)
1660ti è turing :)
mikael84
22-07-2022, 12:46
SI, adesso non ho tempo di cercare il paper di pascal ma mi sembra di ricordare che le fp16 "le gestiva" ma non ricordo se facendo lavorare le fp32 "alla metà" sprecando cicli. :)
No, diciamo che con Pascal c'è stata una trovata di JHH per penalizzare quei calcoli.
Nvidia prima di turing, non poteva eseguire FP16 nativi, ma poteva utilizzare le FP32 con lo stesso risultato, occupando però l doppio dei registri.
Quindi era una buona trovata per il deep learning, rendendo vanni parte dei guadagni delle tesla.
Con Pascal, ha diviso le tesla dalle gaming con chip appositi. Ed ha creato tramite GP100 le pipeline splittabili, ovvero 1 FP32 = 2xfp16 (come fa AMD).
Nelle gaming, come fa con le FP64, ha messo un solo cuda x SM, capace di splittare le due FP.
Quindi per 28 SM (gtx1080ti) è possibile utilizzare 56 cuda FP16.
Di conseguenza, se volevi le fp16, dovevi andare di tesla, o aspettare due anni per turing.:p
devAngnew
22-07-2022, 17:35
No, diciamo che con Pascal c'è stata una trovata di JHH per penalizzare quei calcoli.
Nvidia prima di turing, non poteva eseguire FP16 nativi, ma poteva utilizzare le FP32 con lo stesso risultato, occupando però l doppio dei registri.
Quindi era una buona trovata per il deep learning, rendendo vanni parte dei guadagni delle tesla.
Con Pascal, ha diviso le tesla dalle gaming con chip appositi. Ed ha creato tramite GP100 le pipeline splittabili, ovvero 1 FP32 = 2xfp16 (come fa AMD).
Nelle gaming, come fa con le FP64, ha messo un solo cuda x SM, capace di splittare le due FP.
Quindi per 28 SM (gtx1080ti) è possibile utilizzare 56 cuda FP16.
Di conseguenza, se volevi le fp16, dovevi andare di tesla, o aspettare due anni per turing.:p
In pratica quello che ho detto nel mio post precedente (forse non mi sono espresso proprio chiaramente) :D
mikael84
22-07-2022, 18:53
In pratica quello che ho detto nel mio post precedente (forse non mi sono espresso proprio chiaramente) :D
Si, ed è vero, però valeva sino a Maxwell
Con Pascal, malgrado sia mediamente 1:1 con Maxwell, ha volutamente tagliato le FP16, obbligandoti a comprare la tesla splittata. Vuoi le FP16, ecco 100gflops andando bene.:p
Thunder-74
24-07-2022, 12:35
NVIDIA GeForce RTX 3080 Ti ora disponibile per $ 900, costa $ 200 in meno in soli 10 giorni
https://videocardz.com/newz/nvidia-geforce-rtx-3080-ti-now-available-for-900-its-200-cheaper-in-just-10-days
Venghino Signori venghino :fagiano:
Inviato dal mio iPhone X utilizzando Tapatalk
TigerTank
24-07-2022, 13:07
NVIDIA GeForce RTX 3080 Ti ora disponibile per $ 900, costa $ 200 in meno in soli 10 giorni
https://videocardz.com/newz/nvidia-geforce-rtx-3080-ti-now-available-for-900-its-200-cheaper-in-just-10-days
Venghino Signori venghino :fagiano:
Inviato dal mio iPhone X utilizzando Tapatalk
Me ne faccia 5-6 fette belle spesse da arrostire sulla piastra, grazie! :D
Comunque il paradosso è che tagliano quelle di punta ma non le altre fasce che potrebbero avere più richiesta. Mah... :D
E considerati tali tagli fattibili mi verrebbe da dire che ci abbiano mangiato sopra alla grandissima da fine 2020 ad oggi.
Mandatemi un pm quando la vendono a 600 euro, thanks.
mikael84
24-07-2022, 13:27
Me ne faccia 5-6 fette belle spesse da arrostire sulla piastra, grazie! :D
Comunque il paradosso è che tagliano quelle di punta ma non le altre fasce che potrebbero avere più richiesta. Mah... :D
E considerati tali tagli fattibili mi verrebbe da dire che ci abbiano mangiato sopra alla grandissima da fine 2020 ad oggi.
Taglia le schede che non riesce a vendere e che a breve prenderanno mazzate.:)
Inoltre tirare fuori una 3080 da 12 che eclissa la 3080ti, è stata una genialata.
Mandatemi un pm quando la vendono a 600 euro, thanks.
non trattenere il fiato, nell'attesa... :O
TigerTank
24-07-2022, 13:55
Taglia le schede che non riesce a vendere e che a breve prenderanno mazzate.:)
Inoltre tirare fuori una 3080 da 12 che eclissa la 3080ti, è stata una genialata.
Eheheh e infatti hanno già mandato le 3080 12GB in EOL per "autoconcorrenza" :asd:
Su amazon c'è la 3080 12GB Strix OC in "offerta a tempo" a 1110,98€
RedPrimula
24-07-2022, 13:59
Me ne faccia 5-6 fette belle spesse da arrostire sulla piastra, grazie! :D
Comunque il paradosso è che tagliano quelle di punta ma non le altre fasce che potrebbero avere più richiesta. Mah... :D
E considerati tali tagli fattibili mi verrebbe da dire che ci abbiano mangiato sopra alla grandissima da fine 2020 ad oggi.
Che non si lamentino ora... ci hanno lucrato sopra e non poco.
terranux
24-07-2022, 14:16
Che non si lamentino ora... ci hanno lucrato sopra e non poco.
ma come fanno a lamentarsi dopo il fatturato record
mikael84
24-07-2022, 15:02
Eheheh e infatti hanno già mandato le 3080 12GB in EOL per "autoconcorrenza" :asd:
La 3080 12 è paradossalmente la scheda migliore in rapporto. una scheda che sotto la 4080 sarà perfetta anche per la prox gen.
Gli autentici scempi, sono la 3070ti e la 3090ti...poi di 3090ti anche se ne vende poche, ci guadagna a MSRP quasi 4 volte.:p
Su amazon c'è la 3080 12GB Strix OC in "offerta a tempo" a 1110,98€
Grande offerta di fine gen. A sto punto prendo la TI dal drop e via.:D
Cmq sempre dal drop, la 3070ti è sempre disponibile, forse dovrà farsi due domande e darsi le risposte.
Avesse usato lo scarto di GA103 ed utilizzato 10gb di ram, sarebbe stata anche valida.
TigerTank
24-07-2022, 16:04
La 3080 12 è paradossalmente la scheda migliore in rapporto. una scheda che sotto la 4080 sarà perfetta anche per la prox gen.
Gli autentici scempi, sono la 3070ti e la 3090ti...poi di 3090ti anche se ne vende poche, ci guadagna a MSRP quasi 4 volte.:p
Chiaro che se la 3080 fosse stata così fin dall'inizio, probabilmente nessuno si sarebbe filato le 3080Ti e forse nemmeno le 3090 salvo utilizzi pro con parecchia vram. :D
Ecco perchè sono sempre più convinto che fiondarsi sulle prime vga che escono sia sempre meno conveniente se poi in un secondo momento ti fanno questi giochetti.
StylezZz`
24-07-2022, 16:25
Cmq sempre dal drop, la 3070ti è sempre disponibile, forse dovrà farsi due domande e darsi le risposte
Risulta disponibile ma in realtà se ci clicchi è out of stock...comunque si, mediamente è quella che dura di più.
Avesse usato lo scarto di GA103 ed utilizzato 10gb di ram, sarebbe stata anche valida
Io avrei preferito lo scarto dello scarto dello scarto di GA102 :asd:, speravo in un trattamento simile alla 2070 Super che di fatto era una 2080...ma ovviamente poi avrebbero avuto parecchie 3080 sullo scaffale :rolleyes:
mikael84
24-07-2022, 16:37
Chiaro che se la 3080 fosse stata così fin dall'inizio, probabilmente nessuno si sarebbe filato le 3080Ti e forse nemmeno le 3090 salvo utilizzi pro con parecchia vram. :D
Ecco perchè sono sempre più convinto che fiondarsi sulle prime vga che escono sia sempre meno conveniente se poi in un secondo momento ti fanno questi giochetti.
Infatti per via del PP e della concorrenza in quella fascia ora regna il caos, in quanto non c'è convenienza sopra la 3080 10/12.
Non ci sarà quel problema con ADA:
3070ti= 75% ALU del chippone
3070= 82% ALU del chippone
4080= 80% ALU del chippone
4080= X70 Ampere.:p
Risulta disponibile ma in realtà se ci clicchi è out of stock...comunque si, mediamente è quella che dura di più.
A me da in stock:)
Io avrei preferito lo scarto dello scarto di GA102, speravo in un trattamento simile alla 2070 Super che di fatto era una 2080...ma ovviamente poi avrebbero avuto parecchie 3080 sullo scaffale :rolleyes:
La 2070 super è uno scarto di TU104, che è diventato GA103, ma non utilizzato per problemi con la concorrenza e destinato al mobile.
Quel chip ha un bus di base da 320, e poteva essere benissimo utilizzato per la 3070ti.
Levando un GPC, da 7680cc, scendevi a 6144cc (come la 3070ti attuale) ma con 10gb di ram.:)
Ga102 per la x70 sarebbe stato davvero troppo :D
StylezZz`
24-07-2022, 16:48
A me da in stock:)
Hai ragione, era rimasta sul carrello e quindi quando cliccavo mi dava errore.
29Leonardo
24-07-2022, 22:41
Eheheh e infatti hanno già mandato le 3080 12GB in EOL per "autoconcorrenza" :asd:
Su amazon c'è la 3080 12GB Strix OC in "offerta a tempo" a 1110,98€
Vabbè amazon ormai ha raggiunto il suo obiettivo da anni e quindi fa i prezzi che vuole, altro che la pubblicità "che prezzo basso" circolante anni fà, hanno avuto la decenza di toglierla almeno :asd:
Ps, ma di che drop parlate? Sito nvidia o altro?
StylezZz`
24-07-2022, 22:55
nvidia
https://store.nvidia.com/it-it/geforce/store/?page=1&limit=9&locale=it-it&sorting=lp
TigerTank
25-07-2022, 12:43
La nuova feature "wifi" delle future vga :sofico:
LINK (https://youtu.be/jijdTHtI0r8).
fraussantin
25-07-2022, 12:49
La nuova feature "wifi" delle future vga :sofico:
LINK (https://youtu.be/jijdTHtI0r8).:rotfl:
c'è un drop di RTX 3070 Ti a 649€, che ne dite?
SinapsiTXT
25-07-2022, 17:06
c'è un drop di RTX 3070 Ti a 649€, che ne dite?
Stanno prendendo la polvere da un po' :stordita:
Troppi soldi? Ok aspetto
Inviato dal mio ASUS_X01BDA utilizzando Tapatalk
Troppi soldi? Ok aspetto
Inviato dal mio ASUS_X01BDA utilizzando Tapatalk
No è che è la scheda che li vale meno
3060ti - 3070 - 3080
Altre no
Thunder-74
25-07-2022, 19:45
La SKU ammiraglia NVIDIA "Ada" potrebbe presentare 18176 core, 48 GB di memoria e 800 W TDP
...il leaker afferma che il modello basato su AD102 presenterebbe un nuovo design della scheda ( PG137 rispetto a PG139 per RTX 4090). Ci sono state voci secondo cui NVIDIA sta sviluppando un design a tripla ventola per la sua serie RTX 40, quindi questo presunto modello di punta potrebbe benissimo essere la prima scheda che necessita di un dispositivo di raffreddamento del genere e forse di un nuovo PCB.
E questo nuovo dissipatore sarà sicuramente necessario, se la scheda ha davvero un TDP di 800W come detto da Kopite. Questo è significativamente più del TDP da 450 W di RTX 4090. Tale requisito di alimentazione potrebbe costringere NVIDIA a lanciare il loro primo progetto di riferimento con doppi connettori di alimentazione a 16 pin.
Questa SKU presumibilmente include 142 multiprocessori di streaming, quindi un totale di 18176 core CUDA . È circa l'11% in più rispetto a RTX 4090. Si dice anche che questa GPU RTX 40 presenterebbe fino a 48 GB di memoria GDDR6X . Non è solo una capacità maggiore rispetto a RTX 4090 (24 GB), ma anche una memoria più veloce (24 Gbps contro 21 Gbps). Tale configurazione consente una larghezza di banda massima di 1,1 TB/s
Kopite afferma anche che la rivelazione di GeForce RTX 4090 sarà presto. Le voci attuali indicano la data di lancio di RTX 4090 già a ottobre, ma NVIDIA tende a anticipare o annunciare il proprio prodotto prima. L'unica domanda a questo punto è quanto prima verrà mostrata l'architettura Ada.....
LINK (https://videocardz.com/newz/flagship-nvidia-ada-sku-might-feature-18176-cores-48gb-memory-and-800w-tdp)
TigerTank
25-07-2022, 19:54
...e 800 W TDP
Come dire, un'auto super mega che però ti fa 5-6Km/L :sofico:
AceGranger
25-07-2022, 21:01
Come dire, un'auto super mega che però ti fa 5-6Km/L :sofico:
bè pero tanta roba, praticamente 2 3090 in una singola scheda con 48 Gb di Vram.
uno SLI di queste sarebbero si 1600W di picco teorici, ma sarebbe anche una configurazione da 92Gb di Vram che attualmente ti costa 20.000 euro
anche dovesse costare 2500 euro, 5000 vs 20.000 è un bel guadagno :p
mikael84
25-07-2022, 21:16
La SKU ammiraglia NVIDIA "Ada" potrebbe presentare 18176 core, 48 GB di memoria e 800 W TDP
...il leaker afferma che il modello basato su AD102 presenterebbe un nuovo design della scheda ( PG137 rispetto a PG139 per RTX 4090). Ci sono state voci secondo cui NVIDIA sta sviluppando un design a tripla ventola per la sua serie RTX 40, quindi questo presunto modello di punta potrebbe benissimo essere la prima scheda che necessita di un dispositivo di raffreddamento del genere e forse di un nuovo PCB.
E questo nuovo dissipatore sarà sicuramente necessario, se la scheda ha davvero un TDP di 800W come detto da Kopite. Questo è significativamente più del TDP da 450 W di RTX 4090. Tale requisito di alimentazione potrebbe costringere NVIDIA a lanciare il loro primo progetto di riferimento con doppi connettori di alimentazione a 16 pin.
Questa SKU presumibilmente include 142 multiprocessori di streaming, quindi un totale di 18176 core CUDA . È circa l'11% in più rispetto a RTX 4090. Si dice anche che questa GPU RTX 40 presenterebbe fino a 48 GB di memoria GDDR6X . Non è solo una capacità maggiore rispetto a RTX 4090 (24 GB), ma anche una memoria più veloce (24 Gbps contro 21 Gbps). Tale configurazione consente una larghezza di banda massima di 1,1 TB/s
Kopite afferma anche che la rivelazione di GeForce RTX 4090 sarà presto. Le voci attuali indicano la data di lancio di RTX 4090 già a ottobre, ma NVIDIA tende a anticipare o annunciare il proprio prodotto prima. L'unica domanda a questo punto è quanto prima verrà mostrata l'architettura Ada.....
LINK (https://videocardz.com/newz/flagship-nvidia-ada-sku-might-feature-18176-cores-48gb-memory-and-800w-tdp)
800 watt è roba da azoto. 24gb di ram sono massimo 40watt in doppia densità (80 clamshell).
Titan è stato accantonato.
Inoltre dice pure TDP, con il PL praticamente 875watt.:sofico:
"In fact, there is no guarantee that such a model will ever be released, but given Kopite’s track record, there is certainty that such a SKU is indeed being developed."
Kopite dice anche INT separate alla Turing, doppie rop's, ma non tutto è corretto.
Ok che avrà clock più contenuti, ma la RTXL8000 (48gb) viene data per 375watt.
fraussantin
25-07-2022, 21:43
Raffreddata con un compressore di un frigorifero... Altro che liquido :asd:
mikael84
26-07-2022, 00:01
Ma non esiste:D
Una FE Titan (nome che è stato levato dalla nomenclatura, come quadro-tesla), con 2x16 pin, andrebbe rivista anche in alimentazione.
Inoltre 450watt la 4090, 600 la full, 800 per un cut con 24gb di ram aggiunti:p
Vorrei vedere il dissipatore.
Già vorrei vedere come dissipa una 4090ti FE da 600.
Un 2x16 pin in nvlink, senza cavi nativi, sarebbero 8 connettori ad 8 pin.
amon.akira
26-07-2022, 00:58
concordo mike, già 600sarebbero assurdi e cmq il risultato molto probabilmente sarebbe un cap temp con conseguente taglio clock.
le int separate alla turing? imho impossibile con quei cuda o sbaglio?
mikael84
26-07-2022, 02:12
concordo mike, già 600sarebbero assurdi e cmq il risultato molto probabilmente sarebbe un cap temp con conseguente taglio clock.
le int separate alla turing? imho impossibile con quei cuda o sbaglio?
Si, sarebbe possibile, lato CC effettivi cambia nulla, solo che, da una parte gli devi dedicare quasi un datapath di calcolo, dall'altra li avresti combinati.
Con Ampere devi fare 18,4k cc/36 INT.
Slegati 18,4kcc x 36 INT.
Cambia il mondo.
Rispetto a turing, Ampere ed ora Lovelace (come proposto da Hopper), ritornano a 32 FP x warp.
Turing rispetto a Pascal ha fatto un salto proprio qua, esempio la 2070 super pari alla 1080ti. 2560 x36 INT (3500cc circa).:)
Parla anche dal raddoppio delle rop's, ma è molto più complesso, in quanto ha a che vedere le SFU.
4 pixel per TPC, per 32 rop's, servirebbero 8 TPC a rasterizzatore.
Nvidia però ha sempre avuto problemi così, sia per la gestione della memoria che delle primitive tanto che i chip di calcolo "tesla"pur con 8 TPC hanno sempre 16 pixel.
Quindi rimangono 2 ipotesi al momento infondate, salvo stravolgimenti.:)
Infatti pare che AMD voglia fare un 2x navi32 da dedicare al pro, con 16k shader
https://videocardz.com/newz/amd-navi-31-gcd-graphics-complex-die-is-reportedly-350-mm%c2%b2-in-size
amon.akira
26-07-2022, 03:12
e da un punto di vista energetico cambierebbe?
TigerTank
26-07-2022, 07:38
bè pero tanta roba, praticamente 2 3090 in una singola scheda con 48 Gb di Vram.
uno SLI di queste sarebbero si 1600W di picco teorici, ma sarebbe anche una configurazione da 92Gb di Vram che attualmente ti costa 20.000 euro
anche dovesse costare 2500 euro, 5000 vs 20.000 è un bel guadagno :p
Ah beh per chi come te ci lavorerebbe necessitando di una marea di VRAM. Però 800W sono 800W. Di questi tempi il tutto si tradurrebbe in un consumo di energia consistente, soprattutto se associato anche ad una CPU di punta energivora. Oltre ovviamente al fatto di dover prendere davvero un alimentatore da 1300-1600W :D
E un super impianto a liquido o ti si fonderebbe tutto e forse sarebbe l'unico modo per poter metterne 2 perchè non immagino che dissipazioni ad aria possano avere schede del genere :sofico:
Comunque imho ok le prestazioni ma questi incrementi energetici saranno un pò paradossali in relazione ai tempi e al probabile peggioramento dei costi dell'energia in Europa nel prossimo autunno-inverno. :mc:
Thunder-74
26-07-2022, 08:21
Ah beh per chi come te ci lavorerebbe necessitando di una marea di VRAM. Però 800W sono 800W. Di questi tempi il tutto si tradurrebbe in un consumo di energia consistente, soprattutto se associato anche ad una CPU di punta energivora. Oltre ovviamente al fatto di dover prendere davvero un alimentatore da 1300-1600W :D
E un super impianto a liquido o ti si fonderebbe tutto e forse sarebbe l'unico modo per poter metterne 2 perchè non immagino che dissipazioni ad aria possano avere schede del genere :sofico:
Comunque imho ok le prestazioni ma questi incrementi energetici saranno un pò paradossali in relazione ai tempi e al probabile peggioramento dei costi dell'energia in Europa nel prossimo autunno-inverno. :mc:
tutto sta a convertire il calore prodotto dai componenti, per il riscaldamento della casa hahahaha
a parte tutto, un mio amico (quello che per errore ti ho inviato foto/video su WA :fagiano: ), ha sfruttato il calore catturato in eccesso dai pannelli solari, per riscaldare l'acqua della sua piscina. Ha praticamente sempre 34 gradi si sta d'incanto li) . Mi ha fatto vedere il marchingegno per dirottare il calore dall'impianto di acqua della villa, alla piscina, una figata. Da li mi era venuta l'idea opposta, e se uno raffreddasse il pc sfruttando la piscina? :fagiano:
FrancoBit
26-07-2022, 08:29
tutto sta a convertire il calore prodotto dai componenti, per il riscaldamento della casa hahahaha
a parte tutto, un mio amico (quello che per errore ti ho inviato foto/video su WA :fagiano: ), ha sfruttato il calore catturato in eccesso dai pannelli solari, per riscaldare l'acqua della sua piscina. Ha praticamente sempre 34 gradi si sta d'incanto li) . Mi ha fatto vedere il marchingegno per dirottare il calore dall'impianto di acqua della villa, alla piscina, una figata. Da li mi era venuta l'idea opposta, e se uno raffreddasse il pc sfruttando la piscina? :fagiano:
Eccolo :D
https://www.youtube.com/watch?v=4ozYlgOuYis
Thunder-74
26-07-2022, 08:43
Eccolo :D
https://www.youtube.com/watch?v=4ozYlgOuYis
Hahahahah lo vedi che è fattibile
Inviato dal mio iPhone X utilizzando Tapatalk
AceGranger
26-07-2022, 09:05
Ah beh per chi come te ci lavorerebbe necessitando di una marea di VRAM.
ho cambiato il mio core business, ora quelle quantita di Vram le guardo solo per passione :D, mi sono spostato sui piu redditizi rilievi con laser scanner e fotogrammetria :sofico:
Ah beh per chi come te ci lavorerebbe necessitando di una marea di VRAM. Però 800W sono 800W. Di questi tempi il tutto si tradurrebbe in un consumo di energia consistente, soprattutto se associato anche ad una CPU di punta energivora. Oltre ovviamente al fatto di dover prendere davvero un alimentatore da 1300-1600W :D
E un super impianto a liquido o ti si fonderebbe tutto e forse sarebbe l'unico modo per poter metterne 2 perchè non immagino che dissipazioni ad aria possano avere schede del genere :sofico:
Comunque imho ok le prestazioni ma questi incrementi energetici saranno un pò paradossali in relazione ai tempi e al probabile peggioramento dei costi dell'energia in Europa nel prossimo autunno-inverno. :mc:
si quei TDP sono un'enormita e anche io non credo siano realistici, ma la questione consumi incide poco nulla in ambito lavorativo, nel senso che non è che la spari sempre al 100% e poi tutto dipende dalle prestazioni, da quanto e come miglioreranno gli RT core e i calcoli FP, perchè se mi consumano 1300W, ma fa il lavoro che prima facevano 4-5 GPU top gamma su almeno 2 PC, in realta ci hai guadagnato; tutto va sempre rapportato alle prestazioni.
Avete schede da 500W e vi lamentate di queste che faranno il doppio delle perf per lo stesso consumo :sofico:
Thunder-74
26-07-2022, 10:56
Avete schede da 500W e vi lamentate di queste che faranno il doppio delle perf per lo stesso consumo :sofico:
Io credo che il discorso fosse più incentrato su quanto dovremmo fare a livello globale, visto l andazzo. Tra un benedetto risparmio energetico doveroso e prezzi alle stelle della corrente , produrre ora schede da 600/800 watt è anacronistico.
Inviato dal mio iPhone X utilizzando Tapatalk
TigerTank
26-07-2022, 11:01
tutto sta a convertire il calore prodotto dai componenti, per il riscaldamento della casa hahahaha
a parte tutto, un mio amico (quello che per errore ti ho inviato foto/video su WA :fagiano: ), ha sfruttato il calore catturato in eccesso dai pannelli solari, per riscaldare l'acqua della sua piscina. Ha praticamente sempre 34 gradi si sta d'incanto li) . Mi ha fatto vedere il marchingegno per dirottare il calore dall'impianto di acqua della villa, alla piscina, una figata. Da li mi era venuta l'idea opposta, e se uno raffreddasse il pc sfruttando la piscina? :fagiano:
Un'idea davvero intelligente quella del tuo amico :cool:
Ahahah eh mi sa che bisognerebbe vedere se sia fattibile a livello di pressione e di liquido in circolazione :asd:
Io come ti dicevo ho il raffrescamento di casa integrato con il riscaldamento ibrido caldaia-pompa...e basato su un loop a liquido. Ci vorrebbe una mod con un paio di tubetti :asd:
Comunque...a parlare di future vga da 600-800W, siamo nel range delle pompe di calore da 5kW che a potenza assorbita stanno in un range 500-2000W a seconda del carico.
ArchibaldJr
26-07-2022, 11:04
Ciao ragazzi ho cambiato il monitor in previsione di una nuova vga ho preso un samsung odissey 28" 4k 144hz ora lo uso con una 2080ti, meglio attendere le 4xxx o cercare qualche 3080ti/3090 a buon prezzo (si fa per dire :cry: )
TigerTank
26-07-2022, 11:13
si quei TDP sono un'enormita e anche io non credo siano realistici, ma la questione consumi incide poco nulla in ambito lavorativo, nel senso che non è che la spari sempre al 100% e poi tutto dipende dalle prestazioni, da quanto e come miglioreranno gli RT core e i calcoli FP, perchè se mi consumano 1300W, ma fa il lavoro che prima facevano 4-5 GPU top gamma su almeno 2 PC, in realta ci hai guadagnato; tutto va sempre rapportato alle prestazioni.
Invece con il gaming una vga la mandi sempre o quasi a palla, a maggior ragione se parliamo di fasce enthusiast con situazioni più tirate possibili in risoluzione, refresh video e settaggi grafici. Con le prossime si avrà un salto in avanti sia in prestazioni che nei consumi in un periodo energetico poco ideale(a cui sommare eventuale nuovo alimentatore).
Comunque sarà interessante vedere dove si spingeranno i vari modelli custom di punta soliti(Strix, FTW3, ecc...) e relative ripercussioni sulle progettazioni di alimentazioni, pcb e dissipazioni.
Ottime le premesse prestazionali ma speriamo di non avere delle nuove Fermi.
Ciao ragazzi ho cambiato il monitor in previsione di una nuova vga ho preso un samsung odissey 28" 4k 144hz ora lo uso con una 2080ti, meglio attendere le 4xxx o cercare qualche 3080ti/3090 a buon prezzo (si fa per dire :cry: )
Terrei la 2080TI fino alle nuove con le quali farai il salto per sfruttare al meglio i "fino a" 144fps su 4K e compatibilità gsync.
ArchibaldJr
26-07-2022, 11:23
Invece con il gaming una vga la mandi sempre o quasi a palla, a maggior ragione se parliamo di fasce enthusiast con situazioni più tirate possibili in risoluzione, refresh video e settaggi grafici. Con le prossime si avrà un salto in avanti sia in prestazioni che nei consumi in un periodo energetico poco ideale(a cui sommare eventuale nuovo alimentatore).
Comunque sarà interessante vedere dove si spingeranno i vari modelli custom di punta soliti(Strix, FTW3, ecc...) e relative ripercussioni sulle progettazioni di alimentazioni, pcb e dissipazioni.
Ottime le premesse prestazionali ma speriamo di non avere delle nuove Fermi.
Terrei la 2080TI fino alle nuove con le quali farai il salto per sfruttare al meglio i "fino a" 144fps su 4K e compatibilità gsync.
grazie tiger, ma le nuove 4xxx riusciranno a tenere un 4k >120fps secondo te?
TigerTank
26-07-2022, 11:28
grazie tiger, ma le nuove 4xxx riusciranno a tenere un 4k >120fps secondo te?
Difficile fare tali valutazioni in termini assoluti. Dipende da giochi, contesti e settaggi. Considerato quel che costeranno...auguriamoci che almeno quelle di fascia più alta arrivino a gestire tali framerates in 4K + RT e DLSS di maggiore qualità :)
Perchè se uno spendesse tra i 1000 e i 2000€ e poi uscisse il nuovo titolo che maxato tenesse poco più di 60fps in 4K...sarebbe un pò triste :asd:
L'hype va sempre preso con le pinze, è la carne al fuoco che conta, cioè se i nuovi giochi saranno degni di tale hardware.
Io credo che il discorso fosse più incentrato su quanto dovremmo fare a livello globale, visto l andazzo. Tra un benedetto risparmio energetico doveroso e prezzi alle stelle della corrente , produrre ora schede da 600/800 watt è anacronistico.
Inviato dal mio iPhone X utilizzando Tapatalk
Io te lo appoggio volentieri come concetto, ma fra il dire e il fare ci sono gli elettroni in questo caso, serve una rivoluzione nei materiali e nei processi, ci stanno lavorando ma la strada e' lunga, anche i prossimi processi produttivi non faranno miracoli, a prescindere da ipotetiche architetture piu' efficienti.
L'alternativa e' avere un boost del 20% fra una gen e l'altra, sempre mantenendo i rincari odierni ovviamente, quindi forse ci conviene prendere il raddoppio delle perf e downvoltare/limitare quando non serve :)
mikael84
26-07-2022, 12:19
e da un punto di vista energetico cambierebbe?
Diciamo che cambierebbe la semplificazione, sono sempre tot FP ed INT che vanno processati. Semplificando a INT slegati alla turing, avresti meno area occupata, spendendo abbastanza meno sui die (che costano tanto), ma allo stesso tempo avresti meno FP per die, levando il pane ai pro.
Per dire una 4060 AD106 da 200mm2, diventerebbe una Titan Turing in calcolo(3070ti) a 3ghz. Praticamente avresti una x70 a die da x60, ma consumi da x70.
Tuttavia questo taglierebbe i pro dal calcolo puro FP32, che si ritroverebbero meno FP32.:)
Tra la semplificazione ovviamente, c'è anche quella di avere meno GPC di calcolo e conseguente meno rop's, meno geometria.
Considerando che le schede sono pensate per i pro, si andrà sempre verso il calcolo massivo fp32.
Invece con il gaming una vga la mandi sempre o quasi a palla, a maggior ragione se parliamo di fasce enthusiast con situazioni più tirate possibili in risoluzione, refresh video e settaggi grafici. Con le prossime si avrà un salto in avanti sia in prestazioni che nei consumi in un periodo energetico poco ideale(a cui sommare eventuale nuovo alimentatore).
Comunque sarà interessante vedere dove si spingeranno i vari modelli custom di punta soliti(Strix, FTW3, ecc...) e relative ripercussioni sulle progettazioni di alimentazioni, pcb e dissipazioni.
Ottime le premesse prestazionali ma speriamo di non avere delle nuove Fermi.
Ottime per anche per furmark.:sofico:
Fermi l'ha dovuto riprogettare, sulle dispersioni.
Thunder-74
26-07-2022, 13:02
Io te lo appoggio volentieri come concetto, ma fra il dire e il fare ci sono gli elettroni in questo caso, serve una rivoluzione nei materiali e nei processi, ci stanno lavorando ma la strada e' lunga, anche i prossimi processi produttivi non faranno miracoli, a prescindere da ipotetiche architetture piu' efficienti.
L'alternativa e' avere un boost del 20% fra una gen e l'altra, sempre mantenendo i rincari odierni ovviamente, quindi forse ci conviene prendere il raddoppio delle perf e downvoltare/limitare quando non serve :)
Purtroppo è chiaro Gello, se si vogliono le prestazioni oggi giorno , questo è il prezzo da pagare. Sicuramente una titan da 800w e 48gb, sarà un prodotto di nicchia per mercato pro, ma già produrla rappresenta un sentiero intrapreso. Magari sarebbe meglio porsi dei limiti produttivi alla soglia dei 500w, che già sono tanti , anche da gestire come calore.
Inviato dal mio iPad utilizzando Tapatalk
Ale55andr0
26-07-2022, 13:13
tutto sta a convertire il calore prodotto dai componenti, per il riscaldamento della casa hahahaha
a parte tutto, un mio amico (quello che per errore ti ho inviato foto/video su WA :fagiano: ), ha sfruttato il calore catturato in eccesso dai pannelli solari, per riscaldare l'acqua della sua piscina. Ha praticamente sempre 34 gradi si sta d'incanto li) . Mi ha fatto vedere il marchingegno per dirottare il calore dall'impianto di acqua della villa, alla piscina, una figata. Da li mi era venuta l'idea opposta, e se uno raffreddasse il pc sfruttando la piscina? :fagiano:
Io francamente in estate tutto vorrei tranne che l'acqua a 34 gradi :asd:
TigerTank
26-07-2022, 13:37
Ottime per anche per furmark.:sofico:
Vade retro! :D
Purtroppo è chiaro Gello, se si vogliono le prestazioni oggi giorno , questo è il prezzo da pagare. Sicuramente una titan da 800w e 48gb, sarà un prodotto di nicchia per mercato pro, ma già produrla rappresenta un sentiero intrapreso. Magari sarebbe meglio porsi dei limiti produttivi alla soglia dei 500w, che già sono tanti , anche da gestire come calore.
Davvero da vedere come si comporteranno a livello di PL, temperature, tagli, dissipazioni e regimi-rumorosità ventole. Già le attuali, specialmente ora che fa caldo, scaldano non poco anche se sotto undervolt.
Ok le prestazioni ma non è che possono fare delle schede che arrivano a 80°C e passa se le ventole non sparano al 100% o quasi :D
E ok che il liquido è una soluzione ma il più delle persone prende una vga, la monta e via senza ulteriori sbattimenti(o voglia di altre spese).
mikael84
26-07-2022, 15:16
Io te lo appoggio volentieri come concetto, ma fra il dire e il fare ci sono gli elettroni in questo caso, serve una rivoluzione nei materiali e nei processi, ci stanno lavorando ma la strada e' lunga, anche i prossimi processi produttivi non faranno miracoli, a prescindere da ipotetiche architetture piu' efficienti.
L'alternativa e' avere un boost del 20% fra una gen e l'altra, sempre mantenendo i rincari odierni ovviamente, quindi forse ci conviene prendere il raddoppio delle perf e downvoltare/limitare quando non serve :)
La prossima sarà sempre un calvario, in quanto i ribbonfet 20A difficilmente li vedremmo nel 2024, probabilmente intel con arrow li avrà per tale data.
Attualmente i 3nmE promettono un +18 perf/-34 consumi.
Lo stesso capoccione di AMD ha detto che in futuro sarà peggio, e tramite slide ufficiali AMD si può fare 2+2, ovvero 50% perf/watt a gen.
Navi31 sarà circa 450watt , questo significa che navi41 (rtx 5090 like) per tale wattaggio, porterà il 50% delle perf. In caso di 2x salirà a 600 e lo stesso sarà per JHH.
Cmq un 50% delle perf a gen, non è male.:)
Io francamente in estate tutto vorrei tranne che l'acqua a 34 gradi :asd:
:D :D io ho 31,4° in casa ed il liquido in idle a 40,2° :sofico: fosse ad aria non potrei nemmeno accenderla, la gpu è a 40° in ilde. Certo ventole a 600rpm, ma anche 1200 sotto carico non cambia nulla.
FrancoBit
26-07-2022, 16:15
tutto sta a convertire il calore prodotto dai componenti, per il riscaldamento della casa hahahaha
a parte tutto, un mio amico (quello che per errore ti ho inviato foto/video su WA :fagiano: ), ha sfruttato il calore catturato in eccesso dai pannelli solari, per riscaldare l'acqua della sua piscina. Ha praticamente sempre 34 gradi si sta d'incanto li) . Mi ha fatto vedere il marchingegno per dirottare il calore dall'impianto di acqua della villa, alla piscina, una figata. Da li mi era venuta l'idea opposta, e se uno raffreddasse il pc sfruttando la piscina? :fagiano:
:D :D io ho 31,4° in casa ed il liquido in idle a 40,2° :sofico: fosse ad aria non potrei nemmeno accenderla, la gpu è a 40° in ilde. Certo ventole a 600rpm, ma anche 1200 sotto carico non cambia nulla.
Il discorso era nato da una piscina riscaldata, con l'acqua a 34 gradi, è un gradito (e nerdissimo :sofico: ) misunderstanding :D :D
TigerTank
26-07-2022, 17:01
:D :D io ho 31,4° in casa ed il liquido in idle a 40,2° :sofico: fosse ad aria non potrei nemmeno accenderla, la gpu è a 40° in ilde. Certo ventole a 600rpm, ma anche 1200 sotto carico non cambia nulla.
Urka...in Val d'Aosta :eek: :D
Io oggi ho visto 27°C e più in taverna...temperatura mai raggiunta in estate in 6 anni che vivo in quella casa. La vga in idle e ad aria mi stava a 31°C e le ventole sono sui 1100RPM(il 30% default).
Io non ce la farei a sopportare 31°C di tamb al pc :asd:
Se l'estate 2023 sarà torrida come questa, chissà che mortazza con le 4000.
FrancoBit
26-07-2022, 17:23
Pagherei x averne solo 31 🥵https://uploads.tapatalk-cdn.com/20220726/c4f249bd07e8893dc44418081dbc3b47.jpg
Inviato dal mio M2101K9G utilizzando Tapatalk
mikael84
26-07-2022, 18:37
La Afox registra i marchi delle prossime GPU, tra le principali già annunciate:
https://cdn.videocardz.com/1/2022/07/AFOX-RTX-40-1.png
https://videocardz.com/newz/afox-registers-nvidia-geforce-rtx-40-and-amd-radeon-rx-7000-series-at-eec
La prossima sarà sempre un calvario, in quanto i ribbonfet 20A difficilmente li vedremmo nel 2024, probabilmente intel con arrow li avrà per tale data.
Attualmente i 3nmE promettono un +18 perf/-34 consumi.
Lo stesso capoccione di AMD ha detto che in futuro sarà peggio, e tramite slide ufficiali AMD si può fare 2+2, ovvero 50% perf/watt a gen.
Navi31 sarà circa 450watt , questo significa che navi41 (rtx 5090 like) per tale wattaggio, porterà il 50% delle perf. In caso di 2x salirà a 600 e lo stesso sarà per JHH.
Cmq un 50% delle perf a gen, non è male.:)
No quello va benissimo, anche perche' non si e' obbligati a fare cambio ogni gen, salti una ed e' gia' tanta roba, per i consumi, il trend sara' questo per diversi anni.
FrancoBit
26-07-2022, 18:45
La Afox registra i marchi delle prossime GPU, tra le principali già annunciate:
https://cdn.videocardz.com/1/2022/07/AFOX-RTX-40-1.png
https://videocardz.com/newz/afox-registers-nvidia-geforce-rtx-40-and-amd-radeon-rx-7000-series-at-eecSembra una linea piuttosto ampia non male dai
Inviato dal mio M2101K9G utilizzando Tapatalk
mikael84
26-07-2022, 19:09
No quello va benissimo, anche perche' non si e' obbligati a fare cambio ogni gen, salti una ed e' gia' tanta roba, per i consumi, il trend sara' questo per diversi anni.
Vero, anche se dopo un salto così, sarà difficile per una x70 andare in linea con una AD102, o meglio per la 5080 andare più forte della 4090.
Probabilmente si cercheranno le prestazioni massime come ora, non a caso il capoccione ha detto di aspettarci consumi più alti in futuro.
Sembra una linea piuttosto ampia non male dai
Inviato dal mio M2101K9G utilizzando Tapatalk
Si, chiaramente poi non tutti i modelli li vedremmo, sono quelli registrati. Le TI dovremmo vederle cmq.
amon.akira
26-07-2022, 22:38
Vero, anche se dopo un salto così, sarà difficile per una x70 andare in linea con una AD102, o meglio per la 5080 andare più forte della 4090.
Probabilmente si cercheranno le prestazioni massime come ora, non a caso il capoccione ha detto di aspettarci consumi più alti in futuro.
salvo stravolgimenti architetturali non vedo proprio come possano superare i limiti di consumo tenendo a bada le temperature, ste schede dovranno pur venderle a chi le infila nel case e stop :P
mikael84
27-07-2022, 00:36
salvo stravolgimenti architetturali non vedo proprio come possano superare i limiti di consumo tenendo a bada le temperature, ste schede dovranno pur venderle a chi le infila nel case e stop :P
Infatti Sam Naffziger un capoccione di AMD ci svela già il futuro, non che ce ne fosse bisogno visti i PP.
https://venturebeat.com/2022/07/06/amd-addressing-the-challenge-of-energy-efficient-computing/
TSMC per ora può offrire un 18% perf/watt e migliorarlo leggermente con il 3nmp
Samsung avrà numeri più alti con il GAAFET, sino al 30% perf/watt, ma partendo dal 5nm di samsung, che non è paragonabile al 5nm di TSMC.
Per questo JHH è andato a parlare a Pat, per vedere il suo 20A (2nm), e vuole collaborare.
Attualmente cmq con questi nodi, bisogna che i progettisti, disegnino una GPU decisamente più efficiente.
Se AMD può dichiarare un 50% perf/watt, JHH si dovrà adeguare.
JHH ha già i codici scritti per la serie 6, quindi saprà il fatto suo.:)
ArchibaldJr
27-07-2022, 11:32
stavo cercando in giro se qualche casa produttrice parlava già di waterblock per la serie 4xxx ma evidentemente è ancora troppo presto,speravo di trovare qualche riga al riguardo ma nulla :rolleyes:
Dipende dai cambiamenti interni, nel passaggio Kepler -> Maxwell pur rimanendo su base 28nm sono riusciti a stravolgere completamente i chip guadagnando anche in clock.
Ma concordo che un 2x4090 sia fortemente fuori portata, penso si ritornerà al classico +40/+50%.
Anche perchè se ci fossero problemi con le 6000 non avrebbero tirato cosi tanto la corda con AD102 ma si sarebbero limitati a un chip poco più grosso di AD103 sui 500mmq come fecero con Pascal.
mikael84
27-07-2022, 12:30
Dipende dai cambiamenti interni, nel passaggio Kepler -> Maxwell pur rimanendo su base 28nm sono riusciti a stravolgere completamente i chip guadagnando anche in clock.
Ma concordo che un 2x4090 sia fortemente fuori portata, penso si ritornerà al classico +40/+50%.
Anche perchè se ci fossero problemi con le 6000 non avrebbero tirato cosi tanto la corda con AD102 ma si sarebbero limitati a un chip poco più grosso di AD103 sui 500mmq come fecero con Pascal.
Il problema, ora come ora, è che, una 4090ti starà almeno al 50% sopra la 4080. La 5080 questa scheda dovrà batterla. Prima gli stacchi non erano così marcati, ma soprattutto non c'era così concorrenza, anzi era nulla nella high.
Il 50% perf/watt di lisa, sta ad indicare che lei lo prenderà facilmente.
Discorso molto complesso sulla fascia prossima x70.
JHH ha fatto il boom (anche sui consumi), ma veniva da un nodo osceno ed anche indietro (avesse avuto il 7nm di samsung, doveva rivedere i chip). Lisa veniva da un 7nmp (quasi un 5nm a spec, salvo la densità).
Thunder-74
27-07-2022, 12:36
Rumor: RTX 4090 ottiene un prezzo al dettaglio suggerito inferiore da Nvidia rispetto a 3090 Ti
Il forum cinese Chiphell ha generato due nuove voci. La GeForce RTX 4090 sarebbe più economica della 3090 Ti al lancio, in un'era di prezzi in costante aumento. Poiché non viene menzionato alcun rapporto con il normale 3090, il prezzo probabilmente scenderà tra 1500 e 2000 dollari USA. Dato l'attuale tasso di cambio USD-EUR, il prezzo dell'euro sarà lo stesso o addirittura superiore.
Questa è probabilmente l'unica carta Lovelace a colpire il mercato quest'anno, con il resto nel primo trimestre del 2023. Si ritiene che la ragione di ciò siano le forti scorte di carte RTX 3000. Questi devono andare per primi, motivo anche alla base delle significative riduzioni di prezzo degli ultimi mesi.
Poi ci sono i limiti di potenza. Sembra che ci saranno due varianti, 450 e 600 watt. Il progetto di riferimento sarà probabilmente limitato a 450 watt, ma i partner di bordo possono optare per la versione da 600 W ed elencarla sulla confezione. Abbastanza sorprendentemente, la frequenza di boost sarebbe ugualmente alta in entrambe le varianti.
LINK sito olandese (https://nl.hardware.info/nieuws/82260/gerucht-rtx-4090-krijgt-lagere-adviesprijs-van-nvidia-dan-3090-ti)
TigerTank
27-07-2022, 13:05
Una bella 4090 Strix da 600W e 2X00€ da parte del "partner di bordo" Asus :D
Non conosco il sito in questione ma sembra uno dei pochi leak con un senso logico, tralasciando il fatto che devono tagliare ancora parecchio le 3000 per quanto mi riguardi, ma del resto in Europa non vedo ancora chissa' quali pacchi di schede invendute tolta la fascia "ridiculous".
TigerTank
27-07-2022, 13:17
Non conosco il sito in questione ma sembra uno dei pochi leak con un senso logico, tralasciando il fatto che devono tagliare ancora parecchio le 3000 per quanto mi riguardi, ma del resto in Europa no nvedo ancora chissa' quali pacchi di schede invendute a parte la fascia "ridiculous".
Secondo me se scarseggeranno pure i giochi fanno bene a fare con calma...
Giusto tra ieri e oggi ho letto che ad esempio "The Lord of the Rings: Gollum", hyperato per ray tracing e DLSS, è stato rimandato "di qualche mese" invece che uscire a settembre. E idem un remake di "Star Wars The Old Republic" che a me non sarebbe dispiaciuto e per il quale si parlava di tardo 2022, è stato rimandato addirittura al 2025 :asd:
Poi beh la storia di Stalker 2 purtroppo la conosciamo ormai tutti... Pure l'ennesimo Assassin's Creed ambientato a Baghdad arriverà nel corso del 2023.
Se a giochi continuano così siamo a posto...altro che vga dalle millemila prestazioni. Presumendo che nuovi giochi stuzzichino maggiormente l'appetito dell'enthusiast che si fionderebbe sulla 4090 al lancio.
Thunder-74
27-07-2022, 13:37
Secondo me se scarseggeranno pure i giochi fanno bene a fare con calma...
Giusto tra ieri e oggi ho letto che ad esempio "The Lord of the Rings: Gollum", hyperato per ray tracing e DLSS, è stato rimandato "di qualche mese" invece che uscire a settembre. E idem un remake di "Star Wars The Old Republic" che a me non sarebbe dispiaciuto e per il quale si parlava di tardo 2022, è stato rimandato addirittura al 2025 :asd:
Poi beh la storia di Stalker 2 purtroppo la conosciamo ormai tutti... Pure l'ennesimo Assassin's Creed ambientato a Baghdad arriverà nel corso del 2023.
Se a giochi continuano così siamo a posto...altro che vga dalle millemila prestazioni. Presumendo che nuovi giochi stuzzichino maggiormente l'appetito dell'enthusiast che si fionderebbe sulla 4090 al lancio.
Difatti fino al 2023 inoltrato non servirebbero. A me sta bene, almeno recupero i baiocchi che spederò ad ottobre per tutto il sistema :fagiano:
Inviato dal mio iPhone X utilizzando Tapatalk
TigerTank
27-07-2022, 13:41
Difatti fino al 2023 inoltrato non servirebbero. A me sta bene, almeno recupero i baiocchi che spederò ad ottobre per tutto il sistema :fagiano:
Ahahah giusto! Però attento alla conversione baiocchi--->dollari :asd:
Secondo me se scarseggeranno pure i giochi fanno bene a fare con calma...
Giusto tra ieri e oggi ho letto che ad esempio "The Lord of the Rings: Gollum", hyperato per ray tracing e DLSS, è stato rimandato "di qualche mese" invece che uscire a settembre. E idem un remake di "Star Wars The Old Republic" che a me non sarebbe dispiaciuto e per il quale si parlava di tardo 2022, è stato rimandato addirittura al 2025 :asd:
Poi beh la storia di Stalker 2 purtroppo la conosciamo ormai tutti... Pure l'ennesimo Assassin's Creed ambientato a Baghdad arriverà nel corso del 2023.
Se a giochi continuano così siamo a posto...altro che vga dalle millemila prestazioni. Presumendo che nuovi giochi stuzzichino maggiormente l'appetito dell'enthusiast che si fionderebbe sulla 4090 al lancio.
Si guarda per me sono anni e anni di nulla per quanto riguarda il gaming "mainstream", tolta la roba online, KOTOR mi ricordo i primi due, davvero tantissima roba, detto da uno che a stento e' riuscito a finire di vedere un film di SW, non linciatemi :sofico:
Speriamo almeno non seghino tutto per le scatolette, Stalker 2 potrebbe essere tantissima roba, senza fretta.
TigerTank
27-07-2022, 13:45
Si guarda per me sono anni e anni di nulla per quanto riguarda il gaming "mainstream", tolta la roba online, KOTOR mi ricordo i primi due, davvero tantissima roba, detto da uno che a stento e' riuscito a finire di vedere un film di SW, non linciatemi :sofico:
Speriamo almeno non seghino tutto per le scatolettem Stalker 2 potrebbe essere tantissima roba, senza fretta.
Figurati, alla fine il gaming è molto personale come gusti.
Io in questi giorni sto giocando The Room 4, gioco di enigmi con una grafica molto curata(e si sente anche il peso sulla vga in certi frangenti). A volte ho voglia di questi giochi "lenti" in cui va usato il cervello :D
FrancoBit
27-07-2022, 13:50
Io ormai sono patologico per Project Zomboid, penso che come requisiti per la grafica sia necessaria una scheda video AGP lol. Per il resto non riesco a giocare a Flight Sim perchè sudo e mi scivola la cloche, non riesco a giocare a fallguys perchè sudo e cado, non riesco a giocare a stray perchè sudo e mi incazzo perchè sudo.....
TigerTank
27-07-2022, 13:57
Io ormai sono patologico per Project Zomboid, penso che come requisiti per la grafica sia necessaria una scheda video AGP lol. Per il resto non riesco a giocare a Flight Sim perchè sudo e mi scivola la cloche, non riesco a giocare a fallguys perchè sudo e cado, non riesco a giocare a stray perchè sudo e mi incazzo perchè sudo.....
Eh vabbè, te la cerchi....scusate l'OT :D
LINK (https://www.youtube.com/watch?v=u6P4sWzb3UE&list=FLUhWEZxiL41iy2BIf80rIaA&index=1).
Comunque vero, il calore delle schede influisce sulla tamb e contribuisce alla sudorazione. :D
FrancoBit
27-07-2022, 14:04
Eh vabbè, te la cerchi....scusate l'OT :D
LINK (https://www.youtube.com/watch?v=u6P4sWzb3UE&list=FLUhWEZxiL41iy2BIf80rIaA&index=1).
Comunque vero, il calore delle schede influisce sulla tamb e contribuisce alla sudorazione. :D
ahahahahaha grande Maccio :D :D
mikael84
27-07-2022, 16:34
Secondo me se scarseggeranno pure i giochi fanno bene a fare con calma...
Giusto tra ieri e oggi ho letto che ad esempio "The Lord of the Rings: Gollum", hyperato per ray tracing e DLSS, è stato rimandato "di qualche mese" invece che uscire a settembre. E idem un remake di "Star Wars The Old Republic" che a me non sarebbe dispiaciuto e per il quale si parlava di tardo 2022, è stato rimandato addirittura al 2025 :asd:
Poi beh la storia di Stalker 2 purtroppo la conosciamo ormai tutti... Pure l'ennesimo Assassin's Creed ambientato a Baghdad arriverà nel corso del 2023.
Se a giochi continuano così siamo a posto...altro che vga dalle millemila prestazioni. Presumendo che nuovi giochi stuzzichino maggiormente l'appetito dell'enthusiast che si fionderebbe sulla 4090 al lancio.
Infatti, paradossalmente, sia AMD che nvidia si apprestano a lanciare schede con un balzo incredibile, senza giochi degni.
Ho definito la serie Ampere crossgen, in quanto fatta su un PP scrauso, ram risicata e giochi ancora cross, sapendo che con Lovelace, le schede sarebbero state competitive sia in ram che in prestazioni, e pronte per affrontare la next gen, invece... :p
Difatti fino al 2023 inoltrato non servirebbero. A me sta bene, almeno recupero i baiocchi che spederò ad ottobre per tutto il sistema :fagiano:
Inviato dal mio iPhone X utilizzando Tapatalk
Aggiornando il sistema, potresti vedere un salto paragonabile a quello delle GPU in gaming multi. Senza considerare che Raptor, grazie alla grande cache (16mb l2 in 15 cicli) avrà un grosso impatto sui minimi.:)
Uno dei fattori che contraddistingueva Maxwell da kepler.
C'e' da dire che specialmente Nvidia deve spingere cmq per altri settori, non so i numeri recenti, ma se non fosse stato per il mining penso che le vga gaming non sarebbero nemmeno piu' il core business, fra datacenter/computing, ai, automotive.
mikael84
27-07-2022, 16:56
C'e' da dire che specialmente Nvidia deve spingere cmq per altri settori, non so i numeri recenti, ma se non fosse stato per il mining penso che le vga gaming non sarebbero nemmeno piu' il core business, fra datacenter/computing, ai, automotive.
Attualmente nvidia sta fatturando leggermente di più con i datacenter, dove investe veramente tanto, e le schede "gaming"sono pensate soprattutto per i pro (esempio il raddoppio delle fp32 che ancora tutti pensano siano rivolte ai giocatori).
Ai giocatori da gli scarti di produzione.
Senza mercato pro, non avremmo neppure visto un chip del calibro della 2080ti.
Infatti AMD pare voglia creare una dual GPU capace di raggiungere gli shader di una 4090. Una roba costosa, ma non gaming.:)
Arrow0309
27-07-2022, 17:12
:D :D io ho 31,4° in casa ed il liquido in idle a 40,2° :sofico: fosse ad aria non potrei nemmeno accenderla, la gpu è a 40° in ilde. Certo ventole a 600rpm, ma anche 1200 sotto carico non cambia nulla.
Non vi capisco, maniaci del silenzio a 40 gradi
Meno male che sto una favola a Manchester a 22C e le ventole a 1200 in idle :cool:
Attualmente nvidia sta fatturando leggermente di più con i datacenter, dove investe veramente tanto, e le schede "gaming"sono pensate soprattutto per i pro (esempio il raddoppio delle fp32 che ancora tutti pensano siano rivolte ai giocatori).
Ai giocatori da gli scarti di produzione.
Senza mercato pro, non avremmo neppure visto un chip del calibro della 2080ti.
Infatti AMD pare voglia creare una dual GPU capace di raggiungere gli shader di una 4090. Una roba costosa, ma non gaming.:)
Immaginavo... Certo bisogna essere maestri nel pianificare tutto per far incastrare sviluppo e produzione di tutta sta roba, riducendo al minimo scarti e sprechi di ogni genere, penso anche dal punto di workforce aziendale, nello sviluppo e non solo.
Questo vale per tutte le aziende top ovviamente, grasse risate quando leggo certi commenti sui forum/social di gente che da' consigli su quello che tot azienda avrebbe dovuto fare, tutti CEO su internet ;)
Thunder-74
27-07-2022, 19:33
Secondo quanto riferito, i fornitori cinesi si aspettano GPU della serie RTX 40 in meno di un mese
I primi lotti di GPU della serie RTX 40 potrebbero essere spediti il mese prossimo
Ilya Korneychuk di PRO Hi-Tech ha affermato che i fornitori cinesi si aspettano di vedere i primi lotti di schede grafiche della serie RTX 40 di Nvidia entro il prossimo mese, suggerendo che Nvidia si sta preparando a lanciare la loro prossima generazione di schede grafiche entro i prossimi mesi.
Se questo rapporto è corretto, le prime unità della serie RTX 40 arriveranno con i fornitori alla fine di agosto, suggerendo che Nvidia ha in programma di lanciare le proprie GPU della serie RTX 40 a settembre. Detto questo, ci sono rapporti secondo cui Nvidia potrebbe pianificare di respingere il lancio della serie RTX 40 per aiutare a vendere più scorte della serie RTX 30 in eccesso.
Attualmente, Nvidia si sta concentrando sulla vendita delle schede grafiche della serie RTX 40 di fascia alta e non abbiamo sentito nulla dalle nostre fonti in merito all'accumulo di scorte per i prodotti della serie RTX 40 di Nvidia. Detto questo, molte cose possono cambiare entro il prossimo mese e Nvidia ha in programma di ospitare un nuovo evento GTC a settembre. Questo evento GTC potrebbe essere l'evento di lancio della serie RTX 40 di Nvidia?
Fonte (https://www.overclock3d.net/news/gpu_displays/chinese_suppliers_reportedly_expect_rtx_40_series_gpus_in_less_than_a_month/1)
cut...
Aggiornando il sistema, potresti vedere un salto paragonabile a quello delle GPU in gaming multi. Senza considerare che Raptor, grazie alla grande cache (16mb l2 in 15 cicli) avrà un grosso impatto sui minimi.:)
Uno dei fattori che contraddistingueva Maxwell da kepler.
Caro Mike, farò un po' di test prima e dopo... Comunque per ora le scelte sono 13900k /32gb DDR5 da 6400 o 6600 CL32, mobo una Z790 tra le future Asus Hero/ Aorus Master / MSI Unify . Vedrò quale mi andrà più a genio. :)
Thunder-74
29-07-2022, 15:07
Sembra un pesce d'aprile...
Secondo quanto riferito, Intel prende in considerazione l'idea di eliminare la sua divisione GPU discreta
...Secondo quanto riferito, Intel è preoccupata per la fattibilità dei suoi piani GPU discreti
Il tanto acclamato ingresso di Intel nel mercato delle GPU da gioco ha subito alcune importanti battute d'arresto, tanto che le schede grafiche ARC Alchemist serie A dell'azienda potrebbero presto dover fare i conti con le schede grafiche di prossima generazione sia di AMD che Nvidia, piuttosto che con le RX di oggi Prodotti della serie 6000 e della serie RTX 30.
Sulla base delle informazioni che Intel ha pubblicato sulle schede grafiche della serie ARC Alchemist, la serie ARC A di Intel non è in grado di competere con le schede grafiche di fascia alta dell'attuale generazione di nessuno dei concorrenti e che le loro GPU di gioco di prima generazione offrono scarse prestazioni nei giochi meno recenti che utilizzano API legacy.
Le cose vanno così male che, secondo quanto riferito, il top management di Intel ha riconsiderato la fattibilità della roadmap delle GPU di gioco dell'azienda. Secondo Coreteks , che cita una fonte all'interno del team dGPU di Intel, anche le GPU Intel Battlemage di prossima generazione sembrano "estremamente discutibili", segnalando che i problemi della dGPU di Intel sono tutt'altro che finiti....
Link (https://www.overclock3d.net/news/gpu_displays/intel_reportedly_considers_axing_its_discrete_gpu_division/1)
Prestazioni NVIDIA RTX 4090/4080/4070 3DMark
Il leaker hardware Kopite7kimi ora afferma di conoscere le prestazioni della prossima serie GeForce RTX 40
...Secondo l'utente, RTX 4080 e RTX 4070 avrebbero ottenuto entrambi un punteggio superiore a 10K nel test 3DMark TimeSpy Extreme. Questo è un rapporto che segue la rivelazione delle prestazioni dell'RTX 4090 circa 10 giorni fa, in cui lo stesso leaker ha rivelato che la scheda raggiunge fino a 19.000 punti nello stesso test....
Se quei punteggi fossero corretti, RTX 4070 (circa 10000 punti) sarebbe veloce quanto RTX 3090 e Radeon RX 6900XT nello stesso test. L'RTX 4080 ( circa 15000 punti), d'altra parte, sarebbe quasi due volte più veloce dell'RTX 3080.
LINK (https://videocardz.com/newz/nvidia-geforce-rtx-4080-rtx-4070-get-preliminary-3dmark-performance-estimates)
TigerTank
29-07-2022, 15:21
Vedremo con i giochi, quel tizio sembra messo lì apposta ad hyperare :sofico:
Thunder-74
29-07-2022, 15:25
Vedremo con i giochi, quel tizio sembra messo lì apposta ad hyperare :sofico:
è un maialetto hahahah
mikael84
29-07-2022, 15:33
Sembra un pesce d'aprile...
Secondo quanto riferito, Intel prende in considerazione l'idea di eliminare la sua divisione GPU discreta
...Secondo quanto riferito, Intel è preoccupata per la fattibilità dei suoi piani GPU discreti
Il tanto acclamato ingresso di Intel nel mercato delle GPU da gioco ha subito alcune importanti battute d'arresto, tanto che le schede grafiche ARC Alchemist serie A dell'azienda potrebbero presto dover fare i conti con le schede grafiche di prossima generazione sia di AMD che Nvidia, piuttosto che con le RX di oggi Prodotti della serie 6000 e della serie RTX 30.
Sulla base delle informazioni che Intel ha pubblicato sulle schede grafiche della serie ARC Alchemist, la serie ARC A di Intel non è in grado di competere con le schede grafiche di fascia alta dell'attuale generazione di nessuno dei concorrenti e che le loro GPU di gioco di prima generazione offrono scarse prestazioni nei giochi meno recenti che utilizzano API legacy.
Le cose vanno così male che, secondo quanto riferito, il top management di Intel ha riconsiderato la fattibilità della roadmap delle GPU di gioco dell'azienda. Secondo Coreteks , che cita una fonte all'interno del team dGPU di Intel, anche le GPU Intel Battlemage di prossima generazione sembrano "estremamente discutibili", segnalando che i problemi della dGPU di Intel sono tutt'altro che finiti....
Link (https://www.overclock3d.net/news/gpu_displays/intel_reportedly_considers_axing_its_discrete_gpu_division/1)
Parliamoci chiaro, è un flop senza paragoni. E' da tutto 2022 che lo dico. La quasi ammiraglia in test favorevoli raggiunge le prestazioni di una 3060, con i teorici quasi da 3080.
Per tali chip Intel occupa risorse a TSMC con delle padelline da 407mm2 sul 6nm EUV, neppure il più scrauso samsung.
Se fossi io dalla parte di un Igor, l'avrei messa a nudo, come indicato sul mio post qua sotto, anche per vedere che Koduri non abbia fatto danni.
https://www.hwupgrade.it/forum/showpost.php?p=47895647&postcount=320
Prestazioni NVIDIA RTX 4090/4080/4070 3DMark
Il leaker hardware Kopite7kimi ora afferma di conoscere le prestazioni della prossima serie GeForce RTX 40
...Secondo l'utente, RTX 4080 e RTX 4070 avrebbero ottenuto entrambi un punteggio superiore a 10K nel test 3DMark TimeSpy Extreme. Questo è un rapporto che segue la rivelazione delle prestazioni dell'RTX 4090 circa 10 giorni fa, in cui lo stesso leaker ha rivelato che la scheda raggiunge fino a 19.000 punti nello stesso test....
Se quei punteggi fossero corretti, RTX 4070 (circa 10000 punti) sarebbe veloce quanto RTX 3090 e Radeon RX 6900XT nello stesso test. L'RTX 4080 ( circa 15000 punti), d'altra parte, sarebbe quasi due volte più veloce dell'RTX 3080.
LINK (https://videocardz.com/newz/nvidia-geforce-rtx-4080-rtx-4070-get-preliminary-3dmark-performance-estimates)
Si ci stanno, una 3090 a 2850 ha fatto poco più di 14000 con mediamente gli stessi shader.
https://www.3dmark.com/spy/25686500
Viste così, possiamo dire che la 4080 è sparata molto in alto, mentre la 4090 andrà presa in variante custom, visto che è molto limitata. A pari clock dovrebbe fare almeno quel 35%.
Bene la 4070 come la 3090, ma la 4080 produce un 50% in più su poco più di 40% di unità di calcolo, probabilmente il bus la penalizza.
Cmq mediamente era quello che ci aspettavamo. :)
https://i.postimg.cc/mDNq8y17/test.png
Thunder-74
29-07-2022, 16:32
Parliamoci chiaro, è un flop senza paragoni. E' da tutto 2022 che lo dico. La quasi ammiraglia in test favorevoli raggiunge le prestazioni di una 3060, con i teorici quasi da 3080.
Per tali chip Intel occupa risorse a TSMC con delle padelline da 407mm2 sul 6nm EUV, neppure il più scrauso samsung.
Se fossi io dalla parte di un Igor, l'avrei messa a nudo, come indicato sul mio post qua sotto, anche per vedere che Koduri non abbia fatto danni.
https://www.hwupgrade.it/forum/showpost.php?p=47895647&postcount=320
Si ci stanno, una 3090 a 2850 ha fatto poco più di 14000k con mediamente gli stessi shader.
https://www.3dmark.com/spy/25686500
Viste così, possiamo dire che la 4080 è sparata molto in alto, mentre la 4090 andrà presa in variante custom, visto che è molto limitata. A pari clock dovrebbe fare almeno quel 35%.
Bene la 4070 come la 3090, ma la 4080 produce un 50% in più su poco più di 40% di unità di calcolo, probabilmente il bus la penalizza.
Cmq mediamente era quello che ci aspettavamo. :)
https://i.postimg.cc/mDNq8y17/test.png
Sicuro che la 4070 sia segata dal bus, ok la cache , ma la banda da 360gb/s, è veramente poca cosa
Inviato dal mio iPhone X utilizzando Tapatalk
craesilo
29-07-2022, 16:37
quindi fra un mese ''Vendo 3090 a 550 spedita''? :D
TigerTank
29-07-2022, 16:58
Da quel grafico verrebbe da dedurre che anche la 4080 non "costerà poco" e la 4070 segherà il valore di tutte le attuali, a fronte però di uno stacco consistente rispetto alle 2 sorelle maggiori. Mah...vedremo.
Thunder-74
29-07-2022, 17:14
quindi fra un mese ''Vendo 3090 a 550 spedita''? :D
guarda, preferirei una 3090 usata che una 4070 nuova, se la serie 4000 non dovesse portare nuove features interessanti
quindi fra un mese ''Vendo 3090 a 550 spedita''? :D
Ahimè no, altrimenti la prenderei al volo la 3090
La 4070 non costerà come l'attuale 3070.
Su 500euro di prezzo di vendita le 100euro di produzione della scheda fanno la differenza
craesilo
29-07-2022, 17:45
ma era una battuta ricordando le 2080ti buttate un po prematuramente nel cesso dopo il quattronovenove :D
premesso che ho seguito poco, per me presentano prima 90 e 80, e la 80 non penso verrà lanciata di nuovo a 699$
Comunque, diciamolo chiaramente, queste nuove 4000 saranno anche velocissime ma secondo me se non introducono qualche nuova feature (tipo RTX o DLSS) saranno in pochi a prenderle.
E lo dico non tanto per il costo ma proprio per l'inutilità della velocità in più.
Io, da possessore di una strix 3090 non riesco a individuare una ragione per fare il cambio.
Già adesso gioco a tutto sparato al max senza nessun problema.
Voi cosa ne pensate?
La vedo nera per Nvidia a sto giro
Anche io con una Dual 6090 Super TI 9 fans 1tb di ram, penso che non faro' il cambio.
Arrow0309
29-07-2022, 18:07
Anche io con una Dual 6090 Super TI 9 fans 1tb di ram, penso che non faro' il cambio.
:asd: :asd: :asd: :asd: :asd:
mikael84
29-07-2022, 18:23
Sicuro che la 4070 sia segata dal bus, ok la cache , ma la banda da 360gb/s, è veramente poca cosa
Inviato dal mio iPhone X utilizzando Tapatalk
Si in rapporto è quella col bus devastante, però non escludo anche un leggero downclock in stile 4090.
Per il resto un test, in condizioni pure sfavorevoli per tale scheda. In ogni caso la 3090 doveva prendere, l'obbiettivo era quello.
AD104 full, ovvero la probabile 4070ti, potrebbe essere interessante, al contrario della 3070ti.
Mi continua anche a venire il dubbio di una possibile 4080ti su AD103 full con le PAM 4 (g6x) a 24 gb/s.:)
quindi fra un mese ''Vendo 3090 a 550 spedita''? :D
guarda, preferirei una 3090 usata che una 4070 nuova, se la serie 4000 non dovesse portare nuove features interessanti
Il discorso x90 è anche più complesso. E' vero che le gaming le svaluteranno enormemente, ma le x90 sono schede pro. Immagina chi ci lavora e con 1200-1300 euro si ritrova un nvlink da 48gb.
Riguardo la 4070, aspettiamo di vedere le perf, rt e probabili feature, anche se penso sia quasi un 1:1, salvo le cache per i bus, ma oggettivamente mi fa rivalutare le 12gb Ampere o la 3080 liscia a prezzi rivisti.:)
Da quel grafico verrebbe da dedurre che anche la 4080 non "costerà poco" e la 4070 segherà il valore di tutte le attuali, a fronte però di uno stacco consistente rispetto alle 2 sorelle maggiori. Mah...vedremo.
Si la 4070 sarà la killer Ampere, e sarà in competizione con una AMD economica su un nodo inferiore e molto meno costoso. Quindi non si potrà tirare troppo la corda.:)
Comunque, diciamolo chiaramente, queste nuove 4000 saranno anche velocissime ma secondo me se non introducono qualche nuova feature (tipo RTX o DLSS) saranno in pochi a prenderle.
E lo dico non tanto per il costo ma proprio per l'inutilità della velocità in più.
Io, da possessore di una strix 3090 non riesco a individuare una ragione per fare il cambio.
Già adesso gioco a tutto sparato al max senza nessun problema.
Voi cosa ne pensate?
La vedo nera per Nvidia a sto giro
Con una 3090 non c'è l'obbligo di comprarle per forza, anzi. La potenza deriva dal fatto che nvidia dopo Pascal, si è ritrovata prima sullo stesso nodo, tirando padelloni, e dopo uno migliore ma molto scarso. Ora si può fare il salto, ma senza giochi.:D
Anche io con una Dual 6090 Super TI 9 fans 1tb di ram, penso che non faro' il cambio.
Di contattore però si :asd: :sofico:
davide155
29-07-2022, 18:24
Comunque, diciamolo chiaramente, queste nuove 4000 saranno anche velocissime ma secondo me se non introducono qualche nuova feature (tipo RTX o DLSS) saranno in pochi a prenderle.
E lo dico non tanto per il costo ma proprio per l'inutilità della velocità in più.
Io, da possessore di una strix 3090 non riesco a individuare una ragione per fare il cambio.
Già adesso gioco a tutto sparato al max senza nessun problema.
Voi cosa ne pensate?
La vedo nera per Nvidia a sto giroLato dlss sicuramente intridurrnano il 3.0 con le 4000.
Lato rtx non credo introdurranno nulla di nuovo se non, ovviamente, un bel surplus sulla forza bruta di calcolo.
Chi ha da una 3080 a salire non credo valga la pena il cambio a meno che uno non sia malato di mente, oppure non passi al 4k. Tenendo conto anche del parco giochi in uscita a dir poco ridicolo sotto il profilo grafica.
Thunder-74
29-07-2022, 18:30
Lato dlss sicuramente intridurrnano il 3.0 con le 4000.
Lato rtx non credo introdurranno nulla di nuovo se non, ovviamente, un bel surplus sulla forza bruta di calcolo.
Chi ha da una 3080 a salire non credo valga la pena il cambio a meno che uno non sia malato di mente, oppure non passi al 4k. Tenendo conto anche del parco giochi in uscita a dir poco ridicolo sotto il profilo grafica.
Davide, mi sa che io faccio parte del primo tipo :fagiano:
A questo punto mi auguro che la 4080 slitti a dicembre/gennaio 2023...
davide155
29-07-2022, 19:12
Davide, mi sa che io faccio parte del primo tipo :fagiano:
A questo punto mi auguro che la 4080 slitti a dicembre/gennaio 2023...Guarda siamo in due :asd: e per di più valuterò anche il 13900k se ne varrà la pena :O
Però non tutti sono come noi. Ci sono anche persone normali :O
Sicuramente siamo OFF-TOPIC ma di certo valuterò il cambio dal 10980XE al nuovo Raptor-Lake serie Core-X che uscirà assieme al 13900K supportati dai rispettivi chipset W790 (serie Core-X) e Z790 (Serie K). Investirò qui piuttosto che lato grafica.
Per la scheda video, se proprio non conviene, sarà consigliabile bypassare la prox-gen per chi possiede già una 3080 e a salire...
Sono altresì sicuro che i prezzi risaliranno alla fine dell'estate per tutte le 3000, non ai livelli avuti sino ad ora ma quanto basta per definirli nuovamente anomali.
Le 4000 di sicuro non avranno prezzi popolari e bisognerà vedere anche lato mining come girano le cose. Anche AMD con la serie 7000 se giocherà bene le sue carte potrebbe prendere NVIDIA lato prestazioni in RT. Anche Intel si è appena affacciata sul mercato ed è solo l'inizio... voi come la vedete ?
A mio avviso, mai più precipitarsi a vendere la propria scheda video per la fretta di fare upgrade senza prima avere in mano la sostituta. Esperienza insegna giusto ?
Vedremo comunque tanti accaparrarsi una 4090 solo per il gusto di averla anche se forse converrà aspettare l'uscita delle versioni " Ti " pochi mesi dopo il lancio delle lisce...
StylezZz`
29-07-2022, 21:32
Anche Intel si è appena affacciata sul mercato ed è solo l'inizio... voi come la vedete ?
Non la vedo...
A mio avviso, mai più precipitarsi a vendere la propria scheda video per la fretta di fare upgrade senza prima avere in mano la sostituta. Esperienza insegna giusto ?
Shhhhhh, non c'è bisogno di dire certe cose...:asd:
Intel nel migliore dei casi sfornerà un chip ai livelli di 3060ti che con la prossima gen si scontrerà con un AD106 cuttato.
Al giusto prezzo potrebbe risultare interessante dato anche il quantitativo di vram, però è praticamente il primo approccio serio di intel nel settore gaming, ci sarà tutto un lavoro da fare per avere un ambiente software stabile e maturo.
Ma onestamente era decisamente arduo che dal nulla si allineasse ad AMD e Nvida, persino AMD prima delle 6000 arrancava a stare dietro alle top nvidia.
Più che altro c'è da chiedersi quando usciranno, più tardano e meno senso hanno.
mikael84
30-07-2022, 00:05
Lato dlss sicuramente intridurrnano il 3.0 con le 4000.
Lato rtx non credo introdurranno nulla di nuovo se non, ovviamente, un bel surplus sulla forza bruta di calcolo.
Chi ha da una 3080 a salire non credo valga la pena il cambio a meno che uno non sia malato di mente, oppure non passi al 4k. Tenendo conto anche del parco giochi in uscita a dir poco ridicolo sotto il profilo grafica.
Considerando che la maggioranza, ha fatto 3080-3080ti-3090, o è partito dalla 3060 sino alla 3080-90, in quanto a sto giro il divertimento è stato provarle quasi tutte (AMD comprese). Immagino, quanto uno possa resistere a vedere una 4090 quasi 2x la 3090 o anche una 4080:asd: :asd:
davide155
30-07-2022, 07:46
Considerando che la maggioranza, ha fatto 3080-3080ti-3090, o è partito dalla 3060 sino alla 3080-90, in quanto a sto giro il divertimento è stato provarle quasi tutte (AMD comprese). Immagino, quanto uno possa resistere a vedere una 4090 quasi 2x la 3090 o anche una 4080:asd: :asd:Io sono il primo a sbavare per la 4090, ma poi guardo il mio monitor, un 2k, guardo i giochi che sto giocando con la 3090 e quelli che usciranno da qui a 12 mesi, e personalmente non conviene affatto. O meglio, si può fare il passo, ma aspettando diversi mesi, in modo da vedere prima di tutto se ci sarà l'isteria generale ossessivo compulsiva del 2020, e poi quanto costeranno e (soprattutto) quanto manterranno il prezzo nel tempo. Anche perché ora non ho una 1080ti come due anni fa nel case, ma una 3090.
Thunder-74
30-07-2022, 08:48
io l'ho sempre sostenuto, i forum sono un posti che per certi "malati", non andrebbero frequentati... :fagiano:
StrixyRoG
30-07-2022, 09:34
Io sono il primo a sbavare per la 4090, ma poi guardo il mio monitor, un 2k, guardo i giochi che sto giocando con la 3090 e quelli che usciranno da qui a 12 mesi, e personalmente non conviene affatto. O meglio, si può fare il passo, ma aspettando diversi mesi, in modo da vedere prima di tutto se ci sarà l'isteria generale ossessivo compulsiva del 2020, e poi quanto costeranno e (soprattutto) quanto manterranno il prezzo nel tempo. Anche perché ora non ho una 1080ti come due anni fa nel case, ma una 3090.
Io invece guardo quanto dovrei spendere per giocare a cosa? L'hardware va sfruttato, mica devo usarlo come soprammobile :D
albero77
30-07-2022, 09:37
Ragazzi son ragionamenti che non stanno in piedi per noi appassionati.
Lo stesso discorso avresti dovuto farlo quando sei passato dalla 3080 alla 3090 :sofico:
Storia già vista e rivista, gli stessi che adesso snobbano saranno qui d1 a bestemmiare perchè non saranno riusciti a prendere la gpu perchè ovviamente sarà molto difficile e poi via si ricomincia la giostra di mining, scalper, ordini amazon annullati etc etc ;) Alla scimmia non si comanda.
Io mi accontenterò di una 4070 o una 3080 usata :sofico:
davide155
30-07-2022, 10:55
Ragazzi son ragionamenti che non stanno in piedi per noi appassionati.
Lo stesso discorso avresti dovuto farlo quando sei passato dalla 3080 alla 3090 :sofico:No li il discorso è stato diverso. Waterblock a parte il cambio mi è costato 50 euro. Per quella cifra chiunque avrebbe fatto il cambio, e non dite di no perché non ci credo.
Senza contare che per saltare la fila e prendermi la suprimX non lhr a gennaio mi avevano offerto anche 200 euro in più di quello che chiedevo. La gente era letteralmente impazzita.
Thunder-74
30-07-2022, 11:16
Storia già vista e rivista, gli stessi che adesso snobbano saranno qui d1 a bestemmiare perchè non saranno riusciti a prendere la gpu perchè ovviamente sarà molto difficile e poi via si ricomincia la giostra di mining, scalper, ordini amazon annullati etc etc ;) Alla scimmia non si comanda.
i ragionamenti di molti sono corretti: inutile cambiare se non si ha necessità con una 3080/3090 nel case, ma mentre scrivono questo, in realtà pensano... "devo trovare assolutamente il modo di giustificare il costo della 4080/4090 che sosterrò a fine anno" :sofico:
mikael84
30-07-2022, 11:39
Io sono il primo a sbavare per la 4090, ma poi guardo il mio monitor, un 2k, guardo i giochi che sto giocando con la 3090 e quelli che usciranno da qui a 12 mesi, e personalmente non conviene affatto. O meglio, si può fare il passo, ma aspettando diversi mesi, in modo da vedere prima di tutto se ci sarà l'isteria generale ossessivo compulsiva del 2020, e poi quanto costeranno e (soprattutto) quanto manterranno il prezzo nel tempo. Anche perché ora non ho una 1080ti come due anni fa nel case, ma una 3090.
Teoricamente, queste schede dovevano pilotare gli UE5 in 4k nativi, quindi il 1440p sarebbe non al passo con i tempi. Un pò come giocare i classici giochi su un 1280x720, pensati però per il full hd (anche se alcuni potrebbero essere pure in HD.
La potenza è veramente tanta, però se prendiamo una 4090, senza 4k nativo e senza usi pro, è veramente buttare soldi.
Storia già vista e rivista, gli stessi che adesso snobbano saranno qui d1 a bestemmiare perchè non saranno riusciti a prendere la gpu perchè ovviamente sarà molto difficile e poi via si ricomincia la giostra di mining, scalper, ordini amazon annullati etc etc ;) Alla scimmia non si comanda.
Un pò di positività, mi hai ricordato lui.:p
https://www.youtube.com/watch?v=2pFNhEZpfqk&ab_channel=PaulB
davide155
30-07-2022, 12:33
i ragionamenti di molti sono corretti: inutile cambiare se non si ha necessità con una 3080/3090 nel case, ma mentre scrivono questo, in realtà pensano... "devo trovare assolutamente il modo di giustificare il costo della 4080/4090 che sosterrò a fine anno" :sofico:
Più che altro, trovare una scusa per la moglie/compagna :asd:
Teoricamente, queste schede dovevano pilotare gli UE5 in 4k nativi, quindi il 1440p sarebbe non al passo con i tempi. Un pò come giocare i classici giochi su un 1280x720, pensati però per il full hd (anche se alcuni potrebbero essere pure in HD.
La potenza è veramente tanta, però se prendiamo una 4090, senza 4k nativo e senza usi pro, è veramente buttare soldi.
Esattamente....anche se il DLDSR è uno soettacolo anche per chi come me ha un monitor non 4k. La differenza qualitativa c'è eccome, ed è un piacere attivarlo. Anche se fino ad ora i giochi che mettono in ginocchio la 3090 col dldsr si contano sulle dita di una mano, forse anche meno.
Ale55andr0
30-07-2022, 12:40
Esattamente....anche se il DLDSR è uno spettacolo anche per chi come me ha un monitor non 4k
I non ho manco capito ancora come funziona ne che cambia attivandolo da pannello :asd:
davide155
30-07-2022, 12:54
I non ho manco capito ancora come funziona ne che cambia attivandolo da pannello :asd:In alcuni giochi non basta attivarlo da pannello, devi anche forzare la risoluzione maggiorata da desktop. Ovviamente nel gioco poi devi anche selezionare tale risoluzione.
Quando l'hai attivata te ne accorgerai subito fidati. Days gone, gears of war, god of war, i quali li sto giocando ora, in dldsr sono spettacolari.
I non ho manco capito ancora come funziona ne che cambia attivandolo da pannello :asd:
L'opposto del DLSS, in pratica come per il DSR permette di utilizzare risoluzioni più elevate su pannelli che non le supportano nativamente, ma a differenza del classico DSR viene gestito tramite RTcore e ha un algoritmo più avanzato.
Soprattutto su vecchi titoli che non hanno filtri particolarmente avanzati o texture in alta definizione può dare quella marcia in più ma anche su engine moderni si comporta come un filtro AA avanzato.
TigerTank
30-07-2022, 12:59
Io sono il primo a sbavare per la 4090, ma poi guardo il mio monitor, un 2k, guardo i giochi che sto giocando con la 3090 e quelli che usciranno da qui a 12 mesi, e personalmente non conviene affatto. O meglio, si può fare il passo, ma aspettando diversi mesi, in modo da vedere prima di tutto se ci sarà l'isteria generale ossessivo compulsiva del 2020, e poi quanto costeranno e (soprattutto) quanto manterranno il prezzo nel tempo. Anche perché ora non ho una 1080ti come due anni fa nel case, ma una 3090.
Io farò come ho fatto con l'attuale. Non inseguendo l'ultima novità a livello di giochi e avendo parecchi arretrati presi via via nei vari saldi...attenderò quella situazione che farà scattare sul verde tutti i miei indicatori mentali :sofico:
Anche perchè non si sa mai cosa possa succedere a livello di bachi iniziali ed eventuali refresh/revisioni.
Io farò come ho fatto con l'attuale. Non inseguendo l'ultima novità a livello di giochi e avendo parecchi arretrati presi via via nei vari saldi...attenderò quella situazione che farà scattare sul verde tutti i miei indicatori mentali :sofico:
Anche perchè non si sa mai cosa possa succedere a livello di bachi iniziali ed eventuali refresh/revisioni.
Fossi in loro a sto giro toglierei i sensori temperatura sulle vram...
fraussantin
30-07-2022, 13:23
Fossi in loro a sto giro toglierei i sensori temperatura sulle vram...Vabbè non è che ce li mettono per sport.
Ale55andr0
30-07-2022, 13:34
In alcuni giochi non basta attivarlo da pannello, devi anche forzare la risoluzione maggiorata da desktop. Ovviamente nel gioco poi devi anche selezionare tale risoluzione.
Quando l'hai attivata te ne accorgerai subito fidati. Days gone, gears of war, god of war, i quali li sto giocando ora, in dldsr sono spettacolari.
lo faccio già, è il downsampling (DRS "fattori"), ma non capisco che cambi cliccando anche su DL, non noto nulla di diverso: se uso il DSR da 2160 già diventa una cartolina ma già da prima che venisse introdotto il DLD.
Ale55andr0
30-07-2022, 13:40
L'opposto del DLSS, in pratica come per il DSR permette di utilizzare risoluzioni più elevate su pannelli che non le supportano nativamente, ma a differenza del classico DSR viene gestito tramite RTcore e ha un algoritmo più avanzato.
Soprattutto su vecchi titoli che non hanno filtri particolarmente avanzati o texture in alta definizione può dare quella marcia in più ma anche su engine moderni si comporta come un filtro AA avanzato.
Si ma non capisco quando/come viene attivato: io ho la voce DSR fattori, dentro la finestra relativa ci sono due opzioni: il "ridimensionamento DL"" ma non ha opzioni per il 4k (solo 1.78x/2560 e 2.25x/2880) e poi tutti gli altri moltiplicatori che già avevo messi su "ridimensionamento legacy" e che mi arrivano fino al 4x/3840 e che mi sbloccano in modalità schermo intero le risoluzioni più alte sul monitor. Ergo a che mi serve quel "DL" con risoluzioni più basse? :stordita:
TigerTank
30-07-2022, 13:42
Fossi in loro a sto giro toglierei i sensori temperatura sulle vram...
Ahahahah ti immagini se dovessero reintrodurre l'ASIC percentuale per la gpu?
Ricordo che tanta gente cambiava scheda per quello.:D
lo faccio già, è il downsampling (DRS "fattori"), ma non capisco che cambi cliccando anche su DL, non noto nulla di diverso: se uso il DSR da 2160 già diventa una cartolina ma già da prima che venisse introdotto il DLD.
Nel pannello trovi 2 voci relative all'attivazione del DSR. "DL" e "legacy".
"DL" è praticamente il DLSS "dei poveri", cioè un sistema di upscaling per situazioni in cui non sia supportato il DLSS ma ovviamente non è equiparabile al DLSS.
"legacy" è il vecchio DSR...e cioè viene impostata una risoluzione più alta a livello di fotogrammi elaborati dalla vga e poi "compressi"(downscaling) alla tua risoluzione. Se funziona bene(dipende dalle risoluzioni e credo anche dal monitor) l'effetto dovrebbe essere di maggior definizione e antialiasing. In genere si usava molto nel riscalare un DSR 4K su un monitor FullHD. Personalmente non la usai quasi mai perchè mi sembava che introducesse un fastidioso lag a livello di mouse. Ho sempre preferito la nativa, se proprio usando il reshade con SMAA maxato e lumasharpen per incrementare la nitidezza delle textures.
Piccolo consiglio: non so se influisca ma in "Regola dimensioni e posizione del desktop" alla voce "Applica proporzionamento su" io ho sempre settato "GPU" invece che "Schermo" e flaggato la casella sottostante("Escludi......").
Ale55andr0
30-07-2022, 13:58
Ahahahah ti immagini se dovessero reintrodurre l'ASIC percentuale per la gpu?
Ricordo che tanta gente cambiava scheda per quello.:D
Nel pannello trovi 2 voci relative all'attivazione del DSR. "DL" e "legacy".
"DL" è praticamente il DLSS "dei poveri", cioè un sistema di upscaling per situazioni in cui non sia supportato il DLSS ma ovviamente non è equiparabile al DLSS.
"legacy" è il vecchio DSR...e cioè viene impostata una risoluzione più alta a livello di fotogrammi elaborati dalla vga e poi "compressi"(downscaling) alla tua risoluzione. Se funziona bene(dipende dalle risoluzioni e credo anche dal monitor) l'effetto dovrebbe essere di maggior definizione e antialiasing. In genere si usava molto nel riscalare un DSR 4K su un monitor FullHD. Personalmente non la usai quasi mai perchè mi sembava che introducesse un fastidioso lag a livello di mouse. Ho sempre preferito la nativa, se proprio usando il reshade con SMAA maxato e lumasharpen per incrementare la nitidezza delle textures.
Piccolo consiglio: non so se influisca ma in "Regola dimensioni e posizione del desktop" alla voce "Applica proporzionamento su" io ho sempre settato "GPU" invece che "Schermo" e flaggato la casella sottostante("Escludi......").
e ma allora se il DL non è DLDSR come credevo, e il legacy è il DSR standard che già usavo (con soddisfazione) sto DLDSR dove cacchio sta? non ho altre voci e i driver sono recenti :confused:
TigerTank
30-07-2022, 14:06
e ma allora se il DL non è DLDSR come credevo, e il legacy è il DSR standard che già usavo (con soddisfazione) sto DLDSR dove cacchio sta? non ho altre voci e i driver sono recenti :confused:
QUI:
http://i.imgur.com/GKKxsVul.jpg (https://imgur.com/GKKxsVu)
Ovviamente le risoluzioni dipendono da quella nativa del tuo monitor come opzioni di downscaling o upscaling.
Nel mio caso come vedi c'è un opzione di upscaling che è simil DLSS(1,78x) e una per il downscaling(2,25x) da risoluzione superiore che però a differenza del DSR classico usa appunto un algoritmo che aumenta il carico rispetto alla nativa ma meno rispetto al DSR classico.
Oltre alle nuove vga vedemo come evolveranno le cose anche in tal senso.
Ale55andr0
30-07-2022, 14:20
QUI:
http://i.imgur.com/GKKxsVul.jpg (https://imgur.com/GKKxsVu)
Ovviamente le risoluzioni dipendono da quella nativa del tuo monitor come opzioni di downscaling o upscaling.
Nel mio caso come vedi c'è un opzione di upscaling che è simil DLSS(1,78x) e una per il downscaling(2,25x) da risoluzione superiore che però a differenza del DSR classico usa appunto un algoritmo che aumenta il carico rispetto alla nativa ma meno rispetto al DSR classico.
Ma quello è appunto il DSR standard, c'era già prima del nuovo, dove sta la voce DLDSR?
TigerTank
30-07-2022, 14:23
Ma quello è appunto il DSR standard, dove sta la voce DLDSR? :D :D
Ma lol...sono le 2 voci che ti ho spiegato :asd:
http://i.imgur.com/yTUrhsul.jpg (https://imgur.com/yTUrhsu)
Quello è il DLDSR :D
Ale55andr0
30-07-2022, 14:44
Ma lol...sono le 2 voci che ti ho spiegato :asd:
http://i.imgur.com/yTUrhsul.jpg (https://imgur.com/yTUrhsu)
Quello è il DLDSR :D
capito (?!) :asd:
...io comunque quelle voci, a parte il DL, le avevo da prima, cioè dal gennaio 2021... e per me continua superficialmente a essere il downsampling standard che mi sblocca e mi forza il 3840 su un 1920 :asd:. Poi se lo faccia via software o coi tensor, chissene, basta che levo le odiose scalette su certi giochi :sofico:
Cribbio ma anche loro, mettere la scritta "DLDSR" che cacchio gli costa? Il pannello driver nvidia è ai livelli windwos 98 :asd:
TigerTank
30-07-2022, 14:51
capito (?!) :asd:
...io comunque quelle voci, a parte il DL, le avevo da prima, cioè dal gennaio 2021... e per me continua superficialmente a essere il downsampling standard che mi sblocca e mi forza il 3840 su un 1920 :asd:. Poi se lo faccia via software o coi tensor, chissene, basta che levo le odiose scalette su certi giochi :sofico:
Cribbio ma anche loro, mettere la scritta "DLDSR" che cacchio gli costa? Il pannello driver nvidia è ai livelli windwos 98 :asd:
Non credo...il DLDSR è stato introdotto questo gennaio :D
Comunque al massimo fai un confronto a livello framerate e qualità tra il 2,25x DL e il relativo equivalente standard.
Altrimenti imho lascia la nativa e prova a sparargli un reshade con l'SMAA settato al massimo. Chiudo il semi-OT perchè pensavo di essere nell'altro thread ampère :mc:
In alcuni giochi non basta attivarlo da pannello, devi anche forzare la risoluzione maggiorata da desktop. Ovviamente nel gioco poi devi anche selezionare tale risoluzione.
Quando l'hai attivata te ne accorgerai subito fidati. Days gone, gears of war, god of war, i quali li sto giocando ora, in dldsr sono spettacolari.Hai screen comparativi o è solo effetto placebo ? ;)
Te lo chiedo perché l'avevo provato qualche mese fa e la differenza tra DSR-DL e DSR-Legacy era praticamente nulla sia a livello di IQ che di FPS, ma il gioco con cui avevo testato non era tra quelli da te citati.
Inviato dal mio 21051182G utilizzando Tapatalk
mikael84
30-07-2022, 16:14
Ahahahah ti immagini se dovessero reintrodurre l'ASIC percentuale per la gpu?
Ricordo che tanta gente cambiava scheda per quello.:D
Sempre stato contro alla sostituzione, però rodeva, delle volte ci passava anche il 10% a pari modello.:)
Ora bene o male, sai ciò che compri, poi il silicio può essere più o meno fortunato, è naturale, ma se voglio un chip bin con Pl elevatissimo sono sicuro con una Strix o equivalente, se prendo una manli, ventus, eagle PL0 so cosa aspettarmi, ma le pago pure molto meno.
Invece prima spendevi un botto per una classified (a te è andata anche bene, ma ricordo le discussioni sulle svariate 62+), mentre vedevi le palitozze over 80+.:sofico:
Thunder-74
30-07-2022, 18:10
Sempre stato contro alla sostituzione, però rodeva, delle volte ci passava anche il 10% a pari modello.:)
Ora bene o male, sai ciò che compri, poi il silicio può essere più o meno fortunato, è naturale, ma se voglio un chip bin con Pl elevatissimo sono sicuro con una Strix o equivalente, se prendo una manli, ventus, eagle PL0 so cosa aspettarmi, ma le pago pure molto meno.
Invece prima spendevi un botto per una classified (a te è andata anche bene, ma ricordo le discussioni sulle svariate 62+), mentre vedevi le palitozze over 80+.:sofico:
io tre Strix 980ti (una con Vram fallata all'arrivo) prese appena disponibili in Italia: ASIC 69%, 70%, 70,1%
Foto ricordo...
https://i.imgur.com/C6Q4jWbl.png
TigerTank
30-07-2022, 18:48
Sempre stato contro alla sostituzione, però rodeva, delle volte ci passava anche il 10% a pari modello.:)
Ora bene o male, sai ciò che compri, poi il silicio può essere più o meno fortunato, è naturale, ma se voglio un chip bin con Pl elevatissimo sono sicuro con una Strix o equivalente, se prendo una manli, ventus, eagle PL0 so cosa aspettarmi, ma le pago pure molto meno.
Invece prima spendevi un botto per una classified (a te è andata anche bene, ma ricordo le discussioni sulle svariate 62+), mentre vedevi le palitozze over 80+.:sofico:
Vero, alla fine era tutto legato al fatto che comunque si andava di overclock :D
Ora...e presumibilmente ancor più con le nuove, è diventato più importante trovare il miglior rapporto frequenza-undervolt salvo liquidarle.
Io presi una 980Ti Classified da un utente del forum che l'aveva usata pochissimo e poi per 30€ presi online un wubbo fullcover EK in svendita per 780 Classified che si scoprì essere perfettamente compatibile anche con la 980Ti, lasciando anche la backplate originale della scheda :asd:
davide155
30-07-2022, 19:15
L'opposto del DLSS, in pratica come per il DSR permette di utilizzare risoluzioni più elevate su pannelli che non le supportano nativamente, ma a differenza del classico DSR viene gestito tramite RTcore e ha un algoritmo più avanzato.
Soprattutto su vecchi titoli che non hanno filtri particolarmente avanzati o texture in alta definizione può dare quella marcia in più ma anche su engine moderni si comporta come un filtro AA avanzato.Piccolo edit..... Il dldsr usa i tensor core e non gli rtcore :) Hai screen comparativi o è solo effetto placebo ? ;)
Te lo chiedo perché l'avevo provato qualche mese fa e la differenza tra DSR-DL e DSR-Legacy era praticamente nulla sia a livello di IQ che di FPS, ma il gioco con cui avevo testato non era tra quelli da te citati.
Inviato dal mio 21051182G utilizzando TapatalkScreen comparativi adesso non posso farli perché sono in vacanza :)
Comunque dipende con che giochi lo hai provato, soprattutto dal motore grafico.
Comunque fra i vari giochi dove non ho visto miglioramenti forse forza5 è quello meno eclatante. Gow e days gone invece si nota chiaramente.
Cyberpunk uguale a forza, non noto differenze col dsr normale.
Sugli fps siamo li. Non cambia molto se non un miglioramento del 10-15% in favore del dldsr
Dipende, ai tempi di maxwell c'era parecchia differenza anche tra le custom spinte e la reference.
La 980ti da specifica nvidia boostava intorno ai 1150-1250mhz a seconda dell'ASIC se non erro, quindi i margini di OC c'erano ed erano ampi, alle seconde sfornate ci sono stati diversi chip custom che già di fabbrica arrivavano ben oltre i 1400mhz quindi il divario tra una buona custom e la reference era bello marcato, anche oltre il 10%.
Ora il mercato è andato in una direzione diversa, sia cpu che gpu sono tiratissime di fabbrica e i margini sono decisamente pochi di OC, i maggiori vantaggi li si hanno undervoltando e trovando il miglior compromesso.
Personalmente come approccio non mi dispiace fondamentalmente hai già un chip spremuto e stabile con quei clock, e undervoltando sicuro danni non ne fai.
Piccolo edit..... Il dldsr usa i tensor core e non gli rtcore :) Screen comparativi adesso non posso farli perché sono in vacanza :)
Comunque dipende con che giochi lo hai provato, soprattutto dal motore grafico.
Comunque fra i vari giochi dove non ho visto miglioramenti forse forza5 è quello meno eclatante. Gow e days gone invece si nota chiaramente.
Cyberpunk uguale a forza, non noto differenze col dsr normale.
Sugli fps siamo li. Non cambia molto se non un miglioramento del 10-15% in favore del dldsr
Vero, piccolo lapsus :sofico:
Ale55andr0
30-07-2022, 19:35
io tre Strix 9080ti
tu si che sei avanti bro :O
dai dacci qualche specs! 128gb di ram? 1nm plus a 4 ghz? bus a 512 bit e 1gb di L3 ? :sofico:
..la cosa che fa sorridere è che prima o poi specifiche simili dovranno pur arrivare, mi viene ancor più voglia di far volare la 3070 dall'8o piano :asd:
TigerTank
30-07-2022, 20:20
tu si che sei avanti bro :O
dai dacci qualche specs! 128gb di ram? 1nm plus a 4 ghz? bus a 512 bit e 1gb di L3 ? :sofico:
..la cosa che fa sorridere è che prima o poi specifiche simili dovranno pur arrivare, mi viene ancor più voglia di far volare la 3070 dall'8o piano :asd:
Io inizio a sospettare che Thunder sia così avanti e così apripista perchè viaggia nel tempo :sofico:
Thunder-74
30-07-2022, 20:21
tu si che sei avanti bro :O
dai dacci qualche specs! 128gb di ram? 1nm plus a 4 ghz? bus a 512 bit e 1gb di L3 ? :sofico:
..la cosa che fa sorridere è che prima o poi specifiche simili dovranno pur arrivare, mi viene ancor più voglia di far volare la 3070 dall'8o piano :asd:
hahaahah che minchione che sono :fagiano: , ormai abituato a scrivere i "nomi" delle VGA a 4 cifre.
A parte tutto, sarebbe da conservare questo tuo post volutamente esagerato, per vedere quando si arriverà a tanto :sofico:
Io inizio a sospettare che Thunder sia così avanti e così apripista perchè viaggia nel tempo :sofico:
non volevo dirvelo ma sono John Titor :sborone:
Ma credo che i 512bit non li vedremo più.
Più che altro è possibile che vedremo 1-2GB di cache :sofico:
mikael84
30-07-2022, 21:08
Vero, alla fine era tutto legato al fatto che comunque si andava di overclock :D
Ora...e presumibilmente ancor più con le nuove, è diventato più importante trovare il miglior rapporto frequenza-undervolt salvo liquidarle.
Io presi una 980Ti Classified da un utente del forum che l'aveva usata pochissimo e poi per 30€ presi online un wubbo fullcover EK in svendita per 780 Classified che si scoprì essere perfettamente compatibile anche con la 980Ti, lasciando anche la backplate originale della scheda :asd:
Se le tarano ad 1,2v i compromessi saranno più elevati. Cmq il meccanismo non cambierà. Anzi vedendo le 4090, potrebbero tornare di moda le uber custom e le FE/reference di fascia bassa strozzate.:p
tu si che sei avanti bro :O
dai dacci qualche specs! 128gb di ram? 1nm plus a 4 ghz? bus a 512 bit e 1gb di L3 ? :sofico:
..la cosa che fa sorridere è che prima o poi specifiche simili dovranno pur arrivare, mi viene ancor più voglia di far volare la 3070 dall'8o piano :asd:
Con la densità a scapito dell'efficienza, dubito sui grossi bus. Prima o poi, magari con le gddr7, introdurranno la quadrupla densità ed i 256 bit passeranno a 32gb (48gb le x90).
La cache raddoppiando ad ogni gen, si potrebbe arrivare a 3gb:sofico:
Alla fine 5 gen, sono in rapporto Lovelace vs Kepler, 10 anni, 2032.
io tre Strix 980ti (una con Vram fallata all'arrivo) prese appena disponibili in Italia: ASIC 69%, 70%, 70,1%
Foto ricordo...
Così ci sta, Asic medio. Anche se il 72+ era veramente medio o di buon livello.
Il brutto è la proporzione 62+/80+:p
Cmq sono già 4 gen fa. Passa il tempo.
Kostanz77
30-07-2022, 21:20
io l'ho sempre sostenuto, i forum sono un posti che per certi "malati", non andrebbero frequentati... :fagiano:
Direi tossico😂
Inviato dal mio iPhone utilizzando Tapatalk Pro
Thunder-74
01-08-2022, 06:43
GPU NVIDIA RTX 40 "AD104" completa con 7680 core e 400 W TDP per eguagliare RTX 3090 Ti in termini di prestazioni
LINK (https://videocardz.com/newz/full-nvidia-rtx-40-ad104-gpu-with-7680-cores-and-400w-tdp-to-match-rtx-3090-ti-in-performance)
Riassumendo:
3070ti full Chip da 7680 cuda, 192bit , 12 Gb (banda da 504 GB/s)
sarebbe decisamente più interessante della liscia ...
Decisamente più interessante, il problema è che la 70ti verrà rilasciata dopo oltre un anno la presentazione della liscia.
La 3070 è stata rilasciata a ottobre, la 70ti l'estate dopo.
Quindi se ne parla minimo minimo tra un anno per questa, che confermo, è la scheda decisamente fin'ora più interessante
Ale55andr0
01-08-2022, 07:46
https://wccftech.com/nvidia-geforce-rtx-4070-ti-alleged-specifications-leaked-7680-cores-12-gb-gddr6x-memory-matching-rtx-3090-ti/
ecco questa come stata sarebbe interessante, e probabilmente la più interessante della lineup ma..anche la 70 lsicia qui vedo data per 19bit/12gb. 10Gb/160bitsarebbe ignobile
https://wccftech.com/nvidia-geforce-rtx-4070-ti-alleged-specifications-leaked-7680-cores-12-gb-gddr6x-memory-matching-rtx-3090-ti/
ecco questa come stata sarebbe interessante, e probabilmente la più interessante della lineup ma..anche la 70 lsicia qui vedo data per 19bit/12gb. 10Gb/160bitsarebbe ignobileDipende a che prezzo la piazzano, a occhio ci sarà si e no un 10% di prestazioni in più dalla 4070 liscia vendendo le specifiche, quindi é da vedere se vale la pena o tanto vale andare dritti sulla 4080.
Inviato dal mio M2012K11AG utilizzando Tapatalk
nessuno29
01-08-2022, 08:01
GPU NVIDIA RTX 40 "AD104" completa con 7680 core e 400 W TDP per eguagliare RTX 3090 Ti in termini di prestazioni
LINK (https://videocardz.com/newz/full-nvidia-rtx-40-ad104-gpu-with-7680-cores-and-400w-tdp-to-match-rtx-3090-ti-in-performance)
Riassumendo:
3070ti full Chip da 7680 cuda, 192bit , 12 Gb (banda da 504 GB/s)
sarebbe decisamente più interessante della liscia ...
Si però 400watt una x70...quanto un filamento della mia stufetta mi pare un pò troppo.
https://wccftech.com/nvidia-geforce-rtx-4070-ti-alleged-specifications-leaked-7680-cores-12-gb-gddr6x-memory-matching-rtx-3090-ti/
ecco questa come stata sarebbe interessante, e probabilmente la più interessante della lineup ma..anche la 70 lsicia qui vedo data per 19bit/12gb. 10Gb/160bitsarebbe ignobile
4070 a 12gb sarebbe tanta roba, meglio pagarla una 50 di € in più che ritrovarsi con una scheda zoppa.
4070 a 12gb sarebbe tanta roba, meglio pagarla una 50 di € in più che ritrovarsi con una scheda zoppa.
A guardare 3070 e 3070ti come minimo saranno 100€ in più o oltre e non credo che un +10% e +2gb valgano la spesa, a quel punto tanto vale andare dritti su 4080.
Bisogna vedere il salto di costo tra 70 e 80
In effetti, se sarà come le 3000 sarà importante e tanto più me l'aspetto in questo caso dove abbiamo 256bit di bus vs. 160
l'aumento di bus impatta tantissimo sui costi
devAngnew
01-08-2022, 10:06
Now that EVGA has sufficient stock on 30 series at EVGA.com and at ETAIL/RETAIL partners, starting August 1st 2022, all pending queue notifies on EVGA PN: GPU 3000 will be removed and the product will be made available for purchase as supply continues to arrive.
You can see all in stock 30 Series availability at any time by visiting here. The EVGA Queue system will continue to be in place for high demand products.
You are receiving this message because you previously signed up for our notification queue on our webstore to be notified when GPU is available to purchase or for changes to its availability status.
Regards,
EVGA
:asd: :rotfl: :sbonk:
ArchibaldJr
01-08-2022, 10:46
Io a sto giro punto ad una 4xxx che mi deve gestire il 4k a 144hz senza compromessi, visto che il 4k sarà ul mio ultimo step oltre il quale non andrò mai :)
Lato giochi non c'è nulla di interessante a mio avviso per ora..vorrà dire che rigiocarò tutti i miei titoli a manetta.
Sperando solo che queste vga non costino un espianto di organi per acquistarle :muro:
Sonpazzo
01-08-2022, 10:54
sbaglio o a ogni giro sparano Wattaggi alti solo per alimentare gli inutili e fake rumor? :D
sbaglio o a ogni giro sparano Wattaggi alti solo per alimentare gli inutili e fake rumor? :D
In giro sparano di tutto.
Comunque non escludo che la 4070ti sia un chip tiratissimo quindi i +100w dalla 4070 potrebbero starci.
Alla fine pure la 3070ti ha quasi 70w in più dalla 3070.
Riguardando le tabelle di wccftech credo ci sia anche qualche errore, la 4070 è riportata con bus a 192bit e per ora tutti i rumors sembrano aver confermato i 160bit.
tornado89
01-08-2022, 11:02
Chiedo qui, altrimenti non saprei dove farlo:
Ma Nvidia Reflex si può attivare solo nei giochi supportati dove si può trovare l'apposita opzione nel menu, oppure lo si può attivare in ogni gioco? Se si come?
Thunder-74
01-08-2022, 11:07
Chiedo qui, altrimenti non saprei dove farlo:
Ma Nvidia Reflex si può attivare solo nei giochi supportati dove si può trovare l'apposita opzione nel menu, oppure lo si può attivare in ogni gioco? Se si come?
Nei giochi che lo supportano. Nel pannello nVidia puoi attivare la bassa latenza che funge allo stesso modo credo
Inviato dal mio iPhone X utilizzando Tapatalk
mikael84
01-08-2022, 11:30
GPU NVIDIA RTX 40 "AD104" completa con 7680 core e 400 W TDP per eguagliare RTX 3090 Ti in termini di prestazioni
LINK (https://videocardz.com/newz/full-nvidia-rtx-40-ad104-gpu-with-7680-cores-and-400w-tdp-to-match-rtx-3090-ti-in-performance)
Riassumendo:
3070ti full Chip da 7680 cuda, 192bit , 12 Gb (banda da 504 GB/s)
sarebbe decisamente più interessante della liscia ...
400-500-800watt, ma non può consumare così:p
400 watt per andare come una 3090ti, quindi stesse prestazioni a pari efficienza con un samsung 10nm vs un 5nm (4mod) di tsmc.
Gli stessi chip gireranno full sui portatili a max 170 watt con il 10/20% del clock in meno.
Tra i due PP c'è minimo un 80% di riduzione consumi.
Uno shrink di una 3090 liscia a pari clock sarebbe poco sotto i 200watt.
AD104 è meno della metà di AD102, e quindi meno della metà dei transistor, e usa metà della ram, bus (circuito gravoso).
Thunder-74
01-08-2022, 11:35
400-500-800watt, ma non può consumare così:p
400 watt per andare come una 3090ti, quindi stesse prestazioni a pari efficienza con un samsung 10nm vs un 5nm (4mod) di tsmc.
Gli stessi chip gireranno full sui portatili a max 170 watt con il 10/20% del clock in meno.
Tra i due PP c'è minimo un 80% di riduzione consumi.
Uno shrink di una 3090 liscia a pari clock sarebbe poco sotto i 200watt.
AD104 è meno della metà di AD102, e quindi meno della metà dei transistor, e usa metà della ram, bus (circuito gravoso).
I consumi neanche li ho presi in considerazione: cambia chip con le sue complessità di contorno e rimangono sempre sui 400w. Bah
Inviato dal mio iPhone X utilizzando Tapatalk
fraussantin
01-08-2022, 11:35
400-500-800watt, ma non può consumare così:p
400 watt per andare come una 3090ti, quindi stesse prestazioni a pari efficienza con un samsung 10nm vs un 5nm (4mod) di tsmc.
Gli stessi chip gireranno full sui portatili a max 170 watt con il 10/20% del clock in meno.
Tra i due PP c'è minimo un 80% di riduzione consumi.
Uno shrink di una 3090 liscia a pari clock sarebbe poco sotto i 200watt.
AD104 è meno della metà di AD102, e quindi meno della metà dei transistor, e usa metà della ram, bus (circuito gravoso).
Nella 3090ti ci sono anche il doppio di giga di ram nei 450 w.
400 la 3070ti vuol dire che il silicio è ottimo e i "depravati" dell'invidia lo hanno tirato all'estremo .
Sono curioso di vedere i voltaggi .
Ps ovviamente con convinto che sacrificando un 5% al massimo un 10% di prestazioni , queste veramente tornerebbero schede "normali"
mikael84
01-08-2022, 11:59
I consumi neanche li ho presi in considerazione: cambia chip con le sue complessità di contorno e rimangono sempre sui 400w. Bah
Inviato dal mio iPhone X utilizzando Tapatalk
Infatti, è veramente senza logica un TDP simile.
Già la 4080 potrebbe anche rientrarci nei 400, in quanto, essendo fondamentalmente una 3080ti a bus ridotto, dovrebbe rientrare a +50% clock sui 350watt, e ci sta che sia sparata a 3 e passa ghz, perdendo efficienza.
AD104, per arrivare a 400watt, che efficienza avrebbe...
A sto punto, considerando che i transistor sono quelli, il die idem, faceva uno shrink di GA102 a 200-220 watt.:p
Nella 3090ti ci sono anche il doppio di giga di ram nei 450 w.
400 la 3070ti vuol dire che il silicio è ottimo e i "depravati" dell'invidia lo hanno tirato all'estremo .
Sono curioso di vedere i voltaggi .
Ps ovviamente con convinto che sacrificando un 5% al massimo un 10% di prestazioni , queste veramente tornerebbero schede "normali"
Appunto, 60 watt sulla 3090, contro i 20 della 4070ti (in quanto 2gb di ram dovrebbero consumare 3,3/5watt, contro 2,5w ad 1gb).
Il silicio sarà ottimo, ma prima o poi ti fermi, non è che puoi salire sempre.
La tensione potrebbe pure essere sparata ad 1,2v per guadagnare quei 100-150mhz, questo causerebbe un grosso impatto sull'efficienza, ma abbiamo visto che a partire dai 16nm nvidia tara a 1,05v/1,1v con samsung, proprio perchè salire oltre è drasticamente controproducente. Solo con l'azoto si riesce a farli salire.
ArchibaldJr
01-08-2022, 16:24
Ciao raga sono tornato anche se non so ancora per molto dato che mi ero cancellato tempo fa.
Comunque volevo domandarvi ma conviene aspettare la 4090 su amazon o ci saranno i soliti bot e bagarini a prenderla? Se no dovrei chiedere ad un negozio in città se me la ordina. Per ottobre.
Edit: Dato che ho un monitor hp emperium che è 4k ed arranca un po nei ultimi giochi tipo red.
Ci sarà il solito teatrino già visto....
Day 1 pochi pezzi.. Presi d assalto e via di scalping :D
Su Amazon prima che arrivino ne passa di tempo
Nvidia ormai sa come montare l hype per i suoi prodotti.
Io gioco tranquillo in 4k 144hz con una 2080ti,punterò sicuramente alla serie 4xxx per carità ma una cosa deve essere certa che costino il giusto e che in 4k/144hz rendano altrimenti passo.
StylezZz`
01-08-2022, 17:00
8k con queste schede? È già tanto se andranno a 60fps in 4k quando usciranno i giochi UE5 :asd:
bonzoxxx
03-08-2022, 08:32
Ragazzi una domanda niubba, non linciatemi.
Ho una 3080 FE, schermo 3440*1440 165hz, 5900X e 64GB, non sto giocando da mesi ormai e sono quasi deciso a vendere tutto il pc che sta più spento che acceso.
Ora, dato che sta 3080 praticamente non la sto usando stavo pensando a 2 alternative: provare a prendere una 3060ti a prezzo MSRP e andare avanti con quella per qualche anno oppure mettere sotto una scheda muletto scrausissima e aspettare lovelace e provare a prendere una 4060/4060ti/4070, di più non mi serve.
Ripeto, non linciatemi vorrei solo "ottimizzare" la spesa in base alle mie attuali necessità, ho letto le ultime 5 pagine del thread e mi sembra di capire che la 4070 piallerà tutte le attuali Ampere anche se non si sa a che prezzo.
Grazie mille e scusatemi :)
Se parliamo di inutilizzo dove non giocherai proprio, invece di vendere l'intero pc personalmente venderei solo cpu e gpu e prenderei direttamente un apu come 5600/5700G.
Lato prestazionale la 4070 sarà un chip che se la giocherà con le top GA102, e in teoria dovrebbe porsi sui 499-599$ quindi a meno di un mercato che esploda nuovamente, le precedenti 3080 10GB sicuramente subiranno una buona dose di svalutazione, già per 3080ti e 3090 avendo quantitativi di vram maggiore potrebbero mantenere più valore nell'usato, un pò come successo con la 1080ti che per via di quei 11GB sembra ancora oggi per molti oro che cola XD
Ma dipende anche quanto l'hai pagata la 3080, se sei tra i fortunati che sono riusciti a reperirla quasi a MSRP francamente me la terrei e attenderei direttamente le 5000, alla finche hai comunque un chip in grado di reggere tranquillo anche dei mattoni AAA e quelle poche volte che giocherai almeno puoi farlo con decenza, una 3060ti a 3440x1440 è abbastanza limitata soprattutto con i prossimi titoli in uscita.
bonzoxxx
03-08-2022, 09:17
Se parliamo di inutilizzo dove non giocherai proprio, invece di vendere l'intero pc personalmente venderei solo cpu e gpu e prenderei direttamente un apu come 5600/5700G.
Lato prestazionale la 4070 sarà un chip che se la giocherà con le top GA102, e in teoria dovrebbe porsi sui 499-599$ quindi a meno di un mercato che esploda nuovamente, le precedenti 3080 10GB sicuramente subiranno una buona dose di svalutazione, già per 3080ti e 3090 avendo quantitativi di vram maggiore potrebbero mantenere più valore nell'usato, un pò come successo con la 1080ti che per via di quei 11GB sembra ancora oggi per molti oro che cola XD
Ma dipende anche quanto l'hai pagata la 3080, se sei tra i fortunati che sono riusciti a reperirla quasi a MSRP francamente me la terrei e attenderei direttamente le 5000, alla finche hai comunque un chip in grado di reggere tranquillo anche dei mattoni AAA e quelle poche volte che giocherai almeno puoi farlo con decenza, una 3060ti a 3440x1440 è abbastanza limitata soprattutto con i prossimi titoli in uscita.
Grazie mille dei consigli :cincin:
Ragazzi una domanda niubba, non linciatemi.
Ho una 3080 FE, schermo 3440*1440 165hz, 5900X e 64GB, non sto giocando da mesi ormai e sono quasi deciso a vendere tutto il pc che sta più spento che acceso.
Ora, dato che sta 3080 praticamente non la sto usando stavo pensando a 2 alternative: provare a prendere una 3060ti a prezzo MSRP e andare avanti con quella per qualche anno oppure mettere sotto una scheda muletto scrausissima e aspettare lovelace e provare a prendere una 4060/4060ti/4070, di più non mi serve.
Ripeto, non linciatemi vorrei solo "ottimizzare" la spesa in base alle mie attuali necessità, ho letto le ultime 5 pagine del thread e mi sembra di capire che la 4070 piallerà tutte le attuali Ampere anche se non si sa a che prezzo.
Grazie mille e scusatemi :)
Io non venderei nulla adesso fossi in te, basta fare un giro sulla baia il 99% delle aste va invenduto con zero offerte e parliamo di 3080 a 600 euro e 3070 a 450 o addirittura 6800/6700 senza nemmeno un offerta a prezzi ben inferiori al msrp, su subito stessa solfa. Tieni tutti spento e aspetta la prossima bolla del mining per vendere tutto, sempre che non ti pressi avere liquidità. Oppure aspetta il paper launch delle 40XX e poi ti vendi la 3080 a quelli che da Pascal aspettano di aggiornare la 1070 con una XX70 allo stesso prezzo.
bonzoxxx
03-08-2022, 10:10
Io non venderei nulla adesso fossi in te, basta fare un giro sulla baia il 99% delle aste va invenduto con zero offerte e parliamo di 3080 a 600 euro e 3070 a 450 o addirittura 6800/6700 senza nemmeno un offerta a prezzi ben inferiori al msrp, su subito stessa solfa. Tieni tutti spento e aspetta la prossima bolla del mining per vendere tutto, sempre che non ti pressi avere liquidità. Oppure aspetta il paper launch delle 40XX e poi ti vendi la 3080 a quelli che da Pascal aspettano di aggiornare la 1070 con una XX70 allo stesso prezzo.
Azz, ero rimasto a qualche mese fa che andavano via come il pane...
Grazie mille
craesilo
03-08-2022, 10:52
Ragazzi una domanda niubba, non linciatemi.
Ho una 3080 FE, schermo 3440*1440 165hz, 5900X e 64GB, non sto giocando da mesi ormai e sono quasi deciso a vendere tutto il pc che sta più spento che acceso.
Ora, dato che sta 3080 praticamente non la sto usando stavo pensando a 2 alternative: provare a prendere una 3060ti a prezzo MSRP e andare avanti con quella per qualche anno oppure mettere sotto una scheda muletto scrausissima e aspettare lovelace e provare a prendere una 4060/4060ti/4070, di più non mi serve.
Ripeto, non linciatemi vorrei solo "ottimizzare" la spesa in base alle mie attuali necessità, ho letto le ultime 5 pagine del thread e mi sembra di capire che la 4070 piallerà tutte le attuali Ampere anche se non si sa a che prezzo.
Grazie mille e scusatemi :)
dalla tua estrema config sembra che caghi soldi quindi il problema più che altro è aspettare giochi che ti interessano :asd:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.