View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™
Gyammy85
22-09-2022, 09:04
ma il 3 presenteranno tutti i modelli o solo le top e le altre a gennaio?
La situazione dovrebbe essere questa
navi 32 cut 7700xt 12 gb - 4080 12 gb
navi 32 full 7800(xt) 16 gb - 4080 16 gb
navi 31 - 4090
Le medie arriveranno tutte nel corso del 2023
Ovviamente come da tradizione, le controparti amd tenderanno sempre ad insidiare la fascia immediatamente superiore nvidia
La situazione dovrebbe essere questa
navi 32 cut 7700xt 12 gb - 4080 12 gb
navi 32 full 7800(xt) 16 gb - 4080 16 gb
navi 31 - 4090
Le medie arriveranno tutte nel corso del 2023
Ovviamente come da tradizione, le controparti amd tenderanno sempre ad insidiare la fascia immediatamente superiore nvidia
ottimo grazie :D
Ale55andr0
22-09-2022, 10:00
at 599, 799 1199 :fagiano:
se andassero simili alle controparti imho quei prezzi sarebbero una smutandata potentissima a giacchetto, persino i fanboy verdi ci penserebbero seriamente
Gyammy85
22-09-2022, 10:05
at 599, 799 1199 :fagiano:
se andassero simili alle controparti imho quei prezzi sarebbero una smutandata potentissima a giacchetto, persino i fanboy verdi ci penserebbero seriamente
Tralasciando la questione dlss 3 che comunque su amd non puoi attivare, dovrebbero viaggiare sullo stesso livello in rt e più veloci in raster (fermo restando che essendoci in tutti i giochi un mix fra le due cose amd potrebbe stare sopra sempre)
AMD poi potrebbe spiazzare tutti con un upscaler in hardware ma che gira su tutti sfruttando istruzioni avanzate magari delle dx12 ultimate come fa di solito
ninja750
22-09-2022, 10:07
at 599, 799 1199 :fagiano:
se andassero simili alle controparti imho quei prezzi sarebbero una smutandata potentissima a giacchetto, persino i fanboy verdi ci penserebbero seriamente
hanno talmente margine che possono pure prezzarla a 1399 volendo, ma senza DLSS 3.0 quale pazzo comprerà la 7900XT? e poi, chi compra nvidia, comprerà sempre nvidia
per la fascia sotto se non fanno mosse marketing tafazzistiche hanno teoricamente strada spianata
Gyammy85
22-09-2022, 10:11
Ti dico io come andrà verosimilmente:
In RT staranno sotto, il prezzo sarà simile alla controparte e non presenteranno nessun FSR 3 o menate simili :asd:
Se poi volete anche i numeri del lotto vi giro l'iban in privato :sofico:
Le solite fonti dicono che asfalta ampere in rt e va pari con lovelace, star sotto magari in qualche titolo ma certo non andrà la metà
FSR3 è altamente probabile
Ale55andr0
22-09-2022, 10:14
Tralasciando la questione dlss 3 che comunque su amd non puoi attivare, dovrebbero viaggiare sullo stesso livello in rt e più veloci in raster (fermo restando che essendoci in tutti i giochi un mix fra le due cose amd potrebbe stare sopra sempre)
AMD poi potrebbe spiazzare tutti con un upscaler in hardware ma che gira su tutti sfruttando istruzioni avanzate magari delle dx12 ultimate come fa di solito
il DLSS e l'FSR per me sono prese in giro, e lo dico da possessore di 3070: NULLA è meglio della nativa, chi dice il contrario per me o è chiaramente ipovedente o accecato...dal tifo. Quindi sicuro non giudicherò ne l'una ne l'altra per questi trucchetti. Fino a ieri l'upscale era per i consolari, ora si inneggia ai pixel inventati o addirittura interi frame. No, grazie.
Ale55andr0
22-09-2022, 10:18
hanno talmente margine che possono pure prezzarla a 1399 volendo, ma senza DLSS 3.0 quale pazzo comprerà la 7900XT? e poi, chi compra nvidia, comprerà sempre nvidia
per la fascia sotto se non fanno mosse marketing tafazzistiche hanno teoricamente strada spianata
di la chi compra invidia, a parte i più inscimmiati e che possono (ottimo per loro, sana i-nvidia :D) i più stan dicendo che i prezzi sono folli e che la 407...80 12gb @1100 sesterzi è una vera e propria presa in giro...(e lo è)
Ti dico io come andrà verosimilmente:
In RT staranno sotto, il prezzo sarà simile alla controparte e non presenteranno nessun FSR 3 o menate simili :asd:
Se poi volete anche i numeri del lotto vi giro l'iban in privato :sofico:
Ti piace vincere facile? :D Non è quello il punto, il punto è quanto sotto...se -10% è un conto, se -50% n'altro....
l'FSR 3 cmq mi pare sia sicuro
Windtears
22-09-2022, 10:21
di la chi compra invidia, a parte i più inscimmiati e che possono (ottimo per loro, sana i-nvidia :D) i più stan dicendo che i prezzi sono folli e che la 407...80 12gb @1100 sesterzi è una vera e propria presa in giro...(e lo è)
Ti piace vincere facile? :D Non è quello il punto, il punto è quanto sotto...se -10% è un conto, se -50% n'altro....
ma di là sono ancora per quanto inscimmiati e afecionafos nvidia persone che un minimo si informano, se vai su everyeye sono convinti che amd abbia ancora driver dei tempi della radeon ve (e io l'ho avuta. :asd:) e che non abbia rt perché si chiama rtx. Poi però usano monitor freesync e fsr e dicono che è roba nvidia compatible. :P
Ale55andr0
22-09-2022, 10:25
ma di là sono ancora per quanto inscimmiati e afecionafos nvidia persone che un minimo si informano, se vai su everyeye sono convinti che amd abbia ancora driver dei tempi della radeon ve (e io l'ho avuta. :asd:) e che non abbia rt perché si chiama rtx. Poi però usano monitor freesync e fsr e dicono che è roba nvidia compatible. :P
quanti utenti fa everyeye e quanti hwugrade? (..)
Gyammy85
22-09-2022, 10:29
Se asfalta ampere (che termine del c***o scusami :asd: ) e bla bla bla i prezzi saranno come la controparte, euro + euro -.
FSR3 è altamente probabile perché scusa? Non si era menzionato nulla fino all'annuncio nvidia sul dlss3. Mi sembrano rumor buttati li tanto per.
https://www.youtube.com/watch?v=u07OVq3x0dc&t=806s
Dal minuto 11, "crash ampere rt perfromance and tie with lovelace", pià o meno ho capito così...fsr3 è una mia ipotesi, non l'ha detto nessuno
Gyammy85
22-09-2022, 10:31
il DLSS e l'FSR per me sono prese in giro, e lo dico da possessore di 3070: NULLA è meglio della nativa, chi dice il contrario per me o è chiaramente ipovedente o accecato...dal tifo. Quindi sicuro non giudicherò ne l'una ne l'altra per questi trucchetti. Fino a ieri l'upscale era per i consolari, ora si inneggia ai pixel inventati o addirittura interi frame. No, grazie.
Perfettamente d'accordo con te, lo si usa nel caso in cui non vuoi avere drop con rt attivo alla fine
ninja750
22-09-2022, 10:34
di la chi compra invidia, a parte i più inscimmiati e che possono (ottimo per loro, sana i-nvidia :D) i più stan dicendo che i prezzi sono folli e che la 407...80 12gb @1100 sesterzi è una vera e propria presa in giro...(e lo è)
si, dicono che i prezzi sono folli e comprano lo stesso, o al massimo saltano questa gen e prendono dopo
Windtears
22-09-2022, 10:42
quanti utenti fa everyeye e quanti hwugrade? (..)
molti di più su everyeye, se ci aggiungi anche multiplayer e "testate" di quel tipo e metti la mazzata finale dei pezzottati come tomshw capisci dove si va a parare...
FrancoBit
22-09-2022, 10:47
La sezione commenti di tomshw è piena di troll e pr sotto mentite spoglie.
Non so perché non li chiudono i commenti. Sono inutili.
Io dopo quasi 20anni l'ho tolto dai bookmark un anno e passa fa, è diventato una chiavica, una volta era anche interessante...
Io dopo quasi 20anni l'ho tolto dai bookmark un anno e passa fa, è diventato una chiavica, una volta era anche interessante...
La struttura e i contenuti di tutto il sito girano attorno alle marchette, non ci siamo proprio
narniagreen
22-09-2022, 12:30
il DLSS e l'FSR per me sono prese in giro, e lo dico da possessore di 3070: NULLA è meglio della nativa, chi dice il contrario per me o è chiaramente ipovedente o accecato...dal tifo. Quindi sicuro non giudicherò ne l'una ne l'altra per questi trucchetti. Fino a ieri l'upscale era per i consolari, ora si inneggia ai pixel inventati o addirittura interi frame. No, grazie.
Bravo non mollare, masterracer vero, non fare come i maschi di oggi che si mettono lo smalto e ricordiamolo l'uomo deve puzzare :D
narniagreen
22-09-2022, 12:32
Le solite fonti dicono che asfalta ampere in rt e va pari con lovelace, star sotto magari in qualche titolo ma certo non andrà la metà
FSR3 è altamente probabile
RDNA3 asfalterà Lovelace in Raster, ma starà abbastanza dietro in RT, soprattutto vs DLSS3 quando attivo.
Almeno lato marketing bisogna sperare sia così da farle pagare un prezzo più accettabile, perchè pure 3dCenter si è messa a perculare Nvidia su twitter! :sofico:
https://twitter.com/3DCenter_org/status/1572584944492490753
Correggetemi se sbaglio, ma quindi questo DLSS 3 sarebbe una specie di motion plus che samsung ha implementato da oltre 10 anni, noto come effetto soap opera, ovvero invenzione di un "intraframe" tra 2 frame reali?
Per come tira l'aria spero solo che una 7600 costi non più di 300€ e tiri più o meno tra una 6700 una 6700xt senza avere paura che mi salti la corrente se accendo il forno.
In questo modo ci si garantisce il supporto pari all'attuale generazione di console senza patemi.
Così non fosse si passa ad una xbox series + game pass
Poi sicuramente AMD ha un mese abbondante per pensare a qualcosa a livello marketing che faccia rumore quanto il DLSS, sperando non sia aerofagia....
Predator_1982
22-09-2022, 13:15
a questo giro spero proprio che AMD tiri fuori dal cilindro un prodotto competitivo anche in RT e più efficiente in consumi e ad un prezzo più competitivo, se è cosi anche se fosse meno prestante in RT avrà la mia grana.
Oirasor_84
22-09-2022, 13:27
a questo giro spero proprio che AMD tiri fuori dal cilindro un prodotto competitivo anche in RT e più efficiente in consumi e ad un prezzo più competitivo, se è cosi anche se fosse meno prestante in RT avrà la mia grana.Ma amd è gia più efficiente lato consumi.
Inviato dal mio Pixel 4a utilizzando Tapatalk
Therinai
22-09-2022, 13:29
Correggetemi se sbaglio, ma quindi questo DLSS 3 sarebbe una specie di motion plus che samsung ha implementato da oltre 10 anni, noto come effetto soap opera, ovvero invenzione di un "intraframe" tra 2 frame reali?
Esattamente! Stando alcuni insider la combo motion plus + DLSS3 ti fa vedere doppio :blah:
bagnino89
22-09-2022, 13:42
Correggetemi se sbaglio, ma quindi questo DLSS 3 sarebbe una specie di motion plus che samsung ha implementato da oltre 10 anni, noto come effetto soap opera, ovvero invenzione di un "intraframe" tra 2 frame reali?
D'accordo che Giacchetta ha esagerato a questo giro, però c'è un limite a tutto :asd:
Predator_1982
22-09-2022, 14:00
Ma amd è gia più efficiente lato consumi.
Inviato dal mio Pixel 4a utilizzando Tapatalk
si ma a fronte di prestazioni in RT un po' penose. Intendevo dire, maggiore efficienza a fronte di un incremento significativo delle stesse. In raster già ha dimostrato di cavarsela ugualmente bene, se non meglio.
fraussantin
22-09-2022, 14:18
Correggetemi se sbaglio, ma quindi questo DLSS 3 sarebbe una specie di motion plus che samsung ha implementato da oltre 10 anni, noto come effetto soap opera, ovvero invenzione di un "intraframe" tra 2 frame reali?
Si ma dovrebbe calcolarli in maniera precisa.
Poi quanto possa essere migliore , specialmente su una base di 60 fps già nativi non saprei.
Dobbiamo aspettare i test.
Ma son quasi sicuro che lisa finita la conferenza ha buttato giù dal letto tutti i suoi ingnegneri e li ha massi al lavoro per trovare una pezza simile da usare senza tensor core.
Secondo me se amd pareggia ampere in rt , e mantiene i prezzi nella decenza ha buone possibilità di riavermi per cliente.
Diversamente mi tengo tutto quello che ho finche va e poi mi piglio una console.
I soldi non mi mancano , ma 2000 euro per una gpu sono una presa per il culo
ninja750
22-09-2022, 14:19
Correggetemi se sbaglio, ma quindi questo DLSS 3 sarebbe una specie di motion plus che samsung ha implementato da oltre 10 anni, noto come effetto soap opera, ovvero invenzione di un "intraframe" tra 2 frame reali?
ovviamente no
per me è una genialata, non si può dare atto che ogni tanto sfornino idee davvero interessanti, amd anche su questo dorà in qualche modo cercare di metterci pezze
bisogna però toccare con mano per vedere come funziona, se non introduce lag ecc
ninja750
22-09-2022, 15:18
https://www.techpowerup.com/299148/amd-cuts-msrps-of-radeon-rx-6000-series-graphics-cards
taglio di prezzi per le RX6000
RX6950XT 949$
RX6900XT 699$
RX6800XT 599$
RX6800 549$
RX6750XT 419$
RX6700XT 379$
RX6650XT 299$
RX6600XT 239$
RX6500XT 169$
RX6400XT 149$
https://www.techpowerup.com/299148/amd-cuts-msrps-of-radeon-rx-6000-series-graphics-cards
taglio di prezzi per le RX6000
RX6950XT 949$
RX6900XT 699$
RX6800XT 599$
RX6800 549$
RX6750XT 419$
RX6700XT 379$
RX6650XT 299$
RX6600XT 239$
RX6500XT 169$
RX6400XT 149$
Uhm bon resta da aspettare il 3 nov
zanflank
22-09-2022, 15:41
https://www.techpowerup.com/299148/amd-cuts-msrps-of-radeon-rx-6000-series-graphics-cards
taglio di prezzi per le RX6000
RX6950XT 949$
RX6900XT 699$
RX6800XT 599$
RX6800 549$
RX6750XT 419$
RX6700XT 379$
RX6650XT 299$
RX6600XT 239$
RX6500XT 169$
RX6400XT 149$
Per quel che mi riguarda, e per quanto l'ho potuta provare, la 6700XT a quel prezzo è fantastica
ninja750
22-09-2022, 15:43
6900 e 6700 penso le abbiano prezzate così perchè saranno soltanto più fondi di magazzino visto che sono state sostituite da 6950 6750
non male cmq
Per quel che mi riguarda, e per quanto l'ho potuta provare, la 6700XT a quel prezzo è fantastica
a parte le versioni segate con il pci 3
son tutte ottime schede, ma pochi se le inculano... questi preferiscono una 3070 8gb in:ciapet: ediscion :asd:
a parte le versioni segate con il pci 3
son tutte ottime schede, ma pochi se le inculano... questi preferiscono una 3070 8gb in:ciapet: ediscion :asd:
in che senso, se ho una mother board pci express 3 perdo perfomance?
StylezZz`
22-09-2022, 18:38
Ottimi prezzi, ma chissà quando li vedremo in Italia.
mircocatta
22-09-2022, 18:47
Ottimi prezzi, ma chissà quando li vedremo in Italia.
???
su amazon c'è la XFX 6950 XT a 899€, ma anche tutte le altre hanno droppato i prezzi
Ottimi prezzi, ma la 7800xt allora sarà a 1000€ e passa 100%, nvidia style
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
Ma amd è gia più efficiente lato consumi.
Inviato dal mio Pixel 4a utilizzando Tapatalk
E anche lato performance, specie nella fascia mainstream.
Comunque, a onor di cronaca, la 6800 ha un rapporto performance/watt del 30% e passa superiore a Nvidia.
StylezZz`
22-09-2022, 20:00
???
su amazon c'è la XFX 6950 XT a 899€, ma anche tutte le altre hanno droppato i prezzi
Giusta quella, le altre le vedo ancora mediamente più alte rispetto i prezzi in america, ma c'è anche il cambio euro/dollaro da considerare.
sniperspa
22-09-2022, 20:32
https://www.techpowerup.com/299148/amd-cuts-msrps-of-radeon-rx-6000-series-graphics-cards
taglio di prezzi per le RX6000
RX6950XT 949$
RX6900XT 699$
RX6800XT 599$
RX6800 549$
RX6750XT 419$
RX6700XT 379$
RX6650XT 299$
RX6600XT 239$
RX6500XT 169$
RX6400XT 149$
Si ma se le 900 800 e 700 non le producono più voglio vedere dove si possono prendere a quei prezzi :\
Ale55andr0
22-09-2022, 22:22
hanno talmente margine che possono pure prezzarla a 1399 volendo, ma senza DLSS 3.0 quale pazzo comprerà la 7900XT? e poi, chi compra nvidia, comprerà sempre nvidia
per la fascia sotto se non fanno mosse marketing tafazzistiche hanno teoricamente strada spianata
all'inizio pensavo anche io, ma ora ne sto davvero leggendo troppe di sfuriate di utenti incazzati, e non parlo dell'Italia...
Ale55andr0
22-09-2022, 22:27
I soldi non mi mancano , ma 2000 euro per una gpu sono una presa per il culo
anche 1100 per una 70 lo sono :D
mikael84
22-09-2022, 22:44
Si ma dovrebbe calcolarli in maniera precisa.
Poi quanto possa essere migliore , specialmente su una base di 60 fps già nativi non saprei.
Dobbiamo aspettare i test.
Ma son quasi sicuro che lisa finita la conferenza ha buttato giù dal letto tutti i suoi ingnegneri e li ha massi al lavoro per trovare una pezza simile da usare senza tensor core.
Secondo me se amd pareggia ampere in rt , e mantiene i prezzi nella decenza ha buone possibilità di riavermi per cliente.
Diversamente mi tengo tutto quello che ho finche va e poi mi piglio una console.
I soldi non mi mancano , ma 2000 euro per una gpu sono una presa per il culo
si ma a fronte di prestazioni in RT un po' penose. Intendevo dire, maggiore efficienza a fronte di un incremento significativo delle stesse. In raster già ha dimostrato di cavarsela ugualmente bene, se non meglio.
Lato raster, a me sembrano devastanti, poi ci sarà il cavillo strano, spec non veritiere, clockano male malgrado i rumors, non scalano bene.
Ma se lo scarto di navi 32, si presume abbia 6144 shader, sparato sopra i 3ghz, dovrebbe stare ben al di sopra della 6950xt che in raster spesso va come la TI, e di conseguenza la 4060, scusate la 4080 12 inganno edition.
Die da 200 a 5nm e cache a 6nm, quindi spesa davvero contenuta.
Lato RT ci metteranno una pezza.
Secondo alcuni rumors il 3 novembre sarà la data di annuncio di RDNA3 ma con disponibilità delle schede 3 settimane dopo
Andy1111
23-09-2022, 09:05
https://i.postimg.cc/jSbsmrtX/Fd-Tq-Py-NWQAE6ji-O.jpg
Sembra che la soluzione al DLSS 3 ci sia già
https://twitter.com/AMDGPU_/status/1573139732271403008
fraussantin
23-09-2022, 09:08
https://i.postimg.cc/jSbsmrtX/Fd-Tq-Py-NWQAE6ji-O.jpg
Sembra che la soluzione al DLSS 3 ci sia già
https://twitter.com/AMDGPU_/status/1573139732271403008Ottimo !
Aspettiamo il 3 . Sono ottimista per le schede.
L'avevo detto che lisa ha buttato giù dal letto gli ingegneri all'istante :asd:
Gyammy85
23-09-2022, 09:18
Lato raster, a me sembrano devastanti, poi ci sarà il cavillo strano, spec non veritiere, clockano male malgrado i rumors, non scalano bene.
Ma se lo scarto di navi 32, si presume abbia 6144 shader, sparato sopra i 3ghz, dovrebbe stare ben al di sopra della 6950xt che in raster spesso va come la TI, e di conseguenza la 4060, scusate la 4080 12 inganno edition.
Die da 200 a 5nm e cache a 6nm, quindi spesa davvero contenuta.
Lato RT ci metteranno una pezza.
Hanno messo mano ai wgp penso proprio per rt, con le simd raddoppiate credo che l'efficienza salga molto, se poi fanno stadi in hardware rt è bello che fixato, lovelace alla fine della fiera fa +60% su ampere, e i rumor dicono che rdna3 sta ben sopra ampere con rt e simile a lovelace
https://i.postimg.cc/jSbsmrtX/Fd-Tq-Py-NWQAE6ji-O.jpg
Sembra che la soluzione al DLSS 3 ci sia già
https://twitter.com/AMDGPU_/status/1573139732271403008
Probabilmente è li da un anno la soluzione
Andy1111
23-09-2022, 09:19
Altri rumor da prendere con le pinze :
RDNA3 prediction:
7900XT $1,100
7800XT $750
2.1x gen to gen raster performance
390W
Do you understand whats about to happen?
RDNA3 = 1/2 die size of RTX40 on a less expensive node.
Even with the N6 MCDs, RDNA3 could 2x perf at 60% the $ of RTX
RDNA3:
- 308 mm² on N5
- >50% performance/Watt
vs
RTX40:
- 608mm² on N4
- >30% performance/Watt
RoUge.boh
23-09-2022, 09:20
Ottimo !
Aspettiamo il 3 . Sono ottimista per le schede.
L'avevo detto che lisa ha buttato giù dal letto gli ingegneri all'istante :asd:
Detto siceramente....la chiave di volta, a questo giro, è il prezzo... come i consumi... non posso tenere un fornetto da 400W in camera a parte i consumi ma in estate?:banned:
Come, veramente, trovo NO SENSE non lanciare una reference direttante con un waterblock, mettono 1 kg di metallo (che costa) metti direttamente allo stesso prezzo (e ci guadagni per me) un bel waterblock... scheda 4 slot sono veramente orribili...
Altri rumor da prendere con le pinze :
RDNA3 prediction:
7800XT $750
se fosse cosi sarebbe la mia scheda...
Andy1111
23-09-2022, 09:25
Detto siceramente....la chiave di volta, a questo giro, è il prezzo... come i consumi... non posso tenere un fornetto da 400W in camera a parte i consumi ma in estate?:banned:
Come, veramente, trovo NO SENSE non lanciare una reference direttante con un waterblock, mettono 1 kg di metallo (che costa) metti direttamente allo stesso prezzo (e ci guadagni per me) un bel waterblock... scheda 4 slot sono veramente orribili...
se fosse cosi sarebbe la mia scheda...
non ti aspettare 750€ per la 7800 XT , al netto di cambio dogana e iva 1000€ circa
Gyammy85
23-09-2022, 09:26
Altri rumor da prendere con le pinze :
RDNA3 prediction:
7900XT $1,100
7800XT $750
2.1x gen to gen raster performance
390W
Do you understand whats about to happen?
RDNA3 = 1/2 die size of RTX40 on a less expensive node.
Even with the N6 MCDs, RDNA3 could 2x perf at 60% the $ of RTX
RDNA3:
- 308 mm² on N5
- >50% performance/Watt
vs
RTX40:
- 608mm² on N4
- >30% performance/Watt
La 7900xt verrebbe la metà della 4090 in pratica
Potrebbero anche stupire tutti e mettere un chiplet solo per rt :sofico:
Andy1111
23-09-2022, 09:27
La 7900xt verrebbe la metà della 4090 in pratica
Potrebbero anche stupire tutti e mettere un chiplet solo per rt :sofico:
Avevo sentito qualche rumor a riguardo ma non ci credo molto
narniagreen
23-09-2022, 09:29
Lato raster, a me sembrano devastanti, poi ci sarà il cavillo strano, spec non veritiere, clockano male malgrado i rumors, non scalano bene.
Ma se lo scarto di navi 32, si presume abbia 6144 shader, sparato sopra i 3ghz, dovrebbe stare ben al di sopra della 6950xt che in raster spesso va come la TI, e di conseguenza la 4060, scusate la 4080 12 inganno edition.
Die da 200 a 5nm e cache a 6nm, quindi spesa davvero contenuta.
Lato RT ci metteranno una pezza.
La prima riga sembra un rosik, te lo posso dire?
Sul resto, si parla di bios bloccato a 3.7ghz, i 3.4~3.5 li prenderanno in boost di sicuro, le 6000 erano bloccate a 2.9 e prendevano i 2.6~2.7.
Certo, per alcuni si dovrà valutare la parte RT/FSR, ultimo leak dice già che è in risposta il FRA~Dlss3, ma era lecito aspettarsi che facessero qualcosa in 2 anni, e fisicamente cosa ci abbiamo ficcato dentro per farlo.
Per il livello attuale anche avessero solo battuto Ampere in quell'aspetto e applicando dei prezzi più onesti anche solo gioco forza di aver usato MCM e i 5nm non studiati ad hoc per loro, sarebbe un big win, perchè in raster saranno devastanti, resterà da vedere la disponibilità e i prezzi street, il vero problema 2021.
RoUge.boh
23-09-2022, 09:30
non ti aspettare 750€ per la 7800 XT , al netto di cambio dogana e iva 1000€ circa
cappero è vero era 750+iva..
narniagreen
23-09-2022, 09:33
La 7900xt verrebbe la metà della 4090 in pratica
Potrebbero anche stupire tutti e mettere un chiplet solo per rt :sofico:
in latenze sarebbe un casino.
narniagreen
23-09-2022, 09:53
Tutto bello meno i 1000 euro della 7800xt.
Spero che la reference sul sito amd si trovi a non più di 900 euro sincermanete (7800xt).
La 7900xt nemmeno la prendo in considerazione perché costerà come la 4080 da 16 secondo me.
Con la sottile differenza che supera la 4090 in Raster, o di sicuro la pareggia, +2x dalle 6000.
https://www.hwupgrade.it/articoli/6303/media_6950xt.png
tra una 6800xt e una 3090ti ci passa il 20~25%, Nvidia dichiara +60% tra 4090 e 3090ti in Raster.
la partita è su RT, SS e prezzi.
Gyammy85
23-09-2022, 09:57
in latenze sarebbe un casino.
Si deve vedere come funzionano le cache, su rdna2 e ryzen i collegamenti infinity fabric interni viaggiano a velocità molto elevate
Tutto bello meno i 1000 euro della 7800xt.
Spero che la reference sul sito amd si trovi a non più di 900 euro sincermanete (7800xt).
La 7900xt nemmeno la prendo in considerazione perché costerà come la 4080 da 16 secondo me.
Loro dovrebbero avere due chip navi 32, si deve vedere quanto in là si spingono per insidiare le fasce superiori, navi 31 non si sa, ma non credo commetteranno l'errore di avere 3 sku sul chip più grosso e solo una sul mid high come per rdna2
ninja750
23-09-2022, 09:58
Tutto bello meno i 1000 euro della 7800xt.
Spero che la reference sul sito amd si trovi a non più di 900 euro sincermanete (7800xt).
La 7900xt nemmeno la prendo in considerazione perché costerà come la 4080 da 16 secondo me.
sicuro sarà 1000$, non di più per via del dlss
la 7900 costerà uguale perchè pur non avendo dlss sarà facilmente sopra in raster
per me tutta questa gen, bella, ma incomprabile, troppo caro
a sto punto temo che pure la 7700XT andrà over 700
narniagreen
23-09-2022, 10:03
Eh lo so ma io psicologicamente i 1000 euro non voglio proprio vederli :sofico:
eh lo so, hai ragione, facevo solo il parallelo con la controparte.
Io mesi fa speravo in una 7700XT a 500€, ma dopo l'altro ieri ho capito che sarà impossibile, al massimo una 7600XT...
Probabile che skippo di nuovo, più di 500€ non li spendo per una VGA, e che li valga pure un minimo.
Cioè in linea teorica, la sostituta della Vega56 sarebbe proprio la 7800XT, ma 1000€ non li spendo manco per idea.
la 7600 liscia sui 300/320 è una speranza vana?
Questa nuove 7000 ( e attuali rx 6000) che sono su interfaccia pci express 4.0 perdono molto su una scheda madre B450 con protocollo pci express 3.00?
Scrivevo e riflettevo in un altro thread su quanto sia deludente e bassa l'evoluzione del mercato gpu negli ultimi anni.
Ad ottobre 2013 si acquistava una AMD RX 290 (Hawaii) a 330 euro circa.
Ad ottobre 2022 (nove anni dopo, un eternita' in campo informatico), si compra allo stesso prezzo una RX 6600.
Una GPU che va dal 35 al 70% piu veloce. Nove anni per un 55 % medio in piu?
Tanto per farvi capire quanto sia bassa e deprimente l'evoluzione delle gpu gaming nell'ultimo decennio: una 290 andava l'80% piu veloce di una 7870 lanciata nemmeno due anni prima e il 50/55% di una 7950.
La cosa interessante? Sia la serie 7000 che quella 200 erano tutte gpu sullo stesso processo a 28nm.
A quanto pare una volta era possibile evolvere le gpu in prestazioni, anche di molto, sullo stesso nodo. Del resto anche Nvidia l'ha fatto tra Kepler e Maxwell, salto prestazionale e di efficienza enorme, sullo stesso nodo.
Ma oggi?
Oggi passano quasi 10 anni e vai GPU che non ti cambiano la vita da quella che avevi comprato nel 2013, soprattutto in fascia mainstream.
Se non e' deprimente questo mercato delle GPU che mi sembra quello delle CPU pre-ryzen e pre-m1, non lo so io cosa.
Penso proprio che Navi 31, con 12288 sp, si metterà la 4090 sulle ginocchia e gli darà tante ma tante sculacciate, se pensiamo, almeno in raster, cosa fa una 6900 con 5120 sp..
Non so ma mi sa che il vento sta per cambiare lato GPU.
RoUge.boh
23-09-2022, 10:57
Io sono sicero avendo la 6800 (e mi trovo benissimo) volevo passare alla nuova generazione per sfizio non per necessitò per avere una 7800 (o ritornare alle verdi ma vedendo i prezzi FOLLI col cavolo che ci torno).
Ma se devo sborsare il doppio di quanto vendo la 6800 non so se sto facendo una cosa buona..:fagiano:
Penso proprio che Navi 31, con 12288 sp, si metterà la 4090 sulle ginocchia e gli darà tante ma tante sculacciate, se pensiamo, almeno in raster, cosa fa una 6900 con 5120 sp..
Non so ma mi sa che il vento sta per cambiare lato GPU.
Per quello che io so:
Nvidia è utile per i content creator (NVENC) oppure in produttivitò Adobe cosa che invece AMD è carente
Nvidia ha fatto una pubblicità molto aggresiva con "for the gamers" ma poi adesso ha buttato schede che nessun/pochissimi "gamers" possono permetterselo. quando poi hai i magazzini pieni di 3x00, siamo sinceri che è la scelta giusta?
Senza contare il prezzo dell'elettricità aumentata a livello globale e metti schede degne di consumare quanto un tostapane...
narniagreen
23-09-2022, 11:00
Scrivevo e riflettevo in un altro thread su quanto sia deludente e bassa l'evoluzione del mercato gpu negli ultimi anni.
Ad ottobre 2013 si acquistava una AMD RX 290 (Hawaii) a 330 euro circa.
Ad ottobre 2022 (nove anni dopo, un eternita' in campo informatico), si compra allo stesso prezzo una RX 6600.
Una GPU che va dal 35 al 70% piu veloce. Nove anni per un 55 % medio in piu?
...cut
% a parte che sono un po' al ribasso perchè la 6600 doppia mediamente la 290, come discorso generale si hai ragione, 2x in 8 anni a pari prezzo fa ridere.
OvErClOck82
23-09-2022, 11:02
Penso proprio che Navi 31, con 12288 sp, si metterà la 4090 sulle ginocchia e gli darà tante ma tante sculacciate, se pensiamo, almeno in raster, cosa fa una 6900 con 5120 sp..
Non so ma mi sa che il vento sta per cambiare lato GPU.
"purtroppo" il brand nVidia ha un forte impatto sul consumatore medio, dubito che ciò cambierà a breve, sicuramente non con la prossima generazione di gpu.
basta vedere le immani porcate commerciali che ha fatto negli anni a partire dai famosi 3,5 gb della 970 :fagiano:
poi ovviamente se decideranno di fare cartello sui prezzi significa che a loro sta bene così. E, di riflesso, per me staranno benissimo nei magazzini le loro schede :asd:
"purtroppo" il brand nVidia ha un forte impatto sul consumatore medio, dubito che ciò cambierà a breve, sicuramente non con la prossima generazione di gpu.
basta vedere le immani porcate commerciali che ha fatto negli anni a partire dai famosi 3,5 gb della 970 :fagiano:
poi ovviamente se decideranno di fare cartello sui prezzi significa che a loro sta bene così. E, di riflesso, per me staranno benissimo nei magazzini le loro schede :asd:
Si è innegabile, nVidia ha un peso enorme e lo fa sentire ovunque.
Ma più che altro parlavo di lato prestazionale, credo che AMD possa davvero raggiungere lo scettro prestazionale.
OvErClOck82
23-09-2022, 11:10
Si è innegabile, nVidia ha un peso enorme e lo fa sentire ovunque.
Ma più che altro parlavo di lato prestazionale, credo che AMD possa davvero raggiungere lo scettro prestazionale.
si, su quello sono d'accordo, al netto di robe inutili come fsr, dlss, RT e algoritmi vari che inevitabilmente sposteranno il confronto su quel campo.
(inutili per me, ovviamente, ma il mercato va così :stordita: )
RoUge.boh
23-09-2022, 11:43
si, su quello sono d'accordo, al netto di robe inutili come fsr, dlss, RT e algoritmi vari che inevitabilmente sposteranno il confronto su quel campo.
(inutili per me, ovviamente, ma il mercato va così :stordita: )
Dovrebbero dare più visibilità ai competitor game, streaming ecc.. dove NVIDIA ha terra facile...
Tanto per dirne una il 100% dei pro player di Valorant usa schede NVIDIA, tutti (gli appassionati che seguono Valorant) pensando beh allora devo prendere una 4x00... -> "papà/mamma per natale vorrei una scheda video nuova una NVIDIA per favore non l'ATI"
e la stessa cosa di quando compri qualcosa perché "c'è l'hanno tutti"
Noi siamo una nicchia di appassionati, ma lo sbarbato di turno, che può permetterselo, copia segue le mode che dicono NVIDIA "for the gamers"..
Quanti anni ci sono voluti per scollare la supremazia di intel? (rendendo adesso, mio pensiero, la nuova piattaforma AM5 senza senso...) eppure quando proponevo configurazione 2X000 a chi mi chiedeva la configurazione nuova tutti voleva intel e se chiedevi ti rispondevano (ah boh mi sono trovato sempre bene...)
Gyammy85
23-09-2022, 11:49
Dovrebbero dare più visibilità ai competitor game, streaming ecc.. dove NVIDIA ha terra facile...
Tanto per dirne una il 100% dei pro player di Valorant usa schede NVIDIA, tutti (gli appassionati che seguono Valorant) pensando beh allora devo prendere una 4x00... -> "papà/mamma per natale vorrei una scheda video nuova una NVIDIA per favore non l'ATI"
e la stessa cosa di quando compri qualcosa perché "c'è l'hanno tutti"
Noi siamo una nicchia di appassionati, ma lo sbarbato di turno, che può permetterselo, copia segue le mode che dicono NVIDIA "for the gamers"..
Quanti anni ci sono voluti per scollare la supremazia di intel? (rendendo adesso, mio pensiero, la nuova piattaforma AM5 senza senso...) eppure quando proponevo configurazione 2X000 a chi mi chiedeva la configurazione nuova tutti voleva intel e se chiedevi ti rispondevano (ah boh mi sono trovato sempre bene...)
Eh vabbè tutti i team hanno i pc con scritto nvidia sopra, ma pure amd ha i suoi, non è quello il problema, la questione sono gli youtuber che hanno sempre la x80 di turno recapitata più volte (postazione gaming e postazione streaming come minimo, poi ci mettiamo la postazione editing e quella per vedere la chat), tutti pc uguali e se parli con loro "boh mi hanno detto che è più grossa", tipo all'epoca delle titan dicevano "beh avevamo la titan la ma la ti va più forte è più da gaming"
Quando il professionista ne sa meno del nabbo si raggiunge l'ottimo dal punto di vista marketing
carloUba
23-09-2022, 12:28
È tutto un complotto!
mikael84
23-09-2022, 12:36
Hanno messo mano ai wgp penso proprio per rt, con le simd raddoppiate credo che l'efficienza salga molto, se poi fanno stadi in hardware rt è bello che fixato, lovelace alla fine della fiera fa +60% su ampere, e i rumor dicono che rdna3 sta ben sopra ampere con rt e simile a lovelace
Probabilmente è li da un anno la soluzione
A livello raster veramente mi sembrano molto qualitative.
Per dire navi32 potrebbe fare 2x flops la 690/50xt, che tradotto 2x flops è tra 6700 vs 6950, tralasciando il bus. 2x flops spesso si traduce in 50-60% effettivi.
Parlo di navi32, navi 31 sarà ancora una spanna sopra.
Per RT, sicuramente le unità saranno migliorate, con RDNA2, avevamo i numeri xbox, qua ancora non abbiamo un metro di paragone.
Volendo, si potrebbero mettere le matrici 4xfp16, sanno come farlo.
Altri rumor da prendere con le pinze :
RDNA3 prediction:
7900XT $1,100
7800XT $750
2.1x gen to gen raster performance
390W
Do you understand whats about to happen?
RDNA3 = 1/2 die size of RTX40 on a less expensive node.
Even with the N6 MCDs, RDNA3 could 2x perf at 60% the $ of RTX
RDNA3:
- 308 mm² on N5
- >50% performance/Watt
vs
RTX40:
- 608mm² on N4
- >30% performance/Watt
I costi sono minori, quasi la metà è fatta con i 6nm (1,81 in meno a wafer), ed è la parte più complessa.
La prima riga sembra un rosik, te lo posso dire?
Sul resto, si parla di bios bloccato a 3.7ghz, i 3.4~3.5 li prenderanno in boost di sicuro, le 6000 erano bloccate a 2.9 e prendevano i 2.6~2.7.
Certo, per alcuni si dovrà valutare la parte RT/FSR, ultimo leak dice già che è in risposta il FRA~Dlss3, ma era lecito aspettarsi che facessero qualcosa in 2 anni, e fisicamente cosa ci abbiamo ficcato dentro per farlo.
Per il livello attuale anche avessero solo battuto Ampere in quell'aspetto e applicando dei prezzi più onesti anche solo gioco forza di aver usato MCM e i 5nm non studiati ad hoc per loro, sarebbe un big win, perchè in raster saranno devastanti, resterà da vedere la disponibilità e i prezzi street, il vero problema 2021.
Sai perchè ho scritto quella riga? In quanto deve veramente succedere il finimondo microarchitetturale perchè queste GPU non siano veramente belle GPU.
Di dare soldi a JHH non mi va, quindi spero che Lisa faccia le cose per bene, ed i numeri che abbiamo sono validi.
Nel mio esempio, già il cut previsto di navi32, con 6144 shader oltre i 3ghz (2,9 vengono già presi ora con il 6) sarà un possibile best, nella fascia, speriamo media, sapendo che la 6950xt sta nei pressi della TI in raster, con 5120 shader e 2,5 medi.
Sulle matrici, AMD sa già come fare volendo, basta implementarle. Il problema è che potresti oscurare le HPC.
https://i.postimg.cc/x8nGPc4n/cdna.png
Gyammy85
23-09-2022, 12:40
A livello raster veramente mi sembrano molto qualitative.
Per dire navi32 potrebbe fare 2x flops la 690/50xt, che tradotto 2x flops è tra 6700 vs 6950, tralasciando il bus. 2x flops spesso si traduce in 50-60% effettivi.
Parlo di navi32, navi 31 sarà ancora una spanna sopra.
Per RT, sicuramente le unità saranno migliorate, con RDNA2, avevamo i numeri xbox, qua ancora non abbiamo un metro di paragone.
Volendo, si potrebbero mettere le matrici 4xfp16, sanno come farlo.
I costi sono minori, quasi la metà è fatta con i 6nm (1,81 in meno a wafer), ed è la parte più complessa.
Sai perchè ho scritto quella riga? In quanto deve veramente succedere il finimondo microarchitetturale perchè queste GPU non siano veramente belle GPU.
Di dare soldi a JHH non mi va, quindi spero che Lisa faccia le cose per bene, ed i numeri che abbiamo sono validi.
Nel mio esempio, già il cut previsto di navi32, con 6144 shader oltre i 3ghz (2,9 vengono già presi ora con il 6) sarà un possibile best, nella fascia, speriamo media, sapendo che la 6950xt sta nei pressi della TI in raster, con 5120 shader e 2,5 medi.
Sulle matrici, AMD sa già come fare volendo, basta implementarle. Il problema è che potresti oscurare le HPC.
https://i.postimg.cc/x8nGPc4n/cdna.png
Qualcosa sicuro fanno perché devono comunque superare ampere in rt, poi non credo si possa oscurare le instinct, sono prodotti completamente diversi, come dire che ryzen oscura epyc perché è fatto allo stesso modo
mikael84
23-09-2022, 13:09
Qualcosa sicuro fanno perché devono comunque superare ampere in rt, poi non credo si possa oscurare le instinct, sono prodotti completamente diversi, come dire che ryzen oscura epyc perché è fatto allo stesso modo
Beh considera che le matrici di CDNA2, arrivano a 383TF, con RDNA3 navi31 arriveresti a 680tf fp16.
Nvidia ad esempio, per non avere concorrenza, lavora sulle matrici con le HPC, poi nella gen successiva, mette quelli vecchi sulle gaming/pro.
Quindi va da se, che se uno è interessato a certi tipi di calcoli, come le INT8, sarebbe meglio navi a matrice piuttosto che CDNA.
Questo potrebbe essere un problema.
Sugli RT core, bisognerebbe conoscere almeno i numeri per fare stime basiche. Attualmente una 6950xt sta poco sotto i 60TF totali, una 390ti da sola può arrivare ad un picco del solo RT core di 78TF.
Se AMD riesce a fare un 2x ratio li, può dire la sua.
Gyammy85
23-09-2022, 13:12
Beh considera che le matrici di CDNA2, arrivano a 383TF, con RDNA3 navi31 arriveresti a 680tf fp16.
Nvidia ad esempio, per non avere concorrenza, lavora sulle matrici con le HPC, poi nella gen successiva, mette quelli vecchi sulle gaming/pro.
Quindi va da se, che se uno è interessato a certi tipi di calcoli, come le INT8, sarebbe meglio navi a matrice piuttosto che CDNA.
Questo potrebbe essere un problema.
Sugli RT core, bisognerebbe conoscere almeno i numeri per fare stime basiche. Attualmente una 6950xt sta poco sotto i 60TF totali, una 390ti da sola può arrivare ad un picco del solo RT core di 78TF.
Se AMD riesce a fare un 2x ratio li, può dire la sua.
Pure cdna ha i calcoli matriciali, potrebbero sfruttare quella, anche se loro attingono più dal mondo ryzen
% a parte che sono un po' al ribasso perchè la 6600 doppia mediamente la 290, come discorso generale si hai ragione, 2x in 8 anni a pari prezzo fa ridere.
Mediamente siamo al 67% piu veloce circa (considerando una 580 e' su per giu una 290) a 1440p e 62% a 4k.
Facciamo 80%, perche' la 580 e' un po piu veloce di una 290? Facciamo anche 100% piu veloce, gonfiamo un altro po.
Rimane sempre il fatto che a 9 anni di distanza mi porto una gpu a casa che non va nemmeno il doppio (che e' preoccupante, perche' significa che se abbassi qualche filtro non hai neanche nessun incentivo per cambiare gpu).
Ma alziamo di poco l'asticella di prezzo nella stessa fascia temporale.
Prendiamo una 780 venduta a 5/600 euro circa a fine 2013.
Una 6700xt e' circa 4 volte piu veloce di una GTX 780.
E' chiaro che un evoluzione c'e` (seppur con tanti compromessi di consumi) ma solo volendo spendere di piu'.
Ne' Nvidia ne AMD sembrano avere piu interesse a fornire GPU competitive nel mercato mainstream (o budget) e i prezzi si sono gonfiati estremamente di piu' dell'inflazione (in particolare del mercato tech).
mikael84
23-09-2022, 13:22
Pure cdna ha i calcoli matriciali, potrebbero sfruttare quella, anche se loro attingono più dal mondo ryzen
Si chiaro, però AMD quadruplica il ratio fp16 dagli shader, nvidia lo fa con i tensor separati, che tu puoi programmare in OPS.
Quindi per forza di cose, andrai più di CDNA2 pensata per 41tf fp32. 41tf fp32 verranno superati da navi32 per dire, di conseguenza a matrice, sarà già superiore lei. Ecco il problema.
VanCleef
23-09-2022, 13:25
E' chiaro che un evoluzione c'e` (seppur con tanti compromessi di consumi) ma solo volendo spendere di piu'.
Ne' Nvidia ne AMD sembrano avere piu interesse a fornire GPU competitive nel mercato mainstream (o budget) e i prezzi si sono gonfiati estremamente di piu' dell'inflazione (in particolare del mercato tech).
Mi trovate perfettamente d'accordo con il vostro ragionamento.
La fascia "bassa" sembra morente dal punto di vista innovazioni...
mikael84
23-09-2022, 13:45
Mediamente siamo al 67% piu veloce circa (considerando una 580 e' su per giu una 290) a 1440p e 62% a 4k.
Facciamo 80%, perche' la 580 e' un po piu veloce di una 290? Facciamo anche 100% piu veloce, gonfiamo un altro po.
Rimane sempre il fatto che a 9 anni di distanza mi porto una gpu a casa che non va nemmeno il doppio (che e' preoccupante, perche' significa che se abbassi qualche filtro non hai neanche nessun incentivo per cambiare gpu).
Ma alziamo di poco l'asticella di prezzo nella stessa fascia temporale.
Prendiamo una 780 venduta a 5/600 euro circa a fine 2013.
Una 6700xt e' circa 4 volte piu veloce di una GTX 780.
E' chiaro che un evoluzione c'e` (seppur con tanti compromessi di consumi) ma solo volendo spendere di piu'.
Ne' Nvidia ne AMD sembrano avere piu interesse a fornire GPU competitive nel mercato mainstream (o budget) e i prezzi si sono gonfiati estremamente di piu' dell'inflazione (in particolare del mercato tech).
Vero, chiaro aumentando il tutto, sulla fascia bassa diventa un delirio. Tuttavia le soluzioni soprattutto AMD non mancano, ed ieri anche nvidia.
Esempio le 5600-5700-6600 lisce, che cmq, se hai una 580, almeno le ultime 2 stanno al 75% in più con consumi appena sopra i 100watt.
Se poi prendiamo la fascia 200 pura, li non c'è nulla, ma già a 300 euro, trovi una scheda decente.:)
Si ma pure io eh. Cioè vedo AMD che prezzi fa, se sono alti resto come sto.
Anche per me alla fine è uno sfizio/passione perché con la 6900xt potrei bellamente saltare la gen senza problema alcuno.
Mi aggiungo alla lista. Aspetto i prezzi, poi se sono troppo alti salto e aspetto le prossime. Perchè con la 6800xt altri 2 anni tranquilli ce li faccio.
Come dici tu, è per gusto e passione, ma anche a prezzi ragionevoli.
Quelli di nvidia non lo sono sicuramente.
RoUge.boh
23-09-2022, 16:37
Mi aggiungo alla lista. Aspetto i prezzi, poi se sono troppo alti salto e aspetto le prossime. Perchè con la 6800xt altri 2 anni tranquilli ce li faccio.
Come dici tu, è per gusto e passione, ma anche a prezzi ragionevoli.
Quelli di nvidia non lo sono sicuramente.
Esattamente.
Cmq se sono furbi potrebbero vedere in europa la 7800xt ad €999 sotto la soglia dei 1000 e gli appassioanti come noi potrebbero sforzare e prederla lo stesso... vicevera parecchia più gente non la considerebbe più.
Io l'azzardo di vendere la mia al prezzo min-IVA attuale l'ho messa se la vendo a questo prezzo bene se entro fine anno non la vendo o la devo abbasare di prezzo evito... (anche perchè ok il cambio ma non voglio tenermi una scheda perfetta sul groppone)
Mi aggiungo alla lista. Aspetto i prezzi, poi se sono troppo alti salto e aspetto le prossime. Perchè con la 6800xt altri 2 anni tranquilli ce li faccio.
Come dici tu, è per gusto e passione, ma anche a prezzi ragionevoli.
Quelli di nvidia non lo sono sicuramente.
ma secondo me anche di più. Bisogna guardare all'attuale generazione di console che durerà almeno altri 4 anni.
Nella fascia 6700 in poi si dormono sonni tranguilli, considerando che poi il primo anno/ anno e mezzo della nuova generazione di console parte sempre più a rilento....
Questo guardando il lato essenziale della cosa, poi subentra sempre la passione, ma io fino a che non faranno di nuovo schede ragionoveli a 200/250 € non gli prendo più nulla.. passo piuttosto alla serie x
Ale55andr0
23-09-2022, 17:26
https://wccftech.com/amd-ceo-dr-lisa-su-to-visit-tsmc-next-month-to-discuss-future-2nm-3nm-chip-projects/
narniagreen
23-09-2022, 17:34
A livello raster veramente mi sembrano molto qualitative.
Per dire navi32 potrebbe fare 2x flops la 690/50xt, che tradotto 2x flops è tra 6700 vs 6950, tralasciando il bus. 2x flops spesso si traduce in 50-60% effettivi.
Parlo di navi32, navi 31 sarà ancora una spanna sopra.
Per RT, sicuramente le unità saranno migliorate, con RDNA2, avevamo i numeri xbox, qua ancora non abbiamo un metro di paragone.
Volendo, si potrebbero mettere le matrici 4xfp16, sanno come farlo.
I costi sono minori, quasi la metà è fatta con i 6nm (1,81 in meno a wafer), ed è la parte più complessa.
Sai perchè ho scritto quella riga? In quanto deve veramente succedere il finimondo microarchitetturale perchè queste GPU non siano veramente belle GPU.
Di dare soldi a JHH non mi va, quindi spero che Lisa faccia le cose per bene, ed i numeri che abbiamo sono validi.
Nel mio esempio, già il cut previsto di navi32, con 6144 shader oltre i 3ghz (2,9 vengono già presi ora con il 6) sarà un possibile best, nella fascia, speriamo media, sapendo che la 6950xt sta nei pressi della TI in raster, con 5120 shader e 2,5 medi.
Sulle matrici, AMD sa già come fare volendo, basta implementarle. Il problema è che potresti oscurare le HPC.
https://i.postimg.cc/x8nGPc4n/cdna.png
Si sono anche io un po' incredulo nel credere che 12200 sp viaggino quasi a 3.5ghz senza pagar in consumi in modo eccessivo.
Ma AMD comunque non ha quasi mercato in Gpu Pro/HPC, o comunque i consumatori sono diversi, chi si prende una 7000 non è che magari guarda al Compute o è indeciso sulla scelta, non ha il mercato e la fama di Nvidia dove questo ragionamento avrebbe sicuramente senso.
AMD RDNA3 GPUs Can Have A Lot More Vector Registers Than RDNA2 (https://www.phoronix.com/news/AMD-RDNA3-More-VGPRs)
Andy1111
26-09-2022, 15:00
https://www.hardwaretimes.com/amd-radeon-rx-7900-xt-7800-xt-slated-to-hit-retail-in-late-november-rumor/
Rumor
AMD will unveil its RDNA 3 GPUs on the 3rd of November, but the hard launch will come in the last week of the month. This gives the NVIDIA RTX 4090 over a month to rule the enthusiast GPU market without any competition.
Fine Mese in vendita se il rumor è esatto
Ale55andr0
26-09-2022, 16:45
Se han fatto "bene" come per le cpu.... :stordita:
OvErClOck82
26-09-2022, 16:46
Tanto a te cambia niente, non ti va mai bene un c***o :asd:
Ti avessi visto soddisfatto mezza volta da qualcosa.
severo ma giusto :stordita:
Ale55andr0
26-09-2022, 17:29
Tanto a te cambia niente, non ti va mai bene un c***o :asd:
Ti avessi visto soddisfatto mezza volta da qualcosa.
se non ascoltano le mie esigenze non è colpa mia :O
scorpion73
26-09-2022, 17:35
C'è qualche rumor sulle prestazioni in RT di queste nuove Radeon e sulla presenza di hardware dedicato sul modello dei tensor?
Ale55andr0
26-09-2022, 17:37
C'è qualche rumor sulle prestazioni in RT di queste nuove Radeon e sulla presenza di hardware dedicato sul modello dei tensor?
no
Gyammy85
26-09-2022, 19:34
C'è qualche rumor sulle prestazioni in RT di queste nuove Radeon e sulla presenza di hardware dedicato sul modello dei tensor?
Niente di preciso, si parla di prestazioni superiori ad ampere e vicine a Lovelace, hardware dedicato c'è già su rdna2, non si sa se rdna3 porterà hardware supplementare
mikael84
26-09-2022, 19:57
https://www.hardwaretimes.com/amd-radeon-rx-7900-xt-7800-xt-slated-to-hit-retail-in-late-november-rumor/
Rumor
AMD will unveil its RDNA 3 GPUs on the 3rd of November, but the hard launch will come in the last week of the month. This gives the NVIDIA RTX 4090 over a month to rule the enthusiast GPU market without any competition.
Fine Mese in vendita se il rumor è esatto
Max clock per bios, dovrebbe essere 3,75, vs i 2,8 della 6900.
Quindi dovrebbe lavorare abbastanza agevolmente sopra i 3ghz.
scorpion73
26-09-2022, 20:16
Niente di preciso, si parla di prestazioni superiori ad ampere e vicine a Lovelace, hardware dedicato c'è già su rdna2, non si sa se rdna3 porterà hardware supplementare
Si lo so ma l'hardware su RDNA2 con tutto il rispetto è abbastanza pietoso sul ray tracing, mentre è ottimo in Raster.
Ed essendo la prima implementazione lo si può capire, per cui la speranza forte è che il nuovo hardware porti prestazioni in RT decenti (e quelle da te indicate lo sarebbero pienamente) e un FSR in hardware sul modello DLSS.
Non vedo il motivo sinceramente per cui RDNA3 non possa portare un nuovo hardware più evoluto sul ray tracing visto che ormai la strada è diretta li.
Andy1111
26-09-2022, 20:29
Si lo so ma l'hardware su RDNA2 con tutto il rispetto è abbastanza pietoso sul ray tracing, mentre è ottimo in Raster.
Ed essendo la prima implementazione lo si può capire, per cui la speranza forte è che il nuovo hardware porti prestazioni in RT decenti (e quelle da te indicate lo sarebbero pienamente) e un FSR in hardware sul modello DLSS.
Non vedo il motivo sinceramente per cui RDNA3 non possa portare un nuovo hardware più evoluto sul ray tracing visto che ormai la strada è diretta li.
Perchè non è una scheda pensata per HPC .....
Windtears
26-09-2022, 21:01
un FSR in hardware sul modello DLSS.
fsr in hardware non serve, amd l'ha già dimostrato con il 2.1 che non fa rimpiangere il dlss attuale pre 3 (che comunque va verificato con la sua frame insertion quanto sia "fotosciopposo").
Le istruzioni ML si possono eseguire senza hardware dedicato, non è che perché lo fa nvidia è l'unico modo di farlo, forse il più efficente secondo loro ma una campana vale l'altra basta non perderci troppo in prestazioni finali.
StylezZz`
26-09-2022, 22:58
A meno che non sfornino un alternativa simile al DLSS 3 che sfrutti hardware dedicato.
Ale55andr0
26-09-2022, 23:10
Non sono per niente d'accordo. E' a metà strada tra turing e ampere.
Inferiore si ma pietoso direi proprio di no.
si', con la differenza che è molto più vicino a turing che ad ampere :asd:
si', con la differenza che è molto più vicino a turing che ad ampere :asd:
Dipende dalla ottimizzazione lato AMD e sempre il tipo di fsr come al solito ne più ne meno!
Ale55andr0
27-09-2022, 09:53
Dipende dalla ottimizzazione lato AMD e sempre il tipo di fsr come al solito ne più ne meno!
"ottimizzazioni lato amd" = rt solo sulle ombre. Per cortesia.
FSR/DLSS li considero merda
Gyammy85
27-09-2022, 10:00
"ottimizzazioni lato amd" = rt solo sulle ombre. Per cortesia.
FSR/DLSS li considero merda
Ti è stato detto più volte che non è così, è come per la tessellation dei primi tempi, se sovraccarichi amd tende a soffrire perché specie i vecchi giochi rt sono basati su hardware nvidia
Ale55andr0
27-09-2022, 10:05
Ti è stato detto più volte che non è così, è come per la tessellation dei primi tempi, se sovraccarichi amd tende a soffrire perché specie i vecchi giochi rt sono basati su hardware nvidia
ma quale sovraccarico :asd: AVERE un VERO RT, addirittura "apprezzabile" non è sovraccarico, è AMD che da quel punto di vista è dietrissimo, fine. Non è una colpa capitale, ci sta essendo partita dopo, ma non bisogna nemmeno essere intellettualmente disonesti e non riconoscerlo. Lo splendore dell'RT sta nei riflessi (in primis) e nell'illuminazione globale poi, nelle ombre cambia quasi nulla al confronto in raster. Non facciamo discorsi di sovraccarico che ci azzeccano nulla per difendere l'orticello e non invochiamo "ottimizzazioni" che nel caso AMD vuol dire TOGLIERE effettistica che innalza di un tot la resa, non vi pagano per dire ste scempiaggini e non sono ne vostre madri ne sorelle le gpu, so pezzi di silicio, ficcatevelo in testa, non se ne può più di sto fanboysmo del caxxo da una parte de dall'altra (scritto da uno che chiama la propria nvidia ROITO). Si spera che a sto giro facciano un bel salto e via per il bene di tutti.
Ale55andr0
27-09-2022, 10:14
Si dai alessandro AMD = vomito, sterco, liquame ecc. così sei contento :asd:
Metro Exodus ENHANCED FULL RT 1440p NATIVAH(come piace a te):
https://www.youtube.com/watch?v=Ni_T5ycHrz4&list=PLiAlJ4TIatnuy6HjGWi8Wy5mfp77Icb_D&index=12
Doom Eternal RT:
https://www.youtube.com/watch?v=Q2U5k4XHMjQ&list=PLiAlJ4TIatnuy6HjGWi8Wy5mfp77Icb_D&index=16
Dying Light 2 RT 1440p NATIVAH:
https://www.youtube.com/watch?v=QeKpKgqqbJ8&list=PLiAlJ4TIatnuy6HjGWi8Wy5mfp77Icb_D&index=21
L'rt AMD è inferiore a Nvidia ampere e nessuno ha mai affermato il contrario (almeno non io).
Ma da qua a dire: roito, sterco, merda ecc ce ne passa.
Se riesci ad essere un po' più equilibrato nei giudizi sarebbe anche meglio perché l'intellettualmente disonesto in sti frangenti sembri essere tu.
1)Roito is the world che io uso, non altri epiteti :O
2) che senso ha farmi vedere un test SENZA confronto con la controparte? :rotfl:
3) è una 6900, il meglio di AMD. Vedi una fascia media nvidia contro una fascia media AMD in RT e poi ridi (o meglio, piangi)
4)sono giochi che hanno un RT monco, prendi CP 2077 pieno di neon, vetrine, carrozzerie etc...ah già "sovraccarico" direbbe qualcuno, avere un open world futuristico pieno di sorgenti di luce com'è NORMALE che sia :asd:
e come normale sarà in crescendo coi nuovi games...
5)Non ho detto che tu dici nulla, non "ce l'ho" con te ma c'è chi dice "sovraccarico" (:rotfl:) e si arrampica sugli specchi (sarà per coprire il riflesso :asd:) invece di essere per una, dannata, volta INTELLETTUALMENTE ONESTO. E dire, "si' AMD è molto dietro su quel frangente, ha delle altre qualità ma speriamo migliori anche li' e colmi il gap, e amen". No, il sovraccarico :doh:
passo e chiudo
Gyammy85
27-09-2022, 10:18
ma quale sovraccarico :asd: AVERE un VERO RT, addirittura "apprezzabile" non è sovraccarico, è AMD che da quel punto di vista è dietrissimo, fine. Non è una colpa capitale, ci sta essendo partita dopo, ma non bisogna nemmeno essere intellettualmente disonesti e non riconoscerlo. Lo splendore dell'RT sta nei riflessi (in primis) e nell'illuminazione globale poi, nelle ombre cambia quasi nulla al confronto in raster. Non facciamo discorsi di sovraccarico che ci azzeccano nulla per difendere l'orticello e non invochiamo "ottimizzazioni" che nel caso AMD vuol dire TOGLIERE effettistica che innalza di un tot la resa, non vi pagano per dire ste scmepiaggini e non sono ne vostre madri ne sorelle le gpu, so pezzi di silicio, ficcatevelo in testa, no nse ne può più di sto fanboysmo del cazzo da una parte de dall'altra (scritto da uno che chiama la proria nvidia ROITO). Si spera che a sto giro facciano un bel salto e via per il bene di tutti.
Io re village l'ho giocato e ti assicuro che in diversi punti hai riflessi+ambient occlusion+ombre, poi che sulle ombre sia più seplice fare rt lo dici tu, per le unità di calcolo lo sforzo c'è, riftbraker ha ombre molto carine rt, se vogliamo la precisione grafica è un conto, se vogliamo il festival dei riflessi a specchio è un altro
Si dai alessandro AMD = vomito, sterco, liquame ecc. così sei contento :asd:
Metro Exodus ENHANCED FULL RT 1440p NATIVAH(come piace a te):
https://www.youtube.com/watch?v=Ni_T5ycHrz4&list=PLiAlJ4TIatnuy6HjGWi8Wy5mfp77Icb_D&index=12
Doom Eternal RT:
https://www.youtube.com/watch?v=Q2U5k4XHMjQ&list=PLiAlJ4TIatnuy6HjGWi8Wy5mfp77Icb_D&index=16
Dying Light 2 RT 1440p NATIVAH:
https://www.youtube.com/watch?v=QeKpKgqqbJ8&list=PLiAlJ4TIatnuy6HjGWi8Wy5mfp77Icb_D&index=21
L'rt AMD è inferiore a Nvidia ampere e nessuno ha mai affermato il contrario (almeno non io).
Ma da qua a dire: roito, sterco, merda ecc ce ne passa.
Se riesci ad essere un po' più equilibrato nei giudizi sarebbe anche meglio perché l'intellettualmente disonesto in sti frangenti sembri essere tu.
Grazie per aver postato doom eternal, hai avuto guadagni prestazionali? io ho pure frame ottimi in quel livello con la 6700xt ma non la avevo nel 2021
StylezZz`
27-09-2022, 10:56
p.s. L'rt in nativa è ingestibile anche su nvidia, e figurati che ha pure giochi sponsorizzati.
Ma scusami, se con una 3070 faccio più o meno i tuoi stessi fps con gli stessi settaggi (e senza dlss) su Metro, è chiaro che se vai a prendere la controparte nvidia di pari fascia a 1440p è perfettamente gestibile.
una 3060Ti su Metro con RT va come una 6800 liscia, quando senza RT la 3060Ti è la controparte NVIDIA della 6700XT e non certo della 6800 che è una VGA superiore.
sbagliato dire che su AMD non si può usare l'RT, ma giusto dire che è tanto più scarso rispetto ad Ampere
Gyammy85
27-09-2022, 12:11
una 3060Ti su Metro con RT va come una 6800 liscia, quando senza RT la 3060Ti è la controparte NVIDIA della 6700XT e non certo della 6800 che è una VGA superiore.
sbagliato dire che su AMD non si può usare l'RT, ma giusto dire che è tanto più scarso rispetto ad Ampere
Se è per questo ci sono giochi dove la 6700xt va come la 3070ti (ac valhalla ma anche altri) quindi non vedo perché dire le solite cose da due anni sui giochi del 2019 con engine del 2009 patchati per metterci rtx
Gyammy85
27-09-2022, 12:12
E' a metà strada tra turing e ampere come dico da un secolo :asd:
Mai detto niente di diverso, e se consideri che consumano meno e in raster vanno mediamente di più, la percezione che hanno su questo forum è le rx siano dei cessi a pedali.
Mai capito il motivo ma tant'è :sofico:
Ora arriva il "senza dlss3 non puoi davvero attivare rt" e si ricomincia di nuovo
Se è per questo ci sono giochi dove la 6700xt va come la 3070ti (ac valhalla ma anche altri) quindi non vedo perché dire le solite cose da due anni sui giochi del 2019 con engine del 2009 patchati per metterci rtx
Ok quindi secondo te è solo una casualità dovuta ai motori grafici (spiderman remastered fa come metro con 3060Ti simile a 6800 con RT) e lato tecnico l'RT delle 6000 sarebbe potenzialmente come Ampere...
Se trovi un gioco valido per confrontarle allora sceglilo tu. magari qualcosa AMD friendly e con motori criticati in lungo e in largo tipo Valhalla o Far Cry 6 se ha RT
Gyammy85
27-09-2022, 12:46
Ok quindi secondo te è solo una casualità dovuta ai motori grafici (spiderman remastered fa come metro con 3060Ti simile a 6800 con RT) e lato tecnico l'RT delle 6000 sarebbe potenzialmente come Ampere...
Se trovi un gioco valido per confrontarle allora sceglilo tu. magari qualcosa AMD friendly e con motori criticati in lungo e in largo tipo Valhalla o Far Cry 6 se ha RT
Nessuno sa in maniera oggettiva quanto vadano ampere e rdna2, l'unica cosa che si sa è che entrambe dichiarano 13x le perf rispetto alle unità generiche e che amd ha le bvh via shader che azzoppano tutto
mikael84
27-09-2022, 12:54
Ok quindi secondo te è solo una casualità dovuta ai motori grafici (spiderman remastered fa come metro con 3060Ti simile a 6800 con RT) e lato tecnico l'RT delle 6000 sarebbe potenzialmente come Ampere...
Se trovi un gioco valido per confrontarle allora sceglilo tu. magari qualcosa AMD friendly e con motori criticati in lungo e in largo tipo Valhalla o Far Cry 6 se ha RT
Il motivo tecnico per cui una 6700xt mediamente è vicino alla 3060ti, è il seguente:
Con nvidia bisogna scorporare gli interi, ipotizzando un tomb raider da 38 INT.
RTX 3060ti: 11,4TF
RX 6700xt: 12, 8TF
RX 6750xt: 13,8TF
RTX 3070 : 13,9TF
Ecco che in tale gioco, sta nel mezzo.:)
https://tpucdn.com/review/amd-radeon-rx-6700-xt/images/shadow-of-the-tomb-raider-2560-1440.png
La potenza AMD è fissa, quella nvidia però è variabile in base agli Interi.
Il motivo tecnico per cui una 6700xt mediamente è vicino alla 3060ti, è il seguente:
Con nvidia bisogna scorporare gli interi, ipotizzando un tomb raider da 38 INT.
RTX 3060ti: 11,4TF
RX 6700xt: 12, 8TF
RX 6750xt: 13,8TF
RTX 3070 : 13,9TF
Ecco che in tale gioco, sta nel mezzo.:)
https://tpucdn.com/review/amd-radeon-rx-6700-xt/images/shadow-of-the-tomb-raider-2560-1440.png
La potenza AMD è fissa, quella nvidia però è variabile in base agli Interi.
ma si parlava di RT, in generale sono VGA comparabili e ok (perché alla fine lo si vede dai giochi e techspot ne ha testati tanti, compresi quelli AMD friendly c'è far cry 6 che in 4K andrà pure a corto di VRAM su NVIDIA) ma lato RT possono essere equivalenti?
Magari non RT in 4K perché non direi che sono VGA da 4K e perché la 6700XT alzando la risoluzione rende peggio (va bene ovviamente anche un confronto tra due VGA diverse ma devono andare simili senza RT come queste due)
https://static.techspot.com/articles-info/2447/bench/1080p.png
https://static.techspot.com/articles-info/2447/bench/1440p.png
https://static.techspot.com/articles-info/2447/bench/4K.png
Mille messaggi e io che speravo ci fossero stati leak
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
mikael84
27-09-2022, 13:54
ma si parlava di RT, in generale sono VGA comparabili e ok (perché alla fine lo si vede dai giochi e techspot ne ha testati tanti, compresi quelli AMD friendly c'è far cry 6 che in 4K andrà pure a corto di VRAM su NVIDIA) ma lato RT possono essere equivalenti?
Magari non RT in 4K perché non direi che sono VGA da 4K e perché la 6700XT alzando la risoluzione rende peggio (va bene ovviamente anche un confronto tra due VGA diverse ma devono andare simili senza RT come queste due)
In raster, si sono mediamente equivalenti. In qualche gioco, AMD gira bene in quanto integra lo scheduler hardware, salendo di res, la compressione aiuta nvidia.
In RT, purtroppo AMD deve fare BVH e denoising via shader, sprecando svariati cicli.
Una 3060ti ha un full ratio di 35TF solo di RT core, che comprende i 3 passaggi, sino all'intersezione.
Una 6700xt arriva a 27-28TF nel globale, shader-pipeline intersezione RT.
Se prendiamo una situazione di full RT, una 3060ti, si ritroverebbe numeri addirittura un tantino più elevati di una 6800xt.
Nell'ibrido classico, solitamente è stato registrato su nvidia, un 3 x flops, ovvero 36tf totali, in quanto le unità non vengono spremute o completamente allocate per la ripartizione che effettua nvidia.
Il valore in questo caos della 6700xt di 27-28 è più in linea a quello della 3060 liscia.
Ale55andr0
27-09-2022, 14:06
Ma dai come fai a dire che la enhanced di metro ha l'rt monco che è in full rt e manco parte senza una scheda con hw RT?
Alessando dai fai il serio per piacere :asd:
p.s. L'rt in nativa è ingestibile anche su nvidia, e figurati che ha pure giochi sponsorizzati.
sii serio tu, come fai a paragonare un semi open world con una densità molto inferiore e privo di tutte le superfici riflettenti a una megalopoli futuristica piena di sorgenti luminose e superfici riflettenti :mbe:, anche minecraft è full RT se è per quello, che discorso è? :D contest please!
Ale55andr0
27-09-2022, 14:16
Io re village l'ho giocato e ti assicuro che in diversi punti hai riflessi+ambient occlusion+ombre, poi che sulle ombre sia più seplice fare rt lo dici tu, per le unità di calcolo lo sforzo c'è, riftbraker ha ombre molto carine rt, se vogliamo la precisione grafica è un conto, se vogliamo il festival dei riflessi a specchio è un altro
e niente, l'obiettività ti è sconosciuta, paragonare un buco con quattro effettini in croce allo sforzo e performance richieste in un CP2077, una megalopoli con neon, vetrate, pozzanghere etc ovunque.... Il fatto che l'RT sulle ombre richieda meno performance lo vedi dal fatto che nelle console next gen lo hanno solo su quelle e NON l'illuminazione e già metterlo sulle ombre PIEGA series x che ha una simil 6800 faccio presente...ma poi basta anche la logica (oltre che l'onestà intellettuale...): nvidia dal suo canto può permettersi chillo e chillo (RT sia su ombre che su illuminazione e riflessi), AMD NO. Se poi vuoi negare che sia MOLTO dietro sull'RT, senza arrampicarti sugli specchi dicendo che le ombre de qua e de la (che nvidia fa grattandosi il belino) e parlando di sovraccarico (anche fosse, e NON è, vorrebbe dire lo stesso ancor di più: nvidia >AMD in RT perchè può permettersi "il sovraccarico") mi dai solo ragione... cavare un (UNO eh) commento onesto e obiettivo da te su AMD è impossibile. E qua chiudo davvero. :)
Si scusate, mi sono dimenticato di specificare dalla 3060Ti in giù (visto che si parlava di RT sulle AMD sotto la 6900).
E lo ripeto ancora una volta: dire che l'rt amd è inferiore ad ampere è corretto. Leggere di gente che in un forum tecnico continua a ripetere a pappagallo che le rx 6000 non hanno rt e che addirittura non ci si possa assolutamente giocare è mistificare la realtà.
E nessuno dice che tu sostieni il contrario, onesto da par tuo. E' qualcun altro che ancora si ostina,e dice robe allucinanti pur di non ammetterlo, questo che mi manda in bestia, torvare un minimo di onestà anche in un dannatissimo forum di appassionati è utopia, c'è sempre il tifoso che deve sostenere l'insostenibile, da una parte e dall'altra per una cappero di a-zi-en-da!!! Ripeto, fosse almeno un influencer strapagato capirei, anzi chiederei dove rivolgermi per fare uguale :asd: E nessuno dice che nvidia non cala di performance con RT a manetta è ovvio, solo che va tipo il doppio a pari fascia uguale con quello....
Mille messaggi e io che speravo ci fossero stati leak
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
ormai da qui al 3 novembre è un mesetto, non è la fine del mondo. Sappiamo +50% a pari consumo, e sappiamo che come per proci le tareranno in modo un po' più aggressivo, pur senza arrivare ai 450w di nvidia, si parl di clock di lameno 3ghz. Grossomodo quindi dovrebbero poter fare un +2x senza patemi, bisogna vedere se include l'RT
Andy1111
27-09-2022, 15:50
e niente, l'obiettività ti è sconosciuta, paragonare un buco con quattro effettini in croce allo sforzo e performance richieste in un CP2077, una megalopoli con neon, vetrate, pozzanghere etc ovunque.... Il fatto che l'RT sulle ombre richieda meno performance lo vedi dal fatto che nelle console next gen lo hanno solo su quelle e NON l'illuminazione e già metterlo sulle ombre PIEGA series x che ha una simil 6800 faccio presente...ma poi basta anche la logica (oltre che l'onestà intellettuale...): nvidia dal suo canto può permettersi chillo e chillo (RT sia su ombre che su illuminazione e riflessi), AMD NO. Se poi vuoi negare che sia MOLTO dietro sull'RT, senza arrampicarti sugli specchi dicendo che le ombre de qua e de la (che nvidia fa grattandosi il belino) e parlando di sovraccarico (anche fosse, e NON è, vorrebbe dire lo stesso ancor di più: nvidia >AMD in RT perchè può permettersi "il sovraccarico") mi dai solo ragione... cavare un (UNO eh) commento onesto e obiettivo da te su AMD è impossibile. E qua chiudo davvero. :)
E nessuno dice che tu sostieni il contrario, onesto da par tuo. E' qualcun altro che ancora si ostina,e dice robe allucinanti pur di non ammetterlo, questo che mi manda in bestia, torvare un minimo di onestà anche in un dannatissimo forum di appassionati è utopia, c'è sempre il tifoso che deve sostenere l'insostenibile, da una parte e dall'altra per una cappero di a-zi-en-da!!! Ripeto, fosse almeno un influencer strapagato capirei, anzi chiederei dove rivolgermi per fare uguale :asd: E nessuno dice che nvidia non cala di performance con RT a manetta è ovvio, solo che va tipo il doppio a pari fascia uguale con quello....
ormai da qui al 3 novembre è un mesetto, non è la fine del mondo. Sappiamo +50% a pari consumo, e sappiamo che come per proci le tareranno in modo un po' più aggressivo, pur senza arrivare ai 450w di nvidia, si parl di clock di lameno 3ghz. Grossomodo quindi dovrebbero poter fare un +2x senza patemi, bisogna vedere se include l'RT
A me sembra che tu vada leggermente sopra le righe , sono giochi sponsorizzati nvidia non credo serva aggiungere altro, che le AMD siano inferiore in RT rispetto ad ampere nessuno lo nega, che nessuna scheda sia capace di gestire bene RT neanche la 4090 mi sembra più che evidente .
Se ti aspetti il miracolo di AMD in RT con la serie nuova, allora forse è meglio che vai a comprare una 4000 oppure resti con la tua , la scelta a te.
Visto come hanno sviluppato UE5 ti consiglio di evitare anche i giochi fatti con quel motore , visto che non è un vero RT ma ibrido.
Mi sembra una discussione comunque ciclica che come al solito rispunta all'uscita delle nuove schede.
Una sola piccola domanda vorrei farti quanti giochi hai fatto usando appieno tutto RT con la tua scheda con risoluzione sopra FHD ?
StylezZz`
27-09-2022, 19:18
sono giochi sponsorizzati nvidia non credo serva aggiungere altro
Saranno sponsorizzati nvidia, ma sono anche gli unici che hanno un raytracing che fa la differenza e vale la pena attivare. Non si può dire lo stesso di Far Cry, Re Village, Godfall etc...ma mi rendo conto che non possono mettere in difficoltà le loro stesse schede con un raytracing ai livelli di Cyberpunk, sarebbe un autogoal per AMD.
Saranno sponsorizzati nvidia, ma sono anche gli unici che hanno un raytracing che fa la differenza e vale la pena attivare. Non si può dire lo stesso di Far Cry, Re Village, Godfall etc...ma mi rendo conto che non possono mettere in difficoltà le loro stesse schede con un raytracing ai livelli di Cyberpunk, sarebbe un autogoal per AMD.
Quoterrimo...;)
Andy1111
27-09-2022, 19:47
Saranno sponsorizzati nvidia, ma sono anche gli unici che hanno un raytracing che fa la differenza e vale la pena attivare. Non si può dire lo stesso di Far Cry, Re Village, Godfall etc...ma mi rendo conto che non possono mettere in difficoltà le loro stesse schede con un raytracing ai livelli di Cyberpunk, sarebbe un autogoal per AMD.
Giusto allora anche il nuovo UE5 si stà facendo un grandissimo autogoal !!!
mikael84
27-09-2022, 19:48
e niente, l'obiettività ti è sconosciuta, paragonare un buco con quattro effettini in croce allo sforzo e performance richieste in un CP2077, una megalopoli con neon, vetrate, pozzanghere etc ovunque.... Il fatto che l'RT sulle ombre richieda meno performance lo vedi dal fatto che nelle console next gen lo hanno solo su quelle e NON l'illuminazione e già metterlo sulle ombre PIEGA series x che ha una simil 6800 faccio presente...ma poi basta anche la logica (oltre che l'onestà intellettuale...): nvidia dal suo canto può permettersi chillo e chillo (RT sia su ombre che su illuminazione e riflessi), AMD NO. Se poi vuoi negare che sia MOLTO dietro sull'RT, senza arrampicarti sugli specchi dicendo che le ombre de qua e de la (che nvidia fa grattandosi il belino) e parlando di sovraccarico (anche fosse, e NON è, vorrebbe dire lo stesso ancor di più: nvidia >AMD in RT perchè può permettersi "il sovraccarico") mi dai solo ragione... cavare un (UNO eh) commento onesto e obiettivo da te su AMD è impossibile. E qua chiudo davvero. :)
Vero, questo è un esempio.
1440p dorme l'HW rt.
Solo in 4k ultra le RT superano la 1080ti no RT
https://i.postimg.cc/NM1dmbNm/tr.png
Ale55andr0
27-09-2022, 21:08
AMD siano inferiore in RT rispetto ad ampere nessuno lo nega
no, il problema è che uno lo nega e si inventa le più comiche spiegazioni per dire che non è così ed è solo questione di ottimizzazioni pro/contro.
Sono inferiori, e non di poco in quel frangente, PUNTO, non ci sono i se, i ma e le scuse, così come nvidia non ha alcuna scusa su altre IDIOZIE delle sue gpu (tipo i tagli di ram, per cominciare...)
Non mi spetto miracoli AMD, mi aspetto o meglio spero CONCRETEZZA, quindi come minimo devono prendere le 3090 da quel punto di vista, il resto è un di più, ma questo è il target minimo accettabile se han lavorato BENE.
PS: La mia GPU non c'entra nulla col mio discorso, la chiamo Il ROITO....a ogni modo pur tale in RT vale un 6900, cioè il massimo che AMD può fare su quel fronte mentre per nvidia è...un roito nella sua gamma :asd:...cmq in RT non ho problemi in CP2077 1080P con RT su "ultra" e il resto a manetta, a quella risoluzione mi frena ben più la lumaca che ho come CPU...:stordita:
Andy1111
27-09-2022, 21:27
no, il problema è che uno lo nega e si inventa le più comiche spiegazioni per dire che non è così ed è solo questione di ottimizzazioni pro/contro.
Sono inferiori, e non di poco in quel frangente, PUNTO, non ci sono i se, i ma e le scuse, così come nvidia non ha alcuna scusa su altre IDIOZIE delle sue gpu (tipo i tagli di ram, per cominciare...)
Non mi spetto miracoli AMD, mi aspetto o meglio spero CONCRETEZZA, quindi come minimo devono prendere le 3090 da quel punto di vista, il resto è un di più, ma questo è il target minimo accettabile se han lavorato BENE.
PS: La mia GPU non c'entra nulla col mio discorso, la chiamo Il ROITO....a ogni modo pur tale in RT vale un 6900, cioè il massimo che AMD può fare su quel fronte mentre per nvidia è...un roito nella sua gamma :asd:...cmq in RT non ho problemi in CP2077 1080P con RT su "ultra" e il resto a manetta, a quella risoluzione mi frena ben più la lumaca che ho come CPU...:stordita:
Poco fa grazie a fraussantin abbiamo fatto una prova su cyberpunk lui con la sua 3080 io con la 6900 , abbiamo tutti cpu 5900X , unico vantaggio mio è che sono a liquido, ma non ho alzato i limiti della vga , è in oc ma 2500/2600 2110 sulle mem + 15% sul consumo .
Queste le imp usate 1440p :
https://i.postimg.cc/4mJrhrKD/20220924155827-1.jpg (https://postimg.cc/4mJrhrKD)
https://i.postimg.cc/cvC2FwBT/20220924155835-1.jpg (https://postimg.cc/cvC2FwBT)
https://i.postimg.cc/4Y0Mqy8G/20220924155840-1.jpg (https://postimg.cc/4Y0Mqy8G)
https://i.postimg.cc/GBsNCRNy/20220924155843-1.jpg (https://postimg.cc/GBsNCRNy)
Mio risultato
https://i.postimg.cc/5Ydr9Gdk/20220924160447-1.jpg (https://postimg.cc/5Ydr9Gdk)
Suo
https://i.postimg.cc/6ydH0tKh/683532-2900000002-20220927210326-1.jpg (https://postimg.cc/6ydH0tKh)
Ale55andr0
27-09-2022, 21:31
CP 2077 ha un comodissimo bench integrato. Due fermi immagine in mezzo al nulla con il cielo sullo sfondo :sbonk:. Andate a corpo plaza se proprio non volete fare il bench (?!), così non ha senso
fraussantin
27-09-2022, 21:37
CP 2077 ha un comodissimo bench integrato. Due fermi immagine in mezzo al nulla con il cielo sullo sfondo :sbonk:. Andate a corpo plaza se proprio non volete fare il bench (?!), così non ha sensoIn citta con quei settaggi facevo mediamente 35 40 fps.
Moh ho chiuso tutto casomai un altra volta.
Cmq quel gioco senza fsr\dlss è ingiocabile.
Ale55andr0
27-09-2022, 21:38
a ogni modo sono 51 vs 35 circa il 50% in più per la 3080 che non è il top nvidia contro una 6900 occata...
Ale55andr0
27-09-2022, 21:40
Eh ma se hai nvidia spari RT e in nativah voli!1! :asd:
cit. di chi? :O no perchè questa è una "auto-controtrollata" alla giammy style, vedo che influenza molto :O
Ale55andr0
27-09-2022, 21:41
Si peccato che facciano cagare entrambe, o vuoi dirmi che tu giochi a 50 fps?
Poi fa ridere, le 3080 le trovavi fino all'altro ieri allo stesso prezzo della 6900xt :asd:
a 50 fps "qualitativi" per me un game, specie un gdr, è fluido e bello da morire, non sono un pro gamer di fps online aka 144hz o sei fermo. Se sono sempre sopra 30 io scatti non ne vedo, se 30 è la media invece...e cmq nel post precedente detto che anche nvidia cala, ma performa molto più. Che è esattamente quanto dimostrato, senza nemmeno prendere il meglio di una ma.... dell'altra casa produttrice e occarlo...
Ale55andr0
27-09-2022, 21:46
Ma è il messaggio che passa ai più ogni volta che vi si legge con sto c***o di RT.
Nvidia vende schede palesemente PRO, a prezzo PRO, con un RT in fase alpha (perché senza barbatrucchi e praticamente inutilizzabile anche con schede da 1500 e passa euro) ed è riuscita a influenzare tutti quanti che l'unico parametro da tenere in conto è l'RT e non tutto il resto.
Cioè dai.
Chi è che ha detto che è l'unico parametro di grazia? O ti sei perso i miei NUMEROSI "complimenti" a nvidia, sui suoi prezzi folli e ai patetici tagli di memoria in questi mesi/settimane/giorni, per no nparlare della palla de dlss "meglio della nativa?....solo che mentre da par mio posso dire di essere OBIETTIVO, per quanto magari rude nei modi, lo stesso non si può dire di altri che sono ALLUCINANTI...
mircocatta
27-09-2022, 21:50
Si peccato che facciano cagare entrambe, o vuoi dirmi che tu giochi a 50 fps?
Poi fa ridere, le 3080 le trovavi fino all'altro ieri allo stesso prezzo della 6900xt :asd:
eh, però a dirla tutta, il mondo intero l'ha menata tanti anni su gsync e freesync, tantè che non compriamo nemmeno il monitor se non hanno queste tecnologie (che aiutano molto con frame da 30 in su) e mo' se non stiamo a 120fps è caccapupù, preferendo piuttosto upscalare con dlss e fsr
Ale55andr0
27-09-2022, 21:50
Stai facendo una bella arrampicata adesso.
La vediamo in maniera opposta, io continuerò a comprare basandomi su altro e non inseguendo una effetto grafico che richiede un botto di risorse.
E' possibile fare giochi stupendi anche senza RT e di esempi ce ne sono a bizzeffe.
Per nulla, io maxo sempre dai tempi della 7970, preferisco 45/50 frame con la qualità migliore che 100 con compromessi visivi, a meno che non si arrivi minare la giocabilità (scatti) cosa che a 50 frame da par mio NON avviene
Ale55andr0
27-09-2022, 21:51
eh, però a dirla tutta, l'abbiamo menata tanti anni su gsync e freesync, (tecnologie che aiutano molto con frame da 30 in su) e mo' se non stiamo a 120fps è caccapupù, preferendo piuttosto upscalare con dlss e fsr
certo non io, il DLSS è merda spacciata per cioccolata
fraussantin
27-09-2022, 21:53
Eh ma se hai nvidia spari RT e in nativah voli!1! :asd:Ma quando mai l'ho detto?
fraussantin
27-09-2022, 21:58
Ma avete tutti la coda stasera? :asd:
Parlo in generale da quello che si leggere sui forum, social ecc perché è esattamente il messaggio che passa ovunque quando non è vero per un cazzo.
Io non ho code , tengo i capelli corti :asd:
Cmq non ho mai affermato che senza dlss rt si possa usare.
È un mattonazzo assurdo.
eh, però a dirla tutta, il mondo intero l'ha menata tanti anni su gsync e freesync, tantè che non compriamo nemmeno il monitor se non hanno queste tecnologie (che aiutano molto con frame da 30 in su) e mo' se non stiamo a 120fps è caccapupù, preferendo piuttosto upscalare con dlss e fsr
ma saranno un po fatti anche di chi gioca no?
Il freesync serve cmq fino a 200 hz e forse anche oltre.
Diversamente o vedi tearing o se metti vstnc stutteri se non sei stabile col framerate.
ninja750
28-09-2022, 09:40
vuoi dirmi che tu giochi a 50 fps?
io ho giocato :eek: e finito :eek: CP sui 60fps 1440P RT OFF con la 6800
e ho giocato :eek: e finito :eek: Control sui 50fps 1080P RT OFF con la 580
tutti e due sostanzialmente maxati
mi sono pure divertito :eek:
Ale55andr0
28-09-2022, 09:43
e ho giocato :eek: e finito :eek: Control sui 50fps 1080P RT OFF con la 580
mi sono pure divertito :eek:
"sotto i 144240hz non è vita, e il dlss è meglio della nativa" :O
Ale55andr0
28-09-2022, 09:48
Si ma ragazzi cercate di capire:
Se si spendono 700 euro di gpu per giocare a 50 fps avete qualche problema :asd:
Pure per me non è un problema giocare a 50 fps, mi sono finito Andromeda con una 1050 liscia da 4gb, però avevo speso 120 euro non 700.
Poi contenti voi contenti tutti.
vale anche per chi li spende e non riesce a gestire l'RT
fra parentesi, ne hai spesi 1000, non 700 per non per gestire l'RT cmq..."contento tu cmq contenti tutti"
Ale55andr0
28-09-2022, 09:50
Pure tu, leggi la risposta sopra.
è chiaramente sarcasmo, tranne la risposta subito sopra: quando spendi certi soldi NON devi avere compromessi ne da un alto ne dall'altro, solo che io a 50 frame SCATTI non ne vedo quindi è un "compromesso" che accetto perchè nemmeno lo considero tale, se spengo le RT invece perdo un botto di resa visiva, specie sui riflessi
craesilo
28-09-2022, 09:54
https://www.talkbass.com/attachments/popcorn-gif.1110469/
Ale55andr0
28-09-2022, 09:55
https://www.talkbass.com/attachments/popcorn-gif.1110469/
si' ma non hai pagato il biglietto :O
ninja750
28-09-2022, 09:57
Si ma ragazzi cercate di capire:
Se si spendono 700 euro di gpu per giocare a 50 fps avete qualche problema :asd:
oh con la 6800 liscia cyberbug in 1440p di più non non va :stordita: non ricordo esattamente ma erano variabilmente tra i 50 e i 70
tra non giocare, e giocare a mediamente 60, ho preferito giocare :asd:
il RT l'ho provato giusto per sfizio, era una slideshow
Gyammy85
28-09-2022, 10:13
Ma è così bello sto gioco? tutto quello che ho visto fino ad ora è una città con le palme piantate per terra e colori che vanno dall'arancione al verde petrolio, della serie "non sappiamo cosa sia il concetto di palette colori in un gioco"
Idem metro, una delle noie più noiose, cinque giochi dove non fai altro che andare in giro nel fango ad ammazzare mostri senza capo nè coda stando però bene attento alla maschera antigas che ti appanna la visuale dopo cinque secondi
Legolas84
28-09-2022, 10:19
Ma è così bello sto gioco? tutto quello che ho visto fino ad ora è una città con le palme piantate per terra e colori che vanno dall'arancione al verde petrolio, della serie "non sappiamo cosa sia il concetto di palette colori in un gioco"
Idem metro, una delle noie più noiose, cinque giochi dove non fai altro che andare in giro nel fango ad ammazzare mostri senza capo nè coda stando però bene attento alla maschera antigas che ti appanna la visuale dopo cinque secondi
Guarda, a me piace di più Ashes of Singularity che so essere uno dei migliori giochi della storia.. so che anche a te piaceva molto, ne parlavi di continuo! :)
Inviato dal mio iPhone utilizzando Tapatalk Pro
Gyammy85
28-09-2022, 10:23
Guarda, a me piace di più Ashes of Singularity che so essere uno dei migliori giochi della storia.. so che anche a te piaceva molto, ne parlavi di continuo! :)
Inviato dal mio iPhone utilizzando Tapatalk Pro
Guarda caso tutti i giochi nvidia non piacciono a te :asd:
Dai Gyammy non scadermi nel ridicolo eh :sofico:
p.s. La serie metro è un capolavoro per quanto mi riguarda.
Non mi aspettavo niente di diverso ovviamente, dai finitelo per la decima volta, ma con la vga nuova
PS parlo di questi due perché se ne è parlato nelle ultime due pagine
mircocatta
28-09-2022, 10:23
vale anche per chi li spende e non riesce a gestire l'RT
fra parentesi, ne hai spesi 1000, non 700 per non per gestire l'RT cmq..."contento tu cmq contenti tutti"
stesso discorso per chi ne ha spesi 800 o 1200 2 anni prima per una 2080 / TI perchè "hanno il raytracing!" salvo rimanere a terra* non appena escono giochi rt un pelo piu onerosi :asd:
* proprietà transitiva: se le rdna2 hanno prestazioni indegne in RT (come spesso si legge in giro, anche qui 2 pagine indietro) allora lo sono anche le RTX 2000, visto che in RT hanno prestazioni simili (o ricordo male? )
smoggypeppe
28-09-2022, 10:45
vale anche per chi li spende e non riesce a gestire l'RT
fra parentesi, ne hai spesi 1000, non 700 per non per gestire l'RT cmq..."contento tu cmq contenti tutti"
Ma quindi per te non gestire Cyberpunk adeguatamente in ray tracing significa non poterlo gestire in nessun titolo?Beh questo significa allora che nessuna scheda è in grado di gestirlo visto che anche una 3090ti (2k di scheda fino all'altro ieri, 450w di consumo) se lo spari a manetta in 1440p (neanche 4k) fa circa 37 fps medi (slide ufficiali Nvidia). Diciamocela tutta, attualmente nessun hw disponibile sul mercato lo gestisce bene il RT in CB e va da sè che non ci può basare solo su quello. Ci sono altri giochi in cui il RT è presente, ha un effetto comunque soddisfacente e gira bene anche su HW AMD (spiderman, re village, metro per dire). Poi ovvio, metti il DLSS Balanced a 1440p (820p circa di rendering nativo) e va bene tutto, ma quello non è l'esatta definizione di "gestirlo adeguatamente" almeno per me
bagnino89
28-09-2022, 11:10
Guarda, a me piace di più Ashes of Singularity che so essere uno dei migliori giochi della storia.. so che anche a te piaceva molto, ne parlavi di continuo! :)
Inviato dal mio iPhone utilizzando Tapatalk Pro
Guarda caso tutti i giochi nvidia non piacciono a te :asd:
Dai Gyammy non scadermi nel ridicolo eh :sofico:
p.s. La serie metro è un capolavoro per quanto mi riguarda.
:asd:
In realtà Gyammy è un grande fan di GTA5, si sa.
Ale55andr0
28-09-2022, 11:12
Ancora con sto non gestire? Per gestirlo come lo gestisci tu (50 fps vanno benissimo) ci riesco pure io con la mia
come una 3070...una scheda da 550 di listino
Legolas84
28-09-2022, 11:15
Ma guarda, personalmente credo che i vari GTA5, the witcher3, e i titoli unreal engine in generale, non reggano il confronto davanti alla maestosità di ashes of singularity, capolavoro di pubblico e critica.
L’ho ricominciato da poco per la quinta volta e ogni volta scopro sempre cose nuove! Peccato solo che avendo una GeForce non riesco a godermelo fino in fondo. Ora vediamo se con le nuove Radeon faccio il passo… ;)
Inviato dal mio iPhone utilizzando Tapatalk Pro
ninja750
28-09-2022, 13:05
https://i.postimg.cc/Zqdz0KBW/xess.jpg
xess su 6800xt in shadow
Native-> Ultra Quality 13% uplift
Native-> Quality 29% uplift
Native-> Balanced 42% uplift
Native-> Performance 61% uplift
Ale55andr0
28-09-2022, 13:39
Ma è così bello sto gioco? tutto quello che ho visto fino ad ora è una città con le palme piantate per terra e colori che vanno dall'arancione al verde petrolio, della serie "non sappiamo cosa sia il concetto di palette colori in un gioco"
Idem metro, una delle noie più noiose, cinque giochi dove non fai altro che andare in giro nel fango ad ammazzare mostri senza capo nè coda stando però bene attento alla maschera antigas che ti appanna la visuale dopo cinque secondi
quindi adesso non sapendo più che dire sul fronte nvidia>amd lato rt ora passi ai tuoi gusti in fatto di giochi, ma fosse stato sponsorizzato AMD....poi essendo personali ci sta, ma oh guarda caso i titoli "nvidia" non ti piacciono...
Io resto sempre più allibito che al mondo ci sia gente così. Quanti, diamine, di anni avete? :doh:
Ale55andr0
28-09-2022, 13:41
Guarda caso tutti i giochi nvidia non piacciono a te :asd:
Dai Gyammy non scadermi nel ridicolo eh :sofico:
p.s. La serie metro è un capolavoro per quanto mi riguarda.
this (finalmente qualcuno se ne è accorto)
stesso discorso per chi ne ha spesi 800 o 1200 2 anni prima per una 2080 / TI perchè "hanno il raytracing!" salvo rimanere a terra* non appena escono giochi rt un pelo piu onerosi :asd:
* proprietà transitiva: se le rdna2 hanno prestazioni indegne in RT (come spesso si legge in giro, anche qui 2 pagine indietro) allora lo sono anche le RTX 2000, visto che in RT hanno prestazioni simili (o ricordo male? )
che i requisiti hw vadano a crescere nel tempo mi pare normale. Quindi questo significa che uno deve giustificare il prendere troncate in faccia perchè fra 10 anni con la 4090 ti ci pulisci il :ciapet: ? :mc:
Che hai pagato 700 :mc:
leggero sovrapprezzo (~100) in piena pandemia essendo una custom pur non eccellente (sarebbe cmq costata leggermente più dell MSRP delle founder). Per gli altri o non c'era o facevano 1000/1100 :asd:...fra parentesi io poi non la esalto mica. Forse devo dirlo la millesima volta che la chiamo il roito...ma.... la tua in RT non vale più di un roito ed è un prodotto da 1k :Prrr: :D
Ti giuro che solo ora ho capito che stavi trollando :sofico:
pure io :asd:
sto invecchiando :O
https://i.postimg.cc/Zqdz0KBW/xess.jpg
xess su 6800xt in shadow
Native-> Ultra Quality 13% uplift
Native-> Quality 29% uplift
Native-> Balanced 42% uplift
Native-> Performance 61% uplift
Da quel che ho capito l'implementazione di xess che girà su hardware intel sarà migliore/ottimizzata rispetto a quella che general purpose.
Probabilmente c'è dell'hardware dedicato
Gyammy85
28-09-2022, 14:03
Da quel che ho capito l'implementazione di xess che girà su hardware intel sarà migliore/ottimizzata rispetto a quella che general purpose.
Probabilmente c'è dell'hardware dedicato
A me non compare attivabile, avrà fatto qualche cosa particolare
Tomb raider è un gioco bello o robetta da due soldi, chiedo per me
bagnino89
28-09-2022, 14:29
Ma guarda, personalmente credo che i vari GTA5, the witcher3, e i titoli unreal engine in generale, non reggano il confronto davanti alla maestosità di ashes of singularity, capolavoro di pubblico e critica.
L’ho ricominciato da poco per la quinta volta e ogni volta scopro sempre cose nuove! Peccato solo che avendo una GeForce non riesco a godermelo fino in fondo. Ora vediamo se con le nuove Radeon faccio il passo… ;)
Inviato dal mio iPhone utilizzando Tapatalk Pro
:asd:
A me non compare attivabile, avrà fatto qualche cosa particolare
Tomb raider è un gioco bello o robetta da due soldi, chiedo per me
La trilogia di TR vale la pena di essere giocata.
Gyammy85
28-09-2022, 16:16
Ed avendo elementi gdr va bene anche giocarlo a 40/50 frame al secondo :asd:
Io me lo sono giocato con rt a 75 fissi, va bene lo stesso? ho la scheda rotta? :lamer: :bsod:
Ed avendo elementi gdr va bene anche giocarlo a 40/50 frame al secondo :asd:
Morto :rotfl:
ninja750
28-09-2022, 16:19
A me non compare attivabile
hai una AMD
non è in grado di gestire il RT
ninja750
28-09-2022, 16:25
xess su 6800xt in shadow
Native-> Ultra Quality 13% uplift
Native-> Quality 29% uplift
Native-> Balanced 42% uplift
Native-> Performance 61% uplift
risultati con 6700XT:
Preset (1440p High) Performance
Native 124fps
Ultra Quality 108fps
Quality 119fps
Balanced 129fps
Performance 139fps
Preset (4K High) Performance
Native 53fps
Ultra Quality 51fps
Quality 59fps
Balanced 65fps
Performance 72fps
:stordita:
Gyammy85
28-09-2022, 16:27
hai una AMD
non è in grado di gestire il RT
Per forza, stiamo ancora con le dx7 di seriou sam second encounter :nono: :nono:
https://i.postimg.cc/3NhVcRN4/serious-sam-the-second-encounter-13.webp (https://postimages.org/)
Gyammy85
28-09-2022, 16:29
risultati con 6700XT:
Preset (1440p High) Performance
Native 124fps
Ultra Quality 108fps
Quality 119fps
Balanced 129fps
Performance 139fps
Preset (4K High) Performance
Native 53fps
Ultra Quality 51fps
Quality 59fps
Balanced 65fps
Performance 72fps
:stordita:
Devi emulare le unità dedicate, che emulano la res, che emula gli shader, che riscala i pixel, il tutto con 12 teraflops, 500 watt di gasolio e senza uno straccio di loghino iniziale. Pessimo, abbiamo il terzo competitor e va a finire così.
smoggypeppe
28-09-2022, 16:50
Da quel che ho capito l'implementazione di xess che girà su hardware intel sarà migliore/ottimizzata rispetto a quella che general purpose.
Probabilmente c'è dell'hardware dedicato
A grandi linee è così anche con FSR 2.0, a differenza della versione 1.0 ha enormi boost ma principalmente su RNDA 1 e 2.
smoggypeppe
28-09-2022, 16:54
Io me lo sono giocato con rt a 75 fissi, va bene lo stesso? ho la scheda rotta? :lamer: :bsod:
Se gira su RDNA2 non ha un vero rt ;)
Gyammy85
28-09-2022, 17:14
Ecco i miei bench con xess, 1440p dettagli massimi settati a mano (non preset), rt ultra
https://i.postimg.cc/Ss0mmCDJ/photo-2022-09-28-16-45-57.jpg (https://postimg.cc/yJTMPgqH)
https://i.postimg.cc/G37SYdnj/photo-2022-09-28-16-49-45.jpg (https://postimg.cc/bdnTfXJG)
Direi niente male, riesco a giocare senza scendere sotto i 60 con ultra quality e rt high nelle scene più pesanti
narniagreen
28-09-2022, 18:18
Non mi aspettavo niente di diverso ovviamente, dai finitelo per la decima volta, ma con la vga nuova
PS parlo di questi due perché se ne è parlato nelle ultime due pagine
Ma è possibile che continui a farti caricare, per di più da chi negli ultimi anni è sparito per il corso di Judo?
:fagiano:
scorpion73
29-09-2022, 17:42
Sarei curioso di vedere come funziona XeSS in confronto sulle schede Intel, considerando che li viene eseguito in hardware mentre sulle altre schede mi pare sia eseguito in software, per capire se e quanto guadagna su Intel.
Per il resto direi che è un buon risultato con RT High, considerando anche che stai su una 6700XT e nemmeno su una 6800 o 6900.
Comunque vista l'attuale situazione di Nvidia, con prezzi veramente fuori di testa sulle nuove 4000 e i nuovi connettori col casino che ci gira intorno, se AMD riesce a stare sui 1000 euro (per il successore della 6800XT) e a proporre un RT fra ampere e ada, corredato magari come si vociferava anche di unità hardware like tensor, secondo me a sto giro fa il colpaccio, considerando anche che dovrebbe tenere gli 8 pin e non il nuovo connettore con tutte le chiacchiere che ci sono sopra (e questo sarebbe un plus non da poco).
Io ho sempre preso Nvidia (più per abitudine che per altro) ma a sto giro aspetto fiducioso AMD perché penso che possa essere la volta buona che se le cose vanno bene passo al rosso.
Giacchetta a sto giro secondo me ha veramente esagerato, per cui una mossa giusta da AMD rischia seriamente di sbaragliare la concorrenza e non avere rivali in rapporto prezzo/prestazioni.
scorpion73
29-09-2022, 17:49
A grandi linee è così anche con FSR 2.0, a differenza della versione 1.0 ha enormi boost ma principalmente su RNDA 1 e 2.
Però sulle attuali AMD non ha hardware dedicato, a differenza di XeSS su Intel.
Magari sulla serie nuova lo avrà e se è così ci sarà sicuramente un boost maggiore o potranno far uscire una versione che in hardware magari migliora di più la qualità delle immagini senza sacrificare le performance.
Windtears
29-09-2022, 18:46
continuo a non capire questa "fregola" per avere hardware dedicato per fare girare fsr.
le istruzioni ML girano anche in sw e non mi pare che con fsr2 si perda chissà quanto in prestazioni...
discorso diverso per rt se le unità generiche non lo lavorano bene, ma vediamo anche qui le modifiche all'architettura cosa comporteranno.
non è che se nvidia fa una cosa, si fa solo in quella maniera ed è quella "giusta". ;) fsr è lì a dimostrarlo che dlss<3 non necessitava di tensor core a tutti i costi.
scorpion73
29-09-2022, 20:13
Per la verità lo fa anche Intel. in ogni caso se hai hardware dedicato non può che essere meglio la cosa se lo sfrutti a dovere e questo hardware è fatto bene.
Questo è un principio che vale per tutti mica solo per nvidia.
Inviato dal mio iPhone utilizzando Tapatalk
nessuno29
29-09-2022, 20:40
Per la verità lo fa anche Intel. in ogni caso se hai hardware dedicato non può che essere meglio la cosa se lo sfrutti a dovere e questo hardware è fatto bene.
Questo è un principio che vale per tutti mica solo per nvidia.
Inviato dal mio iPhone utilizzando Tapatalk
hmm non mi convince questa cosa
Windtears
29-09-2022, 21:23
Per la verità lo fa anche Intel. in ogni caso se hai hardware dedicato non può che essere meglio la cosa se lo sfrutti a dovere e questo hardware è fatto bene.
Questo è un principio che vale per tutti mica solo per nvidia.
Inviato dal mio iPhone utilizzando Tapatalk
ti spiego meglio cosa intendo dire: se tu hai spazio su una gpu per 1000 unità di calcolo e ne dedichi 100 a qualcosa di specializzato avrai un 900+100 in tutti i giochi.
Quando le istruzioni specializzate non le usi (niente rt per esempio o dove dlss non ti serve vedi giochi che riesci a giocare tranquillamente alla risoluzione che vuoi) avrai sempre un 10% in meno di potenza, magari in raster, rispetto a chi quelle 100 unità le usa per emulare in sw il lavoro che fai tu in hardware.
Ora guardiamo al mercato odierno e futuro, e vorrei essere generoso.. il 20% dei titoli sfrutta quelle tecnologie che necessitano quelle istruzioni specifiche... ne vale la pena?
Secondo me no, secondo nvidia si, secondo intel si, secondo amd fino a rdna2 no, vedremo cosa farà con il 3.
fraussantin
29-09-2022, 21:32
secondo amd fino a rdna2 no, vedremo cosa farà con il 3.
Secondo me dovrà rincorrere ciò che il marketing ha convinto i clienti che sia importante.
Come in tutti i campi poi.
Windtears
29-09-2022, 21:47
Secondo me dovrà rincorrere cioè che il marketing ha convinto i clienti che è importante.
Come in tutti i campi poi.
temo di si, ma a volte ha "perseguito" la sua strada... vedi freesync. Chissà.
Andy1111
29-09-2022, 22:31
ti spiego meglio cosa intendo dire: se tu hai spazio su una gpu per 1000 unità di calcolo e ne dedichi 100 a qualcosa di specializzato avrai un 900+100 in tutti i giochi.
Quando le istruzioni specializzate non le usi (niente rt per esempio o dove dlss non ti serve vedi giochi che riesci a giocare tranquillamente alla risoluzione che vuoi) avrai sempre un 10% in meno di potenza, magari in raster, rispetto a chi quelle 100 unità le usa per emulare in sw il lavoro che fai tu in hardware.
Ora guardiamo al mercato odierno e futuro, e vorrei essere generoso.. il 20% dei titoli sfrutta quelle tecnologie che necessitano quelle istruzioni specifiche... ne vale la pena?
Secondo me no, secondo nvidia si, secondo intel si, secondo amd fino a rdna2 no, vedremo cosa farà con il 3.
Non ci sarà hardware dedicato
scorpion73
29-09-2022, 22:33
Non ci sarà hardware dedicato
Posso chiederti come lo sai? O lo presumi e basta?
Andy1111
29-09-2022, 22:36
Posso chiederti come lo sai? O lo presumi e basta?
L'ho letto se lo ritrovo te lo posto
StylezZz`
29-09-2022, 22:43
Non ci sarà hardware dedicato
Ci sono rumors che dicono diversamente:
https://videocardz.com/newz/amd-adds-wmma-wave-matrix-multiply-accumulate-support-to-gfx11-rdna3-architecture-amds-tensor-core
Andy1111
29-09-2022, 22:47
Ci sono rumors che dicono diversamente:
https://videocardz.com/newz/amd-adds-wmma-wave-matrix-multiply-accumulate-support-to-gfx11-rdna3-architecture-amds-tensor-core
Si ricordo quella ma è vecchia , la prima info che ricordo di aver letto è questa
https://www.phoronix.com/news/AMD-RDNA3-More-VGPRs
poi c'è un altra se la ritrovo la metto
Predator_1982
30-09-2022, 18:11
hmm non mi convince questa cosa
Come no, lo fai meglio e in maniera più efficiente. Per altro su unità anche più “semplici” delle generiche multi purpose
Gyammy85
30-09-2022, 18:35
AMD segue un approccio diverso, perché delle unità dedicate prendono molto spazio sul chip, cosa che porta a gpu grosse che nella maggior parte dei casi non rendono
Prendiamo rdna2, hanno messo i ray accelerators all'interno di ogni cu, e questo non ha comportato un aumento eccessivo delle dimensioni dello stesso, anzi praticamente sono rimaste le stesse di rdna
Con rdna3 sono passati a wgp doppi, quindi immagino che sia tutto molto più potente, solo passando alle simd32 navi 10 ha un'efficienza anche 4 volte superiore a vega, qui almeno un altro 2x si prende
Tabella riassuntiva di RDNA3
https://i.postimg.cc/c4rjw72B/RDNA3.jpg (https://i.postimg.cc/jKXbVZhm/RDNA3.jpg)
Ale55andr0
02-10-2022, 10:17
certi numeri non tornano tipo 32gb e 384bit x2
Se fosse così una 7700/7800 sarebbe l'ideale!
Edit, la la 6900xt rimane cmq una bestiola!
Edit 2, ma la xtx è la 6950 o 6900?
narniagreen
03-10-2022, 17:53
Comunque facevo due ragionamenti al volo sul +50% perf/watt, sarà un vero peccato non avere subito al lancio una 7600XT da 150~170 watt, praticamente si piazzerà in mezzo alla 6800 e 6800XT in FHD e QHD, ma proprio Easy, praticamente un -10~15% dalla 4080 12GB costando meno della metà e pure scaldando e consumando la metà, cosa che per un ITX come il mio è fondamentale, incredibile.
Molto probabile pure che in FHD vada quanto una 6900XT :eek:
Certo, la parte RT e mazzi non sarà alla stessa altezza delle 4000, ma indubbiamente meglio delle 6000 si.
https://i.ibb.co/5KM0drT/Cattura.jpg
narniagreen
03-10-2022, 17:57
certi numeri non tornano tipo 32gb e 384bit x2
sarà un refuso, volevano scrivere 2x 256bit imho
Windtears
03-10-2022, 18:43
https://twitter.com/1usmus/status/1573658256857243648
è lo stesso tizio del tool di overclock di zen (ed è lo stesso che lavorava in asus ai tempi di zenstate e zen1)...
pare che stia preparando un tool per l'oc di rdna2 (e 3).
sarà bello vedere cosa si potrà fare... io per ora ho rdna1 per cui mi attacco, ma vedremo ho sempre la scimmia per una eventuale 7800. :D
LentapoLenta
03-10-2022, 19:50
https://twitter.com/1usmus/status/1573658256857243648
è lo stesso tizio del tool di overclock di zen (ed è lo stesso che lavorava in asus ai tempi di zenstate e zen1)...
pare che stia preparando un tool per l'oc di rdna2 (e 3).
sarà bello vedere cosa si potrà fare... io per ora ho rdna1 per cui mi attacco, ma vedremo ho sempre la scimmia per una eventuale 7800. :D
Spero sia un po’ meglio di Hydra che ruzzola mezza giornata e sforna OC assolutamente instabili…
Windtears
03-10-2022, 20:30
Spero sia un po’ meglio di Hydra che ruzzola mezza giornata e sforna OC assolutamente instabili…
io uso ctr e non mi sono trovato male, non avendo ryzen 5000 hydra non l'ho toccato. :(
Comunque facevo due ragionamenti al volo sul +50% perf/watt, sarà un vero peccato non avere subito al lancio una 7600XT da 150~170 watt, praticamente si piazzerà in mezzo alla 6800 e 6800XT in FHD e QHD, ma proprio Easy, praticamente un -10~15% dalla 4080 12GB costando meno della metà e pure scaldando e consumando la metà, cosa che per un ITX come il mio è fondamentale, incredibile.
Molto probabile pure che in FHD vada quanto una 6900XT :eek:
Certo, la parte RT e mazzi non sarà alla stessa altezza delle 4000, ma indubbiamente meglio delle 6000 si.
https://i.ibb.co/5KM0drT/Cattura.jpg
della 7600 hanno detto qualcosa?
Facendo le dovute proporzioni mi aspetterei un target di performance vicino alle 6700xt con prezzi attorno alle 300/330€ e tanto mi basterebbe.
della 7600 hanno detto qualcosa?
Facendo le dovute proporzioni mi aspetterei un target di performance vicino alle 6700xt con prezzi attorno alle 300/330€ e tanto mi basterebbe.
Perf 6900 prezzo 400$ 8gb così si rumoreggia, staremo a vedere non manca molto!
Gyammy85
04-10-2022, 10:17
Perf 6900 prezzo 400$ 8gb così si rumoreggia, staremo a vedere non manca molto!
Beh per navi 33 se ne parla nel 2023 inoltrato
Beh per navi 33 se ne parla nel 2023 inoltrato
Si dai rumor pare così, però immagino Lisa svuoterà il sacco il 3!
Gyammy85
04-10-2022, 11:49
Si dai rumor pare così, però immagino Lisa svuoterà il sacco il 3!
Navi 31 e 32, non credo parlino delle piccole
narniagreen
05-10-2022, 09:51
della 7600 hanno detto qualcosa?
Facendo le dovute proporzioni mi aspetterei un target di performance vicino alle 6700xt con prezzi attorno alle 300/330€ e tanto mi basterebbe.
Verosimilmente usciranno nel Q2~Q3 2023, tra 9 mesi :stordita:
Sulla carta le prestazioni sono quelle li con +50%, 7600→6800 e 7600XT→6800XT senza strafare in FHD, anche perchè non puoi tararle troppe alte altrimenti ammazzeresti le 7700/XT.
in QHD batteranno sicuramente una 6700XT, doppiandola in RT.
Per le mie pretese e il mio target di prezzo andrebbero bene, aspetto volentieri un anno.
Perf 6900 prezzo 400$ 8gb così si rumoreggia, staremo a vedere non manca molto!
Ma no Freisar, decisamente troppo, il salto 5600→6600 è stato intorno al +35~40%, sulla carta anche se puoi fare +50% poi bisogna vedere la segmentazione del mercato, e non avvicinarti troppo alle 7700.
Comunque sia una cosa è certa, la 7700XT asfalterà la 4080 12GB sia come prestazioni che prezzo, sul RT andrà meno, il punto è quanto meno.
Apro questo thread per aspettare il resto della line up HD7000 e oltre...
Quel che ci dobbiamo attendere nel futuro prossimo:
http://content.hwigroup.net/images/news/115b.jpg
Ma spero vadano di più di questo schema altrimenti si prende la 6950x e via non hanno senso le nuove…
Gyammy85
05-10-2022, 12:58
Ma spero vadano di più di questo schema altrimenti si prende la 6950x e via non hanno senso le nuove…
Guarda che quelle li sono le hd7000 uscite nel 2012 :stordita:
Gyammy85
05-10-2022, 12:59
Verosimilmente usciranno nel Q2~Q3 2023, tra 9 mesi :stordita:
Sulla carta le prestazioni sono quelle li con +50%, 7600→6800 e 7600XT→6800XT senza strafare in FHD, anche perchè non puoi tararle troppe alte altrimenti ammazzeresti le 7700/XT.
in QHD batteranno sicuramente una 6700XT, doppiandola in RT.
Per le mie pretese e il mio target di prezzo andrebbero bene, aspetto volentieri un anno.
Ma no Freisar, decisamente troppo, il salto 5600→6600 è stato intorno al +35~40%, sulla carta anche se puoi fare +50% poi bisogna vedere la segmentazione del mercato, e non avvicinarti troppo alle 7700.
Comunque sia una cosa è certa, la 7700XT asfalterà la 4080 12GB sia come prestazioni che prezzo, sul RT andrà meno, il punto è quanto meno.
Le perf rt saranno a livello simile a sto giro
Arrow0309
05-10-2022, 13:15
Ma spero vadano di più di questo schema altrimenti si prende la 6950x e via non hanno senso le nuove…
Guarda che quelle li sono le hd7000 uscite nel 2012 :stordita:
:asd: :asd: :asd:
Ma spero vadano di più di questo schema altrimenti si prende la 6950x e via non hanno senso le nuove…
7970 GHz una delle migliori schede mai avute!
:D
Ale55andr0
05-10-2022, 13:49
Le perf rt saranno a livello simile a sto giro
Ottimo. Ma meglio segnarselo sto post, just in case.
Gyammy85
05-10-2022, 13:59
Ottimo. Ma meglio segnarselo sto post, just in case.
Nei giochi belli col marchietto rosso ovviamente
Ale55andr0
05-10-2022, 14:03
Nei giochi belli col marchietto rosso ovviamente
Mi pare giusto :O. Qualche bel corridoio che rivoluziona il genere magari (semicit), addirittura in vero RT e non solo sulle ombre!!! sbavone per quello che potrebbe significare per l'industria videoludica :eek: :eek: :eek:
Ah no spè control è già uscito e lo ha già, 'naggia :doh:
Pazienza, sarà per la prossima rivoluzione, magari faranno addirittura un open world con illuminazione full errett...ah, no, pure quello c'è già :doh:
Ma spè, non demordiamo: faranno ashes of singleperaltruivolontà in RT, amEzinG!!!! Siamo salvi :O
narniagreen
05-10-2022, 16:23
Ottimo. Ma meglio segnarselo sto post, just in case.
Tu che magari non verrai bannato al ritorno di freeman, segnatelo per davvero, che come al solito ha detto la sua solita massima :asd:
narniagreen
05-10-2022, 16:24
Mi pare giusto :O. Qualche bel corridoio che rivoluziona il genere magari (semicit), addirittura in vero RT e non solo sulle ombre!!! sbavone per quello che potrebbe significare per l'industria videoludica :eek: :eek: :eek:
Ah no spè control è già uscito e lo ha già, 'naggia :doh:
Pazienza, sarà per la prossima rivoluzione, magari faranno addirittura un open world con illuminazione full errett...ah, no, pure quello c'è già :doh:
Ma spè, non demordiamo: faranno ashes of singleperaltruivolontà in RT, amEzinG!!!! Siamo salvi :O
:asd: :asd: :asd:
Gyammy85
05-10-2022, 16:32
:asd: :asd: :asd:
Non sono stato io a tirare fuori la storiella dei giochi rossi e verdi per quello che può valere
Per rt boh, i leakers non si sono sbilanciati nel dire che andranno male
Segnate quello che volete
narniagreen
05-10-2022, 16:44
Non sono stato io a tirare fuori la storiella dei giochi rossi e verdi per quello che può valere
Per rt boh, i leakers non si sono sbilanciati nel dire che andranno male
Segnate quello che volete
Ma come si possa solamente immaginare che andranno uguali in RT?
Quando una spinge su quella tecnologia da 4 anni e l'altra no?
Già pareggiassero anche solo Ampere avrebbero fatto il loro, significa fare quasi 2x secco così.
Per me il divario resterà quello di oggi nel RT più o meno, supereranno di un pelo Ampere a pari segmento.
Windtears
05-10-2022, 16:57
Ma come si possa solamente immaginare che andranno uguali in RT?
Quando una spinge su quella tecnologia da 4 anni e l'altra no?
.
fermo restando che nessuno ha la palla di cristallo, ma non si diceva lo stesso di dlss? mi pare che fsr2 non abbia niente da meno del dlss 2.x...
perché in RT non dovrebbe recuperare? Alla fine quando sei indietro di tanto è più facile avvicinarsi, mentre migliorare sempre di tanto è più difficile perché hai ottimizzato già.
Leggete bene il commento come amd nelle cpu da bulldozer a zen, non vuole essere pro-amd o anti nvidia, sia chiaro (per quanto ci voglia poco con sta politica elitaria che stanno facendo nel gaming).
Arrow0309
05-10-2022, 17:12
7970 GHz una delle migliori schede mai avute!
:D
Quoto, ho avuto la 7970 Dual-X
Ma costavano 400 euro :fagiano: :stordita:
di solito amd quando e' troppo dietro in caratteristiche ricercate, nella generazione successiva cerca di mettersi alla pari
con l'RT non puo' proprio piu' permettersi di fare finta che non e' importante
migliorarsi un po adesso non sarebbe sufficiente, vi pare che nvidia si fermava?
non solo, sono uscite oggi le recensioni delle ARC intel, hanno come prevedibile problemi con i driver, ma nonostante tutto in RT gia se la cava egregiamente rispetto a nvidia, anzi a mikael gli risulta che ha persino alcune caratteristiche da Lovelace..alla sua prima implementazione
questa volta amd deve superare se stessa e cercare di sistemare la cosa una volta per tutte
Ale55andr0
05-10-2022, 20:26
Non sono stato io a tirare fuori la storiella dei giochi rossi e verdi per quello che può valere
Per rt boh, i leakers non si sono sbilanciati nel dire che andranno male
Segnate quello che volete
veramente sei stato tu che nella news di cd project hai iniziato a dire le solite attaccando perchè "open world"
https://www.hwupgrade.it/forum/showthread.php?t=2969195
(ovviamente cdp sponsorizzata nvidia, gli open world rossi vanno bene e non li hai mai citati lagnandoti...), il resto è stato di conseguenza, come il rivoluzionario gioco a corridoio in RT che suppongo non vorresti visto che l'open non va bene (o preferisci il monolocale invece del corridoio per innovare?) che però abbiamo appurato esistere già, pazienza.
Pure io penso andrà così. E a me andrebbe benissimo.
ci potrebbe stare, un soffio più delle 3000 segmento per segmento, ma è più auspicabile porsi esattamente a metà fra le 3000 e le 4000 in RT, ecco quello sarebbe un risultato da plaudire :)
narniagreen
06-10-2022, 10:20
Semplicemente rimane il fatto che AMD non ha ancora dichiarato nulla lato RT o rilasciato leak, si sa solo del +50% in perf/watt (che sinceramente un po' poco, rdna2 fa +65% su rdna1), e mi baso su dati ufficiali e non su supposizioni che non esistono ma che sono per lo più speranze, dai è passato quel tempo...
Detto che del RT mi interessa forse un 10%, non sacrifico almeno il 50% delle performance per due riflessi e due lucette, senza dubbio DEVONO mettersi in riga anche solo per un discorso di marketing.
A me personalmente della scheda lunga 40cm, spessa 4 slot da +450watt non me ne frega un terzo, a prescindere, ma devo metterla in un mini ITX e che stia intorno i ~200watt AL MASSIMO, senza sembrare un rave party.
Ho installato ACC, voglio vedere come regge la Vega56+3700x in QHD, in teoria dovrei tenere abbastanza i 60fps su high, al limite proverò sto cacchio di FSR, in Quality...
Gyammy85
06-10-2022, 11:17
di solito amd quando e' troppo dietro in caratteristiche ricercate, nella generazione successiva cerca di mettersi alla pari
con l'RT non puo' proprio piu' permettersi di fare finta che non e' importante
migliorarsi un po adesso non sarebbe sufficiente, vi pare che nvidia si fermava?
non solo, sono uscite oggi le recensioni delle ARC intel, hanno come prevedibile problemi con i driver, ma nonostante tutto in RT gia se la cava egregiamente rispetto a nvidia, anzi a mikael gli risulta che ha persino alcune caratteristiche da Lovelace..alla sua prima implementazione
questa volta amd deve superare se stessa e cercare di sistemare la cosa una volta per tutte
Andare meglio in rt è facile, basta via driver abbassare leggermente precisione senza che si veda troppo
Si lo so le sparo grosse, ma abbiamo un test che indichi come viene renderizzato questo rt? non mi pare, perché è tutto un trolling o marketing mirato a dire che senza la roba buona proprio nonsipuòfare
Ora in base agli ultimi leak della 4080 16 gb, fa +63% in port royale rispetto alla 6950xt, con un'implementazione matura vs la prima gen di amd con tutta una serie di cose fatte senza usare unità hardware
Se non è quantomeno recuperabile un gap di questo tipo allora boh, perché quanto la fanno andare, quanto una 3090ti? 3090? con un'arch stravolta e passaggio pp? io di questi ragionamenti ne ho visti a iosa in questi anni, salvo poi ritrattare e dire il classico "era il minimo che potessero fare"
Ale55andr0
06-10-2022, 11:47
Semplicemente rimane il fatto che AMD non ha ancora dichiarato nulla lato RT o rilasciato leak, si sa solo del +50% in perf/watt (che sinceramente un po' poco, rdna2 fa +65% su rdna1).
considera però che come fatto per le cpu non le terranno a pari watt fascia per fascia...quindi il +50% è un riferimento cui aggiungere un tot di extra performance perchè spremeranno di più i chip a sto giro, ormai la filosofia di tutti è questa
Ale55andr0
06-10-2022, 11:49
Andare meglio in rt è facile, basta via driver abbassare leggermente precisione senza che si veda troppo
Come a dire facciamo porcherie come il dlss performance ma in questo caso van bene :doh: . Deve recuperare e basta, non può non farlo se persino intel dovrebbe fare benino in rt a quanto si dice
Gyammy85
06-10-2022, 11:51
considera però che come fatto per le cpu non le terranno a pari watt fascia per fascia...quindi il +50% è un riferimento cui aggiungere un tot di extra performance perchè spremeranno di più i chip a sto giro, ormai la filosofia di tutti è questa
Perché con rdna2 che hanno fatto, la 5700xt era 220 watt mi pare, infatti la 6700xt fa circa +50%, la 6900xt doppio, è sempre una combinazione
Per navi 31 si parla di max 400 watt, ma secondo me si terranno sui 350 per sfruttare il lato efficienza
Legolas84
06-10-2022, 12:48
Per quando sarebbe previsto il lancio e disponibilità delle nuove VGA?
Inviato dal mio iPhone utilizzando Tapatalk Pro
Gyammy85
06-10-2022, 13:01
Per quando sarebbe previsto il lancio e disponibilità delle nuove VGA?
Inviato dal mio iPhone utilizzando Tapatalk Pro
Penso entro la fine di novembre dato che la presentaizone è il 3
Legolas84
06-10-2022, 13:26
Bene, devo cambiare tutto entro fine anno e devo capire se tenere la 3080 o cambiarla..
Inviato dal mio iPhone utilizzando Tapatalk Pro
narniagreen
06-10-2022, 15:17
considera però che come fatto per le cpu non le terranno a pari watt fascia per fascia...quindi il +50% è un riferimento cui aggiungere un tot di extra performance perchè spremeranno di più i chip a sto giro, ormai la filosofia di tutti è questa
Io spero non si discostino di oltre +50watt a pari fascia con le 6000.
Comunque poi ho specificato nel mio post che non mi interessa questa rincorsa all'uber, l'avanzamento tecnologico poi si valuta a pari watt, altrimenti facciamo che nel 2025 la fascia media diventa 400watt, io non so se hai visto il dissipatore della 4090, una roba imbarazzante, 37cm, 4 slot, 2.5 kg... ma dove stanno andando?
Il target rimane 200~220watt, cioè almeno 2x Vega56 Raster minimo, minimo.
Significa +50% ogni 2 anni di efficienza, il minimo sindacale che si possa chiedere con 2 salti di nodo e 3 di architettura, no?
Poi ok potete dirmi che hanno aggiunto spazio, transistor e progettazione per RT, ma sti cazzi.
Per quando sarebbe previsto il lancio e disponibilità delle nuove VGA?
Inviato dal mio iPhone utilizzando Tapatalk Pro
sulla carta Q4 2022, street... boh, si spera Q1 2023 in maniera cospicua.
Windtears
06-10-2022, 16:20
Bene, devo cambiare tutto entro fine anno e devo capire se tenere la 3080 o cambiarla..
mi sembra che tu abbia già una signora scheda, non mi pare ci sia all'orizzonte qualcosa che possa metterla in difficoltà (a meno di 4k 120hz+ e rt spinto credo).
penso tu sia nelle condizioni migliori per aspettare e valutare, anche che si calmino i bollenti spiriti da primi giorni di vendita (e sold out a causa bagarini che ci saranno sicuramente).
Ale55andr0
07-10-2022, 15:46
..in the mean time alcuni recensori stanno dicendo che le intel picchiano forte in RT. AMD ha zero scuse a sto giro...
OvErClOck82
07-10-2022, 15:54
..in the mean time alcuni recensori stanno dicendo che le intel picchiano forte in RT. AMD ha zero scuse a sto giro...picchiano forte significa che vanno più delle Nvidia 3000?
Inviato dal mio DN2103 utilizzando Tapatalk
picchiano forte significa che vanno più delle Nvidia 3000?
Inviato dal mio DN2103 utilizzando Tapatalk
Parlando degli RT core... direi che a spanne si può dire di si, sono poche unità (In Arc 770) ma vanno forte, hanno addirittuta, come dice Mikael84, funzioni che troviamo negli RT core di Lovelace. Insomma tanta roba.
ninja750
07-10-2022, 16:30
..in the mean time alcuni recensori stanno dicendo che le intel picchiano forte in RT. AMD ha zero scuse a sto giro...
infatti io credo che in RT andrà uguale o poco poco sotto, si sono frenati con le 6000 per contenere costi e consumi ma visto che ambedue sono stati sdoganati del tutto, credo che non saranno carenti da questo punto di vista
narniagreen
07-10-2022, 16:58
Io se non hanno prezzi e consumi umani l'rt se lo possono sbattere dove non batte il sole :asd:
:mano:
Anche perchè ieri finalmente ho provato Assetto Corsa Competizione e mi gira a 60 fps fissi in QHD tutto su Alto, FSR off, KTAA medio, bomba.
Ah la mia Vagina, pardon scusate, Veghina 56 :vicini:
ninja750
07-10-2022, 17:00
Io se non hanno prezzi e consumi umani l'rt se lo possono sbattere dove non batte il sole :asd:
consumi e prezzi per me specialmente nella fascia uber 7900XT saranno a braccetto con la 4090, forse i consumi un pelo meglio
lasciando perdere cose incomprabili, sarà interessante vedere consumi prezzi e prestazioni della fascia 7800XT perchè a parte DLSS3.0 vedo tutto molto ma molto competitivo
Ale55andr0
07-10-2022, 17:06
infatti io credo che in RT andrà uguale o poco poco sotto, si sono frenati con le 6000 per contenere costi e consumi ma visto che ambedue sono stati sdoganati del tutto, credo che non saranno carenti da questo punto di vista
come detto se si portassero a metà fra 3090 e 4090 in RT lo giudicherei sicuramente un buon lavoro. Cmq più che frenati con le 6000 non erano semplicemente pronti
narniagreen
07-10-2022, 17:59
consumi e prezzi per me specialmente nella fascia uber 7900XT saranno a braccetto con la 4090, forse i consumi un pelo meglio
lasciando perdere cose incomprabili, sarà interessante vedere consumi prezzi e prestazioni della fascia 7800XT perchè a parte DLSS3.0 vedo tutto molto ma molto competitivo
https://i.ibb.co/kmYkVG1/1.jpg
Sul costo ne dubito, AMD unisce più chip piccoli e non fa il padellone, a 5nm e non a 4nm, qualcosa risparmia sicuro, potrebbe proporre un prezzo di almeno 100$ meno a pari prestazioni, anzi, DEVE farlo, considerando che RT non sarà alla stessa altezza.
Sul discorso TDP/consumi si, sulla carta da quanto promesso ad AMD bastano 400watt per pareggiare la 4090, e meno di 300watt per pareggiare la 4080 16GB, poi vedremo se risponderà alla 4090ti da 550watt stock :asd:
ombramortale
07-10-2022, 18:36
Perché con rdna2 che hanno fatto, la 5700xt era 220 watt mi pare, infatti la 6700xt fa circa +50%, la 6900xt doppio, è sempre una combinazione
Per navi 31 si parla di max 400 watt, ma secondo me si terranno sui 350 per sfruttare il lato efficienza
Magari ricordo male ma si parlava di 100 W idi consumo di picco (furmark?) in più rispetto alla 6950 xt che dovrebbe stare secondo le review a 350 (sempre di picco).
Unito al +50% perf/watt le prestazioni "grezze" dovrebbero stare al doppio.
Ricordo male?
Spero che solo la 7900 sia alta nei consumi
Il 3 novembre per quanto si sappia dovrebbero "lanciare" solo la fascia alta o anche le 77** 76** ecc? Devo sostituire la 5600xt con qualcosa di usabile in 1440p e i prezzi delle 6000 mi tentano non poco :s
StylezZz`
09-10-2022, 00:58
Il 3 novembre per quanto si sappia dovrebbero "lanciare" solo la fascia alta o anche le 77** 76** ecc? Devo sostituire la 5600xt con qualcosa di usabile in 1440p e i prezzi delle 6000 mi tentano non poco :s
Solo fascia alta.
Solo fascia alta.
7900/7800?
Anche quest'anno non si compra visto i prezzi che sicuramente avranno!
Edit: che poi se consumano anche tanto si attaccano al tram!
Il mio limite è il consumo e le prestazioni della 6900 se tipo la 7800 e migliore è mia se no aspetto una 6900 a buon prezzo!
Gyammy85
09-10-2022, 16:53
Conferme sull'esistenza della 7950XT
https://videocardz.com/newz/enermax-psu-calculator-already-mentions-unreleased-radeon-rx-7000xt-and-geforce-rtx-40-gpus
Sarebbe una sku over the top rispetto alla 7900xt indicata da 330 watt
Conferme sull'esistenza della 7950XT
https://videocardz.com/newz/enermax-psu-calculator-already-mentions-unreleased-radeon-rx-7000xt-and-geforce-rtx-40-gpus
Sarebbe una sku over the top rispetto alla 7900xt indicata da 330 watt
Buono per la 7900xt
Seguo con interesse :)
Non mi aspetto prezzi che si discostino molto da quelli Nvidia,almeno per la top,oramai AMD ha abbandonato il concetto di "value choice"
Io seguo giusto per vedere cosa farà nvidia lato prezzi ma non credo che amd li metta superiore alla nvidia anzi. Magari avrà meno tensor core e finirà come la serie 3000. Ma molto dipenderà lato rt ed il resto su amd.
Lato prezzi non faranno niente nessuno dei due,tranquillo,quelli fissano e quelli rimangono,si conoscono già a vicenda
Quello è vero :) però quando c'era la serie 3000 almeno c'era una differenza sulla 3090 e la punta amd di un bel po di euro.
Sono curioso di vedere a quanto lo mette stavolta amd.
La 3090 semplicemente aveva un prezzo fuori di logica,ci prendevi 2 RTX 3080 a prezzo di listino
Imho la 7950XT la vedremo a 1499€,e la 7900XT a 1099€,poi spero di sbagliarmi
Euro o dollari secondo te?
€,almeno lo spero :D
La 3090 semplicemente aveva un prezzo fuori di logica,ci prendevi 2 RTX 3080 a prezzo di listino
Imho la 7950XT la vedremo a 1499€,e la 7900XT a 1099€,poi spero di sbagliarmi
Ci starebbe magari un 100€ di meno!
narniagreen
10-10-2022, 11:39
Conferme sull'esistenza della 7950XT
https://videocardz.com/newz/enermax-psu-calculator-already-mentions-unreleased-radeon-rx-7000xt-and-geforce-rtx-40-gpus
Sarebbe una sku over the top rispetto alla 7900xt indicata da 330 watt
In fascia performance la 7700/XT dovrebbe letteralmente bastonare la 4060, a pari TDP 200watt, Ottimo, anche in fascia alta le 7800/XT dovrebbero avere vita facile sulla 4070 e 4080.
Presumo sarà così anche in fascia media, le 7600XT arriveranno tardi ma avranno vita facile.
Per quanto riguarda la 4090, la 7950XT la possono fare anche da 500watt, sti cazzi, ma già a 420 supera o al massimo pareggia la 4090 da 450, stiamo a circa +90% dalla 6950XT da 330 watt, Nvidia dichiara una media di +80% della 4090 sulla 3090ti (vedi slide ufficiale).
https://www.hardwaretimes.com/wp-content/uploads/2022/09/RTX-4090-1024x576.jpg
La 7900XT da 330/350watt sarà al vera Killer della 4090 e 408016GB, +65% dalla 6900XT (330vs300 + 50%) al prezzo della 4080 16GB, almeno sul raster sarà un massacro.
https://tpucdn.com/review/amd-radeon-rx-6950-xt-reference-design/images/relative-performance_2560-1440.png
L'unica arma di Nvidia sarà la 4090ti da +3000€ e 550~600watt :asd:
Su RT non ci si può pronunciare, si può solo immaginare che quanto meno superino Ampere dopo 1 gen, conta relativamente RT ma non è più trascurabile sia all'utenza e per vendere a quelle cifre, non parliamo di fascia media o bassa, altrimenti... altrimenti costeranno decisamente meno delle 4000, ma ne dubito.
Insomma, a sto giro Nvidia avrà dalla sua pure il silicio, vedremo che scuse si cercheranno, o se reggerà il "hanno spinto sul ray tracing".
Tutto questo tecnicamente forse interessante, ma poi sarà bello se vanificato da cifre folli :asd:
Gyammy85
10-10-2022, 12:13
In fascia performance la 7700/XT dovrebbe letteralmente bastonare la 4060, a pari TDP 200watt, Ottimo, anche in fascia alta le 7800/XT dovrebbero avere vita facile sulla 4070 e 4080.
Presumo sarà così anche in fascia media, le 7600XT arriveranno tardi ma avranno vita facile.
Per quanto riguarda la 4090, la 7950XT la possono fare anche da 500watt, sti cazzi, ma già a 420 supera o al massimo pareggia la 4090 da 450, stiamo a circa +90% dalla 6950XT da 330 watt, Nvidia dichiara una media di +80% della 4090 sulla 3090ti (vedi slide ufficiale).
https://www.hardwaretimes.com/wp-content/uploads/2022/09/RTX-4090-1024x576.jpg
La 7900XT da 330/350watt sarà al vera Killer della 4090 e 408016GB, +65% dalla 6900XT (330vs300 + 50%) al prezzo della 4080 16GB, almeno sul raster sarà un massacro.
https://tpucdn.com/review/amd-radeon-rx-6950-xt-reference-design/images/relative-performance_2560-1440.png
L'unica arma di Nvidia sarà la 4090ti da +3000€ e 550~600watt :asd:
Su RT non ci si può pronunciare, si può solo immaginare che quanto meno superino Ampere dopo 1 gen, conta relativamente RT ma non è più trascurabile sia all'utenza e per vendere a quelle cifre, non parliamo di fascia media o bassa, altrimenti... altrimenti costeranno decisamente meno delle 4000, ma ne dubito.
Insomma, a sto giro Nvidia avrà dalla sua pure il silicio, vedremo che scuse si cercheranno, o se reggerà il "hanno spinto sul ray tracing".
Tutto questo tecnicamente forse interessante, ma poi sarà bello se vanificato da cifre folli :asd:
La 4090ti uscirà poco prima le 5000 e sarà da 750 watt per dire "guardate consuma uguale e va +70%" esattamente come hanno fatto adesso
L'unica arma di nvidia è il DLSS3, il meraviglioso, potente, incredibile, aperto a mille miglioramenti, amico dei gamers, amico dei creators, amico dei developers, amico degli youtubers, DLSS3
La 4090ti uscirà poco prima le 5000 e sarà da 750 watt per dire "guardate consuma uguale e va +70%" esattamente come hanno fatto adesso
L'unica arma di nvidia è il DLSS3, il meraviglioso, potente, incredibile, aperto a mille miglioramenti, amico dei gamers, amico dei creators, amico dei developers, amico degli youtubers, DLSS3
a spanne direi che il dlss3 ti stia sulle palle :stordita:
Gyammy85
10-10-2022, 13:06
a spanne direi che il dlss3 ti stia sulle palle :stordita:
No no, è solo una considerazione basata su cose già successe
narniagreen
10-10-2022, 16:39
a spanne direi che il dlss3 ti stia sulle palle :stordita:
Come gli stava sulle palle il Ray tracing, ora che ha la 6000 gongola, prima con la 580 ne diceva di ogni :asd:
Chiedi ora cosa ne pensa del ray tracing, pensa se sulle 7000 ci saranno i tensor core e faranno una cosa simile in AMD al DLSS :asd:
Almeno io rimango coerente, anche perchè al momento non è che o non hai la scheda con RT o non giochi forzatamente, ma ammetto che a livello di vendite e marketing non è più trascurabile così come i super resolution vari, verde, rosso o blu.
E' solo che sta iniziando a rosicare ancora prima di domani :asd:
No Life King
10-10-2022, 17:14
La 3090 semplicemente aveva un prezzo fuori di logica,ci prendevi 2 RTX 3080 a prezzo di listino
Imho la 7950XT la vedremo a 1499€,e la 7900XT a 1099€,poi spero di sbagliarmi
Fossero così ci metterei la firma
Voi parlate di massacro,la 7900Xt va più della RTX 4090 in raster e consuma 150W in meno...spero proprio che abbiate ragione,ma mi sembrate un po troppo ottimistici,poi ripeto...ma magari ;)
Mi basta che in raster vadano quasi uguali e rt decente ma ad un prezzo più contenuto! Per i consumi spero siano quelli riportati!
https://tpucdn.com/review/amd-radeon-rx-6950-xt-reference-design/images/relative-performance_2560-1440.png
Questo diagramma fa sembrare la mia Vega 64 un fermacarte :asd:
Sogno una scheda che mi faccia fare un 2x sulle prestazioni a max 600€. :stordita:
necromantis
10-10-2022, 18:36
Questo diagramma fa sembrare la mia Vega 64 un fermacarte :asd:
Sogno una scheda che mi faccia fare un 2x sulle prestazioni a max 600. :stordita:
Io sono appena passato da una vega 56 ad una asus tuf 6800xt per 600€ avrò un bel balzo di prestazioni
Inviato dal mio iPhone utilizzando Tapatalk
narniagreen
10-10-2022, 18:54
Voi parlate di massacro,la 7900Xt va più della RTX 4090 in raster e consuma 150W in meno...spero proprio che abbiate ragione,ma mi sembrate un po troppo ottimistici,poi ripeto...ma magari ;)
Anche no, detto che la 7900XT dovrebbe essere prezzato a 1000+iva e che andrebbe ad uno sputo della 4090 e sopra la 408016GB.
la 7950XT da 420watt sopra o pari alla 4090.
Almeno stando dalle tabelle Enermax tra 7900XT e 7950XT ci sarà un gap enorme e non una trollata come 6950xt e 6900xt.
7950XT 420watt
7900XT 330watt
7800XT 300watt
7700XT 200watt
questi erano i valori della tebella enermax
4090 450watt
4080 320watt
4080 285watt (4070)
4060 200watt
narniagreen
10-10-2022, 18:55
Questo diagramma fa sembrare la mia Vega 64 un fermacarte :asd:
Sogno una scheda che mi faccia fare un 2x sulle prestazioni a max 600€. :stordita:
7600XT forse non proprio 2x secco soprattutto ad alte res, ma la 7700 liscia sicuramente si, il problema è quando.
Io ho la Vega56 e al massimo punterei a quelle, anche perchè devo ficcarle in un mini ITX, molto mini, la Vega56 Pulse ci è stata al pelo.
narniagreen
10-10-2022, 18:56
Io sono appena passato da una vega 56 ad una asus tuf 6800xt per 600€ avrò un bel balzo di prestazioni
Inviato dal mio iPhone utilizzando Tapatalk
esatto, la 7600Xt dovrebbe andare uguale in FHD, e come la 6800 in QHD.
7700 decisamente sopra.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.