View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™
devAngnew
05-11-2022, 16:38
Avevo postato quelle immagini perché l'utente parlava di illuminazione globale, e non pensavo che spiderman avesse l'RT solo sulle riflessioni, vabbè, Sackboy invece ha tutte le tre opzioni, e in 4K nativa si passa da
150 FPS senza RT
https://postimages.org/][img]https://i.postimg.cc/3R7B27jq/immagine-1.png
a 50 FPS con MAX-RT
https://postimages.org/][img]https://i.postimg.cc/0yDDnFN1/immagine2.png
Bo... a me pare assurdo il conto da pagare sia in termini di fps ed economici, e se questo è il futuro che ci aspetta, in questo gioco mi sembra palese che l'RT sia stato messo solo per poter dire ce l'abbiamo pure noi, dell'RT ne faccio volentieri a meno :)
https://it.gamegpu.com/rpg/giochi-di-ruolo/sackboy-un-grande-test-di-avventura-gpu-cpu
[QUOTE=eXeS;48000335]Sbagliato, la prima è senza RT e la seconda con RT :D
Non ho gpu con rt ma questa è l'ennesima prova che serve veramente a poco ad oggi il realtime rt.
In sackboy ho controllato su digital coso ed ha ombre, riflessi e AO in rt si vede proprio la differenza :asd:
amon.akira
05-11-2022, 16:40
https://i.ibb.co/7zy9sHy/Sackboy-A-Big-Adventure-05-11-2022-17-35-51.png (https://ibb.co/7zy9sHy)
https://i.ibb.co/34nX23k/Sackboy-A-Big-Adventure-05-11-2022-17-36-00.png (https://ibb.co/34nX23k)
ora scappo, ci becchiamo stasera per nuove fregnacce XD
devAngnew
05-11-2022, 16:47
https://i.ibb.co/7zy9sHy/Sackboy-A-Big-Adventure-05-11-2022-17-35-51.png (https://ibb.co/7zy9sHy)
https://i.ibb.co/34nX23k/Sackboy-A-Big-Adventure-05-11-2022-17-36-00.png (https://ibb.co/34nX23k)
ora scappo, ci becchiamo stasera per nuove fregnacce XD
Guarda che ha ragione lui eh.. :asd: l'hai confermato tu stesso :sofico:
mircocatta
05-11-2022, 16:50
Avevo postato quelle immagini perché l'utente parlava di illuminazione globale, e non pensavo che spiderman avesse l'RT solo sulle riflessioni, vabbè, Sackboy invece ha tutte le tre opzioni, e in 4K nativa si passa da
150 FPS senza RT
https://i.postimg.cc/3R7B27jq/immagine-1.png (https://postimages.org/)
a 50 FPS con MAX-RT
https://i.postimg.cc/0yDDnFN1/immagine2.png (https://postimages.org/)
Bo... a me pare assurdo il conto da pagare sia in termini di fps ed economici, e se questo è il futuro che ci aspetta, in questo gioco mi sembra palese che l'RT sia stato messo solo per poter dire ce l'abbiamo pure noi, dell'RT ne faccio volentieri a meno :)
https://it.gamegpu.com/rpg/giochi-di-ruolo/sackboy-un-grande-test-di-avventura-gpu-cpu
no dai, è la stessa immagine vero? :stordita: :stordita:
che marchettata che ci hanno tirato addosso mamma mia :asd: e poi mi tocca sentire lamentele sulla presentazione amd che ha marchettato 8k e dp 2.1, eh si, son quelli i problemi :asd:
devAngnew
05-11-2022, 16:53
no dai, è la stessa immagine vero? :stordita: :stordita:
che marchettata che ci hanno tirato addosso mamma mia :asd: e poi mi tocca sentire lamentele sulla presentazione amd che ha marchettato 8k e dp 2.1, eh si, son quelli i problemi :asd:
Se amon non metteva le immagine con il pannello di configurazione in primo piano neache lui sapeva distinguerle :sofico:
ahrevelation
05-11-2022, 16:56
Bo... a me pare assurdo il conto da pagare sia in termini di fps ed economici, e se questo è il futuro che ci aspetta, in questo gioco mi sembra palese che l'RT sia stato messo solo per poter dire ce l'abbiamo pure noi, dell'RT ne faccio volentieri a meno :)
https://it.gamegpu.com/rpg/giochi-di-ruolo/sackboy-un-grande-test-di-avventura-gpu-cpu
In Metro Exodus Enhanced si vede bene cosa voglia dire RT ad illuminazione globale :)
Stranamente è un gioco che non viene quasi mai citato quando si parla di vero ray tracing, a favore invece delle risibili riflessioni, oltretutto "sporche", dell'uomo ragno o del quasi impercettbile RT di CB2077...
https://www.youtube.com/watch?v=sAoGwLQVSAo
https://www.youtube.com/watch?v=NbpZCSf4_Yk
Ale55andr0
05-11-2022, 17:00
@Ale55andr0
Io spero sempre che nei thread ci siano tuoi interventi, così posso guardare il tuo avatar :sofico: :D
E' Simone Simons, così puoi trovarti tutte le pic che vuoi googlando :O, ma non troverai cio' che speri...:asd:
In Metro Exodus Enhanced si vede bene cosa voglia dire RT ad illuminazione globale :)
Stranamente è un gioco che non viene quasi mai citato quando si parla di vero ray tracing, a favore invece delle risibili riflessioni, oltretutto "sporche", dell'uomo ragno o del quasi impercettbile RT di CB2077...
ti assicuro che quando lo metti si nota....non va più nemmeno a spinta :asd:
No Life King
05-11-2022, 17:04
cmq tranquilli che spiderman ce la fai con la 7900xtx, voglio vedere chi spende 1300 e mette tutto rt off XD
Presente :asd:
Presente :asd:
presente!!!! 6900xt rulez :O
mircocatta
05-11-2022, 17:15
Pensa te di che stiamo a parlare :asd:
:asd: che spasso
tornando seri, un gioco ben fatto è ottimo anche senza implementare l'RT, pochi caxxi. il futuro personalmente lo vedo rt più per una questione di facilità di implementazione rispetto ai vecchi metodi che, almeno così han sempre detto, sono abbastanza complessi da mettere a punto...però è anche vero che perdere il 66% degli FPS per avere praticamente la stessa qualità fa malissimo allo stomaco
un giorno forse avremo schede che attivando l'rt non perdono niente, ma ne devono passare ancora molte di gen per avere questo tipo di risultato, tutto quello che ci stanno vendendo prima è solo marketing/beta testing imho
Legolas84
05-11-2022, 17:17
E' Simone Simons, così puoi trovarti tutte le pic che vuoi googlando :O, ma non troverai cio' che speri...:asd:
ti assicuro che quando lo metti si nota....non va più nemmeno a spinta :asd:
Lo so benissimo chi è, e mi piace anche parecchio la sua voce e le canzoni che canta ;)
Su questo mi sa che siamo concordi in pieno :asd:
devAngnew
05-11-2022, 17:20
In Metro Exodus Enhanced si vede bene cosa voglia dire RT ad illuminazione globale :)
Stranamente è un gioco che non viene quasi mai citato quando si parla di vero ray tracing, a favore invece delle risibili riflessioni, oltretutto "sporche", dell'uomo ragno o del quasi impercettbile RT di CB2077...
https://www.youtube.com/watch?v=sAoGwLQVSAo
https://www.youtube.com/watch?v=NbpZCSf4_Yk
Ricominciamo qual'è in RT avete il 50% di possibilità di beccarla :sofico:
https://i.imgur.com/4FpUpMS.png
StrixyRoG
05-11-2022, 17:26
Spettacolo parli tu che solo di processore I9 e scheda madre hai speso 2k. Altri 2500 per la 4090 Strixy. Cammini sulle nuvole
E il senso di questo commento? Qui ci si confronta sulle schede video, e quindi ho postato di un caso in cui si è potuta comprare bene, dato che si discuteva di prezzi.
potrebbe essere account business senza iva
No, basta che guardi su keepa su Amazon Spagna, è stata up per circa 1 ora se non erro, ma è stato l'unico caso, quindi è andata bene a chi l'ha presa, e magari potrebbe succedere anche per AMD, quindi all'uscita terrei d'occhio tutti gli shop possibili.
Ale55andr0
05-11-2022, 17:27
Lo so benissimo chi è, e mi piace anche parecchio la sua voce e le canzoni che canta ;)
Su questo mi sa che siamo concordi in pieno :asd:
ed è rossa, non verde :O
Legolas84
05-11-2022, 17:29
ed è rossa, non verde :O
azz e questa va anche più della 4090 altro che raster e RT :asd:
Guarda che ha ragione lui eh.. :asd: l'hai confermato tu stesso :sofico:
In realtà ha ragione lui, è che gli slider di gamegpu mi fregano sempre, tutto a sinistra è RT ON e tutto a destra RT OFF, ma questo dimostra di cosa stiamo parlando, di una feature che in questo gioco per capire se sta usando l'RT oppure no, bisogna andare nelle impostazioni :D
AkiraFudo
05-11-2022, 17:37
Ricominciamo qual'è in RT avete il 50% di possibilità di beccarla :sofico:
https://i.imgur.com/4FpUpMS.png
boh forse il secondo perché la luce con quattro rimbalzi in croce non si diffonde sufficientemente nel sotto scala che rimane troppo scuro e buio
Gigibian
05-11-2022, 17:41
Ricominciamo qual'è in RT avete il 50% di possibilità di beccarla :sofico:
https://i.imgur.com/4FpUpMS.png
Sinistra
Ricominciamo qual'è in RT avete il 50% di possibilità di beccarla :sofico:
No beh dai... questa è facile: la seconda (illuminazione scala, interno muro scuro e proiezione del raggio di luce)
Ma quell'altro gioco di prima è una trollata dei programmatori in cui hanno solo impostato:
if RT = enabled
then FPS = FPS/3
AkiraFudo
05-11-2022, 17:46
Non ho giocato a metro exodus, ma c'erano due versioni vero?
Non è che una è rt e l'altra è sempre rt ma la enhanced?
boh vabbe :D
WAN del Diablo4
05-11-2022, 17:49
In quella di sinistra PARE ci sia l'illuminazione indiretta - cioè quella di rimbalzo - dovuta alla parete che NON vedete a sinistra.
Quella di destra è troppo contrastata per essere RT. Troppo contrasto=trucco scenico da singolo punto luce (luce finta messa per simulare l'illuminazione)
NODREAMS
05-11-2022, 17:59
Ricominciamo qual'è in RT avete il 50% di possibilità di beccarla :sofico:
https://i.imgur.com/4FpUpMS.png
Vabbeh questa è facile, quella a destra.
Arrow0309
05-11-2022, 18:00
presente!!!! 6900xt rulez :O
:winner: :sperem: :yeah: :rotfl:
AkiraFudo
05-11-2022, 18:01
In quella di sinistra PARE ci sia l'illuminazione indiretta - cioè quella di rimbalzo - dovuta alla parete che NON vedete a sinistra.
Quella di destra è troppo contrastata per essere RT. Troppo contrasto=trucco scenico da singolo punto luce (luce finta messa per simulare l'illuminazione)
E' ma nel metro originario con RT ON c'è tantissima roba scurissima
basta che vedi l'inizio di questo video che hanno postato poco fa original vs enhanced ->
https://youtu.be/sAoGwLQVSAo?t=12
Ormai abbiamo tanti di quei trick in raster che avremmo potuto fare senza RT almeno fino al 2030 (e infatti sulle console almeno fino alla prossima gen...), e concentrarci su 4k, 60fps, efficienza, chip di piccole dimensioni ecc.
Poi dopo magari sarebbe anche stato giusto passarci essendo comunque la tech più "corretta".
Ma Nvidia come avrebbe potuto poi far salire i prezzi alle stelle...
In quella di sinistra PARE ci sia l'illuminazione indiretta - cioè quella di rimbalzo - dovuta alla parete che NON vedete a sinistra.
Quella di destra è troppo contrastata per essere RT. Troppo contrasto=trucco scenico da singolo punto luce (luce finta messa per simulare l'illuminazione)
https://i.postimg.cc/HLz7Vc2r/Immagine-2022-11-05-191820.png (https://postimg.cc/p99dSd3v)
Cannato, sinistra RTGI OFF destra RTGI ON, sarà per la prossima volta :D
AkiraFudo
05-11-2022, 18:24
Ormai abbiamo tanti di quei trick in raster che avremmo potuto fare senza RT almeno fino al 2030 (e infatti sulle console almeno fino alla prossima gen...), e concentrarci su 4k, 60fps, efficienza, chip di piccole dimensioni ecc.
Poi dopo magari sarebbe anche stato giusto passarci essendo comunque la tech più "corretta".
Ma Nvidia come avrebbe potuto poi far salire i prezzi alle stelle...
Infatti è così; la prima immagine, la seconda o nessuna delle due.. le tecniche di emulazione RT si evolvono anche loro e competono bellamente con quattro effettini RT fatti col culo.
Fosse un full ray tracing sarebbe fantastico ma è un game non un film prerenderizzato e tutta la capacita computazione sprecata per fare un' ombra di dubbia qualità ammazza fps e risoluzione dovrebbe essere indirizzata altrove.
No Life King
05-11-2022, 18:24
https://i.postimg.cc/HLz7Vc2r/Immagine-2022-11-05-191820.png (https://postimg.cc/p99dSd3v)
Cannato, sinistra RTGI OFF destra RTGI ON, sarà per la prossima volta :D
Avrei detto che la sinistra era con rt, ottimo :stordita:
un' altra prova del fatto che ho gli occhi monchi e non vedo la differenza :fagiano:
AkiraFudo
05-11-2022, 18:27
Cannato, sinistra RTGI OFF destra RTGI ON, sarà per la prossima volta :D
allora c'ho azzeccato :D infatti a dx quel crush sul dettaglio black non mi convinceva sembrava una cacata, non ha sufficienti rimbalzi... bello l'RT..
NODREAMS
05-11-2022, 19:17
https://www.youtube.com/watch?v=rOkrxmGi_Kw&ab_channel=I%27maMac
Gigibian
05-11-2022, 19:24
Tornando it...
Non ho capito se le 7950 hanno un design che permette di portarle a 3ghz...o se sono cappate in qualche modo...
Nel primo caso potrebbe essere la prima scheda dopo 20 anni che permette di prendere un +20% in overlock.... Abbastanza assurdo... :D
Tornando it...
Non ho capito se le 7950 hanno un design che permette di portarle a 3ghz...o se sono cappate in qualche modo...
Nel primo caso potrebbe essere la prima scheda dopo 20 anni che permette di prendere un +20% in overlock.... Abbastanza assurdo... :D
Non sono cappate,si dice che scalano fino a 3Ghz,vuol dire che fino a 3Ghz hai guadagni prestazionali,come ci arrivi non si sa
Può essere che AMD abbia volutamente frenato le frequenze per non impattare troppo sui consumi,magari tenendo uno sweet spot,e con le custom si possa salire oltre....lo sapremo nelle review
Le 6900 buone benchano gia a 2900+ quindi non vedo il problema per immaginarsi che dai 7 ai 5nm non possano andare 3ghz+
I bios raggiungono fino a 4ghz, direi che ci sia margine…
Ale55andr0
05-11-2022, 19:38
ci si scorda del limite del 2x8 pin...per cloccare ci vorranno le custom col 3x8
Gigibian
05-11-2022, 19:40
Le 6900 buone benchano gia a 2900+ quindi non vedo il problema per immaginarsi che dai 7 ai 5nm non possano andare 3ghz+
Ad azoto probabilmente... E nemmeno stabili.
Come dicevo qualche settimana fa con tanto di grafici postati, la 6900xt reference, portando a manetta il PL ed undervoltsndo come si deve, arriva ad essere stabile a 2550 ad aria. Di più non va.
Gigibian
05-11-2022, 19:41
ci si scorda del limite del 2x8 pin...per cloccare ci vorranno le custom col 3x8
Nono nessuno lo dimentica.... Infatti parlavo dellr custom con 3 pin, sorry non lho specificato
Ad azoto probabilmente... E nemmeno stabili.
Come dicevo qualche settimana fa con tanto di grafici postati, la 6900xt reference, portando a manetta il PL ed undervoltsndo come si deve, arriva ad essere stabile a 2550 ad aria. Di più non va.
Ad azoto ho visto solo dearuer e era a 3,2ghz
Basta che ti fai un giro nella hof di timespy e le 6900 sopra i 2800 fioccano…. Non parlo di raffreddamento ad aria ovviamente
No Life King
05-11-2022, 19:51
portando a manetta il PL ed undervoltsndo come si deve, arriva ad essere stabile a 2550 ad aria. Di più non va.
Sono a liquido, ma sbloccando il pl sono arrivato stabile a 2760 senza faticare troppo eh, ed ho una ref con un chip nemmeno così fortunello
http://www.3dmark.com/fs/28654736
Andy1111
05-11-2022, 20:08
Sono a liquido, ma sbloccando il pl sono arrivato stabile a 2760 senza faticare troppo eh, ed ho una ref con un chip nemmeno così fortunello
http://www.3dmark.com/fs/28654736
Quel 3900 ti frena un botto avresti dovuto superare i 63k in GS e non l'ho spinto al massimo
https://www.3dmark.com/fs/26496924
infatti gundam ha superato i 66k
https://www.3dmark.com/fs/28579776
No Life King
05-11-2022, 20:25
Quel 3900 ti frena un botto avresti dovuto superare i 63k in GS e non l'ho spinto al massimo
https://www.3dmark.com/fs/26496924
infatti gundam ha superato i 66k
https://www.3dmark.com/fs/28579776
lo so, ma non ci ho nemmeno provato, infatti ho tenuto tutto basso a parte la gpu, volevo solo vedere fino a dove arrivavo col graphic score col sistema attuale
probabilmente cambierò tutta la baracca quando usciranno i ryzen 7000x3d
amon.akira
05-11-2022, 20:51
Guarda che ha ragione lui eh.. :asd: l'hai confermato tu stesso :sofico:
cioè anche con le immagini sei cieco non riesci proprio...chissà cosa guardi XD
magari ti dico vedi l ombra e tu guardi il cielo :asd:
e cmq ho risposto senza lanciarlo, poi quando ha detto la cazzata sono andato a vedere ed effettivamente aveva detto la cazzata, forse non si era scritto che img aveva salvato :sofico:
amon.akira
05-11-2022, 20:57
In realtà ha ragione lui, è che gli slider di gamegpu mi fregano sempre, tutto a sinistra è RT ON e tutto a destra RT OFF, ma questo dimostra di cosa stiamo parlando, di una feature che in questo gioco per capire se sta usando l'RT oppure no, bisogna andare nelle impostazioni :D
ah ecco apposto cosi, non avevo letto :cincin:
dovete iniziare dalle basi, oggi da un amico mentre voi vi rincoglionivate a trovare i riflessi sul cemento e sull albero di spiderman e nel mentre testavo la sua 4090 in stress test ci siamo concessi il momento amarcord
https://i.ibb.co/z5YLGqW/20221105-192453.jpg (https://ibb.co/z5YLGqW)
Non sono cappate,si dice che scalano fino a 3Ghz,vuol dire che fino a 3Ghz hai guadagni prestazionali,come ci arrivi non si sa
Può essere che AMD abbia volutamente frenato le frequenze per non impattare troppo sui consumi,magari tenendo uno sweet spot,e con le custom si possa salire oltre....lo sapremo nelle reviewDecine di post fa avevo postato una slide AMD leakkata da videocardz dove si ripete quel 3ghz nelle frequenza, ma giustamente è meglio spammare roba inutile :asd:
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
Gigibian
05-11-2022, 21:02
Sono a liquido, ma sbloccando il pl sono arrivato stabile a 2760 senza faticare troppo eh, ed ho una ref con un chip nemmeno così fortunello
http://www.3dmark.com/fs/28654736
Io i test li facevo in game, 2550 stabili ad aria con cuberpunk in rt ultra. Con 3dmsrk non so quanto facesse...
Gyammy85
05-11-2022, 21:07
Thread ufficiale delle 7000 :read:
https://www.hwupgrade.it/forum/showthread.php?t=2971000
WAN del Diablo4
05-11-2022, 21:16
Una cosa per quelli che "si lamentano" del fatto che le tecniche di upscaling e frame multiplication aggiungano "artefatti".....guardate che già ben prima degli ovvi artefatti dell'RT tra fotoni e denoising ci portiamo a spasso una marea di artefatti PROPRI della rasterizzazione classica.....anche macroscopici a parte quelli insolvibili nell'ordinamento delle trasparenze ed in generale dello Z-fighting fra superfici :asd:
Potrei farvene una storia dai tempi del primo Far Cry, ma basta questo per esemplificare :D
https://postimg.cc/68tcHJb4
Il ghosting - che si nota a causa di come sono rasterizzate le pozzanghere - è indicato dalle frecce :help:
mikael84
05-11-2022, 21:32
Thread ufficiale delle 7000 :read:
https://www.hwupgrade.it/forum/showthread.php?t=2971000
Ma il thread ufficiale, per 2 slide, quando manca un mese tra review e lancio?
Praticamente 2 thread aspettando.:p
Già oggi avete scritto una quindicina di pagine, che non ho letto, domani ne dovrò leggere 30.:D
devAngnew
05-11-2022, 21:35
In realtà ha ragione lui, è che gli slider di gamegpu mi fregano sempre, tutto a sinistra è RT ON e tutto a destra RT OFF, ma questo dimostra di cosa stiamo parlando, di una feature che in questo gioco per capire se sta usando l'RT oppure no, bisogna andare nelle impostazioni :D
Lo stavo trollando :asd:
In quella di sinistra PARE ci sia l'illuminazione indiretta - cioè quella di rimbalzo - dovuta alla parete che NON vedete a sinistra.
Quella di destra è troppo contrastata per essere RT. Troppo contrasto=trucco scenico da singolo punto luce (luce finta messa per simulare l'illuminazione)
Avrei detto anch'io la stessa cosa a meno che digital f non abbia sbagliato le didascalie.
Vabbeh questa è facile, quella a destra.
https://i.postimg.cc/HLz7Vc2r/Immagine-2022-11-05-191820.png (https://postimg.cc/p99dSd3v)
Cannato, sinistra RTGI OFF destra RTGI ON, sarà per la prossima volta :D
vedete su
Avrei detto che la sinistra era con rt, ottimo :stordita:
un' altra prova del fatto che ho gli occhi monchi e non vedo la differenza :fagiano:
idem vedi su.
cioè anche con le immagini sei cieco non riesci proprio...chissà cosa guardi XD
magari ti dico vedi l ombra e tu guardi il cielo :asd:
e cmq ho risposto senza lanciarlo, poi quando ha detto la cazzata sono andato a vedere ed effettivamente aveva detto la cazzata, forse non si era scritto che img aveva salvato :sofico:
Se vabbene hai regione :asd: :sofico: contento :D
fraussantin
05-11-2022, 21:36
Già oggi avete scritto una quindicina di pagine, che non ho letto, domani ne dovrò leggere 30.:DOddio i post interessanti sono pochi .
Il resto sono solamente insulti , minacce e trollaggi.
mikael84
05-11-2022, 21:39
Oddio i post interessanti sono pochi .
Il resto sono solamente insulti , minacce e trollaggi.
Ah ok, non mi sono perso nulla.:)
amon.akira
05-11-2022, 21:43
Lo stavo trollando :asd:
ahah pessima uscita, non hai scusanti avevi entrambe le foto con i cerchietti, è proprio che non sai cosa guardare :asd:
ma credimi è meglio, se una cosa non la vedi ha i suoi vantaggi, risparmi soldi e sei contento uguale, persino invidiabile direi.
ah e metro non è la enhanced, magari il giorno che avrai una gpu rt potrai ripensare ad oggi e farti 2risate
WAN del Diablo4
05-11-2022, 21:51
ah e metro non è la enhanced, magari il giorno che avrai una gpu rt potrai ripensare ad oggi e farti 2risate
Ah ecco, la versione "base" negli esterni NON ha rimbalzi per la global illumination, quindi sì le cose allora tornano.
Il DLC dei 2 colonnelli invece ne ha una versione migliorata (per via del lanciafiamme e degli spazi stretti che lo permettono).
amon.akira
05-11-2022, 21:54
Ah ecco, la versione "base" negli esterni NON ha rimbalzi per la global illumination, quindi sì le cose allora tornano.
Il DLC dei 2 colonnelli invece ne ha una versione migliorata (per via del lanciafiamme e degli spazi stretti che lo permettono).
no ce l ha anche la versione base, usci dopo con patch
https://www.youtube.com/watch?v=sAoGwLQVSAo
WAN del Diablo4
05-11-2022, 22:02
no ce l ha anche la versione base, usci dopo con patch
https://www.youtube.com/watch?v=sAoGwLQVSAo
La versione base ha la global illumination ma limitata ad un rimbalzo del fotone, migliorata nel DLC e la enhanced ha una tecnica diversa che simula rimbalzi infiniti.
Pensando che nessuno con una scheda RT gioca alla versione base ho subito associato gli screenshot alla enhanced che non dovrebbe avere una resa così contrastata di quella parete (come giustamente detto da qualcuno il "crush" del nero).
devAngnew
05-11-2022, 22:08
ahah pessima uscita, non hai scusanti avevi entrambe le foto con i cerchietti, è proprio che non sai cosa guardare :asd:
ma credimi è meglio, se una cosa non la vedi ha i suoi vantaggi, risparmi soldi e sei contento uguale, persino invidiabile direi.
ah e metro non è la enhanced, magari il giorno che avrai una gpu rt potrai ripensare ad oggi e farti 2risate
Senti furbissimo dell'rt; qui nessuno ha indovinato sull'rt di sackboy solo tu e guarda caso avevi il gioco :asd: puoi non crederci che ti stavo prendendo in giro a me interessa poco.
Su metro non riesi nemme a leggere e/ o capire cosa è stato chiesto ma vuoi passare per quello che la sa lunga :sofico:
amon.akira
05-11-2022, 22:20
Senti furbissimo dell'rt; qui nessuno ha indovinato sull'rt di sackboy solo tu e guarda caso avevi il gioco :asd: puoi non crederci che ti stavo prendendo in giro a me interessa poco.
Su metro non riesi nemme a leggere e/ o capire cosa è stato chiesto ma vuoi passare per quello che la sa lunga :sofico:
dai l hai detto tu stesso che non hai nulla per provare sto fantomatico rt come sia, però lo stai criticando, ma in futuro lo attiverai anche tu, ricordatelo quando metterai on :asd:
ps. quando ti dissi che era impossibile capirlo su quell immagine di spiderman perchè non c erano riflessi, mi avresti dovuto dire "effettivamente hai ragione" invece hai detto "dai rispondi chi è rt sulle 4foto" includendo spiderman, già li si capisce che non ne capisci
ah e ti dirò di piu, anche l ao rt si vede benissimo in sackboy...sempre a sapere quali sono i difetti dell ssao o hbao, ma che te lo dico a fare XD
devAngnew
05-11-2022, 22:36
dai l hai detto tu stesso che non hai nulla per provare sto fantomatico rt come sia, però lo stai criticando, ma in futuro lo attiverai anche tu, ricordatelo quando metterai on :asd:
ps. quando ti dissi che era impossibile capirlo su quell immagine di spiderman perchè non c erano riflessi, mi avresti dovuto dire "effettivamente hai ragione" invece hai detto "dai rispondi chi è rt sulle 4foto" includendo spiderman, già li si capisce che non ne capisci
ah e ti dirò di piu, anche l ao rt si vede benissimo in sackboy...sempre a sapere quali sono i difetti dell ssao o hbao, ma che te lo dico a fare XD
:mc: :sofico: :asd:
Ma poi hai capito se su spiderman le immagini sono prima o dopo la path sull'occlusione ambientale :sofico:
amon.akira
05-11-2022, 22:40
dai ne sei uscito, dopo 3owned di fila (sackboy,spiderman,metro), ma ne sei uscito :D
https://i.ibb.co/ZcdtQsv/Marvel-s-Spider-Man-Remastered-v1-1014-0-0-05-11-2022-23-42-52.png (https://ibb.co/ZcdtQsv) https://i.ibb.co/ZTMS8Sd/Marvel-s-Spider-Man-Remastered-v1-1014-0-0-05-11-2022-23-43-00.png (https://ibb.co/ZTMS8Sd) https://i.ibb.co/Tw1kLS2/Marvel-s-Spider-Man-Remastered-v1-1014-0-0-05-11-2022-23-43-07.png (https://ibb.co/Tw1kLS2) https://i.ibb.co/xgp0pTX/Steam-05-11-2022-23-42-43.png (https://ibb.co/xgp0pTX)
ao rt?sicuro?
scorpion73
06-11-2022, 08:05
Boh, forse dipende anche da che nvidia uno ha, io ho il roito, quindi sto in zona ambigua, tipo "pezzente che fa finta di potersela permettere" :asd:
AMD non ha solo "commentato", ha dato anche QUEI DATI di cui sopra, sui quali hai e stai bellamente e "onestamente" glissando. Inoltre mica vuol dire che è rivale della 4090, ma che se la gioca in raster (in ras-ter, entiende?) con questa, se non ci hanno raccontato barzellette e scritto i numeri a caso eh. E qua con te chiudo e metto in ignore per il bene di tutti, noi inclusi ;)
Amd ha dato dei dati che tu stai interpretando e basta. È una interpretazione tua. I numeri veri li vedrai in recensione. Che vada a competere con la 4080 invece lo ha detto esplicitamente.
Solo le prove daranno i numeri corretti e inequivocabili che non potranno essere interpretati ma solo commentati.
Per me in raster andrà sopra la 4080 sicuramente ma non ai livelli di una 4090 sempre in 4K ovviamente. Ma i numeri diranno se è vero o meno, i numeri delle recensioni non le tue interpretazioni.
Per quanto riguarda la ignore, faccio altrettanto visto che tu sei un altro con cui parlare non porta alcun valore aggiunto. Adios.
Inviato dal mio iPhone utilizzando Tapatalk by
nessuno29
06-11-2022, 08:15
Boh, forse dipende anche da che nvidia uno ha, io ho il roito, quindi sto in zona ambigua, tipo "pezzente che fa finta di potersela permettere" :asd:
Io il roito supremo, ma a mia discolpa c'era solo quella e la mia rx 570 tanto caruccia è morta nel momento peggiore. (rtx 3060 a 650 euro fitta al cuore ahaha)
StrixyRoG
06-11-2022, 08:16
Io il roito supremo, ma a mia discolpa c'era solo quella e la mia rx 570 tanto caruccia è morta nel momento peggiore. (rtx 3060 a 650 euro fitta al cuore ahaha)
Azz che prezzi, direi che è morta la fascia media :D
Speravo che AMD ne presentasse una, invece tutto al 2023.
nessuno29
06-11-2022, 08:17
Azz che prezzi, direi che è morta la fascia media :D
E' morto tutto, la fascia media, la fascia alta quella altissima, ormai esiste solo la fascia ridicola. Con due barlumi di speranza l'rx 6600 e la 6600xt, oltre che la 3060ti quando la si trova reference.
StrixyRoG
06-11-2022, 08:18
E' morto tutto, la fascia media, la fascia alta quella altissima, ormai esiste solo la fascia ridicola.
Almeno ne è stata creata una nuova, altrimenti sai che noia :D
No vabbè ma che lol è successo :sofico:
Parlando di cose serie ma quanto rende l'Fsr 2 in ghostwire: tokyo ? Maremma bomba.
Sono entrato nel thread perché interessato alle nuove AMD pensando di trovare una discussione tecnica, qualche spunto interessante sul loro possibile posizionamento, qualche ulteriore news o leak in attesa delle recensioni ma ho trovato tutt'altro.
In ogni caso non mi focalizzerei molto sul confronto con la 4080, anche se esplicitamente dichiarato anche da AMD, in quanto ad oggi non sono disponibili le recensioni nemmeno di quella. La 4090 probabilmente andrà di più della XTX (magari non molto di più in raster ma sensibilmente di più in RT) ma credo che il confronto dichiarato con la 4080 sia più da interpretarsi con il fatto che AMD non intende competere nella fascia della 4090 che, per posizionamento di prezzo, fa un pò storia a sé. Questo non vuol dire secondo me che la XTX non possa essere sensibilmente superiore alla 4080, almeno in raster.
Questo sulla base delle info disponibili oggi. Se usciranno ulteriori leak, o quando saranno disponibili le recensioni vedremo il reale posizionamento di queste schede.
Le possibili performance in RT delle AMD sembrerebbero sottotono ed è per questo che AMD sembra puntare su di un miglior rapporto prezzo/prestazioni rispetto ad Nvidia (anche se i prezzi, in assoluto, restano sempre molto alti)
Tutto questo basandosi sui listini in dollari, I confronti dovranno essere poi rifatti con gli street price delle custom.
Più o meno il riassunto della situazione ad oggi è questo?
Inviato dal mio SM-G975F utilizzando Tapatalk
No Life King
06-11-2022, 10:07
Tutto questo basandosi sui listini in dollari, I confronti dovranno essere poi rifatti con gli street price delle custom.
Beh, se il prezzo sarà cambio 1:1 + iva (come era stato fatto per la serie 6000 sullo store amd) allo stato attuale siamo a 1230 euro per la xtx reference
Alla luce di tutto ciò non penso mi pentirò della mia scelta anche se non andrò come con la 4090 in raster
Sono entrato nel thread perché interessato alle nuove AMD pensando di trovare una discussione tecnica, qualche spunto interessante sul loro possibile posizionamento, qualche ulteriore news o leak in attesa delle recensioni ma ho trovato tutt'altro.
In ogni caso non mi focalizzerei molto sul confronto con la 4080, anche se esplicitamente dichiarato anche da AMD, in quanto ad oggi non sono disponibili le recensioni nemmeno di quella. La 4090 probabilmente andrà di più della XTX (magari non molto di più in raster ma sensibilmente di più in RT) ma credo che il confronto dichiarato con la 4080 sia più da interpretarsi con il fatto che AMD non intende competere nella fascia della 4090 che, per posizionamento di prezzo, fa un pò storia a sé. Questo non vuol dire secondo me che la XTX non possa essere sensibilmente superiore alla 4080, almeno in raster.
Questo sulla base delle info disponibili oggi. Se usciranno ulteriori leak, o quando saranno disponibili le recensioni vedremo il reale posizionamento di queste schede.
Le possibili performance in RT delle AMD sembrerebbero sottotono ed è per questo che AMD sembra puntare su di un miglior rapporto prezzo/prestazioni rispetto ad Nvidia (anche se i prezzi, in assoluto, restano sempre molto alti)
Tutto questo basandosi sui listini in dollari, I confronti dovranno essere poi rifatti con gli street price delle custom.
Più o meno il riassunto della situazione ad oggi è questo?
Inviato dal mio SM-G975F utilizzando Tapatalk
Circa questa la situazione, con il focus della competizione che è data anche dal prezzo di produzione, particolarmente basso per questa 7900XT(X) grazie al discorso MCM.
Ad AMD e nVidia interessa fare margini, la 7900 è un'ottima scheda sotto questo punto di vista, tutti chip piccoli ad alte rese. Sfugge a molti che il chip, anche sommando TUTTE le sue parti, è nettamente più piccolo di Navi21. Una volta diviso e prodotto ANCHE a 6nm (per risparmiare) permette margini elevatissimi.
bonzoxxx
06-11-2022, 10:10
Visti i prezzi,forse forse mi faccio il pc tutto AMD per la prima volta nella mia vita :D
amon.akira
06-11-2022, 10:14
raster
4090>7900xtx>4080
rt
4090>4080>7900xtx
prezzo
4090>4080>7900xtx
fraussantin
06-11-2022, 10:16
Riguardo dlss vs fsr a che punti siamo ?
No Life King
06-11-2022, 10:21
Riguardo dlss vs fsr a che punti siamo ?
Qui secondo me va a punti di vista, ma personalmente trovo che FSR2 e DLSS2 siano praticamente comparabili, in certi giochi il dlss rende meglio e in altri meglio l'FSR (vedi cyberpunk 2077 dove trovo l'fsr molto migliore)
C'è anche il vantaggio non da poco che l'fsr puo essere moddato su molti titoli che supportano il dlss
cioè anche con le immagini sei cieco non riesci proprio...chissà cosa guardi XD
magari ti dico vedi l ombra e tu guardi il cielo :asd:
e cmq ho risposto senza lanciarlo, poi quando ha detto la cazzata sono andato a vedere ed effettivamente aveva detto la cazzata, forse non si era scritto che img aveva salvato :sofico:
Infatti non me le ero scritte, e mi sono fatto ingannare in quanto quella non RT aveva alcune riflessioni in più, ma non avendo una visione a 360° della scena non potevo verificare se fossero realistiche, inoltre, essendo quest'ultime quelle più utilizzate in RT, mi hanno portato fuori strada.
dai l hai detto tu stesso che non hai nulla per provare sto fantomatico rt come sia, però lo stai criticando, ma in futuro lo attiverai anche tu, ricordatelo quando metterai on :asd:
ps. quando ti dissi che era impossibile capirlo su quell immagine di spiderman perchè non c erano riflessi, mi avresti dovuto dire "effettivamente hai ragione" invece hai detto "dai rispondi chi è rt sulle 4foto" includendo spiderman, già li si capisce che non ne capisci
ah e ti dirò di piu, anche l ao rt si vede benissimo in sackboy...sempre a sapere quali sono i difetti dell ssao o hbao, ma che te lo dico a fare XD
Quindi spiegami, per capire che una immagine è in RT bisogna capire se si sta usando l'ssao o hbao, dopo di che si cercano i difetti e se si trovano abbiamo la prova che è in RT, la prossima volta richiederò un sopraluogo del RIS che guarda caso, è anche vicino a casa mia :D
amon.akira
06-11-2022, 10:36
no semplicemente mentre giochi le vedi le cose se usi l hbao spesso esagera nelle intersezioni, se usi gli ssr e vedi che ti compare o sparisce il riflesso a tendina sai che è per via dell offscreen...l rt vuole essere piu accurato e fedele, nn piu bello. se un ombra è piu soffusa che netta etc...
fraussantin
06-11-2022, 10:59
Qui secondo me va a punti di vista, ma personalmente trovo che FSR2 e DLSS2 siano praticamente comparabili, in certi giochi il dlss rende meglio e in altri meglio l'FSR (vedi cyberpunk 2077 dove trovo l'fsr molto migliore)
C'è anche il vantaggio non da poco che l'fsr puo essere moddato su molti titoli che supportano il dlssOttimo.
Per adesso non compro niente , ma se riesco a cambiare il monitor con un 21\9 poi valuto entrambe
scorpion73
06-11-2022, 11:45
Frauss il discorso dlss vs fsr direi che siamo lì, anche se secondo me il dlss 2 essendo in hardware secondo me mantiene un leggero vantaggio.
Però alla fine conta la resa è con la versione 2.2 direi che sono uguali. Non avendolo mai usato su una amd non so se porta via performance essendo software su questo chiedo lumi a chi lo ha usato.
L’unica cosa che resta è solo capire se la versione 3 si applicherà solo alle nuove Radeon perché per me sfrutterà le unità AI, un po’ come il dlss 3 di nvidia con cui questo va a confrontarsi.
In ogni caso sulla fascia di prezzo dei 1300€ secondo me non troverai nulla di meglio della xtx: se avessi necessità di una scheda onestamente preferirei questa alla 4080 anche se costassero simili perché in raster molto probabilmente rende di più e non ha lo scasso del connettore. Alla fine prestazioni sul RT come una 3090 non sono male per niente quindi globalmente come ho sempre detto vince a mani basse.
Inviato dal mio iPhone utilizzando Tapatalk
fraussantin
06-11-2022, 11:57
Frauss il discorso dlss vs fsr direi che siamo lì, anche se secondo me il dlss 2 essendo in hardware secondo me mantiene un leggero vantaggio.
Però alla fine conta la resa è con la versione 2.2 direi che sono uguali. Non avendolo mai usato su una amd non so se porta via performance essendo software su questo chiedo lumi a chi lo ha usato.
L’unica cosa che resta è solo capire se la versione 3 si applicherà solo alle nuove Radeon perché per me sfrutterà le unità AI, un po’ come il dlss 3 di nvidia con cui questo va a confrontarsi.
In ogni caso sulla fascia di prezzo dei 1300€ secondo me non troverai nulla di meglio della xtx: se avessi necessità di una scheda onestamente preferirei questa alla 4080 anche se costassero simili perché in raster molto probabilmente rende di più e non ha lo scasso del connettore. Alla fine prestazioni sul RT come una 3090 non sono male per niente quindi globalmente come ho sempre detto vince a mani basse.
Inviato dal mio iPhone utilizzando Tapatalk1300 euro non le spenderei cmq.
Casomai quella sotto se mi capita un offertaccia.
Ma prima penso al monitor.
E ovviamente le recensioni , devo averci un guadagno discreto dalla 3080
1300 euro non le spenderei cmq.
Casomai quella sotto se mi capita un offertaccia.
Ma prima penso al monitor.
E ovviamente le recensioni , devo averci un guadagno discreto dalla 3080Sì, sono tanti, troppi.
Poi tu hai già la 3080, potresti stare tranquillo senza pensieri fino al refresh/prossima gen.
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
https://twitter.com/coreteks/status/1589092519522234368?t=KllPzWRT0wFiIn_a9iqNQg&s=19
Speculazioni sulle performance della 7900xtx a +40/+50/+60%/+70% dalla 6950xt dall'ultima recensione della 4090 di hw unboxed.
Imho si attesterà tra il 50 e il 60% di media
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
Chiedo a chi ne capisce, soprattutto a mikael84 che 2 conti li sa fare, di togliermi un dubbio
Mi pare che AMD in fatto di frequenze sia stata quantomeno conservativa, siparlava di quasi 3GHZ ma quello che hanno postato è ben lontano... Motivo?
La volontà di mantenere solo i 2 connettori?
Un chipset che alla fine non performa come sperato?
Temperature troppo alte?
Margine per gli add in board partners? Altro?
mikael84
06-11-2022, 12:39
Chiedo a chi ne capisce, soprattutto a mikael84 che 2 conti li sa fare, di togliermi un dubbio
Mi pare che AMD in fatto di frequenze sia stata quantomeno conservativa, siparlava di quasi 3GHZ ma quello che hanno postato è ben lontano... Motivo?
La volontà di mantenere solo i 2 connettori?
Un chipset che alla fine non performa come sperato?
Temperature troppo alte?
Margine per gli add in board partners? Altro?
Hanno rivisto completamente le CU, ed ora sono molto più complesse a livello di logica e transistor, introducendo il dual issue. Non è più come prima nella classica RDNA. Infatti per limitare i problemi energetici hanno slegato gli shader dal front end, facendoli clockare ad appena 2,3 anzichè 2,5. Secondo AMD, far funzionare il tutto a 2,5 portava il chip ad essere troppo inefficiente.
Anche nvidia un tempo slegava gli shader.
Questa potrebbe essere una soluzione presa nelle fasi finali, infatti Igor, stando a fonti abbastanza certe, aveva disegnato pure il PCB a 3x8.
Tutti ci aspettavamo un balzo di clock in quanto si pensava ad una struttura classica.
giangi989
06-11-2022, 12:40
Chiedo a chi ne capisce, soprattutto a mikael84 che 2 conti li sa fare, di togliermi un dubbio
Mi pare che AMD in fatto di frequenze sia stata quantomeno conservativa, siparlava di quasi 3GHZ ma quello che hanno postato è ben lontano... Motivo?
La volontà di mantenere solo i 2 connettori?
Un chipset che alla fine non performa come sperato?
Temperature troppo alte?
Margine per gli add in board partners? Altro?
Probabilmente un mix di tutto quello che hai detto. È altamente probabile che abbiano incontrato alcuni ostacoli, magari non previsti, e quindi sono dovuti scendere ad alcuni compromessi.
Secondo me se in media sarà effettivamente 1.5x più veloce della 6950xt sarebbe un ottimo risultato per una scheda da 999 nel contesto economico attuale.
Windtears
06-11-2022, 12:57
la sparo lì: è più probabile che le frequenze di 3ghz siano più "fattibili" con navi32 che dovrebbe essere monolitico? (ricordo bene?)
anche perché sicuramente con il taglio di bus mi aspetto la 7800 con 16gb, se non splittano in 7870 e 7850 come ai vecchi tempi... e servirà frequenza per non stroncare completamente le performance.
Sto cercando di autoconvincermi di aspettare marzo. :asd: anche se dopo tre anni la voglia di cambiare la 5700xt è tanta. ;)
Hanno rivisto completamente le CU, ed ora sono molto più complesse a livello di logica e transistor, introducendo il dual issue. Non è più come prima nella classica RDNA. Infatti per limitare i problemi energetici hanno slegato gli shader dal front end, facendoli clockare ad appena 2,3 anzichè 2,5. Secondo AMD, far funzionare il tutto a 2,5 portava il chip ad essere troppo inefficiente.
Anche nvidia un tempo slegava gli shader.
Questa potrebbe essere una soluzione presa nelle fasi finali, infatti Igor, stando a fonti abbastanza certe, aveva disegnato pure il PCB a 3x8.
Tutti ci aspettavamo un balzo di clock in quanto si pensava ad una struttura classica.
Penso che oltre al lato tecnico ci sia un motivo commerciale ossia non piazzare le reference sul collo delle AIB, a quest'ultime si permette di avere briglie sciolte lato consumo quindi clock, altrimenti a che pro Asus per la Tuf ci piazza 3 connettori e un dissipatore ben più massiccio ? Per 50 mhz ?
Amd vuole dare spazio agli AIB rendendo le custom speciali cosa che a nVidia non è riuscita dato quanto sono già spinte le reference.
nessuno29
06-11-2022, 13:01
la sparo lì: è più probabile che le frequenze di 3ghz siano più "fattibili" con navi32 che dovrebbe essere monolitico? (ricordo bene?)
anche perché sicuramente con il taglio di bus mi aspetto la 7800 con 16gb, se non splittano in 7870 e 7850 come ai vecchi tempi... e servirà frequenza per non stroncare completamente le performance.
Sto cercando di autoconvincermi di aspettare marzo. :asd: anche se dopo tre anni la voglia di cambiare la 5700xt è tanta. ;)
non cambierà molto, l'architettura rispetto ad rdna 2 è cambiata drasticamente.
WAN del Diablo4
06-11-2022, 13:10
Vedremo quando AMD includerà in FFMpeg l'encoder AV1
Nvidia ora ce l'ha per le 4xxx
https://www.phoronix.com/news/NVIDIA-NVENC-AV1-FFmpeg
mikael84
06-11-2022, 13:11
la sparo lì: è più probabile che le frequenze di 3ghz siano più "fattibili" con navi32 che dovrebbe essere monolitico? (ricordo bene?)
anche perché sicuramente con il taglio di bus mi aspetto la 7800 con 16gb, se non splittano in 7870 e 7850 come ai vecchi tempi... e servirà frequenza per non stroncare completamente le performance.
Sto cercando di autoconvincermi di aspettare marzo. :asd: anche se dopo tre anni la voglia di cambiare la 5700xt è tanta. ;)
Navi32 sarà sempre MCM con 3840 shader dual issue.
Navi33 sarà monolitico, ma interamente a 6nm.
Penso che oltre al lato tecnico ci sua un motivo commerciale ossia non piazzare le reference sul collo delle AIB, a quest'ultime si permette di avere briglie sciolte lato consumo quindi clock, altrimenti a che pro Asus per la Tuf ci piazza 3 connettori e un dissipatore ben più massiccio ? Per 50 mhz ?
Amd vuole dare spazio agli AIB rendendo le custom speciali cosa che a nVidia non è riuscito dato quanto sono già spinte le reference.
AMD si è prefissata il > 50% perf/watt, che per due gen ha mantenuto a +54%.
Con RDNA2, è passata al 7nm HP, in più ha avuto vari miglioramenti appoggiandosi alla cache. Il 50% degli accessi positivi le permettevano di risparmiare molta corrente, in più aveva problemi di dispersione, ed ha lavorato severamente sul piano elettrico.
Creando una struttura semplice ed efficace.
Con RDNA3 ha stravolto tutto, creando ALU molto più complesse, ma fermandosi sempre a +54. Infatti ora ha due clock, per garantire questo perf/watt.
Chiaramente con delle custom ben carrozzate, potrai spremere la GPU, e i consumi.
l momento difficile dire quanto.:)
Volendo capire questa generazione e le forze in campo.
Mi pare (da quello che si sa per ora) che fosse più vicina la 6900 xt alla 3090 che la 7900xtx alla 4090. Sbaglio?
mikael84
06-11-2022, 13:41
Volendo capire questa generazione e le forze in campo.
Mi pare (da quello che si sa per ora) che fosse più vicina la 6900 xt alla 3090 che la 7900xtx alla 4090. Sbaglio?
Con rdna 2, AMD aveva un nodo di vantaggio, e su TSMC, ed i costi erano ben minori, tanto che ha creato una GPU con transistor quasi analoghi.
Ora le strade si sono divise, i costi sono aumentati, ed AMD ha creato un chip che a transistor sta a cavallo tra AD102 e AD103.
Nvidia questo può farlo, in quanto le schede sono pensate per i pro e riciclate per i giocatori, AMD no.
Vedremo quando AMD includerà in FFMpeg l'encoder AV1
Nvidia ora ce l'ha per le 4xxx
https://www.phoronix.com/news/NVIDIA-NVENC-AV1-FFmpeg
Già annunciato in sede di presentazione, vediamo se già al lancio è tutto pronto. Mancando ancora le schede, non si può sapere, ma i driver linux hanno già iniziato ad avere aggiornamenti se non ricordo male dalle news.
Ale55andr0
06-11-2022, 13:56
https://twitter.com/coreteks/status/1589092519522234368?t=KllPzWRT0wFiIn_a9iqNQg&s=19
Speculazioni sulle performance della 7900xtx a +40/+50/+60%/+70% dalla 6950xt dall'ultima recensione della 4090 di hw unboxed.
Imho si attesterà tra il 50 e il 60% di media
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
ha vinto lui:
"I am team: even in the worst case scenario the 7900XTX is 60% cheaper for 17% less performance and I don't have to replace my PSU."
Ale55andr0
06-11-2022, 14:00
la sparo lì: è più probabile che le frequenze di 3ghz siano più "fattibili" con navi32 che dovrebbe essere monolitico? (ricordo bene?)
anche perché sicuramente con il taglio di bus mi aspetto la 7800 con 16gb, se non splittano in 7870 e 7850 come ai vecchi tempi... e servirà frequenza per non stroncare completamente le performance.
Sto cercando di autoconvincermi di aspettare marzo. :asd: anche se dopo tre anni la voglia di cambiare la 5700xt è tanta. ;)
gli AIB ci daranno la risposta :)
..ma c'è una data sulle recensioni?
Penso che oltre al lato tecnico ci sia un motivo commerciale ossia non piazzare le reference sul collo delle AIB, a quest'ultime si permette di avere briglie sciolte lato consumo quindi clock, altrimenti a che pro Asus per la Tuf ci piazza 3 connettori e un dissipatore ben più massiccio ? Per 50 mhz ?
Amd vuole dare spazio agli AIB rendendo le custom speciali cosa che a nVidia non è riuscita dato quanto sono già spinte le reference.
Fosse così una telefonata ad EVGA la farei fossi in Lisona :asd:
Ale55andr0
06-11-2022, 14:01
EDIT: pasticcio coi post :doh:
Io sono obbligato a prendere una custom per via delle porte dp. Se salgono qualcosa di più ben venga.
Ho anche bisogno di prenderla su amazon. Dovendola usare su unico gioco e per altro un gioco molto molto molto instabile ho bisogno di poter fare un reso facile.
Ps. Un'altra giornata come ieri nche no. Per favore ignoratelo.
Io sono obbligato a prendere una custom per via delle porte dp. Se salgono qualcosa di più ben venga.
Ps. Un'altra giornata come ieri nche no. Per favore ignoratelo.
Ma la USB-C potrai usarla come DP con un semplice cavo, veicola segnale DP. Se poi hai schermi DP di fascia alta controlla che magari hai supporto Daisy Chain, ma se hai tutto alto refresh magari non ti basta.
Io sono obbligato a prendere una custom per via delle porte dp. Se salgono qualcosa di più ben venga.
Ps. Un'altra giornata come ieri nche no. Per favore ignoratelo.
La Tuf ad esempio ha le 3 porte che ti servono, guarda sul sito Asus se ha anche altre caratteristiche utili al tuo lavoro.
Ma la USB-C potrai usarla come DP con un semplice cavo, veicola segnale DP. Se poi hai schermi DP di fascia alta controlla che magari hai supporto Daisy Chain, ma se hai tutto alto refresh magari non ti basta.
Lo so che sono paranoie ma tra adattatori ed una custom già nativa preferisco la seconda.
La Tuf ad esempio ha le 3 porte che ti servono, guarda sul sito Asus se ha anche altre caratteristiche utili al tuo lavoro.
Grazie, così su due piedi la ritengo tra le mie preferite, poi chiaramente contano i numeri, soprattutto temperature. Anche se tengo sempre le ventole al 100% e un case enorme
Lo so che sono paranoie ma tra adattatori ed una custom già nativa preferisco la seconda.
Niente adattatori, solo un cavo che è USB-C da un lato e DP porto dall'altro, non hai nessuna conversione di segnale, tanto che i cavi sono bidirezionali (supporterebbero un monitor USB-C da una uscita DP della scheda video).
Poi se uno preferisce custom perfetto, ma davvero, non farti condizionare da questo. Da temperature, performance, prezzi, quel che vuoi, ma non dall'uscita USB-C :)
Niente adattatori, solo un cavo che è USB-C da un lato e DP porto dall'altro, non hai nessuna conversione di segnale, tanto che i cavi sono bidirezionali (supporterebbero un monitor USB-C da una uscita DP della scheda video).
Poi se uno preferisce custom perfetto, ma davvero, non farti condizionare da questo. Da temperature, performance, prezzi, quel che vuoi, ma non dall'uscita USB-C :)
ahh buono, non lo sapevo. Allora le tengo in considerazione. Mi pare che anche amd abbia fatto passi avanti sulle sue schede negli ultimi anni.
Windtears
06-11-2022, 14:34
Navi32 sarà sempre MCM con 3840 shader dual issue.
Navi33 sarà monolitico, ma interamente a 6nm.
grazie per il chiarimento, prezioso come sempre. ;)
Con rdna 2, AMD aveva un nodo di vantaggio, e su TSMC, ed i costi erano ben minori, tanto che ha creato una GPU con transistor quasi analoghi.
Ora le strade si sono divise, i costi sono aumentati, ed AMD ha creato un chip che a transistor sta a cavallo tra AD102 e AD103.
Nvidia questo può farlo, in quanto le schede sono pensate per i pro e riciclate per i giocatori, AMD no.
Avevo scordato che nvidia con Ampere fosse con il pp Samsung tarocco.
NODREAMS
06-11-2022, 15:48
https://www.youtube.com/watch?v=lSfgtA3-xww&ab_channel=DannyzReviews
https://www.youtube.com/watch?v=lSfgtA3-xww&ab_channel=DannyzReviews
Penso sia l'unico recensore a non aver trovato soddisfacente la presentazione di amd. Punti di vista.
devAngnew
06-11-2022, 16:09
Lato raster, pensavo in caso di basse prestazioni per flops, in uno scaling non ottimale, in delle latenze più elevate (ancora da analizzare), o in una falla microarchitetturale.
Ne ho beccato una grossa microarchitetturale.
Lo stravolgimento di RDNA va a donnine. Un bel passo indietro.
Il ray ora è condiviso in un dual CU e non in una CU classica, questo è un bene, 96 ray vs 80 con 1,5 g/rays di picco per unità.
Quindi a pari ray, 1,5 medio.
Il problema è che perde IPC, sia raster che RT.
Per come sono organizzate le DCU a doppia istruzione, l'hardware e il software devono cercare di parallelizzare al massimo il lavoro di esecuzione, o si rischiano code, o meglio è quasi impossibile far lavorare 12288 shader. Se l'istruzione successiva non può essere eseguita in parallelo (nel DCU), il CU rimane in attesa, fattore migliorato in rdna1 e 2, tanto da raggiungere nvidia.
Ecco che i TF tornano ad essere imprecisi, malgrado vengano dichiarati 60 e passa TF, questi sono variabili e legati ad attese.
Si ritorna in parte al metodo GCN.
Questo vale anche in RT. Sballando il lato raster, fa sbandare anche il RT, in cui è necessaria una parallelizzazione ottimale.
Insomma un bel passo indietro, per semplificare le CU.
Qua è semplificato, prima potevi fare tutto contemporaneamente, ora ti ritrovi con delle sorte di dipendenze, quindi i 60tf, diventano 30-40-50-60, in base al grado di parallelizzazione.
https://i.postimg.cc/qRQ7KS46/istruioni.png
MIkael ma non avevi detto che con OREO non c'era bisogno di riordinare le istruzioni e quindi oltre a non avere dipendeze si aveva un vantaggio sulle ROB.
Non lo trovo il post, oppure l'ho letto da un'altra parte :what:
mikael84
06-11-2022, 16:15
MIkael ma non avevi detto che con OREO non c'era bisogno di riordinare le istruzioni e quindi oltre a non avere dipendeze si aveva un vantaggio sulle ROB.
Non lo trovo il post, oppure l'ho letto da un'altra parte :what:
Di OREO non se n'è parlato. Si ritorna al caro vecchio ILP, GCN style.
Cmq AMD non ha rilasciato nulla di specifico, se hai il dev. passamelo che lo leggo.
ninja750
06-11-2022, 18:05
AMD regarding competing against the 4090:
[Radeon RX 7900 XTX] is designed to go against 4080 and we don’t have benchmarks numbers on 4080. That’s the primary reason why you didnt see any NVIDIA compares. […] $999 card is not a 4090 competitor, which costs 60% more, this is a 4080 competitor.
— Frank Azor to PCWorld
AMD regarding FSR3 :
[AMD FSR3] is not a reaction or a quick thing [to DLSS3], it is absolutely something we have been working on for a while. Why is it taking a little bit longer for it come out, that you’d probably hoped for? The key thing to remember about FSR is the FSR philosophy and FSR until now did not just work on RDNA2 or RDNA1 they work on other generations of AMD graphics cards. They also work on competitors graphics cards. It is exponentioally harder than if we just made it work on RDNA3. […] We really do want to work on more than just RDNA3.
— Frank Azor to PCWorld
AMD regarding competing against the 4090:
[Radeon RX 7900 XTX] is designed to go against 4080 and we dont have benchmarks numbers on 4080. Thats the primary reason why you didnt see any NVIDIA compares. [
] $999 card is not a 4090 competitor, which costs 60% more, this is a 4080 competitor.
Frank Azor to PCWorld
AMD regarding FSR3 :
[AMD FSR3] is not a reaction or a quick thing [to DLSS3], it is absolutely something we have been working on for a while. Why is it taking a little bit longer for it come out, that youd probably hoped for? The key thing to remember about FSR is the FSR philosophy and FSR until now did not just work on RDNA2 or RDNA1 they work on other generations of AMD graphics cards. They also work on competitors graphics cards. It is exponentioally harder than if we just made it work on RDNA3. [
] We really do want to work on more than just RDNA3.
Frank Azor to PCWorldGuarda che potrebbe anche essere una presa per il ciapet a Nvidia,infatti battono il chiodo sul prezzo,come dire le schede si paragonano sulla fascia di prezzo(giusto) quindi con la RTX 4080,ma nulla vieta che vada di più e vada ad insidiare la RTX 4090.
Fino alle review parliamo di aria fritta,poi si possono fare mille congetture.
fraussantin
06-11-2022, 18:34
Cut
NODREAMS
06-11-2022, 18:41
Guarda che potrebbe anche essere una presa per il ciapet a Nvidia,infatti battono il chiodo sul prezzo,come dire le schede si paragonano sulla fascia di prezzo(giusto) quindi con la RTX 4080,ma nulla vieta che vada di più e vada ad insidiare la RTX 4090.
Fino alle review parliamo di aria fritta,poi si possono fare mille congetture.Peccato che AMD non abbia voluto fare comparazioni con la RTX 3090ti...
mikael84
06-11-2022, 18:47
Guarda che potrebbe anche essere una presa per il ciapet a Nvidia,infatti battono il chiodo sul prezzo,come dire le schede si paragonano sulla fascia di prezzo(giusto) quindi con la RTX 4080,ma nulla vieta che vada di più e vada ad insidiare la RTX 4090.
Fino alle review parliamo di aria fritta,poi si possono fare mille congetture.
A livello di transistor è sopra.
AD103: 45,9b (chip della 4080 16, che è cuttata di 1000 cuda)
RDNA3: 58,8b
AD102: 76,3b (La 4090 è cut di 2000 cuda, 24mb di cache)
AMD ha dichiarato + 54 perf/watt sopra la 6950xt, ed è quello che mediamente ci si aspetta, dopo dipende dai titoli, favorevole ad una o all'altra, ma mediamente a livello di transistor è superiore ad AD103.
AMD avrà analizzato tanti scenari, un pò come il 13% di IPC su zen4.:)
Peccato che AMD non abbia voluto fare comparazioni con la RTX 3090ti...Non è significativo fare confronti con una gen più vecchia,visto che la competitor naturale non è ancora uscita,con cosa dovevano fare i confronti?
Con la 6950XT semplice,la scheda che va a sostituire.
Sicuramente non hanno fatto confronti con la RTX 4090 perché è inferiore,di quanto non si sa,secondo te in una presentazione ufficiale,facevano vedere..qui siamo il -5% qui il -10% ectect dalla RTX 4090,che figura facevano..?
Non avrebbe neanche senso paragonare la 7900XTX con la RTX 4090,la seconda è in un altra fascia di prezzo.
Io mi aspetto un sostanziale pareggio con la RTX 4080 sia Raster che RT con punte che vanno ad insidiare la RTX 4090 solo in raster.
Gyammy85
06-11-2022, 19:55
Deve andare per forza quanto la 4080, non è che niente niente poi facciamo come i Zen 4, li downclockiamo per farlo andare esattamente come intel?
"lO hA dEtTo aMd" Incoming
NODREAMS
06-11-2022, 19:58
Non è significativo fare confronti con una gen più vecchia,visto che la competitor naturale non è ancora uscita,con cosa dovevano fare i confronti?
Con la 6950XT semplice,la scheda che va a sostituire.
Sicuramente non hanno fatto confronti con la RTX 4090 perché è inferiore,di quanto non si sa,secondo te in una presentazione ufficiale,facevano vedere..qui siamo il -5% qui il -10% ectect dalla RTX 4090,che figura facevano..?
Non avrebbe neanche senso paragonare la 7900XTX con la RTX 4090,la seconda è in un altra fascia di prezzo.
Io mi aspetto un sostanziale pareggio con la RTX 4080 sia Raster che RT con punte che vanno ad insidiare la RTX 4090 solo in raster.Non puoi aspettarti un pareggio in ambito RT con la RTX 4080, ti dico già da subito che rimarresti deluso perché è indietro (di quanto non si sa).
Comunque la speranza è anche che venga impiegato nei prossimi giochi un RT adatto anche alle schede AMD, e non giochi come Cyberpunk, Control che erano una marchetta Nvidia tra RT e DLSS...
Sono curioso di vedere già con Callisto Protocol come si comporterà il RT con la scheda AMD.
Ale55andr0
06-11-2022, 20:07
Non è significativo fare confronti con una gen più vecchia,visto che la competitor naturale non è ancora uscita,con cosa dovevano fare i confronti?
Con la 6950XT semplice,la scheda che va a sostituire.
r.
sinceramente spererei che la scheda che la andrà a sostituire sarà una ipotetica 7950XT(X) e che quindi abbiano usato la 6950x semplicemente perchè è la più potente di AMD della precedente gen. Teoricamente ci sarebbe spazio per una bella 16384sp @450w :sofico:
Gyammy85
06-11-2022, 20:27
Non puoi aspettarti un pareggio in ambito RT con la RTX 4080, ti dico già da subito che rimarresti deluso perché è indietro (di quanto non si sa).
Comunque la speranza è anche che venga impiegato nei prossimi giochi un RT adatto anche alle schede AMD, e non giochi come Cyberpunk, Control che erano una marchetta Nvidia tra RT e DLSS...
Sono curioso di vedere già con Callisto Protocol come si comporterà il RT con la scheda AMD.
Dai numeri trapelati nei giochi rt "neutrali" dovrebbe andare almeno il 30% in più della 3090/ti, quindi sarebbe in linea con la 4080 da 16
Sono sempre più curioso di vedere le perf della 7900xt
Sono curioso di vedere già con Callisto Protocol come si comporterà il RT con la scheda AMD.
È in accordo con AMD quindi andrà bene per forza di cose, o fanno un autogol tremendo :sofico:
NODREAMS
06-11-2022, 20:31
È in accordo con AMD quindi andrà bene per forza di cose, o fanno un autogol tremendo :sofico:Appunto, e sono convinto che vedremo un ottimo RT, anche grazie all'ambientazione del gioco.
Ale55andr0
06-11-2022, 20:36
Appunto, e sono convinto che vedremo un ottimo RT, anche grazie all'ambientazione del gioco.
è buio pesto :stordita:
Non puoi aspettarti un pareggio in ambito RT con la RTX 4080, ti dico già da subito che rimarresti deluso perché è indietro (di quanto non si sa).
Comunque la speranza è anche che venga impiegato nei prossimi giochi un RT adatto anche alle schede AMD, e non giochi come Cyberpunk, Control che erano una marchetta Nvidia tra RT e DLSS...
Sono curioso di vedere già con Callisto Protocol come si comporterà il RT con la scheda AMD.
A me del RT interessa il giusto...per non dire poco,attualmente ho una RTX 3080,e ai miei occhi non mi pare sta gran rivoluzione,diciamocelo,poi con il prezzo che fa pagare in termini di fps..
Imho la RTX 4080 la eguaglierà a 360 gradi,poi come sempre ci saranno i giochi più o meno favorevoli a l'una o all'altra.
Cyberpunk e soprattutto Control da troppo che è forzato è quasi ridicolo l'RT,non dico ai livelli di Battlefield V ma quasi 😆
L'RT va bene se è naturale,ma capisco che dopo, il 90% dei videogiocatori non sa nemmeno di averlo attivo 😆
A me del RT interessa il giusto...per non dire poco,attualmente ho una RTX 3080,e ai miei occhi non mi pare sta gran rivoluzione,diciamocelo,poi con il prezzo che fa pagare in termini di fps..
Imho la RTX 4080 la eguaglierà a 360 gradi,poi come sempre ci saranno i giochi più o meno favorevoli a l'una o all'altra.
Cyberpunk e soprattutto Control da troppo che è forzato è quasi ridicolo l'RT,non dico ai livelli di Battlefield V ma quasi 😆
L'RT va bene se è naturale,ma capisco che dopo, il 90% dei videogiocatori non sa nemmeno di averlo attivo 😆Non ho mai provato direttamente l'RT, ma vedendo i tanti video sul tubo alcuni giochi, tipo Control, sembra veramente la sagra dei riflessi..
Così esagerati che sembra tutto finto
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
devAngnew
06-11-2022, 21:20
A me del RT interessa il giusto...per non dire poco,attualmente ho una RTX 3080,e ai miei occhi non mi pare sta gran rivoluzione,diciamocelo,poi con il prezzo che fa pagare in termini di fps..
Imho la RTX 4080 la eguaglierà a 360 gradi,poi come sempre ci saranno i giochi più o meno favorevoli a l'una o all'altra.
Cyberpunk e soprattutto Control da troppo che è forzato è quasi ridicolo l'RT,non dico ai livelli di Battlefield V ma quasi 😆
L'RT va bene se è naturale,ma capisco che dopo, il 90% dei videogiocatori non sa nemmeno di averlo attivo 😆
Ovviamente è palese che rt odierno è troppo rudimentale direi quasi superfluo. Gli engine saranno tutti ibridi dove in piccole porzioni saranno applicati algoritimi rt a livello basico; altrimenti se fosse vero rt c'è ne accorgeremmo subito tutti. :D
dai ne sei uscito, dopo 3owned di fila (sackboy,spiderman,metro), ma ne sei uscito :D
https://i.ibb.co/ZcdtQsv/Marvel-s-Spider-Man-Remastered-v1-1014-0-0-05-11-2022-23-42-52.png (https://ibb.co/ZcdtQsv) https://i.ibb.co/ZTMS8Sd/Marvel-s-Spider-Man-Remastered-v1-1014-0-0-05-11-2022-23-43-00.png (https://ibb.co/ZTMS8Sd) https://i.ibb.co/Tw1kLS2/Marvel-s-Spider-Man-Remastered-v1-1014-0-0-05-11-2022-23-43-07.png (https://ibb.co/Tw1kLS2) https://i.ibb.co/xgp0pTX/Steam-05-11-2022-23-42-43.png (https://ibb.co/xgp0pTX)
ao rt?sicuro?
Ma a parte owned ?
Ripeto per ultima volta su sackboy, hai dimostrato tu stesso che avevi bisogno del gioco per dire quali fossero in rt (tutti, sugli screen di Exes hanno detto che non si capiva).
Su spiderman si sapeva che ha solo le reflection è stato pubblicizzato un sacco su PS5 ma la mia provocazione era un'altra :D
Su metro exodus, hai capito quello che volevo dire, oppure parli tanto per ...
Li ho voluto far vedere un difetto ma tu non hai colto; perchè sei troppo impegnato ad auto-compiacerti.
Cmq questo discorso è off topic qui.
Di OREO non se n'è parlato. Si ritorna al caro vecchio ILP, GCN style.
Cmq AMD non ha rilasciato nulla di specifico, se hai il dev. passamelo che lo leggo.
NO niete per ora, se lo trovi posta pure qui il link che son curioso.
NODREAMS
06-11-2022, 21:37
Infatti i primi giochi sono meh. Ma in futuro non è escluso che fanno capolavori. Bisogna ancora vedere anche gta 6 come sarà fatto.
Nessuno sa se è con unreal 5 e se hai i ray tracing? E che livello poi.Rockstar usa motori proprietari...figurati se da commissioni delle vendite di GTA 6 per utilizzare Unreal Engine 5...:-D
Infatti i primi giochi sono meh. Ma in futuro non è escluso che fanno capolavori. Bisogna ancora vedere anche gta 6 come sarà fatto.
Nessuno sa se è con unreal 5 e se hai i ray tracing? E che livello poi.Beh sicuramente avremo la maggior parte dei giochi con RT pensato per le console e traslato sul PC.
Fino a quando AMD non prende seriamente l'RT, il salto in avanti non lo vedremo.
GTA 6 se fanno come con gta5 e RDR 2 che li fanno uscire prima su console e poi su PC, li vedremo a fine prossima generazione di GPU :asd:
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
Peccato che AMD non abbia voluto fare comparazioni con la RTX 3090ti...
Ma che senso avrebbe?
amon.akira
06-11-2022, 21:54
Ma a parte owned ?
Ripeto per ultima volta su sackboy, hai dimostrato tu stesso che avevi bisogno del gioco per dire quali fossero in rt (tutti, sugli screen di Exes hanno detto che non si capiva).
Su spiderman si sapeva che ha solo le reflection è stato pubblicizzato un sacco su PS5 ma la mia provocazione era un'altra :D
Su metro exodus, hai capito quello che volevo dire, oppure parli tanto per ...
Li ho voluto far vedere un difetto ma tu non hai colto; perchè sei troppo impegnato ad auto-compiacerti.
Cmq questo discorso è off topic qui.
sackboy non ho visto nessun gioco, ho solo controllato dopo che ha postato l img a parti inverse, altrimenti potevo rispondere anche prima...ma dovresti sapere che in ogni caso la differenza tra 1img e che ne so tipo 30ore di gameplay non è la stessa cosa, poi se ci credi e bene fatti tuoi.
spiderman ho ripetuto piu volte che era no-sense nel giochetto delle img ripetute anche altre volte qui e la nei forum, e anzichè darmi ragione insistevi. (tra l altro è proprio quello che sto giocando ora e ti posso assicurare che non solo lo noti ma lo apprezzi anche).
metro ho capito solo che mettendo le 2foto si voleva indurre a dire, vedi che senza rt è piu bello...però avete scelto la versione vecchia. Se l intento è screditare il raytracing come piu brutto, ripeto non vuole essere piu bello (quello è compito dei designer), ma piu preciso.
rt è pesante si, migliora la scena in termini di accuratezza si, se avessimo potenza infinita lo attiveresti si. Stop
ps.esempio eclatante i vari residentevil 2-3-7 in cui è stato aggiunto dopo l rt reflection...prima non si potevano vedere...infatti disattivavo mio malgrado i riflessi altrimenti intorno al pg quando c erano riflessi tipo nella hall del 2 vedevi come un mantello che ti circondava...finalmente con il rt ora è tutto perfetto e migliore. e li parliamo di un implementazione leggera (amd like)ma sempre meglio di niente.
Ma che senso avrebbe?
lo stesso senso di quando ha paragonato il 7950x con il 12900k (https://cdn.appuals.com/wp-content/uploads/2022/08/FbW6U3zWAAAU_hL-e1661812210841.png.webp)
Arrow0309
06-11-2022, 22:06
[... CUT ...]
lo stesso senso di quando ha paragonato il 7950x con il 12900k (https://cdn.appuals.com/wp-content/uploads/2022/08/FbW6U3zWAAAU_hL-e1661812210841.png.webp)
Con che lo dovevano paragonare?
Col 13900K che usciva un mesi dopo?
AMD sempre in ritardo ma con i Ryzen 7000 Zen 4 e' uscito prima :D
Vabbene non lo sapevo :) ma si sa niente al riguardo? Ho visto solo un leak, reale confermato dalla rockstar, che si può anche camminare proni e molte piu optional dentro l'abitacolo.
Togliamo il se :) sicuramente esce prima per console ma di 1 anno o 2 al massimo. Ma più un anno probabilmente poi bisogna vedere se sta per uscire una nuova console e se rimandono l'uscita per tale console come fu all'epoca.
Tuttavia tra un annetto o 2 dovremmo avere l'annuncio di sicuro :)
Dato che avevano fatto delle teoria sulle stima di vendita della rockstar e tra 2 o 3 anni esce per console almeno.Per questo ho detto che su pc lo giocheremo a fine generazione rtx 5000 e RX 8000 XD
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
amon.akira
06-11-2022, 22:13
Con che lo dovevano paragonare?
Col 13900K che usciva un mesi dopo?
AMD sempre in ritardo ma con i Ryzen 7000 Zen 4 e' uscito prima :D
no no hanno fatto bene, fai la stessa domanda alla 7900xtx con che la dovevano paragonare con la 4080 che esce mesi dopo? e datti una risposta (3090ti?)
no no hanno fatto bene, fai la stessa domanda alla 7900xtx con che la dovevano paragonare con la 4080 che esce mesi dopo? e datti una risposta (3090ti?)Che senso aveva paragonarla con la 3090ti se è già uscita la nuova generazione Nvidia?
Sono due casi diversi imho
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
amon.akira
06-11-2022, 22:28
Che senso aveva paragonarla con la 3090ti se è già uscita la nuova generazione Nvidia?
Sono due casi diversi imho
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
be intel paragona l arc alla 3060ti perchè concorre con questa mica con la 3090...tu non concorri con la 4090 la paragoni al tuo concorrente e se non c'è quello prima...che ne so 3090...infatti come ho visto che paragonava solo alla 6950xt ho capito che in rt non sarebbe stata "super".
sicuramente in raster avrebbero fatto vedere come superava la 3090ti ma in rt poi avrebbero fatto vedere dei grafici poco esaltanti e quindi skip e passa la paura.
se fai 20fps in cyberpunk senza fsr sei a lv 3090ti, far vedere un tie nella presentazione non sarebbe stato bello.
sicuramente in giochi in cui l rt è leggero sarà anche avanti ma la vedo difficile che pareggi la 4080 in rt
mikael84
06-11-2022, 22:41
Bisogna fare il disegnino.:D
Sino a +54% sulla 6950xt a pari watt.
https://i.postimg.cc/sxDK7kG3/rdna3.png
Nei vari test di AMD hanno riscontrato questi valori mediamente, che è lo stesso valore di RDNA2.
amon.akira
06-11-2022, 22:45
Bisogna fare il disegnino.:D
Sino a +54% sulla 6950xt a pari watt.
Nei vari test di AMD hanno riscontrato questi valori mediamente, che è lo stesso valore di RDNA2.
con la 3090 sarebbe stato perfetto, anche lei 350w
WAN del Diablo4
06-11-2022, 23:15
Prego, potete distruggere il vostro sistemino casalingo :sofico:
ESEGUIBILE di Enemies uscito (e potete modificare i bat relativi ai preset a piacimento)
https://unity.com/demos/enemies
Al minimo e a 1920x1080 con la base che più base non si può (GCN Polaris - RX 570):
https://i.postimg.cc/QCwTHHB7/Untitled.jpg (https://postimg.cc/9wPMkXYX)
no no hanno fatto bene, fai la stessa domanda alla 7900xtx con che la dovevano paragonare con la 4080 che esce mesi dopo? e datti una risposta (3090ti?)
Perché la fascia di prezzo è quella; ma se guardi i numeri ufficiali... Sta poco sotto la 4090. ;)
WAN del Diablo4
06-11-2022, 23:45
Ma non era già uscito o forse era solo per nvidia?
Era uscito il VIDEO.
E' "banalmente" un demo dell'Unity Engine, va su ogni GPU DX11/12 (nel senso che parte :D )
mikael84
06-11-2022, 23:58
con la 3090 sarebbe stato perfetto, anche lei 350w
Sarebbe un danno d'immagine per i confronti in RT e con la 4090 già uscita.:)
Meglio dichiarare tot, perf e via.
amon.akira
07-11-2022, 00:01
Perché la fascia di prezzo è quella; ma se guardi i numeri ufficiali... Sta poco sotto la 4090. ;)
si li ho visti i numeri ufficiali su cyberpunk in rt senza fsr, fa +50% dalla 6950xt e come la 3090ti, quindi 60-70% sotto la 4090
https://i.ibb.co/MCkpZWt/Immagine-2022-11-07-005556.png (https://ibb.co/MCkpZWt)
questo non vuol dire che non sarà buona in rt, semplicemente non sarà poco sotto...ma anche amd lo sa infatti ha detto che concorrerà con la 4080.
Gigibian
07-11-2022, 00:16
si li ho visti i numeri ufficiali su cyberpunk in rt senza fsr, fa +50% dalla 6950xt e come la 3090ti, quindi 60-70% sotto la 4090
https://i.ibb.co/MCkpZWt/Immagine-2022-11-07-005556.png (https://ibb.co/MCkpZWt)
questo non vuol dire che non sarà buona in rt, semplicemente non sarà poco sotto...ma anche amd lo sa infatti ha detto che concorrerà con la 4080.
÷50% per il gusto di generare un pò di entropia? :D
https://i.ibb.co/fG6hcy0/rt-perf.jpg (https://ibb.co/4gv6QXN)
Riassumo
CP2077 nativo
RX 6950XT = 12.5fps
RX 7900XTX = 20.7fps
+65.6%
DL2 nativo
RX 6950XT = 11.9fps
RX 7900XTX = 23.65ps
+98.7%
Hitman3 nativo
RX 6950XT = 23fps
RX 7900XTX = 37.8ps
+64.3%
Siamo a +66% altro che +50!
amon.akira
07-11-2022, 00:22
ora fai 20fps e arriva a 33fps della 4090 :sofico:
edit
ero stato anche generoso
https://b2c-contenthub.com/wp-content/uploads/2022/10/rt-cyberpunk-4k.jpg?quality=50&strip=all&w=1200
Gigibian
07-11-2022, 00:47
ora fai 20fps e arriva a 33fps della 4090 :sofico:
edit
ero stato anche generoso
https://b2c-contenthub.com/wp-content/uploads/2022/10/rt-cyberpunk-4k.jpg?quality=50&strip=all&w=1200
Ma l'hai riletto il tuo post? "ora fai 20fps e arriva a 33fps della 4090" ma che è una frase di senso compiuto?
Mi pare semplice: Hai scritto+50% sulla 6950 in cp 4k rt. [7900xtx]
Falso
Sono + 66%.
Fine.
La tua seconda risposta non è intelligibile ed il link non funziona.
amon.akira
07-11-2022, 00:51
Ma l'hai riletto il tuo post? "ora fai 20fps e arriva a 33fps della 4090" ma che è una frase di senso compiuto?
Mi pare semplice: Hai scritto+50% sulla 6950 in cp.
Falso
Sono + 66%.
Fine.
La tua seconda risposta non è intelligibile ed il link non funziona.
si ma ho scritto anche 20fps, sai non ho preso il righello...ho scritto piu 50% ma ti ho detto che arriva a 20fps...ma non solo ora, se rileggi dalla presentazione ad oggi l avrò scritto almeno altre 3volte in questo thread.
quindi 20fps come la 3090/ti e ora arriva a 40fps della 4090 e fai i conti se possiamo dire che "poco sotto"
vuoi i numeri precisi? 42fps/20.7fps del tuo righello=+102.89%
Gigibian
07-11-2022, 00:53
si ma ho scritto anche 20fps, sai non ho preso il righello...ho scritto piu 50% ma ti ho detto che arriva a 20fps...ma non solo ora, se rileggi dalla presentazione ad oggi l avrò scritto almeno altre 3volte in questo thread.
quindi 20fps come la 3090/ti e ora arriva a 40fps della 4090 e fai i conti se possiamo dire che "poco sotto"
vuoi i numeri precisi? 42fps/20.7fps del tuo righello=+102.89%
Non devo rileggere nulla.
Hai scritto una roba che genera entropia e fa disinformazione.
Sono +66% NON +50.
Poi ognuno è libero di fare le elucubrazioni cbe vuole. Ma almeno non storpiamo i dati ufficiali, per quel poco che sappiamo oggi.
amon.akira
07-11-2022, 00:54
Non devo rileggere nulla.
Hai scritto una roba che genera entropia e fa disinformazione.
Fine.
https://i.ibb.co/Rz0yj1F/rt-cyberpunk-4k.jpg (https://ibb.co/Rz0yj1F)
ecco qua
https://www.hwupgrade.it/forum/showpost.php?p=48001672&postcount=76748
leggi 20fps, scusami non ho scritto 20.7fps senza righello a occhio però non è male dai :D
amon.akira
07-11-2022, 01:23
https://www.youtube.com/watch?v=ZTSp8c5vlog
quando entri nel thread 7900xtx e dici che la 4090 è di un altra fascia...ti attaccano da tutti i lati e ti senti come neo
:sofico:
mikael84
07-11-2022, 01:44
https://www.youtube.com/watch?v=ZTSp8c5vlog
quando entri nel thread 7900xtx e dici che la 4090 è di un altra fascia...ti attaccano da tutti i lati e ti senti come neo
:sofico:
Beh i dati di AMD sono quelli. Up to 54 perf/watt. 58b transistor, equivalenti ad un die da 460 Lovelace. Alla fine c'è poca interpretazione.
E' AMD a dichiarare le perf, più facile di così.:)
400$ di costi, prezzo 999$.
Ormai si attende solo il debutto. :) Tutto quello che ci serviva l'abbiamo ottenuto.
Si possono calcolare anche le fasce più basse.
amon.akira
07-11-2022, 01:49
Beh i dati di AMD sono quelli. Up to 54 perf/watt. 58b transistor, equivalenti ad un die da 460 Lovelace. Alla fine c'è poca interpretazione.
E' AMD a dichiarare le perf, più facile di così.:)
400$ di costi, prezzo 999$.
Ormai si attende solo il debutto. :) Tutto quello che ci serviva l'abbiamo ottenuto.
Si possono calcolare anche le fasce più basse.
questo è molto interessante, una 7800xt a 699magari come si collocherebbe? esempio vs una 3080 raster/rt/watt?
mikael84
07-11-2022, 02:01
questo è molto interessante, una 7800xt a 699magari come si collocherebbe? esempio vs una 3080 raster/rt/watt?
60% ALU, siamo sul 35-40% in meno della 7900xtx.:)
In Watt, dipende dal clock, ma potrebbe tranquillamente stare sui 240-250 watt.
amon.akira
07-11-2022, 02:17
60% ALU, siamo sul 35-40% in meno della 7900xtx.:)
In Watt, dipende dal clock, ma potrebbe tranquillamente stare sui 240-250 watt.
sembrerebbe veramente na bella scheda, se fosse a 700€ con 16gb, rt da 3080 + bonus raster, il tutto in 250w
mikael84
07-11-2022, 02:17
Si possono calcolare anche quelle delle nvidia a sto punto? Per fare un confronto. Chissà come andrà la 4070 se si chiamerà cosi.
Con la 4080 16, anche li leva un 35-40%, con la 4070 o ex 4080 12 leva il 70% dalla 4090.
sembrerebbe veramente na bella scheda, se fosse a 700€ con 16gb, rt da 3080 + bonus raster, il tutto in 250w
Si poi faranno il cut sui 200watt, clock più contenuto e meno ALU.
Costi poco sopra i 250$, 699 ci sta benissimo.
Molto però dipenderà da come tareranno il chip, vedi 6700xt ad 1,2v (+30 perf/watt) che consuma quanto la 6800. Con questi giochetti, possono variare il perf/watt in base alle esigenze.
Cmq dovremmo essere li.
si li ho visti i numeri ufficiali su cyberpunk in rt senza fsr, fa +50% dalla 6950xt e come la 3090ti, quindi 60-70% sotto la 4090
https://i.ibb.co/MCkpZWt/Immagine-2022-11-07-005556.png (https://ibb.co/MCkpZWt)
questo non vuol dire che non sarà buona in rt, semplicemente non sarà poco sotto...ma anche amd lo sa infatti ha detto che concorrerà con la 4080.
Impossibile pensare che non esista solo il RT.
fraussantin
07-11-2022, 06:18
Impossibile pensare che non esista solo il RT.Si ma è anche impossibile far finta che non esista visto che ormai tutti i giochi di una certa caratura grafica , fatto bene o male , ce l'hanno.
Certo che se fsr funziona bene e offre prestazioni simili al dlss andare un po meno in rt a res nativa puo significare poco
Aspettiamo le recensioni
Ale55andr0
07-11-2022, 07:01
no no hanno fatto bene, fai la stessa domanda alla 7900xtx con che la dovevano paragonare con la 4080 che esce mesi dopo? e datti una risposta (3090ti?)
nvidia mica ha messo la 6950 a a paragone della 4090
Ale55andr0
07-11-2022, 07:17
https://www.tomshw.it/hardware/amd-radeon-rx-7900-xtx-ecco-un-primo-confronto-con-rtx-4090/
prendetele per quel che sono, soliti "leak" di presunti "insider" etc, giusto pour parler :)
sembrerebbe veramente na bella scheda, se fosse a 700€ con 16gb, rt da 3080 + bonus raster, il tutto in 250w
non vedo come possa giocarsela con la 3080 in rt se la top se la gioca a stento con la 3090 in RT, 3080 e 3090 si staccano "poco" le une dalle altre....
Si ma è anche impossibile far finta che non esista visto che ormai tutti i giochi di una certa caratura grafica , fatto bene o male , ce l'hanno.
Certo che se fsr funziona bene e offre prestazioni simili al dlss andare un po meno in rt a res nativa puo significare poco
Aspettiamo le recensioni
Verissimo. Ma è anche impossibile far finta che in tutti rt vada come CP2077, pesa moltissimo o "poco" in base al titolo, non c'è un valore medio, dipende dal tipo di implementazione (e sponsorizzazione :D)
ray_hunter
07-11-2022, 07:38
Guardate questo video (https://www.youtube.com/watch?v=fGSu1VIpibY&t=549s)
Spiega in modo semplice, semplice quanto ci dobbiamo aspettare in più di RT dalla 7900XTX.
Ogni RT core garantisce fino a 50% in più di performance.
Le CU passano da 80 di 6900XT/6950Xt a 96.
96/80*1.5 = fino a 80% in più di prestazioni
E' totalmente in linea con il grafico AMD. Ci sta che nel caso peggiore si sia a ~65% di CP2077, che siginifica ~+37.5% di performance per ogni RT core.
Questo sicuramente può rappresentare il worst scenario con il best di DL2.
Mi piace molto la filosofia con cui vengono sviluppati i titoli ottimizzati AMD con RT, stile Village e FC6. Sono contesti in cui l'RT non è sparato a manetta ma è ottimizzato su una resa percepibile. Si investe di più nel creare assets di qualità. In tali scenari dove la componente raster ha ancora una certa preponderanza sicuramente le perf sarannto ottime. Nvidia invece punta ad un RT duro e puro dove, come spesso dimostrano le comparison, il realismo è maggiore ma l'impatto visivo ha un improvement minimo con una caduta di perfomance notevole (anche sulle RTX).
Per chi chiedeva di FSR 2.0, sappiate che una cosa che le recensioni non dicono MAI è che spesso sulle RX si ha un miglioramento di fps maggiore rispetto a quello ottenibile con le RTX. Di solito fanno vedere che la 3080 con DLSS e FSR raggiunge le stesse perf con un leggerissimo margine di vantaggio con DLSS ma non fanno mai vedere 3080 nativo e DLSS vs 6800Xt da nativo e FSR2, che invece sarebbe la cosa più interessante.
Qualitativamente parlando è vero che zoomando DLSS ricostruisce meglio fini, capelli ecc... In game differenze zero. FSR2 ogni tanto fa le bizze con la disocclusion e prima del 2.1 con le ghost trails. Probabilmente il 2.2 rimedierà appunto alle disocclusion.
Quello che fa la differenza invece è il supporto: dlss è in molti più giochi mentre fsr 2.0 in pochi al momento. FSR 1 invece per me è valido solo in 4K a ultra, a tutte le altre res e a qualsiasi impostazioni invece smarmella abbastanza l'immagine.
Gyammy85
07-11-2022, 07:44
https://www.tomshw.it/hardware/amd-radeon-rx-7900-xtx-ecco-un-primo-confronto-con-rtx-4090/
prendetele per quel che sono, soliti "leak" di presunti "insider" etc, giusto pour parler :)
non vedo come possa giocarsela con la 3080 in rt se la top se la gioca a stento con la 3090 in RT, 3080 e 3090 si staccano "poco" le une dalle altre....
Verissimo. Ma è anche impossibile far finta che in tutti rt vada come CP2077, pesa moltissimo o "poco" in base al titolo, non c'è un valore medio, dipende dal tipo di implementazione (e sponsorizzazione :D)
A voler essere precisi, su cod la 7900 xtx fa 139 fps, sul sito c'è scritto così
Per rt, si parte da un minimo che è la 3090ti a salire, se prendiamo i dati dichiarati di re village sempre dal sito, siamo intorno al +30%
bonzoxxx
07-11-2022, 08:13
Se Lisona se la gioca bene stavolta ne vende parecchie, entrambe le 7900 sono ottime, costose in senso assoluto ma hanno un rapporto performance/price decisamente migliore delle verdi.
Bene bene, quasi quasi passo al rosso :D :D
narniagreen
07-11-2022, 08:14
In RT quindi pare che vada come una 4070/3090ti e non come una 4080.
Beh poco male se costa uguale, AMD pare che abbia messo i prezzi in funzione di queste prestazioni e non di quelle Raster, che sono nettamente più elevate a pari fascia prezzo, e per me è solo un BENE e non un male, tanto quando ti fanno confronto diretti RT ON vs OFF e ti chiedono di scegliere quale sia con RT, la gente sbaglia a scegliere :asd:
il più grande inganno degli dell'era informatica videoludica, senza dubbio.
Beh i dati di AMD sono quelli. Up to 54 perf/watt. 58b transistor, equivalenti ad un die da 460 Lovelace. Alla fine c'è poca interpretazione.
E' AMD a dichiarare le perf, più facile di così.:)
400$ di costi, prezzo 999$.
Ormai si attende solo il debutto. :) Tutto quello che ci serviva l'abbiamo ottenuto.
Si possono calcolare anche le fasce più basse.
Quindi è lecito aspettarsi una 7600 che si collochi nella fascia di performance delle 6750xt/6800 magari con uno leggero spunto in più sul ray tracing, o sara più in linea con la 6700 liscia da 10GB ?
bonzoxxx
07-11-2022, 08:25
L'RT a volte è implementato a capocchia tanto per far vedere i riflessi nelle pozze d'acqua, bello per carità ma è palese sia messo li tanto per.
Le ombre in RT in tomb raider sono carine ma se ne può fare a meno.
Secondo me per ora contano ancora molto le prestazioni in raster, per l'RT duro e puro alla quake II dovremo aspettare ancora parecchio con ben altre potenze in gioco imho.
WAN del Diablo4
07-11-2022, 08:27
Quindi è lecito aspettarsi una 7600 che si collochi nella fascia di performance delle 6750xt/6800 magari con uno leggero spunto in più sul ray tracing, o sara più in linea con la 6700 liscia da 10GB ?
Sì
Cmq per i titoli DLSS-only potete sempre sperare in CyberFSR (l'injector dell'FSR 2.x) -> https://github.com/PotatoOfDoom/CyberFSR2
Con si immagino tu intenda zona 6800?
se dovesse stare sui 300 € sarebbe la classica scheda ammazza console per prestazione/consumi/prezzo
ray_hunter
07-11-2022, 08:38
Guardate questo
https://www.youtube.com/watch?v=rOkrxmGi_Kw
Ha fatto tutta una serie di calcoli sui pochi dati rilasciati da AMD e messo a confronto che le RTX 4000 e le RX 6000.
Preciso che rispetto ai calcoli fatti sui grafici da me, le discrepanze sono dovute agli arrotondamenti che lui ha fatto e che invece io ho evitate.
Su DL2 e CP2077 arrotondare da 12.7 a 12 chiaro che fa uscire punti percentuale in più.
Molto interessante a mio avviso.
Per quanto riguarda l'RT dove è abbastanza spinto dovremo attenderci prestazioni da 3090, mentre dove è più ottimizzato probabilmente saremo in linea o leggermente sopra a RTX 3090 TI...
narniagreen
07-11-2022, 08:45
Guardate questo
https://www.youtube.com/watch?v=rOkrxmGi_Kw
Ha fatto tutta una serie di calcoli sui pochi dati rilasciati da AMD e messo a confronto che le RTX 4000 e le RX 6000.
Preciso che rispetto ai calcoli fatti sui grafici da me, le discrepanze sono dovute agli arrotondamenti che lui ha fatto e che invece io ho evitate.
Su DL2 e CP2077 arrotondare da 12.7 a 12 chiaro che fa uscire punti percentuale in più.
Molto interessante a mio avviso.
Per quanto riguarda l'RT dove è abbastanza spinto dovremo attenderci prestazioni da 3090, mentre dove è più ottimizzato probabilmente saremo in linea o leggermente sopra a RTX 3090 TI...
Madonna, cioè praticamente se togli GoW va uguale alla 4090 con 100watt in meno.
Su RT non so perchè AMD non abbia voluto dare un accelerata maggiore, forse pensano che ancora non ne valga la pena e non volevano spenderci troppi transistors, dopotutto raggiungi una 3090ti che non è poco e vendi il tuo prodotto sempre a 1000$ più iva, non poco.
Gyammy85
07-11-2022, 08:51
Madonna, cioè praticamente se togli GoW va uguale alla 4090 con 100watt in meno.
Su RT non so perchè AMD non abbia voluto dare un accelerata maggiore, forse pensano che ancora non ne valga la pena e non volevano spenderci troppi transistors, dopotutto raggiungi una 3090ti che non è poco e vendi il tuo prodotto sempre a 1000$ più iva, non poco.
E si parla sempre del 4k, a 1440p la 4090 starà sotto spesso e volentieri
A mio avviso, amd ha tarato la 7900 xtx prt stare lì con la 4090 in raster e con la 4080 da 16 più o meno in rt, per dire "il chip passa i 3 ghz ma farla andare a 2,5 è più che sufficiente"
Ti fanno vedere che hanno l'arch su un altro livello e 100 watt meno, un pò come coi ryzen
narniagreen
07-11-2022, 08:56
E si parla sempre del 4k, a 1440p la 4090 starà sotto spesso e volentieri
A mio avviso, amd ha tarato la 7900 xtx prt stare lì con la 4090 in raster e con la 4080 da 16 più o meno in rt, per dire "il chip passa i 3 ghz ma farla andare a 2,5 è più che sufficiente"
Ti fanno vedere che hanno l'arch su un altro livello e 100 watt meno, un pò come coi ryzen
Per me è molto interessante invece lo split clock, tenere più bassi gli shader porta benefici nei consumi e nessuna perdita di performace rispetto all'abbassare il front end.
Bravi.
scorpion73
07-11-2022, 09:00
E si parla sempre del 4k, a 1440p la 4090 starà sotto spesso e volentieri
Ma a 1440p è noto che la 4090 scala male, per cui la 7900XTX diventa la scheda di riferimento per quella risoluzione.
Avrebbe dovuto esserlo la 4080 ma costa troppo e la XTX almeno in raster è superiore, quindi non mi meraviglio di questo.
Anche perché in media le architetture AMD scalano meglio delle nvidia avendo anche lo scheduler in hardware.
E' a 4K che a mio avviso non ci sarà storia, mentre in RT staremo fra la 3090ti e la 4080.
WAN del Diablo4
07-11-2022, 09:29
Con si immagino tu intenda zona 6800?
se dovesse stare sui 300 € sarebbe la classica scheda ammazza console per prestazione/consumi/prezzo
6750 :fagiano:
rickiconte
07-11-2022, 09:33
Prezzi ufficiali in EURO entro quando si sapranno?
ninja750
07-11-2022, 09:38
In RT quindi pare che vada come una 4070/3090ti e non come una 4080.
Beh poco male se costa uguale, AMD pare che abbia messo i prezzi in funzione di queste prestazioni e non di quelle Raster, che sono nettamente più elevate a pari fascia prezzo, e per me è solo un BENE e non un male
si sarebbe un approccio strano.. ma aspettiamo ste review che non sono nemmeno uscite quelle 4080
tanto quando ti fanno confronto diretti RT ON vs OFF e ti chiedono di scegliere quale sia con RT, la gente sbaglia a scegliere :asd:
sbaglia a scegliere e il counter fps è dimezzato
il più grande inganno degli dell'era informatica videoludica, senza dubbio.
implementato in questo modo non c'è dubbio, ma amd e nvidia devono per forza trovare il modo per venderti le vga nuove.. già mi stupisco che si sforzino ad implementare sti upscaler
cioè praticamente se togli GoW va uguale alla 4090 con 100watt in meno.
"se togli" non è una media :O
Su RT non so perchè AMD non abbia voluto dare un accelerata maggiore, forse pensano che ancora non ne valga la pena e non volevano spenderci troppi transistors
o magari sono inetti o magari la concorrenza ha lavorato e investito di più su questo aspetto :O ma piace vincere facile facendo pagare il prodotto finale il 50% in più
Ma a 1440p è noto che la 4090 scala male, per cui la 7900XTX diventa la scheda di riferimento per quella risoluzione
fino a ieri per la 4090 non si diceva che "è troppo potente è sempre cpu limited a volte anche in 4k"?
400$ di costi, prezzo 999$.
Ormai si attende solo il debutto. :) Tutto quello che ci serviva l'abbiamo ottenuto.
Si possono calcolare anche le fasce più basse.
sui costi forse sì, sui prezzi finali non lo sanno nemmeno loro adesso, è tutto marketing
ninja750
07-11-2022, 09:40
Prezzi ufficiali in EURO entro quando si sapranno?
costa uguale alla 6950XT 999$ sono diventati attualmente da noi 1.369€ per la REF, può essere che le custom costeranno un pelo meno per via dei distributori e della concorrenza come detto da alessandro
ray_hunter
07-11-2022, 09:46
Madonna, cioè praticamente se togli GoW va uguale alla 4090 con 100watt in meno.
Su RT non so perchè AMD non abbia voluto dare un accelerata maggiore, forse pensano che ancora non ne valga la pena e non volevano spenderci troppi transistors, dopotutto raggiungi una 3090ti che non è poco e vendi il tuo prodotto sempre a 1000$ più iva, non poco.
Se con queste perf raster avessero puntato ad un RT come la 4080 sarebbe stata una scheda da capottarsi. I casi in cui in RT va più della 3090TI è solo perché son giochi in cui l'RT è leggero e conta di più la parte raster.
Un metro Exodus che ha un RT pesante ma ben ottimizzato siamo a livelli di una 3090TI. Peccato che in alcuni casi in RT sia equiparabile ad un 3090.
Rimane cmq una scheda davvero appetibile di chi non ha la scimmia per maxare alla c..o di cane tutte le impostazioni.
Cmq stanno uscendo i prezzi online della 4080. Se le vendono vuol dire veramente la gente non sa comprare e non si informa...
narniagreen
07-11-2022, 09:50
"se togli" non è una media :O
Sembri [CUT] che quotava anche le virgole :asd:
Si non è che tolgo, ma dal video su 5 giochi, tolto 1, vanno in pari o 5fps meno su 100.
Se consideri una ventaglio di giochi nel percentile del 95% sarà nella forbice del -5% circa in Raster, con un chippetto.
Ada103 ne esce demolito, perché va decisamente meno e come costi siamo simili, perchè 380mmq monolitici costano circa come 300mmq + i 6 moduli da 37mmq ram a 6nm.
Come inizio del MCM mica male, Zen1 non era così competitivo a confronto.
Il RT usato a secchiate non serve ad una mazza, già le ombre RT si possono eliminare tranquillamente, preferisco senza, importante il lato riflessi, questi sono vitali, illuminazione ok ma va bene anche su medio.
Coinvincersi che tutto va messo su Ultra è una forzatura, non serve a nulla, solo a segare gli fps.
scorpion73
07-11-2022, 09:52
fino a ieri per la 4090 non si diceva che "è troppo potente è sempre cpu limited a volte anche in 4k"?
Ed è così infatti, ma è anche noto che in 1440p scala male come tutte le architetture Nvidia.
non so se è già stato postato
https://www.techpowerup.com/300655/amds-navi-31-might-clock-to-3-ghz-partner-cards-will-be-able-to-overclock
Come da primi roumors, l'architettura dovrebbe riuscire ad arrivare a 3 GHz, per cui AMD potrebbe lasciare carta bianca a i partner, oppure tenere questa possibilità per 7x50 di futuro rilascio.
Probabilmente riuscendo a stare in scia in raster alle 4090 che comunque non sarebbe stata raggiunta in RT, hanno puntato sull'efficienza.
Praticamente quello che avrebbero dovuto fare coi ryzen 7xxx
costa uguale alla 6950XT 999$ sono diventati attualmente da noi 1.369 per la REF, può essere che le custom costeranno un pelo meno per via dei distributori e della concorrenza come detto da alessandroL'msrp della 6950 è 1099 dollaroni, la 7900xtx costerà 1250 € più o meno .
Il prezzo sul sito amd shop non è aggiornato visto che è out of stock, l'avremo scritto 15 volte ormai
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
giangi989
07-11-2022, 10:05
Guardate questo
https://www.youtube.com/watch?v=rOkrxmGi_Kw
Ha fatto tutta una serie di calcoli sui pochi dati rilasciati da AMD e messo a confronto che le RTX 4000 e le RX 6000.
Preciso che rispetto ai calcoli fatti sui grafici da me, le discrepanze sono dovute agli arrotondamenti che lui ha fatto e che invece io ho evitate.
Su DL2 e CP2077 arrotondare da 12.7 a 12 chiaro che fa uscire punti percentuale in più.
Molto interessante a mio avviso.
Per quanto riguarda l'RT dove è abbastanza spinto dovremo attenderci prestazioni da 3090, mentre dove è più ottimizzato probabilmente saremo in linea o leggermente sopra a RTX 3090 TI...
Mi sembra una stima molto sensata. Probabilmente in raster la 7900XTX si assesterà a un 80% della 4090.
ninja750
07-11-2022, 10:06
Sembri Cdimauro che quotava anche le virgole :asd:
ma si che ti perculo :O ti devo ricordare il perchè? non ti ricordi al lancio 6900XT hwupgrade che faceva due distinti grafici con o senza dirt5 perchè penalizzava in maniera eccessiva le medie di qualcuno in particolare? :asd:
bonzoxxx
07-11-2022, 10:12
Il RT usato a secchiate non serve ad una mazza, già le ombre RT si possono eliminare tranquillamente, preferisco senza, importante il lato riflessi, questi sono vitali, illuminazione ok ma va bene anche su medio.
Coinvincersi che tutto va messo su Ultra è una forzatura, non serve a nulla, solo a segare gli fps.
Concordo, certo dipende da gioco a gioco, in tomb raider tra ombre RT e ombre normali non cambia molto tranne gli FPS che scendono.
Ale55andr0
07-11-2022, 10:17
ma si che ti perculo :O ti devo ricordare il perchè? non ti ricordi al lancio 6900XT hwupgrade che faceva due distinti grafici con o senza dirt5 perchè penalizzava in maniera eccessiva le medie di qualcuno in particolare? :asd:
il che spiegherebbe pure come la recensione della 4090 su hwu sia un filino diversa dalle altre come risultati :asd:
ray_hunter
07-11-2022, 10:52
Il RT usato a secchiate non serve ad una mazza, già le ombre RT si possono eliminare tranquillamente, preferisco senza, importante il lato riflessi, questi sono vitali, illuminazione ok ma va bene anche su medio.
Coinvincersi che tutto va messo su Ultra è una forzatura, non serve a nulla, solo a segare gli fps.
Se ti riferisci a CP2077 hai ragione da vendere.
Con il setting consigliato dal DF non si perde niente in termini di resa visiva ma almeno il 30% di fps
ray_hunter
07-11-2022, 10:57
Mi sembra una stima molto sensata. Probabilmente in raster la 7900XTX si assesterà a un 80% della 4090.
Probabilmente anche 90~95% sulla RTX 4090 (casi in cui sarà un 20% sotto ed altri in cui sarà pari). Parlando di raster ovviamente
devAngnew
07-11-2022, 11:04
https://www.tomshw.it/hardware/amd-radeon-rx-7900-xtx-ecco-un-primo-confronto-con-rtx-4090/
prendetele per quel che sono, soliti "leak" di presunti "insider" etc, giusto pour parler :)
non vedo come possa giocarsela con la 3080 in rt se la top se la gioca a stento con la 3090 in RT, 3080 e 3090 si staccano "poco" le une dalle altre....
Verissimo. Ma è anche impossibile far finta che in tutti rt vada come CP2077, pesa moltissimo o "poco" in base al titolo, non c'è un valore medio, dipende dal tipo di implementazione (e sponsorizzazione :D)
Non ho tempo ora ma cyberpunk è con rt o è in raster ?
fraussantin
07-11-2022, 11:09
Non ho tempo ora ma cyberpunk è con rt o è in raster ?È un paragone basato su speculazioni e su piattaforme tra l'altro diverse.
ray_hunter
07-11-2022, 11:11
Non ho tempo ora ma cyberpunk è con rt o è in raster ?
In teoria sarebbe Raster su High, nemmeno su ultra!
devAngnew
07-11-2022, 11:17
È un paragone basato su speculazioni e su piattaforme tra l'altro diverse.
quello era chiaro :)
In teoria sarebbe Raster su High, nemmeno su ultra!
Ok grazie :D
Se ti riferisci a CP2077 hai ragione da vendere.
Con il setting consigliato dal DF non si perde niente in termini di resa visiva ma almeno il 30% di fps
Concordo, certo dipende da gioco a gioco, in tomb raider tra ombre RT e ombre normali non cambia molto tranne gli FPS che scendono.
Sicuramente CP è uno dei casi più concreti in tal senso :)
Chi non ha provato a settare 200 volte il RT per vedere le differenze ? lo abbiamo fatto tutti, se uno è onesto con se stesso ammette che davvero la differenza è praticamente impercettibile, o addirittura nulla... fps a parte.
Il RT va usato in modo intelligente e solo dove veramente serve, Far Cry 6 ne fa un buon uso ad esempio.
Ci sarà un motivo se ad oggi titoli RT "avanzati", dopo quattro anni dall'essere "consumer" come tecnologia, sono la riedizione di Quake2 del 1997 e un simulatore di biglie :stordita:
mikael84
07-11-2022, 12:14
Quindi è lecito aspettarsi una 7600 che si collochi nella fascia di performance delle 6750xt/6800 magari con uno leggero spunto in più sul ray tracing, o sara più in linea con la 6700 liscia da 10GB ?
No di più, una 6750xt può prenderla alle basse res. Il picco shader sarà di 18tf come la 6800, ma perde mediamente 1/4 nel ILP.
E' un pò come la 7970xtx che sta a cavallo della 4080 16 con 33tf effettivi e 4090 con 55tf, in quanto in quei 60TF 1/4 viene perso in ILP.;)
Vi ricordate di Yossarian ? Mi spiace molto non leggerlo più.
No di più, una 6750xt può prenderla alle basse res. Il picco shader sarà di 18tf come la 6800, ma perde mediamente 1/4 nel ILP.
E' un pò come la 7970xtx che sta a cavallo della 4080 16 con 33tf effettivi e 4090 con 55tf, in quanto in quei 60TF 1/4 viene perso in ILP.;)Perdona l'ignoranza, che significa l'acronimo ILP?
Inviato dal mio ONEPLUS A6013 utilizzando Tapatalk
mikael84
07-11-2022, 12:54
Vi ricordate di Yossarian ? Mi spiace molto non leggerlo più.
Yossarian era davvero un grande... ma ormai parlare di z-cull, backfaceculling, z-ops, stadi elaborativi dei polymorph, operazioni di SFU, di cicli di load, di registri per cuda, del calcolo delle SFU, dei cicli SFU per z-buffer, nell'era dei prodigeek, non attiri più.
Anche le testate, se noti, scrivono giusto l'essenziale del PDF ed a seguire review.
Perdona l'ignoranza, che significa l'acronimo ILP?
Inviato dal mio ONEPLUS A6013 utilizzando Tapatalk
Instruction Level Parallelism
Gigibian
07-11-2022, 13:00
Vi ricordate di Yossarian ? Mi spiace molto non leggerlo più.
Ma che grandissimo!
La mia passione per le schede video al 50% è stato merito suo!!!
Ma che fine ha fatto?
Yossarian era davvero un grande... ma ormai parlare di z-cull, backfaceculling, z-ops, stadi elaborativi dei polymorph, operazioni di SFU, di cicli di load, di registri per cuda, del calcolo delle SFU, dei cicli SFU per z-buffer, nell'era dei prodigeek, non attiri più.
Un peccato, apprezzo anandtech sulle cpu proprio perché fanno (con calma) l'analisi completa dell'IPC cpu per cpu a seconda dei comandi. Sulle GPU veramente ormai ovunque si va di barrette senza un'analisi del perché si ha un certo comportamento. Per una persona come me che lavora con l'hardware ma non è un ingegnere informatico, è avvilente: non ne so abbastanza per comprendere a fondo un whitepaper, ma ne so troppo (perdonate l'alta autoconsiderazione) per le diatribe da bar. E infatti i tuoi sono fra gli interventi che leggo con piacere, mi spiace davvero non rileggere Yossarian.
Yossarian era davvero un grande... ma ormai parlare di z-cull, backfaceculling, z-ops, stadi elaborativi dei polymorph, operazioni di SFU, di cicli di load, di registri per cuda, del calcolo delle SFU, dei cicli SFU per z-buffer, nell'era dei prodigeek, non attiri più.
Anche le testate, se noti, scrivono giusto l'essenziale del PDF ed a seguire review.
Instruction Level Parallelism
Avreste fatto un dream team voi due insieme :)
Ma tanto ormai ci sono i prodigeek...
Sinceramente non ricordo ma non mi è nuovo il nick.
Sei troppo giovane :sofico:
Ma che grandissimo!
La mia passione per le schede video al 50% è stato merito suo!!!
Ma che fine ha fatto?
Ho avuto l'onore di avere sul mio sito articoli a firma sua :eek:
Non lo so sinceramente non ha lasciato tracce negli anni :(
rickiconte
07-11-2022, 13:08
Siccome è da una vita che non acquisto più schede video (e pc), c'è possibilità che fra qualche mese i prezzi delle nuove amd calino leggermente o non si smuoveranno per minimo 1 anno?
Se mi dite che faranno come la precedente generazione, allora mi sa che non c'è speranza.
Gigibian
07-11-2022, 13:21
Yossarian era davvero un grande... ma ormai parlare di z-cull, backfaceculling, z-ops, stadi elaborativi dei polymorph, operazioni di SFU, di cicli di load, di registri per cuda, del calcolo delle SFU, dei cicli SFU per z-buffer, nell'era dei prodigeek, non attiri più.
Anche le testate, se noti, scrivono giusto l'essenziale del PDF ed a seguire review.
Instruction Level Parallelism
Un peccato, apprezzo anandtech sulle cpu proprio perché fanno (con calma) l'analisi completa dell'IPC cpu per cpu a seconda dei comandi. Sulle GPU veramente ormai ovunque si va di barrette senza un'analisi del perché si ha un certo comportamento. Per una persona come me che lavora con l'hardware ma non è un ingegnere informatico, è avvilente: non ne so abbastanza per comprendere a fondo un whitepaper, ma ne so troppo (perdonate l'alta autoconsiderazione) per le diatribe da bar. E infatti i tuoi sono fra gli interventi che leggo con piacere, mi spiace davvero non rileggere Yossarian.
Concordo!
Anche se Mikael ad ogni intervento dovrebbe allegare la pagina degli acronimi :fagiano:
E visto che tratta sempre argomenti complessi ed interessanti, non sarebbe male un po' più di chiarezza secondo me (non me ne volere Mikael, massima stima da parte mia :) ), ad esempio:
No di più, una 6750xt può prenderla alle basse res. Il picco shader sarà di 18tf come la 6800, ma perde mediamente 1/4 nel ILP.
E' un pò come la 7970xtx che sta a cavallo della 4080 16 con 33tf effettivi e 4090 con 55tf, in quanto in quei 60TF 1/4 viene perso in ILP.;)
Alcune cose che rendono difficile la lettura:
[...] Il picco shader sarà di 18tf come la 6800 [...]
18tf in int16 o 32 ?
Picco "shader"? C'è un altro tipo di elaborazione oltre agli shader programmabili che contribuisce alle performance della scheda?
[...] ma perde mediamente 1/4 nel ILP. [...]
Cos'è l'ILP?
[...] E' un pò come la 7970xtx che sta a cavallo della 4080 16 con 33tf effettivi e 4090 con 55tf [...]
7970xtx? probabilmente un typo, era 7900XTX immagino.
Da qui sembra che la 7900xtx abbia 33tf e la 4090 55tf ... invece la 4090 dovrebbe averno 83 e la 7900 53 se non sbaglio...
[...] in quanto in quei 60TF 1/4 viene perso in ILP. [...]
Mi sono perso, 60Tflop di chi?
ILP?
perchè vengono persi?
Era giusto un esempio per ringraziare Mikael delle sue perle di saggezza e per invitarlo a renderle più fruibili da parte degli ignorantoni come me :P
narniagreen
07-11-2022, 13:21
ma si che ti perculo :O ti devo ricordare il perchè? non ti ricordi al lancio 6900XT hwupgrade che faceva due distinti grafici con o senza dirt5 perchè penalizzava in maniera eccessiva le medie di qualcuno in particolare? :asd:
Non me lo ricordavo più, vero, ahahahah :asd:
mikael84
07-11-2022, 13:28
Un peccato, apprezzo anandtech sulle cpu proprio perché fanno (con calma) l'analisi completa dell'IPC cpu per cpu a seconda dei comandi. Sulle GPU veramente ormai ovunque si va di barrette senza un'analisi del perché si ha un certo comportamento. Per una persona come me che lavora con l'hardware ma non è un ingegnere informatico, è avvilente: non ne so abbastanza per comprendere a fondo un whitepaper, ma ne so troppo (perdonate l'alta autoconsiderazione) per le diatribe da bar. E infatti i tuoi sono fra gli interventi che leggo con piacere, mi spiace davvero non rileggere Yossarian.
Anandtech è davvero molto valido, stranamente ha smesso con le GPU.
Sull'IPC, se uno ha un minimo di conoscenza, legge con piacere, in quanto ben spiegato e argomentato anche con test relativi.
Di siti tecnici, di grande caratura, ricordo con nostalgia anche hardwarefr.
Stranamente i più tecnici sono ormai falliti o quasi, come anche techreport.
Avreste fatto un dream team voi due insieme :)
Ma tanto ormai ci sono i prodigeek...
Yos era inarrivabile. Inoltre yos, era fermo ancora alle vliw, non so neppure se sta continuando a seguire le nuove micro. In uno degli ultimi interventi (mi pare sulle news) non conosceva ancora bene il boost di nvidia, segno che probabilmente non ci sta neppure più appresso. Avrà cambiato vita...:)
devil_mcry
07-11-2022, 13:29
Yossarian era davvero un grande... ma ormai parlare di z-cull, backfaceculling, z-ops, stadi elaborativi dei polymorph, operazioni di SFU, di cicli di load, di registri per cuda, del calcolo delle SFU, dei cicli SFU per z-buffer, nell'era dei prodigeek, non attiri più.
Anche le testate, se noti, scrivono giusto l'essenziale del PDF ed a seguire review.
Instruction Level Parallelism
E' un trend che ormai tocca tutto il mondo della tecnologia, qui ancora mettono i numeri alcuni, se guardiamo ad esempio il mondo delle tv di fascia alta-altissima ci sono alcuni canali YT che le recensiscono a occhio senza nemmeno calibrarle
Ok, magari poi l'utente appassionato non la calibrerà (anche perché con gli update va rifatto in continuo se non li blocchi), ma almeno per comparativa
E' tutto a occhio, orecchio, tatto, spanne etc
Thread ufficiale delle 7000 :read:
https://www.hwupgrade.it/forum/showthread.php?t=2971000
Ottimo grazie
narniagreen
07-11-2022, 14:30
Ma la smettete?
Proiezione:
https://i.postimg.cc/SR3RdvPs/Cattura.jpg
applicato +50% al 1440p e +60% al 2160p.
Ottimo grazie
Scusate, ma non ho capito una cosa: con questa nuova generazione di GPU anche AMD ha integrato dei "core RT" oppure ho capito male?:help:
OvErClOck82
07-11-2022, 14:50
Ma la smettete?
Proiezione:
https://i.postimg.cc/SR3RdvPs/Cattura.jpg
applicato +50% al 1440p e +60% al 2160p.
tutto dipenderà dai prezzi
ma se venissero confermate queste proiezioni, anche con qualcosina in meno di %, sarebbe tanta ma tanta roba.. per giustificare i prezzi di 4090 e 4080 si dovrebbe scomodare la religione :asd:
voci da prendere con le pinze, dicono che navi31 per un difetto in progettazione ha problemi a salire di freq, in effetti in origine erano previsti i 3GHz ma poi in fase di test hanno dovuto moderare
sembra che per i partner al massimo sono previsti max 2,8GHz con consumi..da 4090:eek::(
con un respin dovrebbero risolvere, ma per quando:confused:
fortuna che per navi32 e credo inferiori, se ne sono accorti in tempo e hanno risolto:)
https://www.hardwaretimes.com/amd-radeon-rx-7900-xtx-allegedly-draws-450w-when-ocd-to-2-8ghz-cant-hit-3ghz-due-to-design-flaw-rumor/
narniagreen
07-11-2022, 14:58
tutto dipenderà dai prezzi
ma se venissero confermate queste proiezioni, anche con qualcosina in meno di %, sarebbe tanta ma tanta roba.. per giustificare i prezzi di 4090 e 4080 si dovrebbe scomodare la religione :asd:
Imho Nvidia dovrebbe tirare fuori al più presto una 4080ti al prezzo della 4080.
PS. al ribasso, non dovrebbe essere meno di 90% in 1440p e 85% in 4k.
narniagreen
07-11-2022, 15:03
voci da prendere con le pinze, dicono che navi31 per un difetto in progettazione ha problemi a salire di freq, in effetti in origine erano previsti i 3GHz ma poi in fase di test hanno dovuto moderare
sembra che per i partner al massimo sono previsti max 2,8GHz con consumi..da 4090:eek::(
con un respin dovrebbero risolvere, ma per quando:confused:
fortuna che per navi32 e credo inferiori, se ne sono accorti in tempo e hanno risolto:)
https://www.hardwaretimes.com/amd-radeon-rx-7900-xtx-allegedly-draws-450w-when-ocd-to-2-8ghz-cant-hit-3ghz-due-to-design-flaw-rumor/
Non è che non se ne sono accorti, è che N31 ha comunque 12300sp, infatti lo split clock aiuta molto l'efficienza di RDNA3, prevedo front end tirati a 3ghz, mentre le alu ancorati sui 2.5~2.7ghz.
Ale55andr0
07-11-2022, 15:05
si può sapere quando escono le rece? possibile non si abbia una data? :muro:
narniagreen
07-11-2022, 15:18
Non potrebbe essere troppo presto per una ti? Secondo me almeno tra 6 mesi.
dipende dalla 7900XTX quanto darà fastidio alle vendite sia alla 4080 che 4090, ma soprattutto alla 4080, ovviamente.
in RT anche, su RE Village la proiezione è al pari di 4080, mentre su CP77 al pari di 4070, allo stesso prezzo di quest'ultima.
bonzoxxx
07-11-2022, 15:29
Sicuramente CP è uno dei casi più concreti in tal senso :)
Chi non ha provato a settare 200 volte il RT per vedere le differenze ? lo abbiamo fatto tutti, se uno è onesto con se stesso ammette che davvero la differenza è praticamente impercettibile, o addirittura nulla... fps a parte.
Il RT va usato in modo intelligente e solo dove veramente serve, Far Cry 6 ne fa un buon uso ad esempio.
Ah beh appena presa la 3080, considerando che ho finio CP con una 1070, 8GB di ram e un i7 4790, la prima cosa che ho fatto ho reinstallato CP2077 e sparato l'RT a palla: indubbiamente una resa migliore complice anche il monitor nuovo ma perchè quello specifico gioco ha RT a secchiate, ma anche senza RT è bello lo stesso.
ninja750
07-11-2022, 15:31
si può sapere quando escono le rece? possibile non si abbia una data? :muro:
tanto lo sai già dal prezzo che non ti potrà mai interessare questa vga
ray_hunter
07-11-2022, 15:32
Ah beh appena presa la 3080, considerando che ho finio CP con una 1070, 8GB di ram e un i7 4790, la prima cosa che ho fatto ho reinstallato CP2077 e sparato l'RT a palla: indubbiamente una resa migliore complice anche il monitor nuovo ma perchè quello specifico gioco ha RT a secchiate, ma anche senza RT è bello lo stesso.
Per me da maggior valore aggiunto l'RT di DL2 che non quello di CP2077 che è figo si ma non è quello che rende figo il gioco da vedere!
narniagreen
07-11-2022, 15:46
tanto lo sai già dal prezzo che non ti potrà mai interessare questa vga
:asd:
però dai almeno lo sfizio di vedere come si posizionano.
poi aspettiamo le 7700XT
:asd:
Ale55andr0
07-11-2022, 16:00
tanto lo sai già dal prezzo che non ti potrà mai interessare questa vga
#esticazzinoncelometti voglio vedere come vanno :sofico:
bonzoxxx
07-11-2022, 16:03
Per me da maggior valore aggiunto l'RT di DL2 che non quello di CP2077 che è figo si ma non è quello che rende figo il gioco da vedere!
Dying light 2 non l'ho giocato e non posso esprimermi ma mi fido del tuo giudizio :) d'altronde la parte grafica di un gioco è appunto una parte del tutto, un gioco bello graficamente non è automaticamente un bel gioco :)
doom eternal non ha RT ed è un bel game, idem A plague tale non ha RT ha è graficamente tanta roba, SCORN non ne parliamo per niente è allucinante come ambientazione e sonoro..
#esticazzinoncelometti voglio vedere come vanno :sofico:
Non puoi, devi pagare (caro) anche quello :D
mikael84
07-11-2022, 16:28
Concordo!
Anche se Mikael ad ogni intervento dovrebbe allegare la pagina degli acronimi :fagiano:
E visto che tratta sempre argomenti complessi ed interessanti, non sarebbe male un po' più di chiarezza secondo me (non me ne volere Mikael, massima stima da parte mia :) ), ad esempio:
Alcune cose che rendono difficile la lettura:
18tf in int16 o 32 ?
Picco "shader"? C'è un altro tipo di elaborazione oltre agli shader programmabili che contribuisce alle performance della scheda?
Cerco di semplificare all'osso.:)
Parlando di navi33 7600xt, sarebbero 2048 shader dual issue. Praticamente ogni SIMD può eseguire 2 istruzioni per ciclo, raddoppiando ipoteticamente il ratio. Quindi è come se tale chip ne vedesse 4096.
Tuttavia raggiungere questo picco è ipoteticamente impensabile nei giochi, più a carico ridondante come i pro.
Per far ciò l'hardware e il software devono essere altamente parallelizzati, ovvero processando 2 istruzioni identiche, se divergente, crei buchi di calcolo, lasciando pipeline di calcolo in idle, quindi difficilmente puoi raggiungere la piena potenza.
Mediamente si perde 1/4 di potenza teorica, ma alcuni programmi ad HOC, possono spremere meglio le unità.
Rispetto a RDNA1 e 2 è stato un approccio obbligato, che ricorda in parte GCN.
Infatti come vedi nel grafico, le vecchie GCN non arrivavano mai ai valori di picco, se non ben programmate, proprio per l'ILP. Poi vabbè li c'era anche il problema delle LDS e SFU.
https://i.postimg.cc/N9YmMk7p/single-perf.png (https://postimg.cc/N9YmMk7p)
Quindi alla domandi di LLI, possiamo dire che una 7600 così, dovrebbe andare quanto una 6750xt a basse res (qua entrano in ballo i software).
Cos'è l'ILP?
Instruction Level Parallelism
Si occupa della parallelizzazione dei dati
7970xtx? probabilmente un typo, era 7900XTX immagino.
Da qui sembra che la 7900xtx abbia 33tf e la 4090 55tf ... invece la 4090 dovrebbe averno 83 e la 7900 53 se non sbaglio...
Si pardon, parlando di yos, stavo pensando alle vecchie sigle.:p
La 7900xtx in caso di istruzioni identiche può arrivare a 60, ma in game, come detto sopra è difficile, infatti non arriva ai 55 medi della 4090.
Riguardo ai TF delle Ampere, questo vale solo per i calcoli fp32, quelli utilizzati per software come blender, vray etc. Una 4090 ad esempio ha 16384 ALU, divise in due datapath.
dt 1)8192 cuda fa solo fp
dt 2)8192 cuda condivisi con le int, dove il 72/76 medio fa int (anche se spesso si arriva a livelli più alti)
A 38 interi, quelli di un tomb raider ad esempio, processi mediamente 55tf il resto sono tops.
Con turing, potevi fare fp in parallelo con le int, qua sono accoppiate, per dare ai pro la possibilità di avere un ratio impressionante fp32.
Perchè come ben sai, lui segue la rota del margine massivo.
Mi sono perso, 60Tflop di chi?
ILP?
perchè vengono persi?
Era giusto un esempio per ringraziare Mikael delle sue perle di saggezza e per invitarlo a renderle più fruibili da parte degli ignorantoni come me :P
Come sopra, per processare 60tf, ogni simd deve processare istruzioni identiche, che è praticamente impossibile o quasi, per via delle divergenze di istruzioni che si verificano.:)
NODREAMS
07-11-2022, 16:32
E' un trend che ormai tocca tutto il mondo della tecnologia, qui ancora mettono i numeri alcuni, se guardiamo ad esempio il mondo delle tv di fascia alta-altissima ci sono alcuni canali YT che le recensiscono a occhio senza nemmeno calibrarle
Ok, magari poi l'utente appassionato non la calibrerà (anche perché con gli update va rifatto in continuo se non li blocchi), ma almeno per comparativa
E' tutto a occhio, orecchio, tatto, spanne etc
Ormai un prodotto all'utente medio va bene se glielo recensisce l'influencer di turno, non si ferma più sui tecnicismi o sulle recensioni scritte, esaminando le caratteristiche di un prodotto e quant'altro. Se gli influencer o gli Youtuber dicono che quello va bene, allora va per forza bene.
bonzoxxx
07-11-2022, 16:33
Mikael per fortuna ci sei tu :D :D :D
NODREAMS
07-11-2022, 16:41
tutto dipenderà dai prezzi
ma se venissero confermate queste proiezioni, anche con qualcosina in meno di %, sarebbe tanta ma tanta roba.. per giustificare i prezzi di 4090 e 4080 si dovrebbe scomodare la religione :asd:
Aumenterebbe ulteriormente le performance per watt rispetto alla RX 6900 XT, e sti gran cavoli, tanto di cappello ad AMD, dove la concorrenza ha alzato in modo vergognoso i prezzi, AMD continua ad offrire un prodotto più performante allo stesso prezzo di 2 anni fa (purtroppo da noi costerà di più perchè il cambio dollaro / euro è sfavorevole, ma di quello AMD non ha assolutamente colpa).
si può sapere quando escono le rece? possibile non si abbia una data? :muro:
Ma non escono qualche giorno prima (o addirittura il giorno prima) la commercializzazione della RX 7900 XT e XTX ? :muro: :muro: :muro: :muro: Anche io spero che escano prima, ma dubito fortemente...ci toccherà aspettare ancora 1 mese abbondante. :mad: :mad:
Santa Lucia avrete le rece
narniagreen
07-11-2022, 16:48
Quindi alla domandi di LLI, possiamo dire che una 7600 così, dovrebbe andare quanto una 6750xt a basse res (qua entrano in ballo i software).
Si praticamente la RX 7600XT sarebbe una RX 6800 in 150~170watt, buona.
FHD 6800 è +38% su 6600XT, in QHD è +54%
https://tpucdn.com/review/asus-radeon-rx-6750-xt-strix-oc/images/relative-performance_1920-1080.png
Però Q2 se non Q3 2023.
mikael84
07-11-2022, 17:01
Si praticamente la RX 7600XT sarebbe una RX 6800 in 150~170watt, buona.
FHD 6800 è +38% su 6600XT, in QHD è +54%
Però Q2 se non Q3 2023.
A livello di perf medie sarà più o meno sui valori della 6750, ma può prendere anche la 6800 con software compilato ad HOC.
Il perf/watt in certe fasce è abbastanza relativo.
Anche la 4060 paradossalmente è tarata per quelle perf. Ovviamente variano in base alle res.
Bisogna vedere che clock shader e front avrà, da quello che risulta, pare essere fatta sui 6nm.
Le CU con troppa logica, hanno frenato i clock, tanto che AMD ha disaccoppiato.
Probabilmente questa decisione è stata presa in sede di test finale, in convalida ingegneristica.
Porta rispetto, è IL SACRO UNTO :D
OT:
Ma tu sei il Maury che anni fa gestiva il sito delle vecchie ATI / Radeon?
NODREAMS
07-11-2022, 17:34
https://www.youtube.com/watch?v=k04PoRR62-k&ab_channel=DigitalFoundry
Video di Digital Foundry sulle RX 7900 XT e XTX
OT:
Ma tu sei il Maury che anni fa gestiva il sito delle vecchie ATI / Radeon?
Si anni fa ormai :)
Windtears
07-11-2022, 20:31
https://cdn.videocardz.com/1/2022/11/AMD-RDNA3-NAVI31-BLOCK-DIAGRAM.jpg
navi31 gpu block.
Gigibian
07-11-2022, 21:57
https://cdn.videocardz.com/1/2022/11/AMD-RDNA3-NAVI31-BLOCK-DIAGRAM.jpg
navi31 gpu block.
Confermano che è fatta per superare i 3ghz :eek:
Con la giusta scheda qui siamo nettamente over 4090 in raster... ciaone
Gigibian
07-11-2022, 22:00
Cerco di semplificare all'osso.:)
Parlando di navi33 7600xt, sarebbero 2048 shader dual issue. Praticamente ogni SIMD può eseguire 2 istruzioni per ciclo, raddoppiando ipoteticamente il ratio. Quindi è come se tale chip ne vedesse 4096.
Tuttavia raggiungere questo picco è ipoteticamente impensabile nei giochi, più a carico ridondante come i pro.
Per far ciò l'hardware e il software devono essere altamente parallelizzati, ovvero processando 2 istruzioni identiche, se divergente, crei buchi di calcolo, lasciando pipeline di calcolo in idle, quindi difficilmente puoi raggiungere la piena potenza.
Mediamente si perde 1/4 di potenza teorica, ma alcuni programmi ad HOC, possono spremere meglio le unità.
Rispetto a RDNA1 e 2 è stato un approccio obbligato, che ricorda in parte GCN.
Infatti come vedi nel grafico, le vecchie GCN non arrivavano mai ai valori di picco, se non ben programmate, proprio per l'ILP. Poi vabbè li c'era anche il problema delle LDS e SFU.
https://i.postimg.cc/N9YmMk7p/single-perf.png (https://postimg.cc/N9YmMk7p)
Quindi alla domandi di LLI, possiamo dire che una 7600 così, dovrebbe andare quanto una 6750xt a basse res (qua entrano in ballo i software).
Instruction Level Parallelism
Si occupa della parallelizzazione dei dati
Si pardon, parlando di yos, stavo pensando alle vecchie sigle.:p
La 7900xtx in caso di istruzioni identiche può arrivare a 60, ma in game, come detto sopra è difficile, infatti non arriva ai 55 medi della 4090.
Riguardo ai TF delle Ampere, questo vale solo per i calcoli fp32, quelli utilizzati per software come blender, vray etc. Una 4090 ad esempio ha 16384 ALU, divise in due datapath.
dt 1)8192 cuda fa solo fp
dt 2)8192 cuda condivisi con le int, dove il 72/76 medio fa int (anche se spesso si arriva a livelli più alti)
A 38 interi, quelli di un tomb raider ad esempio, processi mediamente 55tf il resto sono tops.
Con turing, potevi fare fp in parallelo con le int, qua sono accoppiate, per dare ai pro la possibilità di avere un ratio impressionante fp32.
Perchè come ben sai, lui segue la rota del margine massivo.
Come sopra, per processare 60tf, ogni simd deve processare istruzioni identiche, che è praticamente impossibile o quasi, per via delle divergenze di istruzioni che si verificano.:)
Grazie!!! Ti devo una birra ;)
Perché dici che rendere gli shader dual issue é stato obbligato ?
Con tops intendi operazioni intere ?
Che significa che il 72/76 medio fa int ?
Che intendi per "A 38 interi"?
Libero di non rispondere...vorrei solo capire bene :D
WAN del Diablo4
07-11-2022, 22:59
Altro ambito di "lotta" per il futuro: https://devblogs.microsoft.com/directx/directstorage-1-1-now-available/
amon.akira
07-11-2022, 23:52
doom eternal non ha RT ed è un bel game, idem A plague tale non ha RT ha è graficamente tanta roba, SCORN non ne parliamo per niente è allucinante come ambientazione e sonoro..
doom eternal ha il raytracing e a plague tale requiem l avrà con una patch sulle ombre (unico punto effettivamente sottotono del loro engine)
mikael84
08-11-2022, 00:18
Grazie!!! Ti devo una birra ;)
Perché dici che rendere gli shader dual issue é stato obbligato ?
Perchè la scelta di AMD è stata di snellire il tutto, migliorando la logica delle CU, anzichè raddoppiarle di numero.
Infatti si prevedevano 12288 shader full, invece sono solo 6144 dual issue.:)
Con tops intendi operazioni intere ?
Che significa che il 72/76 medio fa int ?
Che intendi per "A 38 interi"?
Libero di non rispondere...vorrei solo capire bene :D
Praticamente turing, aveva gli interi slegati, quindi poteva fare fp+ interi in un ciclo di clock.
Con ampere, essendo le microarchitetture basate per prosumer, hanno deciso che la partizione relativa agli interi possa fare fp o interi in base all'applicazione.
In questo modo i pro possono raddoppiare le fp32, mentre i gamer, usano quel datapath condiviso.
Quindi un pro si ritrova su una 4090:
16384 cuda di cui 8192+8192 fp32
Un gamer, deve tenere conto del calcolo degli interi.
Ogni 100 ops, ci sono 36-40 interi medi. Quindi:
16384 cuda dividendolo in 2 datapath diventa 8196 fp32 + 8196 fp/int (se questo datapath deve eseguire 38 interi, significa che 1,315% e legato al loro calcolo, il rimanete può eseguire fp32).
In rapporto fp diventa 8192 + 1967 = 10160 fp32 + 6224 cuda per interi.
Ogni gioco ogni 100 istruzioni, ha un valore medio di 36-40-42 interi, e questi vengono calcolati dal secondo datapath.
Quindi il totale nvidia lo devi dividere x2, uno è totalmente fp, l'altro dipendete dagli interi. Nel pro invece usi solo le fp32, in entrambi i datapath.:)
Altro ambito di "lotta" per il futuro: https://devblogs.microsoft.com/directx/directstorage-1-1-now-available/
In contemporanea...
Supporto AMD per Microsoft DirectStorage 1.1 (https://gpuopen.com/amd-support-for-microsoft-directstorage-1-1/?utm_source=twitter&utm_medium=social&utm_campaign=directstorage)
DirectStorage funziona immediatamente con dispositivi grafici e driver che supportano le DirectX 12 e Shader Model 6.0.
Ale55andr0
08-11-2022, 06:43
Ripeto, Lisa alzi la dannata cornetta....
https://www.youtube.com/watch?v=PZ1Kf9PaTr4&t=591s&ab_channel=JayzTwoCents
ray_hunter
08-11-2022, 07:28
Perchè la scelta di AMD è stata di snellire il tutto, migliorando la logica delle CU, anzichè raddoppiarle di numero.
Infatti si prevedevano 12288 shader full, invece sono solo 6144 dual issue.:)
Praticamente turing, aveva gli interi slegati, quindi poteva fare fp+ interi in un ciclo di clock.
Con ampere, essendo le microarchitetture basate per prosumer, hanno deciso che la partizione relativa agli interi possa fare fp o interi in base all'applicazione.
In questo modo i pro possono raddoppiare le fp32, mentre i gamer, usano quel datapath condiviso.
Quindi un pro si ritrova su una 4090:
16384 cuda di cui 8192+8192 fp32
Un gamer, deve tenere conto del calcolo degli interi.
Ogni 100 ops, ci sono 36-40 interi medi. Quindi:
16384 cuda dividendolo in 2 datapath diventa 8196 fp32 + 8196 fp/int (se questo datapath deve eseguire 38 interi, significa che 1,315% e legato al loro calcolo, il rimanete può eseguire fp32).
In rapporto fp diventa 8192 + 1967 = 10160 fp32 + 6224 cuda per interi.
Ogni gioco ogni 100 istruzioni, ha un valore medio di 36-40-42 interi, e questi vengono calcolati dal secondo datapath.
Quindi il totale nvidia lo devi dividere x2, uno è totalmente fp, l'altro dipendete dagli interi. Nel pro invece usi solo le fp32, in entrambi i datapath.:)
Mikael, sei prezioso. Davvero
Secondo te con questa architettura dual issue di 6144 CU, quindi teoricamente x2, quanto ci dobbiamo aspettare mediamente come corrispettivo CU?
Sicuramente non come 12288 CU effettive. Si può stimare un range di performance corrispondente di 6144+30~60%, quindi circa da 8000 a 10000 CU, naturalmente variabile a seconda del livello di ottimizzazione specifica?
WAN del Diablo4
08-11-2022, 08:03
In contemporanea...
Supporto AMD per Microsoft DirectStorage 1.1 (https://gpuopen.com/amd-support-for-microsoft-directstorage-1-1/?utm_source=twitter&utm_medium=social&utm_campaign=directstorage)
Carmack ha sempre avuto ragione :O (Anche se poi su IDTech 5 alla fine il 99% delle persone usava la CPU come fallback per la decompressione degli asset proprio per limiti legati ai driver AMD essendo allora tutto fatto su misura per CUDA :asd: tanto che la stessa ID scelse quello come default dopo le prime patch di RAGE :ave: :ave: :ave: - ricordo che AMD avrebbe sempre potuto fare driver compatibili con CUDA ma non l'ha mai fatto per ovvie ragione come prima per PhysX - che è CUDA-based da quando Ageia fu comprata da NVidia, come del resto è CUDA-based il driver OpenGL di NVidia)
In contemporanea...
Supporto AMD per Microsoft DirectStorage 1.1 (https://gpuopen.com/amd-support-for-microsoft-directstorage-1-1/?utm_source=twitter&utm_medium=social&utm_campaign=directstorage)
Ma quindi anche la serie Vega?
Se non erro è DX12 e shader model 6.4 :fagiano:
Non ci sono altri requisiti?
narniagreen
08-11-2022, 08:37
Ripeto, Lisa alzi la dannata cornetta....
https://www.youtube.com/watch?v=PZ1Kf9PaTr4&t=591s&ab_channel=JayzTwoCents
"...Che EVGA ti aspetta!"
me lo ricordavo diverso lo slogan :D
Gyammy85
08-11-2022, 09:13
Confermano che è fatta per superare i 3ghz :eek:
Con la giusta scheda qui siamo nettamente over 4090 in raster... ciaone
Evidentemente è difficile far passare il concetto che è tarata per essere nei dintorni della 4090 con 100 watt in meno
Però se vai nel thread ryzen è tutto un bombing su quanto scemi siano stati a tirare la cpu per stare sopra al 13900K "bastava farlo consumare 105 watt per andare uguale"
Due pesi e due misure come sempre
WAN del Diablo4
08-11-2022, 09:32
Ma quindi anche la serie Vega?
Se non erro è DX12 e shader model 6.4 :fagiano:
Non ci sono altri requisiti?
Va con tutto essenzialmente da parte VGA, non serve compliance con FL 12.1 o Ultimate
Cmq "Ni" perchè sarebbe meglio una piattaforma PCI-Ex 4.0 + NVME, ma la tecnologia in sè funziona anche con PCI-Ex 3.0 + SATA/M.2 non NVME
Qui torna il discorso della 6500 con PCI-Ex 4x :asd: :asd: :asd:
Una cosa carina sarebbe far fare la decompressione all'iGPU (almeno in presenza di architetture dove non si genera troppo traffico sul PCI, quindi quelle a memoria unificata - virtualmente intendo, non lo scenario "console" che resta l'ideale per queste tecnologie e infatti Carmack se lo inventò proprio per loro).........................chissà se si svegliano :fagiano:
WAN del Diablo4
08-11-2022, 09:56
Addendum: che ANIMALI, il demo incluso ( https://github.com/microsoft/DirectStorage ) l'hanno fatto puntando all'SDK di Windows 10, manco in MS usano Windows 11 :sofico:
Vediamo come gira il demo, per compilare compila :stordita:
Edit, ecco, dovrebbe funzionare ("GPU Decompression"):
https://i.postimg.cc/PJxFWKGP/Untitled.jpg (https://postimg.cc/XGR83fYb)
I binari compilati (puntando all'SDK di Windows 11, ma va tutto anche su Windows 10), controllate pure con antivirus vari se siete "scrupolosi": https://www.mediafire.com/file/d7ho02ugcrqs805/BulkLoadDemo.7z/file
Con SSD NVME (ma sempre PCI-Ex 3.0) e 1660 Ti vedo carico CPU quasi nullo (sotto il 2%) e banda sui 4 GB/s
bonzoxxx
08-11-2022, 10:03
doom eternal ha il raytracing e a plague tale requiem l avrà con una patch sulle ombre (unico punto effettivamente sottotono del loro engine)
Strano quando l'ho giocato non c'era nelle impostazioni della grafica, l'hanno implementato dopo?
Però ora che ci penso lo giocai con la 1070 quindi forse mi sbaglio io :D
WAN del Diablo4
08-11-2022, 10:15
Strano quando l'ho giocato non c'era nelle impostazioni della grafica, l'hanno implementato dopo?
Però ora che ci penso lo giocai con la 1070 quindi forse mi sbaglio io :D
Hanno messo RT su Doom Eternal e Wolfenstein New Blood con le ultime patch (entrambi via Vulkan)
Volendo puoi anche iniettare FSR 2.x col gioco che passa i motion vectors via supporto DLSS: https://www.nexusmods.com/doometernal/mods/1170?tab=files (anche se non è garantito che funzioni tutto come previsto, io ho notato alterazioni nello spazio di colori con DeathLoop ad esempio, cmq per andare va :fagiano: e le ultime versione hanno ridotto decisamente il ghosting)
La 1070 cmq ha il supporto sia per DXR che per Vulkan RT (ovviamente via shader, niente unità dedicate), ergo dovresti vedere l'opzione abilitabile.
bonzoxxx
08-11-2022, 10:17
Hanno messo RT su Doom Eternal e Wolfenstein New Blood con le ultime patch (entrambi via Vulkan)
Volendo puoi anche iniettare FSR 2.x: https://www.nexusmods.com/doometernal/mods/1170?tab=files
Ti ringrazio, a tempo perso me li rigioco :) sta 3080 la devo sfruttare prima che mi venga la scimmia per la 7900XTX.
mikael84
08-11-2022, 12:22
Mikael, sei prezioso. Davvero
Secondo te con questa architettura dual issue di 6144 CU, quindi teoricamente x2, quanto ci dobbiamo aspettare mediamente come corrispettivo CU?
Sicuramente non come 12288 CU effettive. Si può stimare un range di performance corrispondente di 6144+30~60%, quindi circa da 8000 a 10000 CU, naturalmente variabile a seconda del livello di ottimizzazione specifica?
La massima potenza la potresti ricavare, o avvicinarti nei calcoli compute, dove difficilmente hai divergenze di istruzioni. Attualmente non si possono stimare con certezza le dipendenze, salvo non analizzarla con appositi programmi. Di certo il valore di picco è irraggiungibile. Potrei farti degli esempi, dove si perde 1/4, ma non è un valore preciso e sempre.:)
La massima potenza la potresti ricavare, o avvicinarti nei calcoli compute, dove difficilmente hai divergenze di istruzioni.
Ehh questo non capisco, sono schede nate per giocare ma che hanno nel gaming lo scenario peggiore. Nvidia ha la scusa che sono schede pro riciclate o adattate, amd sta facendo/farà lo stesso?
Ma lol
ogni architettura ha pro e contro............. e fare delle simulazioni "a parole", con tutto il rispetto, di scenari reali diciamo che lascia il tempo che trova......è così difficile attendere le recensioni? :stordita:
Ma lol
ogni architettura ha pro e contro............. e fare delle simulazioni "a parole", con tutto il rispetto, di scenari reali diciamo che lascia il tempo che trova......è così difficile attendere le recensioni? :stordita:
A me la tecnologia piace a 360 gradi, mi affascinano tantissimo le analisi di mikael84, purtroppo non ne capisco poi molto e quindi devo fare domande anche per cose probabilmente banali.
devAngnew
08-11-2022, 14:52
Ma lol
ogni architettura ha pro e contro............. e fare delle simulazioni "a parole", con tutto il rispetto, di scenari reali diciamo che lascia il tempo che trova......è così difficile attendere le recensioni? :stordita:
Si anche nvidia ha i suoi problemi i warp stall, ora amd ha capito che deve collaborare con le aziende per ottimizzare i software per la sua architettura e non corrergli dietro a suon di patch via driver post lancio; infatti nella presentazione di rdna3 hanno evidenziato proprio questo. :)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.