View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™
Gyammy85
25-01-2023, 10:23
non solo, siamo quindi tornati ai giochi provenienti da console fatti col cul0 ???
Tranquilli, si tratta di una techdemo vera e propria a giudicare dalle prestazioni che ho visto dai vari video e dalle impressioni riportate da alcuni utenti, quindi è "preottimizzato alla fonte" (cioè dx12 e dxr) e non richiede chissà quali driver ottimizzati per rendere bene sulle 6000 credo
PConly92
25-01-2023, 10:24
si alla grande! sviluppatori pigri che ormai non hanno più voglia di ottimizzare su pc. tanto ci sono i polli che spendono 2000+ per una rtx 4090...con quella gira bene tutto.:muro:
e aggiungo che in fatto di resa grafica a me non pare niente di eccezionale. anzi death stranding imho è meglio in fatto di resa e gira bene pure su una vetusta rx580
boh
Gyammy85
25-01-2023, 10:27
si alla grande! sviluppatori pigri che ormai non hanno più voglia di ottimizzare su pc. tanto ci sono i polli che spendono 2000+ per una rtx 4090...con quella gira bene tutto.:muro:
e aggiungo che in fatto di resa grafica a me non pare niente di eccezionale. anzi death stranding imho è meglio in fatto di resa e gira bene pure su una vetusta rx580
boh
In teoria dalla ps4/one in poi non c'è bisogno di ottimizzare perché girano con le stesse api a basso livello del pc, non dovrebbero essere porting, il problema sorge perché fino all'anno scorso bisognava backportare tutto in dx11 per un quadro più "imparziale" della valutazione
si alla grande! sviluppatori pigri che ormai non hanno più voglia di ottimizzare su pc. tanto ci sono i polli che spendono 2000+ per una rtx 4090...con quella gira bene tutto.:muro:
e aggiungo che in fatto di resa grafica a me non pare niente di eccezionale. anzi death stranding imho è meglio in fatto di resa e gira bene pure su una vetusta rx580
boh
Sai che non funziona cosi il mondo dello sviluppo vero?
Su cosa lavori e su cosa investi il tuo tempo non e' determinato dagli sviluppatori ma dal management.
Ti assicuro che il 99.9% degli sviluppatori di videogiochi tutto e' tranne che pigro ne fiero di rilasciare mappazzoni. Ma se tutti i tuoi task sono indirizzati al "finire x e y per rilaciare in data z" il focus quello e'. Tanto si puo' sempre ottimizzare dopo, forse, se prodotto e management lo decidono. A volte succede (vedi Cyberpunk), in genere no.
Anche perche' un gioco che non gira bene su piattaforme piu vetuste vende ovviamente meno.
Possiamo dirlo che visivamente pare peggio di elden ring?
No, non direi a guardare i video. Elden Ring e' pieno di modelli riciclati dai tempi della PS3.
No, non direi a guardare i video. Elden Ring e' pieno di modelli riciclati dai tempi della PS3.Artisticamente gli mangia in testa però.
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
fraussantin
25-01-2023, 13:59
Prova a immaginartelo con un bel marchio rtx on a desta in basso e un'ambientazione notturna, colori sul viola/verde, metriche sempre sul verde, 7,5 gb di vram occupata fissi (anzi facciamo 7,8 così è più realistico), un delizioso posizionamento delle luci precisamente sulle goccioline del prato lievemente seghettato per via dei 5 o 10 miliardi di poligoni (trust me) e i raggi che intersecano miliardi di atomi di luce calcolati dal processore (cit.)
E ora dimmi, non è la roba più spettacolare mai vista?
:sofico: :sofico:Questo fa cagare stop .
Ci puo mettere tutti i raggi che ti pare .
15 giga di vram per tenerci su cosa?
Slater91
25-01-2023, 17:26
Prova a immaginartelo con un bel marchio rtx on a desta in basso e un'ambientazione notturna, colori sul viola/verde, metriche sempre sul verde, 7,5 gb di vram occupata fissi (anzi facciamo 7,8 così è più realistico), un delizioso posizionamento delle luci precisamente sulle goccioline del prato lievemente seghettato per via dei 5 o 10 miliardi di poligoni (trust me) e i raggi che intersecano miliardi di atomi di luce calcolati dal processore (cit.)
E ora dimmi, non è la roba più spettacolare mai vista?
:sofico: :sofico:
Bel tentativo di flame. Ci rivediamo fra una settimana.
Questo fa cagare stop .
Ci puo mettere tutti i raggi che ti pare .
15 giga di vram per tenerci su cosa?
Moderiamo il linguaggio, grazie.
bagnino89
26-01-2023, 10:13
non credo siano veramente 15gb occupati cmq
Tutta VRAM allocata per giustificare la marchetta di AMD e dare un senso ai 16/24 GB di VRAM.
Artisticamente gli mangia in testa però.
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
*
PS. Gyammy sospeso, non ci credo :eek:
alethebest90
26-01-2023, 10:29
Tutta VRAM allocata per giustificare la marchetta di AMD e dare un senso ai 16/24 GB di VRAM.
*
PS. Gyammy sospeso, non ci credo :eek:
sinceramente a me un gioco cosi ottimizzato malissimo pare piu una marchetta a comprare le ultime vga super top altrimenti sei uno sfigato
che sia amd o nvidia non cambia nulla
StylezZz`
26-01-2023, 10:51
Tutta VRAM allocata per giustificare la marchetta di AMD e dare un senso ai 16/24 GB di VRAM
Non sapevo fosse sponsorizzato AMD, ora tutto torna.
bagnino89
26-01-2023, 11:56
Non per dire ma i 16 gb li ha anche nvidia eh.
Io nella demo con una 6900xt avevo 11gb allocati comunque.
AMD però è più generosa con la VRAM, anche nelle fasce più basse.
La mia impressione è che la vram utilizzata si alzerà un poco nei nuovi titoli dato che le nuove vga di fascia media avranno 12 GB a disposizione, poi magari mi sbaglierò...
mikael84
27-01-2023, 17:00
Non sapevo fosse sponsorizzato AMD, ora tutto torna.
Si, però condanna le vecchie del brand. Dal polaris in giù, non supportano le dx12_1 e quindi non dovrebbe girare.
Le dx12_1 sono state aggiornate su Vega.
https://wccftech.com/amd-polaris-gpus-cant-run-forspoken-due-to-lack-directx-12_1-feature-level-support/
AMD però è più generosa con la VRAM, anche nelle fasce più basse.
E' più che altro una questione di bus, su un 256 bit della 6900 non potevi certo metterci 8gb. :)
In questa gen, invece si scontrano fascia alta AMD vs media di nvidia, quindi a pari modello, AMD avrà più ram.
StylezZz`
27-01-2023, 17:17
Si, però condanna le vecchie del brand. Dal polaris in giù, non supportano le dx12_1 e quindi non dovrebbe girare.
Le dx12_1 sono state aggiornate su Vega.
https://wccftech.com/amd-polaris-gpus-cant-run-forspoken-due-to-lack-directx-12_1-feature-level-support/
Va be, non si perdono proprio nulla...e anche se avessero il supporto delle dx12_1 gli girerebbe comunque da schifo.
Chi lo sa, magari venderanno qualche 6500 XT in più :asd:
Si, però condanna le vecchie del brand. Dal polaris in giù, non supportano le dx12_1 e quindi non dovrebbe girare.
Le dx12_1 sono state aggiornate su Vega.
https://wccftech.com/amd-polaris-gpus-cant-run-forspoken-due-to-lack-directx-12_1-feature-level-support/
Adesso ho capisco perché non mi partiva la demo da steam. Certo uno straccio di messaggio d'errore lo potevano pure mettere. Invece muore appena vai oltre il menu iniziale...
Inviato dal mio LYA-L29 utilizzando Tapatalk
redblack2
27-01-2023, 22:42
Alla fine ho preso questa “benedetta” XTX della Gygabyte 😁,spedita e in consegna martedì ,la affianco al mio recente 5800X3D
Ale55andr0
28-01-2023, 09:25
E' più che altro una questione di bus, su un 256 bit della 6900 non potevi certo metterci 8gb. :)
In questa gen, invece si scontrano fascia alta AMD vs media di nvidia, quindi a pari modello, AMD avrà più ram.
in linea di massima lo è quasi sempre stata più dotata lato ram dai
in linea di massima lo è quasi sempre stata più dotata lato ram dai
nvidia esagera con la ram, ne mette da sempre troppo poca, pure Intel ne ha messe 16 su 350 euro di scheda. Ormai 16 sono il minimo per stare tranquilli.
StylezZz`
28-01-2023, 10:40
nvidia esagera con la ram, ne mette da sempre troppo poca, pure Intel ne ha messe 16 su 350 euro di scheda. Ormai 16 sono il minimo per stare tranquilli.
Ma a cosa ti servono in una scheda che userai a 1080p/1440p? Se è vero che nvidia su certe schede sia tirata come vram, è anche vero che amd abbonda con la quantità per rendere le loro schede più appetibili (anche nvidia lo fa con le schede meno competitive, esempio la 3060 12GB che le prende dalle 6600/6650 8GB), il cliente poco informato ci casca vedendo più memoria e pensa che la scheda gli andrà di più, o sarà ''future proof'' (illusione, tanto dovrà cambiarla comunque quando la gpu sarà scarsa con i nuovi giochi, e maxare le texture serve poco se fai a malapena 30fps).
I giochi mediocri tipo Forspoken che sono ottimizzati con il :ciapet: e hanno grafica da PS3 non dovrebbero essere presi come esempio, credo che un Red Dead Redemption 2 che mi occupa 5-6GB a 1440p maxato sia più affidabile come punto di riferimento.
mikael84
28-01-2023, 12:41
in linea di massima lo è quasi sempre stata più dotata lato ram dai
nvidia esagera con la ram, ne mette da sempre troppo poca, pure Intel ne ha messe 16 su 350 euro di scheda. Ormai 16 sono il minimo per stare tranquilli.
La ram è legata ai bus, alla fascia, ed alle proiezioni future già stabilite (es 3070-vs 4070).
AMD ne mette di più, sempre in base alle fasce, nomenclature e bus.
Se la 4070ti si ritrova a competere con la semitop AMD è chiaro che ci sarà un dislivello lato ram, in quanto una gira su un 192bit, l'altra su un 320.
Sia AMD che nvidia usano la doppia densità.
Intel ne mette anche 16, in quanto sua ammiraglia e scritta su un 256bit, e di conseguenza cerca di renderla più appetibile, il bus glielo permette senza usare il clamshell.:)
Ma a cosa ti servono in una scheda che userai a 1080p/1440p? Se è vero che nvidia su certe schede sia tirata come vram, è anche vero che amd abbonda con la quantità per rendere le loro schede più appetibili (anche nvidia lo fa con le schede meno competitive, esempio la 3060 12GB che le prende dalle 6600/6650 8GB), il cliente poco informato ci casca vedendo più memoria e pensa che la scheda gli andrà di più, o sarà ''future proof'' (illusione, tanto dovrà cambiarla comunque quando la gpu sarà scarsa con i nuovi giochi, e maxare le texture serve poco se fai a malapena 30fps).
I giochi mediocri tipo Forspoken che sono ottimizzati con il :ciapet: e hanno grafica da PS3 non dovrebbero essere presi come esempio, credo che un Red Dead Redemption 2 che mi occupa 5-6GB a 1440p maxato sia più affidabile come punto di riferimento.
La ram è legata ai bus, alla fascia, ed alle proiezioni future già stabilite (es 3070-vs 4070).
AMD ne mette di più, sempre in base alle fasce, nomenclature e bus.
Se la 4070ti si ritrova a competere con la semitop AMD è chiaro che ci sarà un dislivello lato ram, in quanto una gira su un 192bit, l'altra su un 320.
Sia AMD che nvidia usano la doppia densità.
Intel ne mette anche 16, in quanto sua ammiraglia e scritta su un 256bit, e di conseguenza cerca di renderla più appetibile, il bus glielo permette senza usare il clamshell.:)
nVidia calibra le sue schede ok ma con occhio sempre al risparmio sulla ram e questo un pó stucca. Va bene il bus ma si può sempre optare per il clamshell.
Io di giochi che arrivano al limite degli 8 giga ne ho visti un botto, ci sono casi dove non bastano, vedi FC6, vedi Watchdog Legion con hd texture, con Cyberpunk e 4 mod vado oltre, Gta5 idem, adesso arrivano i giochi next sviluppati senza le old in mente e ricordiamoci che le next hanno 16 giga, quindi facilmente avranno tanta memoria libera da usare.
L'esempio di Intel era mirato a una questione costi, 8 giga in più non l'hanno mandata in fallimento idem per Amd e i modelli che ne hanno più di 8.
Per me oggi già vederne solo 12 alla 4070 con quello che costa da i brividi, quando una xt be ha ben 20. :)
mikael84
28-01-2023, 19:44
nVidia calibra le sue schede ok ma con occhio sempre al risparmio sulla ram e questo un pó stucca. Va bene il bus ma si può sempre optare per il clamshell.
Io di giochi che arrivano al limite degli 8 giga ne ho visti un botto, ci sono casi dove non bastano, vedi FC6, vedi Watchdog Legion con hd texture, con Cyberpunk e 4 mod vado oltre, Gta5 idem, adesso arrivano i giochi next sviluppati senza le old in mente e ricordiamoci che le next hanno 16 giga, quindi facilmente avranno tanta memoria libera da usare.
L'esempio di Intel era mirato a una questione costi, 8 giga in più non l'hanno mandata in fallimento idem per Amd e i modelli che ne hanno più di 8.
Per me oggi già vederne solo 12 alla 4070 con quello che costa da i brividi, quando una xt be ha ben 20. :)
Si pure io ho avuto vari problemi con 8gb.
Tuttavia devi anche guardare oltre i costi, le proiezioni future e la tua linea. Micron non aveva la doppia densità, quindi dovevi fare: 3080 20gb, 3070 16gb, ed oggi la 4070ti con 24gb in clamshell (oltre ad aumentare i costi e consumi non ne fai proprio nulla, visto il bus).
Semmai io avrei dimezzato la cache, ed aggiunto un canale, dotando almeno di 256 bit AD104.
AMD invece, con la 7700xt si allinea alla 4070/ti in ram e bus, ma con prestazioni e costi inferiori, quindi è giustificata.
Le samsung serie W introdurranno la quadrupla densità, e si spera pure le G7, vedremmo se in questo modo riusciranno a rivedere bus e banda, anche su certe fasce.
Entrambe stanno puntando alla cache, vs i bus, ma rimangono i limiti ai collegamenti, soprattutto nelle fasce più basse.
Si pure io ho avuto vari problemi con 8gb.
Tuttavia devi anche guardare oltre i costi, le proiezioni future e la tua linea. Micron non aveva la doppia densità, quindi dovevi fare: 3080 20gb, 3070 16gb, ed oggi la 4070ti con 24gb in clamshell (oltre ad aumentare i costi e consumi non ne fai proprio nulla, visto il bus).
Semmai io avrei dimezzato la cache, ed aggiunto un canale, dotando almeno di 256 bit AD104.
AMD invece, con la 7700xt si allinea alla 4070/ti in ram e bus, ma con prestazioni e costi inferiori, quindi è giustificata.
Le samsung serie W introdurranno la quadrupla densità, e si spera pure le G7, vedremmo se in questo modo riusciranno a rivedere bus e banda, anche su certe fasce.
Entrambe stanno puntando alla cache, vs i bus, ma rimangono i limiti ai collegamenti, soprattutto nelle fasce più basse.
Io ci vedo nel piano ram di JHH anche una obsolescenza programmata, nel senso che, ti do gpu prestanti ma ti metto un fine vita dato dal memory bound, così mi prendi il modello next.
Poi JHH avrà tutte le ragioni tecniche del mondo ma se Lisa riesce a pensare gpu che permettono di avere più ram lo può fare anche lui, la sua è una scelta intenzionale che parte già dalla carta. :)
mircocatta
29-01-2023, 15:06
Questo fa cagare stop .
Ci puo mettere tutti i raggi che ti pare .
15 giga di vram per tenerci su cosa?
ma la vram occupata non è stato spiegato che è a "causa" dell'implementazione del direct storage? caricamenti istantanei
Ma le Radeon 7800 quando le presentano?
mikael84
29-01-2023, 19:34
Io ci vedo nel piano ram di JHH anche una obsolescenza programmata, nel senso che, ti do gpu prestanti ma ti metto un fine vita dato dal memory bound, così mi prendi il modello next.
Poi JHH avrà tutte le ragioni tecniche del mondo ma se Lisa riesce a pensare gpu che permettono di avere più ram lo può fare anche lui, la sua è una scelta intenzionale che parte già dalla carta. :)
Come detto su, dipende da: bus, linea di prodotti, e proiezioni future. Ad esempio sia JHH che Lisa, hanno già i codici a lungo termine.
Anche Lisa si è dovuta adeguare ai bus, ed alle proiezioni, esempio le 6600 vs 3060, o addirittura la 6500xt con 64bit e 4gb.
Discorso 7900xt vs 4070ti, competono, ma dovrebbero essere due fasce completamente diverse. Se la 4090 (che sarebbe la 7900xt di amd), si scontrasse con la 7700xt, il problema sarebbe opposto.:)
Ma le Radeon 7800 quando le presentano?
Q2/Q3 di quest'anno.
OrazioOC
29-01-2023, 19:57
Q2/Q3 di quest'anno.
Tempistiche di lancio veramente molto dubbie, che siano rimasti scottati dal lancio della 7900 xt/xtx? :rolleyes:
E leggevo anche che sono passati quasi due mesi dall'ultimo aggiornamento driver delle rx 6000. :mbe:
Oltretutto solitamente a dicembre di ogni anno uscivano delle major release dei driver amd, cosa che quest'anno non è avvenuta.
Huston(o meglio Lisa Su) abbiamo un problema.:stordita:
Tempistiche di lancio veramente molto dubbie, che siano rimasti scottati dal lancio della 7900 xt/xtx? :rolleyes:
E leggevo anche che sono passati più di due mesi dall'ultimo aggiornamento driver delle rx 6000. :mbe:
Oltretutto solitamente a dicembre di ogni anno uscivano delle major release dei driver amd, cosa che quest'anno non è avvenuta.
Huston(o meglio Lisa Su) abbiamo un problema.:stordita:
È ciò che stavo pensando anche io, mai una volta che AMD riesca a lanciare i prodotti con la stessa tempistica, una 7800xt a maggio è un po' troppo in là come tempistica a mio parere.
Uffa, potrebbe essere interessante come si posizionerà nel mercato questa 7800xt. :muro:
OrazioOC
29-01-2023, 20:10
È ciò che stavo pensando anche io, mai una volta che AMD riesca a lanciare i prodotti con la stessa tempistica, una 7800xt a maggio è un po' troppo in là come tempistica a mio parere.
Uffa, potrebbe essere interessante come si posizionerà nel mercato questa 7800xt. :muro:
Con amd è sempre stato così salvo rari casi, hanno meno SKU rispetto a nvidia e le lanciano con cadenze molto più distaccate. :rolleyes:
Nvidia ad esempio sta già facendo girare i rumors sulla 4070 vanilla a marzo e la 4060 ti per maggio/giugno, mentre su amd l'unico leak utile è di fine novembre dove dal source dei driver si è scoperto che navi 32 avrà 60 cu e navi 33 ne avrà 32.
Quindi navi 32 non verrà lanciata nell'immediato(e per immediato intendo i prossimi due/tre mesi).
Forse qui è anche una questione di rimanenze, ancora hanno parecchie rdna 2 da smaltire, ma va' da se che sono schede che viaggiano verso il terzo anno di vita(anche se non sembra visto che per buona parte di questo periodo c'era il fenomeno mining, quindi il reale target di vendita non ha potuto acquistarle), quindi schede che andrebbero prese solo a prezzi di saldo. :read:
Con amd è sempre stato così salvo rari casi, hanno meno SKU rispetto a nvidia e le lanciano con cadenze molto più distaccate. :rolleyes:
Nvidia ad esempio sta già facendo girare i rumors sulla 4070 vanilla a marzo e la 4060 ti per maggio/giugno, mentre su amd l'unico leak utile è di fine novembre dove dal source dei driver si è scoperto che navi 32 avrà 60 cu e navi 33 ne avrà 32.
Quindi navi 32 non verrà lanciata nell'immediato(e per immediato intendo i prossimi due/tre mesi).
Forse qui è anche una questione di rimanenze, ancora hanno parecchie rdna 2 da smaltire, ma va' da se che sono schede che viaggiano verso il terzo anno di vita(anche se non sembra visto che per buona parte di questo periodo c'era il fenomeno mining, quindi il reale target di vendita non ha potuto acquistarle), quindi schede che andrebbero prese solo a prezzi di saldo. :read:
So che è sempre stato così, ma cavoli, questa volta hanno davvero avuto l'opportunità di sbancare e son riusciti a sbagliare tutto, di nuovo!
Avrebbero potuto rifarsi con la 7800xt, ma se la lanciano in primavera a prezzo di 4070 ciaone. :rolleyes:
Da quando ATI è stata acquisita da AMD l'unica scheda rossa che ho avuto è stata la HD7750 con cui mi sono trovato bene visto il rapporto qualità prezzo all'epoca, ebbi di nuovo la tentazione con Vega e le 5700xt successivamente, ma la mancanza di unità RT mi fece preferire ancora una volta la concorrenza, però questa volta ero di nuovo davvero tentato da queste RDNA3.
mikael84
29-01-2023, 22:37
Tempistiche di lancio veramente molto dubbie, che siano rimasti scottati dal lancio della 7900 xt/xtx? :rolleyes:
E leggevo anche che sono passati quasi due mesi dall'ultimo aggiornamento driver delle rx 6000. :mbe:
Oltretutto solitamente a dicembre di ogni anno uscivano delle major release dei driver amd, cosa che quest'anno non è avvenuta.
Huston(o meglio Lisa Su) abbiamo un problema.:stordita:
E' una generazione un pò balorda, anche per via delle schede rimaste. Al momento anche nvidia alla fine ha lanciato le 3 schede annunciate a settembre poi basta (ok il cambio 4080/4070 ti). Le altre sono speculazioni dei vari leakers. Forse la 4070 è vicina, ma è pur sempre la SKU cut AD104.
Lato wafer, sia nvidia che AMD ne hanno ordinato tanti, e di questo passo, sarà così anche la gen prossima.
Sui vari rumour danno prima navi33 di navi32, ovvero la 7600xt, 8gb, che dovrebbe allinearsi alla 6700-6750 in base alle res.
Gigibian
29-01-2023, 22:49
È ciò che stavo pensando anche io, mai una volta che AMD riesca a lanciare i prodotti con la stessa tempistica, una 7800xt a maggio è un po' troppo in là come tempistica a mio parere.
Uffa, potrebbe essere interessante come si posizionerà nel mercato questa 7800xt. :muro:
Considerando che la 7900xt se la batte con la 4070 ti, la 7800xt la vedo una scheda difficilmente posizionabile.
Difficilmente raggiungerá una 3080 / 6800xt... E non ne vedo proprio l'utilità visto che le 6800xt si trovano sotto le 600 euro, a cosa serve una 7800xt che va come e forse meno di una 6800xt allo stesso prezzo se va bene ?
Considerando che la 7900xt se la batte con la 4070 ti, la 7800xt la vedo una scheda difficilmente posizionabile.
Difficilmente raggiungerá una 3080 / 6800xt... E non ne vedo proprio l'utilità visto che le 6800xt si trovano sotto le 600 euro, a cosa serve una 7800xt che va come e forse meno di una 6800xt allo stesso prezzo se va bene ?
In teoria RDNA3 mi pare abbia delle unità dedicate ai calcoli matriciali, tipo tensor core di Nvidia o gli XMX di Intel, con cui credo andranno ad accelerare il futuro FSR3, quindi a parità di prestazioni dovrebbero avere qualche vantaggio, oltre che alle migliori prestazioni in RT.
mikael84
29-01-2023, 23:18
Considerando che la 7900xt se la batte con la 4070 ti, la 7800xt la vedo una scheda difficilmente posizionabile.
Difficilmente raggiungerá una 3080 / 6800xt... E non ne vedo proprio l'utilità visto che le 6800xt si trovano sotto le 600 euro, a cosa serve una 7800xt che va come e forse meno di una 6800xt allo stesso prezzo se va bene ?
La 6800xt la batterà, in realtà il chip è chiamato x80, ma è navi32, quindi x70 pompato alla nvidia.
Per il resto ha gli shader della 6800 liscia, ben più clockata, ed intelaiatura della 6900 ma in salsa RDNA3. Quindi 256 bit, 16gb di ram a 20 gb/s.
In rapporto, dovrebbe essere come la 4080 sta alla 4090, ma in casa AMD.
Prezzo, penso 649-699$, considerando che per la 7900 ha mantenuto lo stesso, e di certo non penso ci sia 300$ di prezzo tra la 7800xt e la 7900xt.:)
Gigibian
29-01-2023, 23:58
La 6800xt la batterà, in realtà il chip è chiamato x80, ma è navi32, quindi x70 pompato alla nvidia.
Per il resto ha gli shader della 6800 liscia, ben più clockata, ed intelaiatura della 6900 ma in salsa RDNA3. Quindi 256 bit, 16gb di ram a 20 gb/s.
In rapporto, dovrebbe essere come la 4080 sta alla 4090, ma in casa AMD.
Prezzo, penso 649-699$, considerando che per la 7900 ha mantenuto lo stesso, e di certo non penso ci sia 300$ di prezzo tra la 7800xt e la 7900xt.:)
Ok, meglio allora !
Il mio dubbio in soldoni é che già oggi la 7900XT va il 30% in più della 6800 XT.
Come fai a rilasciare una 7800XT che va quanto...il 10% più della 6800XT?
Il passaggio di generazione più piccolo di sempre !
P.S.:
Appena ordinata 7900XTX :)
mikael84
30-01-2023, 01:09
Ok, meglio allora !
Il mio dubbio in soldoni é che già oggi la 7900XT va il 30% in più della 6800 XT.
Come fai a rilasciare una 7800XT che va quanto...il 10% più della 6800XT?
Il passaggio di generazione più piccolo di sempre !
P.S.:
Appena ordinata 7900XTX :)
Si, perchè c'è l'inganno dei nomi come fatto da nvidia (che poi ha in parte risolto).
Navi32 è serie x70, chiamata però x80.
Il die è di appena 200mm2, lo stesso della futura 4060, più 30$ di collegamenti bus-cache a 6nm.
Fatta a 5nm totale, equivarrebbe ad un die da 290/300mm2, come la 4070ti.:)
ninja750
30-01-2023, 10:25
E leggevo anche che sono passati quasi due mesi dall'ultimo aggiornamento driver delle rx 6000. :mbe:
Oltretutto solitamente a dicembre di ogni anno uscivano delle major release dei driver amd, cosa che quest'anno non è avvenuta.
Huston(o meglio Lisa Su) abbiamo un problema.:stordita:
pensa che io gioco con i driver di giugno, perchè è un problema? :)
È ciò che stavo pensando anche io, mai una volta che AMD riesca a lanciare i prodotti con la stessa tempistica, una 7800xt a maggio è un po' troppo in là come tempistica a mio parere.
Uffa, potrebbe essere interessante come si posizionerà nel mercato questa 7800xt. :muro:
detto che le schede si presentano quando sono pronte e non quando vuole il gamer, sto giro sono uscite praticamente insieme arrotondando un mese avanti e un mese indietro non capisco perchè parliate di ritardi. mi riferisco ovviamente a 7900XTX=4080 e 7900XT=4070ti. ad oggi non mi pare che una 4000 nvidia non abbia una """corrispondente""" amd
StylezZz`
30-01-2023, 10:46
pensa che io gioco con i driver di giugno, perchè è un problema? :)
Può essere un problema se vuoi giocare gli ultimi giochi usciti e i driver non sono ottimizzati.
sniperspa
30-01-2023, 12:04
Può essere un problema se vuoi giocare gli ultimi giochi usciti e i driver non sono ottimizzati.
Raramente mi è capitato di vedere giochi nuovi che giravano male con i driver attuali :boh:
Vabe io ormai son :old: e gioco solo a Cod e ACC però non mi sembra neanche di aver letto di casi simili negli ultimi anni
detto che le schede si presentano quando sono pronte e non quando vuole il gamer, sto giro sono uscite praticamente insieme arrotondando un mese avanti e un mese indietro non capisco perchè parliate di ritardi. mi riferisco ovviamente a 7900XTX=4080 e 7900XT=4070ti. ad oggi non mi pare che una 4000 nvidia non abbia una """corrispondente""" amd
Dal 13 dicembre uno e dico un solo drop delle 7900xtx sul sito ufficiale dopo il lancio, a due giorni di distanza circa, e meno male che NON sono riuscito a pagare la XTX.. adesso sappiamo bene del perché non le droppano piu' e bisogna andare di custom a non meno di 1200€. per avere poi prestazioni Piu o meno simili alla 4080 ma con opzione RTX e DLSS fac simil in linea della generazione precedente NVIDIA. Diciamo che i problemi non sono cosi irrilevanti.. Se potevano toppare ancora ? si l'hanno fatto di nuovo.. eppure ero intenzionato davvero a prendere una rossa, ma in questi termini viene difficile eh!
StylezZz`
30-01-2023, 12:19
Raramente mi è capitato di vedere giochi nuovi che giravano male con i driver attuali :boh:
Vabe io ormai son :old: e gioco solo a Cod e ACC però non mi sembra neanche di aver letto di casi simili negli ultimi anni
Non è che devono necessariamente girare male, ma con dei driver ottimizzati potresti avere performance migliori e fare più fps.
OrazioOC
30-01-2023, 13:01
pensa che io gioco con i driver di giugno, perchè è un problema? :)
Se ti affidi solamente ai driver certificati microsoft whql si, sono di maggio/giugno 2022, e li la situazione è ancora più cringe.:doh:
Io sento puzza di rubinetto chiuso per l'rtg(a maggior ragione senza mining e con vendite nel DIY non troppo strabilianti), ma spero di sbagliarmi.:rolleyes:
alethebest90
30-01-2023, 13:23
Se ti affidi solamente ai driver certificati microsoft whql si, sono di maggio/giugno 2022, e li la situazione è ancora più cringe.:doh:
Io sento puzza di rubinetto chiuso per l'rtg(a maggior ragione senza mining e con vendite nel DIY non troppo strabilianti), ma spero di sbagliarmi.:rolleyes:
in verità sono questi i piu recenti certificati
Adrenalin 22.11.2 Recommended (WHQL)
e sono di Dicembre...ormai anche gli optional vengono certificati dopo un po, evidentmente AMD li manda in revision a microsoft
e comunque questo ritardo sicuramente dipende dall'uscita programmata del magior update che fanno a gennaio in concomitanza a relativi probelmi con le schede nuove
LentapoLenta
30-01-2023, 13:55
Dal 13 dicembre uno e dico un solo drop delle 7900xtx sul sito ufficiale dopo il lancio, a due giorni di distanza circa, e meno male che NON sono riuscito a pagare la XTX.. adesso sappiamo bene del perché non le droppano piu' e bisogna andare di custom a non meno di 1200€. per avere poi prestazioni Piu o meno simili alla 4080 ma con opzione RTX e DLSS fac simil in linea della generazione precedente NVIDIA. Diciamo che i problemi non sono cosi irrilevanti.. Se potevano toppare ancora ? si l'hanno fatto di nuovo.. eppure ero intenzionato davvero a prendere una rossa, ma in questi termini viene difficile eh!
E ti lamenti?
Io per prendere la 6900XT ci ho messo un anno di drop... e ci sono riuscito solo perchè mi ha aiutato un altro (santo) utente del forum!
detto che le schede si presentano quando sono pronte e non quando vuole il gamer, sto giro sono uscite praticamente insieme arrotondando un mese avanti e un mese indietro non capisco perchè parliate di ritardi. mi riferisco ovviamente a 7900XTX=4080 e 7900XT=4070ti. ad oggi non mi pare che una 4000 nvidia non abbia una """corrispondente""" amd
Il mio riferimento al ritardo di AMD è inteso nel senso che Nvidia ad oggi ha fuori 3 schede, AMD 2, di cui la XTX quasi introvabile, visto che la fascia della 4090 è scoperta, avrebbero potuto tirar fuori la 7800xt in anticipo rispetto ai verdi, non sta scritto da nessuna parte che AMD deve sempre inseguire, così facendo secondo me sarebbero stati in grado di accontentare tutte quelle persone che sono in attesa di una vga performante senza spendere 1000€, imho.
OrazioOC
30-01-2023, 14:05
in verità sono questi i piu recenti certificati
Adrenalin 22.11.2 Recommended (WHQL)
e sono di Dicembre...ormai anche gli optional vengono certificati dopo un po, evidentmente AMD li manda in revision a microsoft
e comunque questo ritardo sicuramente dipende dall'uscita programmata del magior update che fanno a gennaio in concomitanza a relativi probelmi con le schede nuove
Si pardon, non avevo visto che anche quelli erano whql, hai ragione.:)
ninja750
30-01-2023, 14:23
Io sento puzza di rubinetto chiuso per l'rtg(a maggior ragione senza mining e con vendite nel DIY non troppo strabilianti), ma spero di sbagliarmi.:rolleyes:
questa sensazione per un driver in ritardo, detto che non hanno mai scritto da nessuna parte che debbano farne uscire uno al mese?
Il mio riferimento al ritardo di AMD è inteso nel senso che Nvidia ad oggi ha fuori 3 schede, AMD 2, di cui la XTX quasi introvabile, visto che la fascia della 4090 è scoperta, avrebbero potuto tirar fuori la 7800xt in anticipo rispetto ai verdi, non sta scritto da nessuna parte che AMD deve sempre inseguire, così facendo secondo me sarebbero stati in grado di accontentare tutte quelle persone che sono in attesa di una vga performante senza spendere 1000€, imho.
la 7900XT è uscita prima della 4070ti quindi non vedo questo "inseguire"
non trovo logica in questo tuo ragionamento, se AMD non può competere con questa arch nella fascia 4090 lo sta facendo nelle due sotto dove è di fatto abbastanza competitiva in termini perf/prezzo, lo scontro lo fai mica col numero di sku lo fai con quante ne vendi. la 7800xt (se mai uscirà) verrà presentata quando sarà tecnicamente pronta e quando quelli del marketing decideranno che sarà il momento giusto, il loro scopo è sempre quello di mungere il più possibile i compratori quindi largo agli inscimmiati con le top
Gigibian
30-01-2023, 14:58
La storia dei driver è semplicemente imbarazzante.
Non rilasciare driver da due mesi per tutto quello che sta sotto le 7000 è da incompetenti/incapaci.
Poco da discutere su questo per quanto mi riguarda.
Per quanto riguarda xtx ha un prezzo che non esiste.
Costa street price come una 4080 che a differenza della xtx ti dà un'esperienza in raster simile ma in rt molto superiore, puoi usare tutti gli upscaling sul mercato (fsr, dlss, xess) e per i fan di Greta consuma pure una manciata di w in meno.
Amd se deve seguire sta strada meglio che lascia perdere.
Storia dei driver sia imbarazzante concordo.
Nello specifico la scheda in firma l'ho pagata almeno 200 euro in meno di una custom pari livello 4080, hai più RAM e più velocità in raster. In alcuni giochi MOLTA più velocità in raster.
In RT vai peggio ma non drammaticamente, ad ogni nuova release di driver migliora e guardando le ultime recensioni sei a metà tra una 4070 ti ed una 4080. Niente di sconvolgente.
Inoltre lato overclock guadagni un altro 10% contro un 4/5% che guadagni con la 4080.
Considerando poi anche AMD "Finewine" technology (:D) alla fine reputo che sia un acquisto molto più sensato e futuribile della 4080 (sono pareri).
ninja750
30-01-2023, 16:58
https://www.tomshardware.com/news/3d-vcache-rdna3-amd-gpu
3D cache anche sulle GPU
anche se non capisco in che modo possa aiutare visto che CPU e GPU sono due mondi differenti
Storia dei driver sia imbarazzante concordo.
Nello specifico la scheda in firma l'ho pagata almeno 200 euro in meno di una custom pari livello 4080, hai più RAM e più velocità in raster. In alcuni giochi MOLTA più velocità in raster.
In RT vai peggio ma non drammaticamente, ad ogni nuova release di driver migliora e guardando le ultime recensioni sei a metà tra una 4070 ti ed una 4080. Niente di sconvolgente.
Inoltre lato overclock guadagni un altro 10% contro un 4/5% che guadagni con la 4080.
Considerando poi anche AMD "Finewine" technology (:D) alla fine reputo che sia un acquisto molto più sensato e futuribile della 4080 (sono pareri).
ma ci sta che amd per i driver ha dato priorita' assoluta alle ultime arrivate
rdna3 ha bisogno di essere debug/ottimizzato parecchio
sicuro ci saranno anche improvement a doppia cifra;)
anche per questo l'acquisto di un prodotto acerbo puo' essere lungimirante, se gia' si difende bene rispetto a un altro prodotto maturo e piu' costoso..:)
per la 7800xt invece penso che e' meglio non la avviano in queste condizioni
intanto rischiava di essere piu' un paperlaunch, prezzo basso uguale a piu' richieste..ma se poi non soddisfano le richieste fai solo danni, mosche bianche a prezzi inflazionati
piu' driver acerbi, bug hw/sw che siano portano a lamentele, rma e resi
con l'immancabile soluzione..a poco piu' vai di concorrenza e amen:asd:
a questo punto meglio gestire poche migliaia di 7900xt/x, poco venduto, meno problemi
ma ci sta che amd per i driver ha dato priorita' assoluta alle ultime arrivate
rdna3 ha bisogno di essere debug/ottimizzato parecchio
sicuro ci saranno anche improvement a doppia cifra;)
anche per questo l'acquisto di un prodotto acerbo puo' essere lungimirante, se gia' si difende bene rispetto a un altro prodotto maturo e piu' costoso..:)
per la 7800xt invece penso che e' meglio non la avviano in queste condizioni
intanto rischiava di essere piu' un paperlaunch, prezzo basso uguale a piu' richieste..ma se poi non soddisfano le richieste fai solo danni, mosche bianche a prezzi inflazionati
piu' driver acerbi, bug hw/sw che siano portano a lamentele, rma e resi
con l'immancabile soluzione..a poco piu' vai di concorrenza e amen:asd:
a questo punto meglio gestire poche migliaia di 7900xt/x, poco venduto, meno problemi
Vista da questo punto di vista non fa una piega.
Speriamo nell'avvento di questa major release driver che son curioso di vedere cosa guadagnano, la 7900xtx mi piaceva parecchio, non fosse per il prezzo sopra I 1000€.
devil_mcry
31-01-2023, 19:15
Domanda, ma la precedente generazione AMD, quindi le 6x00 e le console, come fanno a fare il ray tracing senza unità RT? lo gestiscono le CU normali? non hanno proprio hw dedicato?
A64FX+DFI nF4
31-01-2023, 19:26
a due anni dalla presentazione si pensa ancora che rdna2 non ha unità dedicate al raytracing:rolleyes:
devil_mcry
31-01-2023, 19:39
a due anni dalla presentazione si pensa ancora che rdna2 non ha unità dedicate al raytracing:rolleyes:
non lo so è una curiosità, avevo letto così ma non ho approfondito
forse non le ha per il fsr?
StylezZz`
31-01-2023, 19:52
non lo so è una curiosità, avevo letto così ma non ho approfondito
forse non le ha per il fsr?
Esatto, FSR 2 a differenza del DLSS non ha bisogno di unità dedicate, ed è compatibile con tutte le gpu, anche quelle di gen precedente.
Ale55andr0
01-02-2023, 08:12
PS. Gyammy sospeso, non ci credo :eek:
https://youtu.be/KllWZWyWxQM?t=25
:p
ninja750
01-02-2023, 10:11
forse non le ha per il fsr?
le ha
rickiconte
01-02-2023, 10:30
Storia dei driver sia imbarazzante concordo.
Nello specifico la scheda in firma l'ho pagata almeno 200 euro in meno di una custom pari livello 4080, hai più RAM e più velocità in raster. In alcuni giochi MOLTA più velocità in raster.
In RT vai peggio ma non drammaticamente, ad ogni nuova release di driver migliora e guardando le ultime recensioni sei a metà tra una 4070 ti ed una 4080. Niente di sconvolgente.
Inoltre lato overclock guadagni un altro 10% contro un 4/5% che guadagni con la 4080.
Considerando poi anche AMD "Finewine" technology (:D) alla fine reputo che sia un acquisto molto più sensato e futuribile della 4080 (sono pareri).
Immagino però, correggimi se sbaglio, che lo stesso valga per una 4080, anche loro affinano i driver e quindi le performances migliorano.
Per cui le distanze presumo rimangano invariate lato RT.
Questo ovviamente se si va dal presupposto di fare un confronto con la concorrenza.
PS: Non so perchè ma ero convinto ti fossi fatto la Gigabyte Gaming OC che su amazonia costava pure meno fino a pochi giorni fa.
Gigibian
01-02-2023, 12:02
Immagino però, correggimi se sbaglio, che lo stesso valga per una 4080, anche loro affinano i driver e quindi le performances migliorano.
Per cui le distanze presumo rimangano invariate lato RT.
Questo ovviamente se si va dal presupposto di fare un confronto con la concorrenza.
PS: Non so perchè ma ero convinto ti fossi fatto la Gigabyte Gaming OC che su amazonia costava pure meno fino a pochi giorni fa.
Si stavo pensando alla gigabyte ma per 40 euro ho preferito la xfx che ha clock e power limit molto più alto, 3 connettori 8 pin invece che 2, e dissapatore migliore con temp più basse.
Poi della xfx ci sono decine di review...della gigabyte nemmeno una...sono andato sul sicuro diciamo.
Per quanto riguarda i driver diciamo che storicamente AMD migliora di più col tempo.
Nello specifico mentre Nvidia con le 4000 ha mantenuto la stessa architettura aumentando le CU, AMD ha stravolto l'architettura implementando delle CU dual issue che richiedono una ottimizzazione spinta dei driver e compilazione di shader ad hoc.
Questo unito al fatto che in alcuni giochi (tipo Cod) é sopra anche alla 4090, potrebbe significare che di potenza bruta ne ha da vendere ma va affinata.
In ogni caso non faccio mai acquisti su promesse future, anche rimanesse tutto come oggi, sarei assolutamente contento delle performance attuali :)
ninja750
01-02-2023, 12:21
rumour di giornata
ACER ha assunto alcuni tecnici di EVGA e sta per diventare AIB per AMD :eek:
rumour di giornata
ACER ha assunto alcuni tecnici di EVGA e sta per diventare AIB per AMD :eek:
bene sperando che facciano aumentare produzione e prezzi inferiori magari... tipo una 7900xt a 650 euro
Ale55andr0
01-02-2023, 21:22
rumour di giornata
ACER ha assunto alcuni tecnici di EVGA e sta per diventare AIB per AMD :eek:
non sarebbe affatto male, ma avrei preferito EVGA direttamente...
Lionking-Cyan
07-02-2023, 10:00
Ancora non ci sono novità concrete su una data di uscita per la 7700 xt?
Gyammy85
07-02-2023, 10:24
Ancora non ci sono novità concrete su una data di uscita per la 7700 xt?
Purtroppo ancora niente, credo che aspettino di smaltire le 6900 prima di fare annunci, era trapelato solo navi 32 mesi fa con 60 cu, ma quella è la 7800 da 16 giga
Purtroppo ancora niente, credo che aspettino di smaltire le 6900 prima di fare annunci, era trapelato solo navi 32 mesi fa con 60 cu, ma quella è la 7800 da 16 giga
A me sembra che il numero di 6900 sugli shop sia gia' diminuito.
ninja750
08-02-2023, 10:47
potrebbero dare priorità alla 7600XT
Gyammy85
08-02-2023, 10:58
A me sembra che il numero di 6900 sugli shop sia gia' diminuito.
Venendo meno il mining le vga le devono vendere solo ai gamers e quindi ci vuole più tempo, la 4070 uscirà ad aprile, immagino che amd stia lavorando per un lancio nella stessa finestra, anche se non trapela niente ancora
Lionking-Cyan
08-02-2023, 12:03
potrebbero dare priorità alla 7600XT
Magari.
Gyammy85
08-02-2023, 12:13
potrebbero dare priorità alla 7600XT
La 7600xt sarebbe una 6800 da 100 watt o giù di lì
mikael84
08-02-2023, 12:23
La 7600xt sarebbe una 6800 da 100 watt o giù di lì
Ne dubito fortemente, dai rumour, sarà una 6600 in salsa RDNA3.
Gyammy85
08-02-2023, 12:30
Ne dubito fortemente, dai rumour, sarà una 6600 in salsa RDNA3.
Cioè andrebbe uguale? boh
mikael84
08-02-2023, 12:42
Cioè andrebbe uguale? boh
Uguale no, ma è la stessa scheda in RDNA3, con le 20 gb/s.
StylezZz`
08-02-2023, 12:59
Infatti è già tanto se andrà quanto una 6700/6750, altro che 6800 :rolleyes:
Gyammy85
08-02-2023, 13:03
Uguale no, ma è la stessa scheda in RDNA3, con le 20 gb/s.
Mah, e quindi? come dire che la 6700xt è la stessa 5700xt in rdna2
mikael84
08-02-2023, 13:15
Mah, e quindi? come dire che la 6700xt è la stessa 5700xt in rdna2
C'è un declassamento importante, quasi rebrand delle fasce basse, ed è evidente.
La 7600xt dovrebbe avere 2048 shader, e 128 bit a 20 gb/s.
A livello di IPC, considerando che nell'esempio c'è pure il 320 bit, non ci saranno grossissime differenze. Meglio in RT.
Tra la 7900xt e la 6900xt a pari TF, c'è pochissima differenza.
https://i.postimg.cc/j2xZF59m/ipc.png
La differenza la può fare il clock.
Anche la 4060ti passerà da 3060ti a 3070/ti.:)
Secondo le analisi questo articolo
https://chipsandcheese.com/2023/01/07/microbenchmarking-amds-rdna-3-graphics-architecture/
In questo momento il dual issue è sfruttato abbastanza poco perché i compilatori non riescono ad interpretare sempre al meglio quando può essere utilizzato efficacemente ed è richiesto diverso lavoro manuale (immagino per AMD lato driver).
Se l'interpretazione fosse corretta e riuscissero a mettere una pezza, magari si potrebbe guadagnare quel 10/20% di performance che sembrano mancare all'appello rispetto alle proiezioni iniziali.
Certo che se fosse vero e fosse necessaria tutta questa analisi "umana" ci si domanda perchè AMD abbia preso questa strada, praticabile sulle nuove uscite, ma difficilmente estendibile per i giochi meno recenti, che comunque per quanto bene possano andare a livello assoluto, fanno paniere nei confronti con i concorrenti a con le proprie schede di precedente generazione che performano comunque bene ed in linea con la concorrenza.
Gyammy85
08-02-2023, 15:33
C'è un declassamento importante, quasi rebrand delle fasce basse, ed è evidente.
La 7600xt dovrebbe avere 2048 shader, e 128 bit a 20 gb/s.
A livello di IPC, considerando che nell'esempio c'è pure il 320 bit, non ci saranno grossissime differenze. Meglio in RT.
Tra la 7900xt e la 6900xt a pari TF, c'è pochissima differenza.
https://i.postimg.cc/j2xZF59m/ipc.png
La differenza la può fare il clock.
Anche la 4060ti passerà da 3060ti a 3070/ti.:)
Mah, almeno come una 6700xt andrà, la 7800 da 60 cu dovrebbe andare almeno il 25-30% in più di una 6800
Secondo le analisi questo articolo
https://chipsandcheese.com/2023/01/07/microbenchmarking-amds-rdna-3-graphics-architecture/
In questo momento il dual issue è sfruttato abbastanza poco perché i compilatori non riescono ad interpretare sempre al meglio quando può essere utilizzato efficacemente ed è richiesto diverso lavoro manuale (immagino per AMD lato driver).
Se l'interpretazione fosse corretta e riuscissero a mettere una pezza, magari si potrebbe guadagnare quel 10/20% di performance che sembrano mancare all'appello rispetto alle proiezioni iniziali.
Certo che se fosse vero e fosse necessaria tutta questa analisi "umana" ci si domanda perchè AMD abbia preso questa strada, praticabile sulle nuove uscite, ma difficilmente estendibile per i giochi meno recenti, che comunque per quanto bene possano andare a livello assoluto, fanno paniere nei confronti con i concorrenti a con le proprie schede di precedente generazione che performano comunque bene ed in linea con la concorrenza.
Penso come strada per il futuro e per mantenere dimensioni ragionevoli sul chip
A me una 6750xt a wattaggio migliore andrebbe benissimo, non mi offendo.
La 7600xt sarebbe una 6800 da 100 watt o giù di lì
Mi andrebbero prestazioni da 6800 liscia a 100 watt (cosa che una 6800 downvoltata gia' dovrebbe fare).
OrazioOC
09-02-2023, 09:13
La 7600xt sarebbe una 6800 da 100 watt o giù di lì
Seee vabbe', è già molto che sia una 6700 xt in 150w considerato che si tratta di navi 23 aggiornato con rdna3 a 6nm.:rolleyes:
ninja750
09-02-2023, 09:39
Mi andrebbero prestazioni da 6800 liscia a 100 watt (cosa che una 6800 downvoltata gia' dovrebbe fare).
100w una 6800 downvoltata manco nei sogni più bagnati
Gyammy85
09-02-2023, 14:16
Seee vabbe', è già molto che sia una 6700 xt in 150w considerato che si tratta di navi 23 aggiornato con rdna3 a 6nm.:rolleyes:
Per me può andare anche come una gt710, ma bisogna avere delle argomentazioni
Gyammy85
09-02-2023, 14:18
100w una 6800 downvoltata manco nei sogni più bagnati
Puoi downvoltarla a 11 watt e 20 mhz giocare a minecraft a 30 fps rock solid
OrazioOC
09-02-2023, 14:23
Per me può andare anche come una gt710, ma bisogna avere delle argomentazioni
Infatti sono in attesa delle tue sul come farà ad andare come una rx 6800 in 100w. :)
100w una 6800 downvoltata manco nei sogni più bagnati
ma infatti mi stavo informando e mi pare impossibile
100w una 6800 downvoltata manco nei sogni più bagnati
Una 6700xt senza troppe fanfare tiene 2400 mhz a 1100 mv senza superare i 120 watt a, sono ben +80 mhz del default e -100 mv.
Ho letto su internet di varie persone che hanno portato la 6800 a 100 watt circa di picchi tenendo il boost clock a 2300 e i voltaggi a 900 circa, le prestazioni sono quelle di default.
Non tengo una 6000, ma la mia vecchia Polaris RX 580 downvoltata a 925 mv non superava gli 85 watt, contro i quasi 200 del default.
Quindi sinceramente prestazioni da 6800 downvoltando l'ipotetica 7600xt me li aspetto, almeno.
Gyammy85
10-02-2023, 10:11
ma infatti mi stavo informando e mi pare impossibile
Si devono vedere i clock, sulla carta c'è molta differenza fra una 6700xt ed una 6800, ma all'atto pratico tutto si ridimensiona
Ponendo un 35% minimo minimo per fascia, la 6600xt aka 7600xt arriverebbe in prossimità della 6800, la 7800 arriverebbe alla 6950xt, calcoli grossolani ma realistici imho
Una 6700xt senza troppe fanfare tiene 2400 mhz a 1100 mv senza superare i 120 watt a, sono ben +80 mhz del default e -100 mv.
Ho letto su internet di varie persone che hanno portato la 6800 a 100 watt circa di picchi tenendo il boost clock a 2300 e i voltaggi a 900 circa, le prestazioni sono quelle di default.
Non tengo una 6000, ma la mia vecchia Polaris RX 580 downvoltata a 925 mv non superava gli 85 watt, contro i quasi 200 del default.
Quindi sinceramente prestazioni da 6800 downvoltando l'ipotetica 7600xt me li aspetto, almeno.
Mettiamo le mani avanti ora certificando il flop, anche se fosse perché uno dovrebbe spendere 400 euro per la 7600xt quando si può prendere la 6800 usata a 400 o nuova in offerta a 550?
Poi la storia dell'undervolt è diventata prassi, non capisco perché far funzionare tutto fuori specifica, non fa danni, ma chi lo dice? tutti cialtroni i produttori, salvo poi accusare i driver al primo crash
ninja750
10-02-2023, 11:13
Una 6700xt senza troppe fanfare tiene 2400 mhz a 1100 mv senza superare i 120 watt a, sono ben +80 mhz del default e -100 mv.
che scenario? screen? :O
Ho letto su internet di varie persone che hanno portato la 6800 a 100 watt circa di picchi tenendo il boost clock a 2300 e i voltaggi a 900 circa, le prestazioni sono quelle di default.
link? è inverosimile al quadrato a meno di scenari che non stiamo considerando es giocare cappati a 60fps, te lo dico per esperienza perchè anche io downvolto
link? è inverosimile al quadrato a meno di scenari che non stiamo considerando es giocare cappati a 60fps, te lo dico per esperienza perchè anche io downvolto
La tua gpu li regge i 900 mv? Se si a che frequenza?
Dire che sia "inverosimile" mi sembra un poco tirato, se abbassi clock e voltaggi la gpu la fai girare anche a 50 watt, non c'e` limite all'underclocking/undervolting, la questione centrale e' quanto posso undervoltare rimanendo nella stessa classe di prestazioni.
Puoi provare da solo e postare la tua esperienza, io la gpu non la ho, ma non fatico a credere si possa scendere molto di consumi per la mia esperienza passata e per cio' che ho visto su reddit.
ninja750
12-02-2023, 19:30
La tua gpu li regge i 900 mv? Se si a che frequenza?
Dire che sia "inverosimile" mi sembra un poco tirato, se abbassi clock e voltaggi la gpu la fai girare anche a 50 watt, non c'e` limite all'underclocking/undervolting, la questione centrale e' quanto posso undervoltare rimanendo nella stessa classe di prestazioni.
Puoi provare da solo e postare la tua esperienza, io la gpu non la ho, ma non fatico a credere si possa scendere molto di consumi per la mia esperienza passata e per cio' che ho visto su reddit.
esatto, se imposti 900mv non li applica mai se non scendendo tantissimo con le frequenze e a quel punto potrebbe darsi anzichenò che una 6500XT vada di più
impostando il mio daily 2300mhz 930mv ne applica reali almeno 975mv
OrazioOC
23-03-2023, 11:38
Qua balle di fieno? :D
Non molto bello effettivamente il silenzio attorno all'RTG.
Penso proprio che senza mining non ci sia più tutto questo "champagne" nella divisione gpu di amd. :rolleyes:
Legolas84
23-03-2023, 11:40
Non molto bello effettivamente il silenzio attorno all'RTG.
Penso proprio che senza mining non ci sia più tutto questo "champagne" nella divisione gpu di amd. :rolleyes:
Eh bisognerebbe capire quante 7900 stanno vendendo visto che si sono allineati alla concorrenza come rapporto prezzo / prestazioni....
Ale55andr0
25-03-2023, 08:02
https://wccftech.com/amd-fsr-3-fidelityfx-super-resolution-technology-detailed-2x-the-fps-with-frame-interpolation-easy-to-integrate-in-existing-fsr-2-titles/
100w una 6800 downvoltata manco nei sogni più bagnati
Io ho notato una cosa, che sulla 6700XT i software segnano solo il wattaggio "GPU Chip Power" ma non esiste il "Board Power Draw", e questo crea un gran casino.
Tipo io potrei avere ottime prestazioni con appena 130W di "GPU Chip Power" con la 3060Ti (meglio che stock), ma la realtà è che poi per il consumo totale della VGA bisogna fare +40/50W, e risultano infatti nel "Board Power Draw".
Tanto che la 6700XT segna poco meno di 180W stock col valore indicato dal software AMD e GPU-Z, quando ne consuma realisticamente fino a 230
O tutti si parla di un valore o tutti si parla dell'altro, per me quando dicono "la 6700XT fa 120W", sono 170W di TUTTA la scheda, e là ha senso downvoltando poterci arrivare
Quando pensate possano uscire le 7800 e 7800xt? In che fascia di prezzo si può sperare vengano proposte? :)
ninja750
27-03-2023, 14:10
O tutti si parla di un valore o tutti si parla dell'altro, per me quando dicono "la 6700XT fa 120W", sono 170W di TUTTA la scheda, e là ha senso downvoltando poterci arrivare
quando parliamo di watt per forza ci riferiamo al GPU power, non possiamo misurare nient'altro visto che il consumo gpu è inglobato insieme a tutto il resto nel consumo alla presa
e nemmeno nel gpu power, una 6800 può consumare 100w se non cappata artificialmente per non esprimere il 100% del potenziale es un cap 30fps
Al computex potrebbero accennare alle nuove GPU, o si sa già qualcosa?
ninja750
03-04-2023, 10:42
Al computex potrebbero accennare alle nuove GPU, o si sa già qualcosa?
tutto tace, e non è un bene
con la 7900XT mal piazzata in quel modo (perf/prezzo) metterci una 7800XT che vada come la 6950XT a 100$ in meno dalla 7900XT cioè 799$ MSRP due anni e mezzo dopo sarebbe un FAIL
non farla e fare solo la 7700XT sarebbe ammissione che quella 7900XT in realtà sarebbe di fatto una 7800XT e quindi FAIL
farla e prezzarla 599$ genererebbe troppo salto rispetto alla 7900XT e farebbe incazzare non poco chi l'ha comprata quindi FAIL
insomma, sento profumo di FAIL a meno di saltare direttamente tutte le 7000 sotto la 7900XT e continuare a proporre le 6000 per creare una lineup "normale" con le future 8000. sostanzialmente il tutto è nato dal problema che la 7900XTX non ha performato come ci si aspettava
OrazioOC
03-04-2023, 11:16
tutto tace, e non è un bene
con la 7900XT mal piazzata in quel modo (perf/prezzo) metterci una 7800XT che vada come la 6950XT a 100$ in meno dalla 7900XT cioè 799$ MSRP due anni e mezzo dopo sarebbe un FAIL
non farla e fare solo la 7700XT sarebbe ammissione che quella 7900XT in realtà sarebbe di fatto una 7800XT e quindi FAIL
farla e prezzarla 599$ genererebbe troppo salto rispetto alla 7900XT e farebbe incazzare non poco chi l'ha comprata quindi FAIL
insomma, sento profumo di FAIL a meno di saltare direttamente tutte le 7000 sotto la 7900XT e continuare a proporre le 6000 per creare una lineup "normale" con le future 8000. sostanzialmente il tutto è nato dal problema che la 7900XTX non ha performato come ci si aspettava
Amd può far bella figura nelle fasce sotto la 4070, dato che 4060/ti e 4050 saranno castrate nella vram(8 e 6 gb gddr6 rispettivamente).
Se si presentassero con dei refresh rdna 3 delle 6700 e 6600 ad un prezzo congruo possono dire la loro.
Però si sbrigassero a dire qualcosa, sono passati quasi 6 mesi dalla presentazione delle 7900 xt/x rdna 3 e ancora non hanno detto nulla.:rolleyes:
alethebest90
03-04-2023, 11:23
io dico che stanno ancora cercando una soluzione per far andare come si deve le 7900
un po come la ferrari in F1 :asd: :(
Amd può far bella figura nelle fasce sotto la 4070, dato che 4060/ti e 4050 saranno castrate nella vram(8 e 6 gb gddr6 rispettivamente).
Se si presentassero con dei refresh rdna 3 delle 6700 e 6600 ad un prezzo congruo possono dire la loro.
Però si sbrigassero a dire qualcosa, sono passati quasi 6 mesi dalla presentazione delle 7900 xt/x rdna 3 e ancora non hanno detto nulla.:rolleyes:
Stanno vendendo le 6000 di fascia bassa ancora. Non hanno nessuna fretta di proporre cose nuove. Anche perchè ti immagini una 7600/7600xt? Dovrebbero essere minimo come una 6700xt, consumare circa 100w e costare non più di 400 euro. In pratica la scheda perfetta per il 50% dei videogiocatori.
Ale55andr0
03-04-2023, 11:30
...ma la 7800XT esce o è un essere mitologico? Possibile che non ci sia manco mezzo rumor? :confused: Se uscisse con 16gb e prestazioni RT da 3080ti a più o meno stesse banconote della 6800tx sarebbe un gran bell'acquisto
Gyammy85
03-04-2023, 12:28
...ma la 7800XT esce o è un essere mitologico? Possibile che non ci sia manco mezzo rumor? :confused: Se uscisse con 16gb e prestazioni RT da 3080ti a più o meno stesse banconote della 6800tx sarebbe un gran bell'acquisto
Avevo letto che dovrebbero presentarle all'evento omologo che fanno in cina del computex o qualcosa del genere, in effetti le 6000 le stanno vendendo benissimo, quindi immagino che non vogliano cannibalizzare le nuove lanciandole a breve, nvidia non ha più 3000 quasi a parte le top che consumano tanto e non hanno il dlss3
ninja750
03-04-2023, 12:28
...ma la 7800XT esce o è un essere mitologico? Possibile che non ci sia manco mezzo rumor? :confused: Se uscisse con 16gb e prestazioni RT da 3080ti a più o meno stesse banconote della 6800tx sarebbe un gran bell'acquisto
a 690€ ci si compra una 6950XT nuova :ubriachi:
Gyammy85
03-04-2023, 12:29
a 690€ ci si compra una 6950XT nuova :ubriachi:
Eh avrei dovuto cambiare la scheda quest'anno invece che l'anno scorso :doh:
mikael84
03-04-2023, 12:47
...ma la 7800XT esce o è un essere mitologico? Possibile che non ci sia manco mezzo rumor? :confused: Se uscisse con 16gb e prestazioni RT da 3080ti a più o meno stesse banconote della 6800tx sarebbe un gran bell'acquisto
Ci arriva a stento la 7900xt a quei valori, in qualche gioco intensive neppure la prende, immagina la 7800xt...
7900xt: 5376 shader /320bit
7800xt: 3840 shader /256bit/16gb
Potrebbe un tantino accorciare le spec, clockando un pò di più, ma la differenza è elevata cmq.
L'unica cosa che farà sul mercato è migliorare un tantino il RT di navi21 agli stessi costi.;)
StylezZz`
03-04-2023, 13:11
...ma la 7800XT esce o è un essere mitologico? Possibile che non ci sia manco mezzo rumor? :confused: Se uscisse con 16gb e prestazioni RT da 3080ti a più o meno stesse banconote della 6800tx sarebbe un gran bell'acquisto
Ma in realtà è già uscita...
Avevo letto che dovrebbero presentarle all'evento omologo che fanno in cina del computex o qualcosa del genere, in effetti le 6000 le stanno vendendo benissimo, quindi immagino che non vogliano cannibalizzare le nuove lanciandole a breve, nvidia non ha più 3000 quasi a parte le top che consumano tanto e non hanno il dlss3
A meno che non sia cambiato qualcosa nelle ultime settimane, mi risulta che lato GPU queste siano le peggiori trimestrali degli ultimi 10 anni
Calcolando che la rx 6600, entry level, per giocare al giorno d'oggi sta a 260 € minimo mi sa che tutto sto mercato non c'è.
Ale55andr0
03-04-2023, 14:07
a 690€ ci si compra una 6950XT nuova :ubriachi:
che è una 3070 in rt...e poi non ha l'appeal di un prodotto che godrà di un supporto nuovo di pacca per i prossimi anni....
Ale55andr0
03-04-2023, 14:11
Ci arriva a stento la 7900xt a quei valori, in qualche gioco intensive neppure la prende, immagina la 7800xt...
7900xt: 5376 shader /320bit
7800xt: 3840 shader /256bit/16gb
Potrebbe un tantino accorciare le spec, clockando un pò di più, ma la differenza è elevata cmq.
L'unica cosa che farà sul mercato è migliorare un tantino il RT di navi21 agli stessi costi.;)
diciamo che ragionavo sul fatto che, a meno che non nerfino pesantemente il chip, di solito al diminuire le cu non si perde linearmente, e il chip più piccolo può avere un clock più alto...che poi è quel che mi confermi. Ma... sti 3840 shader sono ufficiali? Mi paiono troppo pochi....Non potrebbe essere una 4608 con l'architettura nuova come la 6800xt? Avranno ragionato su come piazzarla bene rispetto nvidia no?
Eh avrei dovuto cambiare la scheda quest'anno invece che l'anno scorso :doh:
vabè se si ragiona così ogni acquisto è sbagliato, non abbiamo la sfera. Chiaro che se ad esempio uno compra sapendo che da li' a 3-4 mesi c'è la serie nuova allora è fesso lui
Gyammy85
03-04-2023, 16:09
A meno che non sia cambiato qualcosa nelle ultime settimane, mi risulta che lato GPU queste siano le peggiori trimestrali degli ultimi 10 anni
Calcolando che la rx 6600, entry level, per giocare al giorno d'oggi sta a 260 € minimo mi sa che tutto sto mercato non c'è.
Su mindfactory non sono mai andati meglio, e sono dati reali di schede vendute, vedremo la call del q1
ninja750
03-04-2023, 16:15
che è una 3070 in rt...e poi non ha l'appeal di un prodotto che godrà di un supporto nuovo di pacca per i prossimi anni....
anche le 7900XT (e figurati 7800XT) non eccelle in RT
ripetiamo ancora una volta insieme :D che chi predilige RT è meglio che compri altra marca
mikael84
03-04-2023, 16:19
diciamo che ragionavo sul fatto che, a meno che non nerfino pesantemente il chip, di solito al diminuire le cu non si perde linearmente, e il chip più piccolo può avere un clock più alto...che poi è quel che mi confermi. Ma... sti 3840 shader sono ufficiali? Mi paiono troppo pochi....Non potrebbe essere una 4608 con l'architettura nuova come la 6800xt? Avranno ragionato su come piazzarla bene rispetto nvidia no?
E' come se lo fossero, sono 1024/2048 DU shader per x engine x 4 totali. Dovrebbero essere 4096/8196 DU, ma un DCU pare spento.
Per il resto avrà tutta l'intelaiatura di navi21, come le 128 rop's.
Infatti anche il die, passa da 300mm2 a 200mm2 + la cache e collegamenti.
Gyammy85
03-04-2023, 18:03
Navi 32 dovrebbe avere 60 dual cu stile 6800, quindi direi un +30% almeno e più ancora in rt
OrazioOC
03-04-2023, 18:08
Navi 32 dovrebbe avere 60 dual cu stile 6800, quindi direi un +30% almeno e più ancora in rt
Si dai facciamo che va' come una 7900 xt. :asd:
Se va' bene, atterra nei dintorni della 6900 xt, che per una scheda con un chip così shrinkato rispetto alle 7900 xt/x non è poco.
Darebbe abbastanza filo da torcere alla 4070, anzi in raster dovrebbe andare anche meglio.
Ale55andr0
03-04-2023, 21:36
Mah, una 7800xt che va come una 3070 in RT non mi pare una genialata, la 6800xt e la 6900xt erano vicine fra loro, in pratica in RT non sarebbe nemmeno un upgrade rispetto 6800xt, andrebbe uguale, vi pare possibile/sensato che AMD proponga una roba simile? :confused:
StylezZz`
03-04-2023, 21:55
Mah, una 7800xt che va come una 3070 in RT non mi pare una genialata, la 6800xt e la 6900xt erano vicine fra loro, in pratica in RT non sarebbe nemmeno un upgrade rispetto 6800xt, andrebbe uguale, vi pare possibile/sensato che AMD proponga una roba simile? :confused:
Certo che è possibile, guarda cosa propone nvidia :asd:
sniperspa
03-04-2023, 21:59
Eh avrei dovuto cambiare la scheda quest'anno invece che l'anno scorso :doh:
Ci sono sempre quelli che hanno comprato delle 580 a 3-400€ un anno due fa :asd:
mikael84
03-04-2023, 22:24
Mah, una 7800xt che va come una 3070 in RT non mi pare una genialata, la 6800xt e la 6900xt erano vicine fra loro, in pratica in RT non sarebbe nemmeno un upgrade rispetto 6800xt, andrebbe uguale, vi pare possibile/sensato che AMD proponga una roba simile? :confused:
La 6800xt la passa in RT, la 7800xt avrà il 28,5% di ray e shader in meno.
Ipotizzando uno scaling effettivo del 20%, dovrebbe allinearsi mediamente alla 6950xt
https://www.hwupgrade.it/articoli/6448/media-rt.png
Aggiungo, navi32, tra affinamenti e chippetto, potrebbe anche clockare qualcosa in più e recuperare un tanto di perf.
StylezZz`
03-04-2023, 22:48
Ci sono sempre quelli che hanno comprato delle 580 a 3-400€ un anno due fa :asd:
Le RX 580 a quel prezzo erano un affare, pensa a chi ha comprato le 1650 :D
Gundam1973
03-04-2023, 23:26
Le RX 580 a quel prezzo erano un affare, pensa a chi ha comprato le 1650 :D
La 590 che ho passato sul muletto, Gigabyte OC qualcosa biventola la pagai 200/220...e sull'amazzone manco da un negozio pinco pallo qualsiasi...
StylezZz`
04-04-2023, 00:13
La 590 che ho passato sul muletto, Gigabyte OC qualcosa biventola la pagai 200/220...e sull'amazzone manco da un negozio pinco pallo qualsiasi...
Trovarle in quel periodo a 200 era una cosa più unica che rara, che cu:ciapet: su amzn poi.
Gundam1973
04-04-2023, 00:30
Trovarle in quel periodo a 200 era una cosa più unica che rara, che cu:ciapet: su amzn poi.
no no...prima...avevo frainteso il discorso...
StylezZz`
04-04-2023, 00:45
no no...prima...avevo frainteso il discorso...
ahhhh ok, pure io a fine 2019 avevo preso una 590 Nitro+ a 200€.
ninja750
04-04-2023, 09:12
La 6800xt la passa in RT, la 7800xt avrà il 28,5% di ray e shader in meno.
Ipotizzando uno scaling effettivo del 20%, dovrebbe allinearsi mediamente alla 6950xt
Aggiungo, navi32, tra affinamenti e chippetto, potrebbe anche clockare qualcosa in più e recuperare un tanto di perf.
appunto. prestazioni 6950XT al prezzo attuale 6950XT (750€ oggi su trovaprezzi) due anni e mezzo dopo sarebbe un FAIL
non sarebbe stato fail se si chiamasse 7700XT a 499$ MSRP (550€ street?) ma a quel punto quella 7900XT sarebbe dovuta essere chiamata 7800XT e la 7900XTX magari 7900XT come ci raccontiamo da mesi
Gyammy85
04-04-2023, 10:30
Si dai facciamo che va' come una 7900 xt. :asd:
Se va' bene, atterra nei dintorni della 6900 xt, che per una scheda con un chip così shrinkato rispetto alle 7900 xt/x non è poco.
Darebbe abbastanza filo da torcere alla 4070, anzi in raster dovrebbe andare anche meglio.
Considerando che la 4070 sembra essere allineata alla 3080, la 7800 dovrebbe andare tenednzialmente come una 6900xt almeno, cioè l'arch nuova porta sicuramente almeno un 20% di ipc, e clockerà almeno a 3 ghz, la 6700xt va easy a 2,6 ghz in boost
mikael84
04-04-2023, 12:23
appunto. prestazioni 6950XT al prezzo attuale 6950XT (750€ oggi su trovaprezzi) due anni e mezzo dopo sarebbe un FAIL
non sarebbe stato fail se si chiamasse 7700XT a 499$ MSRP (550€ street?) ma a quel punto quella 7900XT sarebbe dovuta essere chiamata 7800XT e la 7900XTX magari 7900XT come ci raccontiamo da mesi
E' dalla notte dei tempi che sto ripetendo sempre la stessa cosa per entrambe.:p
Il fatto, "se si fosse chiamata 7700xt"... navi 32 è una x70, come lo era navi22 che gli succede non x80.
Il die è da 200mm2, non so se mi spiego.
Sia nvidia che AMD, salvo le schede di punta, stanno praticamente rebrandando in perf, le vecchie schede con qualche aggiunta.
Ed in fascia bassa è ancora peggio.
Chi vuole upgradare, deve salire di fascia, chi ha una 6700xt deve prendere questa, chi ha 6800, deve andare di 7900 e così via.
Ale55andr0
04-04-2023, 12:38
appunto. prestazioni 6950XT al prezzo attuale 6950XT (750€ oggi su trovaprezzi) due anni e mezzo dopo sarebbe un FAIL
che è esattamente lo schifo che sta facendo nvidia con la 4070. Invero con tutte le schede sino alla 80.
alethebest90
04-04-2023, 13:11
e poi sul sondaggio di marzo di steam vedi che quello schifo di RTX 3050 è piu utilizzata rispetto alla prima della controparte amd che non si sa manco quale sia, forse le APU
NVIDIA GeForce RTX 3060 10.67%
NVIDIA GeForce RTX 3050 1.97%
AMD Radeon Graphics 1.23%
AMD Radeon RX 580 0.75% (questa è tra le piu utilizzate riconoscibili)
il resto è tutto verde :rolleyes:
so che non è la legge questo sondaggio e magari molti non lo fanno neppure
e poi sul sondaggio di marzo di steam vedi che quello schifo di RTX 3050 è piu utilizzata rispetto alla prima della controparte amd che non si sa manco quale sia, forse le APU
NVIDIA GeForce RTX 3060 10.67%
NVIDIA GeForce RTX 3050 1.97%
AMD Radeon Graphics 1.23%
AMD Radeon RX 580 0.75% (questa è tra le piu utilizzate riconoscibili)
il resto è tutto verde :rolleyes:
so che non è la legge questo sondaggio e magari molti non lo fanno neppure
Che nvidia domini il mercato non serve il sondaggio di steam per saperlo, è così.
Comunque se come ipotizzo (e non solo io) la 4070 qua si troverà a 700 euro allo scaffale allora AMD deve far trovare la 7700XT a massimo 600 per me per essere appetibile.
Poi che i prezzi siano alti e che è comunque difficile contrastare nvidia ok, ma se te ne esci col prezzo di nvidia non vai da nessuna parte
bagnino89
04-04-2023, 14:41
Che nvidia domini il mercato non serve il sondaggio di steam per saperlo, è così.
Comunque se come ipotizzo (e non solo io) la 4070 qua si troverà a 700 euro allo scaffale allora AMD deve far trovare la 7700XT a massimo 600 per me per essere appetibile.
Poi che i prezzi siano alti e che è comunque difficile contrastare nvidia ok, ma se te ne esci col prezzo di nvidia non vai da nessuna parte
Meno di 600, AMD non ha DLSS 3.0, va meno in RT, ha meno "appeal"... Ma a Lisa sta bene così, AMD non margina con le GPU, ma con altro. Ormai con le GPU, AMD scimmiotta Nvidia e basta, non ha una "vision"...
nessuno29
04-04-2023, 15:16
Meno di 600, AMD non ha DLSS 3.0, va meno in RT, ha meno "appeal"... Ma a Lisa sta bene così, AMD non margina con le GPU, ma con altro. Ormai con le GPU, AMD scimmiotta Nvidia e basta, non ha una "vision"...
Che vision dovrebbe avere, le 6600/6600xt e 6650xt sono di gran lunga superiori alla 3060 eppure lei è prima nel survey steam mentre le 6600 manco 20esime. Amd lato gpu è morta.
bagnino89
04-04-2023, 15:20
Che vision dovrebbe avere, le 6600/6600xt e 6650xt sono di gran lunga superiori alla 3060 eppure lei è prima nel survey steam mentre le 6600 manco 20esime.
Il discorso è lungo, il punto è che Nvidia ha saputo negli anni costruirsi l'immagine di azienda leader nel settore GPU. AMD fa quel che può, ma sono anni che non compete più seriamente lato GPU. Quello che dici tu si verifica semplicemente perché Nvidia è percepito come brand più forte, e quindi anche se AMD propone un prodotto migliore, non riesce comunque ad imporsi. Per cambiare questo stato di cose, AMD dovrebbe proporre GPU enthusiast più potenti delle Nvidia per diverse generazioni, nonché guidare il mercato con proposte innovative (G-Sync, DLSS, RT, frame generation; tutte cose ideate in primis da Nvidia e poi scimmiottate in qualche modo da AMD). Così farebbe capire agli utenti "siamo noi i leader, quelli tosti, non Giacchetta". Ma non è ovviamente facile, perché Nvidia è un'azienda con fatturato di diversi ordini di grandezza superiori ad AMD, nonché leader in settori dove AMD è praticamente assente (es. IA).
Io sono abbastanza stupito dal fatto che probabilmente le RX 7600 (così come anche le RTX 4060) avranno 8GB di VRAM.
Considerando che le console attuali probabilmente sfruttano almeno 10-11GB della loro memoria condivisa solo per la parte video, è probabile che presto 8GB non sarà sufficiente per le texture e ray tracing alla pari delle console, e infatti in alcuni giochi moderni questo incomincia a notarsi già ora.
Intanto però, in termini di potenza pura, schede come la 6600 XT e RTX 3060 Ti sono allo stesso livello della PS5, se non superiori. E presumibilmente, i loro equivalenti di RDNA3 e Lovelace saranno sensibilmente più potenti.
Quindi in pratica, ci si troverà a giocare con i dettagli al massimo... e le texture al minimo :fagiano:
La trovo un po' paradossale come situazione. Possibile che sia AMD che Nvidia ritengano che 8GB siano sufficienti per le schede di fascia mainstream, che sarà sicuramente la più venduta? Oppure pensano che alla gente andrà bene questa situazione?
Anni fa, ricordo che i partner vendevano schede di potenza ridicola ma con quantità di memoria spropositata, puramente per motivi di marketing. Oggi è il contrario :stordita:
Ale55andr0
04-04-2023, 17:05
è probabile che presto 8GB non sarà sufficiente
è già così, e no, non parlo del pessimo porting di the last of us. Una buona "mid" gpu DEVE avere almeno 12gb
alethebest90
04-04-2023, 17:16
è già così, e no, non parlo del pessimo porting di the last of us. Una buona "mid" gpu DEVE avere almeno 12gb
ma la 7600 non è per niente una mid quindi per la sua fascia sono anche troppi. O pensate di voler giocare in 2K ??
ninja750
04-04-2023, 17:42
AMD non ha DLSS 3.0, va meno in RT, ha meno "appeal"...
teoricamente avremo FSR 3.0
sul RT ok
sull'appeal :sofico:
Io sono abbastanza stupito dal fatto che probabilmente le RX 7600 (così come anche le RTX 4060) avranno 8GB di VRAM.
Considerando che le console attuali probabilmente sfruttano almeno 10-11GB della loro memoria condivisa solo per la parte video, è probabile che presto 8GB non sarà sufficiente per le texture e ray tracing alla pari delle console, e infatti in alcuni giochi moderni questo incomincia a notarsi già ora.
è già così, io ho preso da poco la 6650xt e venendo da una 970 pensavo che restando in 1080p 8gb di vram fossero sufficienti ma mi sbagliavo (si giuoca comunque bene, ma con alcuni titoli sono già preso per il collo), tornassi indietro prenderei una 6700xt o una 6800oc
Ale55andr0
04-04-2023, 21:39
è già così, io ho preso da poco la 6650xt e venendo da una 970 pensavo che restando in 1080p 8gb di vram fossero sufficienti ma mi sbagliavo (si giuoca comunque bene, ma con alcuni titoli sono già preso per il collo), tornassi indietro prenderei una 6700xt o una 6800oc
Tornassi indietro io non comprerei nulla e manderei a fare in culo sia nvidia che amd
Tornassi indietro io non comprerei nulla e manderei a fare in culo sia nvidia che amd
ecco ahahah sacra verità
StylezZz`
04-04-2023, 23:52
La trovo un po' paradossale come situazione. Possibile che sia AMD che Nvidia ritengano che 8GB siano sufficienti per le schede di fascia mainstream, che sarà sicuramente la più venduta? Oppure pensano che alla gente andrà bene questa situazione?
Paradossale si, forse hanno in cantiere qualche feature che sgrava la vram?
Tornassi indietro io non comprerei nulla e manderei a fare in culo sia nvidia che amd
In effetti ci sta alla grande :asd: :(
LurenZ87
05-04-2023, 10:22
Tornassi indietro io non comprerei nulla e manderei a fare in culo sia nvidia che amd
Se ti dicessi che mi son rifatto il pc dopo quasi 10 anni (5700X+RTX 3070) ma continuo a giocare sulla Series X, mi prenderesti per pazzo??? :stordita:
Se ti dicessi che mi son rifatto il pc dopo quasi 10 anni (5700X+RTX 3070) ma continuo a giocare sulla Series X, mi prenderesti per pazzo??? :stordita:
Si, ma non per la series x, ma per esserti fatto il pc nuovo...
sono 2/3 mesi che sto monitorando il mercato GPU, ma spendere >300€ per una scheda entry level, che secondo previsioni manterranno lo stesso livello di performance per la prossima generazione, probabilmente aumentando il prezzo, mi fa venir voglia di prendere una xbox series, che con poco sforzo diventa anche una stazione per retrogaming ....
nessuno29
05-04-2023, 19:10
Mi sono fatto il solito giretto tra i top recensori usa, che dire un mostro di potenza e di efficienza, per chi è interessato a farsi una macchina velocissima in gaming è la cpu da scegliere se ci aggiungiamo che il tutto è racchiuso in un chippetto da 80watt è mostruoso.
ops ho sbagliato thread scusatemi
Ale55andr0
05-04-2023, 21:04
Se ti dicessi che mi son rifatto il pc dopo quasi 10 anni (5700X+RTX 3070) ma continuo a giocare sulla Series X, mi prenderesti per pazzo??? :stordita:
sei pazzo già solo per aver preso la 3070 8gb oggi. Sì lo so, pure io, ma almeno erano 2 anni fa e c'era la pandemia :asd:
Se ti dicessi che mi son rifatto il pc dopo quasi 10 anni (5700X+RTX 3070) ma continuo a giocare sulla Series X, mi prenderesti per pazzo??? :stordita:
Sei in buona compagnia, probabilmente prenderò il 7600x + mobo + ram da affiancare alla 6650xt :huh:
alethebest90
06-04-2023, 09:01
Sei in buona compagnia, probabilmente prenderò il 7600x + mobo + ram da affiancare alla 6650xt :huh:
farai sicuramente un ottimo salto anche per upgrade futuri, quella vga viaggia gia tranquilla con un 5600x
farai sicuramente un ottimo salto anche per upgrade futuri, quella vga viaggia gia tranquilla con un 5600x
Il 7600x, non il 5600x, prima ho sbagliato a scrivere e ho editato
alethebest90
06-04-2023, 10:35
Il 7600x, non il 5600x, prima ho sbagliato a scrivere e ho editato
lo so ho letto, è per farti capire che stai andando anche moolto oltre a quello che richiede la scheda. Ho io il 5600x e la rx6600xt come paragone
lo so ho letto, è per farti capire che stai andando anche moolto oltre a quello che richiede la scheda. Ho io il 5600x e la rx6600xt come paragone
:cincin:
Certo che questo problema della VRAM non sarebbe tanto un problema, se Nvidia e AMD offrissero ancora schede con configurazioni di memoria differenti. Ricordo quando potevo scegliere fra la RX 480 da 4GB, oppure spendere qualche euro in più per il modello da 8GB e stare al sicuro più a lungo (ricordo anche quando ho scelto la HD 7850 da 1GB invece che da 2GB, e me ne sono pentito qualche anno dopo).
Come mai hanno smesso di farlo? Troppi costi associati alle rese?
Ale55andr0
07-04-2023, 18:06
Certo che questo problema della VRAM non sarebbe tanto un problema, se Nvidia e AMD offrissero ancora schede con configurazioni di memoria differenti. Ricordo quando potevo scegliere fra la RX 480 da 4GB, oppure spendere qualche euro in più per il modello da 8GB e stare al sicuro più a lungo (ricordo anche quando ho scelto la HD 7850 da 1GB invece che da 2GB, e me ne sono pentito qualche anno dopo).
Come mai hanno smesso di farlo? Troppi costi associati alle rese?
ma non c'è nemmeno bisogno, esci con la ram GIUSTA e basta, che ormai delle GDDR6 18gps costano uno sputo nell'occhio. Non dovrebbe esistere NESSUNA GPU discreta con meno di 12gb già in fascia 3/400, e questo da almeno due anni, non da oggi. Fine.
mikael84
07-04-2023, 18:38
ma non c'è nemmeno bisogno, esci con la ram GIUSTA e basta, che ormai delle GDDR6 18gps costano uno sputo nell'occhio. Non dovrebbe esistere NESSUNA GPU discreta con meno di 12gb già in fascia 3/400, e questo da almeno due anni, non da oggi. Fine.
E' una questione più complessa, la ram costa pochissimo, 4gb 20$ circa, ma è tutto l'insieme che fa lievitare i costi di realizzo (dal bus, al numero di rese, a die più grandi). Anche se parliamo di poche decine di $.
Sul 128 bit, senza toccare die e bus, puoi utilizzare il clamshell, 40$, ma devi disegnare i PCB per ram fronte e dietro, quindi più complessità, molto più calore.
A questo punto, opti per la 7700xt con 12gb, e sei apposto.
Si riusciranno a bypassare questi limiti con la quadrupla densità, presente nelle nuove g6w di samsung, e speriamo nel g7. Con il costo della ram che cala ancora.
Questo è cmq un aspetto, c'è anche il motivo dell'obsolescenza, e ad oggi, lo spingerti a comprare fasce più alte.:)
Ale55andr0
12-04-2023, 15:55
vediamo come risponderà al roito chiamato 405...ehm 4070 Lisona
Andy1111
12-04-2023, 18:00
https://www.youtube.com/watch?v=yBKKR4swcEE
R9 290X vs GTX 780Ti nel 2022
OrazioOC
12-04-2023, 18:33
https://www.youtube.com/watch?v=yBKKR4swcEE
R9 290X vs GTX 780Ti nel 2022
Vabbe' sulle gtx kepler spari sulla croce rossa, già da maxwell in poi non sono invecchiate così male.
Comunque la 290x signora scheda in retrospettiva, e tutt'ora potrebbe far girare in full hd giochini per niente leggeri. :asd:
ninja750
13-04-2023, 11:06
vediamo come risponderà al roito chiamato 405...ehm 4070 Lisona
non si può presentare più nulla eh? :asd: solo "rispondere" :asd:
ma tanto sai già tutto: no DLSS3, minori prestazioni RT, più vram ma tanto chi gioca a TLOU, FSR3 ma DLSS3 è meglio, costa meno ma i driver sono peggiori
spero di non aver dimenticato nulla
OrazioOC
13-04-2023, 11:40
https://videocardz.com/newz/amd-unveils-radeon-pro-w7900-48gb-and-pro-w7800-32gb-rdna3-workstation-gpus
Ok la w7900 è la "nostra" 7900 xtx, però e dico però, la w7800 ancora non si è mai vista da noi.
Da vedere se l'hanno ricavata partendo da navi 32(l'ipotetico chip della prossima 7800/7700 xt) oppure se anche questa è un cut ulteriore di navi 31 della 7900 xt/x. Propenderei di più per la seconda opzione però.:rolleyes:
Gyammy85
13-04-2023, 12:05
non si può presentare più nulla eh? :asd: solo "rispondere" :asd:
ma tanto sai già tutto: no DLSS3, minori prestazioni RT, più vram ma tanto chi gioca a TLOU, FSR3 ma DLSS3 è meglio, costa meno ma i driver sono peggiori
spero di non aver dimenticato nulla
No CUDA :O
Gyammy85
13-04-2023, 12:06
https://videocardz.com/newz/amd-unveils-radeon-pro-w7900-48gb-and-pro-w7800-32gb-rdna3-workstation-gpus
Ok la w7900 è la "nostra" 7900 xtx, però e dico però, la w7800 ancora non si è mai vista da noi.
Da vedere se l'hanno ricavata partendo da navi 32(l'ipotetico chip della prossima 7800/7700 xt) oppure se anche questa è un cut ulteriore di navi 31 della 7900 xt/x. Propenderei di più per la seconda opzione però.:rolleyes:
Da notare i 295 watt di tbp, questa è la vera rdna3 mi sa
No non è un cut, il bus è a 256 bit, quindi probabilmente navi 32
260 watt 70 cu sarebbe perfetta, anche se i rumor parlano di 60, ci starebbe pure alzando i clock
ninja750
13-04-2023, 12:19
scaling del path tracing con 7900XTX
https://i.postimg.cc/s2dytY3d/path.png
insomma, per vedere meglio basta vedere peggio :O :O
mikael84
13-04-2023, 12:23
https://videocardz.com/newz/amd-unveils-radeon-pro-w7900-48gb-and-pro-w7800-32gb-rdna3-workstation-gpus
Ok la w7900 è la "nostra" 7900 xtx, però e dico però, la w7800 ancora non si è mai vista da noi.
Da vedere se l'hanno ricavata partendo da navi 32(l'ipotetico chip della prossima 7800/7700 xt) oppure se anche questa è un cut ulteriore di navi 31 della 7900 xt/x. Propenderei di più per la seconda opzione però.:rolleyes:
E' RDNA31 devastata. Ogni SE integra 1024 shader, x4 fanno massimo 4096.
Se metti 2 DCU in più per SE, vai a 5120. Livello da RDNA31:)
OrazioOC
13-04-2023, 12:26
E' RDNA31 devastata. Ogni SE integra 1024 shader, x4 fanno massimo 4096.
Se metti 2 DCU in più per SE, vai a 5120. Livello da RDNA31:)
Come temevo, siamo ancora lontani da avere una gpu navi 32. :rolleyes:
Gyammy85
13-04-2023, 14:01
E' RDNA31 devastata. Ogni SE integra 1024 shader, x4 fanno massimo 4096.
Se metti 2 DCU in più per SE, vai a 5120. Livello da RDNA31:)
Ok ma il bus a 256? Pure la 6800 è devastata ma ha lo stesso bus delle full
mikael84
13-04-2023, 14:11
Come temevo, siamo ancora lontani da avere una gpu navi 32. :rolleyes:
Penso di si, dai rumour paiono più vicine la 33 che le 32.
Ok ma il bus a 256? Pure la 6800 è devastata ma ha lo stesso bus delle full
Segato, come è segato quello della 7900xt.
Con 4 SE puoi infilare o 4096 shader o 5120, come li infili quegli shader, non è che fai i SE dispari.:p
Gyammy85
13-04-2023, 17:02
Penso di si, dai rumour paiono più vicine la 33 che le 32.
Segato, come è segato quello della 7900xt.
Con 4 SE puoi infilare o 4096 shader o 5120, come li infili quegli shader, non è che fai i SE dispari.:p
Allora lo seghiamo ancora e facciamo pure la entry con navi 31, che discorsi sono? Allora non doveva passare a 256 ma a 192
Amd non diffonde i dati del chip quindi non è niente di sicuro
mikael84
13-04-2023, 17:27
Allora lo seghiamo ancora e facciamo pure la entry con navi 31, che discorsi sono? Allora non doveva passare a 256 ma a 192
Amd non diffonde i dati del chip quindi non è niente di sicuro
Ma se è scritto da tutte le parti che è navi31.:p
https://wccftech.com/amd-radeon-pro-w7900-48-gb-w7800-32-gb-rdna-3-workstation-gpus-official-half-the-cost-of-nvidia-rtx-6000-ada/
la RTX A5000 su GA102 non l'hai mai sentita?
Per avere quegli shader devi portare i CU a 5120 shader, 1280 x 4 = 5120 e tagliarli. A sto punto fosse navi32, sarebbe stata full per il pro.
1152 shader x4 fanno 4608, ma che fai il SE da 9 DCU?:p Uno da solo?
Poi si può inventare di tutto, ma sinceramente mi pare davvero strano.:asd:
Gyammy85
13-04-2023, 17:32
Ma se è scritto da tutte le parti che è navi31.:p
https://wccftech.com/amd-radeon-pro-w7900-48-gb-w7800-32-gb-rdna-3-workstation-gpus-official-half-the-cost-of-nvidia-rtx-6000-ada/
la RTX A5000 su GA102 non l'hai mai sentita?
Per avere quegli shader devi portare i CU a 5120 shader, 1280 x 4 = 5120 e tagliarli. A sto punto fosse navi32, sarebbe stata full per il pro.
1152 shader x4 fanno 4608, ma che fai il SE da 9 DCU?:p Uno da solo?
Poi si può inventare di tutto, ma sinceramente mi pare davvero strano.:asd:
E sto cut spunta solo ora, boh
mikael84
13-04-2023, 17:41
E sto cut spunta solo ora, boh
Beh si, non ci vedo nulla di strano, riciclano i chip.
Ad esempio la RTXA5000 su GA102, uscito dopo un anno, ha 8192cc e 256bit, hai mai visto un chip simile gaming?
Ricicli su ricicli.
Poi ripeto, se AMD ci sorprende in corsa, rivedendo i chip, tutto può essere, ma lo vedo, molto ma molto strano.:)
A 5120 shader più clockata, andrebbe più di una 7900xt, e i SE a 9, sono letteralmente impossibili (sono accoppiatti).
Gyammy85
13-04-2023, 18:13
Beh si, non ci vedo nulla di strano, riciclano i chip.
Ad esempio la RTXA5000 su GA102, uscito dopo un anno, ha 8192cc e 256bit, hai mai visto un chip simile gaming?
Ricicli su ricicli.
Poi ripeto, se AMD ci sorprende in corsa, rivedendo i chip, tutto può essere, ma lo vedo, molto ma molto strano.:)
A 5120 shader più clockata, andrebbe più di una 7900xt, e i SE a 9, sono letteralmente impossibili (sono accoppiatti).
Comunque la cosa più interessante è il consumo di 295 watt contro i 355 della xtx a parità o quasi di tf
Comunque la cosa più interessante è il consumo di 295 watt contro i 355 della xtx a parità o quasi di tf
Quello potrebbe derivare semplicemente da un binning e selezione diversa dei chip per il mercato pro.
Ale55andr0
14-04-2023, 18:26
non si può presentare più nulla eh? :asd: solo "rispondere" :asd:
ma tanto sai già tutto: no DLSS3, minori prestazioni RT, più vram ma tanto chi gioca a TLOU, FSR3 ma DLSS3 è meglio, costa meno ma i driver sono peggiori
spero di non aver dimenticato nulla
Diciamo che:
-DLSS: me ne batto il ca.. Anche di FSR, SIA CHIARO :read:
-RT: premettendo che è praticamente ingiocabile a meno di non avere un MOSTRO (ripeto, le fake res NON le considero quindi parlo di performance native) diciamo che mi voglio raccontare la palla che un po' come la 6750 "tirata" non è lontana dalla 6800 liscia overall magari la 7800 non sarà distante dalla 7900 liscia, pardon, xt (che è posizionata col culo), quindi sempre un pseudo-simil 3080 in RT "per quelle volte che ci si vuole far del male" o fare due screen :asd:. Da quel che si dice è una 6900xt, ma dovrà pur avere un RT un pelo meglio no? :cry:
-16Gb mi interessano UN TOT :asd:
aggiungo:
- niente connettori del ca.. (si, so che la 4070 non lo ha ma proprio non riesco a guardare sotto la 4070ti, vedere il tear down della 4070 ha lasciato il segno :asd:)
-prezzo FORSE un pelo più basso giusto per combattere meglio la 4070. Il che aggiunto ai 16 gigi...:fagiano:
-driver non so che dire, c'è chi si lagna, chi no, come sempre, diciamo un crash ogni ora di gioco potrei sopportarlo, ogni 5 minuti no, come mi devo tarare, ne sapete di più? :asd:. Mi infastidiscono più semmai i consumi più alti in idle delle 7900 di cui leggo ma suppongo che quella cmq berrà meno a priori
anyway, senza farMI promesse, potrei, e sottolineo, potrei a LIMITE vedere se riesco(uscirò nel futuro prossimo) a prendere quella posizionata col culo (7900XT) se l'amico del cugino del fratello del cognato col negozio di PC può farmi un buon prezzo, così ci sono 20gigi, in RT è una 3080 "sicuro" e nei giochi che lo hanno "leggero" si può abbozzarlo, amen.
Windtears
14-04-2023, 19:22
-driver non so che dire, c'è chi si lagna, chi no, come sempre, diciamo un crash ogni ora di gioco potrei sopportarlo, ogni 5 minuti no, come mi devo tarare, ne sapete di più? :asd:. Mi infastidiscono più semmai i consumi più alti in idle delle 7900 di cui leggo ma suppongo che quella cmq berrà meno a priori
anyway, senza farMI promesse, potrei, e sottolineo, potrei a LIMITE vedere se riesco(uscirò nel futuro prossimo) a prendere quella posizionata col culo (7900XT) se l'amico del cugino del fratello del cognato col negozio di PC può farmi un buon prezzo, così ci sono 20gigi, in RT è una 3080 "sicuro" e nei giochi che lo hanno "leggero" si può abbozzarlo, amen.
chi si lagna dei driver amd, nel 2023 (ma anche dal 2021) o:
gioca roba craccata
gioca roba ottimizzata male per PC
ha un sistema instabile per qualche motivo (oc, windows non originale, pc compromesso, bloatware ecc.)
se nemmeno cyberpunk all'uscita mi crashava su una 5700xt direi che puoi stare in una botte di ferro e ultimamente le ottimizzazioni dei giochi arrivano al day one (o prima vedi last of us).
poi nessun software è perfetto e magari qualche crash potrà capitare sulla roba appena uscita, ma la colpa spesso è da ricercarsi altrove ovvero nel gioco stesso. :(
io ho proprio la scheda posizionata col culo, talmente tanto da essermi costata 200e meno della xtx all'uscita e per il 1440p essermi più che d'avanzo tanto d'averla underclockata e undervoltata anche se per ora la roba più recente che sto giocando è borderlands 3 o Elden Ring (uno vecchio e l'altro cappato a 60 pure con i raggididdddio).
Ora ho più vram che ram sul sistema. :asd:
per ora si trova a 850€ su amazon dal solito vendor xfx, per ora mi pare meglio posizionata della xtx sopra i mille, ma vedi il cuGGino che prezzo può farti. ;)
Andy1111
14-04-2023, 20:00
Io mi tengo la 6900 xt che poi a liquido fa sempre qualcosa in più di una custom ad aria.
Ale55andr0 ma ti conviene una 7900 xt ? certo se riesci a prenderla tipo 700/800 max da tuo cugino nulla da dire, altrimenti puoi tranquillamente trovare in giro 6900/6950 tra i 650/700€
A me queste 7900 non fanno impazzire e consumano troppo
Riguardo i driver parlo per me, io due anni che la ho non mai avuto grossi problemi
Ale55andr0
14-04-2023, 20:32
Io mi tengo la 6900 xt che poi a liquido fa sempre qualcosa in più di una custom ad aria.
Ale55andr0 ma ti conviene una 7900 xt ? certo se riesci a prenderla tipo 700/800 max da tuo cugino nulla da dire, altrimenti puoi tranquillamente trovare in giro 6900/6950 tra i 650/700€
A me queste 7900 non fanno impazzire e consumano troppo
Riguardo i driver parlo per me, io due anni che la ho non mai avuto grossi problemi
Ma infatti io voglio vedere la 7800 come va...
ColdWarGuy
16-04-2023, 14:45
Diciamo che:
-DLSS: me ne batto il ca.. Anche di FSR, SIA CHIARO :read:
-RT: premettendo che è praticamente ingiocabile a meno di non avere un MOSTRO (ripeto, le fake res NON le considero quindi parlo di performance native) diciamo che mi voglio raccontare la palla che un po' come la 6750 "tirata" non è lontana dalla 6800 liscia overall magari la 7800 non sarà distante dalla 7900 liscia, pardon, xt (che è posizionata col culo), quindi sempre un pseudo-simil 3080 in RT "per quelle volte che ci si vuole far del male" o fare due screen :asd:. Da quel che si dice è una 6900xt, ma dovrà pur avere un RT un pelo meglio no? :cry:
-16Gb mi interessano UN TOT :asd:
aggiungo:
- niente connettori del ca.. (si, so che la 4070 non lo ha ma proprio non riesco a guardare sotto la 4070ti, vedere il tear down della 4070 ha lasciato il segno :asd:)
-prezzo FORSE un pelo più basso giusto per combattere meglio la 4070. Il che aggiunto ai 16 gigi...:fagiano:
-snip
Se, riguardo ai 16GB di VRAM, ti riferisci al comportamento della tua 3070 con TLOU ti posso dire due cose :
1) dopo le ultime patch non ho più crash o evidenti rallentamenti neanche con le texture settate a cannone su 3440x1440, ovviamente con DLSS acceso. è ormai evidente che tale "giuoco" non fa testo.
2) hai una combinazione CPU / MOBO completamente inadeguata, te lo hanno già detto alla noia ma se pensi di prendere una nuova GPU tenendo quel processore butti via i soldi, nel frattempo stai sicuro che la 3070 ti stà girando di m****a.
Ho avuto anch'io un 1700, preso per compilare codice con GCC e provato per curiosità nel gaming ... gran cesso già con una 1080, figuriamoci una 3070 ;)
E non stò parlando solo di FPS ma di scarsa fluidità, stutter, attese di carimento, in poche parole inadatto allo scopo, questo già nel 2017.
Come PC primario ho un 12700K a default con 32GB di DDR4 ordinarie e con la 3070 ho un'estrema fluidità anche a FPS bassi sulla maggior parte dei giochi, parlando ad esempio del famigerato CP2077 a 3440x1440, setting ULTRA e DLSS / FSR OFF in raster puro mi fa 48FPS medi :
https://i.postimg.cc/4NXmxVk6/RASTER-ULTRA.png
stessi settings con RT acceso a chiodo e DLSS AUTO ne fa 43 :
https://i.postimg.cc/dQGDmnjP/RASTER-ULTRA-RT-DLSS.png
L'unico upgrade sensato sarebbe almeno una 4080 oppure, se uno fosse sicuro che l'RT non è in cima alle priorità, una RX 7900 XTX, con i prezzi che sappiamo ...
Per la cronaca ho anche provato a fare un'ora di gioco con il path tracing acceso ed ho scoperto che pur stando attorno ai 25-27 FPS (DLSS balanced) il game è decentemente reattivo/giocabile e mi sono anche divertito, malgrado il genere non sia il mio.
Io sono il primo a dire che i confronti tra prestazioni raster pure e DLSS sono fuorvianti però nel contempo non ne disdegno l'utilizzo, mentre sul frame generator sono moooolto scettico.
Probabilmente sono di bocca buona :D , sò anche che nel club 4080/90 quello che ho appena detto suonerebbe come un'eresia, d'altra parte lo penseri anch'io se avessi superato la soglia psicologica dei 1000-1500 euro per una GPU di intrattenimento :)
Ora sarei veramente curioso di vedere il DLSS 3 all'opera con un 3070, perchè se è vero che è abilitato sulle 4060 ... ;)
devil_mcry
16-04-2023, 14:58
Diciamo che:
-DLSS: me ne batto il ca.. Anche di FSR, SIA CHIARO :read:
-RT: premettendo che è praticamente ingiocabile a meno di non avere un MOSTRO (ripeto, le fake res NON le considero quindi parlo di performance native) diciamo che mi voglio raccontare la palla che un po' come la 6750 "tirata" non è lontana dalla 6800 liscia overall magari la 7800 non sarà distante dalla 7900 liscia, pardon, xt (che è posizionata col culo), quindi sempre un pseudo-simil 3080 in RT "per quelle volte che ci si vuole far del male" o fare due screen :asd:. Da quel che si dice è una 6900xt, ma dovrà pur avere un RT un pelo meglio no? :cry:
-16Gb mi interessano UN TOT :asd:
aggiungo:
- niente connettori del ca.. (si, so che la 4070 non lo ha ma proprio non riesco a guardare sotto la 4070ti, vedere il tear down della 4070 ha lasciato il segno :asd:)
-prezzo FORSE un pelo più basso giusto per combattere meglio la 4070. Il che aggiunto ai 16 gigi...:fagiano:
-driver non so che dire, c'è chi si lagna, chi no, come sempre, diciamo un crash ogni ora di gioco potrei sopportarlo, ogni 5 minuti no, come mi devo tarare, ne sapete di più? :asd:. Mi infastidiscono più semmai i consumi più alti in idle delle 7900 di cui leggo ma suppongo che quella cmq berrà meno a priori
anyway, senza farMI promesse, potrei, e sottolineo, potrei a LIMITE vedere se riesco(uscirò nel futuro prossimo) a prendere quella posizionata col culo (7900XT) se l'amico del cugino del fratello del cognato col negozio di PC può farmi un buon prezzo, così ci sono 20gigi, in RT è una 3080 "sicuro" e nei giochi che lo hanno "leggero" si può abbozzarlo, amen.
il tutto con il 1700x ? :asd:
OrazioOC
16-04-2023, 17:49
https://videocardz.com/newz/amd-rx-7900-xt-drops-to-779-geforce-rtx-40-and-radeon-7000-series-now-available-at-or-below-msrp
Più passa il tempo e meno sono sicuro che vedremo altri chip rdna 3 sulle gpu gaming oltre le 7900 xt/x.:rolleyes:
Windtears
16-04-2023, 20:47
Se, riguardo ai 16GB di VRAM, ti riferisci al comportamento della tua 3070 con TLOU ti posso dire due cose :
1) dopo le ultime patch non ho più crash o evidenti rallentamenti neanche con le texture settate a cannone su 3440x1440, ovviamente con DLSS acceso. è ormai evidente che tale "giuoco" non fa testo.
infatti non è il solo "giuoco"...
https://www.youtube.com/watch?v=Rh7kFgHe21k
anche hogwarts, tales of requiem e altri fanno notare quanto stutteri perché il buffer vram è saturo, soprattutto usato con rt creando il paradosso che la 6800 va di più in alcune circostanze. -.- dove la vram non si satura la 3070 va in rt di più come è logico aspettarsi visti i tensor dedicati.
ovviamente questo vale e varrà per tutte le gpu con meno di 12gb di vram e giochi in ue5 non solo quelle nvidia...
comunque non è il thread "quanta vram mi serve nel 2023" ma delle nuove vga amd.
StylezZz`
16-04-2023, 21:42
infatti non è il solo "giuoco"...
https://www.youtube.com/watch?v=Rh7kFgHe21k
anche hogwarts, tales of requiem e altri fanno notare quanto stutteri perché il buffer vram è saturo, soprattutto usato con rt creando il paradosso che la 6800 va di più in alcune circostanze. -.- dove la vram non si satura la 3070 va in rt di più come è logico aspettarsi visti i tensor dedicati.
ovviamente questo vale e varrà per tutte le gpu con meno di 12gb di vram e giochi in ue5 non solo quelle nvidia...
comunque non è il thread "quanta vram mi serve nel 2023" ma delle nuove vga amd.
Come già fatto presente in altri thread, quel video di hwunboxed fa disinformazione (e non solo lui) riportando risultati che non trovano riscontro con la realtà dei fatti, con la 3070 non ho quei problemi e ho giocato diversi giochi presenti in quella lista...che poi 8GB oggi stiano stretti non ci sono dubbi ma non è così tragico come si fa vedere, mi sembra evidente che molti utubers fanno contenuti per spingere le persone a cambiare scheda video o denigrare il competitor a seconda dei loro interessi.
ColdWarGuy
16-04-2023, 21:44
infatti non è il solo "giuoco"...
https://www.youtube.com/watch?v=Rh7kFgHe21k
anche hogwarts, tales of requiem e altri fanno notare quanto stutteri perché il buffer vram è saturo, soprattutto usato con rt creando il paradosso che la 6800 va di più in alcune circostanze. -.- dove la vram non si satura la 3070 va in rt di più come è logico aspettarsi visti i tensor dedicati.
ovviamente questo vale e varrà per tutte le gpu con meno di 12gb di vram e giochi in ue5 non solo quelle nvidia...
comunque non è il thread "quanta vram mi serve nel 2023" ma delle nuove vga amd.
Forse non è chiara una cosa : dopo la patch 1.0.2.0 TLOU non và più in crash ne stuttera come da video di Hardware Unboxed, è chiaro che il game tentasse di allocare VRAM oltre le capacità della scheda, anche il fenomeno delle texture che appaiono in ritardo è scomparso e sto parlando di 3070 su 3440x1440 con tutto settato a cannone.
Quindi la domanda è : non sapevano della patch (:D) o il video è tendenzioso ?
Se avrò occasione proverò anche l'altro game ma come diceva mikael, il il tizio ha avuto problemi con nvidia, quindi forse una risposta ce la siamo già data.
ColdWarGuy
16-04-2023, 21:46
https://videocardz.com/newz/amd-rx-7900-xt-drops-to-779-geforce-rtx-40-and-radeon-7000-series-now-available-at-or-below-msrp
Più passa il tempo e meno sono sicuro che vedremo altri chip rdna 3 sulle gpu gaming oltre le 7900 xt/x.:rolleyes:
Sbaglio o questi sono i sintomi di una stagnazione ?
Se lo meriterrebero alla grande.
OrazioOC
16-04-2023, 21:52
Sbaglio o questi sono i sintomi di una stagnazione ?
Se lo meriterrebero alla grande.
Che le radeon si vendano "con più fatica" delle rtx purtroppo è assodato, ma che a quasi 6 mesi dalla presentazione delle 7900 xt/x non riescano/vogliano portare altre gpu basate su rdna 3 per me è dovuto anche ad altri fattori.
Mi ricorda molto il periodo vega onestamente, dove nella gamma amd sono coesistite le rx polaris e le vega appunto per diverso tempo.:rolleyes:
Windtears
16-04-2023, 22:12
Quindi la domanda è : non sapevano della patch (:D) o il video è tendenzioso ?
Se avrò occasione proverò anche l'altro game ma come diceva mikael, il il tizio ha avuto problemi con nvidia, quindi forse una risposta ce la siamo già data.
e vabbè ora pure hwunboxed è tendenzioso (sono i primi a consigliare nvidia per rt e dlss non proprio una posizione faziosa)... magari il video non avrà l'ultima patch per tlou ma hogwarts e tales non è che sono "usciti ieri".
comunque torniamo in topic.
Ale55andr0
16-04-2023, 22:52
S
2) hai una combinazione CPU / MOBO completamente inadeguata, te lo hanno già detto alla noia ma se pensi di prendere una nuova GPU tenendo quel processore butti via i soldi, nel frattempo stai sicuro che la 3070 ti stà girando di m****a.
il tutto con il 1700x ? :asd:
ho già detto che se cambio gpu cambio procio. Ora no. Quel roito chiamato 3070 non si merita nemmeno l'odore di nulla di nuovo nel case, non vedo l'ora di togliermela dai cogli@ni. Sbolognarla cmq non sarà facile per nulla, ce ne stanno già a pacchi su subito a prezzi relativamente bassi.
Cmq fa sorridere che si critichi sempre la mia configurazione quando c'è chi abbina 4070ti a proci più vecchi del mio ma marchiati intel e la fa sempre "franca" XD. Ah povera AMD, sempre colpa sua :asd:
StylezZz`
16-04-2023, 23:16
Cmq fa sorridere che si critichi sempre la mia configurazione quando c'è chi abbina 4070ti a proci più vecchi del mio ma marchiati intel e la fa sempre "franca" XD. Ah povera AMD, sempre colpa sua :asd:
Beh...il mio vecchio
[email protected] lo bastonava il 1700x nei giochi :asd:
ColdWarGuy
17-04-2023, 01:58
ho già detto che se cambio gpu cambio procio. Ora no. Quel roito chiamato 3070 non si merita nemmeno l'odore di nulla di nuovo nel case, non vedo l'ora di togliermela dai cogli@ni. Sbolognarla cmq non sarà facile per nulla, ce ne stanno già a pacchi su subito a prezzi relativamente bassi.
Cmq fa sorridere che si critichi sempre la mia configurazione quando c'è chi abbina 4070ti a proci più vecchi del mio ma marchiati intel e la fa sempre "franca" XD. Ah povera AMD, sempre colpa sua :asd:
All'epoca RYZEN 1 la triste realtà era quella, grandi numeri in CB15 ma gaming decisamente triste, a parte questo se consideri la 3070 un roito e non vuoi saperne di usare DLSS / FSR, pensi di trovare "conforto" nelle capacità raster di una ipotetica 7800 ?
Probabilmente devi puntare da subito alla sorella maggiore, ma come sappiamo siamo anche lì attorno alle 9 "gambe".
In raster passa la 4070 Ti in tutte le risoluzioni e con i 20 giggi la fissa della VRAM è subita curata.
https://i.postimg.cc/qvwbHvCc/relative-performance-2560-1440.png
ColdWarGuy
17-04-2023, 02:15
Che le radeon si vendano "con più fatica" delle rtx purtroppo è assodato, ma che a quasi 6 mesi dalla presentazione delle 7900 xt/x non riescano/vogliano portare altre gpu basate su rdna 3 per me è dovuto anche ad altri fattori.
Magari hanno già tutto pronto nel cassetto ed aspettano di vedere come vende NVIDIA per calibrare i prezzi, però così parecchi clienti li perdi per strada.
Mi ricorda molto il periodo vega onestamente, dove nella gamma amd sono coesistite le rx polaris e le vega appunto per diverso tempo.:rolleyes:
C'è da dire che in quel periodo è partito il delirio del mining ed ogni logica è saltata, comunque se la 7900 XT scendesse a 700 euro secondo me diventerebbe interessante, a patto di non essere malati di RT :
https://i.postimg.cc/XvVw3K0X/relative-performance-2560-1440.png
https://i.postimg.cc/0jgYTT51/cyberpunk-2077-rt-2560-1440.png
Ale55andr0
17-04-2023, 08:16
a 699 la 7900XT diverrebbe molto interessante, ma nvidia risponderebbe e sarebbe punto e a capo anche se, meglio per tutti noi acquirenti, a prescindere dal colore che interessa. Non ho cmq capito se della 7800XT si sa qualcosa di ufficiale direttamente da AMD, cioè se è ha una roadmap nota e una finestra di lancio (no illazioni)
Che le radeon si vendano "con più fatica" delle rtx purtroppo è assodato, ma che a quasi 6 mesi dalla presentazione delle 7900 xt/x non riescano/vogliano portare altre gpu basate su rdna 3 per me è dovuto anche ad altri fattori.
Mi ricorda molto il periodo vega onestamente, dove nella gamma amd sono coesistite le rx polaris e le vega appunto per diverso tempo.:rolleyes:
Radeon ha perso soldi anche quando piu' era competitiva nei confronti di Nvidia (2008-2011). Attenzione, perso. Nell'epoca in cui aveva quasi conquistato il 50% di marketshare (picco di 45 circa).
Anche in quegli anni in cui Nvidia produceva un architettura peggiore dell'altra faceva soldi a palate e la divisione Radeon no.
Oggi giorno sia per AMD che Nvidia il reparto gaming non e' piu molto rilevante in confronto a quelli data center. Per Nvidia i data center hanno di gran lunga sorpassato il gaming nel 2022. Per AMD la cosa e' successa gia' da anni. Con la prossima guerra per l'intelligenza artificiale le gpu prodotte per i gamer sono sempre meno rilevanti nei dati finanziari AMD/Nvidia.
Le GPU per il gaming sono solo secondarie alle decine/centinaia di migliaia vendute a singoli data center o super computers dove tra l'altro i margini di profitto sono doppi anche a parita' di fatturato (vedasi quanti soldi han fatto con le instinct) molto piu elevati. Ad esempio AMD ha fatturato circa 6 miliardi sia nel gaming che nei data center l'anno scorso, ma nei data center ha fatto molto piu utile dei risicati numeri del gaming (trainati tra l'altro dalle console, non dalle gpu).
Non voglio dire che il PC gaming sia morto, perche' non e' vero, ma non e' piu molto rilevante per gli azionisti Nvidia/AMD. I gamers se vogliono si comprano le gpu ai prezzi che AMD/Nvidia decidono, se i chip non se li comprano i gamer, pazienza.
Non aiuta poi che la gente compri Nvidia anche quando AMD sia stata davvero superiore tante volte (ma su questo AMD stessa non ha aiutato con driver acerbi e un blower reference molto opinabile dai tempi delle 290).
nessuno29
17-04-2023, 09:05
Però è anche vero che da quando mi sono avvicinato a questo hobby nel 2009 sento parlare di driver acerbi, io nella storia ho avuto una 4870x2, la 7870, la rx470 la rx 590 e non ho mai avuto un singolo problema. Ormai sono anni ed anni che i driver amd sono ok, anzi a livello di funzionalità ed estetica hanno anche superato il pannello di nvidia che pare uscito da windows xp. Eppure sta cosa dei driver è stampata nella mente di tutti in modo inspiegabile, addirittura c'è chi ha preso arc rispetto ad amd perché su amd i driver sono instabili ahaha
Erano anni che AMD non era così competitiva come con le 6000 schede davvero ottime, la rtx 3060 però è al 10% steam e costava fino a 3 mesi fa 450 euro la 6600xt la asfalta ed è allo 0.32% costando da mesi 100 euro meno, direi che per AMD in questo settore non c'è più speranza. Quell'aborto di rtx 3050 sta all'1.93% la 6600 che praticamente sta a due fasce prestazionali superiori costando meno è allo 0.32%.
Gyammy85
17-04-2023, 09:47
a 699 la 7900XT diverrebbe molto interessante, ma nvidia risponderebbe e sarebbe punto e a capo anche se, meglio per tutti noi acquirenti, a prescindere dal colore che interessa. Non ho cmq capito se della 7800XT si sa qualcosa di ufficiale direttamente da AMD, cioè se è ha una roadmap nota e una finestra di lancio (no illazioni)
Che vuoi fa non se ne esce, se costano solo poco meno non convengono, se le calano peggio dato che nvidia può calare di più anche se non lo ha mai fatto, non lo fa e non lo farà mai
A me sembra sempre di essere all'indomani del lancio della 2900xt, spiaze
Che vuoi fa non se ne esce, se costano solo poco meno non convengono, se le calano peggio dato che nvidia può calare di più anche se non lo ha mai fatto, non lo fa e non lo farà mai
L'ha fatto tantissime volte a dire il vero calare il prezzo quando AMD lanciava qualcosa di concorrenziale. La serie 200 fu abbassata quando ATI lancio' le 4000, Fermi fu abbassato con le 5000, Kepler e Maxwell videro prezzi abbassati rispondendo ai lanci di AMD.
Ma ormai dall'abbandono dei 28nm io di tagli di prezzo non ne ricordo. Prima le due ondate di mining, poi la pandemia e la mancanza di hardware, non ne hanno mai avuto molto bisogno. La concorrenza prima e' mancata, poi si e' addirittura allineata a fare cartello di prezzi (non vi dimenticate che nel 2008 ATI e Nvidia furono multate perche' facevano cartello di prezzi).
Oggi lo fanno ancora adesso, solo che non hanno bisogno di accordi segreti, si adeguando ai prezzi dell'altro (o meglio, di Nvidia).
ninja750
17-04-2023, 10:32
7900XT a 699€ sarebbe interessante perchè sarebbe nient'altro che quello che è: una 7800XT con l'inflazione di due anni e mezzo dalla 6800XT
ninja750
17-04-2023, 10:46
Però è anche vero che da quando mi sono avvicinato a questo hobby nel 2009 sento parlare di driver acerbi
https://i.postimg.cc/Kvtpz8Lg/photo-2023-04-17-10-43-04.jpg
diciamoci la verità dai
StylezZz`
17-04-2023, 10:56
Ecco un altro bel canale utube da mettere in blacklist :rolleyes:
alethebest90
17-04-2023, 11:51
Ecco un altro bel canale utube da mettere in blacklist :rolleyes:
uff ce ne sono tantissimi da mettere in blacklist
ma tra l'altro l'altro giorno dopo milan - napoli il collega si è messo a parlare di calcio :doh:
Ale55andr0
17-04-2023, 11:57
Che vuoi fa non se ne esce, se costano solo poco meno non convengono, se le calano peggio dato che nvidia può calare di più anche se non lo ha mai fatto, non lo fa e non lo farà mai
A me sembra sempre di essere all'indomani del lancio della 2900xt, spiaze
ti sei perso "ma sarebbe cmq meglio per tutti noi a prescindere dal colore". Ma te devi sempre trovare un trafiletto di un intero post, estrarlo dal contesto, e combatterci i tuoi demoni interiori :asd:
7900XT a 699€ sarebbe interessante perchè sarebbe nient'altro che quello che è: una 7800XT con l'inflazione di due anni e mezzo dalla 6800XT
https://wccftech.com/asrock-custom-amd-radeon-rx-7900-xtx-7900-xt-drop-below-msrp-available-for-959-779-usd/
piano piano...cmq da noi per ora non fa testo, partono da 850
Ale55andr0
17-04-2023, 12:17
Ecco un altro bel canale yutube da mettere in blacklist :rolleyes:
vederlo il video invece di fermarsi al clickbait? non è affatto una promo della 4070, anzi... a ogni modo il succo a 16:22...
StylezZz`
17-04-2023, 12:25
vederllo il video invece di fermarsi al clickbait? non è affatto una promo della 4070, anzi... a ogni modo il succo a 16:22...
Vorrei evitare di regalare la mia visual ai soliti video clickbait che detesto...in sintesi cosa dice?
Ale55andr0
17-04-2023, 12:45
Vorrei evitare di regalare la mia visual ai soliti video clickbait che detesto...in sintesi cosa dice?
che è "meglio" solo se parliamo del versante tecnologico rispetto le pari fascia AMD (è più efficiente, superiore in rt, DLSS3 etc) ma che resta un prodotto mediocre e che lascia l'amaro in bocca (parole usate letteralmente) e che rispetto la scorsa gen non c'è stata alcuna evoluzione, registrando anzi una sconvenienza di fascia in fascia cambiando gen a un livello mai accaduto prima. Il "ci piaccia o no" è riferito al fatto che nvidia è consapevole di tali vantaggi tecnici e quindi si permette di mettercelo li' da una posizione di leadership con ste politiche commerciali che a loro stessi non piacciono e lasciano, appunto, amarezza
Però è anche vero che da quando mi sono avvicinato a questo hobby nel 2009 sento parlare di driver acerbi, io nella storia ho avuto una 4870x2, la 7870, la rx470 la rx 590 e non ho mai avuto un singolo problema. Ormai sono anni ed anni che i driver amd sono ok, anzi a livello di funzionalità ed estetica hanno anche superato il pannello di nvidia che pare uscito da windows xp. Eppure sta cosa dei driver è stampata nella mente di tutti in modo inspiegabile, addirittura c'è chi ha preso arc rispetto ad amd perché su amd i driver sono instabili ahaha
Erano anni che AMD non era così competitiva come con le 6000 schede davvero ottime, la rtx 3060 però è al 10% steam e costava fino a 3 mesi fa 450 euro la 6600xt la asfalta ed è allo 0.32% costando da mesi 100 euro meno, direi che per AMD in questo settore non c'è più speranza. Quell'aborto di rtx 3050 sta all'1.93% la 6600 che praticamente sta a due fasce prestazionali superiori costando meno è allo 0.32%.
Sai perchè ti poni questa domanda? Semplicemente perchè prima non ti sei posto un'altra domanda. Sono tutti scemi i video giocatori del mondo a comprare Nvidia oppure sono io fortunato a vedere qualcosa di positivo in Amd?
StylezZz`
17-04-2023, 13:20
che è "meglio" solo se parliamo del versante tecnologico rispetto le pari fascia AMD (è più efficiente, superiore in rt, DLSS3 etc) ma che resta un prodotto mediocre e che lascia l'amaro in bocca (parole usate letteralmente) e che rispetto la scorsa gen non c'è stata alcuna evoluzione, registrando anzi una sconvenienza di fascia in fascia cambiando gen a un livello mai accaduto prima. Il "ci piaccia o no" è riferito al fatto che nvidia è consapevole di tali vantaggi tecnici e quindi si permette di mettercelo li' da una posizione di leadership con ste politiche commerciali che a loro stessi non piacciono e lasciano, appunto, amarezza
Sono stati obiettivi, anche se per quanto riguarda l'efficienza aspetterei le controparti RX 7000...rt invece a giudicare dalle 7900 possiamo dare per scontato che saranno indietro. FSR3 ancora non pervenuto.
mistero1982
17-04-2023, 13:34
Sono stati obiettivi, anche se per quanto riguarda l'efficienza aspetterei le controparti RX 7000...rt invece a giudicare dalle 7900 possiamo dare per scontato che saranno indietro. FSR3 ancora non pervenuto.
Nvidia ha cassato la fascia media. E non come prezzo ma come potenza.
Le 4080 ma soprattutto le 4090 sono inaccessibili. Dalle 4070 ti a scendere il nulla cosmico, non fosse stato per le DLSS 3.0 (supportate ma non assolute) e qualche effetto di luccichio sarebbero state da evitare come la peste.
Ale55andr0
17-04-2023, 13:59
Nvidia ha cassato la fascia media.
Nvidia ha devastato tutto cio' che non è una 4090, diciamolo meglio :asd:
mikael84
17-04-2023, 14:01
che è "meglio" solo se parliamo del versante tecnologico rispetto le pari fascia AMD (è più efficiente, superiore in rt, DLSS3 etc) ma che resta un prodotto mediocre e che lascia l'amaro in bocca (parole usate letteralmente) e che rispetto la scorsa gen non c'è stata alcuna evoluzione, registrando anzi una sconvenienza di fascia in fascia cambiando gen a un livello mai accaduto prima. Il "ci piaccia o no" è riferito al fatto che nvidia è consapevole di tali vantaggi tecnici e quindi si permette di mettercelo li' da una posizione di leadership con ste politiche commerciali che a loro stessi non piacciono e lasciano, appunto, amarezza
A pari nanometria nvidia sarà sempre tecnologicamente più avanzata, ma non è questo il punto. Se apri trovaprezzi, che compri di AMD, una 6950 di 3 anni fa da 400 watt? Una 6800xt sempre di 3 anni fa?
Queste schede, come le ampere, andavano prese usate, non certo nuove.
Se invece ci trovassi una 7800xt con perf da 6950, RT migliorato, 16gb di ram, FSR3, sulle 260-280 watt, uno potrebbe anche avere un'alternativa veramente valida. Possiamo anche levare momentaneamente il FSR3, che agevolerebbe anche le ampere.
Invece sta investendo solo sui giochi, per poi dire, guardate la ram che allocano... e sti c...i:p , oltre che vendere i chip col contagocce, per alzare il prezzo, detto da lei.
E' chiaro che JHH così facendo fa quello che vuole.
Ale55andr0
17-04-2023, 14:05
A pari nanometria nvidia sarà sempre tecnologicamente più avanzata, ma non è questo il punto. Se apri trovaprezzi, che compri di AMD, una 6950 di 3 anni fa da 400 watt? Una 6800xt sempre di 3 anni fa?
Queste schede, come le ampere, andavano prese usate, non certo nuove.
Se invece ci trovassi una 7800xt con perf da 6950, RT migliorato, 16gb di ram, FSR3, sulle 260-280 watt, uno potrebbe anche avere un'alternativa veramente valida. Possiamo anche levare momentaneamente il FSR3, che agevolerebbe anche le ampere.
Invece sta investendo solo sui giochi, per poi dire, guardate la ram che allocano... e sti c...i:p , oltre che vendere i chip col contagocce, per alzare il prezzo, detto da lei.
E' chiaro che JHH così facendo fa quello che vuole.
E quello vorrei capire, però l'RT migliorato a vedere bene i numeri della XT in quel frangente non so quanto possa esserlo rispetto una 6900/6950...dovevano farla nascere già come 7800 sta 7900xt imho...in America cmq price drop come ho postato: 779 dollari custom asus 7900XT, ma credo siano offerte degli shop, non tagli ufficiali dle produttore, inoltre qui ancora non si vede nulla, costano 850/900 uguale le 4070ti, pertanto entrambe sconvenientissime. L'upscale/generazione frame non può interessarmi meno di cosi' invece. Il consumo sarà per forza sotto i 300w a priori. La ram idem (16gb) i 12 suppongo li avrà la 7700
StylezZz`
17-04-2023, 14:08
Nvidia ha cassato la fascia media. E non come prezzo ma come potenza.
Le 4080 ma soprattutto le 4090 sono inaccessibili. Dalle 4070 ti a scendere il nulla cosmico, non fosse stato per le DLSS 3.0 (supportate ma non assolute) e qualche effetto di luccichio sarebbero state da evitare come la peste.
Sicuramente, ma purtroppo a giudicare dai rumors sembra che anche AMD farà lo stesso in fascia media.
mikael84
17-04-2023, 14:25
E quello vorrei capire, però l'RT migliorato a vedere bene i numeri della XT in quel frangente non so quanto possa esserlo rispetto una 6900/6950...dovevano farla nascere già come 7800 sta 7900xt imho...in America cmq price drop come ho postato: 779 dollari custom asus 7900XT, ma credo siano offerte degli shop, non tagli ufficiali dle produttore, inoltre qui ancora non si vede nulla, costano 850/900 uguale le 4070ti, pertanto entrambe sconvenientissime. L'upscale/generazione frame non può interessarmi meno di cosi' invece. Il consumo sarà per forza sotto i 300w a priori. La ram idem (16gb) i 12 suppongo li avrà la 7700
perf RT da 6950xt. Sono -28% di shader/ray, che si tradurrà in un -20%. In raster più 6900 liscia. Attenzione però che il calcolo l'ho fatto prendendo la 7900xt, la 7800xt potrebbe clockare qualcosa in più.
In ogni caso, anche su AMD rispetto ai prezzi attuali non cambierà quasi nulla, però darebbe un'alternativa anche in efficienza.
Il chip che potrebbe fare la differenza per soppiantare le 6700 invece è la 7700xt, che partirebbe da 3072/6144 shader, e 12gb, dove nvidia non avrà nulla, se non una sorta di rebrand x70-60ti da 8gb.
Ale55andr0
17-04-2023, 14:31
perf RT da 6950xt.
quindi nessun miglioramento in rt rispetto a questa resterebbe una 3070 in RT....ma ovviamente il confronto corretto è con la 6800xt che sostituisce. Dipenderà molto dal prezzo. Ma tirando le somme con tali premesse più che la 7800xt a 599 sarebbe più interessanti la 7900xt a 699.
ninja750
17-04-2023, 14:42
FSR3 ancora non pervenuto.
tanto anche quando uscirà (vedi comparativa postata) il DLSS3.0 sarà meglio quindi non sarà un fattore discriminante di scelta tra i due marchi
nvidia per il top e amd per chi non se la può permettere :O
mikael84
17-04-2023, 14:42
quindi nessun miglioramento in rt rispetto a questa resterebbe una 3070 in RT....ma ovviamente il confronto corretto è con la 6800xt che sostituisce. Dipenderà molto dal prezzo. Ma tirando le somme con tali premesse più che la 7800xt a 599 sarebbe più interessanti la 7900xt a 699.
Beh non proprio.
https://www.hwupgrade.it/articoli/6448/media-rt.png
Chiaramente, il punto principale è che la 7800xt, farà lo stesso gioco di nvidia. Essendo basata su navi32, con un die da 200mm2 più 4 collegamenti da 30$, è la diretta post 6700 non 6800.
Infatti, si passa da 4608 shader a 3840-7680 (3840 praticamente). Se vogliamo un declass.
In un mondo normale, navi32 dovrebbe costare 470 di MSRP.
nessuno29
17-04-2023, 15:09
Sai perchè ti poni questa domanda? Semplicemente perchè prima non ti sei posto un'altra domanda. Sono tutti scemi i video giocatori del mondo a comprare Nvidia oppure sono io fortunato a vedere qualcosa di positivo in Amd?
Io penso che ormai siano tutti troppo influenzabili, sembrerò un boomer ma youtube ed i content creator hanno fottuto il cervello a 3\4 di mondo
Però è anche vero che da quando mi sono avvicinato a questo hobby nel 2009 sento parlare di driver acerbi, io nella storia ho avuto una 4870x2, la 7870, la rx470 la rx 590 e non ho mai avuto un singolo problema. Ormai sono anni ed anni che i driver amd sono ok, anzi a livello di funzionalità ed estetica hanno anche superato il pannello di nvidia che pare uscito da windows xp. Eppure sta cosa dei driver è stampata nella mente di tutti in modo inspiegabile, addirittura c'è chi ha preso arc rispetto ad amd perché su amd i driver sono instabili ahaha
Erano anni che AMD non era così competitiva come con le 6000 schede davvero ottime, la rtx 3060 però è al 10% steam e costava fino a 3 mesi fa 450 euro la 6600xt la asfalta ed è allo 0.32% costando da mesi 100 euro meno, direi che per AMD in questo settore non c'è più speranza. Quell'aborto di rtx 3050 sta all'1.93% la 6600 che praticamente sta a due fasce prestazionali superiori costando meno è allo 0.32%.
"effetto Nutella", questa cosa non finirà mai, o forse dopo la terza guerra mondiale :asd:
ColdWarGuy
17-04-2023, 16:42
Ecco un altro bel canale utube da mettere in blacklist :rolleyes:
Cosa curiosa è che la "sviolinata" a Nvidia è stata fatta a distanza di qualche giorno dalla recensione sulla 4070, cosa che farebbe pensare ad un fix "suggerito" dal marketing verde.
Ale55andr0
17-04-2023, 16:46
Cosa curiosa è che la "sviolinata" a Nvidia è stata fatta a distanza di qualche giorno dalla recensione sulla 4070, cosa che farebbe pensare ad un fix "suggerito" dal marketing verde.
"mediocre", "lascia l'amaro in bocca", "nessuna evoluzione"...devo ricordarmi di NON farmi fare sviolinate da loro se apro un'azienda tecnologica :asd:
ColdWarGuy
17-04-2023, 17:00
"mediocre", "lascia l'amaro in bocca", "nessuna evoluzione"...devo ricordarmi di NON farmi fare sviolinate da loro se apro un'azienda tecnologica :asd:
Quelle frasi vengono dette in chiusura, per la maggior parte del tempo evidenziano il primato tecnologico di Nvidia contrapposto alla "dormienza" di AMD, da qui il motto in testa al video.
Alodesign
17-04-2023, 17:12
Ma la 7900 XTX che adesso si trova sui 1.100€ è decente come cosa?
Tenendo conto che i prezzi non scenderanno mai, e gli stipendi saliranno con il contagocce.
Ma la 7900 XTX che adesso si trova sui 1.100€ è decente come cosa?
Ihmo ni, francamente considero più indecenti i 350€ che ho speso per la 6650xt, tra l'altro l'ho presa solo perché scarico l'Iva altrimenti avrei lasciato perdere, poi vabbè sono un disperato
Edit. non che la 6650xt vada male, solo che ho preso una scheda "morta" per via della ormai poca Vram
Windtears
17-04-2023, 18:04
provo a tornare mezzo it, visto che si parla di cosa fa amd tecnologicamente oltre a dormire dietro le spalle di nvidia:
https://www.youtube.com/watch?v=TYOkJFOL5jY
una scheda per encode-decode av1 in hardware che parrebbe molto vantaggiosa come costo-consumi lato enterprise (anche home per chi può permetterselo).
non è una vga, ma piuttosto che parlare del solito celolunghismo rosso-verde. :P
nessuno29
17-04-2023, 18:47
provo a tornare mezzo it, visto che si parla di cosa fa amd tecnologicamente oltre a dormire dietro le spalle di nvidia:
https://www.youtube.com/watch?v=TYOkJFOL5jY
una scheda per encode-decode av1 in hardware che parrebbe molto vantaggiosa come costo-consumi lato enterprise (anche home per chi può permetterselo).
non è una vga, ma piuttosto che parlare del solito celolunghismo rosso-verde. :P
Dell'av1 da quando lo ha anche amd non importa più a nessuno la verità è questa.
Ale55andr0
17-04-2023, 19:04
Quelle frasi vengono dette in chiusura, per la maggior parte del tempo evidenziano il primato tecnologico di Nvidia contrapposto alla "dormienza" di AMD, da qui il motto in testa al video.
la "chiusura" dura il 50% del video indici alla mano :D....e che nvidia abbia un primato tecnologico è la verità, dovevano dire che è dietro tecnicamente per non urtare la sensibilità di qualcuno in nome dell'inclusività gpuistica? :asd: L'articolo è proprio a spiegare la cosa: ha un primato tecnologico che le consente di fare certe politiche, che ci piaccia o no appunto, e ai più non piace, loro inclusi.
la "chiusura" dura il 50% del video indici alla mano :D....e che nvidia abbia un primato tecnologico è la verità, dovevano dire che è dietro tecnicamente per non urtare la sensibilità di qualcuno in nome dell'inclusività gpuistica? :asd: L'articolo è proprio a spiegare la cosa: ha un primato tecnologico che le consente di fare certe politiche, che ci piaccia o no appunto, e ai più non piace, loro inclusi.
Si concordo ma considerate sempre che chi si lamenta fa più rumore, ed il web è un'immensa cassa di risonanza.
Considerando che solo l'8% del mercato ha una GPU AMD, i più non sono poi molti, diciamo quindi che ai più piace, poi ci sono quei 10 su 100 che fanno un gran baccano :) .
Ma ben venga, almeno salviamo le apparenze se no altro che monopolio di mercato.
ColdWarGuy
17-04-2023, 20:42
la "chiusura" dura il 50% del video indici alla mano :D....e che nvidia abbia un primato tecnologico è la verità, dovevano dire che è dietro tecnicamente per non urtare la sensibilità di qualcuno in nome dell'inclusività gpuistica? :asd: L'articolo è proprio a spiegare la cosa: ha un primato tecnologico che le consente di fare certe politiche, che ci piaccia o no appunto, e ai più non piace, loro inclusi.
Mah, hanno sentito il bisogno di rettificare due recensioni (70/70 Ti) a tono medio negativo e lo hanno fatto con un titolo che potrebbe sembrare un click bait (di cui loro vanno ghiotti) ma che di fatto viene concettualmente confermato dal video stesso ed a me suona come una secca strambata.
Parliamoci chiaro, qui l'unico vero problema sono i prezzi, perchè se queste schede fossero uscita a 30% meno nessuno avrebbe fiatato e non ci saremmo soffermati più di tanto sulla furbata del naming delle SKU.
Come sempre, è il ghello che comanda.
PS : non gli piace a tal punto che il tizio secco (dei due) si è fatto la WS con la 4090 :-)
Ale55andr0
17-04-2023, 22:01
Mah, hanno sentito il bisogno di rettificare due recensioni (70/70 Ti) a tono medio negativo e lo hanno fatto con un titolo che potrebbe sembrare un click bait (di cui loro vanno ghiotti) ma che di fatto viene concettualmente confermato dal video stesso ed a me suona come una secca strambata.
Parliamoci chiaro, qui l'unico vero problema sono i prezzi, perchè se queste schede fossero uscita a 30% meno nessuno avrebbe fiatato e non ci saremmo soffermati più di tanto sulla furbata del naming delle SKU.
Come sempre, è il ghello che comanda.
PS : non gli piace a tal punto che il tizio secco (dei due) si è fatto la WS con la 4090 :-)
guarda che sulla 4090 non han mai detto che è sovraprezzata, è un prodotto a se high end/pro, e io la penso uguale, vale esattamente quello che costa, sono le altre che stra-costano rispetto a prestazioni/dotazione hardware
ColdWarGuy
17-04-2023, 23:09
guarda che sulla 4090 non han mai detto che è sovraprezzata, è un prodotto a se high end/pro, e io la penso uguale, vale esattamente quello che costa, sono le altre che stra-costano rispetto a prestazioni/dotazione hardware
Mi correggo, anche il socio ha "buildato" con una 4090 :
https://i.postimg.cc/Xqs46DqL/4090.png
OrazioOC
24-04-2023, 09:28
https://videocardz.com/newz/amd-board-partners-expected-to-showcase-radeon-rx-7600-desktop-gpus-at-computex
Da un lato dico alla buon ora(sono passati più di 6 mesi da quando hanno presentato le 7900 xt/x) dall'altro sono preoccupato per navi 32, perchè non c'è traccia e siamo quasi alla fine della prima metà dell'anno. :rolleyes:
ColdWarGuy
24-04-2023, 09:40
https://videocardz.com/newz/amd-board-partners-expected-to-showcase-radeon-rx-7600-desktop-gpus-at-computex
Da un lato dico alla buon ora(sono passati più di 6 mesi da quando hanno presentato le 7900 xt/x) dall'altro sono preoccupato per navi 32, perchè non c'è traccia e siamo quasi alla fine della prima metà dell'anno. :rolleyes:
"The reason is that while AMD wants to launch its Radeon RX 7800 graphics cards at a far better value than the NVIDIA GeForce RTX 4070, you'd have to price it at least the same as the RTX 4070 which retails for $599 US or lower. It looks like that will lead to profitability issues as the card might not make enough profits at that price."
Bella doccia fredda per chi aspettava la 7800 come alternativa alle mid range NVIDIA, magari con 16 giggi.
Ora mi chiedo : ma a quanto la volevano mettere ... ? :rolleyes:
zanflank
24-04-2023, 09:48
"The reason is that while AMD wants to launch its Radeon RX 7800 graphics cards at a far better value than the NVIDIA GeForce RTX 4070, you'd have to price it at least the same as the RTX 4070 which retails for $599 US or lower. It looks like that will lead to profitability issues as the card might not make enough profits at that price."
Bella doccia fredda per chi aspettava la 7800 come alternativa alle mid range NVIDIA, magari con 16 giggi.
Ora mi chiedo : ma a quanto la volevano mettere ... ? :rolleyes:
799$ e mio figlio poteva morire cit.
il tutto con un chip da 7700XT
ColdWarGuy
24-04-2023, 09:52
799$ e mio figlio poteva morire cit.
il tutto con un chip da 7700XT
Bene, che si inc*lino anche loro, vorrà dire che quest'anno mi tengo la 3070 e cambio MTB, per quanto mi riguarda è finito il tempo di buttar via i soldi in prese per il sedere.
OrazioOC
24-04-2023, 09:57
"The reason is that while AMD wants to launch its Radeon RX 7800 graphics cards at a far better value than the NVIDIA GeForce RTX 4070, you'd have to price it at least the same as the RTX 4070 which retails for $599 US or lower. It looks like that will lead to profitability issues as the card might not make enough profits at that price."
Bella doccia fredda per chi aspettava la 7800 come alternativa alle mid range NVIDIA, magari con 16 giggi.
Ora mi chiedo : ma a quanto la volevano mettere ... ? :rolleyes:
Probabile che ancora gli convenga vendere navi 21 anche se scontata, tanto sta sul vecchio 7nm che ormai è un nodo abbastanza ammortizzato. :rolleyes:
Comunque anche qui amd being amd, nvidia il prossimo mese se porta le 4060/ti sul mercato ha praticamente chiuso il cerchio con la lineup delle rtx 4000.
Amd prima che lo chiuda lanciando navi 31/33/32 arriva mesi dopo. :muro:
Gyammy85
24-04-2023, 10:14
"The reason is that while AMD wants to launch its Radeon RX 7800 graphics cards at a far better value than the NVIDIA GeForce RTX 4070, you'd have to price it at least the same as the RTX 4070 which retails for $599 US or lower. It looks like that will lead to profitability issues as the card might not make enough profits at that price."
Bella doccia fredda per chi aspettava la 7800 come alternativa alle mid range NVIDIA, magari con 16 giggi.
Ora mi chiedo : ma a quanto la volevano mettere ... ? :rolleyes:
Come al solito amd è attaccata ai soldi mentre l'onlus rivale si muove sempre alla perfezione :O
La mettessero a 400 euro con un 7800x3d in bundle e ci sto pure rimettendo
MLID ha detto che amd lancerà diverse schede con 16 gb di vram in estate quindi immagino che navi 32 ci sia
ColdWarGuy
24-04-2023, 10:24
Probabile che ancora gli convenga vendere navi 21 anche se scontata, tanto sta sul vecchio 7nm che ormai è un nodo abbastanza ammortizzato. :rolleyes:
Per i miei gusti c'è troppa fila davanti la porta di TSMC, della serie ZERO pianificazione strategica nel settore silicio e visti i tempi di litigio con la Cina questo potrebbe costare molto caro.
Fate conto che anche STM ha spento alcune sue linee con nanometrie molto meno pregiate spostando l'approvigionamento dei relativi prodotti, sui cui io lavoro professionalmente, a Taiwan, con tutti i relativi casini di shortage.
Comunque anche qui amd being amd, nvidia il prossimo mese se porta le 4060/ti sul mercato ha praticamente chiuso il cerchio con la lineup delle rtx 4000.
Amd prima che lo chiuda lanciando navi 31/33/32 arriva mesi dopo. :muro:
Io sono sempre più convinto che sia loro che i verdi intendano cambiare radicalmente l'economia di scala di un fattore 10, stessi introiti di prima ma con molte meno schede vendute, ergo finisce l'era in cui i più cambiano per diletto GPU ad ogni giro o quasi, se non per chi può e vuole stanziare almeno 1000 euro all'anno per un oggetto che non vale più una ciolla dopo pochi anni.
Curiosamente nel settore delle CPU abbiamo la situazione opposta, potenza in eccesso ed un mare di SKU differenti a tutti i prezzi, con imbarazzo della scelta.
ColdWarGuy
24-04-2023, 11:56
Come al solito amd è attaccata ai soldi mentre l'onlus rivale si muove sempre alla perfezione :O
La mettessero a 400 euro con un 7800x3d in bundle e ci sto pure rimettendo
MLID ha detto che amd lancerà diverse schede con 16 gb di vram in estate quindi immagino che navi 32 ci sia
Ora abbiamo la certezza che a questo giro AMD è salita sullo stesso treno dei verdi per quello che concerne la politica dei prezzi, quindi è inutile stare qui ad aspettare schede miracolosamente dotate a prezzi concorrenziali, anche perchè per competere con la 70 Ti i rossi hanno dovuto mettere in campo dei chip con una superficie enorme ed i modelli inferiori soffriranno in rapporto dello stesso problema con relativa ripercussione sui costi.
se la 7600 viene presentata il 30 maggio, significa quindi che la 7800 vedrà i negozi ancora più tardi? Sto aspettando la 7800 per decidere tra lei e la 4070 :|
A64FX+DFI nF4
24-04-2023, 14:10
Forse la 7800 XT (16GB 256bit) sarà basata su un ulteriore cut di navi 31 come la Radeon Pro W7800 e navi 32 sarà destinato alle 7700XT (12GB 192bit) e navi 33 per le 7600XT (8GB 128bit)
Ale55andr0
24-04-2023, 21:49
Come al solito amd è attaccata ai soldi mentre l'onlus rivale si muove sempre alla perfezione :O
La mettessero a 400 euro con un 7800x3d in bundle e ci sto pure rimettendo
MLID ha detto che amd lancerà diverse schede con 16 gb di vram in estate quindi immagino che navi 32 ci sia
Sai perchè con Zen si è presta tanto mercato AMD nei confronti di intel? Prova ad indovinare, il rapporto qualità/prezzo. So che per te è un ragionamento troppo astruso e che porrebbe in serio dubbio il tuo credo esistenziale ma...sai, con un miserabile 8% lato GPU con quella politica potrebbe ottenere un risultato invece di doversi far difendere da un tizio su internet che s'è scordato "la rebellion" :rolleyes:
Ale55andr0
24-04-2023, 22:57
Forse la 7800 XT (16GB 256bit) sarà basata su un ulteriore cut di navi 31 come la Radeon Pro W7800 e navi 32 sarà destinato alle 7700XT (12GB 192bit) e navi 33 per le 7600XT (8GB 128bit)
la verità è che come nvidia 4080=4070
7900XT=7800XT...
OrazioOC
24-04-2023, 23:09
la verità è che come nvidia 4080=4070
7900XT=7800XT...
Nelle economie di scala di un'azienda ci può anche stare, quello che non ci sta nel caso delle amd è fare passare eoni tra il lancio di un chip e un altro, mentre in quello nvidia il salto di performance(e di prezzi) tra le due schede è assurdo. :rolleyes:
Comunque la 7900 xt va' rivalutata come scheda, ha molta più "schiena" della 4070 ti(per vram, bus, tflops sono due gpu molto diverse).
E di certo su una gpu quando si spendono 900 euro toccherebbe iniziare a valutarle certe cose, anche perchè non sono schede da 1440p.
Mentre nella fascia "media" la 4070 la giustifico di più nel suo contesto che non delle 6900/50 xt a prezzi di saldo, che magari in raster vanno qualcosa in più, ma sacrificano consumi, calore, performance in raytracing ecc...:rolleyes:
Ale55andr0
24-04-2023, 23:28
Comunque la 7900 xt va' rivalutata come scheda, ha molta più "schiena" della 4070 ti(per vram, bus, tflops sono due gpu molto diverse).
:
Il problema non è la scheda, è il prezzo, come anche le nvidia, sono tutti vergognosamente gonfiati. E il bello è che a quanto pare non stanno vendendo granchè ma oh, a dire se questi farabutti li avessero ritoccati. Niente, nulla, zero, e non parlo dei cali "fisiologici" attuali fra cambio e disponibilità maggiore che al lancio, parlo proprio di msrp ufficiale, hanno scelto di rendere il pc gaming una roba costosa ed elitaria. Ma se ne vadano a fare in...piuttosto rinuncio a vita, tanto per quei 2-3 giochi annui che giocavo...
A64FX+DFI nF4
25-04-2023, 10:39
la verità è che come nvidia 4080=4070
7900XT=7800XT...
be è evidente che a parte i prezzi
6900XT navi21xtx 999$ -> 7900XTX navi31xtx (7900XT) 999$
6800XT navi21xt 649$ -> 7900XT navi31xt (7800XT) 899$
6800 navi21xl 579$ -> 7800XT? navi31xl (7800) 799$?
quando la 7900xt raggiungerà le <700€ cominceremo a ragionare, comuqnue io aspetto rdna4 per eventualmente cambiare
Il problema non è la scheda, è il prezzo, come anche le nvidia, sono tutti vergognosamente gonfiati. E il bello è che a quanto pare non stanno vendendo granchè ma oh, a dire se questi farabutti li avessero ritoccati. Niente, nulla, zero, e non parlo dei cali "fisiologici" attuali fra cambio e disponibilità maggiore che al lancio, parlo proprio di msrp ufficiale, hanno scelto di rendere il pc gaming una roba costosa ed elitaria. Ma se ne vadano a fare in...piuttosto rinuncio a vita, tanto per quei 2-3 giochi annui che giocavo...
esatto, pure io incomincerò a rinunciare o passare alla Series X più tastiera.
Ryo Hazuki
25-04-2023, 14:15
Series X più tastiera.
lol
Forse la 7800 XT (16GB 256bit) sarà basata su un ulteriore cut di navi 31 come la Radeon Pro W7800 e navi 32 sarà destinato alle 7700XT (12GB 192bit) e navi 33 per le 7600XT (8GB 128bit)
il che spiegherebbe anche il ritardo, se la 7800xt sara' basata sempre su navi31
allora serve tempo per accantonare chip e mitigare i costi di produzione
piu' doveva vedere prima le sku concorrenti quanto vanno e a quale prezzo
c'e' insomma la reale possibilita' che amd insieme ai partner decidono all'ultimo di cancellare il progetto(farebbe la fine della 6800) se non hanno margine
preferendo semplicemente un moderato taglio di prezzo della 7900xt e pompare su navi32/33 con prezzi aggressivi
il che spiegherebbe anche il ritardo
Sono piuttosto sicuro che il "ritardo" derivi dal fatto che ne ad amd ne ad nvidia importi molto di vendere gpu piu piccole ed economiche ai gamer. E' economicamente irrilevante per entrambe le aziende, AMD ancor piu che Nvidia. Entrambe le aziende fanno molti piu soldi con supercomputer e datacenter che non con i videogiocatori come noi.
Spremono felici i polli che pagano 1000+ euro sulle 4000 o che pagavano 800 euro una 1080, ma non hanno molto incentivo a produrre in volumi gpu piu piccole. Anche perche' i margini di profitto nei data center sono molto piu alti.
ninja750
26-04-2023, 10:33
6800 navi21xl 579$ -> 7800XT? navi31xl (7800) 799$?
che con la 6950XT disponibile a 650€ a scaffale sarebbe EOL al DAY1
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.