View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™
Gyammy85
03-05-2024, 11:53
Aridaje con sta storia. La 4070 super va 20-30 fps in più in RT rispetto ad una 7800xt.
https://www.youtube.com/watch?v=wM53zKzTZfg
https://www.youtube.com/watch?v=lJz2NedX7EI
https://www.techpowerup.com/review/nvidia-geforce-rtx-4070-super-founders-edition/35.html
In media la 4070 super va di più in raster della 7800 xt e molto di più in RT. Fonti più o meno autorevoli sopra. Ma perchè devi fare disinformazione così? Ora, hai letto quello che ti ho detto, hai visto il video, apprendi i dati. La prossima volta non mi puoi risaltare fuori con sta cosa. Cioè, una volta che si mostrano i dati, anche basta dai. Non è che si fa finta di nulla e la volta dopo si rifà la stessa disinformazione come se nulla fosse successo.
Detto questo, se vceramente AMD nella fascia media si avvicinerà ad Nvidia come parrebbe, sarebbe un peccato la sua rinuncia alla fascia alta
Si lo so che su cyberpunk ci vuole una nvidia, grazie, ma generalmente io vedo i miei risultati rispetto alle 4070 super e siamo lì, frame in più o in meno, potendo contare su più vram che fa sempre comodo, e una forza bruta anche superiore in molti casi, che se uno ha un monitor veloce si sentono
Come ho detto "it's over" ma riguardo la statistica hw di Steam mi riferivo alla top10:
NVIDIA GeForce RTX 3060
NVIDIA GeForce GTX 1650
NVIDIA GeForce RTX 3060 Ti
NVIDIA GeForce RTX 2060
NVIDIA GeForce RTX 3070
NVIDIA GeForce GTX 1060
NVIDIA GeForce RTX 3060 Laptop GPU
NVIDIA GeForce RTX 4060 Laptop GPU
NVIDIA GeForce RTX 3050
NVIDIA GeForce GTX 1050 Ti
siamo qui a romperci la testa con "la salcazzo super va il 20% in più della pallatoXt" quando il mondo gioca con schede che la maggior parte di noi metterebbe nel citofono :rotfl:
Nessuna 4000, forse non hanno l'account di steam, stanno su jensen play
1) A me non sembra che ci sia quello sconto. Ma poi, se permetti, si sarà anche "rotta" AMD di passare per la sorella sfigata che deve "svendere" le cose. per la questione dei GB ok hai ragione ma se NVIDIA riesce a vendere 12 GB a 900 è colpa sua vero? non di chi la pubblicizza e chi la compra? (che poi magari ne rimane piacevolmente soddisfatto?). I test ci sono e parlano chiaro che il gap performace/money hanno sempre fatto vincere..... la serie 6X000.... quindi di che stiamo parlando?
2) Il marketing muove TUTTO, puoi fare prodotti discreti e fare una campagna marketing mostruosa e vendi!. ma ci vogliono i fatti!
Si lo so che FSR lo usi nei giochi che lo supporti (E funziona bene) ma se NVIDIA lo utilizza come punta di diamente DEVI replicare non promettere fumo!
Esatto...la penso uguale.
Ma nulla mi toglie dalla testa che AMD del gaming gli importa il "giusto".
Non è uno sconto, per prendere una 7800xt o una 7900 gre buona cioè le varie sapphire bastano 530-580 euro, per prendere la scrausa 4070 super devi cacciare 700 euro quasi, a meno che uno non vuole prendere le asus e allora si sale ancora
Se qualcuno compra le 4070ti a 900 euro non vuol dire che è la cosa più figa del mondo, a restare piacevolmente soddisfatti ci vuole poco, come quelli che spendevano 350 euro per la 1650 in periodo stopbuy, ma sai che c'è il gioco parte, wow non me l'aspettavo, bello soddisfatto mi sento :O
La campagna marketing per una scheda video risale probabilmente al 2004 l'ultima, poi più niente, a meno che tu intenda techtuber e gente che va in giro da vent'anni a dire che sta scheda regalata da nvidia è proprio bella, amd non ci ha mandato neanche una 6500xt da testare l'abbiamo dovuta comprare, eppure sono solo due mesi che ci spaliamo il fango sopra, cattivi cattivi
Cutter90
03-05-2024, 11:57
Si lo so che su cyberpunk ci vuole una nvidia, grazie, ma generalmente io vedo i miei risultati rispetto alle 4070 super e siamo lì, frame in più o in meno, potendo contare su più vram che fa sempre comodo, e una forza bruta anche superiore in molti casi, che se uno ha un monitor veloce si sentono
Nessuna 4000, forse non hanno l'account di steam, stanno su jensen play
Non è uno sconto, per prendere una 7800xt o una 7900 gre buona cioè le varie sapphire bastano 530-580 euro, per prendere la scrausa 4070 super devi cacciare 700 euro quasi, a meno che uno non vuole prendere le asus e allora si sale ancora
Se qualcuno compra le 4070ti a 900 euro non vuol dire che è la cosa più figa del mondo, a restare piacevolmente soddisfatti ci vuole poco, come quelli che spendevano 350 euro per la 1650 in periodo stopbuy, ma sai che c'è il gioco parte, wow non me l'aspettavo, bello soddisfatto mi sento :O
La campagna marketing per una scheda video risale probabilmente al 2004 l'ultima, poi più niente, a meno che tu intenda techtuber e gente che va in giro da vent'anni a dire che sta scheda regalata da nvidia è proprio bella, amd non ci ha mandato neanche una 6500xt da testare l'abbiamo dovuta comprare, eppure sono solo due mesi che ci spaliamo il fango sopra, cattivi cattivi
In RT la 4070 super va di più della 7800 xt, non fa "frame più o frame meno": Va di più a molto di più. In TUTTi i giochi con RT.
In raster se tu avessi aperto la Review di Powerup avresti visto che la 7800 xt va meno della 4070 super nella maggior parte dei giochi.
La vram sarà anche "comoda", ma conta zero per ora, i risultati sono lì.
Quindi ci sta tutto spendere quei 150 euro in più per la 4070 super IMHO.
Cmq non so che giochi hai tu, ma i tuoi risultati non coincidono affatto con tutte le recensioni. Ma andiamo avanti....
https://media1.tenor.com/m/Ygq-215oQ8kAAAAd/wanna-marchi-coglioni.gif
scusate la citazione pesante, va presa a ridere eh ;)
ok ma tu hai speso 1000 per una scheda da quasi solo raster...non vedo tanta differenza
Nessuna 4000, forse non hanno l'account di steam, stanno su jensen play
hehehehe ;)
ok ma tu hai speso 1000 per una scheda da quasi solo raster...non vedo tanta differenza
viaggio a 90 fps con le texture a 4k nei giochi bench Nvidia :cool: :O
Nessuna 4000, forse non hanno l'account di steam, stanno su jensen play
La serie 4000 offre davvero poco al gamer mainstream.
Prezzi alti, pochi vantaggi in raster (i giochi online piu popolari non usano RT, e se sono online si disattiva comunque perche' gli fps sono piu importanti).
Se non hai monitor 4k campi tranquillo con gpu piu vecchie.
Su hwupgrade si sottovaluta sempre che i fissati della risoluzione e del dettaglio massimo sono una minoranza dei gamer.
AMD idem ha dato pochi motivi ad aggiornare, chi doveva farlo l'ha fatto con le 5000 e 6000.
StylezZz`
03-05-2024, 12:53
Non è uno sconto, per prendere una 7800xt o una 7900 gre buona cioè le varie sapphire bastano 530-580 euro, per prendere la scrausa 4070 super devi cacciare 700 euro quasi, a meno che uno non vuole prendere le asus e allora si sale ancora
La 4070 Super scrausa la trovi a 600€ spedita.
Sto ancora cercando di capire dove hai visto quei 200-500€ in meno per fascia :stordita:
In RT la 4070 super va di più della 7800 xt, non fa "frame più o frame meno": Va di più a molto di più. In TUTTi i giochi con RT.
In raster se tu avessi aperto la Review di Powerup avresti visto che la 7800 xt va meno della 4070 super nella maggior parte dei giochi.
La vram sarà anche "comoda", ma conta zero per ora, i risultati sono lì.
Quindi ci sta tutto spendere quei 150 euro in più per la 4070 super IMHO.
Cmq non so che giochi hai tu, ma i tuoi risultati non coincidono affatto con tutte le recensioni. Ma andiamo avanti....
Quindi, seguendo la tua logica e quello che hai scritto sul forum, se una 5700xt va il 10% in più di una 2070 in raster, la 2070 è da considerarsi paritaria o uguale. Ma, attenzione entrino siori e siore, se la 7800xt va il 10% meno della 4070super (sempre parlando di raster, non vorrei tu fossi capace di equivocare anche questo) allora quest'ultima va di più. Direi che non fa una piega. E poi non saresti fazioso o di parte? Suvvia la coerenza, manco ti rendi conto di quello che scrivi a distanza di pochi giorni :asd:.
RoUge.boh
03-05-2024, 13:14
https://media1.tenor.com/m/Ygq-215oQ8kAAAAd/wanna-marchi-coglioni.gif
scusate la citazione pesante, va presa a ridere eh ;)
beh ma fino a quando non sai...non puoi dirlo :sofico: (si scherza)
Pero seriamente io di lamentele non è che ne ho sentite dagli utenti comuni e che continuano a consigliare i loro acquisti.
Non è uno sconto, per prendere una 7800xt o una 7900 gre buona cioè le varie sapphire bastano 530-580 euro, per prendere la scrausa 4070 super devi cacciare 700 euro quasi, a meno che uno non vuole prendere le asus e allora si sale ancora
Se qualcuno compra le 4070ti a 900 euro non vuol dire che è la cosa più figa del mondo, a restare piacevolmente soddisfatti ci vuole poco, come quelli che spendevano 350 euro per la 1650 in periodo stopbuy, ma sai che c'è il gioco parte, wow non me l'aspettavo, bello soddisfatto mi sento :O
La campagna marketing per una scheda video risale probabilmente al 2004 l'ultima, poi più niente, a meno che tu intenda techtuber e gente che va in giro da vent'anni a dire che sta scheda regalata da nvidia è proprio bella, amd non ci ha mandato neanche una 6500xt da testare l'abbiamo dovuta comprare, eppure sono solo due mesi che ci spaliamo il fango sopra, cattivi cattivi
Guarda, hai preso le due schede più bilanciate che però agli occhi di un utente comune che viene bombardato dalla pubblicità attiva/passiva NVIDIA preferisce spendere di più per un prodotto, che lui, reputa di qualità.
Anni fa quando proponevo postazioni con AMD tutti mi dicevano NO voglio Intel 1 su 10 si fidava e la risposta era la solita (ho SEMPRE avuto intel, c'è l'hanno tutti ecc..)
Stessa cosa succede adesso l'utente medio usa il pc fino alla "morte" quindi 100€ su un investimento di 1500 e su 8 anni di utilizzo? sai che gli importa?
Si apre un dibattito più profondo che va al di la degli aspetti tecnici.
Io penso come dice Vul AMD sta investendo poco nel settore delle VGA ha slot limitati quindi sta dirottando tutto sul MI300 .
Anche se sono sincero sta gen è stata una sconfitta sotto TUTTI i punti di vista sia AMD che NVIDIA:rolleyes: (non inteso a livello di performace ma inteso a livello di utenti e portafoglio..)
ninja750
03-05-2024, 13:42
Ma, attenzione entrino siori e siore
:help:
Cutter90
03-05-2024, 15:02
Quindi, seguendo la tua logica e quello che hai scritto sul forum, se una 5700xt va il 10% in più di una 2070 in raster, la 2070 è da considerarsi paritaria o uguale. Ma, attenzione entrino siori e siore, se la 7800xt va il 10% meno della 4070super (sempre parlando di raster, non vorrei tu fossi capace di equivocare anche questo) allora quest'ultima va di più. Direi che non fa una piega. E poi non saresti fazioso o di parte? Suvvia la coerenza, manco ti rendi conto di quello che scrivi a distanza di pochi giorni :asd:.
Si, peccato che le differenze non erano proprio queste. Ma molto inferiori, fonte
https://www.techpowerup.com/review/amd-radeon-rx-5700-xt/28.html
Quindi hai già detto una cosa errata.
Ogni modo anche se va il 10% in più va di più eh. Poi ognuno di noi può considerare le differenze marginali.
cmq questo il grafico in raster di Tecnopowerup
https://i.imgur.com/C4LyZUd.png
Ma è inutile che cerchi di spostare il discorso. Si parlava di come la 4070 super andasse uguale e un pelo di più in RT della 7800xt. E questo è sbagliato, come dimostrato. Inutile che tu provi ad attaccarti sul contorno solo per avere una freccia da scagliare.
marbasso
03-05-2024, 16:30
Ambiente sempre scoppiettante qua, fa bene all' umore :)
Ambiente sempre scoppiettante qua, fa bene all' umore :)
:asd:
OvErClOck82
03-05-2024, 17:32
Si, peccato che le differenze non erano proprio queste. Ma molto inferiori, fonte
https://www.techpowerup.com/review/amd-radeon-rx-5700-xt/28.html
Quindi hai già detto una cosa errata.
Ogni modo anche se va il 10% in più va di più eh. Poi ognuno di noi può considerare le differenze marginali.
cmq questo il grafico in raster di Tecnopowerup
https://i.imgur.com/C4LyZUd.png
Ma è inutile che cerchi di spostare il discorso. Si parlava di come la 4070 super andasse uguale e un pelo di più in RT della 7800xt. E questo è sbagliato, come dimostrato. Inutile che tu provi ad attaccarti sul contorno solo per avere una freccia da scagliare.per andare di più va di più, ma che ci sia la tendenza a pesare in modo diverso quel "di più" in base alla situazione è conclamato da decenni :D
per un 10-15% di differenza si passa alternativamente da "distrugge, devasta, obliterahhh!!!!1" a "ma si, vanno più o meno uguali"
lascio a te indovinare in quale caso Nvidia va di più e in quale meno :asd:
Si, peccato che le differenze non erano proprio queste. Ma molto inferiori, fonte
https://www.techpowerup.com/review/amd-radeon-rx-5700-xt/28.html
Quindi hai già detto una cosa errata.
Ogni modo anche se va il 10% in più va di più eh. Poi ognuno di noi può considerare le differenze marginali.
cmq questo il grafico in raster di Tecnopowerup
https://i.imgur.com/C4LyZUd.png
Ma è inutile che cerchi di spostare il discorso. Si parlava di come la 4070 super andasse uguale e un pelo di più in RT della 7800xt. E questo è sbagliato, come dimostrato. Inutile che tu provi ad attaccarti sul contorno solo per avere una freccia da scagliare.
Ma questi sono numeri di magia incredibbili siore e siori :eek:. Siamo passati dal confronto tra 5700xt/2070 del 2024 di hu, alla review originale della 5700xt di tpu del 2019, cosa non si farebbe per far tornare qualche numerello :rolleyes:!
E come mai tra 7800xt e 4070s (raster)non metti il grafichetto delle medie :rolleyes:? Quello non ci piace? Rotta la calcolatrice? Peccato :cry:.
Ma ti prego, illuminami pure con i tuoi dati incontrovertibili, sono qui che aspetto l'abbronzatura, rigorosamente verde mela, fa tendenza quest'anno.
Cutter90
04-05-2024, 08:27
Ma questi sono numeri di magia incredibbili siore e siori :eek:. Siamo passati dal confronto tra 5700xt/2070 del 2024 di hu, alla review originale della 5700xt di tpu del 2019, cosa non si farebbe per far tornare qualche numerello :rolleyes:!
E come mai tra 7800xt e 4070s (raster)non metti il grafichetto delle medie :rolleyes:? Quello non ci piace? Rotta la calcolatrice? Peccato :cry:.
Ma ti prego, illuminami pure con i tuoi dati incontrovertibili, sono qui che aspetto l'abbronzatura, rigorosamente verde mela, fa tendenza quest'anno.
https://i.imgur.com/yMOWQiG.png
Ops, davo per scontato che te li andassi a cercare tu. Ma tranquillo, i dati li porto eccome, eccoli.
Conclusione in raster. Tra 4070 super e 7800 xt c'è 7/8% in favore della super. Tra 5700 xt e 2070 c'è l' 1% in favore della 5700 xt. Quindi il gap tra la 4070 super e la 7800 xt è più ampio di quello che c'è tra la 2070 e la 5700 xt.
Penso che ora possiamo finire questa discussione. Però, cerca di capire eh. non è che tra 2 settimane risbuchi fuori con la tua disinformazione però. Pensavi in un modo, hai sbagliato,. ti ho dimostrato argomentando e dati alla mano il perchè, quindi ora direi che puoi acquisire quello che hai appreso e non "ricascarci" più.
Chiudo dicendo che non considerare il RT sta diventando sempre più "problematico", visto che ormai ci sono parecchi giochi che ne fanno uso, più o meno "vero" e che la direzione è inevitabilmente che aumentino. Per cui, a meno di esigenze super particolari di budget e/o di giochi competitivi, ritengo che la variabile RT non sia più ignorabile.
Ale55andr0
04-05-2024, 14:36
Ambiente sempre scoppiettante qua, fa bene all' umore :)
più che altro c'è la singolarità di chi ha evidentemente sposato il proprio pezzo di silicio/brand/ceo preferito. Uno a thread di "singolari" però basterebbe, due sono troppi :mc:. Ma qualcuno in particolare evidentemente (probabilmente l'atto sessuale con la propria GPU non gli riesce e deve soddisfarsi in altro modo) deve sempre "migrare" e venire a rompere i cabasi, rigirando di continuo frittate peraltro dovendo, ancora un volta, cercare di convincere qualcuno di qualcosa di cui non frega nulla a nessuno qui.
Segnalate pure "no ho problema" (semicit.)
scusate la citazione pesante, va presa a ridere eh ;)
Nulla di cui scusarti. E speriamo che al prossimo giro incrementino il diametro del palo.
https://i.imgur.com/yMOWQiG.png
Ops, davo per scontato che te li andassi a cercare tu. Ma tranquillo, i dati li porto eccome, eccoli.
Conclusione in raster. Tra 4070 super e 7800 xt c'è 7/8% in favore della super. Tra 5700 xt e 2070 c'è l' 1% in favore della 5700 xt. Quindi il gap tra la 4070 super e la 7800 xt è più ampio di quello che c'è tra la 2070 e la 5700 xt.
Penso che ora possiamo finire questa discussione. Però, cerca di capire eh. non è che tra 2 settimane risbuchi fuori con la tua disinformazione però. Pensavi in un modo, hai sbagliato,. ti ho dimostrato argomentando e dati alla mano il perchè, quindi ora direi che puoi acquisire quello che hai appreso e non "ricascarci" più.
Chiudo dicendo che non considerare il RT sta diventando sempre più "problematico", visto che ormai ci sono parecchi giochi che ne fanno uso, più o meno "vero" e che la direzione è inevitabilmente che aumentino. Per cui, a meno di esigenze super particolari di budget e/o di giochi competitivi, ritengo che la variabile RT non sia più ignorabile.
Nero su "bianco":
A me sembra di sognare. Ma secondo te non l'ho visto il video?
come media abbiamo la
5700 xt che fa 80 fps in 1080 vs 73 fps della 2070 (9.5%)
5700 xt che fa 57 fps in 1440p vs 53 in 1440p (7%)
Poi ho postato pure un videoconfronto di 9 mesi fa in cui si vede chiaramente che vanno uguali.
Cioè, questi valori e differenze non significa "andare uguali"? Come si può non definire che sommariamente le due schede si equivalgono? Ci sono 7 fps e 4 fps in media. Se per te andare uguale significa fare gli stessi identici fps in una media allora nessuna scheda va uguale ad un altra. Quindi una scheda che fa 1 fps di più va di più di un altra? Cioè, questo è il modo giusto di ragionare e di valutare le performance delle vga secondo voi?
Se per voi questo è "andare di più" (poi con una frase come se andasse molto di più) alzo le mano. IMHO non è affatto così.
Non penso ci sia da aggiungere molto, visto che ti contraddici da solo.
Qui per magia la 4070s va di più (in raster) nonostante il grafico delle medie dimostri che la distanza con la 7800xt è quasi la stessa del confronto di hu tra 5700xt e 2070.
Ma, a costo di non ammettere il conflitto evidente nei tuoi discorsi, hai avuto addirittura il coraggio di andare a rispolverare la review originale della 5700xt di 5 anni fa di techpowerup per far tornare i conti.
Tranquillo, "i fatti ti cosano (cit.)", continua pure con i tuoi vaneggiamenti monocorda, spero solo che la gente che ti legge si renda conto delle baggianate che scrivi.
Chiudo dicendo che non considerare il RT sta diventando sempre più "problematico", visto che ormai ci sono parecchi giochi che ne fanno uso, più o meno "vero" e che la direzione è inevitabilmente che aumentino. Per cui, a meno di esigenze super particolari di budget e/o di giochi competitivi, ritengo che la variabile RT non sia più ignorabile.
Ed eccolo qua, il classico motivetto pubblicitario, ripetuto a pappagallo da almeno un paio d'anni. Attenzione l'importante è rimanere sul vago, altrimenti non funziona. Certo è che deve essere stancante la fidelizzazione del cliente.
Chiudo dicendo che non considerare il RT sta diventando sempre più "problematico", visto che ormai ci sono parecchi giochi che ne fanno uso, più o meno "vero" e che la direzione è inevitabilmente che aumentino. Per cui, a meno di esigenze super particolari di budget e/o di giochi competitivi, ritengo che la variabile RT non sia più ignorabile.
Soliti discorsi, l'RT pesante fa la differenza in CP2077 e Alan Wake e servono comunque Pc di una certa fascia che sono in mano a una percentuale di persone giocanti molto bassa rispetto al totale, senza considerare che i suddetti giochi (salvo conflitti mondiali :asd: ) saranno disponibili anche negli anni a venire, quando probabilmente l'RT verrà macinato bene anche dalle rosse e dalle blu sperando che non chiudano baracca e burattini e che resti solo Nvidia con l'abbonamento al mainframe effetti grafici + schede di fascia Aldi vendute a 800€
ma qui veramente si discute su vga che fra loro la media nn differisce nemmeno del 10%?
ma poi anche fosse che la 70 super va meglio costa anche decisamente di più e dovrebbe essere paragonata più alla 7900GRE,inatti la 7800xt è la concorrente della 70 liscia e non super.
cmq si discute di quisquiglie e aria fritta.
l'unica discriminante tra verde e rosso è solo l'RT e quanto gli si da importanza a livello individuale.
l'unica discriminante tra verde e rosso è solo l'RT e quanto gli si da importanza a livello individuale.
Quoto e aggiungo:
- quantitativo vRAM;
- consumi;
- pacchetto software.
in particolare la vRAM se si gioca con le mod si fa presto a farla fuori, mi trovai KO con una GTX 970 in Skyrim :rotfl:
Quoto e aggiungo:
- quantitativo vRAM;
- consumi;
- pacchetto software.
in particolare la vRAM se si gioca con le mod si fa presto a farla fuori, mi trovai KO con una GTX 970 in Skyrim :rotfl:
si ok queste sono caratteristiche di un brand o dell'altro e si prende la vga associata alla build adatta ma alla fine al gamer gli si chiede a che riso vuole giocare e se gli interessa l'RT,se tra due pari fascia una vga consuma 300watt e l'altra 250 frega a pochissima gente.
le vecchie vga poi erano avare di v-ram avevo anch'io una 970 e in full HD ancora se cavava su giochi nn pesanti ma quella poca v-ram l'ha messa ko.
Cutter90
04-05-2024, 17:13
Quoto e aggiungo:
- quantitativo vRAM;
- consumi;
- pacchetto software.
in particolare la vRAM se si gioca con le mod si fa presto a farla fuori, mi trovai KO con una GTX 970 in Skyrim :rotfl:
Eh ma la vram diventa utile solo quando serve, ossia attualmente molto poco, oppure è inutile ferma lì.
I consumi.... in che senso? Le 4000 da quello che so vanno benissimo anche rispetto alle amd.
- pacchetto software: se intendo i driver, nvidia è da sempre un gradino sopra. Lato software di gestione lato amd è davvero ottimo e sicuramente migliore di nvidia.Ma nvidia sta recuperando con una ottima app in beta. E per me è un aspetto davvero secondario.
Secondo me il vero vantaggio di amd è il prezzo a pari fascia, andando magari simili in raster e molto meno in rt.
Eh ma la vram diventa utile solo quando serve, ossia attualmente molto poco, oppure è inutile ferma lì.
attualmente molto poco?ma ne sei sicuro?giocando sopra il 1080p ci sono molti giochi che usano molto più di 8gb e arrivano a saturare i 16...
prima della 7900 avevo la 6800 liscia e svariati giochi in quad hd occupavano oltre 12gb di v-ram e alcuni mi saturavano i 16.
ma poi si è sempre criticata nvidia che ha poca vram(che portava a qualche problema vedesi sopratutto la serie 3000)e mo nn serve?
Cutter90
04-05-2024, 21:48
attualmente molto poco?ma ne sei sicuro?giocando sopra il 1080p ci sono molti giochi che usano molto più di 8gb e arrivano a saturare i 16...
prima della 7900 avevo la 6800 liscia e svariati giochi in quad hd occupavano oltre 12gb di v-ram e alcuni mi saturavano i 16.
ma poi si è sempre criticata nvidia che ha poca vram(che portava a qualche problema vedesi sopratutto la serie 3000)e mo nn serve?
Sopra 1080p più di 8 gb? Ma dove? Su che giochi? Perché in 1440p sono rari i giochi in cui una 3070, ad esempio, soffre di poca vram. La normalità è che le performance della scheda degradano in maniera superiore rispetto alla vram. La 3070 è una scheda da 1080p nei giochi pesanti ormai, soprattutto in rt.
Occhio che i gb occupati non sono quelli che servono. Ne alloca di più di quelli che servono.
La vram di Nvidia la critica amd e chi ha amd. Ma la verità non è affatto quella. Nvidia non ha assolutamente poca vram e si riesce a giocare tutto tranquillamente nelle rispettive fasce.
Sopra 1080p più di 8 gb? Ma dove? Su che giochi? Perché in 1440p sono rari i giochi in cui una 3070, ad esempio, soffre di poca vram. La normalità è che le performance della scheda degradano in maniera superiore rispetto alla vram. La 3070 è una scheda da 1080p nei giochi pesanti ormai, soprattutto in rt.
Occhio che i gb occupati non sono quelli che servono. Ne alloca di più di quelli che servono.
La vram di Nvidia la critica amd e chi ha amd. Ma la verità non è affatto quella. Nvidia non ha assolutamente poca vram e si riesce a giocare tutto tranquillamente nelle rispettive fasce.
sono rari i giochi che usano più di 8 gb sopra il 1080p?ne sei veramente sicuro?
cyberpunk mi usa 14gb di vram.
AW II mi usa 18gb di vram
poi il meglio è d4 che mi occupa tutta la vram della mia 7900(già con la 6800 mi occupava tutti e 16 i gb)
poi c'è per esempio hoguarts legacy dove si è visto svariate volte che vga con 8 gb di vram oltre il 1080p soffrono e ce ne sono anche altri.
Sopra 1080p più di 8 gb? Ma dove? Su che giochi? Perché in 1440p sono rari i giochi in cui una 3070, ad esempio, soffre di poca vram. La normalità è che le performance della scheda degradano in maniera superiore rispetto alla vram. La 3070 è una scheda da 1080p nei giochi pesanti ormai, soprattutto in rt.
Occhio che i gb occupati non sono quelli che servono. Ne alloca di più di quelli che servono.
La vram di Nvidia la critica amd e chi ha amd. Ma la verità non è affatto quella. Nvidia non ha assolutamente poca vram e si riesce a giocare tutto tranquillamente nelle rispettive fasce.
https://www.youtube.com/watch?v=8IyNullMD9M&ab_channel=AldoGiovannieGiacomoUfficiale
;)
Cutter90
05-05-2024, 08:28
sono rari i giochi che usano più di 8 gb sopra il 1080p?ne sei veramente sicuro?
cyberpunk mi usa 14gb di vram.
AW II mi usa 18gb di vram
poi il meglio è d4 che mi occupa tutta la vram della mia 7900(già con la 6800 mi occupava tutti e 16 i gb)
poi c'è per esempio hoguarts legacy dove si è visto svariate volte che vga con 8 gb di vram oltre il 1080p soffrono e ce ne sono anche altri.
Ripeto, quella è la vram allocata, che è di più di quella che realmente serve.
Qui abbiamo la 3070 8 gb che in 1440p in cp 2077 viene saturata solo con rt ultra e pt. Ma fa cmq 30-40 fps. Quindi in cp 2077 se lo si vuole giocare decentemente bisogna togliere il RT (minuto 20) o passare al 1080p.
https://youtu.be/PdO6WBbAqWk
Cmq cp 2077 anche in 4k con pt non alloca nemmeno 14 gb ma 13. Ma ovviamente siamo su tutto un altro target dove una 7900 non arriva nemmeno e una 3070 da 8gb idem
https://youtu.be/c6-FQUOcXWs
Alan wake 2 si, usa tanta vram ma anche qui si parla di Path tracing. Ingiocabile per via delle performance sia sulla 3070 che sulla tua. Solo in 4k con PT consuma 17 gb. Con 1080p/1440p ne consuma molti meno. Una scheda da 8 gb dovrebbe cmq fare compromessi lato texture qui. Il che ci può pure stare visto che stiamo parlando di uno dei giochi più avanzati tecnicamente.
Diablo 4 in 1440p la 3070 supera i 100 fps e consuma 7,5 gb. Quindi nessun problema, perfettamente giocabile.
https://youtu.be/bqrMerKEVlQ
Chiaro che se lo si vuole giocare con rt tutto al max allora 8 gb non bastano, ma nemmeno una 3070 tiene i 60 fps così. E allora in un gioco come Diablo 4 non ha senso.
HL ci posso pure credere anche perché è programmato malissimo quel gioco. Basta pensare il RT sulle ombre rotto e mai sistemato.
Insomma, il concetto è stato affrontato più volte. Se nel 95% dei giochi anche 8gb vanno benissimo, ci sono dei giochi in cui non bastano. Ma in quei giochi sono le performance della scheda a non bastare, non la vram.
Perché se attivare il RT a 1440p con una 3070 ti porterebbe a giocare a 30/40 fps quelle di certo non sono performance accettabili per giocare indipendentemente dalla vram.
Per quello che dico che per il suo target una scheda da 8 gb va beneone anche ora. Una 3070 in 1440p in raster e in 1080p con rt con i suoi 8 gb va benissimo anche ora e andrà bene anche in seguito
A64FX+DFI nF4
05-05-2024, 08:56
e nel 99.9% dei giochi non c'è RT o è ininfluente azzoppando il framerate
Cutter90
05-05-2024, 11:18
e nel 99.9% dei giochi non c'è RT o è ininfluente azzoppando il framerate
In linea generale si (anche de la % non èsicuro quella vista la diffusione sempre maggiore). Ma nei giochi in cui funziona la differenza la fa e si parla di AAA mainstream. Quindi sicuramente più giocati e noti. Dipende uno da cosa gioca alla fine
Però non c'entra con la vram
Ripeto, quella è la vram allocata, che è di più di quella che realmente serve.
Qui abbiamo la 3070 8 gb che in 1440p in cp 2077 viene saturata solo con rt ultra e pt. Ma fa cmq 30-40 fps. Quindi in cp 2077 se lo si vuole giocare decentemente bisogna togliere il RT (minuto 20) o passare al 1080p.
https://youtu.be/PdO6WBbAqWk
Cmq cp 2077 anche in 4k con pt non alloca nemmeno 14 gb ma 13. Ma ovviamente siamo su tutto un altro target dove una 7900 non arriva nemmeno e una 3070 da 8gb idem
https://youtu.be/c6-FQUOcXWs
Alan wake 2 si, usa tanta vram ma anche qui si parla di Path tracing. Ingiocabile per via delle performance sia sulla 3070 che sulla tua. Solo in 4k con PT consuma 17 gb. Con 1080p/1440p ne consuma molti meno. Una scheda da 8 gb dovrebbe cmq fare compromessi lato texture qui. Il che ci può pure stare visto che stiamo parlando di uno dei giochi più avanzati tecnicamente.
Diablo 4 in 1440p la 3070 supera i 100 fps e consuma 7,5 gb. Quindi nessun problema, perfettamente giocabile.
https://youtu.be/bqrMerKEVlQ
Chiaro che se lo si vuole giocare con rt tutto al max allora 8 gb non bastano, ma nemmeno una 3070 tiene i 60 fps così. E allora in un gioco come Diablo 4 non ha senso.
HL ci posso pure credere anche perché è programmato malissimo quel gioco. Basta pensare il RT sulle ombre rotto e mai sistemato.
Insomma, il concetto è stato affrontato più volte. Se nel 95% dei giochi anche 8gb vanno benissimo, ci sono dei giochi in cui non bastano. Ma in quei giochi sono le performance della scheda a non bastare, non la vram.
Perché se attivare il RT a 1440p con una 3070 ti porterebbe a giocare a 30/40 fps quelle di certo non sono performance accettabili per giocare indipendentemente dalla vram.
Per quello che dico che per il suo target una scheda da 8 gb va beneone anche ora. Una 3070 in 1440p in raster e in 1080p con rt con i suoi 8 gb va benissimo anche ora e andrà bene anche in seguito
è incredibile la moltitudine di supercazzole che intorti e con gli stessi video che hai postato tu dimostri che 8gb di vram nn bastano...però o la vram nn serve.
vabbè già ho capito come sarà l'andazzo meglio che chiudo qui.
StylezZz`
05-05-2024, 13:25
La vram di Nvidia la critica amd e chi ha amd. Ma la verità non è affatto quella. Nvidia non ha assolutamente poca vram e si riesce a giocare tutto tranquillamente nelle rispettive fasce
Ma siamo sicuri che la critica solo chi ha aemmeddì?
Per quello che dico che per il suo target una scheda da 8 gb va beneone anche ora. Una 3070 in 1440p in raster e in 1080p con rt con i suoi 8 gb va benissimo anche ora e andrà bene anche in seguito
Quei video non possono mostrarti il quadro completo, i giochi vanno provati e giocati dall'inizio alla fine per poi potersi permettere di dire che ''va benissimo'', anche le recensioni dove spesso vengono provati solo brevi spezzoni lasciano il tempo che trovano.
Cutter90
05-05-2024, 16:19
Ma siamo sicuri che la critica solo chi ha aemmeddì?
Quei video non possono mostrarti il quadro completo, i giochi vanno provati e giocati dall'inizio alla fine per poi potersi permettere di dire che ''va benissimo'', anche le recensioni dove spesso vengono provati solo brevi spezzoni lasciano il tempo che trovano.
Potrei amche essere d'accordo ma.. allora come comproviamo le ipotesi?
Io vedo video e recensioni che restituiscono quello che ho descritto. Io finché non vedo altro perché dovrei pensarla diversamente? Cioè non so se hai capito il mio discorso
Cutter90
05-05-2024, 16:20
è incredibile la moltitudine di supercazzole che intorti e con gli stessi video che hai postato tu dimostri che 8gb di vram nn bastano...però o la vram nn serve.
vabbè già ho capito come sarà l'andazzo meglio che chiudo qui.
Ma non è assolutamente vero scusa. E i video sono lì. Boh.
LurenZ87
05-05-2024, 16:41
Scusate se interrompo questa "interessante" diatriba che ai fini del thread c'entra come Lisa nelle sfilate di moda...
La mia domanda è la seguente, quando è prevista l'uscita delle nuove Radeon??? Infine le prestazioni saranno da 7900 XTX con meno watt (avevo letto una cosa del genere), cosa si sa di più o meno preciso??? Grazie.
Inviato dal mio ThinkPhone utilizzando Tapatalk
Scusate se interrompo questa "interessante" diatriba che ai fini del thread c'entra come Lisa nelle sfilate di moda...
La mia domanda è la seguente, quando è prevista l'uscita delle nuove Radeon??? Infine le prestazioni saranno da 7900 XTX con meno watt (avevo letto una cosa del genere), cosa si sa di più o meno preciso??? Grazie.
Inviato dal mio ThinkPhone utilizzando Tapatalk
Non si sa nulla di preciso, lato prestazioni le varie voci riportano solo gpu di fascia bassa e media con prestazioni massime equiparabili a 7900xt/xtx con più unità di calcolo per il ray tracing e consumi inferiori, data di uscita fine anno primo trimestre 2025.
Personalmente mi aspetto una campagna marketing e pubblicitaria stile "è arrivata la scheda del popolo", e chiamerei Gorbaciov non fosse morto due anni fa.
mikael84
05-05-2024, 18:16
Scusate se interrompo questa "interessante" diatriba che ai fini del thread c'entra come Lisa nelle sfilate di moda...
La mia domanda è la seguente, quando è prevista l'uscita delle nuove Radeon??? Infine le prestazioni saranno da 7900 XTX con meno watt (avevo letto una cosa del genere), cosa si sa di più o meno preciso??? Grazie.
Inviato dal mio ThinkPhone utilizzando Tapatalk
Al momento so solo questo::)
https://www.hwupgrade.it/forum/showpost.php?p=48509141&postcount=80735
Non si sa nulla di preciso, lato prestazioni le varie voci riportano solo gpu di fascia bassa e media con prestazioni massime equiparabili a 7900xt/xtx con più unità di calcolo per il ray tracing e consumi inferiori, data di uscita fine anno primo trimestre 2025.
Personalmente mi aspetto una campagna marketing e pubblicitaria stile "è arrivata la scheda del popolo", e chiamerei Gorbaciov non fosse morto due anni fa.
Non più unità, ma specializzate in BVH ed equivalente ser (che AMD originariamente chiamava OREO, ma non se ne fece nulla).
Per il discorso PT, se eseguito in wave64 totalmente le prestazioni saranno sempre dimezzate per via della metà di thread in calcolo vettoriale consecutivamente da 10 a 5 su 16 per SIMD.:)
LurenZ87
05-05-2024, 18:17
Non si sa nulla di preciso, lato prestazioni le varie voci riportano solo gpu di fascia bassa e media con prestazioni massime equiparabili a 7900xt/xtx con più unità di calcolo per il ray tracing e consumi inferiori, data di uscita fine anno primo trimestre 2025.
Personalmente mi aspetto una campagna marketing e pubblicitaria stile "è arrivata la scheda del popolo", e chiamerei Gorbaciov non fosse morto due anni fa.Ottimo, grazie :)
PS: AMD per le campagne di marketing è allucinante, ricordo ancora quella del Fixer, della Revolution e il poster "a caccia dei Titani", ai tempi delle prime GTX Titan :asd:
Inviato dal mio ThinkPhone utilizzando Tapatalk
LurenZ87
05-05-2024, 18:21
Al momento so solo questo::)
https://www.hwupgrade.it/forum/showpost.php?p=48509141&postcount=80735
Non più unità, ma specializzate in BVH ed equivalente ser (che AMD originariamente chiamava OREO, ma non se ne fece nulla).
Per il discorso PT, se eseguito in wave64 totalmente le prestazioni saranno sempre dimezzate per via della metà di thread in calcolo vettoriale consecutivamente da 10 a 5 su 16 per SIMD.:)Grazie, molto interessante :D
Inviato dal mio ThinkPhone utilizzando Tapatalk
e nel 99.9% dei giochi non c'è RT o è ininfluente azzoppando il framerate
Si spendono anche migliaia di euro di componenti pc per giocare al 99.9% di titoli vecchi o a basso budged o allo 0.1% di titoli moderni e tripla A?
PS: AMD per le campagne di marketing è allucinante, ricordo ancora quella del Fixer, della Revolution e il poster "a caccia dei Titani", ai tempi delle prime GTX Titan :asd:
Inviato dal mio ThinkPhone utilizzando Tapatalk
https://i.postimg.cc/htXX8pBW/30kyb2d.png
LurenZ87
05-05-2024, 19:28
https://i.postimg.cc/htXX8pBW/30kyb2d.png:asd: :asd: :asd:
Questa non la ricordavo, però ricordo benissimo il rumore della 290X reference in game, sicuramente era correlato :sofico:
Inviato dal mio ThinkPhone utilizzando Tapatalk
A64FX+DFI nF4
05-05-2024, 20:22
Si spendono anche migliaia di euro di componenti pc per giocare al 99.9% di titoli vecchi o a basso budged o allo 0.1% di titoli moderni e tripla A?
solo Cyberpunk 2077 e Alan Wale 2
Si spendono anche migliaia di euro di componenti pc per giocare al 99.9% di titoli vecchi o a basso budged o allo 0.1% di titoli moderni e tripla A?
chi lo dice?
Gyammy85
06-05-2024, 08:47
e nel 99.9% dei giochi non c'è RT o è ininfluente azzoppando il framerate
E se caliamo le texture a medio hai voglia quanto bastano 8 giga, e poi diciamola tutta, se avere tanta vram fosse importante nvidia la metterebbe :O
Scusate se interrompo questa "interessante" diatriba che ai fini del thread c'entra come Lisa nelle sfilate di moda...
La mia domanda è la seguente, quando è prevista l'uscita delle nuove Radeon??? Infine le prestazioni saranno da 7900 XTX con meno watt (avevo letto una cosa del genere), cosa si sa di più o meno preciso??? Grazie.
Inviato dal mio ThinkPhone utilizzando Tapatalk
Per RDNA4 credo se ne parli a ottobre, cioè a 2 anni dalle 7000, che erano state presentate 2 anni dopo le 6000, diciamo molto probabile
CtrlAltSdeng!
06-05-2024, 09:35
Sperando arrivi a una 3060 (ma con più ram, questo è sicuro :asd: ) :O
Intel al momento è in zona medio-bassa performance wise ma fortunatamente è migliorata molto la parte driver al di fuori del "minimo sindacale" su windows....non ho ben capito se la nuova serie sarà solo un affinamento hardware della precedente o una nuova architettura. Nel primo caso a fare da concorrenza rimarrà ancora la sola AMD e se sarà veramente solo una media bhe vedremo le rtx 4000 in giro ancora per molto :asd: nel secondo caso vedremo se intele amd facessero a botte per una fascia media decente che tolto due effetti rt e tre titoli AAA in croce all'anno (giocabili dopo sei mesi ovvio) permetteranno di giocare a tutto e bene :fagiano: relegando le medie nvidia con la ram ritagliata al kb al destino che meritano.
ninja750
06-05-2024, 11:38
Scusate se interrompo questa "interessante" diatriba
interessantissima :rolleyes: e alimentata purtroppo dai soliti
portando a zero conclusioni e dieci pagine off topic
Cutter90
06-05-2024, 11:47
interessantissima :rolleyes: e alimentata purtroppo dai soliti
portando a zero conclusioni e dieci pagine off topic
Le conclusioni sono arrivate eccome. Bisogna solo vederle e assimilarle per non ripresentarsi la prossima volta con le solite frasi. Se non sei interessato ignorala, come faccio io per tante altre discussioni. Non c'è nulla di male.:)
ninja750
06-05-2024, 13:58
Le conclusioni sono arrivate eccome
aiutami
queste?
https://www.hwupgrade.it/forum/showpost.php?p=48510539&postcount=80773
Se non sei interessato ignorala, come faccio io per tante altre discussioni. Non c'è nulla di male.:)
se non sei interessato al topic (cit.) ignora questo thread no?
sai com'è, uno apre il forum ASPETTANDO LA NUOVE VGA RADEON e puntualmente deve scorrere post e post e post di offtopic fino a trovare poco (o nulla) sulle NUOVE VGA RADEON. che poi mi sta benissimo una volta tanto ci mancherebbe ma questa è diventata la regola. e non posso non leggere tutto ignorando come dici tu, non posso ignorare perchè per cercare quello che mi interessa sono costretto a leggere tutti i post sperando di trovare qualcosa in topic
Cutter90
06-05-2024, 14:04
aiutami
queste?
https://www.hwupgrade.it/forum/showpost.php?p=48510539&postcount=80773
se non sei interessato al topic (cit.) ignora questo thread no?
sai com'è, uno apre il forum ASPETTANDO LA NUOVE VGA RADEON e puntualmente deve scorrere post e post e post di offtopic fino a trovare poco (o nulla) sulle NUOVE VGA RADEON. che poi mi sta benissimo una volta tanto ci mancherebbe ma questa è diventata la regola. e non posso non leggere tutto ignorando come dici tu, non posso ignorare perchè per cercare quello che mi interessa sono costretto a leggere tutti i post sperando di trovare qualcosa in topic
Quelle del mio post originale
Del resto è la stessa cosa che faccio io. Entro qui sperando che si parli delle nuove e invece è sempre e solo un paragone con le Nvidia, dicendo per altro cose sbagliate, faziose e/o false proprio.
Quindi come vedi anche io sono nella tua situazione. Ma chiudiamola qui. Altrimenti non si finisce più.
aiutami
queste?
https://www.hwupgrade.it/forum/showpost.php?p=48510539&postcount=80773
se non sei interessato al topic (cit.) ignora questo thread no?
sai com'è, uno apre il forum ASPETTANDO LA NUOVE VGA RADEON e puntualmente deve scorrere post e post e post di offtopic fino a trovare poco (o nulla) sulle NUOVE VGA RADEON. che poi mi sta benissimo una volta tanto ci mancherebbe ma questa è diventata la regola. e non posso non leggere tutto ignorando come dici tu, non posso ignorare perchè per cercare quello che mi interessa sono costretto a leggere tutti i post sperando di trovare qualcosa in topic
Io alla fine ho seguito il consiglio dell'ignore list che mi è stato dato da altri perchè tanto non ci si ragiona. Mi spiace solo aver protratto l'ot inutilmente.
ninja750
06-05-2024, 16:03
aggiornamento di MAGGIO computerbase perf/prezzo QHD
https://www.computerbase.de/2024-02/grafikkarten-preis-leistungs-verhaeltnis/#abschnitt_fps_pro_euro_in_wqhd
https://i.postimg.cc/yNTNS8Xw/Immagine-2024-05-06-165911.png
continuo a vedere 7900XT e XTX ancora un po' fuori scala, vedremo come cambierà tutto ciò con RDNA4
CtrlAltSdeng!
06-05-2024, 16:31
"Non c'è concorrenza", olio su tela, 2024 :O
aggiornamento di MAGGIO computerbase perf/prezzo QHD
https://www.computerbase.de/2024-02/grafikkarten-preis-leistungs-verhaeltnis/#abschnitt_fps_pro_euro_in_wqhd
https://i.postimg.cc/yNTNS8Xw/Immagine-2024-05-06-165911.png
continuo a vedere 7900XT e XTX ancora un po' fuori scala, vedremo come cambierà tutto ciò con RDNA4
le fascia alta nn hanno mai un buon rapporto prezzo/fps.
sui test in RT e consumi, poi trovi i motivi..:(
curioso che nei test per il FHD con RT, al primo posto non figura la solita nvidia, e nemmeno amd..
l'ultima arrivata Intel batte entrambi i veterani:yeah:
con una sku nata per confrontarsi con la precedente gen, al suo primo progetto e senza esperienza..
basta tagliare i prezzi per scalare le classifiche:D
aggiornamento di MAGGIO computerbase perf/prezzo QHD
https://www.computerbase.de/2024-02/grafikkarten-preis-leistungs-verhaeltnis/#abschnitt_fps_pro_euro_in_wqhd
https://i.postimg.cc/yNTNS8Xw/Immagine-2024-05-06-165911.png
continuo a vedere 7900XT e XTX ancora un po' fuori scala, vedremo come cambierà tutto ciò con RDNA4
E' incredibile come l'azienda dei chippini, approccio che serve ad abbattere i costi della fascia alta, si faccia ancora pagare la fascia alta a peso d'oro. Come se non dovesse recuperare quote di mercato.
Ale55andr0
06-05-2024, 19:56
aggiornamento di MAGGIO computerbase perf/prezzo QHD
https://www.computerbase.de/2024-02/grafikkarten-preis-leistungs-verhaeltnis/#abschnitt_fps_pro_euro_in_wqhd
https://i.postimg.cc/yNTNS8Xw/Immagine-2024-05-06-165911.png
continuo a vedere 7900XT e XTX ancora un po' fuori scala, vedremo come cambierà tutto ciò con RDNA4
sono perfettamente nella media mediata, claro? :O Ed in medium stat virtus :O
Cutter90
06-05-2024, 20:21
sui test in RT e consumi, poi trovi i motivi..:(
curioso che nei test per il FHD con RT, al primo posto non figura la solita nvidia, e nemmeno amd..
l'ultima arrivata Intel batte entrambi i veterani:yeah:
con una sku nata per confrontarsi con la precedente gen, al suo primo progetto e senza esperienza..
basta tagliare i prezzi per scalare le classifiche:D
Intel per forza di cose deve essere aggressiva suo prezzi se vuole fare breccia un minimo sul mercato.
La prima non è andata affatto male secondo me. Con tra l altro XSS sempre in evoluzione e secondo attualmente come upscaling dietro al Dlss.
Ovviamente il rapporto fps/euro penso sia il grafico più inutile di sempre. Non comprerei mai una gpu in base a quello.
ninja750
07-05-2024, 08:23
non avevamo dubbi :O e lo capisco per la fascia uber dove uno vuole il top a prescindere
ma dalla fascia uber -1 a scendere se uno posa il fiasco le bandierine partigiane dovrebbe essere l'unico metro di confronto, aggiungiamoci con il giusto peso i consumi
Io che ho preso la 7900XTX per il QHD https://i.postimg.cc/t4dvgsrJ/237qf2ea6.gif :asd:
LurenZ87
07-05-2024, 08:57
Io che ho preso la 7900XTX per il QHD https://i.postimg.cc/t4dvgsrJ/237qf2ea6.gif :asd:Lo sapete che le top di gamma sono così :D
PS: se la devi "buttare" fammi un fischio :asd:
Inviato dal mio ThinkPhone utilizzando Tapatalk
Lo sapete che le top di gamma sono così :D
PS: se la devi "buttare" fammi un fischio :asd:
Inviato dal mio ThinkPhone utilizzando Tapatalk
ma si, si scherza ;) :asd:
mi segno di mandarti un PM appena esce la 5070 12 gb :O
Cutter90
07-05-2024, 09:08
non avevamo dubbi :O e lo capisco per la fascia uber dove uno vuole il top a prescindere
ma dalla fascia uber -1 a scendere se uno posa il fiasco le bandierine partigiane dovrebbe essere l'unico metro di confronto, aggiungiamoci con il giusto peso i consumi
Eh che scondo me contano molto di pù i giochi. nel senso che in molti giochi amd vola, in altri Nvidia va meglio. Quindi più che risparmiare i 50 euro trovo più importante investire dove una delle due rende meglio, per sfruttarle meglio.
Proprio di recente ho assemblato un pc di fascia media con AMD poichè la persona mi ha chiesto un pc per cod, Assetto corsa competizione e League of legend. Con questi giochi è inutile spendere qualcosa in più per Nvidia. Abbiamo risparmiato e le per4formance erano ugauli o superiori ad nvidia.
Diversamente un altro mi ha chiesto un pc per giocare a tutti i giochi con RT single player in 1440p. Quei la scelta è andata su Nvidia per ovvie ragioni.
Anche la questione consumi è molto molto secondaria imho. non sono certo i 50 watt che spostano una sccelta piuttosto che un altra.
bagnino89
07-05-2024, 09:16
E' incredibile come l'azienda dei chippini, approccio che serve ad abbattere i costi della fascia alta, si faccia ancora pagare la fascia alta a peso d'oro. Come se non dovesse recuperare quote di mercato.
E' chiaro da anni ormai che ad AMD non interessi recuperare quote di mercato, specie lato GPU. Semplicemente scimmiottano le strategie di Giacchetta cercando di vendere quello che possono.
ninja750
07-05-2024, 09:40
E' chiaro da anni ormai che ad AMD non interessi recuperare quote di mercato, specie lato GPU. Semplicemente scimmiottano le strategie di Giacchetta cercando di vendere quello che possono.
è evidente che AMD non è una onlus e che gli investitori e gli azionisti NON vogliono una resa preventiva di quel tipo
bagnino89
07-05-2024, 09:43
è evidente che AMD non è una onlus e che gli investitori e gli azionisti NON vogliono una resa preventiva di quel tipo
Ma infatti se lavorano in quel modo evidentemente è funzionale alla loro produttività. Altrimenti avrebbero chiuso da un pezzo.
dominator84
07-05-2024, 09:45
Ma infatti se lavorano in quel modo evidentemente è funzionale alla loro produttività. Altrimenti avrebbero chiuso da un pezzo.
in AMD non perdono certo tempo, creano lo stesso modello di jakkahhh in pelle da 30 anni :O
per 1 solo uomo
LurenZ87
07-05-2024, 09:50
ma si, si scherza ;) :asd:
mi segno di mandarti un PM appena esce la 5070 12 gb :O12gb?!?! No grazie, ho smesso :asd:
Inviato dal mio ThinkPhone utilizzando Tapatalk
RoUge.boh
07-05-2024, 10:18
E' chiaro da anni ormai che ad AMD non interessi recuperare quote di mercato, specie lato GPU. Semplicemente scimmiottano le strategie di Giacchetta cercando di vendere quello che possono.
è evidente che AMD non è una onlus e che gli investitori e gli azionisti NON vogliono una resa preventiva di quel tipo
Ma la capisco..perché deve "svendere" le proprie schede?
Questi sono i loro dati finanziari:
https://www.techpowerup.com/img/EWzTFD9ILp1YsoVB.jpg
Ovviamente NVIDIA fa meglio ma è in calo:
https://www.fudzilla.com/images/stories/2023/May/nvidia-q124financial-1.jpg
Al di la dei problemi tecnici lato finanziario abbiamo AMD che sta migliorando e NVIDIA che sta "erodendo" dei margini ENORMI sensa senso... ma parliamo sempre di 65.5 % di gross margin è allucinante..
Ma anche anche NVIDIA:
Gaming $2,240M $1,831M $3,620M +22% -38%
https://www.anandtech.com/show/18874/nvidia-reports-q1-fy2024-earnings-bigger-things-to-come-as-nv-approaches-1t-market-cap
Nessuna delle aziende punta sul gaming ma su Data center e poi ogni azienda è "specializzata" in altri settori.
Una cosa è certa non penso che AMD da domani non produrrà ne supporterà le schede video inoltre il mercanto ODIA il monopolio perché dare tutto ad un'azienda leader vuol dire stare completamente in balia sua (per quanto onesto possa essere) ma on prezzerà nemmeno schede a targhet NO sense per lei.
AceGranger
07-05-2024, 11:12
Ma la capisco..perché deve "svendere" le proprie schede?
Questi sono i loro dati finanziari:
Ovviamente NVIDIA fa meglio ma è in calo:
Al di la dei problemi tecnici lato finanziario abbiamo AMD che sta migliorando e NVIDIA che sta "erodendo" dei margini ENORMI sensa senso... ma parliamo sempre di 65.5 % di gross margin è allucinante..
Ma anche anche NVIDIA:
Gaming $2,240M $1,831M $3,620M +22% -38%
https://www.anandtech.com/show/18874/nvidia-reports-q1-fy2024-earnings-bigger-things-to-come-as-nv-approaches-1t-market-cap
Nessuna delle aziende punta sul gaming ma su Data center e poi ogni azienda è "specializzata" in altri settori.
Una cosa è certa non penso che AMD da domani non produrrà ne supporterà le schede video inoltre il mercanto ODIA il monopolio perché dare tutto ad un'azienda leader vuol dire stare completamente in balia sua (per quanto onesto possa essere) ma on prezzerà nemmeno schede a targhet NO sense per lei.
stai confrontando il q1 2024 di AMD con il q1 2023 di nVidia :fagiano:
il Q1 2024 fiscale di nVidia è solare 2023 ( l'anno fiscale di nVidia finisce il 28 Gennaio dell'anno successivo quindi fiscalmente le date fanno tutte riferimento a quelle dell'anno di chiusura ); infatti se guardi la data dell'articolo del tuo link di Anandtech riporta la data del 25 maggio 2023
per il confronto con il Q1 solare di quest'anno devi aspettare a fine maggio e uscira il resoconto fiscale Q1 2025.
ninja750
07-05-2024, 11:12
Ma infatti se lavorano in quel modo evidentemente è funzionale alla loro produttività. Altrimenti avrebbero chiuso da un pezzo.
le quote di mercato che citi sono difficilmente recuperabili causa grossa fidelizzazione, si è visto benissimo con RDNA2 dove c'era sostanzialmente pareggio in tutte le fasce e i prezzi erano minori. figuriamoci ora dove c'è anche un buco nella fascia uber e dove ci sarà una voragine con RDNA4 dall'alta in sù
non vedo sbagliato presentare prodotti solo in determinate fasce, ma a quel punto devi farlo alla grande e se punti ai grandi numeri devi farlo con un prezzo aggressivo. il problema è che se il prezzo aggressivo non lo calcoli sul TUO silicio ma lo calcoli su quanto giacco rapina i suoi fidelizzati - 10% non ti sposterai mai dallo share attuale imho
FrancoBit
07-05-2024, 11:49
stai confrontando il q1 2024 di AMD con il q1 2023 di nVidia :fagiano:
il Q1 2024 fiscale di nVidia è solare 2023 ( l'anno fiscale di nVidia finisce il 28 Gennaio dell'anno successivo quindi fiscalmente le date fanno tutte riferimento a quelle dell'anno di chiusura ); infatti se guardi la data dell'articolo del tuo link di Anandtech riporta la data del 25 maggio 2023
per il confronto con il Q1 solare di quest'anno devi aspettare a fine maggio e uscira il resoconto fiscale Q1 2025.
Aggiungo che i dati del Q1 2024 di Nvidia verranno rilasciati il 22/05/2024.
Ale55andr0
07-05-2024, 12:31
è evidente che AMD non è una onlus e che gli investitori e gli azionisti NON vogliono una resa preventiva di quel tipo
il punto è che non vogliono nemmeno vincere evidentemente :asd:
RoUge.boh
07-05-2024, 13:09
scusatemi...avevo letto male! :muro: :muro: :muro:
grazie AceGranger
CtrlAltSdeng!
07-05-2024, 13:12
il punto è che non vogliono nemmeno vincere evidentemente :asd:
il punto è che le aziende non ragionano come dei tifosi ;) amd può stare benissimo a 10-20% di un mercato enorme in quanto non è il suo unico mercato di sbocco...se poi non si allinea con le proprie aspettative o "volontà di vincere!11!!!" .... amen.
Magari nvidia cede il ramo gpu consumer a qualcun altro e sarà l'inizio del "recupero quote" amd....chi lo sa!
RoUge.boh
07-05-2024, 13:20
il punto è che le aziende non ragionano come dei tifosi ;) amd può stare benissimo a 10-20% di un mercato enorme in quanto non è il suo unico mercato di sbocco...se poi non si allinea con le proprie aspettative o "volontà di vincere!11!!!" .... amen.
Magari nvidia cede il ramo gpu consumer a qualcun altro e sarà l'inizio del "recupero quote" amd....chi lo sa!
Alla fine i "tifosi" sono sempre quelli che vengono spennati (di entrambi gli schieramenti).
Pero è anche vero che il mercato non vuole il monopolio..
Ale55andr0
07-05-2024, 16:15
il punto è che le aziende non ragionano come dei tifosi ;) amd può stare benissimo a 10-20% di un mercato enorme in quanto non è il suo unico mercato di sbocco...se poi non si allinea con le proprie aspettative o "volontà di vincere!11!!!" .... amen.
Magari nvidia cede il ramo gpu consumer a qualcun altro e sarà l'inizio del "recupero quote" amd....chi lo sa!
vincere mica in termini di competizione da celolunghismo o vanagloria, ma a livello commerciale :read: se potesse guadagnare quanto nvidia lo farebbe eccome AMD
AceGranger
07-05-2024, 16:25
Alla fine i "tifosi" sono sempre quelli che vengono spennati (di entrambi gli schieramenti).
Pero è anche vero che il mercato non vuole il monopolio..
l'anomalia è che normalmente le aziende in monopolio tendono a "sedersi" in innovazione, nVidia invece ha accelerato...
Gyammy85
08-05-2024, 08:50
le quote di mercato che citi sono difficilmente recuperabili causa grossa fidelizzazione, si è visto benissimo con RDNA2 dove c'era sostanzialmente pareggio in tutte le fasce e i prezzi erano minori. figuriamoci ora dove c'è anche un buco nella fascia uber e dove ci sarà una voragine con RDNA4 dall'alta in sù
non vedo sbagliato presentare prodotti solo in determinate fasce, ma a quel punto devi farlo alla grande e se punti ai grandi numeri devi farlo con un prezzo aggressivo. il problema è che se il prezzo aggressivo non lo calcoli sul TUO silicio ma lo calcoli su quanto giacco rapina i suoi fidelizzati - 10% non ti sposterai mai dallo share attuale imho
Addirittura, ma almeno ci arrivano a presentarle, o chiudono prima? :eek:
Gyammy85
08-05-2024, 08:52
l'anomalia è che normalmente le aziende in monopolio tendono a "sedersi" in innovazione, nVidia invece ha accelerato...
Proprio vero, normalmente ogni anno dovremmo avere una gtx 970 con la scritta "ahò, è monopolio"
AceGranger
08-05-2024, 08:57
Proprio vero, normalmente ogni anno dovremmo avere una gtx 970 con la scritta "ahò, è monopolio"
devi avere una vita veramente triste.
Gyammy85
08-05-2024, 08:59
devi avere una vita veramente triste.
Eh si, non vengo qua da vent'anni a dire che
1) devono prezzarle regalo così prendiamo nvidia a +50 euro
2) se non c'era nvidia facevamo la fila sotto ai ponti
AceGranger
08-05-2024, 09:23
Eh si, non vengo qua da vent'anni a dire che
1) devono prezzarle regalo così prendiamo nvidia a +50 euro
2) se non c'era nvidia facevamo la fila sotto ai ponti
ok :asd:
OrazioOC
12-05-2024, 11:18
https://videocardz.com/newz/amd-rdna5-is-reportedly-entirely-new-architecture-design-rdna4-merely-a-bug-fix-for-rdna3
Si però non si può manco mettere le mani avanti così, è sempre un'uarch in divenire ultimamente. :rolleyes:
Speriamo bene, l'impressione è che rdna 4 esca più per dar contro ad intel con battlemage piuttosto che offrire un'alternativa diretta alle nvidia BW. :rolleyes:
mikael84
12-05-2024, 11:45
https://videocardz.com/newz/amd-rdna5-is-reportedly-entirely-new-architecture-design-rdna4-merely-a-bug-fix-for-rdna3
Si però non si può manco mettere le mani avanti così, è sempre un'uarch in divenire ultimamente. :rolleyes:
Speriamo bene, l'impressione è che rdna 4 esca più per dar contro ad intel con battlemage piuttosto che offrire un'alternativa diretta alle nvidia BW. :rolleyes:
Stanno facendo tutti di necessità virtù (nvidia-amd-intel). Manca il nodo, la stessa nvidia sembra giusto fare un refresh (salvo il bigchip, più pro che gaming), mentre lavora già a Rubin 3nm.
RDNA5 debutterà probabilmente con i 3nm.
Purtroppo sono tutti attaccati al 4nmP.:)
OrazioOC
12-05-2024, 12:13
Stanno facendo tutti di necessità virtù (nvidia-amd-intel). Manca il nodo, la stessa nvidia sembra giusto fare un refresh (salvo il bigchip, più pro che gaming), mentre lavora già a Rubin 3nm.
RDNA5 debutterà probabilmente con i 3nm.
Purtroppo sono tutti attaccati al 4nmP.:)
Mah, io più che altro contesto l'avanzamento dell'uarch in sè, che costantemente vede giusto dei minor update di gen in gen, senza mai essere matura a 360°. :rolleyes:
Il salto vega->rdna 1 era ottimo per rapporto prestazioni/consumi rispetto alla generazione precedente(grazie anche ai 7nm), ma mancava del tutto la parte raytracing.
Il salto navi 1->rdna 2 era decente per l'aggiunta del raytracing e tutto sommato la buona efficienza paragonato alle nvidia ampere(che però erano dotate di un silicio molto inferiore).
Ma nonostante tutto, la differenza tra una rx 6000 e una rtx 3000 con il raytracing attivo è tangibile.
Il salto rdna 2->rdna 3 è stato troppo poco marcato in fatto di uarch, non si è guadagnato quasi nulla in ipc e in raytracing a parità di cu/bandwith delle schede rx 6000 e 7000.
Per rdna 4 in soldoni si parla di una simil 7900 xt monolitica, con magari qualche decina di watt di tdp in meno, e performance raster migliorate(immagino che finalmente si mettano al pari con le nvidia dell'attuale gen, quindi iso 4070 super/4070 ti per navi 48).
Peccato che 6 mesi dopo il lancio della 8800 xt ci dovrebbero essere già in giro la 5070/ti, e saremmo punto a capo ad aspettare la ventata di aria fresca di rdna 5 nel 2026.:rolleyes:
Non mi aspetto neanche miracoli da parte di nvidia a sto giro, ma vedendo come sono stati conservativi nello spremere i 5nm di tsmc(tutti i chippetti ada sono cloccati alla morte già di default) non ci vuol niente che salti fuori un trattamento stile kepler-> maxwell(pp simile o poco più maturo, ma uarch completamente rivista, dando una rasoiata a tutto ciò che è stato progettato/venduto fino a pochi mesi prima).
Ma tornando ad amd, è tutto un "in divenire" dove si aspetta l'ennesima rivoluzione dell'uarch, che puntualmente viene rimandata.
quindi ricapitolando:
la big rdna4 non esce piu', ma se usciva erano ca22i per tutti..
rdn4 sara' solo un bugfix di rdna3 ma quando uscira' rdna5 poi saranno ca22i per tutti..
battle image sara' per intel un'altra arca220 un po meh, ma poi con celestial saranno ca22i per tutti..
poi girano voci che anche battle image e' in forse..
apparentemente per quest'ultima gen in arrivo, dai rumors sembra un disastro
ma in realta' ci sono chiari segnali che almeno nella fascia medio-bassa ci sara' molta battaglia
il problema vero di riflesso si riduce soltanto e unicamente per chi sperava di prendere una 5090 a meno:asd:
ma vabbe' li e' solo questioni di soldi, son passioni, millino piu' millino meno..ca22i loro:O
A64FX+DFI nF4
12-05-2024, 12:40
https://videocardz.com/newz/amd-rdna5-is-reportedly-entirely-new-architecture-design-rdna4-merely-a-bug-fix-for-rdna3
Si però non si può manco mettere le mani avanti così, è sempre un'uarch in divenire ultimamente. :rolleyes:
Speriamo bene, l'impressione è che rdna 4 esca più per dar contro ad intel con battlemage piuttosto che offrire un'alternativa diretta alle nvidia BW. :rolleyes:
principalmente serviva a Sony per il Soc della PS5 Pro, specialmente i Ray Accelerator con il BVH migliorato
mikael84
12-05-2024, 16:54
Mah, io più che altro contesto l'avanzamento dell'uarch in sè, che costantemente vede giusto dei minor update di gen in gen, senza mai essere matura a 360°. :rolleyes:
Il salto vega->rdna 1 era ottimo per rapporto prestazioni/consumi rispetto alla generazione precedente(grazie anche ai 7nm), ma mancava del tutto la parte raytracing.
Il salto navi 1->rdna 2 era decente per l'aggiunta del raytracing e tutto sommato la buona efficienza paragonato alle nvidia ampere(che però erano dotate di un silicio molto inferiore).
Ma nonostante tutto, la differenza tra una rx 6000 e una rtx 3000 con il raytracing attivo è tangibile.
Il salto rdna 2->rdna 3 è stato troppo poco marcato in fatto di uarch, non si è guadagnato quasi nulla in ipc e in raytracing a parità di cu/bandwith delle schede rx 6000 e 7000.
Per rdna 4 in soldoni si parla di una simil 7900 xt monolitica, con magari qualche decina di watt di tdp in meno, e performance raster migliorate(immagino che finalmente si mettano al pari con le nvidia dell'attuale gen, quindi iso 4070 super/4070 ti per navi 48).
Peccato che 6 mesi dopo il lancio della 8800 xt ci dovrebbero essere già in giro la 5070/ti, e saremmo punto a capo ad aspettare la ventata di aria fresca di rdna 5 nel 2026.:rolleyes:
Non mi aspetto neanche miracoli da parte di nvidia a sto giro, ma vedendo come sono stati conservativi nello spremere i 5nm di tsmc(tutti i chippetti ada sono cloccati alla morte già di default) non ci vuol niente che salti fuori un trattamento stile kepler-> maxwell(pp simile o poco più maturo, ma uarch completamente rivista, dando una rasoiata a tutto ciò che è stato progettato/venduto fino a pochi mesi prima).
Ma tornando ad amd, è tutto un "in divenire" dove si aspetta l'ennesima rivoluzione dell'uarch, che puntualmente viene rimandata.
Si ad AMD serve lavorare sulla parte BVH, ma per il PT rimane il problema wave64.
RDNA4, da quello che si ipotizza pare essere una sorta di 7800xt rivista in RT, con 4096st/8196st DU con un 256mono e 4nmP. Quindi probabile boost, visto che RDNA31 usa celle molto dense con perdite.
Parlare di 7900xt è ancora prematuro, ma di certo dovrebbe fare meglio di navi32.
La microarchitetturale, non so se mantenga le caratteristiche di RDNA3.5 che va ad aggiungere un culling sui registri.
Con RDNA5, si spera che mettano mano pure alla micro, ma ormai AMD ci sta abituando a quel +54 perf/watt sulla big, che poi ovviamente non sempre si raggiunge, anzi.
RDNA3 top, allunga in buona parte per il bus.
Gyammy85
13-05-2024, 08:24
Mah, io più che altro contesto l'avanzamento dell'uarch in sè, che costantemente vede giusto dei minor update di gen in gen, senza mai essere matura a 360°. :rolleyes:
Il salto vega->rdna 1 era ottimo per rapporto prestazioni/consumi rispetto alla generazione precedente(grazie anche ai 7nm), ma mancava del tutto la parte raytracing.
Il salto navi 1->rdna 2 era decente per l'aggiunta del raytracing e tutto sommato la buona efficienza paragonato alle nvidia ampere(che però erano dotate di un silicio molto inferiore).
Ma nonostante tutto, la differenza tra una rx 6000 e una rtx 3000 con il raytracing attivo è tangibile.
Il salto rdna 2->rdna 3 è stato troppo poco marcato in fatto di uarch, non si è guadagnato quasi nulla in ipc e in raytracing a parità di cu/bandwith delle schede rx 6000 e 7000.
Per rdna 4 in soldoni si parla di una simil 7900 xt monolitica, con magari qualche decina di watt di tdp in meno, e performance raster migliorate(immagino che finalmente si mettano al pari con le nvidia dell'attuale gen, quindi iso 4070 super/4070 ti per navi 48).
Peccato che 6 mesi dopo il lancio della 8800 xt ci dovrebbero essere già in giro la 5070/ti, e saremmo punto a capo ad aspettare la ventata di aria fresca di rdna 5 nel 2026.:rolleyes:
Non mi aspetto neanche miracoli da parte di nvidia a sto giro, ma vedendo come sono stati conservativi nello spremere i 5nm di tsmc(tutti i chippetti ada sono cloccati alla morte già di default) non ci vuol niente che salti fuori un trattamento stile kepler-> maxwell(pp simile o poco più maturo, ma uarch completamente rivista, dando una rasoiata a tutto ciò che è stato progettato/venduto fino a pochi mesi prima).
Ma tornando ad amd, è tutto un "in divenire" dove si aspetta l'ennesima rivoluzione dell'uarch, che puntualmente viene rimandata.
Non mi pare, la 7800xt va tranquillamente come una 6900xt in raster e di più in rt, con 60 cu e 64 mb di cache, fra l'altro scala praticamente linearmente con le cu, lasciando stare la 7900 gre che è comunque frenata dalla banda
La questione è se volere una gpu da 900 mm2 che stranamente va forte nonostante sia più piccola di un minicomputer degli anni 70, o una gpu da 300 mm2 dalle prestazioni vergognosamente -10% rispetto al minicomputer da 900 mm2 che stranamente va più forte del 10% grazie al marketing ed alla fiducia nel futuro oltre nella sagacia nel capire "da che parte va il mondo"
Ale55andr0
13-05-2024, 08:36
Certo, la differenza fra la gpu da 300mmq e quella da 900mmq sarebbe del 10%
Dal magico mondo di Gyammy è tutto, a voi la linea studio :O
Gyammy85
13-05-2024, 08:41
Ceerto, perchè la differenza fra la gpu da 300mmq e quella da 900mmq sarebbe del 10%
Dal magico mondo di Gyammy è tutto, a voi la linea studio :O
La 4090 è un piastrellone appunto per stare davanti alla xtx che lato perf pure va pure troppo con miseri 62 tf
E siccome mi sembra che nvidia proseguirà con turing refresh ancora per diversi anni, è logico pensare che si arriverà alla situazione in cui confronteremo un dual chiplet da max 450 complessivi al monolitico vincente, e per forza di cose stante il prezzo per le top nvidia che è passato da 750 a 1300 a 2200 a probabilmente 3500 per la 5090, non esiste più il freno della razionalità, basta dire poi che "oh mi raccomando non compratela per il gaming, non è da gaming, per favore non fatelo"
"oh mi raccomando non compratela per il gaming, non è da gaming, per favore non fatelo"
:rotfl:
Ale55andr0
13-05-2024, 08:52
La 4090 è un piastrellone appunto per stare davanti alla xtx che lato perf pure va pure troppo con miseri 62 tf
"
parlare solo dei tflop senza considerare tutti gli altri fattori in campo non ha molto senso. Come contare i cv di un motore senza conoscere la curva di coppia, con che trasmissione verrò abbinato, quanto è pesante il mezzo che muoverà etc. Va di meno. In rt viene letteralmente stuprata e in raster siamo cmq sopra al 10% di media. A parte quello potrei dire che per quanto consuma la XTX fa troppo poco. Punti di vista.
ninja750
13-05-2024, 09:44
In rt viene letteralmente stuprata
si MA: parliamo sempre implementazioni RT zoppe e che guardando le solite medie ci mettono i soliti 2 titoli che fanno +100% su una somma di fps sotto i 20.. non per difendere una NETTA carenza sotto questo aspetto eh ma io sto ancora installando giochi RT-free che se pensiamo che le RTX2000 le hanno presentate tipo 6 anni fa oggi dovremmo essere tutti qui a giocare accecati dai raggi
invece parliamo di PT quando manco il RT è gestibile con 1800€.. cioè..
https://videocardz.com/newz/amd-rdna5-is-reportedly-entirely-new-architecture-design-rdna4-merely-a-bug-fix-for-rdna3
Si però non si può manco mettere le mani avanti così, è sempre un'uarch in divenire ultimamente. :rolleyes:
Speriamo bene, l'impressione è che rdna 4 esca più per dar contro ad intel con battlemage piuttosto che offrire un'alternativa diretta alle nvidia BW. :rolleyes:
è come la ferrari F1, l'anno prossimo sarà finalmente quello giusto! :O
OrazioOC
13-05-2024, 09:48
Non mi pare, la 7800xt va tranquillamente come una 6900xt in raster e di più in rt, con 60 cu e 64 mb di cache, fra l'altro scala praticamente linearmente con le cu, lasciando stare la 7900 gre che è comunque frenata dalla banda
La questione è se volere una gpu da 900 mm2 che stranamente va forte nonostante sia più piccola di un minicomputer degli anni 70, o una gpu da 300 mm2 dalle prestazioni vergognosamente -10% rispetto al minicomputer da 900 mm2 che stranamente va più forte del 10% grazie al marketing ed alla fiducia nel futuro oltre nella sagacia nel capire "da che parte va il mondo"
Il confronto sensato sarebbe appunto tra la 7900 gre e la 6900 o 6950 xt, visto che hanno entrambe 80 cu e 256 bit di bus, ergo la differenza di prestazione tra le due deriverebbe dritta per dritta dal guadagno in ipc tra rdna 2 e rdna 3.
https://tpucdn.com/review/sapphire-radeon-rx-7900-gre-pure/images/relative-performance-2560-1440.png
Non è che faccia proprio guadagni stratosferici. :asd:
Gyammy85
13-05-2024, 09:50
è come la ferrari F1, l'anno prossimo sarà finalmente quello giusto! :O
Diciamo che bisogna sminuire a tutti i costi, quindi mettere una pezza a rt significa "merely bug fix", perché a parti invertite sarebbe stato "perf pazzesche in rt per tutti a pochi euri"
Questo settore scende sempre più in basso, per poi sfoggiare il video con il muro di scatole dietro, che sanno a malapena infilare nel pc
Gyammy85
13-05-2024, 10:07
Il confronto sensato sarebbe appunto tra la 7900 gre e la 6900 o 6950 xt, visto che hanno entrambe 80 cu e 256 bit di bus, ergo la differenza di prestazione tra le due deriverebbe dritta per dritta dal guadagno in ipc tra rdna 2 e rdna 3.
https://tpucdn.com/review/sapphire-radeon-rx-7900-gre-pure/images/relative-performance-2560-1440.png
Non è che faccia proprio guadagni stratosferici. :asd:
Eh prendono la più inefficiente di tutte, che in teoria andrebbe quanto una 7900xt coi giusti clock, e anche i sassi sanno che le amd sono particolarmente dipendenti dalla banda
La realtà è che n32 va come o meglio di navi 21, era normale aspettarselo? si, era scontato? forse, era la cosa più semplice del mondo? no, la concorrenza ti avrebbe fatto pagare il semplice layout a chiplet il doppio "per via della incredibile complessità dei collegamenti" che effettivamente c'è con tanto di dichiarazioni di Sam Naffziger che nelle slide dice che in paragone la cache 3d dei ryzen è roba preistorica? assolutamente si
ninja750
13-05-2024, 10:28
Diciamo che bisogna sminuire a tutti i costi, quindi mettere una pezza a rt significa "merely bug fix", perché a parti invertite sarebbe stato "perf pazzesche in rt per tutti a pochi euri"
se tu AMD volessi veramente spingere sul RT, ti sganceresti da questo approccio ibrido di una unità acceleratore RT per CU a.. 2? 3?
se non lo fai nel redesign delle tue GPU vuol dire che per l'ennesima volta vuoi andare avanti col raster e rendere le tue vga giusto "rt compatibili".. per fortuna che upscaler e framegen ci mettono una pezza ma non migliorare in questo aspetto mi sembra ridicolo dopo sei anni
e te lo dice uno che non è assolutamente talebano di RT anzi
ghiltanas
13-05-2024, 10:29
leggevo l'altro giorno il discorso rdna 4 e 5, visto che oltre una certa fascia non me nè è mai importato una cippa, se con rdna4 fanno chip efficienti e dall'ottimo rapporto prezzo/prestazioni per me sarebbere già molto interessante
Gyammy85
13-05-2024, 10:40
se tu AMD volessi veramente spingere sul RT, ti sganceresti da questo approccio ibrido di una unità acceleratore RT per CU a.. 2? 3?
se non lo fai nel redesign delle tue GPU vuol dire che per l'ennesima volta vuoi andare avanti col raster e rendere le tue vga giusto "rt compatibili".. per fortuna che upscaler e framegen ci mettono una pezza ma non migliorare in questo aspetto mi sembra ridicolo dopo sei anni
e te lo dice uno che non è assolutamente talebano di RT anzi
Non è che puoi correre dietro a 1/2 giochi che ti ammazzano le perf perché si, deve essere tutto graduale, e loro hanno investito su mcm
Da anni funziona così, nvidia farcisce di unità dedicate le gpu sapendo che tanto esce sempre la killer app unica che vale per tutti, su amd mettere unità dedicate significa avere la certezza matematica che staranno lì a poltrire, si è visto con le hd2000 che avevano la tessellation in hardware 3 anni prima di nvidia, e si sta vedendo con le unità ai delle 7000, che stanno lì ad aspettare che lo """""sviluppatore"""""" le usi
mikael84
13-05-2024, 11:27
La questione è se volere una gpu da 900 mm2 che stranamente va forte nonostante sia più piccola di un minicomputer degli anni 70, o una gpu da 300 mm2 dalle prestazioni vergognosamente -10% rispetto al minicomputer da 900 mm2 che stranamente va più forte del 10% grazie al marketing ed alla fiducia nel futuro oltre nella sagacia nel capire "da che parte va il mondo"
Si 1km.:p
600mm2 vs 530mm2 (una è cuttata, l'altra con i collegamenti a 6nm)
A transistor (quelli che contano), sono circa 58 vs 76, ma sul full.
La 4090 ha circa 60-70mm2 disabilitati, tra un GPC e mezzo, 24mb di cache, 16 rop's, per un totale medio di 68mtransistor abilitati.
Possiamo dire che all'incirca ha attivi il 17% dei transistor in più di navi31
La 4080 super ha 45,6mtransistor vs 58, quindi navi31 ha circa il 28% di transistor in più.
Forse dovresti rivedere i tuoi calcoli, ma di netto.
Gyammy85
13-05-2024, 11:34
Si 1km.:p
600mm2 vs 530mm2 (una è cuttata, l'altra con gli collegamenti a 6nm)
A transistor (quelli che contano), sono circa 58 vs 76, ma sul full.
La 4090 ha circa 60-70mm2 disabilitata tra GPC e mezzo, 24mb di cache, 16 rop's, per un totale medio di 68mtransistor abilitati.
Possiamo dire che all'incirca ha attivi il 17% dei transistor.
La 4080 super ha 45,6mtransistor vs 58, quindi navi31 ha circa il 28% di transistor in più.
Forse dovresti rivedere i tuoi calcoli, ma di netto.
Si si, abbiamo anche 90 tf vs 60, comunque mi riferivo alla prossima gen, poi se saranno soltanto 701 mm2 invece di 900 cambia poco il senso del discorso, ma ripeto, a 3k il cliente vuole tutto grosso quindi ci sta
mikael84
13-05-2024, 11:49
Si si, abbiamo anche 90 tf vs 60, comunque mi riferivo alla prossima gen, poi se saranno soltanto 701 mm2 invece di 900 cambia poco il senso del discorso, ma ripeto, a 3k il cliente vuole tutto grosso quindi ci sta
90TF in SMT64, ovvero nei pro, essendo pensata per quello, in SMT48 gaming sono 3/4, dove tra software e gigathread scala spesso male in ambienti gaming.
AMD qua fa veramente meglio grazie al reg, arrivando ad occupazioni vettoriali tra il 60/70% vs 43 medi.
Infatti l'ISA di AMD non gestisce il PT, per via della wave64 che alloca 2x i registri. Nvidia non ha una wave64.
La prossima gen vediamo, certo la densità del 4nmp, non è molto più elevata del 5nm (4n), e possiamo aspettarci di tutto, ma è tutt'altro campo, che niente avrà a che vedere con le GPU mid (come 7900/4080) attuali o 4090 attuale, anzi visti i limiti TTP sulla cina, tra gaming/pro e gaming le segmentazioni saranno molto marcate.
ninja750
13-05-2024, 13:51
del 5nm (4n)
sia 7000 che 4000 sono tutte e due su questo?
CtrlAltSdeng!
13-05-2024, 13:53
La 4080 super ha 45,6mtransistor vs 58, quindi navi31 ha circa il 28% di transistor in più.
Forse dovresti rivedere i tuoi calcoli, ma di netto.
togliendo le cache fra le due suppongo i rapporti cambino.....
mikael84
13-05-2024, 15:20
sia 7000 che 4000 sono tutte e due su questo?
Stanno entrambe sul 5nm, la variante di nvidia è una mod per la l2, quindi più densità in sram, meno in logica. Grazie al 4n, la l2 ha un'area per 2mb di 1,8, mentre su AMD di oltre 4mb (anche se va detto che quella di AMD ha più banda).
Navi31 invece è drasticamente denso in logica, quasi il 30% per S.E. o WGP, avvicinandosi quais alla densità teorica di Mark bohr.
togliendo le cache fra le due suppongo i rapporti cambino.....
Si, in quel caso navi31 scenderebbe a 54mtransistor, ma ovviamente perderebbe un botto, visto che il vero salto di RDNA3 è proprio la banda. A 48WGP attivi si arriva a circa 700gb/s effettivi.
La caratteristica di AMD sta nel file di reg, capace di avere un uso vettoriale costante estremamente alto.
Ale55andr0
13-05-2024, 15:41
si MA: parliamo sempre implementazioni RT zoppe e che guardando le solite medie ci mettono i soliti 2 titoli che fanno +100% su una somma di fps sotto i 20..
Sarà perchè sono i soli titoli in cui l'rt...si vede, a differenza di quelli sponsorizzati AMD :asd:
Poi come tu non sei talebano RT figurati io che ho pure una AMD...
è come la ferrari F1, l'anno prossimo sarà finalmente quello giusto! :O
ovvio, anzi no, con l'aggiornamento di Imola gli facciamo il culo già quest'anno a Max, segnatevelo ( tanto non ho soldi per ripagare la scommessa persa :O )
PConly92
13-05-2024, 21:17
ovvio, anzi no, con l'aggiornamento di Imola gli facciamo il culo già quest'anno a Max, segnatevelo ( tanto non ho soldi per ripagare la scommessa persa :O )
ot:
la rb ha quasi 8 decimi di vantaggio sul passo gara.. difficile che ferrari o mcLaren possano infastidire la rb di max già quest'anno. forse nel 2025 con l'allontanamento di newey
ot:
la rb ha quasi 8 decimi di vantaggio sul passo gara.. difficile che ferrari o mcLaren possano infastidire la rb di max già quest'anno. forse nel 2025 con l'allontanamento di newey
re-ot : ma nemmeno in discesa dal Tambusisi ( zona Morowali ) ha 8 decimi di vantaggio sul passo gara da Ferrari :O
ninja750
17-05-2024, 08:30
usciti i 24.5.1 con supporto a ghost, installati ma al primo boot nessun radeon panel :stordita: al secondo è comparso spero sia stato un caso
tra l'altro segnalati come malware o provenienza non certificata da windows defender :D e meno male che sono WHQL :doh:
Gyammy85
17-05-2024, 09:27
usciti i 24.5.1 con supporto a ghost, installati ma al primo boot nessun radeon panel :stordita: al secondo è comparso spero sia stato un caso
tra l'altro segnalati come malware o provenienza non certificata da windows defender :D e meno male che sono WHQL :doh:
Io li ho messo ieri e nessun avviso o problema
usciti i 24.5.1 con supporto a ghost, installati ma al primo boot nessun radeon panel :stordita: al secondo è comparso spero sia stato un caso
tra l'altro segnalati come malware o provenienza non certificata da windows defender :D e meno male che sono WHQL :doh:
ho fatto qualche mese con il pannello che spariva, non davo più di tanto peso perché il mio Pc è acceso h24 e ho un delirio di programmi tra lavoro, gioco, ecc...ma adesso non "scompariscie" più
ninja750
17-05-2024, 14:53
intanto i fake frame di AMD sono gratis per tutti in GOT appena uscito
saranno contenti quelli con le RTX2000 e RTX3000 :O
Cutter90
17-05-2024, 15:06
intanto i fake frame di AMD sono gratis per tutti in GOT appena uscito
saranno contenti quelli con le RTX2000 e RTX3000 :O
In realtà da quello che ha detto Jurassik sembra che funzioni anche meglio del FG Nvidia (non ricordo in quale altro gioco era successo, ma poi uscì un patch per sistemare il Fg Nvidia e andò meglio). Quindi sono contento anche io che ho una 4000 :)
marbasso
18-05-2024, 13:14
intanto i fake frame di AMD sono gratis per tutti in GOT appena uscito
saranno contenti quelli con le RTX2000 e RTX3000 :O
Yep, con la 2080ti va alla grande. A livello di riesumazione.
Posso mettere il dlss ed attivare il FG con amd fsr
Ale55andr0
18-05-2024, 21:51
ovvio, anzi no, con l'aggiornamento di Imola gli facciamo il culo già quest'anno a Max, segnatevelo ( tanto non ho soldi per ripagare la scommessa persa :O )
#mavaffanculova
marbasso
19-05-2024, 13:01
#mavaffanculova
Azz fai tutto te ormai :D
Edit 16.40, 7 secondi...
Ale55andr0
19-05-2024, 20:22
Azz fai tutto te ormai :D
Edit 16.40, 7 secondi...
dato confortante, ma sta macca :rolleyes:
/OT
ninja750
20-05-2024, 14:21
RX7000 sempre in lieve calo, su sapphire siamo alla stregua dei 500 tondi per la 7800XT e 420 per la 7700XT. praticamente fuori mercato la MBA a 550 sul sito AMD
psycho91
20-05-2024, 14:57
RX7000 sempre in lieve calo, su sapphire siamo alla stregua dei 500 tondi per la 7800XT e 420 per la 7700XT. praticamente fuori mercato la MBA a 550 sul sito AMD
Sempre troppo, le vendite su mindfactory sono in caduta libera nelle ultime tre settimane:
https://x.com/TechEpiphanyYT/status/1792129565910864063
CtrlAltSdeng!
20-05-2024, 15:11
A me pare sia il mondo gpu in caduta totale...basta vedere sul mercatino qui quanto durano annunci di schede usate che anni fa sarebbero andate vendute nella stessa giornata della pubblicazione :stordita:
psycho91
20-05-2024, 15:18
A me pare sia il mondo gpu in caduta totale...basta vedere sul mercatino qui quanto durano annunci di schede usate che anni fa sarebbero andate vendute nella stessa giornata della pubblicazione :stordita:
Hai ragione... ma se cala la domanda, per vendere lo stesso numero di GPU (ci sono stati mesi nel 2024 che su mindfactory vendevano 600 rx7800xt a settimana, ora fanno 580 in tre), devi per forza di cose ridurre il prezzo. Oppure accetti di vendere poche schede e riempire gli scaffali, o ancora, tagliare drasticamente la produzione...
ninja750
20-05-2024, 15:26
beh aggiungiamo che chi voleva comprare una 7000 l'ha fatto un anno e mezzo fa :fagiano: anche chi oggi è intenzionato, magari aspetta le 8000 anche solo per un riposizionamento di prezzo
Gyammy85
21-05-2024, 08:38
Sempre troppo, le vendite su mindfactory sono in caduta libera nelle ultime tre settimane:
https://x.com/TechEpiphanyYT/status/1792129565910864063
Quindi sto shop non vale quando amd vende in assoluto di più ma vale se nvidia per sbaglio vende un pacco di 4090? :asd:
La 7800xt sempre prima comunque, nonostante la uber-best-buy-ever 4070 super
beh aggiungiamo che chi voleva comprare una 7000 l'ha fatto un anno e mezzo fa :fagiano: anche chi oggi è intenzionato, magari aspetta le 8000 anche solo per un riposizionamento di prezzo
beh direi, anche perchè quasi come altri componenti elettronici sembra che con il passare del tempo il prezzo non cambi più di tanto :mc: :mc: :mc: :mc:
StylezZz`
21-05-2024, 09:02
(ci sono stati mesi nel 2024 che su mindfactory vendevano 600 rx7800xt a settimana, ora fanno 580 in tre)
Non ha più senso prendere la 7800 sopra i 500, a 550 ci prendi la 7900 GRE che io reputo come la 6800 di questa gen (eccetto i consumi).
psycho91
21-05-2024, 12:10
Non ha più senso prendere la 7800 sopra i 500, a 550 ci prendi la 7900 GRE che io reputo come la 6800 di questa gen (eccetto i consumi).
Anche la 7900gre ha quasi sempre fatto 150 a settimana, ora nelle ultime tre settimane ha venduto meno di 300...
OrazioOC
21-05-2024, 13:32
Anche la 7900gre ha quasi sempre fatto 150 a settimana, ora nelle ultime tre settimane ha venduto meno di 300...
C'è anche da dire che il periodo di picco delle vendite post natalizio/pasquale è ormai finito. Tempo un paio di settimane e siamo in estate. :asd:
Detto questo, onestamente chi voleva una rx 7000 o una rtx 4000 di tempo ne ha avuto, e chi rinnova l'hardware con tempistiche più lunghe è sempre alla finestra in attesa dei saldi di fine serie(che inevitabilmente arriveranno dopo l'estate con l'arrivo delle RDAN4/Intel Battlemage e RTX 5000). :)
ninja750
21-05-2024, 13:53
Detto questo, onestamente chi voleva una rx 7000 o una rtx 4000 di tempo ne ha avuto, e chi rinnova l'hardware con tempistiche più lunghe è sempre alla finestra in attesa dei saldi di fine serie(che inevitabilmente arriveranno dopo l'estate con l'arrivo delle RDAN4/Intel Battlemage e RTX 5000). :)
con il piccolo particolare che nel caso di AMD la top rimarrà la 7900XTX quindi chi guarda quel segmento avrà poche differenze rispetto ad oggi, se non magari un miserrimo refresh 7950XTX da +200mhz o tipo -30w
OrazioOC
21-05-2024, 15:04
con il piccolo particolare che nel caso di AMD la top rimarrà la 7900XTX quindi chi guarda quel segmento avrà poche differenze rispetto ad oggi, se non magari un miserrimo refresh 7950XTX da +200mhz o tipo -30w
Se mi esce una iso 7900 xt/4070 ti super migliorata nei consumi/ray tracing al prezzo di una 7900 gre(ed è probabile), chi ti và a scegliere la 7900 xtx a 1000 euro per andare il 10% in più in raster? :asd:
E' un po' come scegliere vega 7 vs rx 5700 xt. :asd:
zanflank
21-05-2024, 15:30
Se mi esce una iso 7900 xt/4070 ti super migliorata nei consumi/ray tracing al prezzo di una 7900 gre(ed è probabile), chi ti và a scegliere la 7900 xtx a 1000 euro per andare il 10% in più in raster? :asd:
E' un po' come scegliere vega 7 vs rx 5700 xt. :asd:
Eppure la prima è andata a ruba per il mining :D che tempi
ninja750
21-05-2024, 15:35
Se mi esce una iso 7900 xt/4070 ti super migliorata nei consumi/ray tracing al prezzo di una 7900 gre(ed è probabile), chi ti và a scegliere la 7900 xtx a 1000 euro per andare il 10% in più in raster? :asd:
E' un po' come scegliere vega 7 vs rx 5700 xt. :asd:
infatti non ci arrivano alla 7900XT, si posizioneranno più sotto, parliamo sempre di sole 32WGP (64cu) che puoi clocare anche a 3ghz ma per me non basteranno
poi chiaro che se esci con un prezzo aggressivo tipo 450€, o fai un refresh sopra per giustificare il prezzo che rimane uguale oppure dai semplicemente un taglio al listino della top tipo 750€ ma quest'ultima dovrà vedersela con le future RTX5000 quindi se di là proporranno una 5070 con perf 4080like a 750€ ok altrimenti dovrai limare ulteriormente ma almeno avrai amortizzato tutti i costi correlati e non perderai tutto sto market share
questa mossa di amd potrebbe servire anche per temporeggiare nel vedere quali imperdibili features si inventerà questa volta giacco e proporle con la big che verrà, feature che probabilmente non saranno un selling point sulle fasce sotto ripeto per me si tratta di qualcosa legato all'HDR
OrazioOC
21-05-2024, 15:41
infatti non ci arrivano alla 7900XT, si posizioneranno più sotto, parliamo sempre di sole 32WGP (64cu) che puoi clocare anche a 3ghz ma per me non basteranno
poi chiaro che se esci con un prezzo aggressivo tipo 450€, o fai un refresh sopra per giustificare il prezzo che rimane uguale oppure dai semplicemente un taglio al listino della top tipo 750€ ma quest'ultima dovrà vedersela con le future RTX5000 quindi se di là proporranno una 5070 con perf 4080like a 750€ ok altrimenti dovrai limare ulteriormente ma almeno avrai amortizzato tutti i costi correlati e non perderai tutto sto market share
questa mossa di amd potrebbe servire anche per temporeggiare nel vedere quali imperdibili features si inventerà questa volta giacco e proporle con la big che verrà, feature che probabilmente non saranno un selling point sulle fasce sotto ripeto per me si tratta di qualcosa legato all'HDR
Ma in verità alcuni leak parlano proprio di un target da 7900 xt, e visto che il chip sembrerebbe di dimensioni simil 7800 xt ma monolitico, io gli darei fiducia. :O
Essere sotto alla 7900 xt(o anche sotto alla 7900 gre a questo punto) per una scheda video da 550 euro in arrivo nell'ormai 2025 sà molto di aspettative mancate. :rolleyes:
Anche perchè non ci sono solo le 5070 da tenere d'occhio, ma pure le battlemage. :)
mikael84
21-05-2024, 15:53
questa mossa di amd potrebbe servire anche per temporeggiare nel vedere quali imperdibili features si inventerà questa volta giacco e proporle con la big che verrà, feature che probabilmente non saranno un selling point sulle fasce sotto ripeto per me si tratta di qualcosa legato all'HDR
Il problema è la nanometria, ovvero i 3nm, quindi sia per AMD che per nvidia, sarà una gen intermedia, dove nvidia però lancerà il big chip per pro adattato al gaming a costi altissimi, quindi fa storia a se ormai.
AMD ciò che farà, altro non è che tirare fuori una simil 7600, ma con i 4nmp, dove grazie alla densità (si arriverà a quasi 3x), isofrequenza, riuscirà a tirare molto di più da un die analogo o quasi.
Una situazione simil 5700xt, per poi rivedere quasi tutto con RDNA5, come accade con RDNA2, dove li fu rivisto tutto, a partire dall'utilizzo delle librerie HP elvt del nodo ed i lavori di clock gating.
Nvidia avrà a disposizione i 3nmHP a partire da rubin HPC fine 2025/inizi 26. AMD seguirà con i 3nm e RDNA5.
ninja750
21-05-2024, 16:17
Essere sotto alla 7900 xt(o anche sotto alla 7900 gre a questo punto) per una scheda video da 550 euro in arrivo nell'ormai 2025 sà molto di aspettative mancate. :rolleyes:
Anche perchè non ci sono solo le 5070 da tenere d'occhio, ma pure le battlemage. :)
ma non costerà 550 dai, sarà segmento medio/basso male che vada sarà 450€ altrimenti fanno prima a chiudere bottega, come giustamente dici intel in quel segmento ci sarà eccome e non puoi farla fuori dal vaso
AMD ciò che farà, altro non è che tirare fuori una simil 7600, ma con i 4nmp, dove grazie alla densità (si arriverà a quasi 3x), isofrequenza, riuscirà a tirare molto di più da un die analogo o quasi.
ripeto se i leak hanno parvenza di mezza realtà fai tu i conti di quanto dovranno clockare quelle 64cu per pareggiare la 7900XT, a meno che non rivoluzionino tutto
mikael84
21-05-2024, 16:27
ma non costerà 550 dai, sarà segmento medio/basso male che vada sarà 450€ altrimenti fanno prima a chiudere bottega, come giustamente dici intel in quel segmento ci sarà eccome e non puoi farla fuori dal vaso
ripeto se i leak hanno parvenza di mezza realtà fai tu i conti di quanto dovranno clockare quelle 64cu per pareggiare la 7900XT, a meno che non rivoluzionino tutto
Infatti, al momento parliamo di 32WGP, ed un 256bit monolitico sempre g6.
Lato microarchitettura, si parla di RDNA3.5, che prevede un culling per il reg, poca roba. Il clock è da vedere, se hanno usato celle HP per gli shader, con i 4nmP non salirai tantissimo... ma qua dipende dalla progettazione del circuito e l'assemblazione dei transistor.
L'unico aspetto però, sono le possibili unità BVH/SER (che AMD chiamava oreo), perchè se recuperi li, e perdi in raster, in base al prezzo ed ai consumi, la rendi molto appetibile.
In fondo si dovrà scontrare con la serie x70 di nvidia blackwell, che pare per lo più un refresh, salvo soluzioni nuove AI.
marbasso
21-05-2024, 21:04
Forza cacciate i risultati con steel nomad (è free) in primis possibilmente stock chi ha una vga sopra la 7900gre, poi anche in oc se vi va.
:)
Forza cacciate i risultati con steel nomad (è free) in primis possibilmente stock chi ha una vga sopra la 7900gre, poi anche in oc se vi va.
:)
scaricato, domani faccio qualche run :O
Forza cacciate i risultati con steel nomad (è free) in primis possibilmente stock chi ha una vga sopra la 7900gre, poi anche in oc se vi va.
:)
e che roba sarebbe?
e che roba sarebbe?
nuovo bench di 3d mark, se ce l'hai su steam lo puoi scaricare dall'elenco dei dlc disponibili
marbasso
21-05-2024, 22:43
scaricato, domani faccio qualche run :O
Gud :)
Gundam1973
21-05-2024, 22:43
con la 6900xt a 2750@2100 PT. 4570
Edit:
visto che c'ero ho fatto anche un light PT. 23010
nuovo bench di 3d mark, se ce l'hai su steam lo puoi scaricare dall'elenco dei dlc disponibili
ho la versione free scaricata dal sito...
provato a fare il test col pc in firma ed è pesantissimo,in quad hd mi tiene a stento i 60 fps.
ho fatto 5950 punti,cpu a 4750 mhz e vga frequenze stock.
https://i.postimg.cc/g2YXzzJQ/Screenshot-2024-05-22-084555.png
Sono sotto di 200 punti all'average score https://i.postimg.cc/Cxp6YGs9/014.gif
light:
https://i.postimg.cc/MZjLWxfW/Screenshot-2024-05-22-085116.png
a me non lo fa partire e da errore
a me non lo fa partire e da errore
Prova a riavviare Steam o il Pc
a me non lo fa partire e da errore
C'è una risposta di uno sviluppatore sul forum steam...pare ci sia da aspettare una patch.
marbasso
22-05-2024, 12:03
Eh, ieri sera c'era un casino sul sito 3dm, server bloccati, punteggi che tardavano u. Sacco a essere convalidati. Sto bench ha fatto boom.
Cmq con la 2080ti ho fatto 4500 e qualcosa. Ma potrei migliorare qualcosa.
Livello 3080,4070,7900gre,7800xt.
Non perdete tempo a fare il light non serve a nulla.
ninja750
23-05-2024, 09:11
amd ci rinuncia e Antilag2 diventa una feature da implementare nel gioco e attivabile da RDNA1 in avanti
https://cdn.wccftech.com/wp-content/uploads/2024/05/AMD_Radeon_Anti_Lag2_Counter_Strike2_latency_chart.jpg
https://wccftech.com/amd-radeon-anti-lag-2-game-integrated-tech-counter-strike-2-preview-available/
peccato perchè ovviamente da driver si poteva applicare in tutti i giochi
ninja750
23-05-2024, 09:13
uscita nuova release preview per poter provare questa feature in csgo2
amd ci rinuncia e Antilag2 diventa una feature da implementare nel gioco e attivabile da RDNA1 in avanti
tutto per "colpa" dei cheaters :asd: :muro:
alethebest90
23-05-2024, 09:47
tutto per "colpa" dei cheaters :asd: :muro:
a me pare sempre un complotto ogni volta che lancia qualcosa di buono, un po come la Ferrari appena va piu degli altri la FIA interviene :stordita:
colpa degli iNvidiosi :asd:
Gyammy85
23-05-2024, 10:04
C'è una risposta di uno sviluppatore sul forum steam...pare ci sia da aspettare una patch.
Eh la patch per il benchmark, ma questi """""""sviluppatori""""""""" so troppo bravi! :O
Eh la patch per il benchmark, ma questi """""""sviluppatori""""""""" so troppo bravi! :O
in effetti la patch per un bench fa ridere per non piangere :rotfl:
ninja750
23-05-2024, 13:54
nuova conferma che non ci sarà una RDNA4 fascia alta, stavolta proprio da AMD anche se indirettamente
https://videocardz.com/newz/amd-confirms-navi-44-navi-48-rdna4-gpus-through-rocm-update
sempre più perplesso da questa scelta specialmente se non saranno in grado di proporla ad un prezzo super aggressivo. stagnazione delle perf mai viste in questi ultimi anni
nuova conferma che non ci sarà una RDNA4 fascia alta, stavolta proprio da AMD anche se indirettamente
https://videocardz.com/newz/amd-confirms-navi-44-navi-48-rdna4-gpus-through-rocm-update
sempre più perplesso da questa scelta specialmente se non saranno in grado di proporla ad un prezzo super aggressivo. stagnazione delle perf mai viste in questi ultimi anni
Chiaro che AMD dovrà riuscire a proporre una fascia media con un rapporto prezzo/prestazioni decente ma ci sarà poi da vedere come evolverà il mercato dei videogames in generale, tra chiusure di interi studi, licenziamenti dal giorno alla notte e distributori che hanno farcito i team di sviluppo di attivisti politici c'è da mettersi le mani in testa :doh:
Ihmo lo scenario generale è ben peggiore di "Amd non farà più la fascia alta" :fagiano:
Gyammy85
23-05-2024, 14:55
nuova conferma che non ci sarà una RDNA4 fascia alta, stavolta proprio da AMD anche se indirettamente
https://videocardz.com/newz/amd-confirms-navi-44-navi-48-rdna4-gpus-through-rocm-update
sempre più perplesso da questa scelta specialmente se non saranno in grado di proporla ad un prezzo super aggressivo. stagnazione delle perf mai viste in questi ultimi anni
O fanno stile 5000 che dopo un anno esce rdna5 top
ninja750
23-05-2024, 15:06
O fanno stile 5000 che dopo un anno esce rdna5 top
ok ma resta il fatto che stagnamo un altro anno con le stesse perf +- 7900GRE che si potevano comprare 4 anni fa
stagnazione e' presto dirlo, con rdna4 sembra e lo spero che a questo giro vogliono riallinearsi agli standard odierni che il mercato pretende, cioe' alti miglioramenti in RT e i vari fake-generetor in HW e HQ, meno in raster
perche se continuano a mettere la testa sotto la sabbia la dipartita e' scontata, senza contare che c'e' anche intel a questo giro da controbattere, una intel che comunque in RT aveva fatto meglio gia dal primo tentativo..
poi che non ci sara' la big di turno pazienza, tanto in quella fascia si sa che vai di nvidia e che non si accettano compromessi, meglio risparmiare risorse per mercati ben piu' remunerativi
mikael84
23-05-2024, 15:41
nuova conferma che non ci sarà una RDNA4 fascia alta, stavolta proprio da AMD anche se indirettamente
https://videocardz.com/newz/amd-confirms-navi-44-navi-48-rdna4-gpus-through-rocm-update
sempre più perplesso da questa scelta specialmente se non saranno in grado di proporla ad un prezzo super aggressivo. stagnazione delle perf mai viste in questi ultimi anni
E' per una questione di nanometria quasi sicuramente, anche nvidia, salvo GB202 (più che altro per pro), farà una sorta di refresh sotto col 4nmP, che useranno tutti, da black, a rdna4 a battlemage.
Nvidia pare poter utilizzare i 3nm a partire da fine anno prossimo con Rubin HPC, quindi sarà a tutti gli effetti una gen. transitoria per tutte.
Anche zen5, dovrebbe usare i 4nmP.
Con RDNA5 si dovrebbe ridisegnare gran parte di microarchitettura, e di sicuro lo faranno su un nodo avanzato, soprattutto per una questione di densità.
C'è una risposta di uno sviluppatore sul forum steam...pare ci sia da aspettare una patch.
Grazie poi riproverò.
Ho notato che la vga faceva anche un rumorino strano quando tentativo di lanciare il bench
marbasso
23-05-2024, 15:52
Grazie poi riproverò.
Ho notato che la vga faceva anche un rumorino strano quando tentativo di lanciare il bench
Ma sulla 6750?
Grazie poi riproverò.
Ho notato che la vga faceva anche un rumorino strano quando tentativo di lanciare il bench
Uscito aggiornamento, adesso funziona :).
Ma sulla 6750?
Si. Appena ho un attimo riprovo
marbasso
23-05-2024, 20:12
Si. Appena ho un attimo riprovo
Ah ok.
ninja750
24-05-2024, 09:49
con una 6700XT dovresta fare sui 2600pt
https://forums.guru3d.com/attachments/upload_2024-5-23_23-20-46-png.26252/
le 6800 lisce sono sui 3500pt
Con la scheda stabile:
https://i.postimg.cc/DZZdDbW7/steel-nomad-l.jpg (https://postimages.org/)
marbasso
24-05-2024, 12:01
Con la scheda stabile:
https://i.postimg.cc/DZZdDbW7/steel-nomad-l.jpg (https://postimages.org/)
Non fare il light fai lo standard in dx12.
Ah mi son dimenticato, i drivers son i 24.4.
https://i.postimg.cc/QdFFRkm4/steel-nomad-1.jpg (https://postimages.org/)
marbasso
24-05-2024, 15:53
Ah mi son dimenticato, i drivers son i 24.4.
https://i.postimg.cc/QdFFRkm4/steel-nomad-1.jpg (https://postimages.org/)
Ma non l' hai tirata nulla sta vga....0.989v
marbasso
24-05-2024, 18:10
Ma postate i risultati anche nella sezione benchmark, ma che diamine....
https://www.hwupgrade.it/forum/showthread.php?t=2994357
marbasso
26-05-2024, 16:51
Tutti contenti che ha vinto la Ferrari :)
ninja750
27-05-2024, 14:55
probabilmente al computex verrà presentata la 7650M XT esterna primariamente per notebook ovviamente
https://videocardz.com/newz/amd-reportedly-preparing-radeon-rx-7650m-xt-launching-as-external-gpu-in-july
https://itc.ua/wp-content/uploads/2024/05/AAOSTAR-RADEON-7650M-XT1.png
Gyammy85
27-05-2024, 14:59
probabilmente al computex verrà presentata la 7650M XT esterna primariamente per notebook ovviamente
https://videocardz.com/newz/amd-reportedly-preparing-radeon-rx-7650m-xt-launching-as-external-gpu-in-july
https://itc.ua/wp-content/uploads/2024/05/AAOSTAR-RADEON-7650M-XT1.png
Dov'è la risposta di nVidia? :eek:
AceGranger
27-05-2024, 15:32
Dov'è la risposta di nVidia? :eek:
si accontenta di metterle direttamente dentro al 90% dei notebook :asd:
ninja750
27-05-2024, 15:52
si accontenta di metterle direttamente dentro al 90% dei notebook :asd:
pensandoci questa soluzione risolverebbe la questione delle vga 4 slot da 5kg che richiedono slot pci.x rinforzato
che creino uno standard esterno ovviamente alimentato a parte :read:
AceGranger
27-05-2024, 15:56
pensandoci questa soluzione risolverebbe la questione delle vga 4 slot da 5kg che richiedono slot pci.x rinforzato
che creino uno standard esterno ovviamente alimentato a parte :read:
bè, se va avanti cosi, potrebbero fare uno standard dove monti il resto del PC sulla scheda video :asd:
bè, se va avanti cosi, potrebbero fare uno standard dove monti il resto del PC sulla scheda video :asd:
pensandoci questa soluzione risolverebbe la questione delle vga 4 slot da 5kg che richiedono slot pci.x rinforzato
che creino uno standard esterno ovviamente alimentato a parte :read:
giusto, si aprirebbe anche il mercato per i case per le schede video, ovviamente il cavo di collegamento scheda video - scheda madre deve essere qualcosa con dentro metalli preziosi che costano svariate migliaia di € al grammo
Arrow0309
27-05-2024, 23:50
Riposto visto che vi siete spostati qui:
Come va la RX 7600S su un portatile TUF A16?
Sto per un lavoro lontano e ci vorranno forse due mesi.
Mi sto inscimmiando, ho già un ultrabook (Redmibook Pro 2023 Ryzen ed.) ma seppur ottima la 780M integrata non regge i giochi recenti. :mc:
Volendo c'e' pure un A16 con la 7700S ma costa di piu', credo che per il 1920:1200 di questi portatili da 16" basta anche la 7600S.
Gyammy85
28-05-2024, 11:59
si accontenta di metterle direttamente dentro al 90% dei notebook :asd:
Mi sembra pochino il 90% però
pensandoci questa soluzione risolverebbe la questione delle vga 4 slot da 5kg che richiedono slot pci.x rinforzato
che creino uno standard esterno ovviamente alimentato a parte :read:
Voodoo 5 6000 docet? :D
Scherzi a parte, non c'era già qualcosa in giro da qualche anno come gpu collegabile esternamente? O ricordo male io?
Gyammy85
29-05-2024, 08:18
Voodoo 5 6000 docet? :D
Scherzi a parte, non c'era già qualcosa in giro da qualche anno come gpu collegabile esternamente? O ricordo male io?
Ci sono gli enclosure dove puoi metterci qualsiasi scheda, hanno l'alimentatore dentro ma sono abbastanza grossi e poco portatili
HadesSaint
29-05-2024, 15:09
post cancellato
Ci sono gli enclosure dove puoi metterci qualsiasi scheda, hanno l'alimentatore dentro ma sono abbastanza grossi e poco portatili
Ah ecco! Effettivamente in circolazione non ne ho mai visti, questo proposto da AMD potrebbe essere una buona soluzione per chi usa il portatile a casa tipo desktop per gaming.
ninja750
04-06-2024, 10:36
non avevano anticipato che avrebbero dato qualche briciola di informazione su RDNA3.5 o RDNA4 o la nuova CDNA?
non avevano anticipato che avrebbero dato qualche briciola di informazione su RDNA3.5 o RDNA4 o la nuova CDNA?
Solo AI del cavolo e i ryzen 9... :muro:
A64FX+DFI nF4
04-06-2024, 19:54
Ecco CDNA (https://videocardz.com/newz/amd-instinct-mi325x-gets-288gb-hbm3e-memory-mi350x-with-cdna4-set-for-2025-mi400-with-cdna-next-launching-in-2026)
ninja750
05-06-2024, 09:25
Ecco CDNA (https://videocardz.com/newz/amd-instinct-mi325x-gets-288gb-hbm3e-memory-mi350x-with-cdna4-set-for-2025-mi400-with-cdna-next-launching-in-2026)
solo 288gb di vram?
cmq notevole
https://cdn.videocardz.com/1/2024/06/AMD-CDNA4-768x225.jpg
https://cdn.videocardz.com/1/2024/06/AMD-CDNA3-768x227.jpg
CtrlAltSdeng!
05-06-2024, 09:30
Voglio una CDNA per pompare l'RT su cyberpunk :O
RoUge.boh
05-06-2024, 10:27
Solo AI del cavolo e i ryzen 9... :muro:
beh anche NVIDIA stesso discorso (2 ore di fuffa) ma i big money sono li.
Lato CPU AMD ha fatto il minimo (non avendo rivali..), :rolleyes: lato GPU mi aspetto lo stesso.:rolleyes:
Avranno spostato il 95% della ricerca e sviluppo facendo il minimo in altri ambiti
al computex Micron presenta le GDDR7, che promettono faville..
davo per scontato che tanto nvidia avrebbe avuto l'esclusiva all'inizio, visto che di solito amd va al risparmio..
ma in fondo al comunicato c'e' anche una dichiarazione di un rappresentante AMD, Joe Macri, dove conferma di essere partner e l'imminente uso di queste memorie:)
https://videocardz.com/press-release/micron-announces-32-gbps-gddr7-memory-for-next-gen-gpus-is-now-sampling
solo non mi e' chiaro una cosa, ma per usare questo tipo di memorie, la gpu deve avere un controller apposito?
o il controller e' univoco e poi sei libero di scegliere(gddr6/7) quale vuoi usare?
probabile, visto il rinvio/rinuncia della big, che ad AMD non gli rimane altro che pompare quello che gli rimane, cioe' navi48, ma per evitare ogni tipo di limitazione la gddr7 e' proprio il jolly di cui amd ha bisogno, anche perche le sue architetture sono sempre affamate di banda
ma se il controller non lo permette perche navi 48 e' stato progettato con il MC gddr6.. :(
forse era una dichiarazione di facciata, stanno collaborando per prodotti futuri, o era per la big ma ormai..
ninja750
05-06-2024, 13:20
al computex Micron presenta le GDDR7, che promettono faville..
davo per scontato che tanto nvidia avrebbe avuto l'esclusiva all'inizio, visto che di solito amd va al risparmio..
ma in fondo al comunicato c'e' anche una dichiarazione di un rappresentante AMD, Joe Macri, dove conferma di essere partner e l'imminente uso di queste memorie:)
da quello che ho capito io non hanno presentato ma hanno fatto poco più di un tease e quindi siamo ancora lontani dalla commercializzazione/adozione, per me è inverosimile che i chippini AMD adottino questa soluzione troppo nuova troppo costosa e acerba, ma è praticamente sicuro che lo faranno sulle successive big compresa
CtrlAltSdeng!
05-06-2024, 13:36
L’mc è l’ultimo dei problemi direi
Annunciate significano che sono ancora mesi lontane all’essere usate sul campo
Nvidia le userà sicuro partendo da binning conservativi e scalerà in futuro con le scontate super ti o che dir si voglia
RTG invece anche a sto giro fallirà e quindi che ve devo di’ :O
marbasso
05-06-2024, 14:40
Oddio l' imc non è un problema.
Dai 20gbps di una 7900xt ai 32gbps micron ultimi grido non è che sia una passeggiata...
CtrlAltSdeng!
05-06-2024, 14:44
Oddio l' imc non è un problema.
Dai 20gbps di una 7900xt ai 32gbps micron ultimi grido non è che sia una passeggiata...
certo, perchè uno è GDDR6 e l'altro GDDR7 .... non c'entrano i dati di targa in sè è che sono proprio due standard diversi
alder lake era doppio controller ddr4 e 5, per esempio
mikael84
05-06-2024, 15:08
al computex Micron presenta le GDDR7, che promettono faville..
davo per scontato che tanto nvidia avrebbe avuto l'esclusiva all'inizio, visto che di solito amd va al risparmio..
ma in fondo al comunicato c'e' anche una dichiarazione di un rappresentante AMD, Joe Macri, dove conferma di essere partner e l'imminente uso di queste memorie:)
https://videocardz.com/press-release/micron-announces-32-gbps-gddr7-memory-for-next-gen-gpus-is-now-sampling
solo non mi e' chiaro una cosa, ma per usare questo tipo di memorie, la gpu deve avere un controller apposito?
o il controller e' univoco e poi sei libero di scegliere(gddr6/7) quale vuoi usare?
probabile, visto il rinvio/rinuncia della big, che ad AMD non gli rimane altro che pompare quello che gli rimane, cioe' navi48, ma per evitare ogni tipo di limitazione la gddr7 e' proprio il jolly di cui amd ha bisogno, anche perche le sue architetture sono sempre affamate di banda
ma se il controller non lo permette perche navi 48 e' stato progettato con il MC gddr6.. :(
forse era una dichiarazione di facciata, stanno collaborando per prodotti futuri, o era per la big ma ormai..
Certo il MC va rivisto.
Cmq, lo standard Gddr7 soppianta il g6, quindi possono utilizzarlo tutti, da nvidia a amd/intel.
Al momento il ratio che utilizzerà nvidia pare essere molto basso, ovvero di 28.
Micron solo è partner nvidia, infatti le sue g5x e g6x pam4, sono state standardizzate per nvidia.
Riguardo navi48, sarà quasi sicuramente ancora su g6, in attesa di mettere mano ai 3nm.
CtrlAltSdeng!
05-06-2024, 15:26
Se il focus di amd è veramente una nuova "5700XT" per le masse le ddr6 pompate con una nuova cache estesa dovrebbero essere la soluzione tecnica giusta....per il resto, vedremo.
A64FX+DFI nF4
05-06-2024, 18:05
solo 288gb di vram?
cmq notevole
https://cdn.videocardz.com/1/2024/06/AMD-CDNA4-768x225.jpg
https://cdn.videocardz.com/1/2024/06/AMD-CDNA3-768x227.jpg
facile, hanno dimezzato la precisione dei dati, quel 35x su cdna3 sarà con i calcoli fp4
Gyammy85
06-06-2024, 08:27
facile, hanno dimezzato la precisione dei dati, quel 35x su cdna3 sarà con i calcoli fp4
CDNA3 supporta FP8, fosse solo quello andrebbe al doppio, non certo 35x
Chissà quanta roba infileranno dentro, mostruosamente grossa e potente, a 3 nm
facile, hanno dimezzato la precisione dei dati, quel 35x su cdna3 sarà con i calcoli fp4
E' tutt'altro che facile, comunque il target quello e' fp4/fp8.
Ale55andr0
10-06-2024, 19:35
cmq se fanno una 7900xtx migliorata in RT (+20%) con 16gb per risparmiare qualcosa ( sono cmq perfettamente adeguati per tutta la gen sino all'uscita di PS6/series X2) a 600 cucuzze sarebbe una bellissima gpu imho, una degna erede della 5700XT per rapporto prezzo prestazioni. E lancerei solo quella, il cut lo lascerei al pro, mentre schede più devastate lato bus e ram da 2/300 euro ormai non servono a un tubo, con le buone APU si gioca 1080p
LurenZ87
11-06-2024, 07:19
cmq se fanno una 7900xtx migliorata in RT (+20%) con 16gb per risparmiare qualcosa ( sono cmq perfettamente adeguati per tutta la gen sino all'uscita di PS6/series X2) a 600 cucuzze sarebbe una bellissima gpu imho, una degna erede della 5700XT per rapporto prezzo prestazioni. E lancerei solo quella, il cut lo lascerei al pro, mentre schede più devastate lato bus e ram da 2/300 euro ormai non servono a un tubo, con le buone APU si gioca 1080pMagari, però con consumi più contenuti visto che la XTX è un forno... Dove si firma??? :D
Inviato dal mio ThinkPhone utilizzando Tapatalk
OrazioOC
11-06-2024, 07:33
cmq se fanno una 7900xtx migliorata in RT (+20%) con 16gb per risparmiare qualcosa ( sono cmq perfettamente adeguati per tutta la gen sino all'uscita di PS6/series X2) a 600 cucuzze sarebbe una bellissima gpu imho, una degna erede della 5700XT per rapporto prezzo prestazioni. E lancerei solo quella, il cut lo lascerei al pro, mentre schede più devastate lato bus e ram da 2/300 euro ormai non servono a un tubo, con le buone APU si gioca 1080p
Sui consumi più bassi, 16gb di vram e performance RayTracing migliorate ci possiamo anche stare, ma i leak l'hanno data sempre con performance raster che alla meglio arrivano alla 7900 xt(aka nei casi favorevoli ci arriva, di avg farà pure qualcosa in meno, diciamo una iso 7900 gre ben cloccata).
In sostanza la 4070 ti con 16gb di vram by amd.
La schifiamo a 500/550 euro?Assolutamente no visto che ad oggi ti danno la 7800 xt che non ha certo come target una 4070 ti/super ti. :)
ninja750
11-06-2024, 10:36
già, pare non arriverà alla 7900XTX
visti i presunti leak di oggi sembra confermato anche un pcb cheap
insomma ci sono i presupposti per una 7900xt entro i 240/250w
da non strapparsi i capelli ma nemmeno da saltare per l'entusiasmo
OrazioOC
11-06-2024, 10:45
https://videocardz.com/newz/amd-navi-48-xtx-graphics-spotted-alongside-four-different-board-designs
ghiltanas
11-06-2024, 11:37
per le memorie spero facciano uno sforzo e mettano delle 20gbps
CtrlAltSdeng!
11-06-2024, 14:17
Quindi PARE abbiano bocciato l'approccio mcm vero, l'evoluzione di rdna3, e tenuto il tutto "monolitico" ma con taglio da fascia media invece di un big monolitico? :stordita: diventerà quindi il "modulo" base sul quale costruire rdna5 una volta che avranno trovato come tenere il tutto in parallelo scalando a due-tre-quattro moduli? :stordita: hovintoquacchecosa?
ninja750
11-06-2024, 14:33
sì la questione nelle gpu è che sono già tutte tante unità in parallelo quindi mettere due chipponi in parallelo serve solo per le rese perchè costerebbe troppo farlo monolitico, che sappia io l'unica che è riuscita a farlo scalando abbastanza bene è stata 3dfx ai tempi della voodoo2 con i 3 chip onboard, gli altri al massimo hanno fatto un dual chip ovviamente per via di consumo e calore da smaltire che all'epoca era trascurabile. sarà interessante vedere come funzionerà la 5090 che pare abbia proprio questo approccio, certo per AMD sarebbe uno smacco visto che è partita per prima a provare questa soluzione su una scheda chiamiamola mainstream e ha tutto il know-how in proposito usato nelle cpu ormai da 10 anni
mikael84
11-06-2024, 15:15
Quindi PARE abbiano bocciato l'approccio mcm vero, l'evoluzione di rdna3, e tenuto il tutto "monolitico" ma con taglio da fascia media invece di un big monolitico? :stordita: diventerà quindi il "modulo" base sul quale costruire rdna5 una volta che avranno trovato come tenere il tutto in parallelo scalando a due-tre-quattro moduli? :stordita: hovintoquacchecosa?
Non è che sia stato bocciato, ma questo chip, è il post 7600, che era un mono sui 6nm. Questo sarà un mono sui 4nm di fascia bassa, solo che sfruttando la densità quasi 3x, permetterà di fare un bel salto in termini di transistor e perf/watt.
Sarà il polaris-rdna1, 7600 della serie, chippetto intorno ai 2-250mm2.
Il MCM cmq, a livello di convenienza, vale soprattutto per chip molto grossi.
Esempio, un ipotetico die turing da 754mm2, sui 3nm verrebbe 588$, un dual 377mm2 verrebbero 188x2 $, più quasi un 2x le rese. 106 rese vs circa 34.
Inoltre l'R&D sarebbe spalmato su più chip, mentre il monolite gigante si deve accollare tutto.
Navi31 è più quello che ha perso che quello che ha guadagnato, troppi transistor per area grigia di collegamento e sistema MCM che ne ha abbassato la banda effettiva.
CtrlAltSdeng!
11-06-2024, 15:36
Certo, ma lo spezzatino è da incollare (semi-cit) e più spezzetti e più l'efficienza se ne va a benedire (basti pensare alla distribuzione di un motore monocilindrico e la stessa cc complessiva ma su dodici cilindri :stordita: ) e sulle gpu avendo migliaia di unità elaborative da coordinare in una pipeline sempre più complessa il gioco non è uno scherzo nemmeno per amd
direi "rinviato" più che "bocciato", ecco
l'mcm è il futuro finchè non si cambierà paradigma di produzione credo :stordita:
mikael84
11-06-2024, 15:52
Certo, ma lo spezzatino è da incollare (semi-cit) e più spezzetti e più l'efficienza se ne va a benedire (basti pensare alla distribuzione di un motore monocilindrico e la stessa cc complessiva ma su dodici cilindri :stordita: ) e sulle gpu avendo migliaia di unità elaborative da coordinare in una pipeline sempre più complessa il gioco non è uno scherzo nemmeno per amd
direi "rinviato" più che "bocciato", ecco
l'mcm è il futuro finchè non si cambierà paradigma di produzione credo :stordita:
Direi rinviato, purtroppo la stagnazione sui 5-4nm ha rallentato le tappe a tutti.
Riguardo il MCM certo è ben più complesso, viene usato in ambiti HPC con buoni risultati, ma son calcoli ridondanti con cache e bande mastodontiche.
Una delle problematiche del brevetto numa nvidia, ad esempio, era la non massiva parallelizzazione dei dati tra i cluster, e nella simulazione venivano usate HBM a banda larghissima per i tempi. Di fatto la stessa, pur investendo molto, è ancora in mono.
Tanto di cappello a chi riuscirà ad integrarlo al meglio sui chip gaming.
Sui consumi più bassi, 16gb di vram e performance RayTracing migliorate ci possiamo anche stare, ma i leak l'hanno data sempre con performance raster che alla meglio arrivano alla 7900 xt(aka nei casi favorevoli ci arriva, di avg farà pure qualcosa in meno, diciamo una iso 7900 gre ben cloccata).
In sostanza la 4070 ti con 16gb di vram by amd.
La schifiamo a 500/550 euro?Assolutamente no visto che ad oggi ti danno la 7800 xt che non ha certo come target una 4070 ti/super ti. :)assolutamente sì, ci sono le gre adesso a 550 euro. Che progresso sarebbe?
StylezZz`
11-06-2024, 22:11
Una 7900 GRE con RT migliore, ecco il progresso :asd:
Ale55andr0
12-06-2024, 00:14
Una 7900 GRE con RT migliore, ecco il progresso :asd:
dipende dal prezzo, che a sto giro abbiano mollato la fascia alta pare confermato. Per gli altri c'è la 5090 a 3000 + pacche sulle spalle fra i membri del club diversamente portafogliati
StylezZz`
12-06-2024, 08:03
dipende dal prezzo, che a sto giro abbiano mollato la fascia alta pare confermato. Per gli altri c'è la 5090 a 3000 + pacche sulle spalle fra i membri del club diversamente portafogliati
La 5700 XT costava in media -100€ rispetto la 2070 Super, per questo era appetibile (oltre al fatto che all'epoca il raytracing era irrilevante)...ma se continuano a tenersi vicini alle verdi come prezzi, la maggioranza farà il classico ragionamento ''per soli 50€ di differenza prendo direttamente una RTX che offre più features ecc..''.
CtrlAltSdeng!
12-06-2024, 08:18
La 5700 XT costava in media -100€ rispetto la 2070 Super, per questo era appetibile (oltre al fatto che all'epoca il raytracing era irrilevante)...ma se continuano a tenersi vicini alle verdi come prezzi, la maggioranza farà il classico ragionamento ''per soli 50€ di differenza prendo direttamente una RTX che offre più features ecc..''.
100€ sono ancora pochi, con tutte quelle features in più (!) le nvidia giocano proprio un campionato a parte nel senso che giocano proprio loro per te :stordita:
prossimo passo: amd ti pagherà per giocare con un radeon :O un gaming cloud al contrario, diciamo. Intel metterà in bundle le battleimage alle sue cpu come "NPU accessorie" offrendo uno sconto su un anno di E-on per offsettare la CO2.
nvidia gaming verrà scorporata e venduta a qualche comagnia cinese stile Lenovo perchè non gliene fregherà più un fischio concentrandosi interamente su IA e bot del sesso senza sindacati.
Dite che sono troppo ottimista? :stordita:
p.s: ho scordato i produttori cinesi! si, forse un po' di speranza c'è per il proletariat del gaming
ninja750
12-06-2024, 09:59
''per soli 50€ di differenza prendo direttamente una RTX che offre più features ecc..''.
ammetto di essermi perso ormai, troppe novità
mi elenchi le features mancanti così aiutiamo gli indecisi?
Gyammy85
12-06-2024, 09:59
Una 7900 GRE con RT migliore, ecco il progresso :asd:
Chissà come dato che l'arch si porta dietro sempre quel 10-15% minimo di ipc, a 3 nm poi...almeno alla 5080 si arriva pure in rt
ammetto di essermi perso ormai, troppe novità
mi elenchi le features mancanti così aiutiamo gli indecisi?
RT, che e' l'unica vera evoluzione futura nel mondo della grafica e' molto piu' performante lato Nvidia.
Non e' esattamente una feature, ma nel momento in cui devi sborsare centinaia e centinaia (nel caso di alcuni quasi mille o piu) di euro come fai ad ignorare il fatto?
StylezZz`
12-06-2024, 12:59
Chissà come dato che l'arch si porta dietro sempre quel 10-15% minimo di ipc, a 3 nm poi...almeno alla 5080 si arriva pure in rt
Alla 5080 dici? Io dico che se compete con la 5070/5070 Ti è già grasso che cola.
Ale55andr0
12-06-2024, 14:41
RT, che e' l'unica vera evoluzione futura nel mondo della grafica e' molto piu' performante lato Nvidia.
il molto più performante a pari fascia, nel mio caso, all'epoca, una 4070ti sulla mia di pari fascia, era tipo un 20% sui titoli sponsorizzati, che vuol dire un +20% (la 4070ti) su prestazioni, in quell'ambito specifico, di merda (la mia 7900XT), e un +20% sulla merda, resta un prestazione di merda, non passi da 30 a 60 frame da 30 a 36.
Spero di essermi spiegato. Poi con gli upschifer alzi tutti gli effepiesse che vuoi, ma quello lo posso fare pure sulla mia.
Cutter90
12-06-2024, 15:28
il molto più performante a pari fascia, nel mio caso, all'epoca, una 4070ti sulla mia di pari fascia, era tipo un 20% sui titoli sponsorizzati, che vuol dire un +20% (la 4070ti) su prestazioni, in quell'ambito specifico, di merda (la mia 7900XT), e un +20% sulla merda, resta un prestazione di merda, non passi da 30 a 60 frame da 30 a 36.
Spero di essermi spiegato. Poi con gli upschifer alzi tutti gli effepiesse che vuoi, ma quello lo posso fare pure sulla mia.
Lo puoi fare, certo. Ma la qualità non essendo la stessa potrebbe essere worth o not worth.
Inoltre le % erano ben più alte. Ricordo in 1440p un cp 2077 in Rt sugli 80 sulla 4070 ti e sui 60 sulla 7900 xt.
AW2 abbiamo in 1440p un 50 vs 39
Quindi mica poco in realtà. Sugli altri "non sponsorizzati= con poco RT" le differenze si assottigliano certo.
mikael84
12-06-2024, 15:33
il molto più performante a pari fascia, nel mio caso, all'epoca, una 4070ti sulla mia di pari fascia, era tipo un 20% sui titoli sponsorizzati, che vuol dire un +20% (la 4070ti) su prestazioni, in quell'ambito specifico, di merda (la mia 7900XT), e un +20% sulla merda, resta un prestazione di merda, non passi da 30 a 60 frame da 30 a 36.
Spero di essermi spiegato. Poi con gli upschifer alzi tutti gli effepiesse che vuoi, ma quello lo posso fare pure sulla mia.
Non siamo al bar dello sport, utilizza un linguaggio più consono.
Ale55andr0
12-06-2024, 16:40
Lo puoi fare, certo. Ma la qualità non essendo la stessa potrebbe essere worth o not worth.
non iniziamo a parlare della "qualità" del dlss te prego (parimenti quella di fsr, sia chiaro), il caldo soffocante è più che sufficiente
ninja750
12-06-2024, 17:28
RT, che e' l'unica vera evoluzione futura nel mondo della grafica e' molto piu' performante lato Nvidia.
Non e' esattamente una feature, ma nel momento in cui devi sborsare centinaia e centinaia (nel caso di alcuni quasi mille o piu) di euro come fai ad ignorare il fatto?
ma infatti mica lo si ignora, lo attivi anche su amd sapendo che non avrai le stesse perf della controparte
intendevo feature che hai solo su nvidia :confused:
Ma seriamente vedete differenze fra DLSS/FSR off e on..?
Quanto vorrei farvi fare blind tests...
Ma seriamente vedete differenze fra DLSS/FSR off e on..?
Quanto vorrei farvi fare blind tests...
Personalmente, avendo provato di persona DLSS, FSR e pure XeSS, posso dirti che avrei problemi a riconoscere DLSS e XeSS, che come resa son molto simili (un leggero ghosting in più per l'ultimo), mentre FSR si riconosce a colpo d'occhio perché tende a rendere l'immagine più nitida e contrastata nei primi piani, mentre negli sfondi compare sempre un pochino di flickering in più (nulla di eccessivo eh), inoltre anche la resa del "fumo" su FSR è diversa rispetto a DLSS e XeSS, e tutto ad impostazioni di default, senza aumentare o diminuire nitidezza o applicare altri filtri ovviamente.
Personalmente una simil 7900XT, con 16 GB di vram, consumi intorno ai 200W con prestazioni RT aggiornate ad un prezzo compreso tra i 500-600€ potrebbe effettivamente essere interessante, ma più che con nVidia, andrà a scontrarsi con la nuova gen di vga Intel, e detto francamente, se la Intel avrà prestazioni da 7900GRE-XT ad un prezzo inferiore, potrebbe seriamente rubare mercato ad AMD e scatenare una "guerra dei poveri" che finalmente potrebbe giovare a noi gamers che non ci interessa avere la VGA top di gamma ma bensì quella col miglior rapporto prezzo/performance. ;)
Una 7900 GRE con RT migliore, ecco il progresso :asd:
Mo il rt va pagato a peso d'oro? Non dovrebbe esserw qualcosa di scontato, insieme al progresso in raster?
Stai a vedere allora che i prezzi superiori delle nvidia sono giusti, perchè danno effettivamente di più.
Ale55andr0
13-06-2024, 09:26
Ma seriamente vedete differenze fra DLSS/FSR off e on..?
Quanto vorrei farvi fare blind tests...
Fra nativa e upscaler decisamente si', fra i due, dipende dal gioco, posto che è un leva di qua e metti di la, l'fsr in generale pare più dettagliato a primo impatto, ma in lontananza flickera, il dlss è più tendente al "morbido", ma rispetto la nativa è cmq non perfetto lato alias, ma dipende molto dalla scena o dall'implementazione (in alcuni giochi è fatto meglio: in CP2077 mi faceva schifo, in horizon zero dawn era molto più pulito lato scalette ma si perdeva un po' di dettaglio fine), ma cmq meglio di fsr sul controllo del flciker in generale. IN NESSUN caso, sono migliori della nativa+AA, per i miei occhi.
Gyammy85
13-06-2024, 09:49
Fra nativa e upscaler decisamente si', fra i due, dipende dal gioco, posto che è un leva di qua e metti di la, l'fsr in generale pare più dettagliato a primo impatto, ma in lontananza flickera, il dlss è più tendente al "morbido", ma rispetto la nativa è cmq non perfetto lato alias, ma dipende molto dalla scena o dall'implementazione (in alcuni giochi è fatto meglio: in CP2077 mi faceva schifo, in horizon zero dawn era molto più pulito lato scalette ma si perdeva un po' di dettaglio fine), ma cmq meglio di fsr sul controllo del flciker in generale. IN NESSUN caso, sono migliori della nativa+AA, per i miei occhi.
C'è da dire che tutti gli engine moderni sono "sporchi" anche a nativa per via della sovrabbondanza di post process stile ue4, piace un pò a tutti questo stile e difatti nessuno lo cambia, anche hellblade 2 è così, ma in quel caso è l'enorme numero di poligoni e i filtri che lo rendono "polveroso"
FSR e DLSS hanno senso solo quando uno usa rt a mio avviso o quando non hai una vga particolarmente potente, perché passare da 120 a 160 fps non ti cambia molto se poi si vede peggio, tipo uncharted puoi giocarlo a 160 fissi cpu permettendo perché a volte non ce la fa, o a 120-140 a nativa, in fluidità e reattività perdi pochino ma almeno lo vedi sempre nitido, anche se l'implementazione dell'fsr lì è impeccabile
Cutter90
13-06-2024, 10:00
Fra nativa e upscaler decisamente si', fra i due, dipende dal gioco, posto che è un leva di qua e metti di la, l'fsr in generale pare più dettagliato a primo impatto, ma in lontananza flickera, il dlss è più tendente al "morbido", ma rispetto la nativa è cmq non perfetto lato alias, ma dipende molto dalla scena o dall'implementazione (in alcuni giochi è fatto meglio: in CP2077 mi faceva schifo, in horizon zero dawn era molto più pulito lato scalette ma si perdeva un po' di dettaglio fine), ma cmq meglio di fsr sul controllo del flciker in generale. IN NESSUN caso, sono migliori della nativa+AA, per i miei occhi.
Oh, quasi un bel commento :) . Hai corretto molto il tiro rispetto a tempo fa devo dire.
FSR in tutti i giochi provati da me, tanti, peggiora la resa rispetto al dlss. Diciamo che come qualità il dlss bilanciato è come un fsr qualità. Fsr ha problemi di flicker evidenti e gestisce i particellari con più diffcioltà.
Il dlss in alcuni giochi con TAA su schermo 55 4k migliora la resa.
Ora che c'è il TSR su U5 gli upscaler iniziano davvero ad essere tanti. Ed è un bene per me. Così tutti possono beneficiarne. Alle volte ti salvano davvero la situazione. Il Dlss ormai per me non è nemmeno considerabile come un "compromesso". la versione 3.7 è davvero eccellente. Se amd con il FSR 3.1 mantiene le promesse fatte anche quest'ultimo sarà da usare quasi sempre, almeno in 4k :)
Ma seriamente vedete differenze fra DLSS/FSR off e on..?
Quanto vorrei farvi fare blind tests...Io no... Giusto forse un po' di sporcizia se metto prestazioni piuttosto che bilanciata ma è Poco roba soprattutto se poi ho 60 fps
Inviato dal mio GM1900 utilizzando Tapatalk
Io no... Giusto forse un po' di sporcizia se metto prestazioni piuttosto che bilanciata ma è Poco roba soprattutto se poi ho 60 fps
Inviato dal mio GM1900 utilizzando Tapatalk
Si appunto, soprattutto negli ultimi giochi in modalita' qualita' io non vedo differenze giuro..Tanto che devo andare a leggermi confronti dettagliati, video e screenshot per capire cosa guardare..Poi piu vanno avanti queste tecnologie piu mi sembrano pulite.
Ale55andr0
15-06-2024, 07:38
https://wccftech.com/amd-patent-unique-multi-chiplet-gpu-approach-future-rdna-architectures-three-dies/
The patent describes the use of three different "modes" of chiplet utilization, where the difference lies in how resources are allocated and then managed ahead. The patent reveals three different models, with the first one being the "single GPU" mode, which is quite similar to how modern-day GPUs function. All the onboard chiplets will act as a single, unified processing unit, with resources shared in a collaborative environment.
The second mode is called the "independency mode", where individual chiplets would act independently, responsible for their functions through the dedicated front-end die responsible for scheduling tasks for its associated shader engine dies. The third mode is the most optimistic of them all and is called the "hybrid mode" where chiplets can act independently and co-exist as well. It leverages the benefits of both unified and independent processing, offering scalability and efficient resource utilization.
mikael84 aspettiamo te ;)
https://wccftech.com/amd-patent-unique-multi-chiplet-gpu-approach-future-rdna-architectures-three-dies/
ma per le 8000 del 2024?
mikael84
15-06-2024, 16:18
The patent describes the use of three different "modes" of chiplet utilization, where the difference lies in how resources are allocated and then managed ahead. The patent reveals three different models, with the first one being the "single GPU" mode, which is quite similar to how modern-day GPUs function. All the onboard chiplets will act as a single, unified processing unit, with resources shared in a collaborative environment.
The second mode is called the "independency mode", where individual chiplets would act independently, responsible for their functions through the dedicated front-end die responsible for scheduling tasks for its associated shader engine dies. The third mode is the most optimistic of them all and is called the "hybrid mode" where chiplets can act independently and co-exist as well. It leverages the benefits of both unified and independent processing, offering scalability and efficient resource utilization.
mikael84 aspettiamo te ;)
Purtroppo quell'articolo fa giusto un riepilogo, della bozza di brevetto rilasciata da AMD nel 2022.
Dovrebbe riprendere la modalità ibrida vista in CDNA con collegamenti tramite interposer COWOS.
Su CDNA troviamo 4 AID (active interposer die), mentre sul chip del brevetto, si parla di 3 AID contenenti 3 SED (shader engine die), con un numero stimato di 1024 shader per SED, 3072 x AID e 9216/18434 in DU.
La particolarità di questo sistema, è che è possibile connettere più AID o più shader per SED.
Quindi interposer-MID (il classico I/O), numero AID x SED, il tutto collegato alla memoria in modalità già vista con navi31-21.
Ogni AID ha il suo front-end, come nelle GPU classiche, e può operare in maniera indipendente o accessibile. Per fare ciò il chip usa una larghissima banda abilitata con uno strato fisico Ultra Short Reach (USR).
Questo è un esempio di come funziona in CDNA.
https://i.postimg.cc/BZg5YtVK/xcd.png
Si parla di progetto cancellato, questo è ancora da chiarire, ma bisogna specifica che è molto complesso da realizzare e necessità di un PP avanzato, e tuttora siamo ancorati al 5-4nm che purtroppo sono abbastanza indietro come perf/watt ma soprattutto come densità.
Per entrambe le case (nvidia ed AMD, ma la stessa intel) se ne parla in continuazione, ma si continua a virare sul monolitico, lasciando il MCM solo agli ambienti HPC dove puoi investire in costi di produzione visto la fascia che vanno a ricoprire.
La speranza è quindi di vedere qualcosa di simile già a partire da navi51 con i 3nm, sfidando quella che nvidia chiama serie 6000 Rubin.
Ora che c'è il TSR su U5 gli upscaler iniziano davvero ad essere tanti. Ed è un bene per me. Così tutti possono beneficiarne. Alle volte ti salvano davvero la situazione. Il Dlss ormai per me non è nemmeno considerabile come un "compromesso". la versione 3.7 è davvero eccellente. Se amd con il FSR 3.1 mantiene le promesse fatte anche quest'ultimo sarà da usare quasi sempre, almeno in 4k :)
Sto giocando Robocop, UE5, e il TSR é superiore come pulizia d'immagine a tutti gli altri 3 upscale. Non so se questo si verifica in altri giochi U5 peró...
marbasso
15-06-2024, 17:32
Sto giocando Robocop, UE5, e il TSR é superiore come pulizia d'immagine a tutti gli altri 3 upscale. Non so se questo si verifica in altri giochi U5 peró...
Bel gioco e...visto che grafica?
Bel gioco e...visto che grafica?
Ha una grafica assurda, illuminazione, texture e mole poligonale ai vertici! Poi é molto divertente che non guasta :D
LurenZ87
15-06-2024, 17:59
Bel gioco e...visto che grafica?Eh ma solo per chi ha una diciamo "certa età" :D, che è cresciuto con RoboCop. La nuova generazione non sa nemmeno chi o cosa sia :asd:
Inviato dal mio ThinkPhone utilizzando Tapatalk
marbasso
15-06-2024, 18:03
Eh ma solo per chi ha una diciamo "certa età" :D, che è cresciuto con RoboCop. La nuova generazione non sa nemmeno chi o cosa sia :asd:
Inviato dal mio ThinkPhone utilizzando Tapatalk
E già, però per me è un piccolo capolavoro.
ghiltanas
16-06-2024, 09:28
https://wccftech.com/amd-radeon-800m-igpus-16-rdna-3-5-cores-over-3600-points-3dmark-time-spy-close-to-rtx-2050/
Personalmente non vedo l'ora esca la nuova gen di handheld :D
Strix-Point e' un po troppo per gli handheld, amd sta preparando un chip ridotto piu' adeguato per loro, Kraken-Point
https://videocardz.com/newz/amd-adds-gfx1152-kraken-point-apu-with-rdna3-5-graphics-to-open-source-linux-drivers
ghiltanas
16-06-2024, 13:29
In realtà visto che il tdp è molto configurabile, spero non vadano di Kraken appunto, che come cu è piuttosto ridotto rispetto a strixpoint
il tdp lo tagli, non e' quello il problema, ma che senso ha consumare silicio prezioso con una sku di livello alto per poi andare di mannaia
ricordo la mediocre differenza che c'era tra una z1 vs z1 extreme..
inutile sprecare risorse se non scala, e kraken dovrebbe essere piu' equilibrato allo scopo
poi sicuramente rilasceranno handheld con strix, ma sicuramente la qualita' percepita su uno schermo ridotto simile, bassa autonomia e/o maggior batteria/peso/costi.. non lo renderanno ideale per tale scopo:stordita:
Purtroppo quell'articolo fa giusto un riepilogo, della bozza di brevetto rilasciata da AMD nel 2022.
Dovrebbe riprendere la modalità ibrida vista in CDNA con collegamenti tramite interposer COWOS.
Su CDNA troviamo 4 AID (active interposer die), mentre sul chip del brevetto, si parla di 3 AID contenenti 3 SED (shader engine die), con un numero stimato di 1024 shader per SED, 3072 x AID e 9216/18434 in DU.
La particolarità di questo sistema, è che è possibile connettere più AID o più shader per SED.
Quindi interposer-MID (il classico I/O), numero AID x SED, il tutto collegato alla memoria in modalità già vista con navi31-21.
Ogni AID ha il suo front-end, come nelle GPU classiche, e può operare in maniera indipendente o accessibile. Per fare ciò il chip usa una larghissima banda abilitata con uno strato fisico Ultra Short Reach (USR).
Questo è un esempio di come funziona in CDNA.
https://i.postimg.cc/BZg5YtVK/xcd.png
Si parla di progetto cancellato, questo è ancora da chiarire, ma bisogna specifica che è molto complesso da realizzare e necessità di un PP avanzato, e tuttora siamo ancorati al 5-4nm che purtroppo sono abbastanza indietro come perf/watt ma soprattutto come densità.
Per entrambe le case (nvidia ed AMD, ma la stessa intel) se ne parla in continuazione, ma si continua a virare sul monolitico, lasciando il MCM solo agli ambienti HPC dove puoi investire in costi di produzione visto la fascia che vanno a ricoprire.
La speranza è quindi di vedere qualcosa di simile già a partire da navi51 con i 3nm, sfidando quella che nvidia chiama serie 6000 Rubin.
è sempre un piacere leggerti ... Thanks :mano:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.