View Full Version : Radeon RX 6000 ufficiali: AMD sfida Nvidia per lo scettro del settore GPU
Redazione di Hardware Upg
28-10-2020, 18:35
Link all'Articolo: https://www.hwupgrade.it/articoli/skvideo/5867/radeon-rx-6000-ufficiali-amd-sfida-nvidia-per-lo-scettro-del-settore-gpu_index.html
AMD ha presentato le prime schede video della famiglia Radeon RX 6000: l'azienda parte da tre modelli - Radeon RX 6800, RX 6800 XT e RX 6900 XT - per sfidare le top di gamma Nvidia basate su architettura Ampere, le GeForce RTX 3070, 3080 e 3090. AMD dichiara prestazioni competitive in 4K e un'efficienza senza precedenti. Ecco tutte le specifiche delle schede, i prezzi e la data di uscita.
Click sul link per visualizzare l'articolo.
kliffoth
28-10-2020, 18:46
... mi aspettavo un buon prodotto, ma non ho mai creduto che si sarebbe raggiunto il livello della 3080, riprendere nVidia mi sembrava più arduo che recuperare su intel.
Non voglio entrare su un 5% in più o in meno di performance tra i due produttori, ma adesso scegliere AMD o nVidia è una questione di gusti personali, driver, silenziosità (che è legata ai consumi), disponibilità etc etc.
Uno scenario che non si ripeteva da tanto tempo
Finalmente un po' di concorrenza nella fascia alta. Mancano comunque le prestazioni in ray tracing... Che ci sia qualche problema?
p.s. Ora si che le 2080ti si sono deprezzate
e ora? annullo l'ordine della 3080?:D tanto non arrivera' mai
nickname88
28-10-2020, 18:55
Più che altro lo scettro del Rastering.
Curioso di vedere invece le performance in RT visto che non l'han minimamente menzionato e anche il confronto con DLSS attivo sul competitor.
Le migliori offerte sono la 6800 liscia e la 6900XT.
Sulla 6800XT mi aspettavo poco di meglio sul prezzo.
Tutto bello sulla carta, aspetto però test e benchmark vari, per il momento di definitivo si sa che i prezzi non sono proprio amichevoli...
ghiltanas
28-10-2020, 19:02
L'unico neo per me è il prezzo della 6800 liscia, speravo in una guerra più accesa alla 3070
kliffoth
28-10-2020, 19:05
... per il momento di definitivo si sa che i prezzi non sono proprio amichevoli...
...e lo saranno sempre meno.
Ora per AMD è tempo di pensare agli azionisti ed alzare i margini, quindi occorre segmentare il mercato (ad esempio processori con 50 Mhz in più o in meno ogni 50 euro) ed alzare i prezzi.
Cose che fanno tutte le aziende se non devono tenere i prezzi bassi per vendere un prodotto inferiore (ai tempi gli Athlon X2 erano tutt'altro che economici) ...non so da dove viene questa leggenda di AMD e prezzi bassi come se fosse per una vocazione aziendale e non per una necessità.
Ovvio che da consumatore non sono proprio felice ma tant'è (che poi ai miei occhi AMD ha il vantaggio di una piattaforma completa, ma aspetto AM5 o equivalente intel per il nuovo PC, quindi salto tutto fino al 2022 inoltrato)
nickname88
28-10-2020, 19:05
L'unico neo per me è il prezzo della 6800 liscia, speravo in una guerra più accesa alla 3070
Ha il doppio della VRAM e va di più almeno nel rastering.
Direi che quello della 6800 liscia è un gran prezzo.
Al di là di quelli che sono i prezzi ufficiali, ora più che mai conta l'effettiva disponibilità ed il prezzo su strada.
Soffermarsi troppo su +/- 60-70$ della 6800 vx RTX 3070 o 6800XT vs RTX 3080, ha poco senso.
Alla fine uno può aspettare fino ad un certo punto, poi compra ciò che veramente trova.
Ci sono le premesse per una buona competizione con questa generazione di schede.
HwWizzard
28-10-2020, 19:09
L'unico neo per me è il prezzo della 6800 liscia, speravo in una guerra più accesa alla 3070
E cosa ti aspettavi? La 3070 costa 600$, visto che le FE non esistono e va (se le slide saranno confermate) un 10% in meno e ha la metà della memoria.
In casa AMD di solito i prezzi sono simili a quelli dichiarati quindi mi aspetto di vederle entrambe sui 600€, se poi le orde di fanboy nVidia fanno calare le 6800 a 500€, beh tanto di guadagnato.
Comunque io puntavo alla 3070, ma mi sa che ho cambiato idea e per premiare AMD del lavoro svolto quasi quasi torno ai vecchi tempi (anche se non gioco quasi mai ma ci gioca mio figlio) e mi faccio la 6900XT
HwWizzard
28-10-2020, 19:11
Più che altro lo scettro del Rastering.
Curioso di vedere invece le performance in RT visto che non l'han minimamente menzionato e anche il confronto con DLSS attivo sul competitor.
Le migliori offerte sono la 6800 liscia e la 6900XT.
Sulla 6800XT mi aspettavo poco di meglio sul prezzo.
Sono 70$ di differenza, dove dovevano prezzarla?
La 6900 se veramente va così di fatto taglia fuori la 3080Ti e rende ancora più ridicola la 3090.
Per RT bisogna aspettare le recensioni, credo che staranno sotto a nVidia ma con margini di miglioramento visto il tool che tutte le SW house utilizzeranno anche vista la collaborazione per le console. Vediamo ma sicuramente non sarà RT la discriminante per l’acquisto.
ghiltanas
28-10-2020, 19:13
Ha il doppio della VRAM e va di più almeno nel rastering.
Direi che quello della 6800 liscia è un gran prezzo.
Per me invece è l'unico non azzeccato, mi spiego meglio: quello che dici è vero, ma amd deve rimontare e quella fascia è importante. Non sarei andato oltre i 549$, 579 poi mi disturbano un po' :D
nickname88
28-10-2020, 19:14
Sono 70$ di differenza
3080 = 699$
6800XT = 649$
699-649 = 50$
Per una scheda che va uguale solo nel rastering e senza DLSS.
Mi aspettavo una strategia più aggressiva, come la Radeon VII.
Finalmente un po' di concorrenza nella fascia alta. Mancano comunque le prestazioni in ray tracing... Che ci sia qualche problema?
Il problema è che non ci sono giochi ray tracing :p
I quattro che ci sono supportano solo nVidia
L'unico test che usa librerie standard è il 3DMark Port Royal
Mi sto convincendo sempre di più a non aggiornare il mio pc ( I5 4670K con gtx970 ) e a comprare xbox, almeno me la cavo con 500€. Vedrò anche come si mette il covid il prox mese...
Belle schede amd, in attesa di reali review. Ma purtroppo prezzi allineati nvidia.
ghiltanas
28-10-2020, 19:18
E cosa ti aspettavi? La 3070 costa 600$, visto che le FE non esistono e va (se le slide saranno confermate) un 10% in meno e ha la metà della memoria.
In casa AMD di solito i prezzi sono simili a quelli dichiarati quindi mi aspetto di vederle entrambe sui 600€, se poi le orde di fanboy nVidia fanno calare le 6800 a 500€, beh tanto di guadagnato.
Comunque io puntavo alla 3070, ma mi sa che ho cambiato idea e per premiare AMD del lavoro svolto quasi quasi torno ai vecchi tempi (anche se non gioco quasi mai ma ci gioca mio figlio) e mi faccio la 6900XT
Mi aspettavo non oltre i 549 per una mera questione di soglia psicologica. La 6800xt e la 6900 per esempio hanno prezzi nettamente più concorrenziali delle rivali.
La 6900 specialmente, chi se la compra ora una 3090? :asd:
nickname88
28-10-2020, 19:22
Mi aspettavo non oltre i 549 per una mera questione di soglia psicologica. La 6800xt e la 6900 per esempio hanno prezzi nettamente più concorrenziali delle rivali.
La 6900 specialmente, chi se la compra ora una 3090? :asd:Bisogna vedere le disponibilità per la 3070 e la 6800 liscia, magari una presenza molto maggiore ti aiuterà ulteriormente col prezzo.
Per la 6800XT non direi proprio sia fra i casi migliori, è una 3080 senza dlss e con performance RT probabilmente inferiori a soli 50$ in meno.
Sarà migliore per via della disponibilità probabilmente.
ghiltanas
28-10-2020, 19:28
Bisogna vedere le disponibilità per la 3070 e la 6800 liscia, magari una presenza molto maggiore ti aiuterà ulteriormente col prezzo.
Per la 6800XT non direi proprio sia fra i casi migliori, è una 3080 senza dlss e con performance RT probabilmente inferiori a soli 50$ in meno.
Sarà migliore per via della disponibilità probabilmente.
sulla disponibilità non mi esprimo non sapendo effettivamente quella di amd, però avevano detto non sarebbe stato un lancio finto..speriamo
Nautilu$
28-10-2020, 19:38
Per la 6800XT non direi proprio sia fra i casi migliori, è una 3080 senza dlss e con performance RT probabilmente inferiori a soli 50$ in meno....
ti sei scordato però anche 6GB in + ....
StylezZz`
28-10-2020, 19:53
Chissà se sarà possibile flashare il bios della XT sulla 6800...
Piedone1113
28-10-2020, 19:57
Chissà se sarà possibile flashare il bios della XT sulla 6800...
Ho qualche vga PCI nel caso.....
voglio xbox series X con windows sopra, sognare non fa male :O
ghiltanas
28-10-2020, 20:01
il discorso del boost con i ryzen 5000, si avraà anche con le x470 o solo con schede b550 e x570?
HwWizzard
28-10-2020, 20:01
3080 = 699$
6800XT = 649$
699-649 = 50$
Per una scheda che va uguale solo nel rastering e senza DLSS.
Mi aspettavo una strategia più aggressiva, come la Radeon VII.
Non si sa come va in RT quindi direi di utilizzare lo stesso metro usato con nVidia e aspettare le review. Sul DLSS non c’è perché non lo vuoi vedere, tutta la suite FidelityFX è praticamente la stessa cosa, anzi potenzialmente migliore visto che viene implementata a livello engine e non via driver.
HwWizzard
28-10-2020, 20:03
il discorso del boost con i ryzen 5000, si avraà anche con le x470 o solo con schede b550 e x570?
Solo chipset serie 500. Lo hanno specificato chiaramente
Sono stati mooooolto fumosi sul raytracing non facendo vedere nemmeno uno straccio di confronto o test, però per il resto mi sembrano delle schede video ottime che veramente ora danno filo da torcere alle schede Nvidia in tutte le fasce.
La RX 6900 XT costa "solo" 999$ ma in certi titoli sembra già avere un buon vantaggio rispetto alla più costosa RTX 3090.
La RX 6800 sembra anche meglio dalla RTX 3070 contro cui si andrà a scontrare.
Discorso simile per la RX 6800 XT contro la RTX 3080. Non vedo l'ora di vedere i test.
Erano anni che non vedevo AMD cosi sul pezzo e con una gamma cosi competitiva.
StylezZz`
28-10-2020, 20:04
Ho qualche vga PCI nel caso.....
No grazie sono apposto, mi avanzano pure :p
Beh, stavolta l'avevo indovinata che i prezzi non sarebbero stati bassi nemmeno per AMD. Del resto la competizione era già avvenuta prima, mica nVidia ha abbassato i prezzi (facendo infuriare molti suoi fidelizzati), per spirito umanitario.
L'unico neo per me è il prezzo della 6800 liscia, speravo in una guerra più accesa alla 3070
la presentazione ufficiale della 3070 è domani.
il chip taglia il 20% delle unità, quindi almeno un 10% in meno rispetto alla 6800 XT ci sta anche bene, ma.. aspettiamo che passi domani.
aldo87mi
28-10-2020, 20:45
La nuova Amd 6800 XT è veramente una signora scheda, stupenda, e con 16Gb di memoria a cavallo, il che significa a prova di futuro per il gaming 4k, cosa di cui invece dubito per i miseri 10GB della rtx 3080. Considerando poi che i prezzi Amd saranno notevolmente inferiori ai prezzi delle nuove Nvidia Ampere, beh mi sa che la prendo a questo giro. Se poi si aggiunge la bionda stupenda che ha presentato le nuove architetture Amd, questo non fa che invogliare ancora di più all'acquisto
https://www.hwupgrade.it/articoli/5867/amd-radeon-rx-6000-evento-07.JPG
Beh, stavolta l'avevo indovinata che i prezzi non sarebbero stati bassi nemmeno per AMD. Del resto la competizione era già avvenuta prima, mica nVidia ha abbassato i prezzi (facendo infuriare molti suoi fidelizzati), per spirito umanitario.
Infatti
dinitech
28-10-2020, 20:48
La nuova Amd 6800 XT è veramente una signora scheda, stupenda, e con 16Gb di memoria a cavallo, il che significa a prova di futuro per il gaming 4k, cosa di cui invece dubito per i miseri 10GB della rtx 3080. Considerando poi che i prezzi Amd saranno notevolmente inferiori ai prezzi delle nuove Nvidia Ampere, beh mi sa che la prendo a questo giro. Se poi si aggiunge la bionda stupenda che ha presentato le nuove architetture Amd, questo non fa che invogliare ancora di più all'acquisto
https://www.hwupgrade.it/articoli/5867/amd-radeon-rx-6000-evento-07.JPG
ahahahahaha sei un mito come sempre! :D :D :D
silvanotrevi
28-10-2020, 20:58
La nuova Amd 6800 XT è veramente una signora scheda, stupenda, e con 16Gb di memoria a cavallo, il che significa a prova di futuro per il gaming 4k, cosa di cui invece dubito per i miseri 10GB della rtx 3080. Considerando poi che i prezzi Amd saranno notevolmente inferiori ai prezzi delle nuove Nvidia Ampere, beh mi sa che la prendo a questo giro. Se poi si aggiunge la bionda stupenda che ha presentato le nuove architetture Amd, questo non fa che invogliare ancora di più all'acquisto
https://www.hwupgrade.it/articoli/5867/amd-radeon-rx-6000-evento-07.JPG
xD xD mi sto ancora sbellicando dalle risate 😄 🤣 😁
ad AMD hanno la figa, mentre a Nvidia no 😁 😁
ninja750
28-10-2020, 21:03
Ha il doppio della VRAM e va di più almeno nel rastering.
Direi che quello della 6800 liscia è un gran prezzo.
E cosa ti aspettavi? La 3070 costa 600$, visto che le FE non esistono e va (se le slide saranno confermate) un 10% in meno e ha la metà della memoria.
continuo a non capire certi ragionamenti: la 6800 ha il doppio della ram o và il doppio? no perchè se stiamo a guardare le prestazioni possiamo dire che vanno grossomodo uguale (un pelo più la amd ma vabbè). se sto maggiore quantitativo di vram non si traduce in più FPS possiamo dire chi se ne frega? possiamo dire che chi vuole il 4K senza compromessi non guarda la 6800 ma guarda 6800XT o 6900XT dove i 16gb in effetti (più in là) potrebbero servire? la 6800 andava presentata con 10gb o 12gb per avere un prezzo di 499$ o addirittura MENO. già la gente pariprestazioni compra nvidia anche se costa di più, se qui costa addirittura meno che mercato potrà avere la 6800?
la presentazione ufficiale della 3070 è domani.
il chip taglia il 20% delle unità, quindi almeno un 10% in meno rispetto alla 6800 XT ci sta anche bene, ma.. aspettiamo che passi domani.
se la presentano in volumi si mangerà la 6800 come ridere.
... e con 16Gb di memoria a cavallo, il che significa a prova di futuro per il gaming 4k, cosa di cui invece dubito per i miseri 10GB della rtx 3080...
10Gb Miseri?!
Con la 2080Ti ed RDR2 4k tutto Max l'utilizzo VRAM massimo si aggira a 6,8Gb. Per quando saturi i 10Gb avrai gia cambiato scheda. 16Gb? Decisamente oversized :sofico: Sarebbero stati buoni 10-12Gb e 50-70€ di listino meno. Senza parlare delle prestazioni RT... non esistono.
La vera arma di AMD è che le abbia da vendere al lancio approfittando dello shortage Nvidia.
bonzoxxx
28-10-2020, 21:12
Si dai 12GB sulla 6800 ci stavano, con il prezzo a 499$ avrebbero sbancato brutto brutto.
Riguardo il ray tracing, non saranno le stesse GPU nelle console? Quindi in teoria dovrebbero esserci giochi in arrivo.
StylezZz`
28-10-2020, 21:13
Se poi si aggiunge la bionda stupenda che ha presentato le nuove architetture Amd, questo non fa che invogliare ancora di più all'acquisto
Non può competere con quel FIGO di Jensen e la sua giacchetta di pelle.
bonzoxxx
28-10-2020, 21:17
Non può competere con quel FIGO di Jensen e la sua giacchetta di pelle.
:D :D :D :D :D
Preferisco la bionda :D :D
Marckus87
28-10-2020, 21:29
3070 8gb a 499, 6800 16gb a 579 e va 10% in più, direi che anche se il prezzo è alto, non troppo, è più che accettabile, 6800xt è una bomba prezzo e prestazioni ottime.
HwWizzard
28-10-2020, 21:35
10Gb Miseri?!
Con la 2080Ti ed RDR2 4k tutto Max l'utilizzo VRAM massimo si aggira a 6,8Gb. Per quando saturi i 10Gb avrai gia cambiato scheda. 16Gb? Decisamente oversized :sofico: Sarebbero stati buoni 10-12Gb e 50-70€ di listino meno. Senza parlare delle prestazioni RT... non esistono.
La vera arma di AMD è che le abbia da vendere al lancio approfittando dello shortage Nvidia.
Non confondiamo shortage con paper launch perché avevano il peperoncino al culo visto che sapevano che AMD sarebbe stata pari o superiore. nVidia non aveva le schede pronte.
StylezZz`
28-10-2020, 21:41
3070 8gb a 499, 6800 16gb a 579 e va 10% in più, direi che anche se il prezzo è alto, non troppo, è più che accettabile
Se si potrà flashare e overcloccare come la 5700 con la XT, quel 10% diventa 20% o più.
bagnino89
28-10-2020, 21:49
L'unico neo per me è il prezzo della 6800 liscia, speravo in una guerra più accesa alla 3070
Vero. Così sfuma ogni tentativo di vedere il prezzo delle 3070 scendere, peccato.
Al di là di quelli che sono i prezzi ufficiali, ora più che mai conta l'effettiva disponibilità ed il prezzo su strada.
Soffermarsi troppo su +/- 60-70$ della 6800 vx RTX 3070 o 6800XT vs RTX 3080, ha poco senso.
Alla fine uno può aspettare fino ad un certo punto, poi compra ciò che veramente trova.
Ci sono le premesse per una buona competizione con questa generazione di schede.
Vero anche questo.
Se si potrà flashare e overcloccare come la 5700 con la XT, quel 10% diventa 20% o più.
diciamo che anche senza scomodare il bios si potrà overcloccare un pò e quindi tirare fuori qualche fps in più.
Mi aspettavo prezzi una 50ina di $ in meno in generale...vedremo cmq disponibilità e prezzi delle custom per tirare le somme
laqualunque
28-10-2020, 21:57
Gran belle schede, bene per noi acquirenti: lotta sui prezzi e sulle prestazioni delle prossime vga. 16gb giusti sulla 6900xt, sulla 6800xt avrei visto meglio i 12gb per essere più aggressiva nel costo, ma forse sbaglio io. Tutto il discorso vram però è da valutare su come vengono utilizzate dalle schede (lo stesso vale per le 3080). La 3090 è quelle che ne esce più delle altre con le ossa rotte. Discorso a parte su DLSS e RT: dobbiamo aspettare le recensioni e vederle sulle stesse piattaforme per dare un giudizio completo. Interessante la Rage Mode, d'altronde è giusto tirino l'acqua al proprio mulino visto che producono anche le cpu. In sintesi comincio ad intravedere la situazione che c'è sulle console: è probabile che comincerà ad entrare in gioco anche il parco titoli sponsorizzato da una o l'altra compagnia (e non sempre la console con maggior potenza è anche quella più venduta)
La nuova Amd 6800 XT è veramente una signora scheda, stupenda, e con 16Gb di memoria a cavallo, il che significa a prova di futuro per il gaming 4k, cosa di cui invece dubito per i miseri 10GB della rtx 3080. Considerando poi che i prezzi Amd saranno notevolmente inferiori ai prezzi delle nuove Nvidia Ampere, beh mi sa che la prendo a questo giro. Se poi si aggiunge la bionda stupenda che ha presentato le nuove architetture Amd, questo non fa che invogliare ancora di più all'acquisto
https://www.hwupgrade.it/articoli/5867/amd-radeon-rx-6000-evento-07.JPG
stupenda quella???:muro: :boh:
nickname88
29-10-2020, 00:07
Non si sa come va in RT quindi direi di utilizzare lo stesso metro usato con nVidia e aspettare le review. Sul DLSS non c’è perché non lo vuoi vedere, tutta la suite FidelityFX è praticamente la stessa cosa, anzi potenzialmente migliore visto che viene implementata a livello engine e non via driver.Questa è l'ennesima caxxata mega-galattica.
Dopo la storia che con il DLSS si "scaricherebbe la grafica" da internet ovviamente.
FidelityFX è una suite di Tools, quello che va a confrontarsi col DLSS è il CAS che non è altro che upscaling con un ottimizzazione dei contrasti e non fa minimamente uso di una AI, a livello funzionale non solo non centra una mazza ma anche visivamente parlando non è per niente paragonabile.
https://www.overclock3d.net/reviews/software/dlss_2_0_in_death_stranding_-_nvidia_4k_performance_trump_card/3
Non si sa come va in RT No, non si sà per ora, ma se fosse stato un punto a favore avrebbero mostrato i titoli in pompa magna, il fatto che la principale novità dell'architettura non sia manco stata menzionata non lascia presagire nulla di buono.
Ma chissà magari si vogliono solo divertire a farci un altra sorpresa, in tal caso ben venga, la compro subito.
Comunque se realmente la 6900xt sarà in grado di impensierire la 3090, che costa il 50% abbondante in più, creerà qualche problemino di credibilità a nVidia che dovrà rivedere ancora i suoi listini.
Unica fortuna di nVidia è che quella scheda era praticamente impossibile acquistarla.
Goofy Goober
29-10-2020, 06:03
Ottime schede se i benchmark confermeranno i grafici.
RT probabilmente le ammazzerà, ma bisognerà anche vedere se e quando sarà un implementazione determinante.
Mi chiedo solo perchè si fanno tanti raffronti con i prezzi delle 3080, quando i 699/719 sono prezzi inesistenti ormai (se mai ci saranno restock delle FE, allora esiteranno di nuovo 3080 vendute a quel prezzo), dato che in attesa delle disponibilità i prezzi per la maggiorparte delle 3080 custom si aggirano vicino alla soglia dei 1000 euro, altro che 700.
E personalmente è tutto incomprabile (contando che in passato le FE costavano di più delle custom/reference base) finchè non ci sarà una calmierata ai prezzi quando la disponibiltà sarà cospicua... Se non ci sarà, semplicemente non si comprano.
AMD può vincere easy su questo aspetto se la disponibilità di schede sarà tale da permettere ai prezzi di restare su valori normali.
Spero solo in una disponibilità di waterblock decenti (EK a parte che ormai se li fa pagare fin troppo e obbliga a usare i loro backplate).
mentalray
29-10-2020, 06:40
Sulla carta le proposte sono valide, ma chi sperava in prezzi aggressivi sarà rimasto deluso.
La concorrente della 3070 é anche più cara della nvidia e visti i precedenti pagare di piu per avere prestazioni simili sulla carta, ma con un supporto peggiore no grazie.
Speravo che con l'uscita di queste radeon potessero stabilizzarsi i prezzi di tutte le vga e invece penso proprio che resteranno ben al di sopra dei listini annunciati.
Alle 14 NVIDIA apre gli ordini per le 3070 FE, se riesco ad acquistarla per me é il best buy a 519 euro.
Opteranium
29-10-2020, 07:54
bene, adesso aspetto l'erede della 5500XT, possibilmente in fascia 150 euro, sperando di non diventare vecchio nell'attesa :D
Sulla carta le proposte sono valide, ma chi sperava in prezzi aggressivi sarà rimasto deluso.
La concorrente della 3070 é anche più cara della nvidia e visti i precedenti pagare di piu per avere prestazioni simili sulla carta, ma con un supporto peggiore no grazie.
Speravo che con l'uscita di queste radeon potessero stabilizzarsi i prezzi di tutte le vga e invece penso proprio che resteranno ben al di sopra dei listini annunciati.
Alle 14 NVIDIA apre gli ordini per le 3070 FE, se riesco ad acquistarla per me é il best buy a 519 euro.
Avrei preferito pure io prezzi più bassi, anche se la 6900XT, come detto se sarà vicino alla 3090, permetterà di avere il top senza spendere il 50% in più.
Ma ci sono due considerazioni da fare, la prima è che queste VGA hanno già fatto abbassare i prezzi a nVidia, la seconda è che probabilmente ad AMD non conviene esagerare nella guerra dei prezzi, visto che lo farebbe pure nVidia e i fidelizzati continuerebbero a comprare nVidia.
Se fosse premiante far scendere i prezzi la gente dovrebbe comprare AMD semplicemente ricordandosi quanto costava la precedente generazione nVidia, ma così non è.
Bene fa AMD, invece, a puntare sui vantaggi dell'accoppiata GPU-CPU.
Sin quando non verranno fatti dei benchmark con le stesse configurazioni tra Nvidia vs Amd è inutile fare paragoni.
Aspettare i risultati e non queste slide che al momento dicono poco se non i prezzi.
mi chiedo se i test in RT non siano stati fatti perchè i pochi giochi che attualmente usano questa tecnologia sono esclusive nvidia? Oppure usano tecnologie nvidia?
Chi mi da maggiori info?
Grazie
P S io spero in una 6700
mi chiedo se i test in RT non siano stati fatti perchè i pochi giochi che attualmente usano questa tecnologia sono esclusive nvidia? Oppure usano tecnologie nvidia?
Chi mi da maggiori info?
Grazie
P S io spero in una 6700
Esatto
I pochi giochi che ci sono supportano solo nVidia RTX
VanCleef
29-10-2020, 08:56
bene, adesso aspetto l'erede della 5500XT, possibilmente in fascia 150 euro, sperando di non diventare vecchio nell'attesa :D
+1 questa 570 ormai vorrebbe essere pensionata...
mackillers
29-10-2020, 08:59
Buongiorno a tutti,
vorrei condividere le mie riflessioni a mente fredda.
_ il prezzo della 6800 liscia è in effetti un pò alto, soprattutto visto che a 1440p i 16GB di Ram sono solo una questione di marketing.
probabilmente su questo incide molto il costo della Cache da 128mb, probabilmente concorre a far lievitare il numero di transistor e conseguentemente il costo di produzione del Chip.
credo che fra qualche mese assieme ad un ipotetica RX 6700/6700XT uscirà anche una 6800 da 8GB, se usata in 1440p praticamente avrà le stesse identiche performance della versione 16GB ma ad un costo più basso.
_ AMD crede molto nella sua offerta Ryzen 5000 ed ha deciso per la prima volta di creare delle tecnologie proprietarie per sfruttare la collaborazione fra CPU e GPU.
questo potrà essere un traino per le GPU AMD qualora le soluzioni Ryzen sfondino ampliamente nel mercato, ma dubito che possano ottenere percentuale di mercato così dirompenti.. anche arrivassero al 50% del mercato "gaming" resterebbe un altro 50% di proprietari di sistemi Intel che potrebbero pensare: "questa 6800XT è proprio una bella scheda! peccato che non abbia un bel 5800X nel case, sarà meglio prendere la RTX 3080 che va al massimo anche sul mio I7"
insomma questa mossa rischia di rivelarsi un arma a doppio taglio per AMD.
_ I ragionamenti sui prezzi bisognerebbe farli con uno street price stabilizzato, perché allo stato attuale si può dire ad esempio che la RX 6800 costa di più della 3070, ma se le founders sul sito Nvidia dureranno un giorno e le custom costeranno tutte dai 600€ in su, allora sarà AMD ad offrire il prezzo più basso.
almeno con la serie RX5000 i prezzi delle standard AMD si sono rivelati simili alle Custom con dissipatore di fascia medio alta (per intenderci stile Sapphire Pulse), se ciò si ripetesse anche sulle RX6000 sarebbe un ottima situazione.
_Lato Raytracing visto che AMD non ne ha parlato posso ipotizzare due diverse situazioni:
_le RX6000 sono nettamente inferiori in questo campo ed AMD sta cercando di prendere tempo per peggiorare l'immagine di questi nuovi prodotti.
_RX6000 hanno prestazioni in Raytracing accettabili, ma non supportano gli attuali giochi nati in collaborazione con Nvidia per funzionare con il suo RTX e non con le librerie Standard di Microsoft DirectX12 Ultimate.
la seconda sarebbe la più auspicabile, perché significherebbe che in un lasso di tempo accettabile dovrebbero cominciare ad uscire patch per i giochi già esistenti e nuovi giochi pensati per essere compatibili con il Raytracing sia di Nvidia che di AMD.
mi aspetto inoltre che su questo fronte siano necessari dei mesi perché AMD piano piano migliori l'ottimizzazione dei sui driver in questo contesto.
del resto anche le RX5700 sono molto migliorate in questo anno e mezzo di vita, la mia 5700xt si trovava a metà strada fra una 2070 ed una 2070s ed adesso supera leggermente quest'ultima ed alle volte si avvicina alla 2080.
da possessore di una piattaforma X570 e con già in progetto di passare ad un 5900x probabilmente fra 5-6 mesi potrei valutare una 6800xt per sostituire la mia 5700XT, staremo a vedere per adesso non ho per niente fretta.
Sulla carta le proposte sono valide, ma chi sperava in prezzi aggressivi sarà rimasto deluso.
La concorrente della 3070 é anche più cara della nvidia e visti i precedenti pagare di piu per avere prestazioni simili sulla carta, ma con un supporto peggiore no grazie.
Speravo che con l'uscita di queste radeon potessero stabilizzarsi i prezzi di tutte le vga e invece penso proprio che resteranno ben al di sopra dei listini annunciati.
Alle 14 NVIDIA apre gli ordini per le 3070 FE, se riesco ad acquistarla per me é il best buy a 519 euro.
il supporto pessimo è in realtà causato al 99% dagli utenti incompetenti!
Io ho avuto sia nV che Amd e problemi particolari non ne ho mai riscontrati.
Tornando alle nuove schede attendo dei test seri, ma al momento sembrano delle proposte convincenti.
Per me, al momento la più sensata è la 6800XT, voglio vederla contro la RTX 3070 e ci vorrà poco, arriva il 5 e subito sarà confronto!!
Come sempre, bisogna vedere i prezzi reali su strada prima di decidere, ma storicamente la clientela AMD è quella che se ne frega che la scheda vada un 5% in più o in meno rispetto alla pari verde, però apprezza il fatto che la si trovi a 50-100 euro in meno (vedi 5700xt vs 2070 super).
Quindi, se per la 6800xt ci siamo (3080 o giù di lì a poco meno) e per la 6900xt anche meglio (3090 o giù di lì a parecchio meno), per la 6800 mi sembra un po' troppo alto il prezzo rispetto alla 3070.
Poi, se va di più in un mondo ideale è normale che costi di più, ma qui la gente si lamenta che costa troppo :asd:
Diciamo che, se la 3070 si fosse chiamata 6800 e viceversa, nessuno avrebbe avuto niente da ridire. :read:
Come sempre, bisogna vedere i prezzi reali su strada prima di decidere, ma storicamente la clientela AMD è quella che se ne frega che la scheda vada un 5% in più o in meno rispetto alla pari verde, però apprezza il fatto che la si trovi a 50-100 euro in meno (vedi 5700xt vs 2070 super).
Quindi, se per la 6800xt ci siamo (3080 o giù di lì a poco meno) e per la 6900xt anche meglio (3090 o giù di lì a parecchio meno), per la 6800 mi sembra un po' troppo alto il prezzo rispetto alla 3070.
Poi, se va di più in un mondo ideale è normale che costi di più, ma qui la gente si lamenta che costa troppo :asd:
Diciamo che, se la 3070 si fosse chiamata 6800 e viceversa, nessuno avrebbe avuto niente da ridire. :read:
Come è stato detto, aspettare e non aver fretta di acquistare!
Prima voglio vedere il confronto tra le schede, poi posso decidere.
Al momento rimango per la 3070, ma se la 6800XT dovesse confermare i risultati e magari una buona temperatura, allora.......
Tra l'altro nel sito di Nvidia non è ancora possibile acquistare la 3070, che strano!!
ronthalas
29-10-2020, 09:45
...e lo saranno sempre meno.
Cose che fanno tutte le aziende se non devono tenere i prezzi bassi per vendere un prodotto inferiore (ai tempi gli Athlon X2 erano tutt'altro che economici) ...non so da dove viene questa leggenda di AMD e prezzi bassi come se fosse per una vocazione aziendale e non per una necessità.
Ricordo bene i prezzi e le prestazioni dei primi AMD X2, quando Intel arrancava pesantemente coi vari Prescott. l' X2 4200+ teneva testa a un doppio Xeon 2.8 GHz con cui l'avevo messo in confronto.
Per tutto il periodo Pentium 4 Intel ha preso botte da AMD. Almeno fino a che non è passata alla nuova architettura Core e Core 2
ora attendiamo solo il responso della redazione sui test
e il responso del mercato su prezzi e disponibilità
cronos1990
29-10-2020, 10:17
Vanno meglio di quello che pensavo.
Vedremo i prezzi quando il mercato si sarà "acquietato". E soprattutto i benchmark a confronto con Nvidia delle varie testate.
bonzoxxx
29-10-2020, 10:26
Vanno meglio di quello che pensavo.
Vedremo i prezzi quando il mercato si sarà "acquietato". E soprattutto i benchmark a confronto con Nvidia delle varie testate.
Non avrei mai pensato che AMD sarebbe riuscita, almeno sulle slide, ad arrivare alla 3090.
Certo che quella mega-cache da 128MB è davvero tanta tanta..
nickname88
29-10-2020, 10:30
Tra l'altro nel sito di Nvidia non è ancora possibile acquistare la 3070, che strano!!A partire dalle ore 14.00
https://i.ibb.co/JcW8rJW/Screenshot-20201029-081146-Outlook.jpg
Mi sembra sia ora di passare da una piattaforma verde blu, ad una rossa, ovviamente non appena i prezzi si assestano un po'.
Speriamo anche che nei prossimi test di queste GPU utilizzino dei Ryzen, di vedere se i benefici di cui parlano, siano reali.
mackillers
29-10-2020, 10:48
il supporto pessimo è in realtà causato al 99% dagli utenti incompetenti!
Io ho avuto sia nV che Amd e problemi particolari non ne ho mai riscontrati.
Tornando alle nuove schede attendo dei test seri, ma al momento sembrano delle proposte convincenti.
Non esageriamo adesso, è vero che i problemi driver di AMD sono molto ingigantiti dai luoghi comuni, ma è anche vero che ci sono stati.
io ad esempio possiedo una 5700XT ed ho avuto nel primo mese di utilizzo due schermate nere, ma si sono verificate solo sotto OC automatico dei driver (e la mia scheda partiva già overcloccata di suo.).
da allora ho rimesso le freq defoult e non si è più verificato nessun blocco, ma potrei essere stato fortunato io, alla fine ho giocato in questo anno solo 5 giochi diversi.
ad ogni modo AMD è solita uscire con driver meno ottimizzati che migliorano poi con il tempo, dal mio punto di vista questo potrebbe essere anche positivo, significa che possiamo immaginarci leggeri miglioramenti delle prestazioni.
l'importante è che non si verifichino nuovamente problemi impattanti come è capitato con la serie 5000.
Mi sembra sia ora di passare da una piattaforma verde blu, ad una rossa, ovviamente non appena i prezzi si assestano un po'.
Speriamo anche che nei prossimi test di queste GPU utilizzino dei Ryzen, di vedere se i benefici di cui parlano, siano reali.
stavo pensando la stessa cosa, voglio vedere con l'anno nuovo le nuove CPU Ryzen e deciderò
kliffoth
29-10-2020, 10:57
mi chiedo se i test in RT non siano stati fatti perchè i pochi giochi che attualmente usano questa tecnologia sono esclusive nvidia? Oppure usano tecnologie nvidia?
Chi mi da maggiori info?
Grazie
P S io spero in una 6700
AMD supporterà il ray tracing "standard" quindi DXR 1.0 e 1.1 (quello delle DX Microsoft), mentre non dovrebbe permettere l'esecuzione di software scritto per l'hardware nVidia.
Tutto ben spiegato dal capellone https://youtu.be/haAPtu06eYI?t=843
Il ray tracing non è stato inventato da nVidia, ma questa ha creato un suo hardware proprietario per velocizzare la gigantesca mole di calcoli che questo modello matematico richiede.
Ecco un esempio di RT di un'altra epoca (...e il processore andava a 7 Mhz!!)
https://www.youtube.com/watch?v=CBkUzab5TEo
mackillers
29-10-2020, 11:02
Come sempre, bisogna vedere i prezzi reali su strada prima di decidere, ma storicamente la clientela AMD è quella che se ne frega che la scheda vada un 5% in più o in meno rispetto alla pari verde, però apprezza il fatto che la si trovi a 50-100 euro in meno (vedi 5700xt vs 2070 super).
Quindi, se per la 6800xt ci siamo (3080 o giù di lì a poco meno) e per la 6900xt anche meglio (3090 o giù di lì a parecchio meno), per la 6800 mi sembra un po' troppo alto il prezzo rispetto alla 3070.
Poi, se va di più in un mondo ideale è normale che costi di più, ma qui la gente si lamenta che costa troppo :asd:
Diciamo che, se la 3070 si fosse chiamata 6800 e viceversa, nessuno avrebbe avuto niente da ridire. :read:
La giusta risposta alla 3070 sarebbe una 6800 liscia con 8GB di ram e 50€ di costo in meno.
stiamo a vedere lo street price, visto che le schede Nvidia custom di questa generazione tendono a costare molto di più delle Founders.
BlackHawk86
29-10-2020, 11:05
Se al lancio effettivo ci sarà disponibilità, io che volevo prendere la 3080 mi butto sicuramente sulla 6800XT.
NVidia sto giro prezzi a parte ha cannato in pieno con le scorte inesistenti
AMD supporterà il ray tracing "standard" quindi DXR 1.0 e 1.1 (quello delle DX Microsoft), mentre non dovrebbe permettere l'esecuzione di software scritto per l'hardware nVidia.
Tutto ben spiegato dal capellone https://youtu.be/haAPtu06eYI?t=843
Il ray tracing non è stato inventato da nVidia, ma questa ha creato un suo hardware proprietario per velocizzare la gigantesca mole di calcoli che questo modello matematico richiede.
Ecco un esempio di RT di un'altra epoca (...e il processore andava a 7 Mhz!!)
https://www.youtube.com/watch?v=CBkUzab5TEo
Giusto, però io avrei voluto vedere anche solo una slide dove facevano vedere come andava in qualche titolo, anche solo dire "in questo titolo con Raytracing attivo ottengo questo risultato e questi fps". Perchè nascondere le prestazioni con raytracing attivo?
kliffoth
29-10-2020, 11:09
Giusto, però io avrei voluto vedere anche solo una slide dove facevano vedere come andava in qualche titolo, anche solo dire "in questo titolo con Raytracing attivo ottengo questo risultato e questi fps". Perchè nascondere le prestazioni con raytracing attivo?
Credo che non ci sia nulla ad oggi, d'altronde anche con nVidia i primi titoli RT sono arrivati dopo molti mesi, se non ricordo male
BlackHawk86
29-10-2020, 11:09
Tra l'altro nel sito di Nvidia non è ancora possibile acquistare la 3070, che strano!!
Non è strano, partiranno alle 14 i preordini
A partire dalle ore 14.00
https://i.ibb.co/JcW8rJW/Screenshot-20201029-081146-Outlook.jpg
Grazie, era giusto una curiosità.
mackillers
29-10-2020, 11:18
AMD supporterà il ray tracing "standard" quindi DXR 1.0 e 1.1 (quello delle DX Microsoft), mentre non dovrebbe permettere l'esecuzione di software scritto per l'hardware nVidia.
Tutto ben spiegato dal capellone https://youtu.be/haAPtu06eYI?t=843
Il ray tracing non è stato inventato da nVidia, ma questa ha creato un suo hardware proprietario per velocizzare la gigantesca mole di calcoli che questo modello matematico richiede.
Ecco un esempio di RT di un'altra epoca (...e il processore andava a 7 Mhz!!)
https://www.youtube.com/watch?v=CBkUzab5TEo
L'importante è che Nvidia supporti anche lo standard DXR e che gradualmente si passi a delle librerie unificate. alla fin fine conviene sopra tutto agli sviluppatori utilizzare il medesimo SDK per Xbox e per tutti i PC.
penso che per valutare bene le performance in RT di queste schede bisognerà aspettare qualche mese perché il panorama dei giochi si adatti tramite patch oppure con il rilascio di nuovi giochi compatibili.
Non è strano, partiranno alle 14 i preordini
Ti dico così perchè sono sul sito Nvidia, ma non vedo nessuna scritta che dica l'orario per l'acquisto.
https://www.nvidia.com/it-it/geforce/buy/
Giusto, però io avrei voluto vedere anche solo una slide dove facevano vedere come andava in qualche titolo, anche solo dire "in questo titolo con Raytracing attivo ottengo questo risultato e questi fps". Perchè nascondere le prestazioni con raytracing attivo?
Forse è meglio se rileggi il messaggio che hai quotato, perché credo che alcune persone non abbiano proprio capito un fatto fondamentale :
Esatto
I pochi giochi che ci sono supportano solo nVidia RTX
Il problema è che non ci sono giochi ray tracing :p
I quattro che ci sono supportano solo nVidia
L'unico test che usa librerie standard è il 3DMark Port Royal
Forse è meglio se rileggi il messaggio che hai quotato, perché credo che alcune persone non abbiano proprio capito un fatto fondamentale :
E quelli che hanno fatto vedere che erano? Non erano giochi con il raytracing? Mi pare di aver visto un Godfall nella presentazione di ieri, i cui gameplay circolano da tempo e dovrebbe uscire fra nemmeno 2 settimane. Era cosi complicato fare vedere come girava questo Godfall con il raytracing e gpu AMD?
kliffoth
29-10-2020, 12:40
E quelli che hanno fatto vedere che erano? Non erano giochi con il raytracing? Mi pare di aver visto un Godfall nella presentazione di ieri, i cui gameplay circolano da tempo e dovrebbe uscire fra nemmeno 2 settimane. Era cosi complicato fare vedere come girava questo Godfall con il raytracing e gpu AMD?
ma sono scritti per AMD?
Se sono compatibili RTX non è detto che siano standard DXR
ma sono scritti per AMD?
Se sono compatibili RTX non è detto che siano standard DXR
Perdonami, ma li hanno fatti vedere alla presentazione AMD di ieri, rimarcando il supporto al raytracing "marchiato AMD".
L'unica cosa che non hanno fatto vedere è come giravano quei giochi con schede AMD e raytracing. Se li hanno mostrati significa che sono compatibili con la soluzione hardware per il raytracing presente su queste nuove schede, altrimenti perchè li avrebbero dovuti mostrare?
mircocatta
29-10-2020, 13:36
Perdonami, ma li hanno fatti vedere alla presentazione AMD di ieri, rimarcando il supporto al raytracing "marchiato AMD".
L'unica cosa che non hanno fatto vedere è come giravano quei giochi con schede AMD e raytracing. Se li hanno mostrati significa che sono compatibili con la soluzione hardware per il raytracing presente su queste nuove schede, altrimenti perchè li avrebbero dovuti mostrare?
perdonami, ma anche ti avessero detto che faceva 60fps 4k, cosa cambiava? non avremmo comunque avuto modo di fare paragoni con ampere o turing
perdonami, ma anche ti avessero detto che faceva 60fps 4k, cosa cambiava? non avremmo comunque avuto modo di fare paragoni con ampere o turing
Per lo meno potevi avere una vaga idea di come potevano comportarsi queste schede con il raytracing in alcuni titoli.
Cosi a conti fatti non sai nulla, sai solo che AMD ha detto "abbiamo pure noi il raytracing", che è tanto quanto sapevi prima della presentazione.
kliffoth
29-10-2020, 13:49
Per lo meno potevi avere una vaga idea di come potevano comportarsi queste schede con il raytracing in alcuni titoli.
Cosi a conti fatti non sai nulla, sai solo che AMD ha detto "abbiamo pure noi il raytracing", che è tanto quanto sapevi prima della presentazione.
Ho trovato questo
https://videocardz.com/newz/amd-ray-accelerator-appear-to-be-slower-than-nvidia-rt-core-in-this-dxr-ray-tracing-benchmark
e questo
https://wccftech.com/amd-radeon-rx-6000-rdna-2-big-navi-graphics-cards-ray-tracing-performance-detailed/
effettivamente, e come atteso, la prima generazione AMD pare peggiore della seconda nVidia in RT
Comunque se realmente la 6900xt sarà in grado di impensierire la 3090, che costa il 50% abbondante in più, creerà qualche problemino di credibilità a nVidia che dovrà rivedere ancora i suoi listini.
Unica fortuna di nVidia è che quella scheda era praticamente impossibile acquistarla.
e ma il tempismo è terribile per nvidia
se davvero valgono come sembra, tutti i recensori avranno 3080/3090 da confrontare con le Radeon, e noi utenti avremo tutto il tempo per scegliere
nickname88
29-10-2020, 14:28
ma sono scritti per AMD?
Se sono compatibili RTX non è detto che siano standard DXR
Ma di che cosa stai parlando ? L'RTX si poggia sul DXR.
Godfall, ( così come il DIRT, FC e WOW mostrati ) è un titolo sponsorizzato e ottimizzato AMD che fa uso dei tools della suit FidelityFX, ma il RT girerà anche su Nvidia, così come su tutti i giochi dotati di RT basati su API DirecX o Vulcan.
Sul sito AMD ci sono pure i confronti fra questi giochi con e senza RT
https://www.amd.com/en/technologies/directx12#FEATURED-GAMES-
E sono entrambi deludenti.
il vero RT, se mai verrà portato avanti si vedrà tra qualche anno, ora come ora con il degrado prestazionale che genera è veramente una Ca**ta pazzesca! ( cit. Fantozzi )
kliffoth
29-10-2020, 15:00
Ma di che cosa stai parlando ? L'RTX si poggia sul DXR.
chiedo venia, intendevo dire che il software scritto per RTX non dovrebbe andare su AMD, ma ho scritto altro
Altro punto da considerare, sempre per il discorso prezzo, è la validità del dissipatore reference delle AMD vs FE delle Nvidia.
SE il primo fosse migliore e persino paragonabile ad alcuni dissipatori di schede custom che vengono vendute 50-100$ in più, il divario di prezzo sarebbe ancora diverso.
Sono curioso di vedere se la RX 6800 raggiunge gli stessi clock della XT, con o senza bios modificato (certo i tempi di "nonna" HD 6950 sbloccata sono ormai lontani :D
StylezZz`
29-10-2020, 16:50
(certo i tempi di "nonna" HD 6950 sbloccata sono ormai lontani :D
BEI TEMPI.
Altro punto da considerare, sempre per il discorso prezzo, è la validità del dissipatore reference delle AMD vs FE delle Nvidia.
SE il primo fosse migliore e persino paragonabile ad alcuni dissipatori di schede custom che vengono vendute 50-100$ in più, il divario di prezzo sarebbe ancora diverso.
Sono curioso di vedere se la RX 6800 raggiunge gli stessi clock della XT, con o senza bios modificato (certo i tempi di "nonna" HD 6950 sbloccata sono ormai lontani :D
Generalmente, come modelli reference, la dissipazione dei modelli nVidia era più efficace.
MiKeLezZ
29-10-2020, 18:06
Comunque se realmente la 6900xt sarà in grado di impensierire la 3090, che costa il 50% abbondante in più, creerà qualche problemino di credibilità a nVidia che dovrà rivedere ancora i suoi listini.
Unica fortuna di nVidia è che quella scheda era praticamente impossibile acquistarla.Ma figurati...
3070: 500$
6800: 580$
La 6800 va leggermente più della 3070 e quindi hanno deciso di farla pagare di più. Per indorare la pillola ci hanno messo anche il doppio della RAM (inutile).
Nvidia farà quindi uscire la 3070Ti, che andrà leggermente di più di entrambe, ma costerà poco più della 6800 (600$), così da togliergli mercato.
3080: 700$
6800XT: 650$
La 6800XT va leggermente meno della 3080 (a volte pari) e quindi costa meno. Per renderla più appetibile ci hanno messo anche il doppio della RAM (inutile).
3090: 1500$
6900XT: 1000$
La 6900XT ha le stesse specifiche della 6800XT, solo 80 invece che 72 core-cosi, quindi ca. solo il 6% di prestazioni in più.
La 3090 ha il 20% in più di specifiche della 3080 (cuda-cosi, bus e compagnia) quindi va ca. il 15% in più.
La 6900XT va quindi meno della 3090. Neppure hanno potuto giocarsela con il raddoppio della RAM per attirare i polli come per la 6800XT: ci ha pensato anche NVIDIA. Infatti costa (molto) meno della 3900.
Come ciliegina tutte le AMD hanno il 30% in meno di performance in RT, quindi ci sarà il solito giochino del "aspettiamo i prossimi driver vedrete che migliorerà la situazione, l'architettura è magica modifica le performance"...
bonzoxxx
29-10-2020, 18:11
Ma figurati...
3070: 500$
6800: 580$
La 6800 va leggermente più della 3070 e quindi hanno deciso di farla pagare di più.
Nvidia farà quindi uscire la 3070Ti, che andrà leggermente di più di entrambe, ma costerà poco più della 6800 (600$), così da togliergli mercato.
3080: 700$
6800XT: 650$
La 6800XT va leggermente meno della 3080 e quindi costa meno. Per renderla più appetibile ci hanno messo anche il doppio della RAM.
3090: 1500$
6900XT: 1000$
La 6900XT ha le stesse specifiche della 6800XT, solo 80 invece che 72 core-cosi, quindi ca. solo il 6% di prestazioni in più.
La 3090 ha il 20% in più di specifiche della 3080 (cuda-cosi, bus e compagnia) quindi va ca. il 15% in più.
La 6900XT va quindi meno della 3090. Neppure hanno potuto giocarsela con il raddoppio della RAM per attirare i polli come per la 6800XT. Infatti costa (molto) meno della 3900.
Come ciliegina tutte le AMD hanno il 30% in meno di performance in RT, quindi ci sarà il solito giochino del "aspettiamo i prossimi driver vedrete che migliorerà la situazione, l'architettura è magica modifica le performance"...
Staremo a vedere da come scrivi hai la palla di cristallo... :muro:
nickname88
29-10-2020, 18:36
Altro punto da considerare, sempre per il discorso prezzo, è la validità del dissipatore reference delle AMD vs FE delle Nvidia.
SE il primo fosse migliore e persino paragonabile ad alcuni dissipatori di schede custom che vengono vendute 50-100$ in più, il divario di prezzo sarebbe ancora diverso.
Sono curioso di vedere se la RX 6800 raggiunge gli stessi clock della XT, con o senza bios modificato (certo i tempi di "nonna" HD 6950 sbloccata sono ormai lontani :DIl dissipatore reference di AMD non mi sembra diverso dagli altri triventola custom, male che vada ti compri un'altra custom triventola, ce ne saranno tante. L'FE di Nvidia scarica parte del calore fuori dal case quindi direi che di meglio per le Tamb interna del case non c'è.
nickname88
29-10-2020, 18:50
il vero RT, se mai verrà portato avanti si vedrà tra qualche anno, ora come ora con il degrado prestazionale che genera è veramente una Ca**ta pazzesca! ( cit. Fantozzi )Anche l'RT è scalabile in diversi giochi e in molti è usufruibile a 60fps@4k grazie anche al DLSS, ma anche laddove non si riescono a tenere i 60fps maxati, più sei vicino alla soglia e meno dovrai scalare.
Io parto con alcune considerazioni sparse:
- Prestazioni
Meglio di quanto mi aspettassi, se i dati presentati sono reali. Pensavo che puntassero alla 3080 con la top di gamma, invece coprono anche la fascia prestazionale della 3090.
- Prezzi
Nvidia doveva avere un'idea molto chiara delle prestazioni di RDNA2 visto il modo in cui ha piazzato la sua nuova serie. Ma è indubbio che è la ritrovata concorrenza ad aver invertito il trend di aumento dei prezzi che era esploso con la scorsa generazione.
Forse non sono i prezzi che alcuni si aspettavano, ma immaginate a quale prezzo avremmo oggi avuto le prestazioni della 6800XT se queste schede non fossero state competitive.
- Raytracing
Ancora un'incognita. Pare che le prestazioni siano inferiori a quelle della seconda generazione dell'implementazione di nVidia, ma temo che la verità verrà a galla quando ci saranno le prime recensioni della scheda.
Non escluderei che il silenzio sia dovuto alla parte software non ancora pronta (meglio non parlarne che fare brutta figura con benchmark prematuri) o alla necessità di patchare i giochi esistenti per andare bene sull'implementazione di AMD, ma la realtà potrebbe essere più semplice: banalmente vanno di meno.
Sono molto curioso a riguardo per cui spero trapeli qualcosa di concreto, ma temo dovremmo aspettare queste benedette tre settimane per sapere qualcosa.
- DLSS
Indubbiamente la carta vincente per nVidia e che ancora manca ad AMD. Una mancanza che deve essere colmata, i risultati di DLSS di seconda generazioni sono solidi e concreti, impossibili da colmare con la potenza bruta.
Spero che AMD ci stia lavorando alacremente e che già queste schede abbiano l'hardware necessario a far girare come si deve una sua alternativa.
Mi aspettavo qualcosa a riguardo, magari un bell'annuncio in pompa magna della loro tecnologia, magari open in collaborazione con Intel, qualcomm e altri... le potenzialità sono enormi, soprattutto in ambiti come la VR dove risoluzioni elevate sono molto importanti. E invece nulla, grave mancanza.
- 6900XT e 3090
In ambito gaming indubbiamente la 6900XT parrebbe decisamente più appetibile, prestazioni simili (dai grafici parrebbero pure migliori) e costo molto ridotto.
Il prezzo della 3090 credo però sia ancora giustificato dal fatto che il suo target non sia il gioco, ma l'utilizzo prosumer. L'estremo sbilanciamento dell'architettura nVidia verso le unità di calcolo generico rendono la 3090 inavvicinabile in diversi scenari diversi dal gioco, e credo abbia ancora senso in questi mercati, che probabilmente erano quelli per cui la scheda era pensata.
La 6900XT va quindi meno della 3090.
Affermazione decisamente azzardata, anche perchè contraddice i numeri con cui la scheda è stata presentata.
Il punto è che la stai facendo troppo semplice e che le prestazioni possono derivare da una molteplicità di fattori, e nella tua analisi non hai tenuto conto di frequenze medie di funzionamento, bilanciamento dell'architettura ed eventuali colli di bottiglia.
Ad ogni modo da 72 e 80 compute unit c'è un 11% di differenza, quel 6% mi sembra un po' ingeneroso.
cronos1990
29-10-2020, 19:20
- DLSS
Indubbiamente la carta vincente per nVidia e che ancora manca ad AMD. Una mancanza che deve essere colmata, i risultati di DLSS di seconda generazioni sono solidi e concreti, impossibili da colmare con la potenza bruta.
Spero che AMD ci stia lavorando alacremente e che già queste schede abbiano l'hardware necessario a far girare come si deve una sua alternativa.
Mi aspettavo qualcosa a riguardo, magari un bell'annuncio in pompa magna della loro tecnologia, magari open in collaborazione con Intel, qualcomm e altri... le potenzialità sono enormi, soprattutto in ambiti come la VR dove risoluzioni elevate sono molto importanti. E invece nulla, grave mancanza. In teoria hanno una tecnologia analoga al DLSS (mi sfugge il nome adesso).
Il problema è che non si è vista sul campo, e soprattutto nei giochi con l'RT attivato. Questa secondo me è un'incognita ancor più rilevante, perchè non dimentichiamoci che i giochi vengono programmati pensando alle console (targate AMD e con il RT come obiettivo primario).
La 3090, come già detto molte volte, è la nuova Titan, hanno solo cambiato la "nomenclatura" giusto per confondere ancor più l'utenza. In quest'ottica è una scheda che, come la stessa 6900XT, esula in parte dal discorso videogiocate. Poi certo, essendo la proposta AMD ad un prezzo non tanto più alto rispetto alla 6800XT (a differenza della 3090 sulla 3080), si aprono nuove frontiere di scelta.
MiKeLezZ
29-10-2020, 19:23
Affermazione decisamente azzardata, anche perchè contraddice i numeri con cui la scheda è stata presentata.
Il punto è che la stai facendo troppo semplice e che le prestazioni possono derivare da una molteplicità di fattori, e nella tua analisi non hai tenuto conto di frequenze medie di funzionamento, bilanciamento dell'architettura ed eventuali colli di bottiglia.
Ad ogni modo da 72 e 80 compute unit c'è un 11% di differenza, quel 6% mi sembra un po' ingeneroso.Non cambia altro: stesse frequenze, stesso bus, stessa RAM.
Se fra 3080 e 3090 a fronte di un +20% spec (di tutto però: bus, core-cosi e pure, quasi, frequenza ram) abbiamo visto che corrisponda un +15% perf (due terzi), quel +11% core-cosi della 6800XT non potrà ambire a più di un +6% perf (la metà)...
cronos1990
29-10-2020, 19:26
Staremo a vedere da come scrivi hai la palla di cristallo... :muro:Nono, scrive come un fanboy che spara un mucchio di corbellerie, da sempre :asd:
Ora mi metto comodo in attesa di una sua risposta in merito alla sua previsione (con tanto di "ci vediamo qui tra un mese") di schede che vanno di meno e consumano di più.
Non cambia altro: stesse frequenze, stesso bus, stessa RAM.
Se fra 3080 e 3090 a fronte di un +20% spec (di tutto però: bus, core-cosi e pure, quasi, frequenza ram) abbiamo visto che corrisponda un +15% perf (due terzi), quel +11% core-cosi della 6800XT non potrà ambire a più di un +6% perf (la metà)...Appunto :asd:
MiKeLezZ
29-10-2020, 19:28
Nono, scrive come un fanboy che spara un mucchio di corbellerie, da sempre :asd:
Ora mi metto comodo in attesa di una sua risposta in merito alla sua previsione (con tanto di "ci vediamo qui tra un mese") di schede che vanno di meno e consumano di più.
Appunto :asd:E' un casino questa storia degli stadi chiusi, gli ultras poi si riversano nei forum e lo riempiono di post provocatori che non contengono alcuna argomentazione!
HwWizzard
29-10-2020, 19:32
Questa è l'ennesima caxxata mega-galattica.
Dopo la storia che con il DLSS si "scaricherebbe la grafica" da internet ovviamente.
FidelityFX è una suite di Tools, quello che va a confrontarsi col DLSS è il CAS che non è altro che upscaling con un ottimizzazione dei contrasti e non fa minimamente uso di una AI, a livello funzionale non solo non centra una mazza ma anche visivamente parlando non è per niente paragonabile.
https://www.overclock3d.net/reviews/software/dlss_2_0_in_death_stranding_-_nvidia_4k_performance_trump_card/3
No, non si sà per ora, ma se fosse stato un punto a favore avrebbero mostrato i titoli in pompa magna, il fatto che la principale novità dell'architettura non sia manco stata menzionata non lascia presagire nulla di buono.
Ma chissà magari si vogliono solo divertire a farci un altra sorpresa, in tal caso ben venga, la compro subito.
Infatti il CAS fa parte della suite Fidelity FX... prima di scrivere caxxate almeno guardati le slide se non riesci a leggere e non capisci l’inglese visto che l’RT è stato menzionato più volte.
Ma oramai è chiaro dove vai a parare, adesso non contano più consumi e prestazioni ma solo il trucco DLSS e RT ancora implementato con i piedi e ingiocabile già a 1440p senza trucchetto nVidia.
Certo che per voi fanboy ammettere una sconfitta è veramente ardua impresa.
Ma nonostante gli improbabili :mc: tale rimane
HwWizzard
29-10-2020, 19:41
AMD supporterà il ray tracing "standard" quindi DXR 1.0 e 1.1 (quello delle DX Microsoft), mentre non dovrebbe permettere l'esecuzione di software scritto per l'hardware nVidia.
Tutto ben spiegato dal capellone https://youtu.be/haAPtu06eYI?t=843
Il ray tracing non è stato inventato da nVidia, ma questa ha creato un suo hardware proprietario per velocizzare la gigantesca mole di calcoli che questo modello matematico richiede.
Ecco un esempio di RT di un'altra epoca (...e il processore andava a 7 Mhz!!)
https://www.youtube.com/watch?v=CBkUzab5TEo
Ma la presentazione non l’ha guardata nessuno oltre le slide? Hanno spiegato chiaramente di essere al lavoro da mesi con le SH per implementare RT e la suite Fidelity FX e che sono in uscita 35 titoli... anche perché gli stessi tool vengono utilizzati sulle console, secondo te quale suite avrà più supporto dalle SH?
HwWizzard
29-10-2020, 19:48
Nono, scrive come un fanboy che spara un mucchio di corbellerie, da sempre :asd:
Ora mi metto comodo in attesa di una sua risposta in merito alla sua previsione (con tanto di "ci vediamo qui tra un mese") di schede che vanno di meno e consumano di più.
Appunto :asd:
Si lui è quello più delirante!
Come sempre, bisogna vedere i prezzi reali su strada prima di decidere, ma storicamente la clientela AMD è quella che se ne frega che la scheda vada un 5% in più o in meno rispetto alla pari verde, però apprezza il fatto che la si trovi a 50-100 euro in meno (vedi 5700xt vs 2070 super).
Quindi, se per la 6800xt ci siamo (3080 o giù di lì a poco meno) e per la 6900xt anche meglio (3090 o giù di lì a parecchio meno), per la 6800 mi sembra un po' troppo alto il prezzo rispetto alla 3070.
Poi, se va di più in un mondo ideale è normale che costi di più, ma qui la gente si lamenta che costa troppo :asd:
Diciamo che, se la 3070 si fosse chiamata 6800 e viceversa, nessuno avrebbe avuto niente da ridire. :read:
giusto quello che scrivi, ma la 6800 liscia è appunto in concorrenza con la 3080 per un 5-10% di prestazioni in meno a molto più di 100 euro in meno, quindi la tua tesi è stata ampiamente confermata.
in certi giochi la raggiunge, in altri la supera, e non credo che un chip con 50W in meno dalle sorelle maggiori e una frequenza di 100mhz in meno si faccia troppi problemi a salire in overclock come invece evidenziano le 3080.
è il confronto con la 3070 che credo non regga, soprattutto perchè, tolte le FE, difficile prendere una 3070 custom a prezzi inferiori a quelli che potrebbero esserci con la 6800 liscia.
quindi si aspettano i veri valori in campo con test indipendenti (ed obbiettivi).
HwWizzard
29-10-2020, 20:31
giusto quello che scrivi, ma la 6800 liscia è appunto in concorrenza con la 3080 per un 5-10% di prestazioni in meno a molto più di 100 euro in meno, quindi la tua tesi è stata ampiamente confermata.
in certi giochi la raggiunge, in altri la supera, e non credo che un chip con 50W in meno dalle sorelle maggiori e una frequenza di 100mhz in meno si faccia troppi problemi a salire in overclock come invece evidenziano le 3080.
è il confronto con la 3070 che credo non regga, soprattutto perchè, tolte le FE, difficile prendere una 3070 custom a prezzi inferiori a quelli che potrebbero esserci con la 6800 liscia.
quindi si aspettano i veri valori in campo con test indipendenti (ed obbiettivi).
La 6800 liscia è in concorrenza alla 3070 con la 3080 non ha niente a che vedere.
Sta sopra la 3070 il giusto per giocarsela con la 3070S o Ti che adesso nVidia dovrà tirar fuori per forza, la 6800XT invece è quella in concorrenza con la 3080 costando meno e con il doppio della RAM. Ma tanto adesso questo non conta ma conta solo la prestazione in RT con DLSS:doh:
Può essere che spuntino le TI e le S, ma non modificherebbero lo scenario senza un ritocco dei prezzi degli altri modelli. Ma a questo punto otterrebbe lo stesso risultato mettendo semplicemente mano al listino.
Semmai nVidia ha un'altra possibilità, far uscire finalmente questi modelli in numero adeguato, di modo che si abbassi lo street price, perché al momento stiamo ragionando sui prezzi di listino, senza tener conto che nessuno può comprare quelle schede a quei prezzi, e che dunque le nVidia costano molto di più.
La 6800 liscia è in concorrenza alla 3070 con la 3080 non ha niente a che vedere.
Sta sopra la 3070 il giusto per giocarsela con la 3070S o Ti che adesso nVidia dovrà tirar fuori per forza, la 6800XT invece è quella in concorrenza con la 3080 costando meno e con il doppio della RAM. Ma tanto adesso questo non conta ma conta solo la prestazione in RT con DLSS:doh:
Favuz sosteneva che le gli abitué AMD si accontentano anche di un 5, 10% in meno di prestazioni, ma che cercano anche un certo risparmio di denaro e che la 6800 non coincide con questa abitudine, ma alla fine puoi guardare i dati che ha fornito AMD tra 3080 e 6800 XT e guardare quelli della 6800 per vedere che quella scheda rientra in quella descrizione: va il 10% in meno e costa quel centinaio di euro in meno...
i test indipendenti (ed obbiettivi) e anche il reale prezzo sul mercato ci diranno se questa percezione è giusta o sbagliata.
digieffe
29-10-2020, 23:42
3090: 1500$
6900XT: 1000$
La 6900XT ha le stesse specifiche della 6800XT, solo 80 invece che 72 core-cosi, quindi ca. solo il 6% di prestazioni in più.
La 3090 ha il 20% in più di specifiche della 3080 (cuda-cosi, bus e compagnia) quindi va ca. il 15% in più.
80 = 72 + 11%
cosa mi sta sfuggendo per cui la differenza è solo il 6% ? :confused:
bonzoxxx
30-10-2020, 01:07
Mah, se vanno uguale, più o meno a me non cambia molto ma se poco poco vanno di più c'è gente che si mangerà il fegato per un mese.
Vedremo, non so quanto potranno andare soprattutto in RT, il DLSS da quel poco che ho visto sul tubo funziona bene, vedremo.
nickname88
30-10-2020, 01:09
Infatti il CAS fa parte della suite Fidelity FX... prima di scrivere caxxate almeno guardati le slide se non riesci a leggere e non capisci l’inglese visto che l’RT è stato menzionato più volte.
Ma oramai è chiaro dove vai a parare, adesso non contano più consumi e prestazioni ma solo il trucco DLSS e RT ancora implementato con i piedi e ingiocabile già a 1440p senza trucchetto nVidia.
Certo che per voi fanboy ammettere una sconfitta è veramente ardua impresa.
Ma nonostante gli improbabili :mc: tale rimane
RT implementato con i piedi ? Il RT è semplicemente difficile da gestire.
E il DLSS non è affatto un trucchetto, la qualità è inarrivabile per il CAS, offre solamente vantaggi e non è legato al RT.
E per quel che riguarda i consumi, sono quasi gli stessi, quindi cosa ci sarebbe da discutere ?
guardati le slide se non riesci a leggere e non capisci l’inglese visto che l’RT è stato menzionato più volte.Si vede allora che in molti non capiscono l'inglese e sono ciechi perchè è pieno di articoli che trattano appunto il fatto che AMD non ha parlato del RT.
la 6800XT invece è quella in concorrenza con la 3080 costando meno e con il doppio della RAM. Ma tanto adesso questo non conta ma conta solo la prestazione in RT con DLSS:doh:Costa 50$ ma che vada uguale è ancora da dimostrare, visto che il parco giochi mostrato nell'evento è formato da titoli pro AMD e con i valori della controparte inesatti. 16GB inoltre non è il doppio di 10GB se la matematica non è un opinione.
Prestazioni RT e DLSS ? Roba inutile, dopotutto la prima è solo la novità principale di RDNA2, che vuoi che sia, mentre la seconda è una delle features più importanti di Nvidia e cui AMD ancora non ha nulla da offrire.
MiKeLezZ
30-10-2020, 01:40
80 = 72 + 11%
cosa mi sta sfuggendo per cui la differenza è solo il 6% ? :confused:Che nel mondo reale non funziona così. Soprattutto se quell'incremento del 11% non lo riporti anche nelle frequenze (+0%), nel bus (+0%), nella ram (+0%) - cosa che la 3090 rispetto la 3080 fa. I TFLOPS teorici scalano linearmente, ma le prestazioni nei giochi no.
HwWizzard
30-10-2020, 06:06
RT implementato con i piedi ? Il RT è semplicemente difficile da gestire.
E il DLSS non è affatto un trucchetto, la qualità è inarrivabile per il CAS, offre solamente vantaggi e non è legato al RT.
E per quel che riguarda i consumi, sono quasi gli stessi, quindi cosa ci sarebbe da discutere ?
Si vede allora che in molti non capiscono l'inglese e sono ciechi perchè è pieno di articoli che trattano appunto il fatto che AMD non ha parlato del RT.
Costa 50$ ma che vada uguale è ancora da dimostrare, visto che il parco giochi mostrato nell'evento è formato da titoli pro AMD e con i valori della controparte inesatti. 16GB inoltre non è il doppio di 10GB se la matematica non è un opinione.
Prestazioni RT e DLSS ? Roba inutile, dopotutto la prima è solo la novità principale di RDNA2, che vuoi che sia, mentre la seconda è una delle features più importanti di Nvidia e cui AMD ancora non ha nulla da offrire.
Io ti consiglio di rivedere la presentazione, magari con i sottotitoli in una lingua che comprendi.
Si RT è inutile visto che senza DLSS non lo puoi usare.
Poi potresti anche usare la tua sfera di cristallo per darmi i numeri del Superenalotto visto che già sa come si comporta il CAS?
Ma figurati...
3070: 500$
6800: 580$
La 6800 va leggermente più della 3070 e quindi hanno deciso di farla pagare di più. Per indorare la pillola ci hanno messo anche il doppio della RAM (inutile).
Nvidia farà quindi uscire la 3070Ti, che andrà leggermente di più di entrambe, ma costerà poco più della 6800 (600$), così da togliergli mercato.
3080: 700$
6800XT: 650$
La 6800XT va leggermente meno della 3080 (a volte pari) e quindi costa meno. Per renderla più appetibile ci hanno messo anche il doppio della RAM (inutile).
3090: 1500$
6900XT: 1000$
La 6900XT ha le stesse specifiche della 6800XT, solo 80 invece che 72 core-cosi, quindi ca. solo il 6% di prestazioni in più.
La 3090 ha il 20% in più di specifiche della 3080 (cuda-cosi, bus e compagnia) quindi va ca. il 15% in più.
La 6900XT va quindi meno della 3090. Neppure hanno potuto giocarsela con il raddoppio della RAM per attirare i polli come per la 6800XT: ci ha pensato anche NVIDIA. Infatti costa (molto) meno della 3900.
Come ciliegina tutte le AMD hanno il 30% in meno di performance in RT, quindi ci sarà il solito giochino del "aspettiamo i prossimi driver vedrete che migliorerà la situazione, l'architettura è magica modifica le performance"...
ma cambia pusher !
comunque prima che ti fai ste pippe bisogna aspettare delle recensioni affidabili.
Francamente non mi aspettavo prestazioni così alte e praticamente allineate, se non superiori a Nvidia con una migliore efficienza energetica e maggiore RAM che non fa male nel medio periodo di vita (2-3 anni).
Unica nota non esaltante sono i prezzi che sono all'incirca allineati alla concorrenza sulla carta, mentre mi aspettavo un atteggiamento più aggressivo... anche se è presto trarre conclusioni fino a Dicembre per quanto riguarda i prezzi:
Ad oggi una RTX 3080 costa REALMENTE 900€, quelle poche che si trovano. Se la RX 6800XT arrivasse sul mercato veramente a 650€ iva compresa sarebbe eccezionale, ma non si possono trarre giudizi al momento.
Semplicemente geniali le tecnologie Infinity Cache per l'aumento smodato della banda e da orgasmo quella Smart Access Memory che premia l'ottimizzazione della piattaforma completa AMD e che nessuno nella concorrenza non può permettersi!
Tutte cose che leggendo i commenti sembrano importare a pochi, mentre ci sono pagine e pagine di seghe mentali sull'RT e DLSS: features implementate su 4 giochi in croce e anche abbastanza trascurabili al momento come impatto effettivo. Il tutto ignorando in mala fede l'introduzione del pacchetto FidelityFX che sembra essere molto più incisivo e completo globalmente.
BRAVA AMD, non era facile recuperare ma pare proprio essere riuscita nell'ennesima impresa, il condizionale è ovviamente d'obbligo in attesa di recensioni reali e street price di dicembre/gennaio per entrambi i produttori.
Se tutto fosse confermato potrei pensare di sostituire senza fretta la mia RX 5700XT raffreddata a liquido con una RX 6800XT verso marzo/aprile, quando i prezzi caleranno un pò e i driver ottimizzati. Nel frattempo questo inverno potrei investire su un bel monitor Samsung Odissey G9 che ne sfrutti le potenzialità.
Non cambia altro: stesse frequenze, stesso bus, stessa RAM.
E se la 6800XT fosse deficitaria proprio nella potenza di calcolo degli shader e quindi un aumento di quel tipo fosse sfruttato appieno? E se la 6900XT lavorasse a frequenze medie molto più alte?
Ripeto, non abbiamo le informazioni per giudicare, per ora l'unica informazione è quella fornita da AMD che non mette la 6900 sotto la 3090.
Infatti il CAS fa parte della suite Fidelity FX... prima di scrivere caxxate almeno guardati le slide se non riesci a leggere e non capisci l’inglese visto che l’RT è stato menzionato più volte.
Se non sbaglio il CAS per ora non utilizza l'intelligenza artificiale per l'upscaling e non è quindi paragonabile al DLSS, ho visto alcuni articoli che mettono a confronto le due tecnologie e la situazione al momento è questa.
Per questo speravo che con l'annuncio di queste schede annunciassero anche un'evoluzione della tecnologia che potesse competere con quella NVIDIA, non ho visto la presentazione ma il fatto che gli articoli non ne parlino in pompa magna direi è indicativo.
Stai sottovalutando una tecnologia che potrebbe essere un "game changer" e su cui nVidia è sicuramente avanti, io mi auspico una tecnologia open sfruttata da tutti i maggiori produttori di hardware grafico che potrebbe creare una bella rivoluzione nel settore.
cosa mi sta sfuggendo per cui la differenza è solo il 6% ?
Quello è secondo lui il miglioramento prestazionale che quell'11% dovrebbe portare.
Ma figurati...
3070: 500$
6800: 580$
La 6800 va leggermente più della 3070 e quindi hanno deciso di farla pagare di più. Per indorare la pillola ci hanno messo anche il doppio della RAM (inutile).
Nvidia farà quindi uscire la 3070Ti, che andrà leggermente di più di entrambe, ma costerà poco più della 6800 (600$), così da togliergli mercato.
3080: 700$
6800XT: 650$
La 6800XT va leggermente meno della 3080 (a volte pari) e quindi costa meno. Per renderla più appetibile ci hanno messo anche il doppio della RAM (inutile).
3090: 1500$
6900XT: 1000$
La 6900XT ha le stesse specifiche della 6800XT, solo 80 invece che 72 core-cosi, quindi ca. solo il 6% di prestazioni in più.
La 3090 ha il 20% in più di specifiche della 3080 (cuda-cosi, bus e compagnia) quindi va ca. il 15% in più.
La 6900XT va quindi meno della 3090. Neppure hanno potuto giocarsela con il raddoppio della RAM per attirare i polli come per la 6800XT: ci ha pensato anche NVIDIA. Infatti costa (molto) meno della 3900.
Come ciliegina tutte le AMD hanno il 30% in meno di performance in RT, quindi ci sarà il solito giochino del "aspettiamo i prossimi driver vedrete che migliorerà la situazione, l'architettura è magica modifica le performance"...
1. A parte della 6800XT va più della 3080 per quello che è stato fatto vedere.
2. Si possono solo tirare conclusioni per quello che è stato mostrato in presentazione.
2. Aspettiamo quando arrivano e le varie recensioni, come puoi dire che hanno il 30% in meno di performance in RT, se nessuno sa niente?
Mah.....
Sin quando non ci sono dei Benchmark fatti da personale esperto, stiamo parlando di aria fritta.
Si può solo trarre delle conclusioni dalle slide mostrate.
cronos1990
30-10-2020, 11:04
80 = 72 + 11%
cosa mi sta sfuggendo per cui la differenza è solo il 6% ? :confused:La spiegazione della sua logica è semplice:
https://www.gameway.it/img/f/medium/6890001.jpg
:asd:
emanuele83
30-10-2020, 11:16
edit me la sono persa io.
cronos1990
30-10-2020, 11:19
Tutto bello, ma Hwdowngrade si è perso la notizia che AMD si comprerä Xilinx per la modica cifra di 35 billion dolla (amole lungo lungo). Sempre sul pezzo.Ehm...
https://www.hwupgrade.it/news/mercato/amd-compra-xilinx-per-35-miliardi-di-dollari-la-sfida-a-intel-e-nvidia-e-lanciata_93066.html
Sempre sul pezzo, eh? :asd:
edit me la sono persa io.Hai editato troppo tardi :asd:
Che nel mondo reale non funziona così. Soprattutto se quell'incremento del 11% non lo riporti anche nelle frequenze (+0%), nel bus (+0%), nella ram (+0%) - cosa che la 3090 rispetto la 3080 fa. I TFLOPS teorici scalano linearmente, ma le prestazioni nei giochi no.
nel mondo reale funzione che il bandwidth della VRAM può creare problemi nel momento che non è più sufficientemente veloce per portare i dati alle pipeline in tempo utile per non farle andare in stallo ed attendere;
significa che subirai bottleneck esclusivamente se la banda VRAM è limitata in quella specifica circostanza, ma non significa che lo sia o che il tutto sia stato volutamente progettato per limitare il massimo rendimento delle pipeline.
quindi se non hai necessità di banda, inutile che aumenti anche la frequenza della VRAM in un'overclock della GPU (anzi, molte volte è anche controproducente perchè all'aumento della frequenza della VRAM corrisponde un maggior consumo e quindi vai a limare la potenza che puoi fornire alla GPU... hai un power limit che non puoi comunque superare e devi gestire la la potenza nel modo adeguato per ogni singola situazione).
probabilmente hanno fatto il giusto compromesso con la 6900 XT e visto che le schede inferiori sono una diretta derivazione non hanno trovato nessuna ragione per limitarle da quel punto di vista, come invece ha fatto nvidia con la 3080, magari per far uscire una 3080 Ti domani.
poi ti vorrei far notare che i disegni di quei chip sono molto esplicativi:
https://www.techpowerup.com/gpu-specs/nvidia-ga102.g930
il die shot del GA102 mostra 12 IMC;
il disegno a blocchi mostra 7 GPC da 12 SM per GPC.
sulla 3090 si perdono 2 SM, quindi avrai almeno 5 GPC con tutti gli SM attivi e due configurazioni possibili sui rimanenti 2: o che perdono 1 SM ogniuno, o che uno è completo e l'altro perde 2 SM.
la caches L2 permette ai singoli GPC di caricare dati dalla memoria; prende la specifica di una specie di bus dati con grande buffer, se così lo vogliamo interpretare; nvidia lo definisce "crossbar", ma la L2 non è unificata; è settorizzata per ogni singolo GPC, il che implica che i dati sono presi dalla memoria e portati il L2 e da qui ai GPC.
per come erano costruite le GPU nvidia per ogni GPC si aveva a servizio una partizione di VRAM;
specificatamente uno o due chip di RAM dedicati per singolo GPC con comunicazione diretta tramite L2 e da questa al GPC, mentre c'è un interscambio dati tra le L2 di 2 GPC diversi.
il bus nvidia funziona così: chip->L2->GPC
se devi prendere dati contenuti in un diverso chip di VRAM devi fare: chip (1)->L2 (1)-> L2 (2) -> GPC (2), con un doppio interscambio sulle L2 via crossbar.
ora immagina di avere 12 chip legati a 12 porzioni di L2, ma che servono 7 GPC.
in GA102 ci troviamo di fronte a più GPC di quanti sono i chip della RAM, costringendo alcuni GPC a condividere la partizione della RAM.
finché sei con un quantitativo di 4 chip VRAM per singolo GPC, se ce ne sono che 2 ne condividono lo spazio partizionando quel quantitativo di VRAM non è un grosso problema; d'altra parte la più piccola 3080 ha la metà della VRAM e se è sufficiente per quel livello di modulazione, lo sarà anche per la 3090 che ha il doppio della RAM per un singolo GPC standard, ma...
il bus di quei chip è sempre lo stesso.
quei chip, a 2 a 2 sulla 3090, sono collegati alle stesse L2.
ti ricorda qualcosa questo diagramma?
https://img.hexus.net/v2/news/nvidia/970RAMs.png
perchè la situazione è identica, solo che invece di avere 2 chip che condividono la stessa L2, hai 2 L2 che condividono lo stesso chip...
un'analisi della velocità della memoria come fu fatta sulla 970 mostrerebbe le stesse conclusioni, a mio avviso, ma sembra che non interessi più a nessuno andare a verificare le architetture.
per la 3080 hai invece 68 SM attivi per 5 coppie di chip.
a 12 SM a GPC devi usare per forza 6 GPC e qui si ripresenta quindi la medesima questione, con l'attenuante che puoi diminuire di 4 SM il carico sulla coppia di chip VRAM che sono condivisi, invece che di 2 come avviene sulla 3090 (la 3090 ha una coppia di (doppi) chip condivisi con 2 GPC che arrivano in totale a 22 SM, mentre la 3080 ne ha "solo" 20).
eviterei quindi di parlare di quanta banda serve per queste GPU, perchè analisi approfondite potrebbero mostrare che 2 su 7 GPC della 3090 e 2 su 6 della 3080 hanno restrizione di banda e potrebbero arrivare ad essere sottosfruttati.
le_mie_parole
30-10-2020, 11:28
io la vedo così: hanno voluto tirare fuori il 4K, il RT, ma non avevano (nessuna delle due aziende) un'architettura capace di farli funzionare senza spremere al massimo quella esistente con conseguente aumento folle dei consumi. Tutte ste schede non sono altro che il classico "mettere una pezza", e forse lo saranno ancora per molto.... visto che a quanto pare non hanno trovato l'idea giusta per avere quelle prestazioni mantenendo consumi accettabili, e con accettabile intendo non superiori a 150W di TDP..se in full HD non tirano fuori qualcosa che perlomeno doppi la mia 580, che in game viaggia tra gli 80 e i 120W, non ha alcun senso aggiornare...
Se non sbaglio il CAS per ora non utilizza l'intelligenza artificiale per l'upscaling e non è quindi paragonabile al DLSS, ho visto alcuni articoli che mettono a confronto le due tecnologie e la situazione al momento è questa.
Per questo speravo che con l'annuncio di queste schede annunciassero anche un'evoluzione della tecnologia che potesse competere con quella NVIDIA, non ho visto la presentazione ma il fatto che gli articoli non ne parlino in pompa magna direi è indicativo.
Stai sottovalutando una tecnologia che potrebbe essere un "game changer" e su cui nVidia è sicuramente avanti, io mi auspico una tecnologia open sfruttata da tutti i maggiori produttori di hardware grafico che potrebbe creare una bella rivoluzione nel settore.
il DLSS è una tecnologia in 2 fasi:
una è l'apprendimento della rete neurale per determinare i parametri migliori da usare facendo un confronto frame to frame a diverse risoluzioni;
l'altra è di impiegare questi parametri (che chiamano propriamente metaparametri) in un algoritmo e farlo processare su tensor core (ma non è prettamente necessario il tensor core per calcolarlo, in quanto su Control si usava una beta del DLSS2.0 che girava solo su cudacore; dopo l'implementazione su Control hanno spostato parte dei calcoli matriciali sui tensor core).
AMD usa oggi il CAS, che è un algoritmo che non utilizza i metaparametri di raffronto, che portano una diretta informazione da un ipotetico frame a risoluzione maggiore, ma solo calcolando l'intorno della tessera interessata per armonizzarlo al meglio (che, a mio avviso, è una tecnica accessoria che utilizza anche il DLSS some secondo passaggio).
domani AMD invece utilizzerà DirectML, che è una interpretazione di Microsoft sulla prima fase del processo che ha il DLSS di nvidia con la differenza che la rete neurale non è più in mano ad nvidia, ma in mano a qualsiasi sviluppatore con le DX12 ultimate.
oltretutto il directML può essere implementato in modo dinamico, ossia che cambia i metaparametri a seconda della specifica situazione di gioco, cosa che forse vedremo un una implementazione del DLSS in un immediato futuro (se vogliono approfittare dello spazio temporale prima dell'implementazione standardizzata di Microsoft).
ad AMD non rimane altro che fare un algoritmo che sfrutti i metaparametri che fornirà direttamente lo sviluppatore.
questo modo di operare è standardizzato e il DLSS 3.0 probabilmente si appoggerà proprio a questi metaparametri, evitando ad nvidia di analizzare lei gioco per gioco per trovarli e poi fornirli agli sviluppatori.
infatti la differenza che nvidia vorrebbe portare con il DLSS 3.0 è che operi senza preventivo suo allenamento della rete neurale, ed invece molti hanno interpretato che dovrebbe operare senza proprio preventivo allenamento della rete per trovare i metaparamentri, il che comporterebbe un'analisi del gioco in tempo reale alle due risoluzioni ma questo comporterebbe un lavoro insostenibile per le prestazioni odierne in AI di queste schede (singole schede) anche se venisse solo fatto a tratti, anche un frame ogni 100, ma ci vuole il reference da cui partire e quindi la GPU si troverebbe a renedizzare, una volta ogni tanto, lo stesso frame a bassa e alta risoluzione per analizzarlo e poi trovare metaparametri adatti.
concettualmente molto figo, praticamente impossibile da attuare.
quindi anche il DLSS 3.0 non sarà altro che una implementazione del DirectML.
chi lo implementa meglio otterrà, a quel punto, un miglior risultato.
la differenza di fondo è che, ancora oggi, non sappiamo se parte dell'attuale HW AMD è con tensori (nel prossimo futuro sembra che CDNA li avrà di sicuro), ossia SIMD che possono lavorare sulle matrici, ma il lavoro di calcolo delle matrici che graverebbe sulle SIMD delle pipeline non sarebbe comunque così tanto gravoso e lo abbiamo anche visto concettualmente portato da Control, con la sua implementazione con altro HW invece che con tensor.
a mio parere personale sono ottime tecnologie per schede di basse prestazioni, ma del tutto inutili per schede della portata di 3080/3090/6800 XT e 6900 XT.
in raster sono inutili in quanto le prestazioni che possono offrire questi algoritmi sono adatte ad una risoluzione per un 21:9 8K (non dico pieno 8K 16:9 perchè non ci arrivano nemmeno così 'ste schede!) da risoluzione nativa a 4K.. e chi lo ha?
in RT se sfrutti la potenza per abbellire l'ambiente, non ti serve alto refresh... l'altro refresh serve per giochi competitivi in cui meno cose hai che ti distraggono più sei efficiente, quindi perchè sommare effetti grafici che possono solo confonderti?
quindi raggiunti i 60-70fps in RT, è già tutto ottimale.
a me serve su una APU su un portatile, per sfruttare si e no 2TF di potenza grafica su un FHD in modo decente, senza dover avere una scheda dedicata da 4 o 5 TF per farlo.
nickname88
30-10-2020, 11:43
Poi potresti anche usare la tua sfera di cristallo per darmi i numeri del Superenalotto visto che già sa come si comporta il CAS?
Quindi non sai nemmeno come funziona il CAS oltre che non saper cosa sia il DLSS.
CAS è l'acronimo di Contrast Adaptive Sharpening e non prevede un sapersampling dell'immagine, nè fa uso di una AI per il confronto dei dettagli rispetto ad una ris superiore, ma si limita solamente a regolare la nitidezza di ogni pixels al fine di ridurre l'effetto sfocatura dei filtri AA. Per altro in maniera superficiale visto che funziona anche su VGA Nvidia ( si hai capito bene ).
io la vedo così: hanno voluto tirare fuori il 4K, il RT, ma non avevano (nessuna delle due aziende) un'architettura capace di farli funzionare senza spremere al massimo quella esistente con conseguente aumento folle dei consumi. Tutte ste schede non sono altro che il classico "mettere una pezza", e forse lo saranno ancora per molto.... visto che a quanto pare non hanno trovato l'idea giusta per avere quelle prestazioni mantenendo consumi accettabili, e con accettabile intendo non superiori a 150W di TDP..se in full HD non tirano fuori qualcosa che perlomeno doppi la mia 580, che in game viaggia tra gli 80 e i 120W, non ha alcun senso aggiornare...
concordo in pieno.
Per altro in maniera superficiale visto che funziona anche su VGA Nvidia ( si hai capito bene ).
no, questa frase è di difficile comprensione.
significa che nvidia fa le cose superficialmente?
CAS è un algoritmo Open source; sarebbe stupido per nvidia non sfruttarlo.
Quindi non sai nemmeno come funziona il CAS oltre che non saper cosa sia il DLSS.
CAS è l'acronimo di Contrast Adaptive Sharpening e non prevede un sapersampling dell'immagine, nè fa uso di una AI per il confronto dei dettagli rispetto ad una ris superiore, ma si limita solamente a regolare la nitidezza di ogni pixels al fine di ridurre l'effetto sfocatura dei filtri AA. Per altro in maniera superficiale visto che funziona anche su VGA Nvidia ( si hai capito bene ).
Ma che CAS dici!!!! :Prrr:
Vi rendete conto che vi state infervorando su tecnologie e protocolli complessissimi che offrono un miglioramento qualitativo risibile e quasi non percepibile su una immagine dinamica che scorre in tempo reale?
Molto più percepibile, come esperienza d'uso, gli effetti che deriverebbero da maggior FPS/refresh rate o texture più precise e curate, e quelle le realizzi ancora con la potenza computazionale bruta.
Il Ray Tracing, il DLSS, il CAS, il DirectML e compagnia varia sono nuovi protocolli "di fino" appena emergenti che qualora un giorno venissero implementate in modo incisivo ed a basso impatto prestazionale ben venga, sarà un dettaglio in più... ma qui pare che l'RT ad oggi sia la discriminante per scegliere una scheda video piuttosto che un altra... cosa che non è affatto plausibile rispetto al contesto generale formato dalla sommatoria di tutti i parametri che rendono una grafica più o meno bella da vedere.
cronos1990
30-10-2020, 12:06
Bhe, spetta.
Premesso che sono d'accordo al 99% con i tuoi ultimi due messaggi... per quanto possa non essere una discriminante per l'acquisto di una GPU (o meglio: lo è, ma si può giocare anche senza. Sono scelte che diventano del tutto soggettive), l'RT non lavora "di fino", ma apporta differenze grafiche notevoli ed evidenti anche ad un cieco.
Certo, se implementato a dovere... ma questo vale per tutte le cose.
emanuele83
30-10-2020, 12:12
Ehm...
https://www.hwupgrade.it/news/mercato/amd-compra-xilinx-per-35-miliardi-di-dollari-la-sfida-a-intel-e-nvidia-e-lanciata_93066.html
Sempre sul pezzo, eh? :asd:
Hai editato troppo tardi :asd:
Screenshot it or it has never happened!
nickname88
30-10-2020, 12:14
Ma che CAS dici!!!! :Prrr:
Vi rendete conto che vi state infervorando su tecnologie e protocolli complessissimi che offrono un miglioramento qualitativo risibile e quasi non percepibile su una immagine dinamica che scorre in tempo reale?
Risibile ? : https://www.overclock3d.net/reviews/software/dlss_2_0_in_death_stranding_-_nvidia_4k_performance_trump_card/3
Il DLSS 2.0 è tutt'altro che risibile, un supersample gratuito da una ris inferiore mantenendo inalterata la qualità rispetto alla risoluzione nativa oppure eseguire un supersample della risoluzione nativa per apparire come una risoluzione superiore non è risibile per niente.
Inoltre il DLSS non è legato al RT, un titolo pesante in rastering può essere aumentato dal DLSS con importanti incrementi di prestazione. Puoi benissimo vederlo in altri titoli pesanti anche con RT OFF.
nickname88
30-10-2020, 12:22
no, questa frase è di difficile comprensione.
significa che nvidia fa le cose superficialmente?
CAS è un algoritmo Open source; sarebbe stupido per nvidia non sfruttarlo.Difficile comprensione per chi ?
FidelityFX lo puoi avere pure con Nvidia e io l'ho usato su MK11 e F1 a 1440p, il termine superficiale si riferiva alla resa finale se confrontato col DLSS2. Seppur funzionale non è affatto un effetto AA, nè fa percepire un aumento della risoluzione, non centra nulla.
Difficile comprensione per chi ?
FidelityFX lo puoi avere pure con Nvidia e io l'ho usato su MK11 e F1 a 1440p, il termine superficiale si riferiva alla resa finale se confrontato col DLSS2. Seppur funzionale non è affatto un effetto AA, nè fa percepire un aumento della risoluzione, non centra nulla.
ah!
da come avevi scritto sembrava ti riferissi alla qualità di progettazione.
quindi per te una definizione più accurata si definisce "superficiale"...
buono a sapersi per la prossima volta che ti leggerò, almeno ti capirò subito.
nickname88
30-10-2020, 15:57
ah!
da come avevi scritto sembrava ti riferissi alla qualità di progettazione.
quindi per te una definizione più accurata si definisce "superficiale"...
buono a sapersi per la prossima volta che ti leggerò, almeno ti capirò subito.
Magari prima provalo anzichè parlare sulla base dei tuoi sogni notturni.
Per capirmi subito magari dovresti fare un corso di italiano.
non m'interessano tecnologie di parvenza.
PS:
non ho capito?
mi stai dando dell'ignorante in luogo pubblico?
potrei offendermi, anche perchè le definizioni sono importanti nella vita, sia quelle delle singole parole che quelle di un'immagine a video.
nickname88
30-10-2020, 16:33
non m'interessano tecnologie di parvenza.
L'aspetto estetico è il settore più trainante nel mondo videoludico e su cui si investe di più, se a te non interessa buon per te, le console ti aspettano.
potrei offendermiproblemi tuoi.
L'aspetto estetico è il settore più trainante nel mondo videoludico e su cui si investe di più, se a te non interessa buon per te, le console ti aspettano.
non esiste solo il settore videoludico nella vita, anzi... non è quasi nulla nella vita di miliardi di persone... direi su un 97-98% della popolazione mondiale.
sicuramente non queste cose infestano i miei sonni notturni, anche perchè sono una persona sufficientemente autocritica e mi accorgerei che, semmai fosse, questo sarebbe un grave problema della personalità tale da richiedere un aiuto professionale...
comunque non vedo cosa interessano a te i miei sogni... altro segno di chiara maleducazione.
quindi riporto il tutto alla giusta dimensione del sistema: poche persone che ci bramano sopra porta ad un ben misero problema.
problemi tuoi.
no, no... credo che il regolamento parli chiaro: i problemi, se offendi un altro utente, sono i tuoi.
nickname88
30-10-2020, 16:41
non esiste solo il settore videoludico nella vita,
Quindi perdi tempo quì dentro a scrivere monologhi per qualcosa che non ti interessa ? :rolleyes:
no, no... credo che il regolamento parli chiaro: i problemi, se offendi un altro utente, sono i tuoi.Ti offendi perchè non capisci l'italiano ? Non è di certo un problema mio.
Quindi perdi tempo quì dentro a scrivere monologhi per qualcosa che non ti interessa ? :rolleyes:
lo trovi "strano"?
si vede che sei ancora giovane ;)
Ti offendi perchè non capisci l'italiano ? Non è di certo un problema mio.
bhè, se qualcuno che si esprime in modo incorretto poi mi da anche dell'ignorante, potrei offendermi...
per esempio l'avverbio di luogo si scrive qui, senza accento; i monosillabi vanno scritti senza accento se non in caso di omofonia, come ad esempio si e sì.
uno di solito non ci fa caso agli errori degli altri, ma se poi questi ti danno anche dell'ignorante, in pubblico, allora si richiede l'intervento della moderazione, perché l'utente in questione sta esagerando.
un luogo sano è un luogo dove si sta bene.
poi oggi siamo a caccia di conigli, con gli amichetti... quindi spariamo a vista.
nickname88
30-10-2020, 17:02
lo trovi "strano"?Si
Grazie per avermi dato del giovane, sempre meglio di chi è vecchio e sta ancora quì a fare ste cose.
per esempio l'avverbio di luogo si scrive qui, senza accentopensa che se da una parte c'è chi sbaglia la "i", dall'altra c'è chi non è in grado di eseguire l'analisi logica delle frasi, nonostante abbia una certa età. Chissà, forse è proprio quest'ultima parte il problema.
poi oggi siamo a caccia di conigli, con gli amichetti... quindi spariamo a vista.Bravo spara.
Bravo spara.
già fatto; segnalazione già partita.
non credo che risponderò più ai tuoi messaggi provocatori, se no mi accusano di polemica.
logicamente spero prendano provvedimenti, perchè...
un luogo sano è anche bello da vivere.
Ma che CAS dici!!!! :Prrr:
Vi rendete conto che vi state infervorando su tecnologie e protocolli complessissimi che offrono un miglioramento qualitativo risibile e quasi non percepibile su una immagine dinamica che scorre in tempo reale?
Molto più percepibile, come esperienza d'uso, gli effetti che deriverebbero da maggior FPS/refresh rate o texture più precise e curate, e quelle le realizzi ancora con la potenza computazionale bruta.
Il Ray Tracing, il DLSS, il CAS, il DirectML e compagnia varia sono nuovi protocolli "di fino" appena emergenti che qualora un giorno venissero implementate in modo incisivo ed a basso impatto prestazionale ben venga, sarà un dettaglio in più... ma qui pare che l'RT ad oggi sia la discriminante per scegliere una scheda video piuttosto che un altra... cosa che non è affatto plausibile rispetto al contesto generale formato dalla sommatoria di tutti i parametri che rendono una grafica più o meno bella da vedere.
confermo, non sarà sicuramente una variabile da tenere in considerazione ( per ora ) nella scelta di una futura VGA.
Mi interessa solo il rapporto potenza/prezzo.
Mi interessa solo il rapporto potenza/prezzo.
potenza, per questa generazione, ci siamo, ma in quanto a prezzo temo proprio che dovunque si vada ci sarà da piangere.
se nvidia non si sbriga a sfornare almeno la metà del mercato GPU, non si può certo pretendere che AMD riesca a servire tutti e se guardiamo al settore memorie, che con un -5% sull'offerta riescono a farci il 100% in più dei guadagni...
mhè... rimango con la vecchia GPU.
gigioracing
30-10-2020, 20:20
1000 euro esentasse significa che sara sui 1400 1500 euro tra iva e tasse doganali di importazione
digieffe
30-10-2020, 20:33
1000 euro esentasse significa che sara sui 1400 1500 euro tra iva e tasse doganali di importazione
no ma che dici!?!
non verrà meno di 2000 euro !!!1!!!11
HwWizzard
30-10-2020, 22:22
E se la 6800XT fosse deficitaria proprio nella potenza di calcolo degli shader e quindi un aumento di quel tipo fosse sfruttato appieno? E se la 6900XT lavorasse a frequenze medie molto più alte?
Ripeto, non abbiamo le informazioni per giudicare, per ora l'unica informazione è quella fornita da AMD che non mette la 6900 sotto la 3090.
Se non sbaglio il CAS per ora non utilizza l'intelligenza artificiale per l'upscaling e non è quindi paragonabile al DLSS, ho visto alcuni articoli che mettono a confronto le due tecnologie e la situazione al momento è questa.
Per questo speravo che con l'annuncio di queste schede annunciassero anche un'evoluzione della tecnologia che potesse competere con quella NVIDIA, non ho visto la presentazione ma il fatto che gli articoli non ne parlino in pompa magna direi è indicativo.
Stai sottovalutando una tecnologia che potrebbe essere un "game changer" e su cui nVidia è sicuramente avanti, io mi auspico una tecnologia open sfruttata da tutti i maggiori produttori di hardware grafico che potrebbe creare una bella rivoluzione nel settore.
Quello è secondo lui il miglioramento prestazionale che quell'11% dovrebbe portare.
Guarda la presentazione e capirai di cosa sto parlando, sono solo i soliti troll infoiati che sviano l’argomento è fanno finta che AMD non ne abbia parlato.
Ale55andr0
30-10-2020, 22:55
Risibile ? : https://www.overclock3d.net/reviews/software/dlss_2_0_in_death_stranding_-_nvidia_4k_performance_trump_card/3
Il DLSS 2.0 è tutt'altro che risibile, un supersample gratuito da una ris inferiore mantenendo inalterata la qualità rispetto alla risoluzione nativa.
gli artefatti sono inclusi nel prezzo
https://www.youtube.com/watch?v=9ggro8CyZK4&t=885s (minuto 14 e 40)
https://www.youtube.com/watch?v=OEAh3hU00s4
gli artefatti sono inclusi nel prezzo
https://www.youtube.com/watch?v=9ggro8CyZK4&t=885s (minuto 14 e 40)
https://www.youtube.com/watch?v=OEAh3hU00s4
e si, Alessandro, purtroppo ci sono e sono di difficile risoluzione.
il DLSS è un processo di confronto tra matrici, è per questo che le sue risoluzioni sono preimpostate: dividi il quadro in tante tessere e fai il confronto dei vari addendi.
un primo problema è che le matrici di contorno, dei bordi dello schermo, hanno la metà delle tessere adiacenti per il confronto, quindi vedrai sempre artefatti nei bordi; l'altro problema è dovuto alle scie.
di per se il processo non è molto diverso dall'idct (inverse discrete cosine transorm) che si usava e si usa sugli algoritmi di compressione video di foto, JPEG, e video, MPEG, a cui si aggiunge il vettore di movimento.
il lavoro di base è tipicamente questo, anche se alla fine si effettua su altre tipologie di dati, ma gli artefatti sono tipici: bordi, scie e profondità di campo.
sulle scie il vettore di movimento non riesce ad analizzare ottimamente le differenze variabili, lasciando stare quelle statiche da un frame all'altro, ed ecco che compaiono pixel che non ci dovrebbero essere ed il tutto qui, poi, è accentuato dalla variabilità del framerate, perché un conto è farlo su 30fps, un conto su 60 e un conto su una variabilità della durata del frame che va da 10 a 25ms, senza continuità e regolarità perchè dettata proprio dalla difficoltà del singolo frame... ed ecco che ti compaiono artefatti nelle forti variazioni di framerate (anche perchè i parametri che servono sono generati su sistemi del tutto differenti da quelli che poi gli utenti useranno, che a loro volta sono del tutto differenti l'uno dall'altro, quindi a variabilità siamo ai massimi livelli e oltretutto sono parametri medi e fissi).
l'altro tipico artefatto è di azzerare la profondità, il contrasto delle figure.
questo algoritmo lavora naturalmente sul 2D, sul quadro, non sul mondo 3D e quindi per lui le profondità di campo non esistono.
devono quindi poi ripassare un filtro che marca le figure in modo da ridonargli profondità, ma... ci vuole il parametro giusto, perchè se esageri alla fine avviene come al minuto 17:10 in cui le pietre sull'erba accanto al palo sembra che siano 10 metri più avanti, dando una sgradevole sensazione di profondità che assomiglia più ad un cartone animato in bassa grafica che ad una simulazione realistica.
sono questi i difetti più importanti.
nessuno di questi filtri è esente da questi difetti per il semplice fatto che è proprio il modo matematico che ha il suoi limiti intrinsechi di calcolo.
si possono risolvere, in parte, aggirando l'ostacolo:
fare renderizzazione anche fuori dal campo di visione, in modo che ci siano tessere anche oltre il bordo e che quindi puoi avere valori da calcolare... alla fine gli artefatti ci saranno lo stesso, ma non saranno visibili perchè oltre il quadro di visuale (e poi chi ti dice che li devi calcolare proprio? tanto non si vedono!);
il vettore di movimento è il più ostico, perchè il primo problema verte sulla variabilità del framerate, il secondo proprio sul movimento...
ecco, è li che ci vuole una AI che prevede i movimenti del vettore di movimento, in modo da anticipare le scelte di calcolo.
una delle soluzioni sarebbe di calcolare vettori troppo "veloci" a parte, su una renderizzazione non visibile e a risoluzioni maggiori, in modo da prender quei riferimenti dai dati e poi appiccicarli dove servono, ma alla fine, se fai il render di quelle parti a risoluzione maggiore per poi applicare l'algoritmo, tanto vale che elimini il problema e semplicemente cuci il render a risoluzioni elevata nel tuo frame a bassa risoluzione upscalata... ma il problema è che il render è 3D, fatto prima e poi il filtro DLSS opera sul'limagine 2D, quindi devi prevedere che ti serve e farlo alla vecchia maniera.
la questione della profondità di campo si risolve con algoritmi semplicemente migliori; filtri dinamici che cambiano i parametri a seconda della situazione di luce....
queste tecniche sono ben descritte nelle tecnologie che si usano proprio per la compressione video avanzata (H.264, H265 e similari) e si potrebbero applicare al DLSS allo stesso modo; d'altra parte, alla fin fine non sono una cosa molto simile?
non hai uno streaming di immagini da ridurre in risoluzione e comprimere al meglio per riottenere una ottima visione senza perdita di dettagli?
solo che qui lo fai in real time su uno streaming "interattivo" e nel mentre lo rivedi a piena risoluzione...
vabbè, ho divagato...
no ma che dici!?!
non verrà meno di 2000 euro !!!1!!!11
facciamo 3000 conto paro?
così non c'è manco il problema del resto.
HwWizzard
31-10-2020, 08:07
e si, Alessandro, purtroppo ci sono e sono di difficile risoluzione.
il DLSS è un processo di confronto tra matrici, è per questo che le sue risoluzioni sono preimpostate: dividi il quadro in tante tessere e fai il confronto dei vari addendi.
un primo problema è che le matrici di contorno, dei bordi dello schermo, hanno la metà delle tessere adiacenti per il confronto, quindi vedrai sempre artefatti nei bordi; l'altro problema è dovuto alle scie.
di per se il processo non è molto diverso dall'idct (inverse discrete cosine transorm) che si usava e si usa sugli algoritmi di compressione video di foto, JPEG, e video, MPEG, a cui si aggiunge il vettore di movimento.
il lavoro di base è tipicamente questo, anche se alla fine si effettua su altre tipologie di dati, ma gli artefatti sono tipici: bordi, scie e profondità di campo.
sulle scie il vettore di movimento non riesce ad analizzare ottimamente le differenze variabili, lasciando stare quelle statiche da un frame all'altro, ed ecco che compaiono pixel che non ci dovrebbero essere ed il tutto qui, poi, è accentuato dalla variabilità del framerate, perché un conto è farlo su 30fps, un conto su 60 e un conto su una variabilità della durata del frame che va da 10 a 25ms, senza continuità e regolarità perchè dettata proprio dalla difficoltà del singolo frame... ed ecco che ti compaiono artefatti nelle forti variazioni di framerate (anche perchè i parametri che servono sono generati su sistemi del tutto differenti da quelli che poi gli utenti useranno, che a loro volta sono del tutto differenti l'uno dall'altro, quindi a variabilità siamo ai massimi livelli e oltretutto sono parametri medi e fissi).
l'altro tipico artefatto è di azzerare la profondità, il contrasto delle figure.
questo algoritmo lavora naturalmente sul 2D, sul quadro, non sul mondo 3D e quindi per lui le profondità di campo non esistono.
devono quindi poi ripassare un filtro che marca le figure in modo da ridonargli profondità, ma... ci vuole il parametro giusto, perchè se esageri alla fine avviene come al minuto 17:10 in cui le pietre sull'erba accanto al palo sembra che siano 10 metri più avanti, dando una sgradevole sensazione di profondità che assomiglia più ad un cartone animato in bassa grafica che ad una simulazione realistica.
sono questi i difetti più importanti.
nessuno di questi filtri è esente da questi difetti per il semplice fatto che è proprio il modo matematico che ha il suoi limiti intrinsechi di calcolo.
si possono risolvere, in parte, aggirando l'ostacolo:
fare renderizzazione anche fuori dal campo di visione, in modo che ci siano tessere anche oltre il bordo e che quindi puoi avere valori da calcolare... alla fine gli artefatti ci saranno lo stesso, ma non saranno visibili perchè oltre il quadro di visuale (e poi chi ti dice che li devi calcolare proprio? tanto non si vedono!);
il vettore di movimento è il più ostico, perchè il primo problema verte sulla variabilità del framerate, il secondo proprio sul movimento...
ecco, è li che ci vuole una AI che prevede i movimenti del vettore di movimento, in modo da anticipare le scelte di calcolo.
una delle soluzioni sarebbe di calcolare vettori troppo "veloci" a parte, su una renderizzazione non visibile e a risoluzioni maggiori, in modo da prender quei riferimenti dai dati e poi appiccicarli dove servono, ma alla fine, se fai il render di quelle parti a risoluzione maggiore per poi applicare l'algoritmo, tanto vale che elimini il problema e semplicemente cuci il render a risoluzioni elevata nel tuo frame a bassa risoluzione upscalata... ma il problema è che il render è 3D, fatto prima e poi il filtro DLSS opera sul'limagine 2D, quindi devi prevedere che ti serve e farlo alla vecchia maniera.
la questione della profondità di campo si risolve con algoritmi semplicemente migliori; filtri dinamici che cambiano i parametri a seconda della situazione di luce....
queste tecniche sono ben descritte nelle tecnologie che si usano proprio per la compressione video avanzata (H.264, H265 e similari) e si potrebbero applicare al DLSS allo stesso modo; d'altra parte, alla fin fine non sono una cosa molto simile?
non hai uno streaming di immagini da ridurre in risoluzione e comprimere al meglio per riottenere una ottima visione senza perdita di dettagli?
solo che qui lo fai in real time su uno streaming "interattivo" e nel mentre lo rivedi a piena risoluzione...
vabbè, ho divagato...
In pratica hai spiegato con un papiro quello che io ho sintetizzato in una parola:D
Il DLSS è un trucco ma adesso I fanboy nVidiosi vedendo che in potenza e consumi i loro amati prodotti vengono come minimo raggiunti o anche superati dalla concorrenza e capiscono bene che tutti i giochi verranno ottimizzati per la tecnologia concorrente arrivano a dire che nVidia è meglio perché ti truffa meglio.
Il DLSS non è uno strumento che dimostra le prestazioni di una GPU ma un trucco per poter dire che RT è utilizzabile in 4K cosa assolutamente falsa.
MiKeLezZ
31-10-2020, 09:56
In pratica hai spiegato con un papiro quello che io ho sintetizzato in una parola:D
Il DLSS è un trucco ma adesso I fanboy nVidiosi vedendo che in potenza e consumi i loro amati prodotti vengono come minimo raggiunti o anche superati dalla concorrenza e capiscono bene che tutti i giochi verranno ottimizzati per la tecnologia concorrente arrivano a dire che nVidia è meglio perché ti truffa meglio.
Il DLSS non è uno strumento che dimostra le prestazioni di una GPU ma un trucco per poter dire che RT è utilizzabile in 4K cosa assolutamente falsa.Il DLSS è un trucco che permette di avere "tutto attivo" (altissima risoluzione, raytracing, qualità ultra, 60+ fps, antialiasing, sharpening) al prezzo di rari artefatti. Questo è. La concorrenza questa feature non la ha.
Non ti piace? Nessuno ti obbliga ad usarlo. La maggior parte però lo fa (anche su schede di media gamma), e a ragione.
Ale55andr0
31-10-2020, 10:48
e si, Alessandro, purtroppo ci sono e sono di difficile risoluzione.
capirai perchè mi sale l'acidità ogni volta che devo sentire perle tipo "si vede meglio della nativa" (e ovviamente con quest'ultima appositamente smerdata dal TAA nelle immagni a confronto :rolleyes: ). Comunque ci hai dato dentro con lo spiegone :D
Ale55andr0
31-10-2020, 10:50
Il DLSS è un trucco che permette di avere "tutto attivo" (altissima risoluzione, raytracing, qualità ultra, 60+ fps, antialiasing, sharpening) al prezzo di rari artefatti. Questo è. La concorrenza questa feature non la ha.
Non ti piace? Nessuno ti obbliga ad usarlo. La maggior parte però lo fa (anche su schede di media gamma), e a ragione.
va benissimo. Ma che non si dica che una cosa che generi artefatti, rari o meno è un improvement qualitativo dell'immagine rispetto la nativa, perchè non lo è, è una contraddizione e un paradosso. A ogni modo in DS sono tutto fuorchè rari. La "maggior parte della gente" è anche quella che ha compattoni da due soldi in casa e dice che "si sentono bene", o tv commerciali di fascia bassa che upscalano in modo ignobile "e si vedono bene", by the way...
MiKeLezZ
31-10-2020, 11:04
va benissimo. Ma che non si dica che una cosa che generi artefatti, rari o meno è un improvement qualitativo dell'immagine rispetto la nativa, perchè non lo è, è una contraddizione e un paradosso. A ogni modo in DS sono tutto fuorchè rari. La "maggior parte della gente" è anche quella che ha compattoni da due soldi in casa e dice che "si sentono bene", o tv commerciali di fascia bassa che upscalano in modo ignobile "e si vedono bene", by the way...
Se lo dici te..............
p.s. a sinistra AMD CAS e a destra NVIDIA DLSS................
https://overclock3d.net/gfx/articles/2020/07/15081924422l.jpghttps://overclock3d.net/gfx/articles/2020/07/15081924851l.jpg
Ale55andr0
31-10-2020, 11:13
Se lo dici te..............
ho postato dei video che mostrano gli artefatti, e uno della osannata digital foundry che ha fatto un bel test eh, lo MOSTRANO loro, non lo dico io, ne mia sorella (che non ho :asd:). Cosa, diamine, ci azzecca il cas di amd, l'ho forse tirato in ballo o era funzionale alla cosa? No. Infatti a me di una implementazione AMD dello stesso accrocchio fottesega tale e quale. Per giunta mostri due fermi immagine quando i problemi di cui sopra sorgono in MOVIMENTO :sbonk: :asd:
Lassà sta va'
nickname88
31-10-2020, 13:35
ho postato dei video che mostrano gli artefatti, e uno della osannata digital foundry che ha fatto un bel test eh, lo MOSTRANO loro, non lo dico io, ne mia sorella (che non ho :asd:). Cosa, diamine, ci azzecca il cas di amd, l'ho forse tirato in ballo o era funzionale alla cosa? No. Infatti a me di una implementazione AMD dello stesso accrocchio fottesega tale e quale. Per giunta mostri due fermi immagine quando i problemi di cui sopra sorgono in MOVIMENTO :sbonk: :asd:
Lassà sta va'Guarda che in quel video Digital Foundry elogia la qualità del DLSS in DS non lo sta denigrando, quella parte mostra solo il pelo nell'uovo. :rolleyes:
Ascolta tutto soprattutto le considerazioni finali. Da come lo descrivi tu sembra che ci siano artefatti ovunque, invece si possono notare solo in certe zone in rare circostanze. Nulla di fronte ai pro che comporta.
Il DLSS è pesantemente raccomandato su DS, mentre sembra che tu stia cercando addirittura di farlo passare come effetto negativo :cool:
Quì ci sono pure le osservazioni di HWUPGRADE : https://gaming.hwupgrade.it/news/videogames/death-stranding-per-pc-opzioni-grafiche-e-dlss-20_90794.html
Quì quelle di Toms : https://www.tomshw.it/videogioco/death-stranding-pc-dlss-2-0-4k-nativo/
Il DLSS è un trucco che permette di avere "tutto attivo" (altissima risoluzione, raytracing, qualità ultra, 60+ fps, antialiasing, sharpening) al prezzo di rari artefatti. Questo è. La concorrenza questa feature non la ha.
in realtà AMD userà la stessa "schifezza", solo che la userà standard con le DX12 ultimate.
si chiama DirectML e probabilmente ci si appoggerà anche nvidia con il DLSS 3.0, visto che i parametri che servono per impostare l'algoritmo verranno trovati direttamente dagli sviluppatori (quindi non necessita più l'analisi AI di nvidia, visto che la faranno direttamente gli sviluppatori).
alla fine saranno la stessa cosa.
sarà meglio quello nvidia? sarà peggiore quello AMD?
non lo so, ma non è che me ne importi chissà quanto.
Non ti piace? Nessuno ti obbliga ad usarlo. La maggior parte però lo fa (anche su schede di media gamma), e a ragione.
ma se vogliono usarlo facciano pure, nessuno lo impedisce, ma non venirmi a raccontare frottole sul fato che si vede meglio!
hanno mostrato sempre immagini fisse o con movimenti lenti per il confronto; fallo su un gioco di azione, tutto movimento e quel tipo di algoritmi non ci capiscono più nulla, è come sui film da BR da un intero BR riportati a 1080p in h.264 sulla TV: che li vuoi mettere a confronto come qualità?
sono pratici, ma non sono certo il meglio che c'è e i loro limiti si vedono chiaramente.
Comunque ci hai dato dentro con lo spiegone :D
lo spiegone ogni tanto serve per far capire alle persone i veri tratti somatici di una tecnologia e non farsi prendere in giro dal marketing (o fargli rendere conto che continuare a parlare senza sapere effettivamente di cosa si parli è la cosa più sbagliata del mondo... ma tant'é, continuano ).
nickname88
31-10-2020, 13:57
ma se vogliono usarlo facciano pure, nessuno lo impedisce, ma non venirmi a raccontare frottole sul fato che si vede meglio!
hanno mostrato sempre immagini fisse o con movimenti lenti per il confronto; fallo su un gioco di azione, tutto movimento e quel tipo di algoritmi non ci capiscono più nulla, è come sui film da BR da un intero BR riportati a 1080p in h.264 sulla TV: che li vuoi mettere a confronto come qualità?
sono pratici, ma non sono certo il meglio che c'è e i loro limiti si vedono chiaramente.Si certo come no, solo per cominciare il DLSS2 è raccomandato su ogni titolo in cui è presente, compresi giochi come Youngblood, titoli frenetici cui riguardo gli artefatti ci sono ben altri giudizi :asd: :
https://www.youtube.com/watch?v=N8M8ygA9yWc&ab_channel=2kliksphilip
https://www.youtube.com/watch?v=gpzFX4P1Jow&ab_channel=DigitalFoundry
Ci sono pure gli slow motion.
ma se vogliono usarlo facciano pure, nessuno lo impedisce, ma non venirmi a raccontare frottole sul fato che si vede meglio!E' così invece, tratto da HW su DS :
Partiamo da DLSS 2.0, che effettivamente migliora considerevolmente la qualità dell'anti-aliasing, e al contempo anche le prestazioni. Dal seguente confronto visivo tra DLSS e TAA, ovvero la classica opzione di anti-aliasing temporale presente in Dieath Stranding, emerge come le scalettature siano molto meno presenti con DLSS abilitato, e come gli oggetti distanti rispetto al punto di osservazione siano molto più consistenti.
E lo stesso su YB sui video postati.
si chiama DirectMLUn nome comparso per la prima volta a Gennaio del 2019, o forse addirittura a fine 2018 e di cui oggi non sente più nulla.
digieffe
31-10-2020, 13:59
premesso che non sono interessato ai game ma alla tecnologia in generale
cerco di sintetizzare:
con queste tecnologie i game renderizzano ad una risoluzione inferiore (es 2k) e poi fanno uno zoom (tramite DLSS o equivalente) a 4k?
ora, fermo restando che non posso studiare in dettaglio come funziona, permettetemi una domanda ingenua: perché uno zoom da risoluzione inferiore dovrebbe avere la stessa qualità di una risoluzione nativa superiore?
(non per fare il pignolo ma a memoria i teoremi di Shannon dicono il contrario)
non comprendo qualcosa... se avete da spiegarmi in poche battute ve ne sarò veramente grato :)
Piedone1113
31-10-2020, 14:29
premesso che non sono interessato ai game ma alla tecnologia in generale
cerco di sintetizzare:
con queste tecnologie i game renderizzano ad una risoluzione inferiore (es 2k) e poi fanno uno zoom (tramite DLSS o equivalente) a 4k?
ora, fermo restando che non posso studiare in dettaglio come funziona, permettetemi una domanda ingenua: perché uno zoom da risoluzione inferiore dovrebbe avere la stessa qualità di una risoluzione nativa superiore?
(non per fare il pignolo ma a memoria i teoremi di Shannon dicono il contrario)
non comprendo qualcosa... se avete da spiegarmi in poche battute ve ne sarò veramente grato :)
Non sono un estimatore nvidia, ma la qualità del DLS è indubbia, il risultato finale può sembrare anche qualitativamente migliore che la renderizzazione a schermo pieno ( vengono applicati molti filtri per migliorare l'immagine 2d che a risoluzione nativa non puoi permetterti).
La domanda però è mal posta:
Upscalare con DSL ha una fedeltà uguale al renderizzare in full frame.
No, ma sono due cose completamente diverse, un poco come passare davanti alle tv in demo mode dentro un centro commerciale.
Effetto wow, ma poi ci si accorge che renderizzati a risoluzioni native è un'altra cosa.
https://www.youtube.com/watch?v=N8M8ygA9yWc&ab_channel=2kliksphilip
https://www.youtube.com/watch?v=gpzFX4P1Jow&ab_channel=DigitalFoundry
non hai materiale non promozionale di nvidia?
non hai un gioco in cui la qualità visiva è la cosa su cui hanno puntato maggiormente, invece di applicare effetti di riflessione (che tra l'altro sono un'altra faccenda) e un upscaling su una cosa che già di per se è di scarsa qualità?
non hai un'analisi obbiettiva della tecnologia, marcolì?
quando la hai postala, che video che iniziano dicendo "sponsorized by chicchessia" di solito li chiudo immediatamente.
PS: la differenza tra Ditital Foundry e qualsiasi altro sito è solo il costo della marketta, te lo assicuro, soprattutto se partono con "sponsored by..."
Non sono un estimatore nvidia, ma la qualità del DLS è indubbia, il risultato finale può sembrare anche qualitativamente migliore che la renderizzazione a schermo pieno ( vengono applicati molti filtri per migliorare l'immagine 2d che a risoluzione nativa non puoi permetterti).
La domanda però è mal posta:
Upscalare con DSL ha una fedeltà uguale al renderizzare in full frame.
No, ma sono due cose completamente diverse, un poco come passare davanti alle tv in demo mode dentro un centro commerciale.
Effetto wow, ma poi ci si accorge che renderizzati a risoluzioni native è un'altra cosa.
sono tecnologie che hanno il loro senso se usate correttamente e soprattutto se prese per quello che sono:
l'uso più adatto è su sistemi di bassa potenza computazionale per farli arrivare al minimo accettabile senza poi perdere chissà che cosa, non che me le metti su schede dai 500 euro in su e basta!
tra l'altro è stato letteralmente sbugiardato da Control: il DLSS 1.9 di control usa tutto quello che c'è nel DLSS 2.0 ma lo usa sui cudacore e non sui tensor, garantendo comunque alti framerate;
quindi quella tecnologia si può applicare benissimo anche alle GTX, ma non lo fanno per questioni di sfruttamento di marketing, ossia giustificare l'alto costo di una GPU per componenti che, alla fin fine, sono suprefui e che possono essere utilizzati anche sulla schede di gamma bassa, che ne trarrebbero realmente vantaggi.
un DLSS su una 1650 che rende possibile giocare a 1440p a 60fps ha un senso; su una 3090 per consentire i 360fps non serve a nulla!
già solo questa considerazione dovrebbe far capire che è solo una mungitura dei portafogli degli acquirenti e che ci si dovrebbe rifiutare di essere presi per i fondelli in questo modo.
il CAS di AMD fa pena? ma si può usare su tutte le schede, dalle GPU integrate nelle APU alla 3090 della concorrenza.
io, di solito, voglio pagare per tecnologie utili e non per creare degli effimeri status simbol tecnologici.
nickname88
31-10-2020, 15:54
premesso che non sono interessato ai game ma alla tecnologia in generale
cerco di sintetizzare:
con queste tecnologie i game renderizzano ad una risoluzione inferiore (es 2k) e poi fanno uno zoom (tramite DLSS o equivalente) a 4k?
ora, fermo restando che non posso studiare in dettaglio come funziona, permettetemi una domanda ingenua: perché uno zoom da risoluzione inferiore dovrebbe avere la stessa qualità di una risoluzione nativa superiore?
(non per fare il pignolo ma a memoria i teoremi di Shannon dicono il contrario)
non comprendo qualcosa... se avete da spiegarmi in poche battute ve ne sarò veramente grato :)Non fa nessuno Zoom, esegue un supersample su scenari di risoluzione inferiore usando un AI eseguita in tempo reale per ricostruire i dettagli persi nell'immagine finale attraverso un raffronto con un campione di immagini alla ris nativa, ed aumentarne la nitidezza.
La qualità percepita è superiore rispetto ad una risoluzione nativa con TAA ( anche molto migliore rispetto ad una ris nativa con CAS ) ma con un guadagno enorme lato performance, visto che è tutto a carico dei tensor core.
nickname88
31-10-2020, 15:56
sono tecnologie che hanno il loro senso se usate correttamente e soprattutto se prese per quello che sono:
l'uso più adatto è su sistemi di bassa potenza computazionale per farli arrivare al minimo accettabile senza poi perdere chissà che cosa, non che me le metti su schede dai 500 euro in su e basta!
tra l'altro è stato letteralmente sbugiardato da Control: il DLSS 1.9 di control usa tutto quello che c'è nel DLSS 2.0 ma lo usa sui cudacore e non sui tensor, garantendo comunque alti framerate;
quindi quella tecnologia si può applicare benissimo anche alle GTX, ma non lo fanno per questioni di sfruttamento di marketing, ossia giustificare l'alto costo di una GPU per componenti che, alla fin fine, sono suprefui e che possono essere utilizzati anche sulla schede di gamma bassa, che ne trarrebbero realmente vantaggi.
un DLSS su una 1650 che rende possibile giocare a 1440p a 60fps ha un senso; su una 3080 per consentire i 360fps non serve a nulla!
Quante castronerie, se sono usate correttamente non sei tu a doverlo giudicare.
Il DLSS2 è raccomandato in tutti i titoli in cui è presente, e quì hai poco su cui girare attorno.
Serve ad avere una resa migliore e performance molto maggiori.
PC a bassa potenza ? Certo come no perchè non ci sono titoli che mettono alla frusta le VGA High End anche senza RT vero ? :rolleyes:
Senza RT infatti si sa che gira tutto a 120fps vero ?
tra l'altro è stato letteralmente sbugiardato da Control: il DLSS 1.9 di control usa tutto quello che c'è nel DLSS 2.0 ma lo usa sui cudacore e non sui tensor, garantendo comunque alti framerate;
Quante caxxate.
Il DLSS2 utilizza un algoritmo completamente differente dal DLSS1, che per tua informazione comprende anche l'1.9, il gioco è stato aggiornato al DLSS2.0 che ha portato grossi miglioramenti, evidenziati da tutti gli articoli e video :
https://tech.everyeye.it/articoli/speciale-il-dlss-2-0-nvidia-prova-control-piccolo-miracolo-48138.html
https://www.youtube.com/watch?v=r3fDIvsLrSM
https://www.youtube.com/watch?v=YWIKzRhYZm4
ma lo usa sui cudacore e non sui tensorIl DLSS ha sempre girato sui tensor cores, ennesima vaccata.
Il problema principale del DLSS 1 era la qualità visiva.
Quindi è inutile che ti arrampichi sugli specchi. Come la storiella degli artefatti in movimento e della AI che impazzisce.
Quest'ultima è sicuramente colpa dei tuoi allucinogeni.
nickname88
31-10-2020, 16:02
non hai materiale non promozionale di nvidia?
PS: la differenza tra Ditital Foundry e qualsiasi altro sito è solo il costo della marketta, te lo assicuro, soprattutto se partono con "sponsored by..."
Ti chiederei le fonti ma già so che il tutto è basato sul nulla assoluto.
Materiale non promozionale ? Non esiste perchè tutto ciò che mostra ciò che non ti piace è un complotto.
te lo assicuroAh se lo assicuri tu allora ho davanti un fonte affidabile. :rolleyes:
Ale55andr0
31-10-2020, 16:30
Guarda che in quel video Digital Foundry elogia la qualità del DLSS in DS non lo sta denigrando, quella parte mostra solo il pelo nell'uovo. :rolleyes:
in una immagine MIGLIORE della nativa il pelo nell'uovo NON esiste perchè nella nativa quel DIFETTO non c'è :read: :read: :read:. A parte quello ho postato anche un'altro video sotto quello dove is vede ben altro e che reputo assolutamente inaccettabile.
SDal seguente confronto visivo tra DLSS e TAA, ovvero la a.
e tanto basta: confrontano la nativa inserendo quella schifezza di TAA, e si che l'ho detto nmila volte :asd:. Come a dire che nel confrontare due piatti di pasta, uno buono, uno discreto ma in quello buono ci piazzo sopra anche un po' di vaselina e vediamo chi ne esce meglio :asd:
in realtà AMD userà la stessa "schifezza", solo che la userà standard con le DX12 ultimate.
.
e se la possono dare sui denti per quanto mi riguarda. Io gioco coi pixel che ci stanno in origine, non con quelli inventati da una IA partendo da una risoluzione inferiore.
A ogni modo chiudo qui con l'ot, ognuno faccia quella che pare, ma io quella robaccia non la userò, sia che avrò una verde sia che avrò una rossa (dovessero implementarlo pure in amd), amen.
nickname88
31-10-2020, 16:41
in una immagine MIGLIORE della nativa il pelo nell'uovo NON esiste perchè nella nativa quel DIFETTO non c'è. A parte quello ho postato anche un'altro video sotto quello dove is vede ben altro e che reputo asoslutamente inaccettabile.
.Quale difetto ? Hai mostrato un singolo contesto in cui c'erano degli artefatti su una transenna e pensi che siano onnipresenti ? Ci sono gli slow motion di alcuni titoli con DLSS2, sei libero di guardarli. L'immagine è migliore, è più nitida e gli artefatti che indichi raramente si presentano.
e tanto basta: confrontano la nativa inserendo quella schifezza di TAA, e si che l'ho detto nmila volte :asd:.
E' meglio anche del senza AA, 4K nativo con l'aliasing.
Il DLSS2 offre una resa molto migliore del TAA.
L'unico modello con cui potresti fare di meglio è con l'uso del MSAA e non è detto, che su molti titoli è inutilizzabile in 4K, in altri non c'è proprio.
Rivedremo le tue considerazioni quando confronteremo WDL e CP2077 in 4K, senza scomodare il RT, vedremo come gireranno con l'MSAA o senza DLSS.
Guarda la presentazione e capirai di cosa sto parlando, sono solo i soliti troll infoiati che sviano l’argomento è fanno finta che AMD non ne abbia parlato.
Non ho il tempo di guardare la presentazione, potresti indicarmi almeno il momento in cui ne parla? (se poi hai un link...)
Il DLSS è un trucco ...
È proprio questa l'affermazione che non condivido. DLSS è un modo per fare upscaling con qualità paragonabile alla risoluzione nativa. È solido e in linea di massima in questa versione 2 funziona sorprendentemente bene, e non richiede un addestramento specifico per singolo titolo come nella versione precedente.
Per cui poco importa se non misura la potenza reale della scheda, l'importante sono i risultati che permette di raggiungere.
Per questo dico che se AMD non fosse in grado di fornire un'alternativa potrebbe ben presto trovarsi con un divario altrimenti incolmabile.
Riguardo agli artefatti, al momento certo ce ne sono (oddio ho visto certi filtri AA fare di peggio), ma è una tecnologia in continuo miglioramento e credo che l'enorme passo avanti tra DLSS1 e DLSS2 lo dimostri. Se in DLSS3 spariranno anche i rari gli artefatti, rimarranno ben poche ragioni per non utilizzarlo.
Nautilu$
31-10-2020, 19:55
cut
Piedone1113
31-10-2020, 20:20
Riguardo agli artefatti, al momento certo ce ne sono (oddio ho visto certi filtri AA fare di peggio), ma è una tecnologia in continuo miglioramento e credo che l'enorme passo avanti tra DLSS1 e DLSS2 lo dimostri. Se in DLSS3 spariranno anche i rari gli artefatti, rimarranno ben poche ragioni per non utilizzarlo.
Che poi stiamo parlando di giochi, e se si perde qualche piccolo dettaglio o se si presentano colori leggermente diversi da quelli che dovrebbero essere poco importa. La resa grafica e la fluidità di gioco sono importanti, non se una foglia in lontananza ti lascia un poco di scia.
poi va anche migliorata, ma grossi difetti, o insormontabili, non ne vedo.
e se la possono dare sui denti per quanto mi riguarda.
concordo con te, ma è per dire che non è la tecnologia del santo graal, che gli altri non possono permettersi....
anzi, volendo nvidia la potrebbe usare anche sulle GTX, perchè i tensor core non servono poi a granchè in queste tecnologie; sono solo più efficienti nel fare una parte dei conti.
Non fa nessuno Zoom, esegue un supersample su scenari di risoluzione inferiore usando un AI eseguita in tempo reale per ricostruire i dettagli persi nell'immagine finale attraverso un raffronto con un campione di immagini alla ris nativa, ed aumentarne la nitidezza.
La qualità percepita è superiore rispetto ad una risoluzione nativa con TAA ( anche molto migliore rispetto ad una ris nativa con CAS ) ma con un guadagno enorme lato performance, visto che è tutto a carico dei tensor core.
non funziona assolutamente così.. conviene che studi "analisi dei segnali" per riuscire a comprenderne il vero significato.
non si fa un supersampling, ma si lavora sull'intorno di una tessera e non di un pixel utilizzando parametri che derivano da un'analisi di raffronto tra una risoluzione nativa ed un'altra risoluzione nativa ma a più alta definizione o risoluzione; infatti non è assolutamente detto che deve esserci per forza un aumento di risoluzione, ma basta un aumento di definizione (e non si capisce perchè nvidia non lo sfrutti anche in questo modo, ossia usare texture low level per generare texturing ultra level).
oltretutto il guadagno di performance è relativo...
nvidia usa delle SIMD, i tensor core, per fare parte di questo lavoro, ma per farlo li ha dovuti integrare nella GPU, logicamente, occupando spazio.
visto che quelle SIMD sono state utilizzate solo perché effettivamente possono lavorare più efficientemente sulle matrici (e non calcolarle, ma solo operare addizione e prodotto su matrici), hanno pensato bene di sfruttarle.
nessuno però ti dice quale sia la percentuale di uso di quelle unità, se sono usate in modo intenso o no, visto che nascono con altri obbiettivi per cui servono in modo massiccio, ossia sulla trattazione dei dati AI delle reti neurali.
qui non c'è nessuna inferenza attiva di una rete neurale, quindi non sai se ne bastano 10 o ce ne vorrebbero 1000 per eseguire la loro parte di compito senza frenare il computo sul resto delle altre unità che calcolano con un'altra tipologia di matematica.
per l'AI, invece, ce ne vogliono virtualmente infiniti.. più ne hai, meglio è.
quindi nvidia occupa uno spazio utile sul chip e noi non sappiamo se questo spazio utile sia usato efficientemente per questo compito.
lo ribadisco: sarà sicuramente spazio occupato egregiamente sull'interenza di una AI, ma non lo sai se lo sia anche sul calcolo di un algoritmo del genere.
oltretutto li usi e quindi consumano.
la domanda quindi è la seguente: usare quello spazio con le normali unità classiche comporterebbe più consumo, più uso di silicio perchè ne devi utilizzare di più o una limitazione nelle prestazioni?
la risposta viene da Control: usa il DLSS 1.9, che è una beta del 2.0, via normali shaders e non sembra che passando al DLSS 2.0 ne abbia guadagnato.
oltretutto questo gioco non offre poi tutta questa qualità;
come diceva Ale55andr0, nella versione senza DLSS è inquinato da un TAA che fa ribrezzo.
https://youtu.be/r3fDIvsLrSM?t=32
basta guardare gli artefatti che si hanno attorno ala testa del personaggio quando si muove per vedere che nessuno dei due offre un livello qualitativo decente (attento, però, stiamo comunque guardando un video su YT, quindi con l'aggiunta di ulteriore degradazione a causa della compressione video di YT).
sulla sequenza successiva a questa, nella parte senza DLSS quando il personaggio sposta la testa la capigliatura perde del tutto definizione, ed è un vettore di movimento decisamente tenue e non rafforzato da quelli di un cambio di visuale... figurati su personaggi terzi mentre intanto cammini e quindi sommi diversi vettori di movimento cosa può succedere.. li trovi pelati!
quindi:
1) la tecnologia non è quella che hai descritto, ma è tutt'altra cosa;
2) l'uso di HW dedicato lascia il tempo che trova, perchè E' DEDICATO PER ALTRE COSE e non sai quanto di quell'HW viene impiegato e se porti reali vantaggi nell'impiegarlo rispetto ad un tradizionale uso degli shader, che li puoi usare per centinaia di altri utilizzi e non solo per addizionare o fare il prodotto di due matrici, come ad esempio usare come gli altri shader per incrementare il computo... logico, lo spazio utilizzato dai tensor core non sarà mai sufficienti per aumentare del doppio le prestazioni usandolo a shaders, ma sicuramente la scheda va di più se non usi il DLSS.
Ti chiederei le fonti ma già so che il tutto è basato sul nulla assoluto.
Materiale non promozionale ? Non esiste perchè tutto ciò che mostra ciò che non ti piace è un complotto.
la fonte è la prima frase del video: this video is sponsored by nvidia.
è sponsorizzato; credi che nvidia paghi una produzione per farsi fare video che sconfessano il suo marketing?
tutto ciò che mostri deriva da sponsorizzazione diretta da parte di nvidia.... questo mondo gira essenzialmente in questo modo e giusto degli indipendenti puoi sicuramente dire che lo fanno con un'interesse che è diverso dalla promozione di un brand.
Rivedremo le tue considerazioni quando confronteremo WDL e CP2077 in 4K, senza scomodare il RT, vedremo come gireranno con l'MSAA o senza DLSS.
ti diremo che nvidia ha direttamente sponsorizzato giochi MATTONE per far si che la sua tecnologia abbia un senso, perchè senza DLSS una 3090 su WDL a 4K non arriva manco a 60fps di media!
per un gioco che poi ha una simulazione decisamente scialba?
https://gamegpu.com/images/stories/Test_GPU/Action/Watch_Dogs_Legion/4k/WatchDogsLegion_2020_10_30_11_52_09_926.jpg
guarda le auto: definizione da giochetto di 10 anni fa e tutte lucide e pulite;
guada le luci sul palazzo a destra: manco se fossero 1000W le vedresti in quel modo in pieno giorno;
guarda la strada: ci sono tante di quelle pozzanghere che sembra sia diluviato il secondo prima, ma c'è il sole e nessuno che ha un solo ombrello in mano.
stratagemma usato solo per aumentare il computo di calcolo e distruggere le preformance.
È proprio questa l'affermazione che non condivido. DLSS è un modo per fare upscaling con qualità paragonabile alla risoluzione nativa. È solido e in linea di massima in questa versione 2 funziona sorprendentemente bene, e non richiede un addestramento specifico per singolo titolo come nella versione precedente.
Per cui poco importa se non misura la potenza reale della scheda, l'importante sono i risultati che permette di raggiungere.
Per questo dico che se AMD non fosse in grado di fornire un'alternativa potrebbe ben presto trovarsi con un divario altrimenti incolmabile.
sono d'accordo, ma nella misura in cui è utile, senza osannarla oltre la misura per cui è nata, ossia dare quella spinta dove altrimenti non si sarebbe arrivati normalmente.
il punto è che se la spinta la devo dare perchè tu, che produci questa tecnologia, devi giustificarne l'utilizzo e sponsorizzi mattoni che non hanno nessuno scopo per essere così pesanti se non quello di far comprare nuove schede, allora no.
che mi dia effettivamente un apprezzabile miglioramento su giochi che puntano maggiormente sulla realtà e la similitudine, non che mi riempi una strada di pozzanghere così la mia 1070 diventa buona solo per i 540p e poi te ne freghi altamente di offrire una vera simulazione, con vera fisica e una variabilità di caratterizzazione consistente.... su certi giochi sembra che ogni luogo è lo stesso luogo!
fallo pesante per quelle cose, non per il numero di pozzanghere!
Riguardo agli artefatti, al momento certo ce ne sono (oddio ho visto certi filtri AA fare di peggio), ma è una tecnologia in continuo miglioramento e credo che l'enorme passo avanti tra DLSS1 e DLSS2 lo dimostri. Se in DLSS3 spariranno anche i rari gli artefatti, rimarranno ben poche ragioni per non utilizzarlo.
sono d'accordo anche con questa affermazione, ma sempre nel giusto: se nvidia me lo offre su una 1650 per non farmela butare nel cestino con la nuova generazione di giochi, è una stupenda tecnologia!
se nvidia me la offre solo sulla 3090 per far girare mattoni sponsorizzati da lei per esserlo... se la tenesse.
ed il discorso sarebbe uguale per AMD.
pari pari.
Il DLSS ha sempre girato sui tensor cores, ennesima vaccata.
Il problema principale del DLSS 1 era la qualità visiva.
https://www.eurogamer.net/articles/digitalfoundry-2020-control-dlss-2-dot-zero-analysis
"Of course, this isn't the first DLSS implementation we've seen in Control. The game shipped with a decent enough rendition of the technology that didn't actually use the machine learning Tensor core component of the Nvidia Turing architecture, relying on the standard CUDA cores instead. It still provided a huge performance boost, and generally looked better the higher up the resolution chain you went, but the new 2.0 revision offers a profound improvement. "
Ovviamente, questa non è la prima implementazione DLSS che abbiamo visto in Control. Il gioco è stato fornito con una resa abbastanza decente della tecnologia che in realtà non utilizzava il componente principale Tensor di machine learning dell'architettura Nvidia Turing, affidandosi invece ai core CUDA standard. Ha comunque fornito un enorme aumento delle prestazioni e generalmente sembrava migliore più in alto nella catena di risoluzione, ma la nuova revisione 2.0 offre un profondo miglioramento.
lo scrivono i tuoi guru, digital foundry.
ora chiedi scusa e mettiti in un angoletto a rimuginare sulla questione che o ti comporti come una persona civile, o è meglio che te ne stai solo soletto.
Marckus87
01-11-2020, 01:24
nuovi leak https://videocardz.com/newz/alleged-amd-radeon-rx-6800-time-spy-and-tomb-raider-with-dxr-performance-leaks-out
6800 meglio della 3070 in Rt con dlss attivo
HwWizzard
01-11-2020, 08:48
nuovi leak https://videocardz.com/newz/alleged-amd-radeon-rx-6800-time-spy-and-tomb-raider-with-dxr-performance-leaks-out
6800 meglio della 3070 in Rt con dlss attivo
In pratica quello che sto dicendo, se confermato quello che dice l’articolo praticamente nVidia potrà battere AMD solo con il trucco DLSS.
E anche questo trucco non durerà per molto visto che le SH gioco forza svilupperanno la soluzione non proprietaria per privilegiare i giochi console...
Ora speriamo non sia un paper launch perché King Kong si è risvegliato dopo 5-6 anni di letargo e mi sa che per natale arriva R9 5950+ 6900XT:D
nuovi leak https://videocardz.com/newz/alleged-amd-radeon-rx-6800-time-spy-and-tomb-raider-with-dxr-performance-leaks-out
6800 meglio della 3070 in Rt con dlss attivo
Ti devono fare santo subito a te, GRAZIE!
Cosi magari tutte queste polemiche finiscono.
Se i dati fossero confermati e le RX6000 superiori in RT alle rispettive RTX3000 senza DLSS allora fine della discussione, sicuramente meglio AMD anche in questo piccolo ambito dell'RT e amen.
D'altronde il risultato è perfettamente coerente con le dichiarazioni lato console che pubblicizzano adeguato supporto all RT.
Appuntamento al 18 novembre per le recensioni esaustive
nickname88
01-11-2020, 10:43
https://www.eurogamer.net/articles/digitalfoundry-2020-control-dlss-2-dot-zero-analysis
"Of course, this isn't the first DLSS implementation we've seen in Control. The game shipped with a decent enough rendition of the technology that didn't actually use the machine learning Tensor core component of the Nvidia Turing architecture, relying on the standard CUDA cores instead. It still provided a huge performance boost, and generally looked better the higher up the resolution chain you went, but the new 2.0 revision offers a profound improvement. "Ricapitolando quanto da te affermato "il DLSS1.9 di Control portava tutto ciò che è presente nell'attuale DLSS2.0 ma solamente eseguito dai CUDA", direi che almeno nella prima parte cozza parecchio visto che parla di "Profound Improvement".
nvidia la potrebbe usare anche sulle GTX, perchè i tensor core non servono poi a granchè in queste tecnologie; sono solo più efficienti nel fare una parte dei conti.Che è la base di ogni buona architettura quella di usare unità più efficienti in relazione al tipo di calcolo. Detto questo se veramente non servono a nulla come mai AMD non ha proposto nulla ?
non funziona assolutamente così ... Non si fa un supersampling
No non lo fa, il termine DLSS sta solo per "Deep Learning Super Sampling".
Invece a te conviene studiare anche l'inglese oltre che l'italiano.
oltretutto il guadagno di performance è relativo...Si certo è relativo, tanto che si può guadagnare anche oltre il 50% del frame rate.
Roba da poco insomma ...
ti diremo che nvidia ha direttamente sponsorizzato giochi MATTONE per far si che la sua tecnologia abbia un senso, perchè senza DLSS una 3090 su WDL a 4K non arriva manco a 60fps di media!WD Legion è il terzo capitolo della saga e anche gli altri 2 che non avevano nè DLSS nè RTX erano mattoni da sempre, così come lo sono anche gli altri giochi Ubisoft quali la saga AC, Wildlands o Breakpoint.
Quindi serebbe tutto un complotto per favorire Nvidia ? :asd:
Se sono tutti Gomplottistici pro Nvidia come dici tu allora tanto vale comperare quest'ultima visto che lo scopo è comperare HW più adatto a giocare e non quello di fare il tifo.
la fonte è la prima frase del video: this video is sponsored by nvidia.Il problema è che la seconda fonte postata non ce l'ha e ci sono molti altri video o reviews se vuoi. Nessuno di queste critica il DLSS2 su YB.
L'unico sei tu sulla base del nulla assoluto e senza averlo per giunta non solo mai visto ma non avevi nemmeno la più pallida idea nemmeno sul CAS di AMD. :asd:
nickname88
01-11-2020, 10:54
nuovi leak https://videocardz.com/newz/alleged-amd-radeon-rx-6800-time-spy-and-tomb-raider-with-dxr-performance-leaks-out
6800 meglio della 3070 in Rt con dlss attivo
Se fosse vero sarebbe fantastico.
Anche se sembra troppo ottimistico, fosse reale, a parte che è scritto tutto in cinese, se il gioco ha girato su Ultra con RT attivo significa o che la 6800 liscia col RT attivo va come la RTX3090 oppure che l'opzione RTX DLSS di Tomb Raider non ha funzionato ed ha girato senza.
bonzoxxx
01-11-2020, 11:12
nuovi leak https://videocardz.com/newz/alleged-amd-radeon-rx-6800-time-spy-and-tomb-raider-with-dxr-performance-leaks-out
6800 meglio della 3070 in Rt con dlss attivo
Ellamadò, fosse confermato sarebbe spettacolare!
https://www.notebookcheck.net/AMD-s-Frank-Azor-confirms-Radeon-RX-6000-s-ray-tracing-and-super-sampling-info-will-be-available-in-the-run-up-to-launch.500179.0.html
AMD is working on its own implementation of super sampling similar to NVIDIA's DLSS technology. AMD's super-sampling technique is likely to be based on DirectML and is touted to be open source and cross-platform, which means this feature will also grace consoles such as the Xbox Series X and Series S along with the PlayStation 5 in the near future.
Ale55andr0
01-11-2020, 12:30
è un rumor non confermato, ed è esageratamente troppo buono per esser vero. A ogni modo se lo fosse, beh, tanto meglio per noi che dobbiamo comprare ancora la GPU :)
bonzoxxx
01-11-2020, 12:33
è un rumor non confermato, ed è esageratamente troppo buono per esser vero. A ogni modo se lo fosse, beh, tanto meglio per noi che dobbiamo comprare ancora la GPU :)
Infatti
digieffe
01-11-2020, 12:33
Ellamadò, fosse confermato sarebbe spettacolare!
https://www.notebookcheck.net/AMD-s-Frank-Azor-confirms-Radeon-RX-6000-s-ray-tracing-and-super-sampling-info-will-be-available-in-the-run-up-to-launch.500179.0.html
AMD is working on its own implementation of super sampling similar to NVIDIA's DLSS technology. AMD's super-sampling technique is likely to be based on DirectML and is touted to be open source and cross-platform, which means this feature will also grace consoles such as the Xbox Series X and Series S along with the PlayStation 5 in the near future.
chiedo a te ma può rispondere chiunque :)
dato che non conosco quel bench (in verità quasi nulla in ambito game) e vedo che c'è un po' di entusiasmo, Vi chiedo cosa c'è di notevole?
Per me è già tanto se stanno un po' sotto quanto promesso, avrebbero già fatto comunque un capolavoro rimettendosi in gioco da protagonisti e pure per i vertici di gamma, cosa che da un bel po' non accadeva.
HwWizzard
01-11-2020, 13:02
chiedo a te ma può rispondere chiunque :)
dato che non conosco quel bench (in verità quasi nulla in ambito game) e vedo che c'è un po' di entusiasmo, Vi chiedo cosa c'è di notevole?
Rispondo a te ma vale per tutti, perché hanno frainteso il bench.
Praticamente dicono che RT contro RT AMD sembra più veloce mentre con DLSS (e grazie al cazzo direi visto che elabori in 1080p e lo fai passare per 4K) nVidia è davanti. Poi se vai a leggere i commenti ci sono spunti interessanti sul fatto che le build dei giochi non siano quelle attuali ma successive, proprio quello di cui ha parlato AMD nella presentazione e che non tutti hanno seguito e che i fanboy nVidia fanno finta di non aver sentito.
Alla fine della fiera DLSS non è una feature HW quindi va o non va a seconda di quanto qualcuno vuole sbattersi, ma alla luce del fatto che AMD ha tutto il mercato console se dovessi scommettere su cosa verrà portato avanti tra soluzione proprietaria di nVidia ( per schede che forse saranno disponibili a Natale 2021:sofico: ) o soluzione open sfruttabile da entrambe ma ovviamente ottimizzata per RDNA2 visto i milioni di console che verranno vendute io so su chi puntare.
Ricapitolando quanto da te affermato "il DLSS1.9 di Control portava tutto ciò che è presente nell'attuale DLSS2.0 ma solamente eseguito dai CUDA", direi che almeno nella prima parte cozza parecchio visto che parla di "Profound Improvement".
Profondo miglioramento per loro... per me non è cambiato chissà che cosa a guardare i video.
è sempre relativo al ruolo che hai:
se vendi sono "Profound Improvement"; se compri li vuoi vedere questi "Profound Improvement" che richiedono HW decidaco e costi stratosferici.
Che è la base di ogni buona architettura quella di usare unità più efficienti in relazione al tipo di calcolo. Detto questo se veramente non servono a nulla come mai AMD non ha proposto nulla ?
verissimo, ma sempre tenendo conto dell'utilità:
se fosse anche un miglioramento di esecuzione del 100%, ossia che impiega la metà del tempo per calcolare e usa la metà dell'energia per fare quei calcoli in quel modo, ma i calcoli che interessano questa funzione sono solo lo 0.5% di tutti i calcoli che fai, il miglioramento è assai contenuto e si deve soppesare bene il guadagni che hai rispetto ai costi che devi sostenere per averli.
la funzione può aumentare il costo del mio HW dello 0.25% in più, non del 50% in più, perchè diversamente mi tengo la vecchia tecnologia e chiedo solamente che vengano aumentate le unità di calcolo di quello 0.5% in più.
No non lo fa, il termine DLSS sta solo per "Deep Learning Super Sampling".
Invece a te conviene studiare anche l'inglese oltre che l'italiano.
conosco benissimo il significato di questo acronmimo, ma questo non indica che dare un nome ad una tecnologia implichi sempre che sia relazionato a quello che effettivamente fa.
spesso si usano Paroloni per attirare l'attenzione della gente.
il Supersampling si fa su singoli pixel e non su tessere 3x3 o in qualunque tipo di altra misura che 1x1;
il Supersampling è un downscaling, non un upscaling, perchè elabora a più alta risoluzione per poi avere i dati da interpolare per ottenere la mediana della tinta dei punti;
il DLSS può operare sia sulla risoluzione, come anche sulla DEFINIZIONE dell'immagine (aumento della definizione delle texture invece che aumento della risoluzione), perchè i suoi presupposti non cambiano: confronta parti (tessere) di due elaborazioni della stessa situazione (e non lo steso identico frame) per estrarre metaparametri per impostare un algoritmo di upscaling e media questi risultati (i metaparametri trovati frame per frame) per tutto il gioco o parti corpose di questo.
non ha nulla a che fare con il supersampling che esegue rendering a risoluzione maggiore per poi eseguire un downscale frame per frame.
quindi mi sembrano due tecnologie decisamente distanti, anche se poi lo scopo è il medesimo: offrire più definizione.
Si certo è relativo, tanto che si può guadagnare anche oltre il 50% del frame rate.
Roba da poco insomma ...
è relativo, ossia che ha rapporto, riferimento, relazione con altra cosa.
il guadagno di performance è relativo ad altro ambito: l'inferenza AI.
i tensor core servono per agevolare l'inferenza delle reti neurali, dove questo tipo di calcoli copre il 99% di quel tipo di calcoli, non una percentuale prossima allo zero.
...quando ti si diceva che le definizioni contano parecchio nella lingua italiana.
WD Legion è il terzo capitolo della saga e anche gli altri 2 che non avevano nè DLSS nè RTX erano mattoni da sempre, così come lo sono anche gli altri giochi Ubisoft quali la saga AC, Wildlands o Breakpoint.
Quindi serebbe tutto un complotto per favorire Nvidia ? :asd:
nel momento in cui lo sviluppatore si fa "finanziare" direttamente da un'azienda per integrare le sue specifiche e proprietarie tecnologie, credo che il nesso sia ben chiaro...
prova a disabilitare le AVX in AC e poi a fare un benchmark con una nvidia e ci mettiamo simpaticamente a ridere... fallo con una AMD e ti chiederai a che serve aver dato il comando di disabilitazione dell'uso delle AVX all'OS.
Se sono tutti Gomplottistici pro Nvidia come dici tu allora tanto vale comperare quest'ultima visto che lo scopo è comperare HW più adatto a giocare e non quello di fare il tifo.
i complotti si basano su supposizioni; quando ci sono prove si trasformano in osservazioni da cui trarre conclusioni.
puoi fare dei test tu stesso per verificar, basta dare una riga di comando in console.
Il problema è che la seconda fonte postata non ce l'ha e ci sono molti altri video o reviews se vuoi. Nessuno di queste critica il DLSS2 su YB.
L'unico sei tu sulla base del nulla assoluto e senza averlo per giunta non solo mai visto ma non avevi nemmeno la più pallida idea nemmeno sul CAS di AMD. :asd:
la seconda fonte ha la medesima filosofia della prima: è una spudorata marchetta promozionale per promuovere quella tecnologia.
non mi sembra che sia un'analisi tecnica esaustiva sull'argomento, ma dice solo:"va che bello!", "va come va di più!" in situazioni e sequenze di giochi che sono troppo simili a quelle di tanti altri articoli che hanno parlato di questa tecnologia.
se sono 2 che usano gli stessi argomenti e gli stessi strumenti per imbastire un discorso può essere una coincidenza, se lo fanno 3 già è strano, se la questione è uniforme, ossia tutti usano le stesse sequenze e dicono le stesse cose, stanno solo rielaborando un paper informativo fornitogli dall'azienda: stanno facendo marketing propagandistico.
rimani sul discorso e non divagare, grazie.
PS:
visto che ti ho dimostrato che il DLSS non ha necessità dei tensor core, come invece tu sostenevi e che quindi non dico sciocchezze come hai indicato tu: "Il DLSS ha sempre girato sui tensor cores, ennesima vaccata."
mi sembra il minimo che tu ti SCUSI PUBBLICAMENTE per come hai trattato le mie argomentazioni con strafottente arroganza.
Se fosse vero sarebbe fantastico.
Anche se sembra troppo ottimistico, fosse reale, a parte che è scritto tutto in cinese, se il gioco ha girato su Ultra con RT attivo significa o che la 6800 liscia col RT attivo va come la RTX3090 oppure che l'opzione RTX DLSS di Tomb Raider non ha funzionato ed ha girato senza.
credo che se avesse girato senza effetti RT si sarebbe notato, giusto?
o questi effetti sono così insignificanti che se ci sono o no non si nota la differenza se non in un benchmark che ne rivela il marcato calo di prestazioni?
:mc:
è un rumor non confermato, ed è esageratamente troppo buono per esser vero. A ogni modo se lo fosse, beh, tanto meglio per noi che dobbiamo comprare ancora la GPU :)
mai dare credito ad un rumor finché non hai verificato quello che sosteneva in modo obbiettivo (e qui si tratta di numeri e i numeri non si possono truccare).
L'unico sei tu sulla base del nulla assoluto e senza averlo per giunta non solo mai visto ma non avevi nemmeno la più pallida idea nemmeno sul CAS di AMD. :asd:
è un attacco esplicito alla dignità della mia persona?
no, perché se lo fosse, allora sarebbe il caso che passi al vaglio della moderazione, in modo da far capire che anche questi tipi di atteggiamenti non sono tollerati in una discussione civile.
non so cosa aspettarmi ancora... magari che offendi mia madre o che ti metti a disquisire sul mio albero genealogico?
è già la terza segnalazione che faccio alla moderazione per farli intervenire.
bonzoxxx
01-11-2020, 15:07
chiedo a te ma può rispondere chiunque :)
dato che non conosco quel bench (in verità quasi nulla in ambito game) e vedo che c'è un po' di entusiasmo, Vi chiedo cosa c'è di notevole?
Ti ha risposto HwWizzard :D
C'è da dire che sti dati vanno presi con le pinze perché non c'è nulla di "tangibile" al momento se non vari leak ma una cosa è certa, AMD stavolta ha lavorato bene e vedremo come si posizionerà.
Riguardo i fanatici nvidia (io ho una 1070, chiariamo) non mi esprimo, sto forum è diventato un "guazzabuglio medievale" citando Mago Merlino :D
basta renderli inoffensivi con le argomentazioni e non dargli più retta quando danno di matto.
alla fine si stuferanno di essere così antisociali.
...ma chiudiamo l'OT, che è lavoro della moderazione far finire certi atteggiamenti poco consoni ad un luogo di discussione pubblico.
nickname88
01-11-2020, 16:53
credo che se avesse girato senza effetti RT si sarebbe notato, giusto?
:mc:Perchè hai visto il video o gli screen del benchmark in atto tu ?
Eri presente ? Non lo sapevo.
Quindi una 6800 che gira come una 3090 non è può suscitare dubbi ?
Ovviamente me lo assicuri tu giusto ?
è un attacco esplicito alla dignità della mia persona?
Ci pensi già tu da solo, io sottolineo soltanto.
i complotti si basano su supposizioni; quando ci sono prove si trasformano in osservazioni da cui trarre conclusioni.
puoi fare dei test tu stesso per verificar, basta dare una riga di comando in console.
la seconda fonte ha la medesima filosofia della prima: è una spudorata marchetta promozionale per promuovere quella tecnologiaLe prove, quelle che tu non fornisci mai.
Avanti forniscimi le prove che la seconda fonte è corrotta ... che poi ti mostro tutte le altre e mi fornisci le prove anche di quelle.
nel momento in cui lo sviluppatore si fa "finanziare" direttamente da un'azienda per integrare le sue specifiche e proprietarie tecnologie, credo che il nesso sia ben chiaro...
prova a disabilitare le AVX in AC e poi a fare un benchmark con una nvidia e ci mettiamo simpaticamente a ridere... fallo con una AMD e ti chiederai a che serve aver dato il comando di disabilitazione dell'uso delle AVX all'OS.
Si un altro Gomblotto, peccato che non cambi la finalità.
Se il mondo ludico per te è monopolizzato dal competitor allora perchè dovrei comperare l'HW della controparte ?
Ognuno compra il proprio HW sulla base dei prodotti di cui vuole usufruire.
Anche molti giochi sono esclusiva Sony o Nintendo, e se vuoi giocarci ovviamente ti compri il suo HW.
In pratica quello che sto dicendo, se confermato quello che dice l’articolo praticamente nVidia potrà battere AMD solo con il trucco DLSS.
Ti prengo, non continuare ad usare il termine "trucco", non è un trucco, è una funzionalità molto utile che al momento nVidia ha e AMD no.
AMD is working on its own implementation of super sampling similar to NVIDIA's DLSS technology. AMD's super-sampling technique is likely to be based on DirectML and is touted to be open source and cross-platform, which means this feature will also grace consoles such as the Xbox Series X and Series S along with the PlayStation 5 in the near future.
Ecco, questa sarebbe davvero un'ottima notizia.
Strano però non se ne sia parlato approfonditamente alla presentazione delle schede, probabilmente sono ancora in fase di sviluppo e ben lontani dai risultati raggiunti da nVidia. Ma sarebbe un ottimo inizio.
premesso che non ho avuto modo di valutare questo dlss di persona... perdonate l'ignoranza ma se ad uno interessa può valutare le prestazioni attivandolo, se ad uno non interessa (o fa schifo, come mi pare di capire in particolare dai commenti di alessandro) lo ignora guardando le prestazioni dove è disattivato.
mi sembra insensato cercare di convincersi a vicenda che sia una manna o che sia inutile a prescindere dalla percezione che sia ha della qualità risultante.
non avendo visto la presentazione e avendo trovato solo info sulle prestazioni con i giochi vorrei chiedere se ci siano notizie ufficiali sull'encoder video di queste gpu.
HwWizzard
01-11-2020, 18:03
Ti prengo, non continuare ad usare il termine "trucco", non è un trucco, è una funzionalità molto utile che al momento nVidia ha e AMD no.
Ecco, questa sarebbe davvero un'ottima notizia.
Strano però non se ne sia parlato approfonditamente alla presentazione delle schede, probabilmente sono ancora in fase di sviluppo e ben lontani dai risultati raggiunti da nVidia. Ma sarebbe un ottimo inizio.
Per me è e rimane un trucco, ho ampiamente argomentato perché lo considero tale. Poi siamo in democrazia e ognuno può avere la sua opinione, basta non imporla ad altri.
Sul fatto che ci sarebbe stata l’implementazione AMD è stato detto nella presentazione, con tanto di rappresentanza delle SH... basta andare a vederla e ascoltare... non hanno ancora risultati in mano perché è in divenire e per questo non l’hanno sbandierato come fa nVidia che trucco a parte non ha nulla da far vedere visto che le schede non ci sono.
Non si fa una presentazione così strafottente se non hai la certezza di aver assestato un colpo durissimo all’avversario.
nickname88
01-11-2020, 18:09
non è necessario che ti fornisca la fonte;Infatti, già lo sappiamo che sono castronerie campate per aria e frutto di qualche sogno fantasioso.
continui ad aggravare la tua posizione? perché, giusto per chiarirlo esplicitamente, continuare su questo atteggiamento non ti porterà assolutamente da nessuna parteMa pensi veramente che a qualcuno gli frega minimamente di te ? :asd:
Perchè hai visto il video o gli screen del benchmark in atto tu ?
Eri presente ? Non lo sapevo.
Quindi una 6800 che gira come una 3090 non è può suscitare dubbi ?
Ovviamente me lo assicuri tu giusto ?
io non ti assicuro nulla.
è un leak, un rumor, una balla di paglia tirata nel web.
se ci credi son fatti tuoi, sennò fai come me e gli altri: aspetti il 18 per le reviews.
Ci pensi già tu da solo, io sottolineo soltanto.
continui ad aggravare la tua posizione?
perché, giusto per chiarirlo esplicitamente, continuare su questo atteggiamento non ti porterà assolutamente da nessuna parte, se non ad una sanzione da parte della moderazione.
Le prove, quelle che tu non fornisci mai.
Avanti forniscimi le prove che la seconda fonte è corrotta ... che poi ti mostro tutte le altre e mi fornisci le prove anche di quelle.
non è necessario che ti fornisca la fonte;
quando vedi una pubblicità in TV ti devono scrivere che sono messaggi pubblicitari o far supporre che tutto quello che dicono è la sacrosanta verità?
eppure quel settore è fortunatamente abbastanza regolato da delle leggi; sono le stesse leggi che regolano tutta la pubblicità, in ogni dove, ma che al di fuori della TV e della Radio trova un'applicazione delle norme assai carente.
Si un altro Gomblotto, peccato che non cambi la finalità.
Se il mondo ludico per te è monopolizzato dal competitor allora perchè dovrei comperare l'HW della controparte ?
Ognuno compra il proprio HW sulla base dei prodotti di cui vuole usufruire.
Anche molti giochi sono esclusiva Sony o Nintendo, e se vuoi giocarci ovviamente ti compri il suo HW.
se il mondo dei videogiochi è compromesso dalla concorrenza sleale, si fa notare e si informa il pubblico di quello che potrebbe comportare una aperta violazione delle regole (oltre ad incitare gli organi regolatori a sanare la questione).
i giochi Sony e Nintendo sono dichiaratamente venduti così e non venduti per tutti i tipi di HW in circolazione, sul quale dovrebbero offrire sempre la migliore condizione di uso per ogni singolo HW e non certo metodi per penalizzare alcuni tipi di HW solo a scopo di manipolare il mercato (soprattutto se sono dichiaratamente sponsorizzati da tizio o caio con tecnologie PROPRIETARIE).
se nvidia vuole giochi esclusivi per il suo HW, che lo facesse apertamente.
per riguarda i test su come possano "diventare" pesanti certi titoli:
bcdedit /set xsavedisable 0 abilita AVX;
bcdedit /set xsavedisable 1 disattiva AVX;
ti ho dato i mezzi per fare i tuoi test e capirlo da solo, senza l'interferenza di nessuno per l'interpretazione.
confido che sei sufficientemente capace per fare un semplice test.
meglio di questo?
puoi verificare da te stesso se è un complotto o una obbiettiva osservazione dello stato delle cose.
Per me è e rimane un trucco, ho ampiamente argomentato perché lo considero tale. Poi siamo in democrazia e ognuno può avere la sua opinione, basta non imporla ad altri.
Perdonami, ma è piuttosto evidente che stai nascondendo da opinione un chiaro intendo di sminuire una funzionalità di grande rilievo.
Argomentazioni sensate io in questo topic non ne ho lette, hai solo detto che è sbagliato usarlo per confrontare la potenza "bruta" delle schede video e sono d'accordo, ma questo non significa affatto che sia un trucco, non inganna nessuno ma ottiene un risultato concreto.
Io non escluderei affatto che un domani, con l'affinamento di queste tecniche, fare upscaling in questo modo diventi la normalità e buona parte della gara alle prestazioni si giochi su queste tecnologie.
PS: se puoi almeno dirmi a che minuto della prestazione parla di una tecnologia equivalente a DLSS me lo guardo volentieri. ;)
perdonate l'ignoranza ma se ad uno interessa può valutare le prestazioni attivandolo, se ad uno non interessa (o fa schifo, come mi pare di capire in particolare dai commenti di alessandro) lo ignora guardando le prestazioni dove è disattivato.
Se compri una scheda video e ti dicono: "attivando la funzionalità TURBO puoi ottenere prestazioni doppie, tu che fai, l'attivi o la lasci disattivata?
Ora sostituisci a TURBO il nome DLSS, le prestazioni non sono proprio doppie e oggi c'è qualche imperfezione (e diventeranno sempre meno man mano con la maturazione della tecnologia... e no, non fa schifo), ma il concetto è quello.
Per questo dico che AMD non può rimanere indietro e deve poter avere una tecnologia equivalente (possibilmente open) e che funzioni bene.
premesso che non ho avuto modo di valutare questo dlss di persona... perdonate l'ignoranza ma se ad uno interessa può valutare le prestazioni attivandolo, se ad uno non interessa (o fa schifo, come mi pare di capire in particolare dai commenti di alessandro) lo ignora guardando le prestazioni dove è disattivato.
mi sembra insensato cercare di convincersi a vicenda che sia una manna o che sia inutile a prescindere dalla percezione che sia ha della qualità risultante.
non avendo visto la presentazione e avendo trovato solo info sulle prestazioni con i giochi vorrei chiedere se ci siano notizie ufficiali sull'encoder video di queste gpu.
hai perfettamente ragione, soprattutto sapenndo che Alessandro dovrebbe avere una 2070 Super, se non sbaglio e che lui lo avrà certamente valutato (sempre se posside la scheda che ha quella tecnologia).
io non sto cercando di convincere nessuno sul fatto che sia o non sia una buona tecnologia (anzi, ho più volte scritto che sarebbe buona).
sto solo disquisendo sull'uso che ne fa nvidia di tale tecnologia.
è stata portata la dimostrazione che, seppur dicono di inferiore qualità rispetto all'ultima implementazione, Control usasse il DLSS via cudacore, senza l'appoggio dei tensor core... bhè, Control lo giochi anche con le GTX Turing e quando uscì implementava la più performante relase del DLSS; era un gioco sufficientemente pesante e una GTX Turing se ne sarebbe decisamente avvantaggiata nell'uso, ma nvidia ha deciso che, pur girando su cudacore, le GTX non potevano avvalersi di questo boost prestazionale, relegando i possessori di GTX ad acquirenti di seconda scelta.
una 1650 in FHD arriva a malapena a 37fps su quel gioco, ed il boost che mediamente il DLSS dona alle schede che lo possono usare, su quel gioco, è di circa il 50%... avrebbe consentito di usare la risoluzione FHD a circa 56fps di media, e non è male....
su quel gioco la 2080 TI arriva a 120fps.. portarla a 180fps con il DLSS ottenendo un salto da alto framerate ad altissimo framerate, che è del tutto inutile su quel gioco, non ha la medesima valenza.
magari lo ha il 4K per la 2080 TI, che arriva a malapena a 43fps?
quindi il FHD per la 1650 è come il 4K per la 2080 Ti, ma il DLSS è solo ad appannaggio delle RTX in un gioco in cui si usa su cudacore e che anche chi ha una 1650 paga a prezzo pieno, come d'altronde ha pagato la scheda.
ecco; si discute su questo tipo di utilità, in effetti.
poi, personalmente, anche io lo trovo un trucco e non lo userei, ma è un trucco che si può rilevare utile in quelle situazioni come quelle descritte. solo che per accedervi si deve pagare per schede che alla fin fine, non ne hanno poi tutto questo bisogno...
Infatti, già lo sappiamo che sono castronerie campate per aria e frutto di qualche sogno fantasioso.
Ma pensi veramente che a qualcuno gli frega minimamente di te ? :asd:
e qui hai esagerato.
PS: se puoi almeno dirmi a che minuto della prestazione parla di una tecnologia equivalente a DLSS me lo guardo volentieri. ;)
non ricordo il punto in cui hanno detto la parola directML nella presentazione, ma il directML è usato già nei driver AMD:
https://www.amd.com/en/support/kb/faq/dh2-036
upscaling x2 in real time.
comunque è sufficiente aspettare qualche giorno:
https://twitter.com/Rafscotti1/status/1321793656664297474
Se compri una scheda video e ti dicono: "attivando la funzionalità TURBO puoi ottenere prestazioni doppie, tu che fai, l'attivi o la lasci disattivata?
Ora sostituisci a TURBO il nome DLSS, le prestazioni non sono proprio doppie e oggi c'è qualche imperfezione (e diventeranno sempre meno man mano con la maturazione della tecnologia... e no, non fa schifo), ma il concetto è quello.
Per questo dico che AMD non può rimanere indietro e deve poter avere una tecnologia equivalente (possibilmente open) e che funzioni bene.
quel che intendo è che mi sembra una discussione basata su dati oggettivi abbinati ad una valutazione soggettiva in funzione della quale diversi utenti cercano di convincere altri che il compromesso valga o non valga.
ad esempio dal tuo post si evince che per te sia un valore aggiunto a prescindere per via delle prestazioni, dai post di altri si evince che per loro non sia nemmeno da considerare per via del fatto che possa pregiudicare la qualità.
non è un problema che emergano e vengano argomentate le posizioni ma trovo che la direzione presa dalla discussione tenda a soffermarsi sulla percezione dei singoli perché se parli di prestazioni X e Y ha un senso basato su certi dati, se parli di pregi e difetti della tecnologia ha un altro senso basato su altri dati, se combini le considerazioni e le rapporti alla tua percezione di qualità e compromesso ha un altro senso ancora.
sarei interessato ad informazioni utili sull'encoder video (nel topic mi han postato link interessanti solo lato decoder), in particolare vorrei sapere se siano noti aggiornamenti rispetto alle schede precedenti.
sarei interessato ad informazioni utili sull'encoder video (nel topic mi han postato link interessanti solo lato decoder), in particolare vorrei sapere se siano noti aggiornamenti rispetto alle schede precedenti.
no, non ho informazioni utili su quella parte, ma si parla dell'aggiunta ad AV1 e un supporto più esteso in codifiche varie.
https://www.phoronix.com/scan.php?page=news_item&px=AV1-Decode-For-AMD-VCN-3.0
è uno dei secondari usi che per me sono più primari del fare 10fps in più o avere qualcosa di simile al DLSS..
HwWizzard
01-11-2020, 21:18
Perdonami, ma è piuttosto evidente che stai nascondendo da opinione un chiaro intendo di sminuire una funzionalità di grande rilievo.
Argomentazioni sensate io in questo topic non ne ho lette, hai solo detto che è sbagliato usarlo per confrontare la potenza "bruta" delle schede video e sono d'accordo, ma questo non significa affatto che sia un trucco, non inganna nessuno ma ottiene un risultato concreto.
Io non escluderei affatto che un domani, con l'affinamento di queste tecniche, fare upscaling in questo modo diventi la normalità e buona parte della gara alle prestazioni si giochi su queste tecnologie.
PS: se puoi almeno dirmi a che minuto della prestazione parla di una tecnologia equivalente a DLSS me lo guardo volentieri. ;)
Se compri una scheda video e ti dicono: "attivando la funzionalità TURBO puoi ottenere prestazioni doppie, tu che fai, l'attivi o la lasci disattivata?
Ora sostituisci a TURBO il nome DLSS, le prestazioni non sono proprio doppie e oggi c'è qualche imperfezione (e diventeranno sempre meno man mano con la maturazione della tecnologia... e no, non fa schifo), ma il concetto è quello.
Per questo dico che AMD non può rimanere indietro e deve poter avere una tecnologia equivalente (possibilmente open) e che funzioni bene.
Scusami ma sono giorni che ne parliamo e la presentazione dura si e no 15 minuti poi è anche interessante visto che trollano nVidia è le sue tecnologie closed ... fare upscale e spacciarlo per vantaggio rispetto alla concorrenza è e rimane un trucco. Come detto in precedenza siamo in democrazia e quindi se non la pensi così amen, è un tuo diritto.
AMD non rimane indietro anzi va avanti visto che ci sono 35 titoli già in procinto di essere aggiornati o in uscita che supportano la variante open della tecnologia closed e destinata a morire nel breve di nVidia. Io ci metterei un purtroppo ma siccome sembra che a molti piaccia farsi abbindolare dal gaming 4K upscaled da 1080p non lo metto. Io sicuramente non userò questa tecnologia.
Perché quando ci sono innovazioni di processo così importanti non si portano anche nelle fasce basse delle schede productivity, workstation e server a caratteri?
Cioè schede da una manciata di watt e prestazioni 2D ottime per lavoro d'ufficio, casual game, interfacce a carattere per server, ecc.?
Schedine piccole con dissipazione passiva grazie ai 7nm+
e della potenza della R7-240 e del costo sotto i 30-40 euro?
O equivalenti alla R5-230, lillipuziane con PCI-E 1x che possa mettere nei miei server Linux con CPU AMD senza vga.
Un aggiornamento di consumi, dimensioni ridotte, e qualità per tutto ciò che non sia gaming e applicazione grafica pro...
HwWizzard
01-11-2020, 21:24
Perché quando ci sono innovazioni di processo così importanti non si portano anche nelle fasce basse delle schede productivity, workstation e server a caratteri?
Cioè schede da una manciata di watt e prestazioni 2D ottime per lavoro d'ufficio, casual game, interfacce a carattere per server, ecc.?
Schedine piccole con dissipazione passiva grazie ai 7nm+
e della potenza della R7-240 e del costo sotto i 30-40 euro?
O equivalenti alla R5-230, lillipuziane con PCI-E 1x che possa mettere nei miei server Linux con CPU AMD senza vga.
Un aggiornamento di consumi, dimensioni ridotte, e qualità per tutto ciò che non sia gaming e applicazione grafica pro...
Arrivano anche quelle più in basso, non si sa quanto in basso visto che contano di vendere le APU per quelle fasce più basse che hai citato.
bonzoxxx
01-11-2020, 21:56
https://www.youtube.com/watch?v=vLw1HeElssE
In questo video fa vedere pregi e difetti con RT on e OFF oltre al DLSS, mi sembra interessante.
digieffe
01-11-2020, 22:20
grazie per le risposte ricevute, proseguo il discorso da nabbo...
chiarito che è un upscale (non importa la tecnica: x_sampling, valutazione della luminosità, della scena... ) vorrei capire se le informazioni vengono "recuperate" da qualche parte o "inventate (mettete la tecnica che volete: interpolate ...)" in questo caso aggiungendo informazione inesistenti ma dando un effetto ottico verosimile ma non fedele
bonzoxxx
01-11-2020, 22:29
grazie per le risposte ricevute, proseguo il discorso da nabbo...
chiarito che è un upscale (non importa la tecnica: x_sampling, valutazione della luminosità, della scena... ) vorrei capire se le informazioni vengono "recuperate" da qualche parte o "inventate (mettete la tecnica che volete: interpolate ...)" in questo caso aggiungendo informazione inesistenti ma dando un effetto ottico verosimile ma non fedele
Vengono calcolate in sostanza, con risultati a volte oserei dire sorprendenti :)
Ci sono un sacco di video sul tubo, dagli un occhio che sono fatti pure bene
digieffe
01-11-2020, 22:47
Vengono calcolate in sostanza, con risultati a volte oserei dire sorprendenti :)
Ci sono un sacco di video sul tubo, dagli un occhio che sono fatti pure bene
di video ne sto vedendo, ciò che voglio capire e se ciò che vedo è "reale" o sono ottimi artefatti che ingannano l'occhio...
dunque torno al punto di prima le informazioni "calcolate" sono "recuperate" da qualche parte o "inventate"
nel primo caso anche se con risultati teoricamente inferiori alla risoluzione nativa sarebbe qualcosa di "serio" nel secondo si tratterebbe di un "effetto" bello ma non fedele.
di video ne sto vedendo, ciò che voglio capire e se ciò che vedo è "reale" o sono ottimi artefatti che ingannano l'occhio...
dunque torno al punto di prima le informazioni "calcolate" sono "recuperate" da qualche parte o "inventate"
nel primo caso anche se con risultati teoricamente inferiori alla risoluzione nativa sarebbe qualcosa di "serio" nel secondo si tratterebbe di un "effetto" bello ma non fedele.
le informazioni vengono inventate, ma rispettando canoni rigidi di coerenza.
la differenza marcata tra un upscaling e l'upscalig del DLSS è il modo di impostare i parametri variabili che guidano le scelte dell'upscaling (i metadati).
in uno normale si calcolano al momento nell'intorno del punto e magari anche andando a guardare i frame precedenti (e calcolandone la velocità di differenziazione delle varie parti, ossia il vettore di movimento), nel DLSS vengono calcolati tramite rete neurale in fase di sviluppo, allenando la rete neurale con immagini a bassa e alta risoluzione, da confrontare, ma immagini non raffrontate frame to frame (sarebbe inutile e controproducente una tale precisione perchè si deve stereotipare l'andamento dei cambiamenti tramite analisi dei segnali e non l'analisi di quel preciso cambiamento... nei giochi affronterai sicuramente una situazione di movimenti di personaggi e inquadrature diverse da quelli analizzati e quindi l'algoritmo di deve adattare sapientemente ad ogni nuova situazione.
faccio notare che il DLSS si compone di svariate tecnologie al suo interno, non solo di un upscaling, ma anche di una AA, un filtro sharpening e altri ancora che migliorano l'immagine finale e che comunque lavora solo sull'output del frame, l'immagine 2D che genera, non nel calcolo del frame, che è in ambiente 3D.
è perciò differente parlare di upscaling del DLSS da tutta la tecnologia impiegata nel DLSS.
di per se questo algoritmo di upscaling scarica la macchina dal cercare i metadati, perchè vengono preventivamente trovati tramite rete neurale.
un normale algoritmo deve prima trovare quei valori adatti per decidere coerentemente la creazione dell'informazione, poi, solo dopo, la esegue con quei parametri trovati...
è quindi un'ulteriore vantaggio su questo tipo di algoritmi (di upscaling), perchè taglia parte delle fasi di calcolo (visto che sono eseguite prima e stereotipate tramite machine learning).
quindi è un effetto bello e "quasi" fedele.
il quasi dipende da quanto lavoro è stato fatto in preproduzione nello sviluppo del gioco per il DLSS e quanto lavoro fa in post produzione al momento del gioco per entrambi i metodi utilizzati, ma, al meglio non è comunque mai fedele a quello che otterresti ad una risoluzione nativa (attento, non uguale nel senso non lo stesso frame, ma non significa che la qualità sia inferiore, solo che non potrai mai rigenerare le esatte informazioni).
da osservare che se tu diminuisci la risoluzione da 4K a FHD il PC deve computare 1/4 della grafica (la CPU, invece, sostanzialmente non cambia il suo carico di lavoro in rapporto ai frame che genera), quindi potresti andare 4 volte più veloce, il 300% in più, ma come vedi anche il DLSS offre un miglioramento di massimo il 50%, segno che tanta potenza che avresti usato per calcolare la "regolare grafica" in 4K la stai usando per calcolare upscaling ed effetti di post produzione.
... fare upscale e spacciarlo per vantaggio rispetto alla concorrenza è e rimane un trucco. Come detto in precedenza siamo in democrazia e quindi se non la pensi così amen, è un tuo diritto.
Io continuo a non vedere il trucco. Si valuta il risultato, non il modo in cui lo ottieni.
AMD non rimane indietro anzi va avanti visto che ci sono 35 titoli già in procinto di essere aggiornati o in uscita che supportano la variante open della tecnologia closed e destinata a morire nel breve di nVidia.
Il punto è: la tecnologia di cui parli funzionerà come DLSS? Stiamo cioè parlando di un corrispettivo open alla tecnologia nVidia? E sarà altrettanto valida?
Per quanto mi riguarda, le domande sono queste.
Non auspico nulla di più se non un'alternativa a DLSS che sia valida e aperta. Mi ha preoccupato il fatto che non sia stato uno dei punti focali della presentazione, perchè senza questo genere di tecnologia AMD rischia davvero di rimanere indietro.
...vorrei capire se le informazioni vengono "recuperate" da qualche parte o "inventate ...
Un po' entrambe. Sono "inventate", ma basandosi sulle immagini a risoluzione nativa.
Il concetto di fedeltà trovo sia relativo comunque, non stiamo parlando di una foto reale ma comunque di immagini create da un motore grafico, è qualcosa di inventato comunque. ;)
HwWizzard
02-11-2020, 08:30
Io continuo a non vedere il trucco. Si valuta il risultato, non il modo in cui lo ottieni.
Il punto è: la tecnologia di cui parli funzionerà come DLSS? Stiamo cioè parlando di un corrispettivo open alla tecnologia nVidia? E sarà altrettanto valida?
Per quanto mi riguarda, le domande sono queste.
Non auspico nulla di più se non un'alternativa a DLSS che sia valida e aperta. Mi ha preoccupato il fatto che non sia stato uno dei punti focali della presentazione, perchè senza questo genere di tecnologia AMD rischia davvero di rimanere indietro.
Un po' entrambe. Sono "inventate", ma basandosi sulle immagini a risoluzione nativa.
Il concetto di fedeltà trovo sia relativo comunque, non stiamo parlando di una foto reale ma comunque di immagini create da un motore grafico, è qualcosa di inventato comunque. ;)
Abbiamo punti di vista diversi e ci sta :cincin:
E si, quello che sta portando avanti AMD è esattamente quello che fa il DLSS solo che non è proprietario ma open , non so come dirtelo oramai. E come puoi dire che non sia stato un punto focale se hanno portato alla presentazione anche rappresentanti delle SH a spiegarlo???
nickname88
02-11-2020, 09:51
Abbiamo punti di vista diversi e ci sta :cincin:
E si, quello che sta portando avanti AMD è esattamente quello che fa il DLSS solo che non è proprietario ma open , non so come dirtelo oramai. E come puoi dire che non sia stato un punto focale se hanno portato alla presentazione anche rappresentanti delle SH a spiegarlo???DirectML ?
Non se ne sente più parlare da inizio 2019, nè è stato annunciato nella presentazione di AMD.
DirectML ?
Non se ne sente più parlare da inizio 2019, nè è stato annunciato nella presentazione di AMD.
"The shader cores of the Xbox are also more suitable to machine learning, which could be an advantage if Microsoft succeeds in implementing an equivalent to Nvidia’s DLSS (an advanced neural network solution for AI)."
https://wccftech.com/david-cage-on-quantic-dream-future-next-gen-gaming-and-not-ruling-out-sequels/
non credo che non parlarne al pubblico sia la stessa cosa di non lavorare sullo sviluppo.
nickname88
02-11-2020, 11:06
"The shader cores of the Xbox are also more suitable to machine learning, which could be an advantage if Microsoft succeeds in implementing an equivalent to Nvidia’s DLSS (an advanced neural network solution for AI)."
https://wccftech.com/david-cage-on-quantic-dream-future-next-gen-gaming-and-not-ruling-out-sequels/
non credo che non parlarne al pubblico sia la stessa cosa di non lavorare sullo sviluppo.
"could be an advantage if Microsoft succeeds in implementing AN equivalent to Nvidia’s DLSS"
Condizionale + articolo indeterminativo, quindi non fa riferimento a nulla di specifico, nè specifica eventuali tempistiche.
HwWizzard
02-11-2020, 11:14
DirectML ?
Non se ne sente più parlare da inizio 2019, nè è stato annunciato nella presentazione di AMD.
Quando finirai di trollare e andrai a vedere la presentazione con sottotitoli in una lingua di tua comprensione forse capirai di cosa stiamo parlando. Lo hanno detto chiaro e tondo, trollando nVidia è le sue tecnologie closed. Ma se non riesci a coglierlo non posso aiutarti in alcun modo.
Uno non fa una presentazione così strafottente senza avere qualcosa di certo in mano. Magari ancora non è pronto e disponibile in massa... ma non vedere l’epic win che si sta prospettando è possibile soltanto per fanboyismo o malafede.
AMD ha la carta vincente in mano per questa generazione, nVidia o non vuole dannarsi più di tanto anche perché il mercato high end gaming non credo faccia i numeri per farglielo fare. Si prendono ARM, il settore pro dove l’epic win è CUDA e non devono dannarsi l’anima per qualche manciata di FPS su giochi programmati con i piedi. Ci sta come strategia e sicuramente non vanno a perdere in profitti, tanto bene o male saranno pari o poco sotto la concorrenza.
"could be an advantage if Microsoft succeeds in implementing AN equivalent to Nvidia’s DLSS"
Condizionale + articolo indeterminativo, quindi non fa riferimento a nulla di specifico, nè specifica eventuali tempistiche.
i se e i ma li vedrai nei prossimi giorni, quando troverai notizie di patch sui "vecchi" giochi con DXR.
per le tempistiche, fai un po' te:
per il DLSS 6 mesi fa erano disponibili 22 giochi
https://wccftech.com/geforce-now-gets-nvidia-dlss-2-0-support-and-21-new-games/
in 2 anni sono manco 1 al mese e qui, per usare quelle tecnologie, ci dev'essere l'HW che verrà commercializzato tra un mese (sia console che GPU discrete).
nickname88
02-11-2020, 11:32
Quando finirai di trollare e
Uno non fa una presentazione così strafottente senza avere qualcosa di certo in mano.
Io trollo perchè non faccio supposizioni come te ?
Io di certo non trovo nulla.
Io trollo perchè non faccio supposizioni come te ?
Io di certo non trovo nulla.
e nemmeno lo troverai, almeno fino alla effettiva messa in commercio di xbox serie X e RX 6000.
si son stufati di farsi frugare nei propri progetti per dare vantaggio alla concorrenza.
quando sarà pronto lo saprai.
se lo vuoi sapere prima, faresti meglio a mandare il tuo CV ad AMD o Microsoft.
Parlando di DLSS vi sta sfuggendo l'argomento principale della presentazione. Ricorda un pò la presentazione di Ryzen in effetti, quando molti dicevano "bello, ma Intel è ancora avanti in single core ecc..", senza vedere che AMD aveva preso la strada del successo inevitabile con un'architettura (attenzione non microarchitettura) innovativa.
In questo caso AMD ha presentato 3 schede della stessa dimensione e TDP, con la top gamma che pareggia la top gamma di Nvidia (parlo di potenza hw, il sw viene dopo). La differenza è che la RTX 3090 è un prodotto "halo", con consumi, dimensioni e prezzo eccessivi. Questa secondo me è una prova di forza da parte di AMD, che dimostra di non dover nemmeno "tirare per i capelli" la propria architettura per competere (da notare le frecciatine riguardo alimentazione e dimensione durante la presentazione).
Parlando di software (rt, dlss, ecc) sappiamo tutti cosa gira sulle console next gen e su cosa si concentreranno gli sforzi degli sviluppatori... quindi ci sono pochi dubbi sul fatto che l'eventuale gap (lato software) verrà colmato.
In tutto questo aspettiamoci anche la capacità di esecuzione mostrata da AMD con ZEN e il quadro è fatto.
Chi non vede l'attuale momento di flessione di Nvidia è al pari di chi non lo vedeva per Intel qualche anno fa (a dire il vero c'è chi non lo vede nemmeno ora :asd: ).
digieffe
02-11-2020, 13:26
grazie, ne capisco sempre un po' di più
potreste fornirmi una informazione "quasi" inutile, ovvero i valori nominali (so che servono a poco ma vorrei intuire come sono cambiate le architetture) di TF in FP32 della 3900x e della 6900x?
es.
3900x = 8-10k SP x 1.5-2.0ghz x 2 (fma?) = 40TF? (mi sembrano troppi)
6900x = 5k SP x 2.0-2.2ghz x 2 (fma?) ? 22TF?
E si, quello che sta portando avanti AMD è esattamente quello che fa il DLSS solo che non è proprietario ma open, non so come dirtelo oramai. E come puoi dire che non sia stato un punto focale se hanno portato alla presentazione anche rappresentanti delle SH a spiegarlo???
Diciamo che avrei voluto qualcosa di più che fidarmi della tua parola ;)
Purtroppo non ce la faccia a vedermi la presentazione, per questo ti ho chiesto almeno di indicarmi a che punto ne parlavano.
Ritengo comunque strano che ne abbiano parlato nella presentazione ma gli articoli su queste schede non riportino in bella mostra la notizia, vista la sua importanza. Da qui sono partiti i miei dubbi.
Ad ogni modo non è solo questione di avere una tecnologia equivalente, ma di quanto questa tecnologia sia efficace. Certo, con una tecnologia open che coinvolta altri grandi attori del campo (Microsoft, Intel, Qualcomm, ecc...) le possibilità di fare qualcosa di buono ci sarebbero, ma non mi pare che per ora abbiano annunciato nulla del genere. Speriamo bene.
potreste fornirmi una informazione "quasi" inutile, ovvero i valori nominali (so che servono a poco ma vorrei intuire come sono cambiate le architetture) di TF in FP32 della 3900x e della 6900x?
Considera che l'architettura nVidia è molto sbilanciata sul calcolo delle unità generiche, il che è un vantaggio in certi ambiti più che nel gaming.
grazie, ne capisco sempre un po' di più
potreste fornirmi una informazione "quasi" inutile, ovvero i valori nominali (so che servono a poco ma vorrei intuire come sono cambiate le architetture) di TF in FP32 della 3900x e della 6900x?
es.
3900x = 8-10k SP x 1.5-2.0ghz x 2 (fma?) = 40TF? (mi sembrano troppi)
6900x = 5k SP x 2.0-2.2ghz x 2 (fma?) ? 22TF?
Fortunatamente qualcuno ha già fatto i calcoli.
Vedi sezione "Theoretical Performance"
https://www.techpowerup.com/gpu-specs/radeon-rx-6900-xt.c3481
https://www.techpowerup.com/gpu-specs/geforce-rtx-3090.c3622
Come vedi fp32 è l'unico ambito in cui nvidia offre prestazioni teoriche superiori, ma questo è bilanciato da fp16 e fp64.
Purtroppo non ce la faccia a vedermi la presentazione, per questo ti ho chiesto almeno di indicarmi a che punto ne parlavano.
dura 25 minuti e lo stai chiedendo da un giorno...
grazie, ne capisco sempre un po' di più
potreste fornirmi una informazione "quasi" inutile, ovvero i valori nominali (so che servono a poco ma vorrei intuire come sono cambiate le architetture) di TF in FP32 della 3900x e della 6900x?
es.
3900x = 8-10k SP x 1.5-2.0ghz x 2 (fma?) = 40TF? (mi sembrano troppi)
6900x = 5k SP x 2.0-2.2ghz x 2 (fma?) ? 22TF?
la potenza teorica non ti indica granché, sia perchè misura esclusivamente la migliore teorica prestazione con FP32, sia perchè in un gioco non usi solo FP32, sia perchè qui viene contata una singola operazione semplice per ciclo di clock per pipeline, ma le GPU eseguono gruppi di istruzioni e quelle richiedono molti più cicli di esecuzione, che possono variare da architettura ad architettura (propriamente è l'IPC, anche se questo valore viene normalizzato poi al singolo clock ed è quindi un altro parametro che da solo non ti indica nulla di ché).
cronos1990
02-11-2020, 14:26
Fortunatamente qualcuno ha già fatto i calcoli.
Vedi sezione "Theoretical Performance"
https://www.techpowerup.com/gpu-specs/radeon-rx-6900-xt.c3481
https://www.techpowerup.com/gpu-specs/geforce-rtx-3090.c3622
Come vedi fp32 è l'unico ambito in cui nvidia offre prestazioni teoriche superiori, ma questo è bilanciato da fp16 e fp64.Visti i dati grezzi in questo modo, è interessante la cosa.
A livello "tecnico" la 6900XT è inferiore in tutto e per tutto alla 3090, ma come prestazioni "teoriche" è davanti alla 3090 in tutte le situazioni ad esclusione dell'FP32.
Se le slide AMD risulteranno attendibili riguardo alle prestazioni, possiamo teoricamente parlare di un'architettura superiore a quella Nvidia.
Io comunque rimango in attesa delle prove sul campo.
Parlando di DLSS vi sta sfuggendo l'argomento principale della presentazione. Ricorda un pò la presentazione di Ryzen in effetti, quando molti dicevano "bello, ma Intel è ancora avanti in single core ecc..", senza vedere che AMD aveva preso la strada del successo inevitabile con un'architettura (attenzione non microarchitettura) innovativa.
In questo caso AMD ha presentato 3 schede della stessa dimensione e TDP, con la top gamma che pareggia la top gamma di Nvidia (parlo di potenza hw, il sw viene dopo). La differenza è che la RTX 3090 è un prodotto "halo", con consumi, dimensioni e prezzo eccessivi. Questa secondo me è una prova di forza da parte di AMD, che dimostra di non dover nemmeno "tirare per i capelli" la propria architettura per competere (da notare le frecciatine riguardo alimentazione e dimensione durante la presentazione).
Parlando di software (rt, dlss, ecc) sappiamo tutti cosa gira sulle console next gen e su cosa si concentreranno gli sforzi degli sviluppatori... quindi ci sono pochi dubbi sul fatto che l'eventuale gap (lato software) verrà colmato.
In tutto questo aspettiamoci anche la capacità di esecuzione mostrata da AMD con ZEN e il quadro è fatto.
Chi non vede l'attuale momento di flessione di Nvidia è al pari di chi non lo vedeva per Intel qualche anno fa (a dire il vero c'è chi non lo vede nemmeno ora :asd: ).
quoto in tutto e per tutto, direi che questo è il commento definitivo.
Abbastanza normale che AMD ad oggi non posso mostrare benchmark con DLSS attivo, in quanto quest'ultima è tecnologia proprietaria Nvidia a supporto di quei 4-5 titoli accreditati.
bonzoxxx
02-11-2020, 15:10
Parlando di DLSS vi sta sfuggendo l'argomento principale della presentazione. Ricorda un pò la presentazione di Ryzen in effetti, quando molti dicevano "bello, ma Intel è ancora avanti in single core ecc..", senza vedere che AMD aveva preso la strada del successo inevitabile con un'architettura (attenzione non microarchitettura) innovativa.
In questo caso AMD ha presentato 3 schede della stessa dimensione e TDP, con la top gamma che pareggia la top gamma di Nvidia (parlo di potenza hw, il sw viene dopo). La differenza è che la RTX 3090 è un prodotto "halo", con consumi, dimensioni e prezzo eccessivi. Questa secondo me è una prova di forza da parte di AMD, che dimostra di non dover nemmeno "tirare per i capelli" la propria architettura per competere (da notare le frecciatine riguardo alimentazione e dimensione durante la presentazione).
Parlando di software (rt, dlss, ecc) sappiamo tutti cosa gira sulle console next gen e su cosa si concentreranno gli sforzi degli sviluppatori... quindi ci sono pochi dubbi sul fatto che l'eventuale gap (lato software) verrà colmato.
In tutto questo aspettiamoci anche la capacità di esecuzione mostrata da AMD con ZEN e il quadro è fatto.
Chi non vede l'attuale momento di flessione di Nvidia è al pari di chi non lo vedeva per Intel qualche anno fa (a dire il vero c'è chi non lo vede nemmeno ora :asd: ).
Concordo al 100%
Visti i dati grezzi in questo modo, è interessante la cosa.
A livello "tecnico" la 6900XT è inferiore in tutto e per tutto alla 3090, ma come prestazioni "teoriche" è davanti alla 3090 in tutte le situazioni ad esclusione dell'FP32.
Se le slide AMD risulteranno attendibili riguardo alle prestazioni, possiamo teoricamente parlare di un'architettura superiore a quella Nvidia.
Io comunque rimango in attesa delle prove sul campo.
la 3090 non dovrebbe essere considerata in teoria come una scheda Gaming mi pare.
comunque attendiamo le recensioni.
HwWizzard
02-11-2020, 17:40
Diciamo che avrei voluto qualcosa di più che fidarmi della tua parola ;)
Purtroppo non ce la faccia a vedermi la presentazione, per questo ti ho chiesto almeno di indicarmi a che punto ne parlavano.
Ritengo comunque strano che ne abbiano parlato nella presentazione ma gli articoli su queste schede non riportino in bella mostra la notizia, vista la sua importanza. Da qui sono partiti i miei dubbi.
Ad ogni modo non è solo questione di avere una tecnologia equivalente, ma di quanto questa tecnologia sia efficace. Certo, con una tecnologia open che coinvolta altri grandi attori del campo (Microsoft, Intel, Qualcomm, ecc...) le possibilità di fare qualcosa di buono ci sarebbero, ma non mi pare che per ora abbiano annunciato nulla del genere. Speriamo bene.
Più di avere rappresentanti delle SH che sviluppano i giochi a far vedere cosa tali feature possono portare e dirti che ci sono già 35 titoli in uscita cosa vuoi esattamente???
Non devi mica credere alla mia parola, ma a quello che è stato detto e mostrato ad una presentazione di pubblico dominio che continui a non voler vedere.
HwWizzard
02-11-2020, 17:51
la 3090 non dovrebbe essere considerata in teoria come una scheda Gaming mi pare.
comunque attendiamo le recensioni.
Credo che anche qui sarà una mossa di marketing, se non la volevano considerare gaming a priori la chiamavano Titan... ma visto che si aspettavano lo scherzetto 6900XT si sono lasciati la porta aperta.
Se la 3090 rimarrà sopra vedrai che la definiranno The Ultimate Gaming Solution, altrimenti continueranno a posizionarla come ora, cioè non si sa dove:D
... che continui a non voler vedere.
Non che non voglio, ma che non ho il tempo di vedere (sembra strano eh, ma quando hai i minuti contati... riesco a perdere giusto qualche minuto per volta per queste risposte).
Del resto il fatto che nessuno mi abbia indicato almeno a quale minuto ne parlano per me è abbastanza sospetto (forse non dicono proprio quel che affermate?), ma visto che non ho il tempo di vederla tutta rimarrò col dubbio.
A me interessa solo sapere che la tecnologia c'è e che la resa è almeno equivalente al DLSS. Se AMD la sviluppasse insieme agli altri grandi attori di questo mercato lo troverei un ottimo motivo per avere fiducia nella riuscita del progetto, il fatto che ci siano 35 titoli in uscita significa poco.
HwWizzard
02-11-2020, 20:39
Non che non voglio, ma che non ho il tempo di vedere (sembra strano eh, ma quando hai i minuti contati... riesco a perdere giusto qualche minuto per volta per queste risposte).
Del resto il fatto che nessuno mi abbia indicato almeno a quale minuto ne parlano per me è abbastanza sospetto (forse non dicono proprio quel che affermate?), ma visto che non ho il tempo di vederla tutta rimarrò col dubbio.
A me interessa solo sapere che la tecnologia c'è e che la resa è almeno equivalente al DLSS. Se AMD la sviluppasse insieme agli altri grandi attori di questo mercato lo troverei un ottimo motivo per avere fiducia nella riuscita del progetto, il fatto che ci siano 35 titoli in uscita significa poco.
Cioè dirti che tutte le maggiori SH lo sviluppano assieme ad AMD con tanto di partecipazione alla presentazione e con 35 titoli in uscita contro i 4 di DLSS per te significa poco?
Io ci rinuncio, per me finisce qui.
la 3090 non dovrebbe essere considerata in teoria come una scheda Gaming mi pare.
comunque attendiamo le recensioni.
Credo che anche qui sarà una mossa di marketing, se non la volevano considerare gaming a priori la chiamavano Titan... ma visto che si aspettavano lo scherzetto 6900XT si sono lasciati la porta aperta.
Se la 3090 rimarrà sopra vedrai che la definiranno The Ultimate Gaming Solution, altrimenti continueranno a posizionarla come ora, cioè non si sa dove:D
https://www.nvidia.com/en-us/geforce/graphics-cards/30-series/rtx-3090/
The GeForce RTX™ 3090 is a big ferocious GPU (BFGPU) with TITAN class performance. It’s powered by Ampere—NVIDIA’s 2nd gen RTX architecture—doubling down on ray tracing and AI performance with enhanced Ray Tracing (RT) Cores, Tensor Cores, and new streaming multiprocessors. Plus, it features a staggering 24 GB of G6X memory, all to deliver the ultimate gaming experience.
Visti i dati grezzi in questo modo, è interessante la cosa.
A livello "tecnico" la 6900XT è inferiore in tutto e per tutto alla 3090, ma come prestazioni "teoriche" è davanti alla 3090 in tutte le situazioni ad esclusione dell'FP32.
Se le slide AMD risulteranno attendibili riguardo alle prestazioni, possiamo teoricamente parlare di un'architettura superiore a quella Nvidia.
Io comunque rimango in attesa delle prove sul campo.
Inferiore in tutto a livello tecnico? Hai dato un'occhiata alle frequenze?
cronos1990
02-11-2020, 21:17
Inferiore in tutto a livello tecnico? Hai dato un'occhiata alle frequenze?Siamo puntigliosi e permalosi stasera?
TRANNE le frequenze (che comunque non rientra neanche nel discorso hardware stretto) tutti gli altri numeri sono inferiori.
Siamo puntigliosi e permalosi stasera?
TRANNE le frequenze (che comunque non rientra neanche nel discorso hardware stretto) tutti gli altri numeri sono inferiori.
Non è questione di permalosità, ti ho soltanto fatto notare che ciò che hai scritto non è esatto. E comunque fanno parte del discorso hardware al 100%
Insert coin
03-11-2020, 09:15
Quale sarà la scheda video della fascia media per antonomasia?
cronos1990
03-11-2020, 10:07
Non è questione di permalosità, ti ho soltanto fatto notare che ciò che hai scritto non è esatto. E comunque fanno parte del discorso hardware al 100%La frequenza non fa parte dell'architettura Hardware, ma è uno dei risultati prestazionali che può raggiungere la scheda tanto quanto il numero di TFLOPS.
Quindi se vogliamo essere precisi, non rientra nello schema tecnico della scheda video.
Per la fascia media, sia verde che rossa, ripassare a inizio 2021.
Qualcuno potrebbe considere 3070 o 6800 fascia media, ma per me 600 euro di scheda non sono fascia media.
Per me la fascia media è una scheda video che da nuova costa tra i 300 e i 500 euro (3-4 anni fa avrei detto 200-400).
Cioè dirti che tutte le maggiori SH lo sviluppano assieme ad AMD con tanto di partecipazione alla presentazione e con 35 titoli in uscita contro i 4 di DLSS per te significa poco?
Significa poco perchè non mi dice nulla sulla reale qualità della tecnologia.
Ma non ho fretta, quando ci sarà e usciranno le varie recensioni potrò farmene un'idea più chiara.
Per il momento mi dispiace solo che AMD non abbia colmato questa lacuna, speravo che con l'uscita delle nuove schede avremmo visto qualcosa di concreto.
cronos1990
04-11-2020, 08:33
Significa poco perchè non mi dice nulla sulla reale qualità della tecnologia.
Ma non ho fretta, quando ci sarà e usciranno le varie recensioni potrò farmene un'idea più chiara.
Per il momento mi dispiace solo che AMD non abbia colmato questa lacuna, speravo che con l'uscita delle nuove schede avremmo visto qualcosa di concreto.AMD ha già la sua tecnologia analoga al DLSS, che a differenza del DLSS si basa sulle DirectML e quindi sarà accessibile a chiunque.
Il fatto è che AMD era al "palo" in ambito GPU da almeno 2 anni, e solo l'anno scorso ha iniziato a rientrare in vera competizione con Nvidia, con la 5700XT. Giustamente era inutile tirare fuori la loro tecnologia l'anno scorso quando ancora adesso è in fase di rifinitura.
Nvidia ha semplicemente approfittato dell'assenza della concorrenza per buttare fuori il prima possibile la sua tecnologia (diciamola tutta: ha anticipato i tempi per aggredire il mercato)... eppure come ti hanno ricordato ci sono un numero di titoli con il DLSS che si contano sulle dita di una mano, mentre la Super Resolution sarà disponibile su molti più giochi fin dal momento in cui sarà disponibile.
Poi quale sarà la tecnologia migliore è da verificare... ma già in passato Nvidia ha provato più volte a far prevalere le sue tecnologie proprietarie, e ogni volta si sono rivelate features che hanno resistito per un breve lasso di tempo e con un impatto marginale, superate nel frattempo da tecnologie di natura "open", che sono di più facile accesso, maggiormente espandibili dato che le possono usare tutti, con meno costi per la produzione e concedendo maggior libertà al consumatore che così non è vincolato ad un marchio.
bonzoxxx
04-11-2020, 10:39
Dato che le console saranno basate su RDNA2, credo sia legittimo aspettarsi un'adozione delle tecnologia AMD sui giochi per pc, soprattutto perché dichiarati open, piuttosto che quelli proprietari nVidia; che poi uno sia migliore dell'altro bisognerà vedere i test, al momento non lo possiamo sapere.
Fascia media credo saranno una 3060 liscia come lo è stata la 1060 liscia accoppiata ad una ipotetica RX6600, roba intorno, spero, ai 400€ o giù di li
nickname88
04-11-2020, 10:39
AMD ha già la sua tecnologia analoga al DLSS, che a differenza del DLSS si basa sulle DirectML e quindi sarà accessibile a chiunque.Il problema è se funzionerà o meno bene quanto il DLSS2, perchè ti ricordo che il DLSS1 qualitativamente era tutt'altra cosa.
Inoltre la data di arrivo è ancora estranea e non è detto che esca in questa generazione.
ci sono un numero di titoli con il DLSS che si contano sulle dita di una manoSono un po' di più in realtà
E fra questi in grassetto quelli che in 4K pesano da far girare.
Control
Final Fantasy XV
Wolfenstein YB
CyberPunk 2077
COD Cold War
COD Modern Warfare
Monster Hunter
BF V
Metro Exodus
Shadow of the Tomb Raider
Anthem
Deliver Us The Moon
Watch Dogs Legion
F1 2020
Minecraft
Justice
Marvel Avengers
Mechwarrior 5
Death Stranding
Fortnite
Boundary
Bright Memory Infinite
Ready or Not
Scavengers
Amid Evil
ARK Survival Evolved
Atomic Heart
Boundary
Darksiders 3
Dauntless
Fear the Wolves
Fractured Lands
Hellblade: Senua's Sacrifice
Hitman 2
Islands of Nyne: Battle Royale
JX3
Kinetik
Outpost Zero
PlayerUnknown's Battlegrounds
Remnant: From the Ashes
Scum
Serious Sam 4: Planet Badass
Stormdivers
The Forge Arena
Vampire: The Masquerade - Bloodlines 2
We Happy Few
AMD ha già la sua tecnologia analoga al DLSS, che a differenza del DLSS si basa sulle DirectML e quindi sarà accessibile a chiunque.
Aspetta... in che senso "ha già"? Perché finora si parlava di una tecnologia su cui non si sa molto e che deve ancora uscire. Si potrà dire che la "ha già" quando sarà disponibili all'utilizzo.
Per la questione dell' "open" con me sfondi una porta aperta, sono un forte sostenitore dell'utilizzo di tecnologie open e ampiamente condivise dove la differenza viene fatta dall'implementazione, perchè i primi beneficiari di questo approccio sono gli utenti.
Al momento però l'unica tecnologia che ho visto in azione non lo è e credo tutti sappiamo bene che nVidia non condividerà mai nulla, quindi AMD dovrà lavorare bene per ottenere risultati adeguati. E risultati paragonabili alla prima incarnazione di DLSS non lo sono.
cronos1990
05-11-2020, 08:33
Aspetta... in che senso "ha già"? Perché finora si parlava di una tecnologia su cui non si sa molto e che deve ancora uscire. Si potrà dire che la "ha già" quando sarà disponibili all'utilizzo. Inteso che AMD ce l'ha già pronta, avrà al massimo da rifinire alcuni particolari.
Che ancora non sia "sul mercato" è evidente, ma credo che non mancherà molto, probabile che presenti il RA il... 16 Novembre mi pare che è la data della presentazione delle schede. Anche perchè le 60xx saranno le prime schede ad usufruire del RA, comunque non avrebbe senso averlo già inserito e pubblicizzato senza poterlo sfruttare (oddio, non ho idea se potrebbe funzionare anche su schede precedenti come la mia 5700XT, la logica mi dice di si anche se in questo caso non è una scheda con core dedicati per il RT. E nel pratico DLSS/RA sono usati a supporto del RT).
Come ricorda poi bonzoxxx le console montano tutte hardware AMD, e sono le Console che trainano il mercato. Dubito che in tutti gli ultimi mesi le SH non abbiano lavorato usando certe tecnologie per implementarle nei giochi che vedremo da qui a poco.
A meno di eventi strani, siamo in dirittura d'arrivo.
nickname88
05-11-2020, 10:43
Inteso che AMD ce l'ha già pronta, avrà al massimo da rifinire alcuni particolari.
Che ancora non sia "sul mercato" è evidente, ma credo che non mancherà molto, probabile che presenti il RA il... 16 Novembre mi pare che è la data della presentazione delle schede. Anche perchè le 60xx saranno le prime schede ad usufruire del RA, comunque non avrebbe senso averlo già inserito e pubblicizzato senza poterlo sfruttare (oddio, non ho idea se potrebbe funzionare anche su schede precedenti come la mia 5700XT, la logica mi dice di si anche se in questo caso non è una scheda con core dedicati per il RT. E nel pratico DLSS/RA sono usati a supporto del RT).
Come ricorda poi bonzoxxx le console montano tutte hardware AMD, e sono le Console che trainano il mercato. Dubito che in tutti gli ultimi mesi le SH non abbiano lavorato usando certe tecnologie per implementarle nei giochi che vedremo da qui a poco.
A meno di eventi strani, siamo in dirittura d'arrivo.
Già pronta ? AMD stessa ha dichiarato invece che non ha una data, quale è la tua fonte ?
E DirectML non comprende mica l'AI, quella è da sviluppare esternamente.
Il DLSS come viene affermato sfrutta la potenza dei supercomputer NVIDIA per addestrare e migliorare il modello IA, che viene poi importato tramite drivers. Quindi è inutile che citi in continuazione questo DirectML come fosse il santo graal o come se automaticamente garantisse gli stessi risultati.
Come ricorda poi bonzoxxx le console montano tutte hardware AMD, e sono le Console che trainano il mercato. Dubito che in tutti gli ultimi mesi le SH non abbiano lavorato usando certe tecnologie per implementarle nei giochi che vedremo da qui a poco.Lavorarci è un conto, terminare il lavoro in questo periodo è un altro, le console hanno una vita molto più lunga di quella di una VGA. Non sta scritto da nessuna parte che vedremo questo Super Resolution in azione a breve, nè che vedremo risultati positivi quando uscirà.
Inteso che AMD ce l'ha già pronta, avrà al massimo da rifinire alcuni particolari.
Considera che avevi scritto prima di leggere l'altro articolo sull'argomento, quindi la presunta tecnologia di AMD ancora non sapevo avesse neppure un nome ;)
E DirectML non comprende mica l'AI, quella è da sviluppare esternamente.
Chiariamo un punto: DirectML è l'acronimo per Direct Machine Learning, quindi di intelligenza artificiale si sta parlando.
AMD sta usando DirectML per addestrare la propria intelligenza artificiale che dovrà eseguire questa "Super Resolution", ossia il corrispettivo al DLSS di Nvidia.
Questa tecnologia sappiamo non essere ancora pronta, non vi è al momento una data in cui lo sarà e non sappiamo se sarà all'altezza di DLSS (nella versione attuale o se ci sarà in una sua evoluzione nel momento in cui la tecnologia AMD uscirà), e pare non disponga di hardware dedicato su RDNA2 (ma non è detto che l'architettura possa processare comunque abbastanza bene questo genere di operazioni).
Sappiamo ora che ha un nome, che sarà una tecnologia open (quindi immagino che il modello dell'AI verrà rilasciato pubblicamente) e che verrà utilizzata anche dalle consolle.
Non ci resta che attendere. Io mi auguravo che AMD potesse avere qualcosa di pronto per l'uscita di queste schede, invece toccherà aspettare.
Per come la vedo io è una pecca di rilievo per le nuove schede AMD.
nickname88
05-11-2020, 11:41
Chiariamo un punto: DirectML è l'acronimo per Direct Machine Learning, quindi di intelligenza artificiale si sta parlando.
AMD sta usando DirectML per addestrare la propria intelligenza artificiale che dovrà eseguire questa "Super Resolution", ossia il corrispettivo al DLSS di Nvidia.
"Direct Machine Learning (DirectML) is a low-level API for machine learning"
L'AI è ancora da definire e senza quest'ultima DirectML non significa nulla, è come un auto senza il motore.
e pare non disponga di hardware dedicatoChe porterà a performance inferiori.
cronos1990
05-11-2020, 12:18
Considera che avevi scritto prima di leggere l'altro articolo sull'argomento, quindi la presunta tecnologia di AMD ancora non sapevo avesse neppure un nome ;)Il nome ce l'ha, molto probabilmente la vedremo sulle nuove console.
Poi certo, se gli manca 1 mese o 10 mesi per metterla a punto lo sanno solo loro, si fanno ipotesi. Ma dubito che con le nuove console pronte all'uscita e le stesse nuove GPU siano in alto mare, sarebbe piuttosto clamoroso. Per avere certezze dovremmo aspettare l'uscita delle 6xxx secondo me.
nickname88
05-11-2020, 12:36
Il nome ce l'ha, molto probabilmente la vedremo sulle nuove console.
Poi certo, se gli manca 1 mese o 10 mesi per metterla a punto lo sanno solo loro, si fanno ipotesi. Ma dubito che con le nuove console pronte all'uscita e le stesse nuove GPU siano in alto mare, sarebbe piuttosto clamoroso. Per avere certezze dovremmo aspettare l'uscita delle 6xxx secondo me.
Sembra che tu sappia per certo che debba uscire in questa generazione di VGA.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.