View Full Version : La controrisposta di AMD: schede Radeon Big Navi con 16 GB a prezzi aggressivi
Redazione di Hardware Upg
08-09-2020, 10:01
Link alla notizia: https://www.hwupgrade.it/news/skvideo/la-controrisposta-di-amd-schede-radeon-big-navi-con-16-gb-a-prezzi-aggressivi_91870.html
Mentre si attende il debutto sul mercato delle prime schede NVIDIA GeForce RTX 3080, AMD prepara il lancio delle schede Radeon con architettura RDNA 2 note con il nome di Big Navi: più memoria e prezzi concorrenziali per contrastare la concorrenza?
Click sul link per visualizzare la notizia.
Attendiamo di vedere il livello della risposta AMD alla serie 3000
Ale55andr0
08-09-2020, 10:35
forza lisona, ESCILE! (le schede :stordita: )
gd350turbo
08-09-2020, 10:36
Attendiamo di vedere il livello della risposta AMD alla serie 3000
Comunque...
Tra questa e nvidia, secondo me, hanno dato una bella mazzata alle schede "vecchie", aspettiamo e vediamo.
La 5700 XT non fa una piega a 2k/144Hz ma seguo volentieri gli sviluppi
cronos1990
08-09-2020, 10:53
La 5700 XT non fa una piega a 2k/144Hz ma seguo volentieri gli sviluppiHo una 5700XT e mi ci trovo molto bene, ma è palesemente una scheda di "passaggio" tra la vecchia e la nuova generazione.
Ho una 5700XT e mi ci trovo molto bene, ma è palesemente una scheda di "passaggio" tra la vecchia e la nuova generazione.
Cosa intendi?
Si ma sempre in ritardo, cosi` i soldi non si fanno.
Ok, sembra consumare troppo questa gen nvidia, e ha poca ram, ma onestamente lanciare alternative a cio` che nvidia lancia in quella fascia ad un 10% in meno di prezzo secondo me non vende, e` tardi.
AMD non ha mai venduto molto in fascia alta, anche quando offriva prestazioni e performance migliori.
Quello che mi sarei aspettato erano prestazioni da 5700xt nella fascia 200/300 euro con magari migliorie architetturali e di consumi, quello si che venderebbe.
Ma l'alternativa a cio` che Nvidia sta gia` lanciando e volendo ti compri usato a prezzi piuttosto abbordabili mesi e mesi in ritardo...ma no..
cronos1990
08-09-2020, 11:14
Cosa intendi?Le nuove GPU (Nvidia e AMD) promettono innalzamenti prestazionali evidenti, e guarda caso la loro uscita è in concomitanza delle nuove console (anch'esse con notevoli incrementi) e in un periodo nel quale tecnologie quali l'RT prenderanno finalmente piede su larga scala.
Al tempo stesso i motori di gioco e soprattutto il lavoro che andranno a fare le SH porteranno alla produzione di videogiochi che avranno miglioramenti notevoli sotto molti punti di vista, ovviamente in relazione al nuovo hardware e possibilità messe a disposizione; il che vorrà dire, ovviamente, giochi più esosi.
Siamo in parole povere di fronte ad un salto generazionale sotto tutti i punti di vista, che porterà (a meno di imprevisti) ad uno step evolutivo dei giochi, almeno sotto il punto di vista tecnico (su quello del gameplay credo che andremo in senso opposto).
La 5700XT è uscita l'anno scorso, ovvero in un momento di transizione dove le console si stavano approssimando a fine vita, e le schede video prodotte negli ultimi due anni erano sostanzialmente rimaste stabili come prestazioni (la serie 20xx di Nvidia, se si esclude la 2080Ti, non ha prestazioni tanto dissimili dalla 10xx. L'introduzione di rilievo è stato l'RT, ma chiaramente in stato embrionale).
Una scheda che, per quanto buona (io ci gioco in 2K a tutto, al momento) era comunque inferiore ad almeno 4 modelli di schede Nvidia sul mercato, alcune da parecchio tempo. E' ovvio che l'hanno fatta uscire per tamponare la situazione e poter dire: Ci siamo anche noi. In attesa delle Big Navi che usciranno a breve.
AMD punta sicuramente a rilanciare la sfida con Nvidia adesso, non certo un anno fa. E la 5700XT è figlia di una progettazione che si adatta appunto a questo periodo di transizione. Nel momento in cui i giochi inizieranno a sfruttare degnamente il nuovo hardware, una scheda come la 5700XT potrebbe mostrare il fianco.
Per il semplice fatto che la sua potenza è nettamente inferiore alle nuove schede, e se guardiamo in termini di TFLOPS anche alle nuove console. E, oltretutto, manca del RT che, come detto, probabilmente prenderà largamente piede. E i giochi tutta quella potenza in più che manca alla 5700XT, la sfrutteranno. Vuoi perchè possono, vuoi perchè spinti dai produttori hardware, vuoi perchè anche in un mondo materialistico come il nostro comunque la gente vive di passioni, e un programmatore sicuramente andrà in "brodo di giuggiole" avendo a disposizione strumenti più potenti, o nuovi, da poter sfruttare.
nickname88
08-09-2020, 11:16
Grande strategia, Nvidia sta cominciando a cannibalizzare il mercato e loro non mostrano manco un leak sulle performance :rolleyes:
Non so, siamo ancora lontani dal ray tracing come alternativa al rendering poligonale
Per ora la vedo come una feature in stile ageia
Alla fine la fisica realistica dei tessuti, indumenti e capelli nei giochi è stata un po' accantonata ultimamente
Io non sono d'accordo con questa visione. La controrisposta è stata di nVidia e non di AMD.
L'architettura RDNA2 è ormai disponibile da mesi alla SW che sviluppano giochi. Ed è plausibile ipotizzare che nVidia abbia avuto in modo diretto o indiretto accesso alle stazione di sviluppo fornita da Sony e Microsoft. Per cui ha potuto misurare con una certa precisione le potenzialità della architettura AMD.
Certamente dopo i test nVidia non ha cambiato l'achitettura, ma sicuramente ha potuto scegliere il posizionamento economico.
Come detto in precedenza, io ritengo che le posizioni saranno immutate. nVidia leader delle prestazioni, AMD leader del rapporto prezzo/prestazioni
Anche io sto seguendo volentieri gli sviluppi, la mia vega 56 a gennaio fa 2 anni e, anche se in realtà mi trovo benissimo a 1440p 144Hz (per fortuna non sono tipo da Tripla A, ma per cyberpunk farò una eccezione e dovrò senz'altro scendere a compromessi), potrei effettuare un upgrade più per scimmia che per reale necessità :asd:
Già le 3070 a 520 euro mi stuzzicano, a una eventuale 6700xt che va poco meno a 400-450 euro sarebbe difficile resistere (anche se queste che presentano dovrebbero essere superiori per performance e prezzo).
cronos1990
08-09-2020, 11:22
Non so, siamo ancora lontani dal ray tracing come alternativa al rendering poligonale
Per ora la vedo come una feature in stile ageia
Alla fine la fisica realistica dei tessuti, indumenti e capelli nei giochi è stata un po' accantonata ultimamenteVeramente no.
Tanto per cominciare, l'RT sarà presente già sulle nuove console (e sono loro il veicolo principale di diffusione in campo videoludico, piaccia o non piaccia). Inoltre la tecnologia DLSS di Nvidia, peraltro affinata come tutto il resto, ha dimostrato di poter permettere il RT anche su schede di fascia media (per lo meno la nuova fascia media) pur mantenendo buone prestazioni.
Ma basta che guardi i giochi in produzione o in uscita tra qualche mese, bene o male in molti stanno implementando il RT e gli stessi engine si sono già adattati.
E comunque, il RT non centra nulla con il rendering poligonale o la fisica. Il RT riguarda l'illuminazione. Oltre a non essere l'unico elemento sul piatto.
puppatroccolo
08-09-2020, 11:27
Amd che se la gioca con la 3080? Non ci credo nemmeno se lo vedo, o meglio potrebbero farlo con una scheda che consuma 700W... A questo giro sento puzza di flop totale.
Veramente no.
Tanto per cominciare, l'RT sarà presente già sulle nuove console (e sono loro il veicolo principale di diffusione in campo videoludico, piaccia o non piaccia). Inoltre la tecnologia DLSS di Nvidia, peraltro affinata come tutto il resto, ha dimostrato di poter permettere il RT anche su schede di fascia media (per lo meno la nuova fascia media) pur mantenendo buone prestazioni.
Ma basta che guardi i giochi in produzione o in uscita tra qualche mese, bene o male in molti stanno implementando il RT e gli stessi engine si sono già adattati.
E comunque, il RT non centra nulla con il rendering poligonale o la fisica. Il RT riguarda l'illuminazione. Oltre a non essere l'unico elemento sul piatto.
Hai frainteso un po' il discorso
Ho parlato della fisica come esempio
Ed ho detto che il ray tracing come alternativa al rendering poligonale è ancora lontano
L'RT come tu stesso dici è un'implementazione del ray tracing per qualche dettaglio in più (illuminazione e quindi riflessi, etc)
Ma lo stravolgimento è lontano anche se si considera il DLSS
StylezZz`
08-09-2020, 11:48
Vero è che le prestazioni con raytracing sono migliorate con le nuove schede, ma va sempre considerato che con il raytracing attivo abbiamo comunque prestazioni di pochissimo superiori o addirittura uguali alle schede attuali senza rt.
Quindi in conclusione, se i nuovi giochi non porteranno miglioramenti o grosse differenze dal punto di vista visivo, rimane uno specchietto per le allodole, anche se sarò felice di sbagliarmi, gli ultimi video di cyberpunk sono interessanti ma non ho ancora visto una comparativa RT ON/OFF, chissà perché :rolleyes:
Aspetto di vedere la presentazione ufficiale. I rumor certe volte ci azzeccano altre volte no, quindi è meglio andarci sempre cauti.
È interessante, se fossero confermati prezzi e ram vorrebbe dire che la scheda si piazza tra la 3070 e la 3080, ma con quel pizzico di ram in più ( "io ho 16 Gb e tu no, gnè gnè" ) potrebbe dar fastidio a nVidia
Le 3070 ti/super con 16Gb e una pompatina ai CUDA e di conseguenza la 3080 da 20 Gb sarebbero quindi pressoché obbligatorie a breve giro per stare davanti a AMD.
cronos1990
08-09-2020, 12:02
Hai frainteso un po' il discorso
Ho parlato della fisica come esempio
Ed ho detto che il ray tracing come alternativa al rendering poligonale è ancora lontano
L'RT come tu stesso dici è un'implementazione del ray tracing per qualche dettaglio in più (illuminazione e quindi riflessi, etc)
Ma lo stravolgimento è lontano anche se si considera il DLSSIl problema della fisica non è legato ad un discorso tecnologico, quanto alla volontà di inserirla all'interno dei giochi. Un pò come la IA, che è ferma al palo da 10 anni. Non per scelte tecniche, ma di mercato. E comunque non centra nulla col discorso.
Quanto al RT, mi sa che non hai bene in mente cosa significa. Non si tratta di qualche effetto di luce: gli effetti in RT coinvolgono il tipo di illuminazione, i riflessi, la generazione dei colori e dell'aspetto delle superfici, le ombre e altro ancora. Senza tener conto che la gestione del RT permette di gestire l'illuminazione anche rispetto alla luce emessa tramite riflessione di un'altra sorgente luminosa.
Se pensate che siano due effettini messi in croce, mi sa che non avete bene in mente cosa significhi.
Ma anche questo: non centra nulla col discorso. Il discorso di partenza era che la 5700XT è una scheda di transizione. Pochi o tanti che siano gli effetti in RT, resta il fatto che le DX12, tutte le nuove GPU e tutte le nuove console sono state costruite per ottenere gli effetti di RT, e i giochi daranno seguito a questa possibilità. E questo considerando che siamo solo agli inizi dello sfruttamento di questa tecnologia, tra un paio d'anni si potrebbero avere risultati molto interessanti.
La 5700XT non ha il RT.
E ripeto: non è solo questione di RT. Solo a potenza grezza la 5700XT viene asfaltata anche dalle nuove console, laddove di norma avviene il contrario (GPU più potenti delle console, cosa che si sta appunto verificando con le nuove GPU). Potenza in più che, volenti o nolenti, è anche necessaria per venire incontro ai problemi di ottimizzazione dei giochi, che sono creati pensando all'hardware delle scatolette e non certo dei PC.
Vero è che le prestazioni con raytracing sono migliorate con le nuove schede, ma va sempre considerato che con il raytracing attivo abbiamo comunque prestazioni di pochissimo superiori o addirittura uguali alle schede attuali senza rt.
Quindi in conclusione, se i nuovi giochi non porteranno miglioramenti o grosse differenze dal punto di vista visivo, rimane uno specchietto per le allodole, anche se sarò felice di sbagliarmi, gli ultimi video di cyberpunk sono interessanti ma non ho ancora visto una comparativa RT ON/OFF, chissà perché :rolleyes:Prima del DLSS 2.0 attivare il RT de facto dimezzava le prestazioni; una 2080Ti (studiata per il 4K quando uscita in commercio) tiene nei giochi i 60FPS con il RT alla risoluzione FullHD.
Il problema (per AMD) è che l'evoluzione del DLSS pare abbia quasi azzerato questa "troncatura" delle prestazioni attivando l'RT. E questo senza considerare la potenza in più della nuova serie 30xx. Questo di per se è già un ottimo risultato.
E' ancora presto per parlare, ma almeno lato Nvidia ci sono tutte le premesse per cui il RT diventi già ampiamente fruibile. E per quanto mi riguarda, anche in anticipo rispetto alle mie previsioni iniziali.
Semmai l'ostacolo è che il DLSS ancora è implementato in pochi giochi. Ma la domanda che mi sorge spontanea è: AMD ha qualcosa in serbo che abbia lo stesso impatto?
[ EDIT ]
Forse "asfaltata" è troppo, ma la 5700XT ha una potenza in TFLOPS circa 9, contro i 10-12 delle nuove console, che hanno anche più RAM rispetto alla vRAM della 5700XT (se non ricordo male).
E questo con i giochi per console che godranno di un'ottimizzazione sicuramente migliore rispetto alla controparte per PC.
StylezZz`
08-09-2020, 12:07
AMD ha qualcosa in serbo che abbia lo stesso impatto?
Be sarebbe interessante, proprio loro che alla presentazione delle 5700 se ne erano usciti con questa frase a proprosito del RT e DLSS:
"You shouldn't launch a feature in a game that would hurt gamer's performance, and then do trickery to increase the resolution and make it blurry."
:asd:
Io non sono d'accordo con questa visione. La controrisposta è stata di nVidia e non di AMD.
L'architettura RDNA2 è ormai disponibile da mesi alla SW che sviluppano giochi. Ed è plausibile ipotizzare che nVidia abbia avuto in modo diretto o indiretto accesso alle stazione di sviluppo fornita da Sony e Microsoft. Per cui ha potuto misurare con una certa precisione le potenzialità della architettura AMD.
Certamente dopo i test nVidia non ha cambiato l'achitettura, ma sicuramente ha potuto scegliere il posizionamento economico.
Come detto in precedenza, io ritengo che le posizioni saranno immutate. nVidia leader delle prestazioni, AMD leader del rapporto prezzo/prestazioni
:wtf: :wtf: :wtf:
quindi la controproposta è quella che viene presentata prima della proposta ahahaha...
dunque nvida ha le schede più veloci sul mercato, AMD non si sa quando e cosa presenterà, e la nova generazione di schede nvidia è la controproposta alla proposta ancora inesistente di AMD........ ooooocchei...
Comunque...
Tra questa e nvidia, secondo me, hanno dato una bella mazzata alle schede "vecchie", aspettiamo e vediamo.
Questa ancora non sappiamo praticamente nulla..
Di Nvidia sappiamo (sulla carta) che c'è un bel salto col passato tra prezzi e prestazioni.
Spero vivamente che AMD sia in grado di tenere botta.
Il problema della fisica non è legato ad un discorso tecnologico, quanto alla volontà di inserirla all'interno dei giochi. Un pò come la IA, che è ferma al palo da 10 anni. Non per scelte tecniche, ma di mercato. E comunque non centra nulla col discorso.
Quanto al RT, mi sa che non hai bene in mente cosa significa. Non si tratta di qualche effetto di luce: gli effetti in RT coinvolgono il tipo di illuminazione, i riflessi, la generazione dei colori e dell'aspetto delle superfici, le ombre e altro ancora. Senza tener conto che la gestione del RT permette di gestire l'illuminazione anche rispetto alla luce emessa tramite riflessione di un'altra sorgente luminosa.
Se pensate che siano due effettini messi in croce, mi sa che non avete bene in mente cosa significhi.
Ma anche questo: non centra nulla col discorso. Il discorso di partenza era che la 5700XT è una scheda di transizione. Pochi o tanti che siano gli effetti in RT, resta il fatto che le DX12, tutte le nuove GPU e tutte le nuove console sono state costruite per ottenere gli effetti di RT, e i giochi daranno seguito a questa possibilità. E questo considerando che siamo solo agli inizi dello sfruttamento di questa tecnologia, tra un paio d'anni si potrebbero avere risultati molto interessanti.
La 5700XT non ha il RT.
E ripeto: non è solo questione di RT. Solo a potenza grezza la 5700XT viene asfaltata anche dalle nuove console, laddove di norma avviene il contrario (GPU più potenti delle console, cosa che si sta appunto verificando con le nuove GPU). Potenza in più che, volenti o nolenti, è anche necessaria per venire incontro ai problemi di ottimizzazione dei giochi, che sono creati pensando all'hardware delle scatolette e non certo dei PC.
Prima del DLSS 2.0 attivare il RT de facto dimezzava le prestazioni; una 2080Ti (studiata per il 4K quando uscita in commercio) tiene nei giochi i 60FPS con il RT alla risoluzione FullHD.
Cronos so benissimo cos'è il ray tracing e come funziona l'rt nvidia.
Sto solo semplificando dicendo che il potenziale del ray tracing, ovvero la sostituzione in toto al rendering poligonale e non solo utilizzarlo in appoggio a quest'ultimo, è ancora lontano. Attualmente, si, sono solo "effetti" (che si applicano ai modelli poligonali) perché il bello lo si vedrà quando la tecnologia verrà impiegata per il rendering dell'intera scena.
E' questo impiego che vedo ancora piuttosto lontano.
Discorso fisica non è tanto distante: esiste ancora physx ma l'impiego "massivo" in hardware che si è visto in un certo periodo, non l'ho più riscontrato, a favore di un semplice uso via software. Perché, chiaro, il mercato spinge altrove.
La 5700 XT non supporta RT perché quest'ultimo è una tecnologia nvidia, ne riuscirebbe a far fronte di un rendering ray traced, ma questo neanche le schede nvidia, o almeno non con risultati apprezzabili.
Non sto tentando di criticare nvidia, ne tentando di difendere le 5700 XT.
Sto solo dicendo che in tal caso sono tutte schede di passaggio.
Poi chiaro che le nvidia hanno aperto la strada e le console aiuteranno a spingere verso un più consistente cambiamento.
Ale55andr0
08-09-2020, 12:34
Le 3070 ti/super con 16Gb e una pompatina ai CUDA e di conseguenza la 3080 da 20 Gb sarebbero quindi pressoché obbligatorie a breve giro per stare davanti a AMD.
si, ma a prezzi improponibili
Non capisco perché si continua a chiamare "rendering poligonale" la rasterizzazione. Anche il raytracer fará uso dei modelli poligonali. Vero che la rasterizzazione puó lavorare SOLO con i poligoni mentre il raytracer puó lavorare con qualsiasi primitiva che abbia una funzione di intersezione con un raggio (e non é detto che i giochi in futuro non sfruttino questa possibilitá) ma alla fine nel 99% dei casi i modelli saranno comunque poligonali.
A occhio, saremmo giá arrivati al punto in cui il RT potrebbe sostituire la rasterizzazione, magari accontentandosi di una minore risoluzione. Il problema é che non puoi fare un passo del genere se solo il 10% del target puó poi giocare. Ma dal punto di vista tecnologico, sarei davvero sorpreso se con 20 TF, hw dedicato e DLSS non si riuscisse a renderizzare un gioco con un path tracer ottimizzato tanto quanto ottimizzati sono i motori di oggi (che per fare quello che fanno si lanciano in acrobazie mica da ridere!)
coschizza
08-09-2020, 12:44
A occhio, saremmo giá arrivati al punto in cui il RT potrebbe sostituire la rasterizzazione, magari accontentandosi di una minore risoluzione. Il problema é che non puoi fare un passo del genere se solo il 10% del target puó poi giocare. Ma dal punto di vista tecnologico, sarei davvero sorpreso se con 20 TF, hw dedicato e DLSS non si riuscisse a renderizzare un gioco con un path tracer ottimizzato tanto quanto ottimizzati sono i motori di oggi (che per fare quello che fanno si lanciano in acrobazie mica da ridere!)
nemmeno 2 3090 in SLI possono usare un motore 100% RT senza considerare che non è utile usare un motore 100% RT in senso stretto visto che ci sono cose che andranno sempre meglio con un motore e altre con un altro.
Se per esempio in unreal 4 engine abiliti il motore RT su tutto alla fine diventa piu un software di rendering che un gioco in tempo reale
Pandemio
08-09-2020, 12:46
Secondo me purtroppo la nuova amd non si avvicinerà neanche alla 3080 sarà lievemente superiore alla 3070, spero di no ma dai leak si parlava di 22 tflops contro i 30 della 3080.
Spero di no.. Ma spero facciano un azione molto più aggressiva sui prezzi, 50 euro non sono poi così tanti. 100 già uno inizia a pensarci..
Non capisco perché si continua a chiamare "rendering poligonale" la rasterizzazione.
Perché per anni si è parlato in questi termini e parlare di rasterizzazione non sarebbe altrettanto intuitivo :)
cronos1990
08-09-2020, 12:57
nemmeno 2 3090 in SLI possono usare un motore 100% RT senza considerare che non è utile usare un motore 100% RT in senso stretto visto che ci sono cose che andranno sempre meglio con un motore e altre con un altro.
Se per esempio in unreal 4 engine abiliti il motore RT su tutto alla fine diventa piu un software di rendering che un gioco in tempo realeBeh, la gestione del RT è per sua natura altamente scalabile. Nel senso che molto dipende da quali sorgenti di luce utilizza, quanti fasci di luce e quanti fenomeni di riflessione e rifrazione si vogliono ottenere.
Diventa alquanto complicato stabilire dei parametri assoluti quando si parla di RT. Semmai il dilemma è capire fino a che punto le Console si potranno spingere col RT, perchè poi quello che vedremo su PC (e quindi come e quanto saranno sfruttate le GPU) dipenderà soprattutto da quello. Per il semplice fatto che, come detto, i giochi vengono creati e ottimizzati pensando alle scatolette.
Mi sento solo di dire che pur con tutti i limiti e l'uso piuttosto limitato del RT finora visti, ci sono comunque almeno un paio di giochi che hanno fatto vedere cose interessanti.
Da quel poco, appunto, pensavo ad una tecnologia matura in non meno di 2-3 anni, ma da quanto fatto vedere finora da Nvidia mi pare che già adesso ci si può aspettare un buon salto in avanti.
Il mio timore è sempre legato ad AMD, ovvero alla sua capacità di proporre un'alternativa concorrenziale sul mercato. Vero che le console sono targate AMD e avranno il RT, ma finora non si è visto nulla in tal senso con le tecnologie AMD, Nvidia è volenti o nolenti avanti di almeno un anno sotto questo punto di vista e promette un bel salto prestazionale in tal senso.
E, ad oggi, non mi risulta qualcosa di paragonabile in casa rossa al DLSS, che per funzionalità ed efficienza sembra andare bene a braccetto con il RT.
AMD è nella difficile situazione di recuperare non solo un gap prestazionale notevole, ma anche lato tecnologie mi pare che per una volta tanto Nvidia abbia messo sul piatto qualcosa di davvero interessante e fruibile senza passare per scelte di marketing discutibili.
>>nemmeno 2 3090 in SLI possono usare un motore 100% RT
Eppure nel 2013, usando 2 GTX Titan (meno di 10 tf in totale) giá riuscivano a fare qualcosa di piú che lodevole: https://www.youtube.com/watch?v=BpT6MkCeP7Y&t=16s
Questo, nota, con meno della metá della potenza computazionale di una scheda della futura generazione, senza hw specifico, senza denoiser e senza (presumo) particolari tipi di tradeoff (es: credo che sia full PT, mentre si potrebbe guadagnare in prestazioni a discapito della qualitá se si calcolasse esplicitamente l'illuminazione diretta, ad esempio).
Non faccio fatica a credere che su una 3080 si potrebbero facilmente ottenere prestazioni 3-4 volte maggiori, con le giuste ottimizzazioni, e una pulizia visiva decisamente migliore grazie al denoiser.
Non arrivo a dire che "giá ci siamo". Ma che il raytracing sia ancora "roba che appartiene al futuro" credo sia ormai falso.
Anzi, diró di piú: non é proprio piú una questione tecnologica: se AMD/nVidia decidessero di puntare al RT non dovrebbero fare altro che depotenziare le unitá dedicate alla rasterizzazione a favore delle unitá dedicate al raytracing. Non possono farlo per ragioni commerciali: il pubblico si aspetta comunque un miglioramento delle prestazioni "classiche" tra una generazione e l'altra e questo limita il numero di transistor che puoi dedicare al raytracing. Non fosse per questo, RT sarebbe giá realtá.
coschizza
08-09-2020, 13:32
>>nemmeno 2 3090 in SLI possono usare un motore 100% RT
Eppure nel 2013, usando 2 GTX Titan (meno di 10 tf in totale) giá riuscivano a fare qualcosa di piú che lodevole: https://www.youtube.com/watch?v=BpT6MkCeP7Y&t=16s
quello non era RT ma path tracing una cosa molto diversa come pipeline che è ancora piu lontata a venire per i motori dei giochi perche richiede secondi/minuti per frame non ms come serve a un motore in tempo reale
infatti la qualita raggiunta è pari a 0 come da video
nemmeno un sistema nvidia DGX da 200.000$ fa il path tracing in tempo reale
quello non era RT ma path tracing una cosa molto diversa come pipeline che è ancora piu lontata a venire per i motori dei giochi perche richiede secondi/minuti per frame non ms come serve a un motore in tempo reale
infatti la qualita raggiunta è pari a 0 come da video
nemmeno un sistema nvidia DGX da 200.000$ fa il path tracing in tempo reale
https://www.youtube.com/watch?v=s_eeWr622Ss
Questo non è path tracing?
cronos1990
08-09-2020, 13:42
Sinceramente eviterei i confronti tra RT e rendering tradizionale.
Molto banalmente perchè nei giochi dove è comparso il RT, si è volutamente esaltata la nuova tecnologia peggiorando (o curando meno) il rendering tradizionale.
Basta vedere un gioco come Control, che esalta il RT ma non fa vedere nulla di così eclatante, e poi vedere un gioco come RDR2 che non ce l'ha l'illuminazione è uno dei suoi punti di forza (e con molta ragione).
Sono giochetti di marketing, probabilmente spinti anche da Nvidia stessa con pressioni sugli sviluppatori. Per farsi un quadro reale della situazione è bene aspettare i primi giochi con un'implementazione degna di tal nome.
https://www.youtube.com/watch?v=s_eeWr622Ss
Questo non è path tracing?
Si, e pure questo:
https://www.youtube.com/watch?v=p7RniXWvYhY
andreabg82
08-09-2020, 13:47
La differenza la vedremo lato Driver...
AMD non è una cima da quel punto di vista.
Parlo da possessore.
La scheda che ho 5600 XT è una gran scheda, peccato che lato driver non sia così.
coschizza
08-09-2020, 14:07
https://www.youtube.com/watch?v=s_eeWr622Ss
Questo non è path tracing?
no, ma quelle è Minecraft il gioco piu leggero del mondo, non conta se si parla di RT o almeno non dovrebbe perche non è certo un termine di paragone
coschizza
08-09-2020, 14:08
Si, e pure questo:
https://www.youtube.com/watch?v=p7RniXWvYhY
e questo è Quake II di 23 anni fa e vale la stesa cosa scritta prima se usiamo questi come termine di paragone allora stiamo freschi
StylezZz`
08-09-2020, 14:10
La differenza la vedremo lato Driver...
AMD non è una cima da quel punto di vista.
Parlo da possessore.
La scheda che ho 5600 XT è una gran scheda, peccato che lato driver non sia così.
Che problemi ti causano i driver?
>>quello non era RT ma path tracing una cosa molto diversa come pipeline
Do per scontato che quando si parla di raytracing in questo contesto si parli in realtá di una qualche forma di path tracing. Sia perché il raytracing standard (whitted style o distributed che sia) sarebbe giá abbondantemente fattibile ora (ma proprio senza se e senza ma) sia perché comunque senza GI non so neppure se avrebbe poi tutto questo senso migrare verso RT: un RT "puro" avrebbe una qualitá visiva probabilmente peggiore rispetto ai giochi che verranno. Ad esempio, una demo come quella dell'Unreal 5 su PS5 farebbe sostanzialmente schifo renderizzata via RT puro.
Siccome peró in queste discussioni, nel marketing e anche in alcuni articoli non si fa distinzione tra RT come algoritmo di rendering e RT come tecnica impiegata dagli algoritmi di rendering, uso anche io il termine RT per chiarezza, anche se intendo PT (o bidir PT, o MLT, o il buon vecchio photon mapping :D
Poi, ovvio che si puó prendere RT puro e aggiungere GI in modi diversi che siano piú economici rispetto a PT. Le probes usate anche nella rasterizzazione, ad esempio, irradiance caching, etc etc etc...
Ad esmepio, nel mio raytracer anni fa ho aggiunto 1 (una) chiamata ad una funzione e in 1 minuto di lavoro ho aggiuntgo la GI ad un raytracer puro :D Non matematicamente corretto, ma il risultato era ottimo comunque.
Ah, l'eleganza e bellezza del raytracing :D
coschizza
08-09-2020, 14:20
>>quello non era RT ma path tracing una cosa molto diversa come pipeline
Do per scontato che quando si parla di raytracing in questo contesto si parli in realtá di una qualche forma di path tracing. Sia perché il raytracing standard (whitted style o distributed che sia) sarebbe giá abbondantemente fattibile ora (ma proprio senza se e senza ma) sia perché comunque senza GI non so neppure se avrebbe poi tutto questo senso migrare verso RT: un RT "puro" avrebbe una qualitá visiva probabilmente peggiore rispetto ai giochi che verranno. Ad esempio, una demo come quella dell'Unreal 5 su PS5 farebbe sostanzialmente schifo renderizzata via RT puro.
Siccome peró in queste discussioni, nel marketing e anche in alcuni articoli non si fa distinzione tra RT come algoritmo di rendering e RT come tecnica impiegata dagli algoritmi di rendering, uso anche io il termine RT per chiarezza, anche se intendo PT (o bidir PT, o MLT, o il buon vecchio photon mapping :D
Poi, ovvio che si puó prendere RT puro e aggiungere GI in modi diversi che siano piú economici rispetto a PT. Le probes usate anche nella rasterizzazione, ad esempio, irradiance caching, etc etc etc...
Ad esmepio, nel mio raytracer anni fa ho aggiunto 1 (una) chiamata ad una funzione e in 1 minuto di lavoro ho aggiuntgo la GI ad un raytracer puro :D Non matematicamente corretto, ma il risultato era ottimo comunque.
Ah, l'eleganza e bellezza del raytracing :D
ma le api nvidia e direct x non usano il path tracing, quello si usa solo nei motori di rendering perché il target non è il real time ma la qualita finale
>>infatti la qualita raggiunta è pari a 0 come da video
dipenderá dai gusti. C'é molto rumore (di cui si occuperebbe, al giorno d'oggi, il denoiser) e il frame rate é basso (ma si raddoppia con un raddoppio della potenza di elaborazione, passando da 2 titan a 1 3070, che se ricordo bene si aggira sui 20).
Al di lá di questo, trovo la qualitá dell'illuminazione superiore a qualsiasi gioco abbia visto finora.
Se questi prezzi(eccezionali) venissero confermati, si dovrebbe ringraziare Nvidia per la fascia di prezzo a cui ha proposto la 3080 e la 3070. 2 piazzamenti "killer" che hanno costretto AMD a reagire velocemente. E bene, a quanto pare.
AMD da lato suo è stata brava a colpire nell'unico punto in cui Nvidia secondo me ha sbagliato, ovvero il quantitativo di RAM. 8 per la 3070 e 10 per la 3080 mi fanno un pò storcere il naso. 8-10 sono quantitativi giusti per il 4K, ma per 2 schede top che devono ammazzare quella risoluzione mi sarei aspettato un 10-12.
I 16 di AMD forse sono anche troppo eccessivi, ma avranno un bel peso sul marketing, uniti a quel prezzo.
La differenza la vedremo lato Driver...
AMD non è una cima da quel punto di vista.
Guarda, di cime ce ne sono poche in giro.
Ho una AMD sul fisso e una Nvidia sul portatile.
Quando ti "adatti" alle voragini di entrambi, alla fine trovi anche il modo di far funzionare tutto più che bene.
Ma a voler essere pignoli, fanno cagare entrambi :asd:
>>ma le api nvidia e direct x non usano il path tracing, quello si usa solo nei motori di rendering perché il target non è il real time ma la qualita finale
Le api nVidia ti danno accesso a bvh traversal e intersezione raggio primitiva, sia any hit che first hit. Queste sono funzioni che usi esattamente allo stesso modo per raytracing e per path tracing. L'unica differenza sta in come generi i raggi e in come interpreti il risultato.
Raytracing (whitted style, ovvero "classico"): spari da punto visuale a scena. Nel punto di intersezione calcoli raggi aggiuntivi (uno per ogni fonte di luce potenzialmente visibile, ovvero "di fronte" al poligono, ed eventualmente quelli per trasmissione - vetro - e riflessione.) E li tracci in modo ricorsivo. Accumuli i vari risultati, li elabori in base al materiale e alle texture e li riporti al pixel di partenza.
Path tracing: spari da un punto visuale nella scena. Nel punto di intersezione scegli a caso una nuova direzione (riflessa o trasmessa). Continui cosí fino a quando non raggiungi una fonte di luce o fino a quando non raggiungi un massimo di raggi e a quel punto calcoli direttamente una luce o qualcosa del genere. Sparando molti raggi per lo stesso "pixel" e facendo la media ottieni il colore corretto.
Questa é una vesione semplificata e ci sono 100 varianti (con il distributed raytracing migliori la qualitá del raytracing, con il bidirectional path tracing velocizzi il path tracing, poi ci sono l'importance sampling, etc etc etc).
Il punto é che tutte hanno alla base l'invio di raggi nella scena. Se la gpu sa fare quello, puoi fare ogni cosa. E infatti ho visto path tracers su RTX...
Non succederà subito, ma a giudicare da quanto è possibile già ora ritengo che nel giro di pochi anni il rendering per rasterizzazione potrà essere del tutto rimpiazzato, salvo magari nei dispositivi a basso consumo dove per avere varie decine di teraflops disponibili ci vorrà più tempo.
E' un'evoluzione abbastanza scontata del resto.
https://www.youtube.com/watch?v=NgcYLIvlp_k
PS: path tracing è niente altro che una forma di ray tracing, si può dire che sia un ray tracing che riproduce più fenomeni di illuminazione e più fedelmente rispetto ad altre tecniche "classiche" di ray tracing, e per fare questo in sostanza traccia in genere più raggi (= calcola più intersezioni), anche se in teoria è nato come tecnica di ray tracing più efficiente.
AFAIK l'hw dedicato nelle recenti GPU è utilizzabile per tutte le varianti di RT, al netto del fatto che il path tracing richiede poi un filtro per ridurre il rumore.
zetalife
08-09-2020, 14:58
AMD non credo che ci regalerà GPU con 16gb di RAM a meno di 600€...
nickfede
08-09-2020, 15:40
Se la piazzano a 449€ vuol dire che andrà piu o meno come la 3070. In genere AMD è sempre stata un 10/15% più economica come performance/prezzo rispetto NVidia. I 16Gb di memoria daranno linfa al Marketing e tutto sommato dovrebbero rivaleggiare con la proposta nel segmento medio di NVidia.
per la 3080 e la 3090 di fascia alta e enthusiast NVidia non avrà rivali....
Cmq a questo giro, fortunatamente per gli utenti, c'è stato un bello scossone al ribasso che andrà a influire anche sulle prossime generazioni di GPU.....ottimo !
Forse nVidia ha rinominato la Titan GTX3090 perchè Amd potrebbe arrivare vicino alla 3080? Ma se la più costosa di Amd arriva a 550 difficilmente sarà rivale diretta di una scheda da 720 euro
si, ma a prezzi improponibili
Probabilmente alzeranno un po' ma comunque devono stare sotto alla 3080
Se la piazzano a 449€ vuol dire che andrà piu o meno come la 3070.
E se invece, come dice l' articolo, la piazzano a 600 ?
Nessuno si chiede che tipo di ram monterà?
Comunque pubblicizzare una scheda perché costa meno e ha più ram e non perché va di più è un po' sospetto non trovate?
Piedone1113
08-09-2020, 17:02
Se la piazzano a 449€ vuol dire che andrà piu o meno come la 3070. In genere AMD è sempre stata un 10/15% più economica come performance/prezzo rispetto NVidia. I 16Gb di memoria daranno linfa al Marketing e tutto sommato dovrebbero rivaleggiare con la proposta nel segmento medio di NVidia.
per la 3080 e la 3090 di fascia alta e enthusiast NVidia non avrà rivali....
Cmq a questo giro, fortunatamente per gli utenti, c'è stato un bello scossone al ribasso che andrà a influire anche sulle prossime generazioni di GPU.....ottimo !
La stessa cosa si si diceva di amd vs intel ed invece vediamo che il prezzi sono dimezzati.
Comunque se Nvidia ha abbassato i listini così tanto potrebbe essere sintomo di ritrovata concorrenza nella fascia alta
Comunque pubblicizzare una scheda perché costa meno e ha più ram e non perché va di più è un po' sospetto non trovate?
Al momento non la sta pubblicizzando nessuno in nessun modo ;) , stiamo solo parlando di rumors di uno che dice che AMD vuole far uscire una scheda da 16Gb a 600 euro e la versione da 8Gb a 500
Quando la pubblicizzeranno vedremo cosa diranno
nickname88
08-09-2020, 17:22
Bisognerà valutare da AMD le performance on RT non solo quelle in rastering.
Anche se andasse come una 3080 ma in RT facesse pietà ....
Vero è che le prestazioni con raytracing sono migliorate con le nuove schede, ma va sempre considerato che con il raytracing attivo abbiamo comunque prestazioni di pochissimo superiori o addirittura uguali alle schede attuali senza rt.
Quindi in conclusione, se i nuovi giochi non porteranno miglioramenti o grosse differenze dal punto di vista visivo, rimane uno specchietto per le allodole, anche se sarò felice di sbagliarmi, gli ultimi video di cyberpunk sono interessanti ma non ho ancora visto una comparativa RT ON/OFF, chissà perché :rolleyes:
lasciali perdere questi senza RT non si alzano la mattina dal letto :D
A me fa lo stesso effetto dell HEAD UP DISPLAY delle auto, una ca-ga-ta fotonica.Saranno 5 anni minimo che promettono tonnellate di titoli che non si sono mai visti....
lasciali perdere questi senza RT non si alzano la mattina dal letto :D
A me fa lo stesso effetto dell HEAD UP DISPLAY delle auto, una ca-ga-ta fotonica.Saranno 5 anni minimo che promettono tonnellate di titoli che non si sono mai visti....La serie RTX 2000 è arrivata sul mercato a fine Settembre 2018, neanche 2 anni fa.
I titoli sono ancora pochi, ma quelli con una implementazione decente come Metro Exodus con Global Illumination via RT sono tutto tranne che una "ca-ga-ta fotonica".
Nessuno si chiede che tipo di ram monterà?
Comunque pubblicizzare una scheda perché costa meno e ha più ram e non perché va di più è un po' sospetto non trovate?
dipende,se con un bus da 512b,anche con delle misere 14gbs si ottiene una bw simile alla 3090,o se a 384b con le 16gps e' simile alla 3080
oppure se hanno lavorato bene in compressione dati,ma devono comunque lavorare bene e ottimizzare il tutto,vedi i disastro con vega nonostante le hbm..
anche nvidia e' molto sospettosa,per la 3080 hanno usato i chip tagliati per la 3090 fascia estrema titan,hanno aumentato "stranamente" nettamente i consumi,se amd non esistesse non avrebbe inficiato minimamente i margini di guadagno
per la 3080 sarebbe stato usato una ben piu' economica GA-104 full pompato ormai declassata nella futura 3070ti
insomma ci sono chiari segnali che amd ha in mano finalmente un buon prodotto,che poi non intacchera' la leadership e' sicuro,ma onore e merito a chi riesce a far scendere Raoul da cavallo:O
Nessuno si chiede che tipo di ram monterà?
Comunque pubblicizzare una scheda perché costa meno e ha più ram e non perché va di più è un po' sospetto non trovate?
Nessuno sta pubblicizzando niente.
Sono solo rumors.
Ale55andr0
08-09-2020, 20:56
Al momento non la sta pubblicizzando nessuno in nessun modo ;) , stiamo solo parlando di rumors di uno che dice che AMD vuole far uscire una scheda da 16Gb a 600 euro e la versione da 8Gb a 500
Quando la pubblicizzeranno vedremo cosa diranno
se mi fai uscire a 500 la scheda da 8gb non vedo la convenienza rispetto a nvidia con la 3070...me ne "devi" dare 10 o 12
se mi fai uscire a 500 la scheda da 8gb non vedo la convenienza rispetto a nvidia con la 3070...me ne "devi" dare 10 o 12
Magari va più forte della 3070 ... mi sembrerebbe un vantaggio da non disprezzare
la nova generazione di schede nvidia è la controproposta alla proposta ancora inesistente di AMD
Ti spiego con un esempio pratico. Prendiamo Flight Simulator 2020. Stando alle dichiarazione di Asobo Studio in questo momento stanno sviluppando la versione per xbox series x, console equipaggiata con un APU basata su RDNA 2 (anche se non completamente). Questo sicuramente vuol dire che hanno una stazione di sviluppo per SW xbox series x, con relativo HW della console.
Questo mette in condizione Asobo studio di fare dei paragoni tra le due piattaforme, PC e xbox Series x. Se poi un uccellino li spifferasse a nVidia, ecco che quest'ultima potrebbe già avere oggi una idea di quanto va RDNA 2.
Concludendo, noi non abbiamo idea di come vada una RDNA 2 rispetto a una scheda PC, Asobo studio una idea potrebbe averla, e anche nvidia, se una software house gli spifferasse i test.
Note:
Ovviamente le due architetture sono diverse, ma creo che con opportuni e specifici test (come nel caso delle suite di benchmark) sarebbe possibile capire le potenzialità della sola GPU, scevrata dalla componente CPU e varie ottimizzazione tipiche delle console. Come ad esempio creare delle scene dove la potenza computazionale è quasi totalmente a carico della GPU.
marconwps
09-09-2020, 02:42
Non so, siamo ancora lontani dal ray tracing come alternativa al rendering poligonale
Per ora la vedo come una feature in stile ageia
Alla fine la fisica realistica dei tessuti, indumenti e capelli nei giochi è stata un po' accantonata ultimamente.
Con questa serie visti i numeri di rtcore e tensorcore mi sa tanto che sara' possibile!!
Saluti
Non so, siamo ancora lontani dal ray tracing come alternativa al rendering poligonale
Per ora la vedo come una feature in stile ageia
Alla fine la fisica realistica dei tessuti, indumenti e capelli nei giochi è stata un po' accantonata ultimamente.
Con questa serie visti i numeri di rtcore e tensorcore mi sa tanto che sara' possibile!!
Saluti
Quello che non sono riuscito a trasmettere è che proprio per scelte di marketing si tende a dare priorità a scelte di facciata e di "aspetto" piuttosto che a stravolgere le cose per poter davvero arrivare a risultati interessanti anche a livello di potenziale tecnologico. E spero non sia questo il caso! O per precisare: spero che continuino così e che provino davvero, anche nell'ambiente videoludico, a sperimentare strade alternative rispetto alle solite già viste negli ultimi venticinque anni.
Ve la ricordate la prima Nvidia? Vantava un motore che lavorava in quadratic texture mapping a differenza delle altre schede 3D che renderizzavano a triangoli.
In quel periodo, fino al 2000 e qualcosa dopo, ogni scheda aveva le sue caratteristiche specifiche che spesso nessun'altra vantava.
Scusate, chiedo per un amico (:stordita:).
Se questo mio amico (:fiufiu:) scrivesse ad AMD dicendo che ha intenzione di chiamare sua figlia Lisa, dite che gliene regalano una? :D
StylezZz`
09-09-2020, 12:37
Gli regalano qualche RX 550 che usano per editare le slide.
cronos1990
09-09-2020, 12:52
Se questo mio amico (:fiufiu:) scrivesse ad AMD dicendo che ha intenzione di chiamare sua figlia Lisa, dite che gliene regalano una? :DNon credo che Lisa regali qualcuna delle sue figlie :O
:asd:
nickname88
09-09-2020, 13:58
Ti spiego con un esempio pratico. Prendiamo Flight Simulator 2020. Stando alle dichiarazione di Asobo Studio in questo momento stanno sviluppando la versione per xbox series x, console equipaggiata con un APU basata su RDNA 2 (anche se non completamente). Questo sicuramente vuol dire che hanno una stazione di sviluppo per SW xbox series x, con relativo HW della console.
Questo mette in condizione Asobo studio di fare dei paragoni tra le due piattaforme, PC e xbox Series x. Se poi un uccellino li spifferasse a nVidia, ecco che quest'ultima potrebbe già avere oggi una idea di quanto va RDNA 2.
Concludendo, noi non abbiamo idea di come vada una RDNA 2 rispetto a una scheda PC, Asobo studio una idea potrebbe averla, e anche nvidia, se una software house gli spifferasse i test.
Note:
Ovviamente le due architetture sono diverse, ma creo che con opportuni e specifici test (come nel caso delle suite di benchmark) sarebbe possibile capire le potenzialità della sola GPU, scevrata dalla componente CPU e varie ottimizzazione tipiche delle console. Come ad esempio creare delle scene dove la potenza computazionale è quasi totalmente a carico della GPU.
In realtà è stato già dichiarato che RNDA2 non è uno stravolgimento della prima versione ma un affinamento con in più il RT. Quindi anche senza sapere quanto andranno queste ultimo si possono fare delle previsioni / ipotesi almeno sul piano del rastering.
L'incognita vera è la performance in RT.
Per quanto riguarda le strategie commerciali fallimentari di AMD invece è un altro piano.
La gente sta già vendendo sul piano retail le vecchie schede per poter comperare le RTX 3000, e forse qualche OEM sta già stipulando nuovi contratti per le prossime forniture, il fatto che AMD se la prenda comoda mentre il competitor sta già incominciando ora ad attaccare il mercato la dice lunga.
cdimauro
11-09-2020, 06:58
A me fa lo stesso effetto dell HEAD UP DISPLAY delle auto, una ca-ga-ta fotonica.
Specifica: PER TE. Una volta provato l'head-up display non si torna indietro: troppo comodo.
Infatti è l'optional di gran lunga più richiesto da chi compra di nuovo un'auto.
/OT
Specifica: PER TE. Una volta provato l'head-up display non si torna indietro: troppo comodo.
Infatti è l'optional di gran lunga più richiesto da chi compra di nuovo un'auto.
/OT
Oste, com'e` il vino?
Comunque ha specificato chiaramente "A me".
Provato l'head-up display per qualche giorno e lo trovo una cagata fotonica anche io, lo trovo anche molto distraente onestamente.
cdimauro
12-09-2020, 08:00
Oste, com'e` il vino?
L'oste non c'entra proprio, e dire che l'avevo pure anticipato: "è l'optional di gran lunga più richiesto da chi compra di nuovo un'auto".
Vuol dire che si parla di statistiche, e non di voci internettiane. E i numeri dicono che la quasi totalità di chi ha incluso l'Head-Up Display come optional, poi lo prende di nuovo quando cambia l'auto.
Comunque ha specificato chiaramente "A me".
Era sicuramente riferito ad altro. Potrebbe essere riferito anche all'HUP, ma in quel contesto andava specificato.
Provato l'head-up display per qualche giorno e lo trovo una cagata fotonica anche io,
Se ne faranno una ragione tutti quelli che lo usano con soddisfazione e continuano a richiederlo (vedi sopra).
lo trovo anche molto distraente onestamente.
E' l'esatto contrario. Evidentemente non l'hai provato abbastanza.
Grazie all'HUD guardo poco persino il cruscotto (e più di rado il display. Qualche colpo d'occhio glielo do soltanto per le informazioni sul traffico, ossia le linee rosse / arancio / gialle), perché ho lì tutte le informazioni essenziali: velocità, limite attuale ed eventualmente quello che arriverà a breve, divieto di sorpasso, stop o triangolo in prossimità, porzione della mappa localizzata sui metri davanti se sto navigando, e la piccola lista per scegliere una canzone.
Il tutto mantenendo la visuale della strada.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.