View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™
4gb sono pochi nel 2019, anche a 1080p.
570 o 580 la differenza è inesistente, ma 4gb vs 8gb c'è parecchia differenza di stutter.
4gb sono pochi nel 2019, anche a 1080p.
570 o 580 la differenza è inesistente, ma 4gb vs 8gb c'è parecchia differenza di stutter.
magari prendendo una RX 570 8gb Nitro+ e cloccandola ulteriormente si riduce la differenza prestazionale con una 580, poi non so... :)
ma la differenza prestazionale sarà del 10%.
10 fps se ne fai 100 o 3 fps se ne fai 30, capirai che differenze
Gyammy85
04-03-2019, 09:00
Con i prezzi attuali, piglierei una 580 8 giga, o attenderei direttamente navi, se poi ti fa +60% su polaris costando uguale...
mircocatta
04-03-2019, 10:39
Con i prezzi attuali, piglierei una 580 8 giga, o attenderei direttamente navi, se poi ti fa +60% su polaris costando uguale...
esatto, si eviterebbe un bel giramento di OO
mircocatta
04-03-2019, 17:35
nel mentre, aspettando una futura top a 7nm, mi sono freesync2izzato :) tutt'alpiù ora che posso "testarlo" con una gpu nvidia
LFC è utilizzabile su schede nvidia o è una peculiarità di AMD ?
Gyammy85
04-03-2019, 20:57
Quindi non prendi più la 7?
mircocatta
04-03-2019, 22:31
Quindi non prendi più la 7?
:asd: mi tieni sott'occhio
No a sto punto no, preferisco investire due soldi sul monitor piuttosto che avere le medesime prestazioni o poco meno passando alla radeon7 aspetterò di vedere la nuova serie top l'anno prossimo :) anche perché ora ripasso al 2560x1440 (anche se su monitor 144hz) quindi di birra ne ho già abbastanza
Roland74Fun
05-03-2019, 13:29
LFC è utilizzabile su schede nvidia o è una peculiarità di AMD ?
A me ha funzionato. AOCG2469VQ6+GT1030
Anche a 20 fps era bello sincronizzato. :D :D
https://www.jonpeddie.com/press-releases/jon-peddie-research-releases-its-q4-2018-add-in-board-report
Sotto il 20%. E navi è lontana 4 mesi minimo 🙄
Inviato dal mio Pixel 2 XL
Gyammy85
06-03-2019, 17:46
https://www.jonpeddie.com/press-releases/jon-peddie-research-releases-its-q4-2018-add-in-board-report
Sotto il 20%. E navi è lontana 4 mesi minimo 🙄
Inviato dal mio Pixel 2 XL
Molto strano dato che hanno chiuso l'anno con ottimi risultati
Boh, nvidia avrà svenduto tutto in cina dato che avevano magazzini pieni molto più di amd
Magari nel q1 stanno riprendendo
Molto strano dato che hanno chiuso l'anno con ottimi risultati
Boh, nvidia avrà svenduto tutto in cina dato che avevano magazzini pieni molto più di amd
Magari nel q1 stanno riprendendoQ1 e Q2 c'è campo libero con 2060/1660ti/1660.
AMD sicuramente abbasserà i prezzi, ma la gente preferisce sempre il prodotto nuovo.
Devono sbrigarsi.
Inviato dal mio Pixel 2 XL
Legolas84
06-03-2019, 18:59
Non pensavo NVIDIA avesse di nuovo superato l'80%....
Gyammy85
06-03-2019, 19:30
Q1 e Q2 c'è campo libero con 2060/1660ti/1660.
AMD sicuramente abbasserà i prezzi, ma la gente preferisce sempre il prodotto nuovo.
Devono sbrigarsi.
Inviato dal mio Pixel 2 XL
Perché deve abbassare i prezzi, per fare calare le verdi così da aumentare ancora di più e dire "e ma gli sviluppatori sviluppano per Nvidia e fino a quando sarà così sarà sempre più così"?
Ormai sono meno ingenui di prima
Grizlod®
06-03-2019, 20:36
Wow, molto interessante!
Certo qualcosa di diverso navi deve avere, mi aspetto grandi cose
In rete girano brevetti, attribuiti ad AMD:
Maggio 2018
http://www.freepatentsonline.com/20180121386.pdf (si legge di super-SIMD e VLIW2)
http://www.freepatentsonline.com/20180144435.pdf
Dicembre 2018
http://www.freepatentsonline.com/20180357064.pdf
AceGranger
06-03-2019, 20:49
Molto strano dato che hanno chiuso l'anno con ottimi risultati
è Zen che sta facendo i buoni risultati...
le Radeon sono dentro al calderone di Ryzen e le Radeon Pro/Instinct dentro al calderone EPYC;
visto che sia Ryzen che EPYC stanno vendendo benissimo, complice anche le problematiche di Intel con la produzione, mascherano tranquillamente le vendite delle Radeon.
https://www.jonpeddie.com/press-releases/jon-peddie-research-releases-its-q4-2018-add-in-board-report
Sotto il 20%. E navi è lontana 4 mesi minimo ��
Inviato dal mio Pixel 2 XL
hanno pushato 1,4mld $ di schede dal magazzino (non so a quanto stia adesso), di sicuro non sono le turing
mikael84
06-03-2019, 23:22
https://www.jonpeddie.com/press-releases/jon-peddie-research-releases-its-q4-2018-add-in-board-report
Sotto il 20%. E navi è lontana 4 mesi minimo 🙄
Inviato dal mio Pixel 2 XL
Di navi non si sa nulla, ma potrebbe anche essere un refresh a 7nm con qualche miglioria (come levare il collo di bottiglia lato BW).
AMD da quello che so, dovrebbe rivedere il chip con arcturus, dove si dovrebbe simulare una stuazione alla nvidia, sopratutto fronte unità funzionali (LDS/SFU), gestione istruzioni cache.
I CU aumenteranno la logica interna, cercando di massimizzare l'uso della parallelizzazione, cercando di svolgere istruzioni che con l'attuale GCN rimarebbero in idle o in esecuzione di unità funzionali.
L'obbiettivo è ampliare notevolmente l'IPC per clock rispetto all'attuale GCN.
In linea di massima, si dovrebbe risolvere l'accesso con la LDS che può portare via 1/4° delle risorse di calcolo e massimizzare il calcolo effettivo.
Diciamo che gli shader dovrebbero lavorare in stile IDS nvidia turing, o simularlo.
Se AMD riesce a lavorare bene sotto quest'aspetto, fa un bel passo in avanti.
Ricordo che la radeon vII, senza compilatore ha una potenza teorica pari a quella di una 2060, certo, poi l'asfalta su altri ambiti naturalmente (rop's/TMU /BW etc).
Utilizzare al meglio il teorico può dare una scossa alle radeon.;)
Gyammy85
07-03-2019, 07:46
Navi dovrebbe derivare da polaris e non da vega, polaris è molto più gaming focused rispetto a vega, mettendo un 30% dato dallo shrink, il resto è arch e clock per arrivare a +50/60% su polaris, mettici un 2x geometrico (che è il terget di amd ad ogni refresh dell'arch) e magari qualche rop in più ridisegnata e hai la 2060/2070 in 150 watt di tdp
techfede
07-03-2019, 08:51
Di navi non si sa nulla, ma potrebbe anche essere un refresh a 7nm con qualche miglioria (come levare il collo di bottiglia lato BW).
AMD da quello che so, dovrebbe rivedere il chip con arcturus, dove si dovrebbe simulare una stuazione alla nvidia, sopratutto fronte unità funzionali (LDS/SFU), gestione istruzioni cache.
I CU aumenteranno la logica interna, cercando di massimizzare l'uso della parallelizzazione, cercando di svolgere istruzioni che con l'attuale GCN rimarebbero in idle o in esecuzione di unità funzionali.
L'obbiettivo è ampliare notevolmente l'IPC per clock rispetto all'attuale GCN.
In linea di massima, si dovrebbe risolvere l'accesso con la LDS che può portare via 1/4° delle risorse di calcolo e massimizzare il calcolo effettivo.
Diciamo che gli shader dovrebbero lavorare in stile IDS nvidia turing, o simularlo.
Se AMD riesce a lavorare bene sotto quest'aspetto, fa un bel passo in avanti.
Ricordo che la radeon vII, senza compilatore ha una potenza teorica pari a quella di una 2060, certo, poi l'asfalta su altri ambiti naturalmente (rop's/TMU /BW etc).
Utilizzare al meglio il teorico può dare una scossa alle radeon.;)
Ma non si diceva già da tempo che Navi sarebbe stata la prima architettura pensata in toto da Raja? In questo caso ci si potrebbe quasi aspettare il partire da zero già da quella architettura, ma magari volevano intendere altro.
la gente preferisce sempre il prodotto nuovo.
Anche perché se a qualcuno piaceva il prodotto vecchio probabilmente lo aveva già comprato :fagiano:
Quarter-to-quarter graphics board shipments decreased by 10.7% and decreased by 40.2% year-to-year.
Ovviamente se continui a riproporre sempre la stessa roba sempre allo stesso prezzo non è che ci si può aspettare che la gente ricompri quello che ha già, e non parlo solo di AMD, pure nVidia fino alla 2060 non aveva praticamente niente di nuovo.
Anche perché se a qualcuno piaceva il prodotto vecchio probabilmente lo aveva già comprato :fagiano:
Quarter-to-quarter graphics board shipments decreased by 10.7% and decreased by 40.2% year-to-year.
Ovviamente se continui a riproporre sempre la stessa roba sempre allo stesso prezzo non è che ci si può aspettare che la gente ricompri quello che ha già, e non parlo solo di AMD, pure nVidia fino alla 2060 non aveva praticamente niente di nuovo.
quel -40% rispetto all'anno prima è tutto nelle scorte pascal di nvidia, ovvero era troppo alto il valore dell'anno scorso, non troppo basso quello di quest'anno....
bagnino89
07-03-2019, 12:01
https://www.jonpeddie.com/press-releases/jon-peddie-research-releases-its-q4-2018-add-in-board-report
Sotto il 20%. E navi è lontana 4 mesi minimo 🙄
Inviato dal mio Pixel 2 XL
Con le GPU, AMD mi sembra sempre di più alla frutta.
OvErClOck82
07-03-2019, 12:11
Perché? Se non ci fosse la 2080ti (che tu cmq non puoi/vuoi comprare, quindi non esiste) sarebbe competitiva su tutte le fasce.
Poi tu non la compreresti lo stesso perché non ti piace, e ci sta: ma il problema tuo è la fiducia, non il prodotto.
Quindi compra nvidia e sii felice.
Inviato dal mio SM-G960F utilizzando Tapatalk:ave:
Inviato dal mio COL-L29 utilizzando Tapatalk
Non vedo l'ora esca una gpu Intel......così avremo amd alla frutta e il puffo blu all'amaro....
Gyammy85
07-03-2019, 13:04
Con le GPU, AMD mi sembra sempre di più alla frutta.
Non direi, il fatto è che nvidia ha lanciato la sua nuova serie col solito fiorire di schede più o meno castratine qua e la, amd invece no, a parte la radeon 7 uscita a febbraio, togliendo la 590 che è una buona scheda ma con tutte le 580 che si trovano a poco non ha molto appeal. Chissà nvidia quante 1060 da 5 giga avrà messo nelle patatine in cina, per arrivare a quella quota...
Perché? Se non ci fosse la 2080ti (che tu cmq non puoi/vuoi comprare, quindi non esiste) sarebbe competitiva su tutte le fasce.
Poi tu non la compreresti lo stesso perché non ti piace, e ci sta: ma il problema tuo è la fiducia, non il prodotto.
Quindi compra nvidia e sii felice.
Inviato dal mio SM-G960F utilizzando Tapatalk
Quoto
Ma la VII ti è arrivata? :D
Non vedo l'ora esca una gpu Intel......così avremo amd alla frutta e il puffo blu all'amaro....
You win :sofico:
bagnino89
07-03-2019, 13:33
Perché? Se non ci fosse la 2080ti (che tu cmq non puoi/vuoi comprare, quindi non esiste) sarebbe competitiva su tutte le fasce.
Poi tu non la compreresti lo stesso perché non ti piace, e ci sta: ma il problema tuo è la fiducia, non il prodotto.
Quindi compra nvidia e sii felice.
Inviato dal mio SM-G960F utilizzando Tapatalk
No. Il problema principale di AMD è l'architettura che non scala bene come quella di Nvidia, e che consuma decisamente troppo. Cose dette e ridette ma così è. Quell'80% in mano ad Nvidia, non a caso, tiene anche parecchio conto delle GPU dedicate installate nei portatili, mercato che è quasi interamente in mano ad Nvidia. Ed è in mano ad Nvidia perché dal punto di vista performance/consumi le verdi sono ormai da anni avanti alle rosse.
Le mie preferenze personali contano ben poco... L'80% del market share non sono bruscolini, anche considerando la contrazione generale del settore, ecc.
I consumi sono alti se metti frequenze e voltaggi def oltre la curva di efficienza
esiste anche per nvidia, non a caso passare da bios da 325w a 403 guadagni uno sputo.....le amd escono già con il bios da 403w per continuare l'analogia non a caso gli tiri giù 100mv e vanno uguali o quasi.... a default nvidia trova un profilo già ottimizzato (il voltaggio che nvidia ha da due generazioni, nell'intorno del volt, amd è riuscita ad averlo solo adesso con i 7nm tsmc..... ma nonostante questo le spara di 100mv di troppo) avendo le prestazioni, amd cerca più prestazioni andando oltre lo sweet spot.....
questo non cambia nulla, la realtà è questa
lato mobile tutto è ottimizzabile ma non c'è la volontà (un commerciale di una nota marca italiana di laptop customizzabili mi disse che non tengono in considerazioni prodotti amd in quanto anni fa avevano avuto problemi con i driver :mbe: anni fa..... ) e la percezione intel/nvidia sulle masse è ormai irrecuperabile.... dovrebbero buttare m$ di sponsorizzazioni e offerte ai bimbominkia vari del webbe, non è detto che non lo stiano facenndo per forse raccogliere fra un anno o due....
Io me ne frego, non ho soldi nè voglia di cambiare, non tengo azioni di alcuno e cerco di trovare il tempo per giocare/smanettare. Le pippe ipotetiche e gli scenari gombloddari non hanno più senso senza Adam.
fraussantin
07-03-2019, 14:01
I consumi sono alti se metti frequenze e voltaggi def oltre la curva di efficienza
esiste anche per nvidia, non a caso passare da bios da 325w a 403 guadagni uno sputo.....le amd escono già con il bios da 403w per continuare l'analogia non a caso gli tiri giù 100mv e vanno uguali o quasi.... a default nvidia trova un profilo già ottimizzato (il voltaggio che nvidia ha da due generazioni, nell'intorno del volt, amd è riuscita ad averlo solo adesso con i 7nm tsmc..... ma nonostante questo le spara di 100mv di troppo) avendo le prestazioni, amd cerca più prestazioni andando oltre lo sweet spot.....
questo non cambia nulla, la realtà è questa
lato mobile tutto è ottimizzabile ma non c'è la volontà (un commerciale di una nota marca italiana di laptop customizzabili mi disse che non tengono in considerazioni prodotti amd in quanto anni fa avevano avuto problemi con i driver :mbe: anni fa..... ) e la percezione intel/nvidia sulle masse è ormai irrecuperabile.... dovrebbero buttare m$ di sponsorizzazioni e offerte ai bimbominkia vari del webbe, non è detto che non lo stiano facenndo per forse raccogliere fra un anno o due....
Io me ne frego, non ho soldi nè voglia di cambiare, non tengo azioni di alcuno e cerco di trovare il tempo per giocare/smanettare. Le pippe ipotetiche e gli scenari gombloddari non hanno più senso senza Adam.
sui processori hanno recuperato , benchè siano cmq inferiori (nei game) rispetto ad intel.
se uscissero una gpu quasi potente come le nvidia ma che costasse meno con consumi e rumorosità decenti secondo me recurerebbe. una polaris nuova , ma su tutta la gamma non solo in fascai bassa
ninja750
07-03-2019, 14:33
benchè siano cmq inferiori (nei game) rispetto ad intel.
(a 1080p)
mikael84
07-03-2019, 14:37
Navi dovrebbe derivare da polaris e non da vega, polaris è molto più gaming focused rispetto a vega
Il refresh diretto di polaris ti farebbe perdere parte delle caratteristiche dx12, come il conservative rasterizzer ed il doppio ratio fp16, nonchè disaccoppiare la l2 dalle rop's con relativi ponti.
Probabilmente rivedranno qualcosa, ma difficile sia un Polaris 7nm.
A livello di prestazioni si, magari introduccendo l'ADV shading
mettendo un 30% dato dallo shrink, il resto è arch e clock per arrivare a +50/60% su polaris
+50/60% è abbastanza ottimistico, la prima 480 staccava la 380x (4gb) di un 35-40%.
Questo dipenderà molto dalle capacità di clock finali, ad oggi, in un chip tiratissimo a pipeline sono arrivati ad un compromesso sui 1750.
La 2060 dista circa un 50/60% nelle medie (considerando anche i giochi sfavorevoli) dalla 580 (che è già un'esemplare migliorato), quindi l'obbiettivo è quello, o almeno la V56.
mettici un 2x geometrico (che è il terget di amd ad ogni refresh dell'arch) e magari qualche rop in più ridisegnata e hai la 2060/2070 in 150 watt di tdp
No assolutamente, la geometria rimane uguale, con 4 raster hai sempre 4 triangoli per ciclo, la differenza sta nel clock, e dalla probabile aggiunta del DSBR di Vega.
Le rop's saranno uguali, 32 su un mid chip, salvo una struttura a 6, ma anche arcturus pare a 4.
Ma non si diceva già da tempo che Navi sarebbe stata la prima architettura pensata in toto da Raja? In questo caso ci si potrebbe quasi aspettare il partire da zero già da quella architettura, ma magari volevano intendere altro.
La nuova architettura sarà quasi sicuramente arcturus, 2020 7nm+
fraussantin
07-03-2019, 14:38
(a 1080p)
i processori come li misuri in 4k ? quando poi fra 2 anni avremo gpu più prestanti vedrai che ci saranno differenze grosse pure la
Gyammy85
07-03-2019, 14:45
Il refresh diretto di polaris ti farebbe perdere parte delle caratteristiche dx12, come il conservative rasterizzer ed il doppio ratio fp16, nonchè disaccoppiare la l2 dalle rop's con relativi ponti.
Probabilmente rivedranno qualcosa, ma difficile sia un Polaris 7nm.
A livello di prestazioni si, magari introduccendo l'ADV shading
+50/60% è abbastanza ottimistico, la prima 480 staccava la 380x (4gb) di un 35-40%.
Questo dipenderà molto dalle capacità di clock finali, ad oggi, in un chip tiratissimo a pipeline sono arrivati ad un compromesso sui 1750.
La 2060 dista circa un 50/60% nelle medie (considerando anche i giochi sfavorevoli) dalla 580 (che è già un'esemplare migliorato), quindi l'obbiettivo è quello, o almeno la V56.
No assolutamente, la geometria rimane uguale, con 4 raster hai sempre 4 triangoli per ciclo, la differenza sta nel clock, e dalla probabile aggiunta del DSBR di Vega.
Le rop's saranno uguali, 32 su un mid chip, salvo una struttura a 6, ma anche arcturus pare a 4.
La nuova architettura sarà quasi sicuramente arcturus, 2020 7nm+
Si intendevo che dovrebbe essere vicina a polaris come filosofia se differenziano le arch da mid a high end
+35-40% dalla 380x? mah, mi sembra pochino, passando da 280x a 580 nitro sono a minimo +50% fino ad arrivare al doppio in certi casi, quindi ci sono ottime possibilità che il guadagno sia altrettanto
Lasciamole stare le medie, che servono solo a fare click sui siti
Per arcturus non si sa niente ancora
mikael84
07-03-2019, 14:59
Si intendevo che dovrebbe essere vicina a polaris come filosofia se differenziano le arch da mid a high end
+35-40% dalla 380x? mah, mi sembra pochino, passando da 280x a 580 nitro sono a minimo +50% fino ad arrivare al doppio in certi casi, quindi ci sono ottime possibilità che il guadagno sia altrettanto
La 280x è la 7970:p , quella si ha 2 triangoli e 4 array, ma il riferimento dovrebbe essere la 380x.;)
Lasciamole stare le medie, che servono solo a fare click sui siti
Assolutamente no, le medie servono a paragonare le GPU in presenza vari giochi. Non serve affidarsi ad una review, basta valutare le medie complessive e ci si fa un'idea.
Fatto ciò, che sia un -5 o +5 rispetto alla rivale, siamo li.;)
Free Gordon
07-03-2019, 15:31
https://www.jonpeddie.com/press-releases/jon-peddie-research-releases-its-q4-2018-add-in-board-report
Sotto il 20%. E navi è lontana 4 mesi minimo 🙄
Inviato dal mio Pixel 2 XL
Nvidia COMUNQUE ha presentato una serie nuova... AMD una fava... :stordita:
Per quanto le 2xxx siano delle schede discretamente inutili, presentare nuove serie smuove spesso le vendite.
Navi non pervenuta....
Free Gordon
07-03-2019, 15:31
Q1 e Q2 c'è campo libero con 2060/1660ti/1660.
AMD sicuramente abbasserà i prezzi, ma la gente preferisce sempre il prodotto nuovo.
Devono sbrigarsi.
Certamente..
Free Gordon
07-03-2019, 15:39
I consumi sono alti se metti frequenze e voltaggi def oltre la curva di efficienza
Eh sì... :D il problema è che è AMD a DOVER andare in quella zona rossa..... :)
Proprio perché come dice bagnino, ormai (da anni) GCN non scala bene verso l'alto.
Girala come vuoi, sempre di problema architetturale parliamo, dato che dall'altra parte c'è l'architettura Nvidia...e non Silicon Graphics o VIA... :asd:
Free Gordon
07-03-2019, 15:45
La nuova architettura sarà quasi sicuramente arcturus, 2020 7nm+
Se questo è vero.... voglio proprio vedere cosa faranno per contrastare la futura 3080...... :doh: :doh: :doh: senza scomodare la Ti...
Se questo è vero.... voglio proprio vedere cosa faranno per contrastare la futura 3080...... :doh: :doh: :doh: senza scomodare la Ti...
La Ti la vedremo sicuramente nel 2021, si torna alla solita tempistica di un anno di attesa per il modello di punta, come giusto che sia. E' tutto da vedere qui, non sappiamo né come potrebbe essere la 3080 né come sarà la concorrente AMD che la dovrà affrontare. Sarà un anno interessante il 2020, non vedo l'ora :eek:
mikael84
07-03-2019, 16:10
Se questo è vero.... voglio proprio vedere cosa faranno per contrastare la futura 3080...... :doh: :doh: :doh: senza scomodare la Ti...
Da quello che ho letto sul probabile progetto arcturus, si cercherà di arrivare a picchi di calcolo ben migliori, levando o ottimizzando un grosso collo di bottiglia.
In single performance una Vega64 performa circa 12,5 TF, ovvero 1 TF in più della 1080ti.
In calcolo effettivo con LDS perde 1/4, quindi 9,39tf, con SFU il ratio scende ancora.
Questo è un esempio banale di una Vega da 12,5TF, che in calcolo puro si colloca a 7,5/7,7tf circa
https://images.anandtech.com/graphs/graph13431/101946.png
La vII fa circa 117, valore da 2060 con il vantaggio INT (situazione quasi irreale), e ancora inferiore a quello di una 1080ti.
La differenza cambia in calcolo ridondanti e con registri precompilati compute, dove sfrutti praticamente tutto il teorico (quasi 14tf), o in game scritti apposittamente, dove si cerca di ottimizzare al massimo l'uso delle risorse,.
Non a caso nei giochi non compilati per AMD come gli unreal, ti ritrovi la V64 andare quanto una 1070 o poco più, proprio come il grafico.
Con arcturus, si dovrebbe mettere una pezza proprio qua, migliorando la capacità effettiva di calcolo in qualsiasi applicazione.
I core, potranno lavorare su dati che prima erano in attesa.:)
Con sto Arcturus as "new arch" mi state triggerando male.
By un tipo AMD:
Just a reminder... the Arcturus code name refers to a specific *chip*, not an *architecture*. Somebody misread my post on Phoronix and thought it was a new architecture, and that has been echoing around the internet ever since.
Arcturus is just the first GPU we started after going back to using code names in the driver that are completely unrelated to the marketing name. The change should mean one less thing to worry about when we push Linux drivers out to a public repo on the way to upstream.
Inviato dal mio Pixel 2 XL
Nel 2020 nvidia sale al 95% e amd rimane al 20....oh wait!
Gyammy85
07-03-2019, 17:29
Eh sì... :D il problema è che è AMD a DOVER andare in quella zona rossa..... :)
Proprio perché come dice bagnino, ormai (da anni) GCN non scala bene verso l'alto.
Girala come vuoi, sempre di problema architetturale parliamo, dato che dall'altra parte c'è l'architettura Nvidia...e non Silicon Graphics o VIA... :asd:
Vabbè dai nvidia è andata avanti a furia di acquisizioni strategiche e cose proprietarie di dubbia utilità, twimtbp è uscito guarda caso nel 2002 quando ha visto che veniva tranciata da r300
Manco nvidia scala bene, guarda quanto va la titan v con 5000 e passa sp, uguale alla 2080ti da 4300, guarda quanto va in computing la 7 rispetto a 2080ti che è più del doppio, scriviamo sempre le stesse cose, se non fossimo nell'era del marketing sfrenato da nabbi con il cappellino "gheimiiingg" pure sul minestrone nvidia sarebbe nei guai, ricordo dirt showdown con l'illuminazione via direct compute e 7970 povera andare quanto la titan kepler "si ma tanto che ci frega, il gioco fa schifo" :asd:
mikael84
07-03-2019, 18:07
Vabbè dai nvidia è andata avanti a furia di acquisizioni strategiche e cose proprietarie di dubbia utilità, twimtbp è uscito guarda caso nel 2002 quando ha visto che veniva tranciata da r300
Manco nvidia scala bene, guarda quanto va la titan v con 5000 e passa sp, uguale alla 2080ti da 4300, guarda quanto va in computing la 7 rispetto a 2080ti che è più del doppio, scriviamo sempre le stesse cose, se non fossimo nell'era del marketing sfrenato da nabbi con il cappellino "gheimiiingg" pure sul minestrone nvidia sarebbe nei guai, ricordo dirt showdown con l'illuminazione via direct compute e 7970 povera andare quanto la titan kepler "si ma tanto che ci frega, il gioco fa schifo" :asd:
Ti insegno una cosa::p
Titan V: 5120cc /1455 mhz (14,8tf teorici + int)
2080ti: 4356cc / 1700 mhz (14,8tf teorici + int)
Effettivamente ci hai preso a teorici fp32:sofico:
https://images.anandtech.com/graphs/graph13346/100943.png
Sul resto non ha senso commentare.
Chiudo OT.:)
AceGranger
07-03-2019, 19:47
Ti insegno una cosa::p
Titan V: 5120cc /1455 mhz (14,8tf teorici + int)
2080ti: 4356cc / 1700 mhz (14,8tf teorici + int)
Effettivamente ci hai preso a teorici fp32:sofico:
https://images.anandtech.com/graphs/graph13346/100943.png
Sul resto non ha senso commentare.
Chiudo OT.:)
la matematica non è per tutti :p
Free Gordon
08-03-2019, 02:15
Insomma, secondo me non è che continuano a riproporre GCN per masochismo... è che al momento è la cosa migliore da fare.
Tirano a campare... :)
Non hanno i soldi/risorse per sviluppare come dovrebbero perché negli anni passati (ultimi 10 ...buoni..) hanno combinato un mucchio di stupidaggini lato marketing (ma anche lato progettazione)
Gyammy85
08-03-2019, 07:48
Tirano a campare... :)
Non hanno i soldi/risorse per sviluppare come dovrebbero perché negli anni passati (ultimi 10 ...buoni..) hanno combinato un mucchio di stupidaggini lato marketing (ma anche lato progettazione)
GCN è l'arch più versatile sul mercato, ci fai tutto, calcolo puro, ai, console, pc gaming, apu, rendering, tutto insomma, con nvidia semplicemente non si può fare, come apple si muove nel suo ecosistema perché se esce ha grosse difficoltà.
Direi di tornare IT con questo gustoso leak di Navi
https://compubench.com/device.jsp?benchmark=compu15d&os=Windows&api=cl&D=AMD+66AF%3AF1&testgroup=overall
Optical flow io faccio 39,42, quel leak 38,2 con sole 20 cu :eek: :sbav:
bagnino89
08-03-2019, 10:30
Tirano a campare... :)
Non hanno i soldi/risorse per sviluppare come dovrebbero perché negli anni passati (ultimi 10 ...buoni..) hanno combinato un mucchio di stupidaggini lato marketing (ma anche lato progettazione)
Sì, pure io la vedo così.
Gyammy85
08-03-2019, 11:10
Sì, pure io la vedo così.
Non mi pare, i prodotti sono in roadmap da anni, console next gen già prenotate, ecosistema cpu e gpu sempre più forte, se questo è tirare a campare...
fraussantin
08-03-2019, 11:17
Sì, pure io la vedo così.Bah campare a questo modo non ha senso non dico rimessa , ma poco ci manca. . Secondo me hanno qualcosa in pentola , ma ho paura che non sarà il chip che arriverà a settembre.
Poi non gli ci voleva che nvidia supportasse il freesync. In un momento come questo è una bella fregatura per loro.
Roland74Fun
08-03-2019, 11:20
Direi di tornare IT con questo gustoso leak di Navi
https://compubench.com/device.jsp?benchmark=compu15d&os=Windows&api=cl&D=AMD+66AF%3AF1&testgroup=overall
Optical flow io faccio 39,42, quel leak 38,2 con sole 20 cu :eek: :sbav:
Quindi stiamo parlando di una ragguardevole aumento di potenza in quel tipo di calcolo.
Infatti, se la matematica non è un'opinione, facendo il rapporto del risultato del leak in un ipotizzabile chip con 36 CU si otterrebbe un punteggio di 68,76 il che rappresenterebbe, in quel tipo di calcolo, un Up 80% faster rispetto all'archittettura polaris a parità di unità computazionali.
Gyammy85
08-03-2019, 11:23
Bah campare a questo modo non ha senso non dico rimessa , ma poco ci manca. . Secondo me hanno qualcosa in pentola , ma ho paura che non sarà il chip che arriverà a settembre.
Poi non gli ci voleva che nvidia supportasse il freesync. In un momento come questo è una bella fregatura per loro.
Si il mezzo supporto per una manciata di monitor :asd:
Gyammy85
08-03-2019, 11:28
Quindi stiamo parlando di una ragguardevole aumento di potenza in quel tipo di calcolo.
Infatti, se la matematica non è un'opinione, facendo il rapporto del risultato del leak in un ipotizzabile chip con 36 CU si otterrebbe un punteggio di 68,76 il che rappresenterebbe, in quel tipo di calcolo, un Up 80% faster rispetto all'archittettura polaris a parità di unità computazionali.
Devono aver ridisegnato il tutto, comunque poi scarico il compubench 1.5 così provo gli altri test che nel 2 non ci sono.
Trex 14 fps è incredibilmente alto
Bah campare a questo modo non ha senso non dico rimessa , ma poco ci manca. . Secondo me hanno qualcosa in pentola , ma ho paura che non sarà il chip che arriverà a settembre.
Poi non gli ci voleva che nvidia supportasse il freesync. In un momento come questo è una bella fregatura per loro.
curioso
io pensavo che la fregatura l'avesse tirata nvidia a chi aveva acquistato a dollaroni sonanti un gsync....sarei curioso di vedere quanti ne stanno vendendo dopo questa mossa benefica....
AceGranger
08-03-2019, 11:35
Tirano a campare... :)
Non hanno i soldi/risorse per sviluppare come dovrebbero perché negli anni passati (ultimi 10 ...buoni..) hanno combinato un mucchio di stupidaggini lato marketing (ma anche lato progettazione)
ma infatti gli sta andando bene solo nel ramo console stand-alone dove non hanno ancora concorrenza; nel mercato GPU consumer sono saliti un po e ora riscesi, nel Pro non sono mai risaliti e nel Computing non si sono mai visti...
fraussantin
08-03-2019, 11:38
curioso
io pensavo che la fregatura l'avesse tirata nvidia a chi aveva acquistato a dollaroni sonanti un gsync....sarei curioso di vedere quanti ne stanno vendendo dopo questa mossa benefica....Sono anche aumentati di prezzo se per quello. E secondo me una volta esauriti i moduli e i monitor in stock adotteranno a pieno il fs. Lasciando g sync solo per i monitor da 1500 euro.
Ma non è quello il discorso.
Ma il fatto che nvidia supportando freesync ha aperto il mercato di turing a tutta la clientela amd con una gpu da cambiare. Non penso che amd sia felice di questa cosa.
Gyammy85
08-03-2019, 11:38
ma infatti gli sta andando bene solo nel ramo console stand-alone dove non hanno ancora concorrenza; nel mercato GPU consumer sono saliti un po e ora riscesi, nel Pro non sono mai risaliti e nel Computing non si sono mai visti...
Mica è colpa di amd se non riescono a stabilire rapporti con i produttori di console e non hanno un'architettura versatile
Gyammy85
08-03-2019, 11:43
Sono anche aumentati di prezzo se per quello. E secondo me una volta esauriti i moduli e i monitor in stock adotteranno a pieno il fs. Lasciando g sync solo per i monitor da 1500 euro.
Ma non è quello il discorso.
Ma il fatto che nvidia supportando freesync ha aperto il mercato di turing a tutta la clientela amd con una gpu da cambiare. Non penso che amd sia felice di questa cosa.
Infatti amd dice "avevamo ragione noi" :D
bagnino89
08-03-2019, 11:46
Non mi pare, i prodotti sono in roadmap da anni, console next gen già prenotate, ecosistema cpu e gpu sempre più forte, se questo è tirare a campare...
Parlavo sempre di architettura GPU. Ci vorrebbe una bella svolta come c'è stata per le CPU.
Ma il fatto che nvidia supportando freesync ha aperto il mercato di turing a tutta la clientela amd con una gpu da cambiare. Non penso che amd sia felice di questa cosa.
Vero. Anche se a me le Turing non convincono molto. Chi come me ha una 1080 (ma anche una 1080 Ti), non ha incentivi a cambiare. Allo stato attuale RTX e DLSS non sono stimoli sufficienti.
Mica è colpa di amd se non riescono a stabilire rapporti con i produttori di console e non hanno un'architettura versatile
Su console è tutta una questione di prezzo: ormai Sony e Microsoft hanno capito che non ha senso presentare sul mercato console estremamente potenti e all'avanguardia (come ai tempi di PS3/360 per dire), perché tanto la massa non vuole spendere troppi soldi per una console (giustamente) e i margini sono quelli che sono. Tanto vale usare un'architettura a buon mercato, e da questo punto di vista le APU AMD sono inarrivabili.
mikael84
08-03-2019, 11:47
Devono aver ridisegnato il tutto, comunque poi scarico il compubench 1.5 così provo gli altri test che nel 2 non ci sono.
Trex 14 fps è incredibilmente alto
Dubito che Navi abbia 16gb di ram in fascia midrange, come si legge in quel grafico.;)
ninja750
08-03-2019, 11:51
Dubito che Navi abbia 16gb di ram in fascia midrange, come si legge in quel grafico.;)
se non HBM potrebbe essere plausibile altrimenti il costo sarebbe troppo elevato
fraussantin
08-03-2019, 11:52
l
Vero. Anche se a me le Turing non convincono molto. Chi come me ha una 1080 (ma anche una 1080 Ti), non ha incentivi a cambiare. Allo stato attuale RTX e DLSS non sono stimoli sufficienti.
.
Chi pascal fa bene a tenerselo , lo abbiamo sempre detto , ma chi ha sempre una 290 ma anche una 480 sarà tentato.
se non HBM potrebbe essere plausibile altrimenti il costo sarebbe troppo elevato
E che te ne fai di 16 nella fascia media? Si prospettano altissime performance rispetto la fascia alta di ora? Sarà adeguata per il 4K?
AceGranger
08-03-2019, 12:00
Mica è colpa di amd se non riescono a stabilire rapporti con i produttori di console e non hanno un'architettura versatile
quello non si chiama versatilia, si chiama avere le licenze X86 che Intel non vuole concedere a nessuno, figuriamoci poi a nVidia che sono li ad accoltellarsi...
tolte le console dove non possono essere effettuate comparazioni dirette, nel resto degli ambiti dove è presente AMD fa solo magre figure.
ninja750
08-03-2019, 12:00
E che te ne fai di 16 nella fascia media? Si prospettano altissime performance rispetto la fascia alta di ora? Sarà adeguata per il 4K?
c'è sempre stata una escalation
la fascia media attuale è 8gb (o 6 per gli altri), con tonga era 4gb, con cayman 2gb, r700 512mb..
se navi sarà fatta in 3 tagli dalla potenza di vega56 in su vuol dire che minimo per il 2K sarà
mikael84
08-03-2019, 12:11
se non HBM potrebbe essere plausibile altrimenti il costo sarebbe troppo elevato
Anche se non sono HBM, dovresti creare un bus a ben 512bit, l'equivalente ddr del 4096 HBM2.
I costi sono di 200$ per le sole ram.
Ne dubito fortemente.
curioso
io pensavo che la fregatura l'avesse tirata nvidia a chi aveva acquistato a dollaroni sonanti un gsync....sarei curioso di vedere quanti ne stanno vendendo dopo questa mossa benefica....
Chiaro che gli utenti con monitor GSync l'hanno preso dove non batte il sole, ovviamente... ma ormai quelli non rappresentavano più "nuovi potenziali clienti", per la casa verde (e probabilmente rimarranno comunque fedeli al brand nonostante l'inc****a senza vasellina). Quindi mettendo le scelte sul piatto della bilancia han visto che gli conveniva comunque andare a rompere le uova nel paniere ad AMD (tentando in questo modo di frenare il più possibile l'emorragia di quanti avrebbero comprato una combo amd/freesync per risparmiare rispetto a nvidia/gsync).
Io stesso, che stavo per cambiare monitor, NON avrei mai preso un gsync pur avendo nvidia (per via del costo), ripromettendomi, una volta preso il monitor freesync (un bel dell nuovo scontato in occasione), di ripassare ad amd in futuro per poterlo sfruttare col freesync... guarda un po', ora posso farlo anche restando con nvidia.... mica scema, insomma... ;)
ps: la lista dei 12 monitor certificati poi è una vaccata fatta solo per addolcire un po' la pillola a chi aveva già il gsync, come per dire: "sì ok, va, ma solo su 12 su millemila testati! I gsync invece sono tutti certificati e senza alcun problema!" Balle... alla fine si è visto che il Gsync va benone sul 90% dei monitor Freesync (e dove va male è spesso perché andava male anche lo stesso Freesync)
c'è sempre stata una escalation
la fascia media attuale è 8gb (o 6 per gli altri), con tonga era 4gb, con cayman 2gb, r700 512mb..
se navi sarà fatta in 3 tagli dalla potenza di vega56 in su vuol dire che minimo per il 2K sarà
Dubito visto in che inserimento di fascia e quindi di prezzo si inserirà. Ipotizzo al massimo 8GB
Andy1111
08-03-2019, 13:20
Chiaro che gli utenti con monitor GSync l'hanno preso dove non batte il sole, ovviamente... ma ormai quelli non rappresentavano più "nuovi potenziali clienti", per la casa verde (e probabilmente rimarranno comunque fedeli al brand nonostante l'inc****a senza vasellina). Quindi mettendo le scelte sul piatto della bilancia han visto che gli conveniva comunque andare a rompere le uova nel paniere ad AMD (tentando in questo modo di frenare il più possibile l'emorragia di quanti avrebbero comprato una combo amd/freesync per risparmiare rispetto a nvidia/gsync).
Io stesso, che stavo per cambiare monitor, NON avrei mai preso un gsync pur avendo nvidia (per via del costo), ripromettendomi, una volta preso il monitor freesync (un bel dell nuovo scontato in occasione), di ripassare ad amd in futuro per poterlo sfruttare col freesync... guarda un po', ora posso farlo anche restando con nvidia.... mica scema, insomma... ;)
ps: la lista dei 12 monitor certificati poi è una vaccata fatta solo per addolcire un po' la pillola a chi aveva già il gsync, come per dire: sì ok, va, ma solo su 12 su millemila testati! I gsync invece sono tutti certificati e senza alcun problema! Balle... alla fine si è visto che il Freesync va benone sul 90% dei monitor (e dove va male è spesso perché andava male anche lo stesso Freesync)
si funziona il freesync e non sempre va sempre bene , un po una lotteria o sbaglio? ma freesync 2 hdr non potranno usarlo, per quello devono usare i monitor g-sync hdr con la bella schedina da 500€
sgrinfia
08-03-2019, 13:29
curioso
io pensavo che la fregatura l'avesse tirata nvidia a chi aveva acquistato a dollaroni sonanti un gsync....sarei curioso di vedere quanti ne stanno vendendo dopo questa mossa benefica....
Purtoppo gli utenti Invidia non sono famosi per la loro "lungimiranza",visto che la Invidia di vaccate ne a fatte pure prima ma ......se a loro piace cosi........sono padroni di spendere i loro soldi come meglio credono
ninja750
08-03-2019, 13:51
Anche se non sono HBM, dovresti creare un bus a ben 512bit, l'equivalente ddr del 4096 HBM2.
I costi sono di 200$ per le sole ram.
Ne dubito fortemente.
a meno di due revision.. che so:
Dubito visto in che inserimento di fascia e quindi di prezzo si inserirà. Ipotizzo al massimo 8GB
si può sempre fare come al solito es le 580 vendute a 4gb/8gb e le 380 vendute a 4gb/8gb magari un navi entry 8gb e un navi uber 16gb
ninja750
08-03-2019, 13:53
ps: la lista dei 12 monitor certificati poi è una vaccata fatta solo per addolcire un po' la pillola a chi aveva già il gsync, come per dire: "sì ok, va, ma solo su 12 su millemila testati! I gsync invece sono tutti certificati e senza alcun problema!" Balle... alla fine si è visto che il Gsync va benone sul 90% dei monitor Freesync (e dove va male è spesso perché andava male anche lo stesso Freesync)
il problema di fondo è che se compri un monitor freesync da usare con scheda verde alla prima accensione ti salirà un brivido che parte dalla parte bassa della schiena fino a dietro al coppino
Ale55andr0
08-03-2019, 14:14
nel frattempo nel q4 2018 amd è scesa al 18.8% del mercato lato gpu. Incoraggiante :stordita:
Anche se non sono HBM, dovresti creare un bus a ben 512bit, l'equivalente ddr del 4096 HBM2.
I costi sono di 200$ per le sole ram.
Ne dubito fortemente.
con 16gb puoi fare 256bit no?
Ton90maz
08-03-2019, 14:14
Mica è colpa di amd se non riescono a stabilire rapporti con i produttori di console e non hanno un'architettura versatile
Ma se hanno venduto oltre 32 milioni di tegrapack x1 agli sdentati in 21 mesi :asd:
Si considerano solo i produttori di console che più fanno comodo?
mikael84
08-03-2019, 14:33
nel frattempo nel q4 2018 amd è scesa al 18.8% del mercato lato gpu. Incoraggiante :stordita:
con 16gb puoi fare 256bit no?
Si, ma devi utilizzare le sole Samsung a doppia densità, che anche nvidia usa solo nelle costose quadro.
Siamo sulle 200$ di sole ram.:)
Gyammy85
08-03-2019, 14:53
Su console è tutta una questione di prezzo: ormai Sony e Microsoft hanno capito che non ha senso presentare sul mercato console estremamente potenti e all'avanguardia (come ai tempi di PS3/360 per dire), perché tanto la massa non vuole spendere troppi soldi per una console (giustamente) e i margini sono quelli che sono. Tanto vale usare un'architettura a buon mercato, e da questo punto di vista le APU AMD sono inarrivabili.
Mah, ps3 montava g70 custom e 360 r500 custom, che supportava pure la tessellation (usata solo nel gioco viva pinata mi pare), nvidia non ha niente da proporre comunque
Dubito che Navi abbia 16gb di ram in fascia midrange, come si legge in quel grafico.;)
Però gfx10 non corrisponde a nessuna radeon in commercio, quindi è navi sicuramente, come fascia bassa nel range delle 580-590 ci sta
quello non si chiama versatilia, si chiama avere le licenze X86 che Intel non vuole concedere a nessuno, figuriamoci poi a nVidia che sono li ad accoltellarsi...
tolte le console dove non possono essere effettuate comparazioni dirette, nel resto degli ambiti dove è presente AMD fa solo magre figure.
Solo tu vedi ste magre figure, intanto ha guadagnato nel settore datacenter solo di gpu e nvidia ha perso il 14%
Ma se hanno venduto oltre 32 milioni di tegrapack x1 agli sdentati in 21 mesi :asd:
Si considerano solo i produttori di console che più fanno comodo?
Perché c'è mario, mica perché c'è il marchietto nvidia, infatti non può far girare i giochi wiiu :asd:
Cioè non è che hanno messo il gp106 modulare cuttato, il tegra del 2010, sicuro nintendo appena potrà scapperà a gambe levate e tornerà con amd (wii e wiiu avevano gpu ati/amd)
mikael84
08-03-2019, 15:28
Però gfx10 non corrisponde a nessuna radeon in commercio, quindi è navi sicuramente, come fascia bassa nel range delle 580-590 ci sta
Non con 200$ ddr6 samsung di ram in fascia 250$, o 400$ di HBM2 più interposer in fascia 250$.
Magari sono errori di lettura, come le 20 CU ed il clock, oppure un fake.
Chiaro che gli utenti con monitor GSync l'hanno preso dove non batte il sole, ovviamente... ma ormai quelli non rappresentavano più "nuovi potenziali clienti", per la casa verde (e probabilmente rimarranno comunque fedeli al brand nonostante l'inc****a senza vasellina). Quindi mettendo le scelte sul piatto della bilancia han visto che gli conveniva comunque andare a rompere le uova nel paniere ad AMD (tentando in questo modo di frenare il più possibile l'emorragia di quanti avrebbero comprato una combo amd/freesync per risparmiare rispetto a nvidia/gsync).
Io stesso, che stavo per cambiare monitor, NON avrei mai preso un gsync pur avendo nvidia (per via del costo), ripromettendomi, una volta preso il monitor freesync (un bel dell nuovo scontato in occasione), di ripassare ad amd in futuro per poterlo sfruttare col freesync... guarda un po', ora posso farlo anche restando con nvidia.... mica scema, insomma... ;)
ps: la lista dei 12 monitor certificati poi è una vaccata fatta solo per addolcire un po' la pillola a chi aveva già il gsync, come per dire: "sì ok, va, ma solo su 12 su millemila testati! I gsync invece sono tutti certificati e senza alcun problema!" Balle... alla fine si è visto che il Gsync va benone sul 90% dei monitor Freesync (e dove va male è spesso perché andava male anche lo stesso Freesync)
si chiama rispetto della clientela
amen
AceGranger
08-03-2019, 16:06
Solo tu vedi ste magre figure,
al massimo è il contrario, solo tu non le vedi :p.
intanto ha guadagnato nel settore datacenter solo di gpu e nvidia ha perso il 14%
come no
Datacenter nVidia Q4
-14% Q/Q
+50% Y/Y
Enterprise, Embedded, and Semi-Custom AMD Q4
-39% Q/Q
0% Y/Y
https://www.anandtech.com/show/13917/amd-earnings-report-q4-fy-2018
https://www.anandtech.com/show/13965/nvidia-earnings-report-q4-2019-crypto-pain-but-full-year-gain
un -39% con dentro pure gli EPYC che stanno andando bene... nVidia con le sole Tesla fattura quasi il doppio di tutto il mappazzone enterprise di AMD...
il problema di fondo è che se compri un monitor freesync da usare con scheda verde alla prima accensione ti salirà un brivido che parte dalla parte bassa della schiena fino a dietro al coppino
... ma nella stragrande maggioranza dei casi è un brivido di piacere! :O
si chiama rispetto della clientela
amen
Assolutamente d'accordo... io 'sto giro ne ho beneficiato, ok (mors tua, vita mea :O), ma altro non è che l'ennesima porcata che si va ad aggiungere alla già numerosa lista... ;)
Ton90maz
08-03-2019, 18:00
Perché c'è mario, mica perché c'è il marchietto nvidia, infatti non può far girare i giochi wiiu :asd:
Cioè non è che hanno messo il gp106 modulare cuttato, il tegra del 2010, sicuro nintendo appena potrà scapperà a gambe levate e tornerà con amd (wii e wiiu avevano gpu ati/amd)
Che c'entra che c'è Mario? :asd:
Al limite come obiezione potresti far notare che sono andati avanti per anni con uno psicopatico a capo del settore ricerca e sviluppo, e con altri ritardati a rovinare il lavoro dell'ottima divisione software.
Quindi i candidati perfetti per farsi infinocchiare da invidia con il tegrapacco del 2015, non del 2010, anche ai tempi ci provarono ma il cuggino scemo del Takeda (quello che a capo della divisione rottami portatili) aveva optato per quella rivoltante pica 200 da navigatore satellitare e i due arm11 dei vecchi nokia cuciti assieme.
Chissà se hanno fatto pace Nintendo e Nvidia :asd:
Gli hanno venduto il tegra x1 con una vulnerabilità hw che ha permesso di modificare tutte le console prodotte fino ad agosto 2018.
Conoscendo Nintendo, non l'avrà presa per niente bene.
Inviato dal mio Pixel 2 XL
Chissà se hanno fatto pace Nintendo e Nvidia :asd:
Gli hanno venduto il tegra x1 con una vulnerabilità hw che ha permesso di modificare tutte le console prodotte fino ad agosto 2018.
Conoscendo Nintendo, non l'avrà presa per niente bene.
Inviato dal mio Pixel 2 XL
ichi the killer è già in viaggio
Ale55andr0
11-03-2019, 08:07
https://wccftech.com/amd-navi-gpu-radeon-rx-benchmarks-graphics-performance-rumors/
mircocatta
11-03-2019, 09:03
https://wccftech.com/amd-navi-gpu-radeon-rx-benchmarks-graphics-performance-rumors/
finalmente una vera gpu da gaming?
ninja750
11-03-2019, 09:31
la questione è che se fai una architettura tutta nuova e poi nella fascia mainstream vai come vega56 presentata due anni prima poniamo pure a un prezzo e consumi inferiore non fai altro che nvidizzarti es le 2060=1070ti e le 2070=1080ti insomma niente di sostanzialmente nuovo prestazionalmente parlando
Gyammy85
11-03-2019, 09:37
https://wccftech.com/amd-navi-gpu-radeon-rx-benchmarks-graphics-performance-rumors/
Interessante, non avevo visto ancora quelle tabelle col confronto diretto con la 580, posso confermare che sono veri (io faccio sui 39 con optical flow)
Sembra un bel pugno in faccia sta gpu, d'altronde già polaris eguagliava hawaii full (390x)
finalmente una vera gpu da gaming?
Sembra rendere linearmente bene con tutto, gfxbench mi pare fosse un pò come ue4 per amd
Insomma digerisce anche la robaccia, finalmente ue4 battle royaling power. :D
Gyammy85
11-03-2019, 09:40
la questione è che se fai una architettura tutta nuova e poi nella fascia mainstream vai come vega56 presentata due anni prima poniamo pure a un prezzo e consumi inferiore non fai altro che nvidizzarti es le 2060=1070ti e le 2070=1080ti insomma niente di sostanzialmente nuovo prestazionalmente parlando
Ad oggi ci sono due leak con due codici riferibili a navi, questa qui sembra la entry, quindi fascia vega 56 e 64+ la full
Se quei result sono veri, guadagnerà molto in tutta la roba dove polaris e vega soffrono, certo in computing perde un pochino, ma vega è un mostro in computing, non c'è padellone nvidia che tenga.
nessuno29
11-03-2019, 10:05
la questione è che se fai una architettura tutta nuova e poi nella fascia mainstream vai come vega56 presentata due anni prima poniamo pure a un prezzo e consumi inferiore non fai altro che nvidizzarti es le 2060=1070ti e le 2070=1080ti insomma niente di sostanzialmente nuovo prestazionalmente parlando
Dipende dal prezzo però,se toglie fuori prestazioni da vega 64 a 250 euro street price ben venga.
mircocatta
11-03-2019, 10:30
la questione è che se fai una architettura tutta nuova e poi nella fascia mainstream vai come vega56 presentata due anni prima poniamo pure a un prezzo e consumi inferiore non fai altro che nvidizzarti es le 2060=1070ti e le 2070=1080ti insomma niente di sostanzialmente nuovo prestazionalmente parlando
nvidizzarsi significherebbe fare queste navi al pari di vega56-64 senza abbassare i prezzi delle nuove schede
se una ipotetica navi cut va come vega56 a 220€ beh, abbiamo una nuova fascia media di tutto rispetto
fraussantin
11-03-2019, 10:34
nvidizzarsi significherebbe fare queste navi al pari di vega56-64 senza abbassare i prezzi delle nuove schede
se una ipotetica navi cut va come vega56 a 220 beh, abbiamo una nuova fascia media di tutto rispettoContenti voi contenti tutti.
mircocatta
11-03-2019, 10:41
Contenti voi contenti tutti.
seriamente non vi basterebbe come salto?
dalle nuove serie amd/nvidia cosa vi aspettate? fascie medie che vanno come 1080ti ? :mbe: :stordita:
Contenti voi contenti tutti.
https://i.warosu.org/data/g/img/0620/25/1503428851522.png
fraussantin
11-03-2019, 11:07
seriamente non vi basterebbe come salto?
dalle nuove serie amd/nvidia cosa vi aspettate? fascie medie che vanno come 1080ti ? :mbe: :stordita:
Cioè dopo 1 anno che aspettate una like 2070 a 250 euro poi vi danno una vega 56 ( forse anche meno ) a 250 euro e W navi .. boh.
Cmq quella non è più faccia media , ma ormai è fascia bassa.
Gyammy85
11-03-2019, 11:11
Cioè dopo 1 anno che aspettate una like 2070 a 250 euro poi vi danno una vega 56 ( forse anche meno ) a 250 euro e W navi .. boh.
Cmq quella non è più faccia media , ma ormai è fascia bassa.
Da dove ricavi ste prestazioni max vega 56? nei rumour di adoredtv si parla di scheda da 120 watt intorno a vega 56 e scheda da 150 intorno a vega 64+
Col 7 nm a vega 64 ci arrivi in 150 watt di tdp (same performance at half power/+30% at same power)
Qui sembra tutto rivoluzionato e ottimizzato, come lo fu polaris del resto
fraussantin
11-03-2019, 11:18
Da dove ricavi ste prestazioni max vega 56? nei rumour di adoredtv si parla di scheda da 120 watt intorno a vega 56 e scheda da 150 intorno a vega 64+
Col 7 nm a vega 64 ci arrivi in 150 watt di tdp (same performance at half power/+30% at same power)
Qui sembra tutto rivoluzionato e ottimizzato, come lo fu polaris del restoSi ma polaris che fu un sostituto della 290 più economico.
Poi overclokkato arrivò alla 1070 dopo 1 anno o 2 solo su qualche gioco .
Sinceramente spero in meglio .
Non vorrei che lascino la fascia medio alta in mano ad arturito il prossimo anno .
la questione è che se fai una architettura tutta nuova e poi nella fascia mainstream vai come vega56 presentata due anni prima poniamo pure a un prezzo e consumi inferiore non fai altro che nvidizzarti es le 2060=1070ti e le 2070=1080ti insomma niente di sostanzialmente nuovo prestazionalmente parlando
Io no compriendo :confused:
Cioè secondo te bisognerebbe presentare solo schede top che vadano più forte delle precedenti e tenere nella fascia bassa le schede precedenti che consumano un botto, il cui costo di produzione è altissimo e magari non supportano neppure le ultime tecnologie ? :wtf:
Gyammy85
11-03-2019, 11:22
Si ma polaris che fu un sostituto della 290 più economico.
Poi overclokkato arrivò alla 1070 dopo 1 anno.
Sinceramente spero in meglio .
Non vorrei che lascino la fascia medio alta in mano ad arturito il prossimo anno .
A parte il fatto che la 580 non è semplicemente una 480 occata dato che anche a pari frequenza ci sono casi dove la 580 va di più, è un discorso di software, certo non pigli la 1070 in wildlands (caso strano, tutti i giochi più gimped sono usciti nel 2016-2017), se l'industria gaming ha 2 anni di ritardo su amd...
ninja750
11-03-2019, 11:22
Cmq quella non è più faccia media , ma ormai è fascia bassa.
la fascia bassa è < 200€ e la fascia media < 300€ checché l'altro competitor cerchi di alzare continuamente l'asticella generando nuove fasce dal nulla
tecnicamente una navi entry da 220€ dovrebbe posizionarsi a fianco della 1660ti che è l'attuale media nv
una ipotetica navi cut da <200€ si posizionerà contro la 1660 che uscirà a giorni
fraussantin
11-03-2019, 11:26
la fascia bassa è < 200€ e la fascia media < 300€ checché l'altro competitor cerchi di alzare continuamente l'asticella generando nuove fasce dal nulla
tecnicamente una navi entry da 220€ dovrebbe posizionarsi a fianco della 1660ti che è l'attuale media nv
una ipotetica navi cut da -200si posizionerà contro la 1660 che uscirà a giorni
I prezzi son cambiati sia in amd che in nvidia , sia sui processori che sulle gpu.
La fascia media ormai ruota sui 400 euro.
Altrimenti la 2070 diventa fascia alta , e la 2080 cosa è? E la ti , e la titan ? E chi fa lo sli?
L'inflazzzione .. :asd:
( Ps ti ho cambiato alcuni caratteri nel quote perchè tapatalk non li digeriva )
Gyammy85
11-03-2019, 11:27
Io no compriendo :confused:
Cioè secondo te bisognerebbe presentare solo schede top che vadano più forte delle precedenti e tenere nella fascia bassa le schede precedenti che consumano un botto, il cui costo di produzione è altissimo e magari non supportano neppure le ultime tecnologie ? :wtf:
Infatti, la scheda media rappresenta il best buy appunto perché ti da le prestazioni delle top precedenti (390x 980 fury 980ti)
Diciamo che i tempi si sono dilatati, ma la loro roadmap è rimasta la stessa da almeno 2 anni
ninja750
11-03-2019, 11:28
Io no compriendo :confused:
Cioè secondo te bisognerebbe presentare solo schede top che vadano più forte delle precedenti e tenere nella fascia bassa le schede precedenti che consumano un botto, il cui costo di produzione è altissimo e magari non supportano neppure le ultime tecnologie ? :wtf:
no. se presenti una nuova media che va come la top precedente vedi 290/390/fury/nano vs 580/590 ok anche perchè poi le puoi cuttare in 470/570 ecc
ma i rumours danno in presentazione una media navi che va come una vega56 (e non ovviamente come una 64/VII)
Si ma
quello di cui pari ha solo un senso
polaris:
570 msrp 169$
580 4gb msrp 199$
580 8 gb msrp 229$
vega
vega 56 msrp 399$
vega 64 msrp 499$
vegal lc msrp 699$
la prossima navi sara' la fascia 169$-229$ le schede vanno paragonate alla polaris, vega non c'entra nulla, sia in termini di prestazioni sia di prezzo.
Ma tanto per voi verdi, se navi non va almeno come la 2080 e costa 100€ dal market pakistano sotto casa e' fail e amd fallisce, e la storia che si ripete circolare da anni su questo stesso thread.
Gyammy85
11-03-2019, 11:30
I prezzi son cambiati sia in amd che in nvidia , sia sui processori che sulle gpu.
La fascia media ormai ruota sui 400 euro.
Altrimenti la 2070 diventa fascia alta , e la 2080 cosa è? E la ti , e la titan ? E chi fa lo sli?
L'inflazzzione .. :asd:
Infatti nvidia si permette di peggiorare il rapporto perf/area a 12 nm rispetto a pascal 16 nm :asd: per poter avere performance decenti con dx12 vulkan e computing, amd ci ha pensato nel 2012 quindi non avrà mai questo problema
ninja750
11-03-2019, 11:34
La fascia media ormai ruota sui 400 euro.
questo dopo la presentazione delle rtx guardacaso
hanno alzato tutte le fasce di prezzo e piazzato in basso la 2060, quindi qui a dire che la fascia bassa è la 2060 da 320 euro
Altrimenti la 2070 diventa fascia alta , e la 2080 cosa è? E la ti , e la titan ? E chi fa lo sli?
secondo te perchè hanno lanciato la 1660ti? è fascia bassa? la 1660 cosa è? fascia barboni? quindi una ipotetica 1550ti? fascia iperbarboni? la 1550 liscia va come l'integrata della apu? :confused:
fraussantin
11-03-2019, 11:35
Infatti nvidia si permette di peggiorare il rapporto perf/area a 12 nm rispetto a pascal 16 nm :asd: per poter avere performance decenti con dx12 vulkan e computing, amd ci ha pensato nel 2012 quindi non avrà mai questo problemaGuarda che non difendo nvidia lato prezzi , con turing ha fatto una porcata , l'ho sempre detto. Ha voluto infilzarci rt e dlss e alzato i prezzi. Sui consumi per fare il lato prestazionale senza cambiare pp ha dovuto peggiorare.
Ma Se faceva tutta una gamma turing liscia a -100euro su tutta la gamma amd sarebbe proprio scomparsa dal mercato
questo dopo la presentazione delle rtx guardacaso
hanno alzato tutte le fasce di prezzo e piazzato in basso la 2060, quindi qui a dire che la fascia bassa è la 2060 da 320 euro
secondo te perchè hanno lanciato la 1660ti? è fascia bassa? la 1660 cosa è? fascia barboni? quindi una ipotetica 1550ti? fascia iperbarboni? la 1550 liscia va come l'integrata della apu? :confused:
Chiamale come ti pare sempre quelle sono.
Di certo non sono vega 64 +15% a 250 euro.
Gyammy85
11-03-2019, 11:47
Guarda che non difendo nvidia lato prezzi , con turing ha fatto una porcata , l'ho sempre detto. Ha voluto infilzarci rt e dlss e alzato i prezzi. Sui consumi per fare il lato prestazionale senza cambiare pp ha dovuto peggiorare.
Ma Se faceva tutta una gamma turing liscia a -100euro su tutta la gamma amd sarebbe proprio scomparsa dal mercato
Chiamale come ti pare sempre quelle sono.
Di certo non sono vega 64 +15% a 250 euro.
Discorsi che si fanno dal 2006, ormai non ci crede più nessuno.
Per il resto, è possibilissimo che navi fascia x80 sia superiore a vega 64 con queste premesse
mircocatta
11-03-2019, 11:58
I prezzi son cambiati sia in amd che in nvidia , sia sui processori che sulle gpu.
La fascia media ormai ruota sui 400 euro.
se è così spero vivamente che il gaming su pc muoia al più presto :)
ma per fortuna a smentirti ci pensa il mio q6600 pagato 270€ nel 2006 che è la stessa fascia di prezzo dove ancora oggi ci compri un processore di fascia alta (amd), quindi non sono i prezzi ad essere saliti mediamente nel mondo IT (e ci mancherebbe anche!), è nvidia che li ha alzati in maniera esorbitante, amd dal canto suo gli sta andando dietro almeno lato gpu fascia alta
mikael84
11-03-2019, 12:00
Infatti nvidia si permette di peggiorare il rapporto perf/area a 12 nm rispetto a pascal 16 nm :asd: per poter avere performance decenti con dx12 vulkan e computing, amd ci ha pensato nel 2012 quindi non avrà mai questo problema
Piccolo OT.
Rispondimi seriamente, cosa avrebbe inserito con turing che AMD aveva nel 2012 per le dx12?:confused:
Missà che sei completamente fuoristrada, però vorrei saperlo, visto che hai toccato questo tasto.
In un forum di informatica, sempre interessante "scoprire cose nuove".
Conosci l'IDS?
Le performance Vega 64 +15%a 250€ direi di lasciarle perdere.
Radeon 7 che fa un+25% rispetto Vega 64 costa 700/750€, quindi la possibilità di avere una scheda a quel prezzo è uguale a zero.
Probabilmente andranno leggermente meno di Vega 56 e Vega 64 al lancio, dopo un anno tra driver e altra roba uguali o leggermente meglio.
Prestazioni che non faranno gridare al miracolo insomma.
È inutile sognare più prestazioni, questo possono fare.
Inviato dal mio Pixel 2 XL
Gyammy85
11-03-2019, 12:21
Piccolo OT.
Rispondimi seriamente, cosa avrebbe inserito con turing che AMD aveva nel 2012 per le dx12?:confused:
Missà che sei completamente fuoristrada, però vorrei saperlo, visto che hai toccato questo tasto.
In un forum di informatica, sempre interessante "scoprire cose nuove".
Conosci l'IDS?
No, ma io parlavo in generale, a livello di filosofia architetturale, AMD ha investito da subito su computing e nuove api
mikael84
11-03-2019, 12:45
No, ma io parlavo in generale, a livello di filosofia architetturale, AMD ha investito da subito su computing e nuove api
Si ma non volermene, tu prima hai detto che il die è più grande su turing perchè hanno inserito le dx12.
Niente di più falso;)
Turing TU116 è grande, in calcolo 127mm2 + 157 dai collegamenti, rops, l2 e logica, IMC.
Pascal GP106 è grande 71 + 129 di collegamenti.
La differenza tra i due sta in primis nel terzo rasterizzatore e due SMm.
All'interno degli SMm Turing (senza RT), oltre alle sole unità FP32, ci sono le unità disaccoppiate FP16 e le unità INT, che hanno lo stesso peso delle FP16.
Internamente è come avere 3072cc in peso area (16fp 32 / 16 INT 32 /16 FP16), non 1280 fp 32 come la 1060.
In DX12, le migliorie derivano dall'IDS, ovvero se prima il warp (che commanda i thread dentro L'SM) disegnava i percorsi divergenti, lasciando thread in idle, ora con L'IDS di Turing, questi sono singolarmente schedulati, e possono offrire un'efficienza di calcolo maggiore.
Turing come vedi non è grande per le dx12, ma per IPC, FP16, Tensor, RT ed altro.
Chiudo OT;)
AceGranger
11-03-2019, 13:03
No, ma io parlavo in generale, a livello di filosofia architetturale, AMD ha investito da subito su computing e nuove api
dove subito = 3 anni di ritardo medio :asd:
- 5 anni dietro in campo Render e niente RT Core.
- 2 anni dietro per arrivare all' xGMI che è comunque inferiore all'nVlink e che si sogna gli switch
- Niente unita dedicate agli FP16
- Niente calcoli in parallelo
- Niente tool di sviluppo/plugin
una grande filosofia di investimenti che l'ha portata ad avere un market share a singola cifra... e non si sa bene se prima o dopo la virgola :p.
nessuno29
11-03-2019, 13:06
Le performance Vega 64 +15%a 250€ direi di lasciarle perdere.
Radeon 7 che fa un+25% rispetto Vega 64 costa 700/750€, quindi la possibilità di avere una scheda a quel prezzo è uguale a zero.
Probabilmente andranno leggermente meno di Vega 56 e Vega 64 al lancio, dopo un anno tra driver e altra roba uguali o leggermente meglio.
Prestazioni che non faranno gridare al miracolo insomma.
È inutile sognare più prestazioni, questo possono fare.
Inviato dal mio Pixel 2 XL
Ma chi le vuole più prestazioni da navi?
Magari andasse come una vega64 a 250 euro in 150 watt sarebbe ottimo.
fraussantin
11-03-2019, 13:21
Ma chi le vuole più prestazioni da navi?
.
Questo post me lo salvo mi farà comodo
Andy1111
11-03-2019, 13:49
dove subito = 3 anni di ritardo medio :asd:
- 5 anni dietro in campo Render e niente RT Core.
- 2 anni dietro per arrivare all' xGMI che è comunque inferiore all'nVlink e che si sogna gli switch
- Niente unita dedicate agli FP16
- Niente calcoli in parallelo
- Niente tool di sviluppo/plugin
una grande filosofia di investimenti che l'ha portata ad avere un market share a singola cifra... e non si sa bene se prima o dopo la virgola :p.
RT core che funziona in solo 2 giochi dopo quanto tempo? altra domanda quanti Watt consuma quando attivo? non ho mai trovato nulla a riguardo e i suoi consumi non mi sembra siano visibili o sbaglio?
nvlink ma che è si mangia? quanti gamers useranno mai sta cosa? visto che qua parliamo in ambito giochi.
Riporto una ricerca fatta da una persona in un altro forum sui numeri dati da JPR
nel Q4 nvidia è al 75% del suo venduto con schede per portatili;
il suo 25% sui desktop quindi si dovrebbe confrontare con il 18.8% di AMD, che non ha più vendite sulle dGPU per portatili.
81.2*0.25=20.3% è la percentuale di dGPU desktop nvidia.
18.8+20.3=39.1% è, più o meno, la percentuale delle dGPU desktop vendute nel Q4
quindi il mercato desktop è diviso 48% e 52%.
il problema di AMD sul market share è che non vende più dGPU per portatili, solo quello.
fino all'anno scorso almeno aveva la M330...
logico che poi devi andare a capire come si compone la gamma del venduto di nvidia, ma il trimestrale che hanno presentato è segno che stà vendendo principalmente schede entry livel per portatili (l'immancabile MX150).
il suo fatturato medio sui chip del Q4 si aggira sugli 90$ (che non è il costo della scheda, ma del solo chip), quindi schede da 220$ in media, se fossero schede...
il chippetto MX150 costa si e no 50$, quindi per ogni chip venduto a 400$ di una 2080 Ti ne ha venduti 8 a 50$...
https://www.hwupgrade.it/news/skvideo/nvidia-alle-gpu-di-fascia-alta-corrispondono-i-migliori-rapporti-uccisioni-morti-nei-giochi_81182.html
e queste fantomatiche ricerche sono proprio nel loro stile non dimentichiamo GPP e il famoso NDA guarda caso riguardava proprio Turing una grande architettura ma con qualche piccolo difetto alla space invaders
AceGranger
11-03-2019, 14:00
RT core che funziona in solo 2 giochi dopo quanto tempo? altra domanda quanti Watt consuma quando attivo? non ho mai trovato nulla a riguardo e i suoi consumi non mi sembra siano visibili o sbaglio?
nvlink ma che è si mangia?
CUT
dai una rilettura ai post, osserva attentamente la parte grassettata che ho quotato e soffermati sulla parola Computing....
quanti gamers useranno mai sta cosa? visto che qua parliamo in ambito giochi.
CUT
tu stai parlando di giochi, io parlavo di altro quotando una frase anchessa NON era riferita ai giochi ;).
Ma chi le vuole più prestazioni da navi?
Magari andasse come una vega64 a 250 euro in 150 watt sarebbe ottimo.Ma infatti sarebbe il sogno bagnato di chi sta aspettando per il cambio sulla fascia media, prestazioni like Vega 64/1080 a 250€, va benissimo sul 1.440 e per chi giocherà ancora con i 1080, una scheda del genere gli durerà anni con prestazioni ottimali, salvo qualche cosa di nuovo per il futuro sotto il punto di vista degli engine
Gyammy85
11-03-2019, 14:08
Gcn si mangia kepler maxwell pascal e turing con software neutri di rendering computing opencl e scientifici, dai...non mettere sempre i dati di vendita in mezzo
RT core che funziona in solo 2 giochi dopo quanto tempo? altra domanda quanti Watt consuma quando attivo? non ho mai trovato nulla a riguardo e i suoi consumi non mi sembra siano visibili o sbaglio?
nvlink ma che è si mangia? quanti gamers useranno mai sta cosa? visto che qua parliamo in ambito giochi.
Riporto una ricerca fatta da una persona in un altro forum sui numeri dati da JPR
https://www.hwupgrade.it/news/skvideo/nvidia-alle-gpu-di-fascia-alta-corrispondono-i-migliori-rapporti-uccisioni-morti-nei-giochi_81182.html
e queste fantomatiche ricerche sono proprio nel loro stile non dimentichiamo GPP e il famoso NDA guarda caso riguardava proprio Turing una grande architettura ma con qualche piccolo difetto alla space invaders
Io sto ancora aspettando la mirabolante patch rt per tomb raider promessa ad agosto 2018
Per i dati di vendita, sapevo che c'era qualcosa di strano, numeri troppo diversi dal normale...
mikael84
11-03-2019, 14:37
dai una rilettura ai post
Ace, tu che usi software pro, puoi confermare?
Gcn si mangia kepler maxwell pascal e turing con software neutri di rendering computing opencl e scientifici.
Non uso software pro, quindi qua, parlo in generale.
Tu asserisci che GCN si mangia Kepler-Pascal-Turing in computing.
Quando parli di GCN, parli ovviamente di una scheda con un processo produttivo superiore, quindi gode di un plus dato dai transistor.
Come ti ho detto, con i software pro, e registri precompilati si riesce a sfruttare praticamente tutto il teorico della GPU e relativa banda, dove non ci sono compressioni, solo banda pura (qua AMD è avvantaggiata).
Ho preso una testata che ne integra molti.
https://www.tomshw.it/hardware/amd-radeon-vii-recensione-test-gpu-vega-7nm-16-gb-hbm2/radeon-vii-prestazioni-con-i-videogiochi-e-creazione-contenuti/
A parte un test luxmark in open cl su una decina, dove GCN sarebbe nettamente superiore in questo caso ad una Titan RTX (che sarebbe la versione full di turing).:confused:
Considerando però che una ha un PP avanzato.
mircocatta
11-03-2019, 14:45
perdonatemi ma la potete finire con sta storia trita e ritrita di chi ce l'ha più grosso e duro? :(
Andy1111
11-03-2019, 14:57
Ace, tu che usi software pro, puoi confermare?
Non uso software pro, quindi qua, parlo in generale.
Tu asserisci che GCN si mangia Kepler-Pascal-Turing in computing.
Quando parli di GCN, parli ovviamente di una scheda con un processo produttivo superiore, quindi gode di un plus dato dai transistor.
Come ti ho detto, con i software pro, e registri precompilati si riesce a sfruttare praticamente tutto il teorico della GPU e relativa banda, dove non ci sono compressioni, solo banda pura (qua AMD è avvantaggiata).
Ho preso una testata che ne integra molti.
https://www.tomshw.it/hardware/amd-radeon-vii-recensione-test-gpu-vega-7nm-16-gb-hbm2/radeon-vii-prestazioni-con-i-videogiochi-e-creazione-contenuti/
A parte un test luxmark in open cl su una decina, dove GCN sarebbe nettamente superiore in questo caso ad una Titan RTX (che sarebbe la versione full di turing).:confused:
Considerando però che una ha un PP avanzato.
diciamola tutta allora scrivono anche questo:
Qui entriamo in un “terreno minato”, perché a seconda del software e del carico imposto, molto – se non tutto – può cambiare. Ci sono software che usano bene i CUDA core delle schede GeForce, altri che lavorano bene in OpenCL e altri ancora che non si comportano bene né con l’uno né con l’altro. Da queste premesse, potete capire il messaggio tra le righe: abbiamo tribolato parecchio per fare dei test validi e non siamo del tutto soddisfatti.
mikael84
11-03-2019, 15:03
perdonatemi ma la potete finire con sta storia trita e ritrita di chi ce l'ha più grosso e duro? :(
Teoricamente non è OT. Si parla di GCN e delle sue capacità.
Siamo su un forum tecnico, i confronti finchè non si scende nel flame sono accetti.
Essendo per l'appunto un forum tecnico, non su facebook o social in generale, quando uno asserisce una cosa, un altro può chiedere, senza flame il perchè tale architettura in computing renda meglio e come del competitor interessato.
Io infatti, cerco sempre di essere esaustivo con chi mi chiede un parere o un'informazione, non rispondo mai banalmente.
Se poi lui non mi risponde, o meglio non è interessato a farlo, di certo non insisterò, per carità, però un confronto su idee è sempre ben accetto.
Ripeto, non deve esserci flame, mai, li si sbaglia.;)
AceGranger
11-03-2019, 15:08
Ace, tu che usi software pro, puoi confermare?
Non uso software pro, quindi qua, parlo in generale.
Tu asserisci che GCN si mangia Kepler-Pascal-Turing in computing.
Quando parli di GCN, parli ovviamente di una scheda con un processo produttivo superiore, quindi gode di un plus dato dai transistor.
Come ti ho detto, con i software pro, e registri precompilati si riesce a sfruttare praticamente tutto il teorico della GPU e relativa banda, dove non ci sono compressioni, solo banda pura (qua AMD è avvantaggiata).
Ho preso una testata che ne integra molti.
https://www.tomshw.it/hardware/amd-radeon-vii-recensione-test-gpu-vega-7nm-16-gb-hbm2/radeon-vii-prestazioni-con-i-videogiochi-e-creazione-contenuti/
A parte un test luxmark in open cl su una decina, dove GCN sarebbe nettamente superiore in questo caso ad una Titan RTX (che sarebbe la versione full di turing).:confused:
Considerando però che una ha un PP avanzato.
mediamente parla di cose che non conosce, nemmeno per sentito dire, e ovviamente linka sempre e solo l'unico e inutile Luxmark, il motore dei renderisti dodicenni della domenica :asd:
nVidia in campo Render si mangia qualsiasi cosa, OpenCL non se lo caga nessuno; figuriamoci ora con gli RT core; i test preliminari mostrano un boost minimo del 30%.
l'nVlink invece è gia utilizzabile.
gia prima nVidia e AMD erano separate da un bel solco, ora con l'RTX si è aperta una voragine fra le 2.
https://evermotion.org/articles/show/11111/nvidia-geforce-rtx-performance-in-arch-viz-applications
e questo per il mercato computing Visual, per le Tesla invece il l'abisso c'è gia da tempo.
Andy1111
11-03-2019, 15:14
Teoricamente non è OT. Si parla di GCN e delle sue capacità.
Siamo su un forum tecnico, i confronti finchè non si scende nel flame sono accetti.
Essendo per l'appunto un forum tecnico, non su facebook o social in generale, quando uno asserisce una cosa, un altro può chiedere, senza flame il perchè tale architettura in computing renda meglio e come del competitor interessato.
Io infatti, cerco sempre di essere esaustivo con chi mi chiede un parere o un'informazione, non rispondo mai banalmente.
Se poi lui non mi risponde, o meglio non è interessato a farlo, di certo non insisterò, per carità, però un confronto su idee è sempre ben accetto.
Ripeto, non deve esserci flame, mai, li si sbaglia.;)
Mikael84 una domanda ma sti RTcore quanto consumano quando sono attivi perchè nei consumi non credo siano presenti o sbaglio mi spiego meglio :
https://youtu.be/lVTyUdMapUg?t=68
RT on e off i consumi sono uguali e utilizzo GPU uguali, quindi in quei watt il consumo loro non c'è altrimenti sarebbe power limit e la gpu scalerebbe in frequenza giusto o sbaglio?
mikael84
11-03-2019, 15:29
mediamente parla di cose che non conosce, nemmeno per sentito dire, e ovviamente linka sempre e solo l'unico e inutile Luxmark, il motore dei renderisti dodicenni della domenica :asd:
nVidia in campo Render si mangia qualsiasi cosa, OpenCL non se lo caga nessuno; figuriamoci ora con gli RT core; i test preliminari mostrano un boost minimo del 30%.
l'nVlink invece è gia utilizzabile.
gia prima nVidia e AMD erano separate da un bel solco, ora con l'RTX si è aperta una voragine fra le 2.
https://evermotion.org/articles/show/11111/nvidia-geforce-rtx-performance-in-arch-viz-applications
e questo per il mercato computing Visual, per le Tesla invece il l'abisso c'è gia da tempo.
Ohh questo volevo sapere, quindi parliamo del nulla.:)
Mikael84 una domanda ma sti RTcore quanto consumano quando sono attivi perchè nei consumi non credo siano presenti o sbaglio mi spiego meglio :
https://youtu.be/lVTyUdMapUg?t=68
RT on e off i consumi sono uguali e utilizzo GPU uguali, quindi in quei watt il consumo loro non c'è altrimenti sarebbe power limit e la gpu scalerebbe in frequenza giusto o sbaglio?
Non hanno un consumo prestabilito.
Attualmente in gaming nvidia non può utilizzare completamente le risorse.
Per utilizzare gli /RT/TC, nvidia ha limitato il tutto ad un calcolo, chiamato RTX-OPS.
Ovvero, quando avii il ray, nvidia abbassa la capacità di calcolo in virgola mobile all'80% del teorico, compreso il valore INT.
Fatto ciò, utilizza sino al 40% dei raggi e il 20% dei TC.
Molti tendono a fare l'equazione, computazionale "250 watt" + watt RT, ma non è così.
Una 2080ti a 1800 è in grado di elaborare simultaneamente un max di 4,8 m/raggi.
Per rendere l'idea è un dato equivalente a 48 tf fp32.
Quindi la combo, dipende da come vengono suddivise le risorse computazionali.:)
notiziona apparentemente ot ma ha enormi risvolti per il futuro
nvidia consapevole dell'arrivo di un nuovo concorrente con tanti,tantissimi fondi,ben piu' di lei,ma sopratutto l'imminente uso del cloud-gaming al posto di hw locale,ha capito che il tempo delle vacche grasse e' finito e se vuole sopravvivere deve aggiornarsi
ha acquisito mellanox,data a intel fino a pochissimo fa',ma si sono praticamente dissanguati pagandola 7 miliardi di $:eek:
piu' o meno e' analoga a quando amd acquisto ati,amd si sta riprendendo solo ora ma piu' per ryzen
nvidia con mellanox vuole rafforzarsi nel settore hpc,datacenter,cloud etc
quando un giorno giocheremo tutti in cloud,ricorderemo con nostalgia la passione a configurare,cloccare ,tweccare e i litigi per celodurismo:(
Andy1111
11-03-2019, 15:46
Ohh questo volevo sapere, quindi parliamo del nulla.:)
Non hanno un consumo prestabilito.
Attualmente in gaming nvidia non può utilizzare completamente le risorse.
Per utilizzare gli /RT/TC, nvidia ha limitato il tutto ad un calcolo, chiamato RTX-OPS.
Ovvero, quando avii il ray, nvidia abbassa la capacità di calcolo in virgola mobile all'80% del teorico, compreso il valore INT.
Fatto ciò, utilizza sino al 40% dei raggi e il 20% dei TC.
Molti tendono a fare l'equazione, computazionale "250 watt" + watt RT, ma non è così.
Una 2080ti a 1800 è in grado di elaborare simultaneamente un max di 4,8 m/raggi.
Per rendere l'idea è un dato equivalente a 48 tf fp32.
Quindi la combo, dipende da come vengono suddivise le risorse computazionali.:)
ok ma facendo riferimento sempre al video se tu hai un TDP di 330W e gli RTcore cominciano a funzionare 20-30-40% che sia hanno comunque un consumo che va ad incidere sui 330W totali , mettiamo x esempio che al 30% siano 30 watt (ipotetico) questo non va ad incidere sulla frequenza del core (Streaming Multiprocessor Core) massima raggiungibile visto il presunto calo di watt disponibili?
https://www.fullexposure.photography/nvidia-turing-rtx-raytracing-explained/
Within the RTX platform we have 3 dedicated Processing Cores which are part of the Turing Chip Architecture
These 3 Nvidia Turing Chipset cores are:
•Tensor Core (AI & Deep Learning)
•RT Core (Raytracing)
•Streaming Multiprocessor Core (Physics, Rasterization, Shaders & everything else)
da quello che vedo e quel poco che capisco io credo che il consumo di RT core non sia presente in quei 330W sia a parte ..... magari sbaglio
AceGranger
11-03-2019, 15:50
notiziona apparentemente ot ma ha enormi risvolti per il futuro
nvidia consapevole dell'arrivo di un nuovo concorrente con tanti,tantissimi fondi,ben piu' di lei,ma sopratutto l'imminente uso del cloud-gaming al posto di hw locale,ha capito che il tempo delle vacche grasse e' finito e se vuole sopravvivere deve aggiornarsi
ha acquisito mellanox,data a intel fino a pochissimo fa',ma si sono praticamente dissanguati pagandola 7 miliardi di $:eek:
piu' o meno e' analoga a quando amd acquisto ati,amd si sta riprendendo solo ora ma piu' per ryzen
nvidia con mellanox vuole rafforzarsi nel settore hpc,datacenter,cloud etc
quando un giorno giocheremo tutti in cloud,ricorderemo con nostalgia la passione a configurare,cloccare ,tweccare e i litigi per celodurismo:(
ma nemmeno lontanamente.
AMD, ATI la prese per meta a debito, qui nVidia la prende cash e dopo il pagamento avranno ancora una liquidita di 1,5 Miliardi, simile a quella attuale di AMD.
mikael84
11-03-2019, 16:14
ok ma facendo riferimento sempre al video se tu hai un TDP di 330W e gli RTcore cominciano a funzionare 20-30-40% che sia hanno comunque un consumo che va ad incidere sui 330W totali , mettiamo x esempio che al 30% siano 30 watt (ipotetico) questo non va ad incidere sulla frequenza del core (Streaming Multiprocessor Core) massima raggiungibile visto il presunto calo di watt disponibili?
https://www.fullexposure.photography/nvidia-turing-rtx-raytracing-explained/
Within the RTX platform we have 3 dedicated Processing Cores which are part of the Turing Chip Architecture
These 3 Nvidia Turing Chipset cores are:
•Tensor Core (AI & Deep Learning)
•RT Core (Raytracing)
•Streaming Multiprocessor Core (Physics, Rasterization, Shaders & everything else)
da quello che vedo e quel poco che capisco io credo che il consumo di RT core non sia presente in quei 330W sia a parte ..... magari sbaglio
Dipende sempre da come vengono suddivisi i calcoli. Attivando gli RT core, non è che aumenti del 40%.
Lui la prima cosa che fa è abbassa la computazionale (relativa a core ed int), quindi il carico di lavoro sulla GPU viene piuttosto sgravato, poi elabora una parte di raggi, restando sempre in un range di utilizzo relativo al TDP.
La formula è calcolata apposittamente per rimanere sempre nei parametri.
Il tutto dipende anche dalla scena che vai ad elaborare, alcuni hanno, al contrario di quel video, visto la scheda scaldare di più.
Anche qua, con RT la scheda scalda un pelo di più, ma senza RT downclocka pure di più.
https://www.youtube.com/watch?v=yb6qRCilP1M
I problemi di TDP si sarebbero creati potendo utilizzare contemporaneamente tutte le risorse in calcolo.
Una 2080ti per dire ne utilizza 27, che attivi si portano via un pò di consumo è naturale, ma viene compensato dalla discesa della computazionale.;)
Andy1111
11-03-2019, 16:22
Dipende sempre da come vengono suddivisi i calcoli. Attivando gli RT core, non è che aumenti del 40%.
Lui la prima cosa che fa è abbassa la computazionale (relativa a core ed int), quindi il carico di lavoro sulla GPU viene piuttosto sgravato, poi elabora una parte di raggi, restando sempre in un range di utilizzo relativo al TDP.
La formula è calcolata apposittamente per rimanere sempre nei parametri.
Il tutto dipende anche dalla scena che vai ad elaborare, alcuni hanno, al contrario di quel video, visto la scheda scaldare di più.
Anche qua, con RT la scheda scalda un pelo di più.
https://www.youtube.com/watch?v=yb6qRCilP1M
I problemi di TDP si sarebbero creati potendo utilizzare contemporaneamente tutte le risorse in calcolo.
Una 2080ti per dire ne utilizza 27, che attivi si portano via un pò di consumo è naturale, ma viene compensato dalla discesa della computazionale.;)
Quella scheda nel video è raffreddata a liquido NZXT Kraken G10 Bracket + Kraken X41 AIO 140mm
la discesa computazionale che dici tu non è la frequenza del core ? che comunque nel video resta sempre uguale 2100/2115 Mhz come in RT off e con consumi all'incirca uguali, per questo motivo penso che i consumi degli RTcore non siano visibili e presenti in quei 330W
AceGranger
11-03-2019, 16:25
Dipende sempre da come vengono suddivisi i calcoli. Attivando gli RT core, non è che aumenti del 40%.
Lui la prima cosa che fa è abbassa la computazionale (relativa a core ed int), quindi il carico di lavoro sulla GPU viene piuttosto sgravato, poi elabora una parte di raggi, restando sempre in un range di utilizzo relativo al TDP.
La formula è calcolata apposittamente per rimanere sempre nei parametri.
Il tutto dipende anche dalla scena che vai ad elaborare, alcuni hanno, al contrario di quel video, visto la scheda scaldare di più.
Anche qua, con RT la scheda scalda un pelo di più, ma senza RT downclocka pure di più.
https://www.youtube.com/watch?v=yb6qRCilP1M
I problemi di TDP si sarebbero creati potendo utilizzare contemporaneamente tutte le risorse in calcolo.
Una 2080ti per dire ne utilizza 27, che attivi si portano via un pò di consumo è naturale, ma viene compensato dalla discesa della computazionale.;)
infatti parallelamente, alle Tesla nei DGX, nVidia ha alzato il TDP a 450W per poter aumentare il throughput totale della GPU permettendo di usare in modo spinto piu unita in parallelo; ma vale un po per tutto comprese le altre parti del silicio come l'nVLink o come anche l'xMGI nelle Mi50-Mi60.
piu cose ci sono nel silicio che possono o meno lavorare in contemporanea e diversamente si comportera il clock nelle varie parti/situazioni.
mikael84
11-03-2019, 16:40
Quella scheda nel video è raffreddata a liquido NZXT Kraken G10 Bracket + Kraken X41 AIO 140mm
la discesa computazionale che dici tu non è la frequenza del core ? che comunque nel video resta sempre uguale 2100/2115 Mhz come in RT off e con consumi all'incirca uguali, per questo motivo penso che i consumi degli RTcore non siano visibili e presenti in quei 330W
No il core non crolla, praticamente utilizza parte dei cuda. Immagina che una 2080ti da 4352cc, ne utilizzi 3584, e soli 27 RT core per i raggi, che teoricamente sono meno di quelli nominali di una 2060.;)
infatti parallelamente, alle Tesla nei DGX, nVidia ha alzato il TDP a 450W per poter aumentare il throughput totale della GPU permettendo di usare in modo spinto piu unita in parallelo.
Esatto:)
Dato tot (tdp) prima tutto veniva ciucciato dalla vecchia modalità, ora il 40% se ne va per l'RT CONTEMPORANEAMENTE al resto..... ergo, se quel 40% è valido significa che una scena non avrà più del 40% degli effetti derogabili a quella parte di calcolo, il clock fluttuerà per il PL come prima in base a carico e temp, non cambia nulla
Per tornare al noiosissimo e OT argomento del enterprise basterà che amd pompi soldi per portare le proprie soluzioni, prima i soldi non c'erano oggi si, ergo forse fra due o tre anni avremo una situazione diversa, prima è credere negli unicorni ma io condirei il tutto ocn un gigantesco #sticazzi
qualcuno mi saprebbe dire come mai pur cloccando la mia nuova Radeon Rx 570 8gb e pur appurando che con gpuz le frequenze e la banda sono state aumentate, provando a fare il beckmark a Far Cry New Down l'overclock sembrerebbe essere inefficace, il punteggio resta sempre lo stesso e non si evincono fps in più.... Perché succede questo ? Da cosa può dipendere ?
Ho una Msi Rx 570 8gb Armor clock da 1268 @ 1400Mhz
mircocatta
11-03-2019, 18:26
notiziona apparentemente ot ma ha enormi risvolti per il futuro
nvidia consapevole dell'arrivo di un nuovo concorrente con tanti,tantissimi fondi,ben piu' di lei,ma sopratutto l'imminente uso del cloud-gaming al posto di hw locale,ha capito che il tempo delle vacche grasse e' finito e se vuole sopravvivere deve aggiornarsi
ha acquisito mellanox,data a intel fino a pochissimo fa',ma si sono praticamente dissanguati pagandola 7 miliardi di $:eek:
piu' o meno e' analoga a quando amd acquisto ati,amd si sta riprendendo solo ora ma piu' per ryzen
nvidia con mellanox vuole rafforzarsi nel settore hpc,datacenter,cloud etc
quando un giorno giocheremo tutti in cloud,ricorderemo con nostalgia la passione a configurare,cloccare ,tweccare e i litigi per celodurismo:(
una situazione del genere vorrà dire la morto del gaming in italia (o per lo meno, da parte mia), speriamo non accada MAI
è 16 anni che ho la stessa identica merdosa adsl che a stento raggiunge i 2.3mbps, anzi, anni fa andava sicuramente meglio. la fibra la rimandano in continuazione e probabilmente se mai arriverà a stento andrò a 20mbps.. figuriamoci giocare in cloud
fine ot, scusate lo sfogo
fraussantin
11-03-2019, 18:36
notiziona apparentemente ot ma ha enormi risvolti per il futuro
nvidia consapevole dell'arrivo di un nuovo concorrente con tanti,tantissimi fondi,ben piu' di lei,ma sopratutto l'imminente uso del cloud-gaming al posto di hw locale,ha capito che il tempo delle vacche grasse e' finito e se vuole sopravvivere deve aggiornarsi
ha acquisito mellanox,data a intel fino a pochissimo fa',ma si sono praticamente dissanguati pagandola 7 miliardi di $:eek:
piu' o meno e' analoga a quando amd acquisto ati,amd si sta riprendendo solo ora ma piu' per ryzen
nvidia con mellanox vuole rafforzarsi nel settore hpc,datacenter,cloud etc
quando un giorno giocheremo tutti in cloud,ricorderemo con nostalgia la passione a configurare,cloccare ,tweccare e i litigi per celodurismo
:(
Per come la vedo io le prime a sparire saranno le console dove i clienti sono più abituati a quegli input lag allucinanti e a quella grafica appannata.
Ai pc gamer sarà molto difficile far digerire una cosa del genere.
Poi il business del gaming su pc fa intascare un sacco di soldi a troppe aziende per sperare che finisca tutto nell'oblio.
Cmq sia l'unica cosa che non finirà mai saranno le flammate .. : " la.piattaforma nvidia ha la graffica megglio di quella google ... E lagga meno .. ."
Ps provate gf now , accettano ancora beta tester se non erro.
Se il futuro è quello mi dedico a retrogaming e mi rigioco tutto il catalogo steam che possiedo.
Gyammy85
11-03-2019, 18:46
Manco il tempo della news e già la masterrace è finita, dai su, al massimo creeranno il marchio "Nvidia GameNox" e lo metteranno sulla shield 2, ricordate ageia?
qualcuno mi saprebbe dire come mai pur cloccando la mia nuova Radeon Rx 570 8gb e pur appurando che con gpuz le frequenze e la banda sono state aumentate, provando a fare il beckmark a Far Cry New Down l'overclock sembrerebbe essere inefficace, il punteggio resta sempre lo stesso e non si evincono fps in più.... Perché succede questo ? Da cosa può dipendere ?
Ho una Msi Rx 570 8gb Armor clock da 1268 @ 1400Mhz
orsù la esorto a chiedere nell'apposito thread polaris senza colpo ferire poscia brinderemo alla vittoria
Per come la vedo io le prime a sparire saranno le console dove i clienti sono più abituati a quegli input lag allucinanti e a quella grafica appannata.
Ai pc gamer sarà molto difficile far digerire una cosa del genere.
Poi il business del gaming su pc fa intascare un sacco di soldi a troppe aziende per sperare che finisca tutto nell'oblio.
Cmq sia l'unica cosa che non finirà mai saranno le flammate .. : " la.piattaforma nvidia ha la graffica megglio di quella google ... E lagga meno .. ."
Ps provate gf now , accettano ancora beta tester se non erro.
Se il futuro è quello mi dedico a retrogaming e mi rigioco tutto il catalogo steam che possiedo.
bhe intanto si sono bevuti un upscaling "alla console" come uber feature, diamogli tempo...
Jeetkundo
12-03-2019, 07:40
una situazione del genere vorrà dire la morto del gaming in italia (o per lo meno, da parte mia), speriamo non accada MAI
è 16 anni che ho la stessa identica merdosa adsl che a stento raggiunge i 2.3mbps, anzi, anni fa andava sicuramente meglio. la fibra la rimandano in continuazione e probabilmente se mai arriverà a stento andrò a 20mbps.. figuriamoci giocare in cloud
fine ot, scusate lo sfogoConcordo, altro che cloud gaming... qui mancano delle linee decenti :)
fraussantin
12-03-2019, 07:44
Concordo, altro che cloud gaming... qui mancano delle linee decenti :)Io ho la fibra a 90 mega e lagga di merda quel Cloud gaming .
Pagare 40-
50 euro al mese ( perchè mica qualcuno crede che costerà di meno ) cioè 1000 1200 euro in 2 anni per quella porcheria mi spiace , ma non se ne parla. Con quei soldi ci si fa un signor pc.
Gyammy85
12-03-2019, 07:51
Volete che nvidia non tiri fuori router gaming a unità dedicate? :asd:
fraussantin
12-03-2019, 07:57
Volete che nvidia non tiri fuori router gaming a unità dedicate? :asd:L'unica cosa che dovrebbe tirare è la fibra ottica in tutte le case ..
TouringIDSpowa
12-03-2019, 08:07
fossi in voi farei ancora qualche OT, non si sa mai che il damage control non sia mai abbastanza :asd:
Gyammy85
12-03-2019, 08:13
Ace, tu che usi software pro, puoi confermare?
Non uso software pro, quindi qua, parlo in generale.
Tu asserisci che GCN si mangia Kepler-Pascal-Turing in computing.
Quando parli di GCN, parli ovviamente di una scheda con un processo produttivo superiore, quindi gode di un plus dato dai transistor.
Come ti ho detto, con i software pro, e registri precompilati si riesce a sfruttare praticamente tutto il teorico della GPU e relativa banda, dove non ci sono compressioni, solo banda pura (qua AMD è avvantaggiata).
Ho preso una testata che ne integra molti.
https://www.tomshw.it/hardware/amd-radeon-vii-recensione-test-gpu-vega-7nm-16-gb-hbm2/radeon-vii-prestazioni-con-i-videogiochi-e-creazione-contenuti/
A parte un test luxmark in open cl su una decina, dove GCN sarebbe nettamente superiore in questo caso ad una Titan RTX (che sarebbe la versione full di turing).:confused:
Considerando però che una ha un PP avanzato.
Ci sono molti test più approfonditi (specviewperf mi pare sia OpenGL)
https://techgage.com/article/testing-amd-radeon-vii-double-precision-scientific-and-financial-performance/
https://techgage.com/article/amd-radeon-vii-workstation-performance/
https://www.anandtech.com/show/13923/the-amd-radeon-vii-review/15
Curioso come i driver della VII ancorché consumer siano molto più ottimizzati di quelli della 2080ti, in certe applicazioni è palese anche se le performance sono comunque scarse.
In bench di calcolo puro gcn non si batte facilmente, per il discorso pp, ok ma è la stessa arch, pure loro la definiscono "vega supercharged".
PS luxmark sarà povero e senza marchietti e sponsorizzazioni, ma è stato uno dei primi (forse il primo) ad usare opencl, esiste da prima del "visual computing for the masses".
L'unica cosa che dovrebbe tirare è la fibra ottica in tutte le case ..
Nvidia acquista per togliersi di mezzo potenziali concorrenti, punto. Se potesse acquisterebbe amd nvidia intel apple sony Microsoft e nintendo.
OvErClOck82
12-03-2019, 09:05
fossi in voi farei ancora qualche OT, non si sa mai che il damage control non sia mai abbastanza :asd::asd:
Inviato dal mio COL-L29 utilizzando Tapatalk
Basta cambiare nome alla discussione: "Aspettando che amd fallisca"
visto il numero di persone che ha l'esigenza di venire a sentenziare in tal senso ogni post e tanto ormai qualunque cosa faccia e' un fail....
Basta cambiare nome alla discussione: "Aspettando che amd fallisca"
visto il numero di persone che ha l'esigenza di venire a sentenziare in tal senso ogni post e tanto ormai qualunque cosa faccia e' un fail....
Augurarsi che uno dei due competitors di schede video discrete fallisca è da idioti per ovvi motivi. Speriamo che intel faccia presto ad entrare in questo mercato.
ninja750
12-03-2019, 13:52
Augurarsi che uno dei due competitors di schede video discrete fallisca è da idioti per ovvi motivi
per proprietà transitiva stai indirettamente dando dell'idiota a chi compra N :O
Augurarsi che uno dei due competitors di schede video discrete fallisca è da idioti per ovvi motivi. Speriamo che intel faccia presto ad entrare in questo mercato.
Se no poi come si fa a comprare accidia a prezzi scontati?
majinbu7
13-03-2019, 09:27
Volete che nvidia non tiri fuori router gaming a unità dedicate? :asd:
Scusate l'OT , ma non ne posso più di seguire thread che mi interessano dove c'è gente che si diverte ad istigare il flame.
Io giuro che non capisco davvero come tu non sia ancora stato bannato, viste tutte le frecciatine ad istigare i flame , ogni tuoi 3/4 post 2 sono flame o isitigazioni a tali ... poi è molto comodo accendere la miccia, tirarsi da parte per un pò e quando il fuoco è bello alimentato, ripresentarsi a lacrime di coccodrillo , con i vari # sulla'armata Nvidia e bla bla bla , ...non è ora di crescere e smetterla, visti i 34 anni?
Ps: senza contare che spesso a subirne le conseguenze sono altri utenti che ci rimettono l'account, grazie a questo tuo tifo da stadio, complimenti, continua pure così :doh:
non c'e' bisogno di fare ot basta disiscriversi dalla discussione, e a livello di flame e buttare benzina sul fuoco siamo messi bene da entrambi le parti.
Anzi a livello di nvidia damage control siamo ad altissimi livelli su questo thread, non mi lamenterei piu' di tanto.
Poi da regolamento fin quanto non si insultano gli utenti si puo' scrivere piu' o meno quello che si vuole.
majinbu7
13-03-2019, 11:56
non c'e' bisogno di fare ot basta disiscriversi dalla discussione, e a livello di flame e buttare benzina sul fuoco siamo messi bene da entrambi le parti.
Anzi a livello di nvidia damage control siamo ad altissimi livelli su questo thread, non mi lamenterei piu' di tanto.
Poi da regolamento fin quanto non si insultano gli utenti si puo' scrivere piu' o meno quello che si vuole.
AH già...ora dovrei smettere di seguire un thread sul prodotto o un'argomento che mi interessa perchè c'è gente (ed è sempre la solita) che si diverte a flammare ....:doh:
Vorrà dire che inizierò pure io a segnalare i post che ritengo dannosi , vediamo se cambia qualcosa e il thread in questione diventa più leggibile e usufruibile ;)
scusa l'hai scritto tu: "ma non ne posso più di seguire thread"
riguardo le segnalazioni, attenzione che gli ultimi li hanno bannati anche per questo, leggiti il regolamento e segnala quando c'e' evidenza di irregolarita'.
majinbu7
13-03-2019, 15:35
scusa l'hai scritto tu: "ma non ne posso più di seguire thread"
riguardo le segnalazioni, attenzione che gli ultimi li hanno bannati anche per questo, leggiti il regolamento e segnala quando c'e' evidenza di irregolarita'.
Magari la frase non tagliarla che presa per intero ha un'altro senso "non ne posso più di seguire thread che mi interessano dove c'è gente che si diverte ad istigare il flame" , comunque stai tranquillo che non mi metto certo a segnalare persone a caso per il piacere di farlo, però mentre prima magari passavo oltre su parecchi post scritti giusto per istigare al flame, d'ora in poi li segnalerò a chi di dovere, magari così riusciamo a rendere certi thread un minimo più leggibili e fruibili ;)
Guarda te la riscrivo secondo quello che tu intendevi dire:
"non ne posso piu' di gente che si diverte ad istigare il flame in thread che mi interessa seguire"
Adesso leggi quello che hai scritto:
"non ne posso più di seguire thread che mi interessano dove c'è gente che si diverte ad istigare il flame"
c'e' una bella differenza.
Per il resto di flamer ce ne sono da una parte e dall'altra, mi raccomando fai un bel lavoro.
https://www.tomshw.it/hardware/gpu-amd-navi-presentate-alla-gamescom-di-agosto/
Einhander
13-03-2019, 18:58
Madonna che due @@ :muro: :muro:
ma basta dai, ormai anche a sorvolare il thread ogni 2/3 settimane e' impossibile non irritarsi per i vari sberleffi...se togliamo gli ot e le flammate o le istigazioni alle stesse su 3000 pagine ne rimangono si e' no 500...:mad:
Rega', dai...capisco che molti di quelli che ogni tanto si prestavano anche a commenti costruttivi siano stati eliminati o semplicemente scrivano molto di meno, ma davvero cascano le bolas a leggere sto thread negli ultimi mesi :(
infatti tutti impegnati a flammare, nessuno si e' accorto della 560xt, la scheda che tutti aspettavamo...:D :D
https://wccftech.com/amd-radeon-rx-560-xt-polaris-20-graphics-card-launched-china/
Gyammy85
13-03-2019, 19:23
infatti tutti impegnati a flammare, nessuno si e' accorto della 560xt, la scheda che tutti aspettavamo...:D :D
https://wccftech.com/amd-radeon-rx-560-xt-polaris-20-graphics-card-launched-china/
Pensa quante ne venderanno a poco prezzo
Comunque per navi si ipotizza presentazione ad agosto, ma io sarei più propenso per la vendita dai primi di luglio come polaris
Gyammy85
14-03-2019, 20:42
In the meantime…
https://i.postimg.cc/xdn3RGrD/025f971c3bd2bf51c33b8f69a4dd895629dc5c7bdeb47c5e01f3377f8597ecb9.png (https://postimages.org/)
Sembra che sin un ibrido, 2x geometrico ci sta per una nuova arch in passato è successo, interessante la cosa degli sp multithreading
sgrinfia
15-03-2019, 09:54
Questo è il 50 anno che Amd deve fallire,prima che ciò avenga gli faccio i miei auguri :) .
ninja750
15-03-2019, 10:57
Sembra che sin un ibrido, 2x geometrico ci sta per una nuova arch in passato è successo, interessante la cosa degli sp multithreading
adesso chi lo dice a freegordon che anche navi ha nel DNA GCN :sbonk:
Gyammy85
15-03-2019, 11:03
adesso chi lo dice a freegordon che anche navi ha nel DNA GCN :sbonk:
Non vedo perché buttare del tutto un'arch riuscita e rodata come gcn
ninja750
15-03-2019, 11:10
si però dai già vega doveva partire da foglio bianco e non è stato così, lo si sperava per navi invece è il solito affinamento della solita architettura?
Gyammy85
15-03-2019, 11:21
si però dai già vega doveva partire da foglio bianco e non è stato così, lo si sperava per navi invece è il solito affinamento della solita architettura?
Scusa ma lì parla di numerose evoluzioni, 2x geometrico, cu flessibili con più operazioni per clock, il multithreading, clock più alti...
Free Gordon
15-03-2019, 22:47
adesso chi lo dice a freegordon che anche navi ha nel DNA GCN :sbonk:
fermi fermi... quel leak postato da Gyammy secondo me non significa assolutamente nulla. Non hanno tecnicamente senso quelle affermazioni...
Felice di ricredermi eh...ma non ci vedo nulla di sensato in quello shot..
Free Gordon
15-03-2019, 23:14
https://www.youtube.com/watch?v=1nqhkDm2_Tw
Ray racing su una Vega56 con una nuova tecnologia Crytek
SwatMaster
15-03-2019, 23:31
https://www.youtube.com/watch?v=1nqhkDm2_Tw
Ray racing su una Vega56 con una nuova tecnologia CrytekBello il video, fantastica la tecnologia, incredibile che riesca a girare in RealTime su una Vega 56....
Epico però il commento di un tizio: RTX off.
Sent from my Moto G (5) Plus using Tapatalk
fraussantin
15-03-2019, 23:35
https://www.youtube.com/watch?v=1nqhkDm2_Tw
Ray racing su una Vega56 con una nuova tecnologia Crytek
praticamente una vega 56 serve solo per muovere i riflessi e un drone. curioso di vederlo applicato in un gioco vero
Ton90maz
16-03-2019, 06:26
Chissà se amd può spingere temporaneamente sul multi gpu per il ray tracing, un po' come faceva con i due chippini polaris per andare, col vento a favore e in discesa, quanto una 1080 :asd:
sgrinfia
16-03-2019, 08:07
Dopo tutto è un effetto degli anni 70,utilizzato nel cinema molte volte, li mica c'erano i tensor core di I Nvidia... :D
fraussantin
16-03-2019, 08:08
Dopo tutto è un effetto degli anni 70,utilizzato nel cinema molte volte, li mica c'erano i tensor core di I Nvidia... :DBeh il cinema non lo renderizza in tempo reale.
Andy1111
16-03-2019, 08:10
qua c'è il video originale https://www.youtube.com/watch?v=1nqhkDm2_Tw
sgrinfia
16-03-2019, 08:22
Beh il cinema non lo renderizza in tempo reale.
Scherzi vero?!........
Gyammy85
16-03-2019, 09:47
fermi fermi... quel leak postato da Gyammy secondo me non significa assolutamente nulla. Non hanno tecnicamente senso quelle affermazioni...
Felice di ricredermi eh...ma non ci vedo nulla di sensato in quello shot..
A me sembra che abbiano molto senso
1) High Bandwidth Cache 2 immagino con più banda e tutto
2) >2x throughput geometrico
3) Nuove cu con IPC aumentato
4) multithreading (ogni sp potrà lavorare su cose in maniera specifica)
TDP realistici e conformi ai leak di adoredtv, clock alti ma è scontato visto quanto sale vega 20
praticamente una vega 56 serve solo per muovere i riflessi e un drone. curioso di vederlo applicato in un gioco vero
E tutto il resto chi lo muove? :rolleyes: :rolleyes:
Dai su
Chissà se amd può spingere temporaneamente sul multi gpu per il ray tracing, un po' come faceva con i due chippini polaris per andare, col vento a favore e in discesa, quanto una 1080 :asd:
In computing una 580 singola arriva col vento a favore e in discesa alla 1080
Ancora nessuno ha capito che in quella presentazione le 480 scalavano al 50% (quindi molto rilassate dato che in cross mediamente si scala al 70%) e andavano più della 1080, ma vabbè...altro che vento a favore e in discesa...
fraussantin
16-03-2019, 10:30
E tutto il resto chi lo muove? :rolleyes: :rolleyes:
Dai su
parli dei nemici che sparano corrono e delle esplosioni di battlefild 5?
o della vegetazione , acqua mostri ecc di metro exodus?
per carità è una bella demo , i riflessi sono bellissimi , ma vedremo quanto impatteranno nei giochi reali e a mappa libera.
Andy1111
16-03-2019, 10:44
comunque nel video c'è scritto :
This demo was rendered on amd vega 56 gpu
che poi il video è in 4k
Gyammy85
16-03-2019, 10:56
parli dei nemici che sparano corrono e delle esplosioni di battlefild 5?
o della vegetazione , acqua mostri ecc di metro exodus?
per carità è una bella demo , i riflessi sono bellissimi , ma vedremo quanto impatteranno nei giochi reali e a mappa libera.
Ma che discorsi sono, nelle techdemo è così, possono solo migliorare le performance in game, non il contrario, semplificate troppo
mircocatta
16-03-2019, 11:47
https://www.youtube.com/watch?v=1nqhkDm2_Tw
Ray racing su una Vega56 con una nuova tecnologia Crytek
e questo come funziona?
non è ray tracing con rtx perchè è compatibile con le radeon, le rtx no
non è ray tracing con dx12 perchè altrimenti impatterebbe sulle prestazioni di vega che non ha unità dedicate (e se non sbaglio ancora non è implementato sulle dx giusto?)
quindi che cos'è? com'è ottenuto? sembra il santo graal del ray tracing
Gyammy85
16-03-2019, 11:55
e questo come funziona?
non è ray tracing con rtx perchè è compatibile con le radeon, le rtx no
non è ray tracing con dx12 perchè altrimenti impatterebbe sulle prestazioni di vega che non ha unità dedicate (e se non sbaglio ancora non è implementato sulle dx giusto?)
quindi che cos'è? com'è ottenuto? sembra il santo graal del ray tracing
Semplicemente utilizzano le potenzialità delle api che al momento sono utilizzate al 5%. Ci sono diverse feature che Vega ha in esclusiva pure rispetto a turing
Andy1111
16-03-2019, 12:16
e questo come funziona?
non è ray tracing con rtx perchè è compatibile con le radeon, le rtx no
non è ray tracing con dx12 perchè altrimenti impatterebbe sulle prestazioni di vega che non ha unità dedicate (e se non sbaglio ancora non è implementato sulle dx giusto?)
quindi che cos'è? com'è ottenuto? sembra il santo graal del ray tracing
usando le api che usa anche nvidia in dx12 e disponibili anche in vulkan
le api sono compatibili con tutte le schede che usano dx12 e vulkan non servono unità dedicate.
DXR che vediamo sia nvidia che amd con questa demo non è RAY TRACING
AceGranger
16-03-2019, 12:28
e questo come funziona?
non è ray tracing con rtx perchè è compatibile con le radeon, le rtx no
non è ray tracing con dx12 perchè altrimenti impatterebbe sulle prestazioni di vega che non ha unità dedicate (e se non sbaglio ancora non è implementato sulle dx giusto?)
quindi che cos'è? com'è ottenuto? sembra il santo graal del ray tracing
non è una scena in game.... funziona come la tech demo di Star Wars; Star Wars era totalmente Ray Tracing, qui invece solo il parte .
sono scene Cinematic... e il fatto che sia solo parzialmente RT è quello che la rende qualitativamente nettamente inferiore a quella di Star Wars o a quest'altra
https://www.youtube.com/watch?v=u8tDgvvGWSE
da questi video, ad arrivare a scene interattive e dinamiche di un gioco, ce ne passa di acqua e TFLops sotto i ponti.
fraussantin
16-03-2019, 12:58
da questi video, ad arrivare a scene interattive e dinamiche di un gioco, ce ne passa di acqua e TFLops sotto i ponti.
Appunto.
Gyammy85
16-03-2019, 13:03
Improvvisamente i TF sono importanti
Sapevo che sarebbe apparsa la demo di star wars, solo che lì i riflessi sono saturati apposta (perché per l'utenza media più c'è precisione più viene sparata a schermo), mentre lì i riflessi sono realistici e soft
Io sto ancora aspettando la patch per tomb Raider
fraussantin
16-03-2019, 13:07
Io sto ancora aspettando la patch per tomb Raider
Perchè ti sei comprato una rtx?
Gyammy85
16-03-2019, 13:12
Perchè ti sei comprato una rtx?
Presentata della serie "esce domani con supporto RT ieri", sono passati 8 mesi...
Windtears
16-03-2019, 13:38
Presentata della serie "esce domani con supporto RT ieri", sono passati 8 mesi...
lascia perdere, o si ricomincia con le "uber features" di vega... sappiamo che sia amd che nvidia a volte fanno il passo più lungo della gamba rispetto allo sviluppo dei giochi guidato dalle console... come sempre stanno cercando di far pagare a noi utenti le loro tecnologie anche quando acerbe o non sfruttabili.
io mi inkazzo più per i prezzi assurdi, per cercare di coprire il buco creato dai fondi di magazzino post mining per entrambi i vendor, ora una fascia "media" (intesa come prestazioni quasi da top generazione precedente) sta arrivando a 400€. -.-
spero in una scossa con navi e la risposta di nvidia per rilposizionare prezzi e modelli o mi terrò ben stretta la mia 580 ancora a lungo. :D
AceGranger
17-03-2019, 01:34
Improvvisamente i TF sono importanti
Sapevo che sarebbe apparsa la demo di star wars, solo che lì i riflessi sono saturati apposta (perché per l'utenza media più c'è precisione più viene sparata a schermo), mentre lì i riflessi sono realistici e soft
Io sto ancora aspettando la patch per tomb Raider
certo, ma i TFlops veri, non quelli che poi si disperdono in game emulando qui e la :p.
tralasciando la tua solita visione folcloristica della reala, non centra nulla la quantita di riflessi, come non centrano nulla su quali GPU sono fatte girare, perchè anche la Cinematic di Star Wars potresti farla girare tranquillamente su una VEGA o una vecchia GTX (con qualche modifica ) ovviamente avresti pochi fps ma la qualita del singolo frame sarebbe la stessa.
la Cinematic di Crytec è semplicemente tecnicamente e visivamente nettamente inferiore ed è per quello che riesce a girare su una VEGA o una GTX 10xx; finita la Cinematic, comunque, in game andresti a 2 fps, visto che fra una cinematic e il game c'è un abisso.
Gyammy85
17-03-2019, 07:11
certo, ma i TFlops veri, non quelli che poi si disperdono in game emulando qui e la :p.
tralasciando la tua solita visione folcloristica della reala, non centra nulla la quantita di riflessi, come non centrano nulla su quali GPU sono fatte girare, perchè anche la Cinematic di Star Wars potresti farla girare tranquillamente su una VEGA o una vecchia GTX (con qualche modifica ) ovviamente avresti pochi fps ma la qualita del singolo frame sarebbe la stessa.
la Cinematic di Crytec è semplicemente tecnicamente e visivamente nettamente inferiore ed è per quello che riesce a girare su una VEGA o una GTX 10xx; finita la Cinematic, comunque, in game andresti a 2 fps, visto che fra una cinematic e il game c'è un abisso.
Che giri allo stesso modo su Pascal è da vedere, non a caso hanno utilizzato Vega, che ha un set di feature più completo, se appena appena usano async davvero Pascal la saluti con la manina...
Continuo a non capire perché in game dovrebbe andare molto peggio, casomai è l'esatto contrario. Il riflesso sulla vetrata a me sembra molto più realistico e piacevole dei neon sulla corazza messi lì per dire "ehi guarda, i riflessi"
Andy1111
17-03-2019, 09:02
certo, ma i TFlops veri, non quelli che poi si disperdono in game emulando qui e la :p.
tralasciando la tua solita visione folcloristica della reala, non centra nulla la quantita di riflessi, come non centrano nulla su quali GPU sono fatte girare, perchè anche la Cinematic di Star Wars potresti farla girare tranquillamente su una VEGA o una vecchia GTX (con qualche modifica ) ovviamente avresti pochi fps ma la qualita del singolo frame sarebbe la stessa.
la Cinematic di Crytec è semplicemente tecnicamente e visivamente nettamente inferiore ed è per quello che riesce a girare su una VEGA o una GTX 10xx; finita la Cinematic, comunque, in game andresti a 2 fps, visto che fra una cinematic e il game c'è un abisso.
la tua risposta mi sembra molto approssimativa, in quel video si sa cosa si sta usando appunto una vega 56 in questo video non si sa ....
https://www.youtube.com/watch?v=J3ue35ago3Y
Reflections Real-Time solo riflessi poi non è Ray Tracing.
stessa cosa nel video di CRYENGINE Real-Time Ray Traced Reflections non è Ray Tracing come non lo è tutto quello che ha fatto fino ad oggi sia nvidia che amd.
https://www.youtube.com/watch?v=KJRZTkttgLw
questo addirittura con una quadro RTX 6000 scheda da 4000/5000 € sbaglio?
e dei tre questo è il più brutto secondo me.
guarda anche qua https://www.hwupgrade.it/forum/showpost.php?p=46124209&postcount=15996
https://www.guru3d.com/news-story/amd-could-do-dlss-alternative-with-radeon-vii-though-directml-api.html
ancora presto per dirlo ma forse anche il dlss ha i giorni contati
AceGranger
17-03-2019, 12:19
Che giri allo stesso modo su Pascal è da vedere, non a caso hanno utilizzato Vega, che ha un set di feature più completo, se appena appena usano async davvero Pascal la saluti con la manina...
si si, l'Async, come no.
Continuo a non capire perché in game dovrebbe andare molto peggio, casomai è l'esatto contrario. Il riflesso sulla vetrata a me sembra molto più realistico e piacevole dei neon sulla corazza messi lì per dire "ehi guarda, i riflessi"
ed è esattamente la base di partenza ogni tuo post.
AceGranger
17-03-2019, 12:37
la tua risposta mi sembra molto approssimativa, in quel video si sa cosa si sta usando appunto una vega 56 in questo video non si sa ....
https://www.youtube.com/watch?v=J3ue35ago3Y
Reflections Real-Time solo riflessi poi non è Ray Tracing.
stessa cosa nel video di CRYENGINE Real-Time Ray Traced Reflections non è Ray Tracing come non lo è tutto quello che ha fatto fino ad oggi sia nvidia che amd.
? sono Ray Traced quelle Cinematic.
quella di Star Wars in particolare è stata fatta in collaborazione fra EPYC con Disney attraverso il l'ILMxLAB che è lo studio ella Lucas Film che si occupa della computer grafica Real time.
hanno preso gli asset creati per i film The Force Awakens e The Last Jedi, li hanno importati nell'unreal Engine e hanno renderizzato in Ray Tracing:
Textured area lights
Ray-traced area light shadows
Ray-traced reflections
Ray-traced ambient occlusion
Cinematic depth of field (DOF)
NVIDIA GameWorks ray tracing denoising
e con un iPad e ARKit hanno simulato una telecamera virtuale per decidere come applicare il DOF e quali particolari far vedere nei primi piani.
Il punto del discorso è che sono Cinematic, e nelle Cinematic puoi permetterti di usare una qualita che in Game non puoi permetterti, e voglio dire... è cosi dall'alba dei tempi...
Jetmaster
17-03-2019, 14:27
Ho visto che finalmente hanno reso disponibile il raytracing anche sella radeon.
Seguo con interesse per i nuovi modelli previsti per l'estate.
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
fraussantin
17-03-2019, 14:31
Ho visto che finalmente hanno reso disponibile il raytracing anche sella radeon.
Seguo con interesse per i nuovi modelli previsti per l'estate.
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
Non hanno reso disponibile nulla per adesso.
E speriamo che i modelli in arrivo di navi siano un bel po superiori alla vega 56 in modo da poter vedere qualcosa di concreto nei giochi
Free Gordon
17-03-2019, 14:39
praticamente una vega 56 serve solo per muovere i riflessi e un drone. curioso di vederlo applicato in un gioco vero
Quello è un motore 3D completo.
Cosa c'è a schermo (quanti poligoni, texture, riflessi ecc) non lo puoi saper "a occhio".
Se si può fare raytracing con la Vega56 come in quel video, lo si potrà fare anche in un gioco con i relativi limiti di risorse...come sempre.. :)
Free Gordon
17-03-2019, 14:47
non è una scena in game.... funziona come la tech demo di Star Wars; Star Wars era totalmente Ray Tracing, qui invece solo il parte .
sono scene Cinematic... e il fatto che sia solo parzialmente RT è quello che la rende qualitativamente nettamente inferiore a quella di Star Wars o a quest'altra
Il nuovo motore di Crytek verrà usato nei prossimi giochi, su schede dx12 compatibili, ovvio che un gioco non avrà la qualità di un film in CG :D ma chissenefrega...
Questa demo dimostra che è possibile avere un buon compromesso spendendo teoricamente nulla in unità hw dedicate. :)
E vedendo come va il supporto in-game alla tecnologia RTX, sarà probabilmente la strada "facile" che verrà usata in futuro nei giochi... ;)
Free Gordon
17-03-2019, 14:51
finita la Cinematic, comunque, in game andresti a 2 fps, visto che fra una cinematic e il game c'è un abisso.
Non credo che ci sarà uno stacco così grande, faranno compromessi oltre che miglioramenti software alla tecnologia e su schede più veloci (2020), Navi & co. e prossime Nvidia tireranno fuori dei frame rate buoni :)
Chissenefrega se non è autenticissimo raytracing o non è così preciso come vorresti tu. L'importante è la resa a video e le ricadute a livello di gameplay (se si potessero avere sarebbe sì un bel plus, altro che vero raytracing... :asd: )
Una Cinematic vale zero come esempio, non è calcolo in tempo reale ma viene calcolato dopo molte ore.
Free Gordon
17-03-2019, 14:57
Una Cinematic vale zero come esempio, non è calcolo in tempo reale ma viene calcolato dopo molte ore.
Real-time raytraced reflection.
https://youtu.be/1nqhkDm2_Tw?t=5
fraussantin
17-03-2019, 14:58
Quello è un motore 3D completo.
Cosa c'è a schermo (quanti poligoni, texture, riflessi ecc) non lo puoi saper "a occhio".
Se si può fare raytracing con la Vega56 come in quel video, lo si potrà fare anche in un gioco con i relativi limiti di risorse...come sempre.. :)
Certo , ma se mi fai un gioco con un corridoio vuoto , senza nemici , ne personaggi ed un solo drone che fa un percorso predefinito le prestazioni saranno quelle.
Fammelo un un gioco come metro 2033 e poi ne riparliamo.
La Vega 56 manco ce la a tirarlo senza raggi ..( a condizioni e settaggi paragonabili alla demo )
Ma ti potrei dire anche come division 2 che è un gioco che va benissimo con le rosse.
Cmq vedremo . Magari veramente i crytec han capito tutto e nvidia non capisce nulla .
fraussantin
17-03-2019, 15:03
Una Cinematic vale zero come esempio, non è calcolo in tempo reale ma viene calcolato dopo molte ore.Il calcolo è in tempo reale ma non è un mondo animato. Non ci sono npc che passeggiano avanti e indietro , alberi , ecc ecc.
Le uniche cose che si muovono sono il drone e la telecamera.
E cmq si muovono in un percorso predefinito quindi ottimizzato.
Probabilmente la cpu da una grossa mano alla.vega a calcolare i raggi , tanto non ha nulla da fare
Free Gordon
17-03-2019, 15:03
Cmq vedremo . Magari veramente i crytec han capito tutto e nvidia non capisce nulla
Classico discorso assolutistico da newbie... :) scusa eh...
Tutto è un compromesso e TUTTO è programmabile in maniera più o meno efficiente.
E' chiaro che se vuoi fare original master-race super uber raytracing è meglio se strutturi delle unità dedicate per quel lavoro. :)
Come per tutto il resto.....
Sai che prima delle DX10 le GPU non avevano gli shader unificati? :D
C'era la vertex e la pixel pipeline.....
Ma come lo fai girare un titolo con elementi casuali, molti elementi su schermo, in tempo reale con ray tracing senza neanche un unità hw dedicato, e anche con hw dedicato c'è da trovare il modo migliore per sfruttare le risorse create apposta? La Crytek poi di miracoli tecnici non ne ha mai fatti, è proprietaria di un engine che è sempre stato si ad effetto "wow" ma talmente problematico che non lo si usa quasi mai nei giochi. Ripeto, Cinematic è una cosa, i giochi sono proprio un altro mondo.
fraussantin
17-03-2019, 15:07
Classico discorso assolutistico da newbie... :) scusa eh...
Tutto è un compromesso e TUTTO è programmabile in maniera più o meno efficiente.
E' chiaro che se vuoi fare original master-race super uber raytracing è meglio se strutturi delle unità dedicate per quel lavoro. :)
Come per tutto il resto.....
Sai che prima delle DX10 le GPU non avevano gli shader unificati? :D
C'era la vertex e la pixel pipeline.....
Ma lo vieni a dire a me... L'ho detto fin da subito che una vega 56 li è appena necessaria per far praticamente nulla.
Dillo un po a quelli che han gridato al miracolo.
Io di miracoli non ne vedo , e non vedo neppure l'uso della cpu in quella demo. Sarei curioso di vedere se e quanto aiuta.
Ps e quello non era un discorso assolutistico , ma un flame xD
Il calcolo è in tempo reale ma non è un mondo animato. Non ci sono npc che passeggiano avanti e indietro , alberi , ecc ecc.
Le uniche cose che si muovono sono il drone e la telecamera.
E cmq si muovono in un percorso predefinito quindi ottimizzato.
Probabilmente la cpu da una grossa mano alla.vega a calcolare i raggi , tanto non ha nulla da fare
Non ci sono elementi casuali ed è stato creato tutto ad hoc per farlo andare su un percorso come fosse renderizzato. Non c'è nulla di miracoloso, si possono creare giochi a labirinto o tech demo anche con molto meno a livello hardware, ricordi The Order su PS4?
Free Gordon
17-03-2019, 15:08
La Crytek poi di miracoli tecnici non ne ha mai fatti
Scusa ma questa è molto comica... :asd:
Cacchio se c'è una softhouse che ha stupito SEMPRE e CMQ in tutta la sua storia...è proprio Crytek.
Fin dal primo Far Cry nel 2004. Mi ricordo ancora lo stupore nel vederlo girare sulla mia 9700pro. :D
fraussantin
17-03-2019, 15:09
Non ci sono elementi casuali ed è stato creato tutto ad hoc per farlo andare su un percorso come fosse renderizzato. Non c'è nulla di miracoloso, si possono creare giochi a labirinto o tech demo anche con molto meno a livello hardware, ricordi The Order su PS4?Stiamo dicendo la stessa cosa xD
Scusa ma questa è molto comica... :asd:
Cacchio se c'è una softhouse che ha stupito SEMPRE e CMQ in tutta la sua storia...è proprio Crytek.
Fin dal primo Far Cry nel 2004. Mi ricordo ancora lo stupore nel vederlo girare sulla mia 9700pro. :D
Come no, un engine davvero buono è un engine versatile, il CryEngine è talmente problematico che non lo si usa mai, allora che dire dell'engine della Capcom? Quello sì che è un ottimo esempio di engine.
Stiamo dicendo la stessa cosa xD
Eh perche così è, ci si può ingegnare tantissimo nel creare qualcosa di elevato tecnicamente e farlo girare su un hw improbabile, ma è una situazione appunto particolare, non standard, creata apposta, proprio come un The Order.
AceGranger
17-03-2019, 15:17
Il nuovo motore di Crytek verrà usato nei prossimi giochi, su schede dx12 compatibili, ovvio che un gioco non avrà la qualità di un film in CG :D ma chissenefrega...
Questa demo dimostra che è possibile avere un buon compromesso spendendo teoricamente nulla in unità hw dedicate. :)
E vedendo come va il supporto in-game alla tecnologia RTX, sarà probabilmente la strada "facile" che verrà usata in futuro nei giochi... ;)
questa demo dimostra che possono fare video, non che ci giri un videogioco.
dall'alba dei tempi a vedere le cinematic tutti giochi sono sempre i piu fighi del mondo, poi entra in gioco la realta.
non per altro i furbacchioni hanno specificato bene lo sviluppo incentrato sulle nuove GPU...
ne riparleremo fra 1 anno quando, se va bene, uscira un gioco basato su questo motore, visto che quello che hanno presentato ora lo hanno messo "in scaletta" senza data
EDIT: non è nemmeno nella senza data, siamo a un passo ancora antecedente di R&D, quindi ho idea che ci vorra ancora di piu se non lo mettono in scaletta a breve.
Roland74Fun
17-03-2019, 16:17
Si ma bisogna rendersi conto che tutto è precalcoalato. Come lo è sempre stato tutto precalcoalato. Ad esempio in questo gioco tutto precalcolato gli sviluppatori dell'epoca in DX9 hanno tutto precalcolato ogni cosa. Il riflesso della sedia a rotelle in qualsiasi posizione tutto precalcolato, il nemico anche se non inquadrato tutto precalcolato nei suoi movimenti.
I bagliori dei suoi razzi visibile in riflesso nell'acqua tutto precalcolato anche se non inquadrati.
All'epoca erano riusciti a ottenere tutto precalcolato, precalcolando in anticipo ogni movimento di ogni partita di ogni giocatore sulla faccia della terra tutto precalcolato.
https://youtu.be/66e_pvVlRMU
Non hanno reso disponibile nulla per adesso.
E speriamo che i modelli in arrivo di navi siano un bel po superiori alla vega 56 in modo da poter vedere qualcosa di concreto nei giochiSaranno comunque sotto la VII, lo stanno dicendo da eoni che soppianteranno la fascia media con navi nel 2019
fraussantin
17-03-2019, 17:19
Saranno comunque sotto la VII, lo stanno dicendo da eoni che soppianteranno la fascia media con navi nel 2019Questo è sicuro , bisogna capira cosa intendono per fascia media.
Perchè ora come ora una vega 56 per amd è fascia alta .. capisci il problema ...
Ma tireranno fuori due o più GPU dove la più potente ci sta che sia una V56, che quindi diverrà con Navi non più fascia medio-alta ma media.
Questo è sicuro , bisogna capira cosa intendono per fascia media.
Perchè ora come ora una vega 56 per amd è fascia alta .. capisci il problema ...Dovrebbero prendere le posizioni di rx560/570/580 ma ad un prezzo più basso all'uscita rispetto a queste ultime, per le prestazioni invece, se si dà retta ai leak, dovrebbero essere come RX590/vega56/Vega64, credo che più o meno sarà quello.Ma tireranno fuori due o più GPU dove la più potente ci sta che sia una V56, che quindi diverrà con Navi non più fascia medio-alta ma media.Io credo invece che la Navi più potente delle medie sarà grosso modo come la 64
Jetmaster
17-03-2019, 17:50
Non hanno reso disponibile nulla per adesso.
E speriamo che i modelli in arrivo di navi siano un bel po superiori alla vega 56 in modo da poter vedere qualcosa di concreto nei giochi
Io avevo capito fosse il motore con cuo fanno i giochi e che girasse in 4k.
Me sembra già un'ottima cosa.
Di concredi ci vorrà un po' certo, come ci è voluto con rtx di nvidia.
ed è esattamente la base di partenza ogni tuo post.
Gli attacchi personali non sono mai stati tollerati su questo forum
sospeso 10gg
>bYeZ<
mircocatta
18-03-2019, 08:43
Il calcolo è in tempo reale ma non è un mondo animato. Non ci sono npc che passeggiano avanti e indietro , alberi , ecc ecc.
Le uniche cose che si muovono sono il drone e la telecamera.
E cmq si muovono in un percorso predefinito quindi ottimizzato.
Probabilmente la cpu da una grossa mano alla.vega a calcolare i raggi , tanto non ha nulla da fare
e non è una buona prospettiva? personalmente se davvero hanno trovato il modo di "sgravare" il carico dei raggi dalla gpu alla cpu la troverei un ottima cosa, visto che oramai la fascia media di cpu diventerà un 8c/16t quando uscirà ryzen 3000, almeno avremo modo di sfruttare le cpu anzichè far arrancare ancor più le vga
Gyammy85
18-03-2019, 09:17
e non è una buona prospettiva? personalmente se davvero hanno trovato il modo di "sgravare" il carico dei raggi dalla gpu alla cpu la troverei un ottima cosa, visto che oramai la fascia media di cpu diventerà un 8c/16t quando uscirà ryzen 3000, almeno avremo modo di sfruttare le cpu anzichè far arrancare ancor più le vga
Una vega 56 ha 100x la potenza di calcolo di un threadripper a spanne, non credo che la cpu c'entri qualcosa in quella demo, c'è solo grafica lì, la cpu interviene solo se c'è fisica o ia, dato che di usare opencl sulla gpu per farle non se ne parla...
fraussantin
18-03-2019, 10:16
e non è una buona prospettiva? personalmente se davvero hanno trovato il modo di "sgravare" il carico dei raggi dalla gpu alla cpu la troverei un ottima cosa, visto che oramai la fascia media di cpu diventerà un 8c/16t quando uscirà ryzen 3000, almeno avremo modo di sfruttare le cpu anzichè far arrancare ancor più le vgaBeh si e no.
Le cpu ormai i giochi open le sfruttano e tanto. Per non parlare dei drm tipo il denuvo.
Guarda x2700 che fatica e tanto nei nuovi AC.
ninja750
18-03-2019, 10:22
Beh si e no.
Le cpu ormai i giochi open le sfruttano e tanto. Per non parlare dei drm tipo il denuvo.
Guarda x2700 che fatica e tanto nei nuovi AC.
si ma i core delle cpu non andrebbero sfruttati dai DRM
e non è una buona prospettiva? personalmente se davvero hanno trovato il modo di "sgravare" il carico dei raggi dalla gpu alla cpu la troverei un ottima cosa, visto che oramai la fascia media di cpu diventerà un 8c/16t quando uscirà ryzen 3000, almeno avremo modo di sfruttare le cpu anzichè far arrancare ancor più le vgaAnfatti 😂 non vedo l'ora... Sto col 3570k dal 2012 😅
techfede
18-03-2019, 20:28
Il calcolo è in tempo reale ma non è un mondo animato. Non ci sono npc che passeggiano avanti e indietro , alberi , ecc ecc.
Le uniche cose che si muovono sono il drone e la telecamera.
E cmq si muovono in un percorso predefinito quindi ottimizzato.
Probabilmente la cpu da una grossa mano alla.vega a calcolare i raggi , tanto non ha nulla da fare
Non me ne intendo tantissimo, ma in fatto di rendering non dovrebbe cambiare nulla dall'avere un percorso predefinito all'essere npc che girano a caso. Se le scene non sono pre-renderizzate l'ammontare per la gpu è lo stesso, ma magari ci vorrebbe qualcuno che ne sa più di me per spiegarlo bene.
Sul discorso cpu non so onestamente se possa veramente aiutare una scheda video a calcolare raggi, penso che non ne avrebbe proprio la potenza per farlo.
e non è una buona prospettiva? personalmente se davvero hanno trovato il modo di "sgravare" il carico dei raggi dalla gpu alla cpu la troverei un ottima cosa, visto che oramai la fascia media di cpu diventerà un 8c/16t quando uscirà ryzen 3000, almeno avremo modo di sfruttare le cpu anzichè far arrancare ancor più le vga
Vedi sopra, da quel poco che so io la potenza di una cpu non è neanche lontanamente sufficiente ad occuparsi di quel tipo di calcoli, che sono proprio il motivo per cui sono nate le gpu alla fine. In ogni caso i core verranno sfruttati quando si penserà veramente a programmare per usarli, con i limiti del caso naturalmente, ma preferisco che stiano a girarsi i pollici per compensare cali di frame qua e là, piuttosto che usino la loro misera potenza (in quel calcolo) per supportare la gpu.
fraussantin
19-03-2019, 07:01
Non me ne intendo tantissimo, ma in fatto di rendering non dovrebbe cambiare nulla dall'avere un percorso predefinito all'essere npc che girano a caso. Se le scene non sono pre-renderizzate l'ammontare per la gpu è lo stesso, ma magari ci vorrebbe qualcuno che ne sa più di me per spiegarlo bene.
Sul discorso cpu non so onestamente se possa veramente aiutare una scheda video a calcolare raggi, penso che non ne avrebbe proprio la potenza per farlo.
Vedi sopra, da quel poco che so io la potenza di una cpu non è neanche lontanamente sufficiente ad occuparsi di quel tipo di calcoli, che sono proprio il motivo per cui sono nate le gpu alla fine. In ogni caso i core verranno sfruttati quando si penserà veramente a programmare per usarli, con i limiti del caso naturalmente, ma preferisco che stiano a girarsi i pollici per compensare cali di frame qua e là, piuttosto che usino la loro misera potenza (in quel calcolo) per supportare la gpu.Già rtx di nvidia gravava moltissimo sulla cpu nonostante hw dedicato
Io non posso usarlo su b5 perché la 4690 non ce la fa.( Non la gpu il 4690...)
Su q2 da un uso leggero col grafica stock , passando in rtx viene usata tantissimo.
Cmq tra 20 gg ci leveremo i dubbi arriva rtx su pascal.
Gyammy85
19-03-2019, 08:13
"presenteranno ampere 7 nm veri e nuova titan da 8000 euro"
"woah dxr su pascal!!111!!!ONE" :asd: :asd:
Mesi a dire che senza minimo """""""100 TF"""""""" di unità dedicate non si muove niente, ora basta pascal :asd:
Hanno pure il coraggio di mostrare questa slide
https://i.postimg.cc/wBkZnsky/photo-2019-03-19-09-04-27.jpg (https://postimages.org/)
Continuo a nutrire forti dubbi sulla serietà di questa azienda, davvero.
Fine OT
techfede
19-03-2019, 09:23
Già rtx di nvidia gravava moltissimo sulla cpu nonostante hw dedicato
Io non posso usarlo su b5 perché la 4690 non ce la fa.( Non la gpu il 4690...)
Su q2 da un uso leggero col grafica stock , passando in rtx viene usata tantissimo.
Cmq tra 20 gg ci leveremo i dubbi arriva rtx su pascal.
Non avendo provato una rtx non posso dirti con sicurezza, ma quello che descrivi credo sia il risultato del fatto che il processore deve gestire queste operazioni rtx, e quindi si aggiunge un po' di overhead, ma questa non è la stessa cosa di effettuare proprio operazioni rtx, di cui si dovrebbe occupare solo la gpu.
Spero che si capisca cosa intendo, se poi hai articoli o qualcosa da consigliare sono curioso anche io, perché non sono sicuro al 100% che sia così.
In ogni caso temo che siamo OT :stordita:
Spider-Mans
19-03-2019, 09:51
insomma c e vita sul pianeta rosso?
prossimo anno la tiriamo fuori una scheda che vada piu della 2080ti e costi la meta senza le fregnate sul raytracing farlocco via hardware?
ah e che non consumi quanto un reattore :asd:
oppure amd troppo impegnata a progettare ps5 e xboxonex2 ?
che si dice?
mircocatta
19-03-2019, 10:06
insomma c e vita sul pianeta rosso?
prossimo anno la tiriamo fuori una scheda che vada piu della 2080ti e costi la meta senza le fregnate sul raytracing farlocco via hardware?
ah e che non consumi quanto un reattore :asd:
oppure amd troppo impegnata a progettare ps5 e xboxonex2 ?
che si dice?
a parte navi fascia media ancora nulla, mi sa che ti conviene aspettare la 3080ti
saranno 2000 cocuzze ok, ma saranno spese bene
Spider-Mans
19-03-2019, 10:18
a parte navi fascia media ancora nulla, mi sa che ti conviene aspettare la 3080ti
saranno 2000 cocuzze ok, ma saranno spese bene
nuuuu 3080ti sara un furto..come la 2080ti...
3080 is the way...ma spero che amd prima o poi....
Roland74Fun
19-03-2019, 10:30
oppure amd troppo impegnata a progettare ps5 e xboxonex2 ?
Al 99,9% è proprio così.
ninja750
19-03-2019, 10:51
Continuo a nutrire forti dubbi sulla serietà di questa azienda, davvero.
serietà? :asd:
non bastasse giusto un mese fa in questo thread ho riportato la news che presto AMD avrebbe rilasciato via driver le prime compatibilità raytracing per le sue schede. Risposte corali (cercatevele): impossibile! senza unità dedicate il RT non può funzionare!
io ho sempre sostenuto che ovviamente con unità dedicate l'impatto prestazionale sarebbe stato molto ma molto minore rispetto a vga sprovviste vedi AMD ma che tutto sommato non capisco quali siano le limitazioni, infatti guarda un po: https://www.hwupgrade.it/news/skvideo/ray-tracing-anche-per-le-schede-geforce-gtx-10-e-gtx-16-da-aprile-via-driver_81348.html
quindi presentano RTX che se non hai una scheda RTX non funzionerà mai.. anzi no
presentano gsync che se non hai un monitor gsync non funzionerà mai.. anzi no
presentano physics che se non hai una vga compagibile non funzionerà mai così bene rispetto a una cpu.. anzi no
in aggiunta mancano talmente titoli che supportino RT che manco adesso sappiamo realmente quale sia l'impatto prestazionale e di consumi on/off sulle RTX figuriamoci sulle 1080 e simili
spero solo che nessuno abbia cambiato una 1080 per una 2070 per avere RT :asd:
Jetmaster
19-03-2019, 11:01
Mi sembra ci sia un po' di maretta nel mercato gpu, faccio bene ad aspettare nuovi sviluppi.
Queste turing mi sembrano un po' una fregatura.
Navi sarà compatibile con queste DXR?
Andy1111
19-03-2019, 11:01
a me viene da ridere a leggere ste novità :D :D
io mi tengo stretta la mia 64 reference a liquido mentre aspetto mi arrivi il nuovo monitor Quad HD con freesync 2 e hdr400 che ho la sensazione che a breve potrò provare anche sto RT e DirectML in futuro aggratis :read: :read:
Mi sembra ci sia un po' di maretta nel mercato gpu, faccio bene ad aspettare nuovi sviluppi.
Queste turing mi sembrano un po' una fregatura.
Navi sarà compatibile con queste DXR?
Vega è già compatibile DXR tutte le schede con DX12 e Vulkan sono compatibili
Gyammy85
19-03-2019, 11:12
a me viene da ridere a leggere ste novità :D :D
io mi tengo stretta la mia 64 reference a liquido mentre aspetto mi arrivi il nuovo monitor Quad HD con freesync 2 e hdr400 che ho la sensazione che a breve potrò provare anche sto RT e DirectML in futuro aggratis :read: :read:
Vega è già compatibile DXR tutte le schede con DX12 e Vulkan sono compatibili
Che poi nasce tutto da microsoft, infatti ad aprile ci sarà l'update di win 10
OvErClOck82
19-03-2019, 11:22
serietà? :asd:
non bastasse giusto un mese fa in questo thread ho riportato la news che presto AMD avrebbe rilasciato via driver le prime compatibilità raytracing per le sue schede. Risposte corali (cercatevele): impossibile! senza unità dedicate il RT non può funzionare!
io ho sempre sostenuto che ovviamente con unità dedicate l'impatto prestazionale sarebbe stato molto ma molto minore rispetto a vga sprovviste vedi AMD ma che tutto sommato non capisco quali siano le limitazioni, infatti guarda un po: https://www.hwupgrade.it/news/skvideo/ray-tracing-anche-per-le-schede-geforce-gtx-10-e-gtx-16-da-aprile-via-driver_81348.html
quindi presentano RTX che se non hai una scheda RTX non funzionerà mai.. anzi no
presentano gsync che se non hai un monitor gsync non funzionerà mai.. anzi no
presentano physics che se non hai una vga compagibile non funzionerà mai così bene rispetto a una cpu.. anzi no
in aggiunta mancano talmente titoli che supportino RT che manco adesso sappiamo realmente quale sia l'impatto prestazionale e di consumi on/off sulle RTX figuriamoci sulle 1080 e simili
spero solo che nessuno abbia cambiato una 1080 per una 2070 per avere RT :asd:Come dico sempre, quando il marketing ti fa il lavaggio del cervello c'è poco da fare... In questo, Nvidia è diventata come Apple purtroppo. Te lo tira nel :ciapet: e ti convince pure che è bello... Ovviamente un domani, se amd dovesse fare le stesse cose il giudizio sarà il medesimo...
Inviato dal mio COL-L29 utilizzando Tapatalk
mircocatta
19-03-2019, 11:36
Come dico sempre, quando il marketing ti fa il lavaggio del cervello c'è poco da fare... In questo, Nvidia è diventata come Apple purtroppo. Te lo tira nel :ciapet: e ti convince pure che è bello... Ovviamente un domani, se amd dovesse fare le stesse cose il giudizio sarà il medesimo...
Inviato dal mio COL-L29 utilizzando Tapatalk
beh c'è anche da dire che qualcuno prima o poi avrebbe dovuto introdurre questa novità (intendo le unità dedicate per il RT)
amd non c'è riuscita, o non se lo poteva permettere visto che aveva altro in cantiere, nvidia invece, conscia del suo vantaggio di una intera generazione, si è potuta permettere di inserirli (creando queste fragili rtx, ma ripeto: un passo falso che si poteva permettere) per "tastare" questo nuovo terreno, per vedere se continuare a spingere sul RT o meno tramite hardware dedicato.. il tutto è una mia opione sia chiaro :D
ma questo DXR che verrà inserito su w10 da microsoft, sfrutterà anche le unità dedicate per farlo? immagino che le future nvidia ed amd le avranno
Che erano compatibili si sapeva da 8 mesi.
E si sapeva pure che avrebbero fatto schifo in termini di fps tutte le GPU senza unità dedicate.
Non vedo nessuna novità sinceramente.
Nel frattempo qualcosa sulla GPU delle console next gen(?)
https://mobile.twitter.com/tum_apisak/status/1107809675448246272?s=21
Inviato dal mio Pixel 2 XL
Gyammy85
19-03-2019, 11:50
beh c'è anche da dire che qualcuno prima o poi avrebbe dovuto introdurre questa novità (intendo le unità dedicate per il RT)
amd non c'è riuscita, o non se lo poteva permettere visto che aveva altro in cantiere, nvidia invece, conscia del suo vantaggio di una intera generazione, si è potuta permettere di inserirli (creando queste fragili rtx, ma ripeto: un passo falso che si poteva permettere) per "tastare" questo nuovo terreno, per vedere se continuare a spingere sul RT o meno tramite hardware dedicato.. il tutto è una mia opione sia chiaro :D
ma questo DXR che verrà inserito su w10 da microsoft, sfrutterà anche le unità dedicate per farlo? immagino che le future nvidia ed amd le avranno
Non è che bisogna per forza scegliere il modo peggiore :D
E no, non usa le unità dedicate, hanno bisogno del compilatore e tutto il resto.
Che erano compatibili si sapeva da 8 mesi.
E si sapeva pure che avrebbero fatto schifo in termini di fps tutte le GPU senza unità dedicate.
Non vedo nessuna novità sinceramente
Inviato dal mio Pixel 2 XL
Anche questo è opinabile, sarebbe come dire facciamo fare i calcoli alle tmu, ovvio li fa male. Se uno piglia paro paro il codice e lo trasla sulle cu è un conto, se uno lo riscrive con async e tutto il resto è un altro, ma ripeto, è roba loro e la stanno gestendo e diffondendo nel modo peggiore possibile.
Come forza bruta gcn è sicuramente avvantaggiata, se davvero navi avrà le cu con smt stile ryzen potrà fare più operazioni a seconda delle informazioni della scena da renderizzare :cool: :cool:
PS era già emersa quell'apu, 40 cu?
mikael84
19-03-2019, 12:42
"presenteranno ampere 7 nm veri e nuova titan da 8000 euro"
"woah dxr su pascal!!111!!!ONE" :asd: :asd:
Mesi a dire che senza minimo """""""100 TF"""""""" di unità dedicate non si muove niente, ora basta pascal :asd:
Hanno pure il coraggio di mostrare questa slide
Continuo a nutrire forti dubbi sulla serietà di questa azienda, davvero.
Fine OT
Nvidia non userà mai 100TF di raggi su una 2080:p
Ci sarebbe da discuttere sulla tua ultima affermazione che lascia un pochino a desiderare molte volte, questo si.... però bisogna riflettere sui dati
Monster Pascal è un chip da 44 TF, ovvero parliamo di oltre 14000 cuda
https://cdn.wccftech.com/wp-content/uploads/2019/03/2019-03-18_23-14-13-740x411.png
Come sai, o almeno ti ho spiegato nvidia in RT non può usare tutte le unità RT, ma solo il 40% massimo
Una 2080 ha 46 RT, sfruttabili 18
18 RT equivalgono a circa 30 TF non 100tf
Big Pascal, ovvero 4 1080ti pari
calcola 10 TF in FP32
2080ti: 8tf
RT core:
monster pascal: 23 TF
2080: 30 TF
Quindi a conti fatti, nvidia si avvicina al teorico dichiarato con Metro dei raggi.
Su BF5 invece l'uso RT è ben minore.
Quindi non servono i 100TF:p
Come dico sempre, quando il marketing ti fa il lavaggio del cervello c'è poco da fare... In questo, Nvidia è diventata come Apple purtroppo. Te lo tira nel :ciapet: e ti convince pure che è bello... Ovviamente un domani, se amd dovesse fare le stesse cose il giudizio sarà il medesimo...
Inviato dal mio COL-L29 utilizzando TapatalkSecondo me, quelli che comprano Nvidia, sono gli stessi che si fanno fregare con i depuratori d'acqua che cerca di rifilarti al telefono 😅😂😂😂
non bastasse giusto un mese fa in questo thread ho riportato la news che presto AMD avrebbe rilasciato via driver le prime compatibilità raytracing per le sue schede. Risposte corali (cercatevele): impossibile! senza unità dedicate il RT non può funzionare!
Ray Tracing si fa anche su AMD, è l' implementazione RT di nvidia che su AMD non la puoi fare perché usa CUDA.
Quindi BF5 RT su AMD non gira e non girerà a meno che gli sviluppatori di BF5 non implementino un path non specifico per nVidia.
arielle.alanah
19-03-2019, 13:47
Nvidia non userà mai 100TF di raggi su una 2080:p
Ci sarebbe da discuttere sulla tua ultima affermazione che lascia un pochino a desiderare molte volte, questo si.... però bisogna riflettere sui dati
Monster Pascal è un chip da 44 TF, ovvero parliamo di oltre 14000 cuda
https://cdn.wccftech.com/wp-content/uploads/2019/03/2019-03-18_23-14-13-740x411.png
Come sai, o almeno ti ho spiegato nvidia in RT non può usare tutte le unità RT, ma solo il 40% massimo
Una 2080 a 46 RT, sfruttabili 18
18 RT equivalgono a circa 30 TF non 100tf
Big Pascal, ovvero 4 1080ti pari
calcola 10 TF in FP32
2080ti: 8tf
RT core:
monster pascal: 23 TF
2080: 30 TF
Quindi a conti fatti, nvidia si avvicina al teorico dichiarato con Metro dei raggi.
Su BF5 invece l'uso RT è ben minore.
Quindi non servono i 100TF:p
Si ma adesso basta con questo super giro di parole (che ogni volta non si capisce nulla) e post da PR nvidia, cioè io capisco che magari lo fai come mestiere, ma sono anni che nvidia ci prende per i fondelli dai, tralasciando la preistoria e le malefatte, abbiamo avuto physx, poi gsync, ora rt core... ma non siete ancora stufi di azienda di racconta balle? ma come fate a pendere sempre dalle loro labbra...
ci hanno preso in giro, per l'ennesima volta.
ninja750
19-03-2019, 14:05
Ray Tracing si fa anche su AMD, è l' implementazione RT di nvidia che su AMD non la puoi fare perché usa CUDA.
Quindi BF5 RT su AMD non gira e non girerà a meno che gli sviluppatori di BF5 non implementino un path non specifico per nVidia.
da quello che ho capito se aprono i driver per amd e pascal a RT sarà tutto gestito via dx12 poi sarà il driver del singolo produttore che nel caso delle RTX farà lavorare la parte dedicata mentre per tutte le altre schede il lavoro sarà dato in pasto alle unità normali con conseguenti crolli di performance
Gyammy85
19-03-2019, 14:21
Fanno un evento, dove tutti si aspettavano ben altro, parlando di dxr su pascal, ma dicendoti che girerà male, facendoti pure le slide con ipotetico monster pascal per pareggiare la 2080. Io la vedo molto ambigua come cosa, era necessario un evento ad hoc? per dire sempre e solo just buy it?
arielle.alanah
19-03-2019, 14:23
Fanno un evento, dove tutti si aspettavano ben altro, parlando di dxr su pascal, ma dicendoti che girerà male, facendoti pure le slide con ipotetico monster pascal per pareggiare la 2080. Io la vedo molto ambigua come cosa, era necessario un evento ad hoc? per dire sempre e solo just buy it?
Sarebbe sufficiente se la gente smettesse di credere a tutto ciò che dice nvidia.
Gyammy85
19-03-2019, 14:24
Radeon pro vega 48 nei nuovi mac
https://arstechnica.com/gadgets/2019/03/apple-refreshes-the-imac-with-optional-8-core-cpus-and-vega-graphics/
da quello che ho capito se aprono i driver per amd e pascal a RT sarà tutto gestito via dx12 poi sarà il driver del singolo produttore che nel caso delle RTX farà lavorare la parte dedicata mentre per tutte le altre schede il lavoro sarà dato in pasto alle unità normali con conseguenti crolli di performance
RT non è un effetto che va fatto con una chiamata DX
l' hybrid RT di nVidia è un metodo di rendering che implica diverse operazioni https://devblogs.nvidia.com/effectively-integrating-rtx-ray-tracing-real-time-rendering-engine/
Alcune di queste sono fatte via DX e sono svolte dai core RT ( o dalla CPU per schede prive di unità RT ), altre sono fatte via DX chiamando le solite unità di shader, alcune ( in particolare le attività di denoise ) vengono fatte chiamando delle librerie apposite nVidia che lavorano sui tensor core.
mikael84
19-03-2019, 15:00
Si ma adesso basta con questo super giro di parole (che ogni volta non si capisce nulla) e post da PR nvidia, cioè io capisco che magari lo fai come mestiere, ma sono anni che nvidia ci prende per i fondelli dai, tralasciando la preistoria e le malefatte, abbiamo avuto physx, poi gsync, ora rt core... ma non siete ancora stufi di azienda di racconta balle? ma come fate a pendere sempre dalle loro labbra...
ci hanno preso in giro, per l'ennesima volta.
Io faccio tutt'altro mestiere, cmq io analizzo i dati, ed i dati sono quelli, non mi interessa il marketing, la borsa, solo i dati.
Pensa che io sono stato il primo a "denunciare"la truffa delle rop's di nvidia.;)
Nel mio commento di prima non mi pare di aver parlato arabo.
Se una 2080 ha 46 RT core, ma nvidia ti dice che ne può utilizzare contemporaneamente un max del 40%, gli RT core calano a circa 18.
18 RT a 1700mhz circa, fanno circa 31 TF.
Se prendi quel monster pascal, 4 1080ti praticamente, verrano utilizzati 23 TF per RT.
Se tu hai solo una 1080ti che produce 11TF, ti ritroverai, ad utilizzare in RT 5,75tf su 11 a disposizione.
Risultato: vai a 18FPS su 61FPS rispetto ad una 2080 liscia.:)
chiudo OT
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.