View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™
I 4k anche spinti li gestice anche la mia gpu se il gioco è ottimizzato, si cè da dire che tengo sempre aa off ombre high e altri effettucci off
Ale55andr0
19-09-2019, 08:30
Siamo tornati all'epoca in cui, 5 anni dopo averla comprata, con la 8800gtx maxo ancora "tutto" in 1080p (tranne questo, quello e quell'altro perchè sono inutili/pesano) :rolleyes:
Ale55andr0
19-09-2019, 08:31
I 4k anche spinti li gestiche anche la mia gpu se il gioco è ottimizzato, si cè da dire che tengo sempre aa off ombre high e altri effettucci off
allora sono spinti un par di....
Gyammy85
19-09-2019, 08:38
non si era detto che non sarebbero mai esistite le 5800? ma tecnicamente solo delle 5600?
Chi lo ha detto? si è sempre detto navi 12 la grossa e navi 14 la piccola
Considerando che hanno lanciato un epyc da 280 watt quando già quello da 225 watt trancia tutto, direi che potrebbero aver intenzione di fare la voce grossa pure sulle gpu anche se è un salto nel buio a differenza delle cpu (ma quanto costa, ma quanto consuma, eh ma sono cialtroni, ma a che serve, ecc...)
allora sono spinti un par di....
Beh l'aa non serve in 4k le ombre a ultra sono inutili, il dof, il bloom inutili
Ale55andr0
19-09-2019, 19:45
Beh l'aa non serve in 4k le ombre a ultra sono inutili, il dof, il bloom inutili
si si, e questo è il 4k spinto, si spegne tutto quello che pesa e diventa automaticamente inutile perchè si :D
...a parte il fatto che per me l'aa stra-serve anche in 4k. A ognuno poi i suoi occhi eh.
si si, e questo è il 4k spinto, si spegne tutto quello che pesa e diventa automaticamente inutile perchè si :D
...a parte il fatto che per me l'aa stra-serve anche in 4k. A ognuno poi i suoi occhi eh.Il 4K spinto è per vedere i film zozzi
zanflank
20-09-2019, 16:41
E qui il punto il mio monitor non è compatibile con il freesync nvidia!
e quindi? :rolleyes:
lo attivi e funziona... magari con alcune pecche.
RTX2070 + 27UD68 mio e vedo tearing leggero solo a 60fps, considerando che devi lockare il framerate a 3 frame in meno sono a cavallo.
Ale55andr0
23-09-2019, 13:20
leggo in giro che navi 12 e 14 dovrebbero essere 5500 e 5600 dedicate al 1080p, niente 5800 quindi, non che ci credessi più di tanto ma...
leggo in giro che navi 12 e 14 dovrebbero essere 5500 e 5600 dedicate al 1080p, niente 5800 quindi, non che ci credessi più di tanto ma...
niente 5800 :muro:
majinbu7
23-09-2019, 17:00
Ragassuoli una ipotetica 5800 xt o comunque fascia top AMD secondo me fino all'anno nuovo non si vedrà (altrimenti qualche leak già si sarebbe visto), anzi ad esser sincero credo ormai che uscirà direttamente in primavera con RDNA 2.
HadesSaint
25-09-2019, 14:13
quoto
Free Gordon
25-09-2019, 23:30
Ragassuoli una ipotetica 5800 xt o comunque fascia top AMD secondo me fino all'anno nuovo non si vedrà (altrimenti qualche leak già si sarebbe visto), anzi ad esser sincero credo ormai che uscirà direttamente in primavera con RDNA 2.
Sei un po' troppo ottimista..
Secondo me siam fortunati se la 5800 o 6800 che sarà, la vediamo ai primi di Luglio..
Quindi una presentazione fine Q2.
Sei un po' troppo ottimista..
Secondo me siam fortunati se la 5800 o 6800 che sarà, la vediamo ai primi di Luglio..
Quindi una presentazione fine Q2.
Infatti secondo me fanno direttamente tutta la serie 6000 con RDNA2, RT e 7nm+.
Il tutto Verso fine H1 o inizio H2 insieme a Zen 3.
Free Gordon
26-09-2019, 15:48
Infatti secondo me fanno direttamente tutta la serie 6000 con RDNA2, RT e 7nm+.
Il tutto Verso fine H1 o inizio H2 insieme a Zen 3.
Anche secondo me ci saranno le 6600, 6700 e 6800 dal prossimo Luglio.
Speriamo tutte RDNA2.. anche se sulla 6600 ho dei dubbi (sarebbe ottimo se fosse perlomeno uno "shrink" a 7nm+ della 5700.... :D )
Gyammy85
28-09-2019, 18:21
https://wccftech.com/exclusive-amd-launching-7nm-based-radeon-rx-5500m-and-rx-5300m-positioned-to-take-out-nvidias-mid-end-mobility-lineup/amp/?__twitter_impression=true
Ale55andr0
28-09-2019, 19:38
https://wccftech.com/exclusive-amd-launching-7nm-based-radeon-rx-5500m-and-rx-5300m-positioned-to-take-out-nvidias-mid-end-mobility-lineup/amp/?__twitter_impression=true
si ma qui i fermacarte per i fermacarte non ci interessano :O
#cacciatefuorila5800
Gyammy85
28-09-2019, 20:30
si ma qui i fermacarte per i fermacarte non ci interessano :O
#cacciatefuorila5800
Servono ad asfaltare le 1650 mobile e pure la 1660ti, per asfaltare la 2080ti non c'è fretta :O
Ale55andr0
29-09-2019, 09:41
https://wccftech.com/amd-navi-12-radeon-rx-5800-and-navi-14-rx-5700-gpu-specs-detailed/
non so quanto possa essere sensato cio che dice sto tizio :asd:
https://www.youtube.com/watch?time_continue=1&v=lzJWS3gLOuw
Gyammy85
29-09-2019, 10:12
https://wccftech.com/amd-navi-12-radeon-rx-5800-and-navi-14-rx-5700-gpu-specs-detailed/
non so quanto possa essere sensato cio che dice sto tizio :asd:
https://www.youtube.com/watch?time_continue=1&v=lzJWS3gLOuw
Navi 14 dovrebbe essere il chip full, perché ha 24 cu a differenza della 5500m che ne ha 22
Sulla 5800, il leak nasce dal fatto che navi 12 ha il suffisso performance, a differenza di navi 10 che è mainstream, sui 256 bit ho qualche dubbio, probabile che con ram più spinte si possa arrivare a 500 giga, ma io opterei per 384 o 512 bit...ipotizzano 350 mm2 per navi 12
https://www.tomshw.it/hardware/amd-navi-12-navi-14-radeon-rx-5800-e-rx-5600-in-arrivo/
p.s. ... niente di nuovo...
A me basterebbe una 5600 a sostituire la 580...con prezzi simili (non mi sembra di chiedere molto vista l'età di polaris che a sto punto è quasi diventata un calippo al sole).
Rimosso il pessimo OT condito da insulti vari e sospesi Ale55andr0 e fraussantin 10gg
>bYeZ<
A me basterebbe una 5600 a sostituire la 580...con prezzi simili (non mi sembra di chiedere molto vista l'età di polaris che a sto punto è quasi diventata un calippo al sole).Se è vero che una 5600xt è molto vicina ad una 1660ti, le 580 caleranno a picco con il prezzo dell'usato
Se è vero che una 5600xt è molto vicina ad una 1660ti, le 580 caleranno a picco con il prezzo dell'usato
Considerando che il msrp di polaris era sui 200-229 dollari non sono praticamente mai calate (escludendo la bolla del mining) e dopo quanti? 3-4 anni? Sarebbe anche l'ora che calassero :).
ninja750
30-09-2019, 07:35
Se è vero che una 5600xt è molto vicina ad una 1660ti, le 580 caleranno a picco con il prezzo dell'usato
dipenderà esclusivamente a quanto la prezzeranno perchè se come immagino la metteranno a 249$ le polaris resteranno un best buy per 1080p/60
poi francamente.. 580/590 per 1080p, 5700/xt per 1440p.. la via di mezzo a che serve? 1260p? :fagiano:
Gyammy85
30-09-2019, 09:18
dipenderà esclusivamente a quanto la prezzeranno perchè se come immagino la metteranno a 249$ le polaris resteranno un best buy per 1080p/60
poi francamente.. 580/590 per 1080p, 5700/xt per 1440p.. la via di mezzo a che serve? 1260p? :fagiano:
Da un punto di vista commerciale, amd ha una lineup troppo esigua e frammentata, all'atto pratico solo due schede che coprono 5 schede del competitor dalla 2060 alla 2080, un scheda prosumer (che non si sa se ancora viene venduta o no) che copre le prestazioni prosumer di 2080ti e titan, e in fascia bassa apu e polaris dalla 1660 a scendere...troppo poche, ora nvidia fa pure la 1650ti e la 1660 super, 4 schede vs 20 non è facile...
AceGranger
30-09-2019, 09:55
Da un punto di vista commerciale, amd ha una lineup troppo esigua e frammentata, all'atto pratico solo due schede che coprono 5 schede del competitor dalla 2060 alla 2080, un scheda prosumer (che non si sa se ancora viene venduta o no) che copre le prestazioni prosumer di 2080ti e titan, e in fascia bassa apu e polaris dalla 1660 a scendere...troppo poche, ora nvidia fa pure la 1650ti e la 1660 super, 4 schede vs 20 non è facile...
hanno solo 2 schede che coprono fino alla 2070
la "prosumer" Radeon VII, che i Pro si son guardati bene dall'acquistare, è morta.
"Radeon VII is 100% EOL, we confirmed that directly with AMD before we started this round of GPU testing. Leftover supply does not mean it is still being manufactured."
-Matt Bach, Senior Puget Labs Technician
hanno solo 2 schede che coprono fino alla 2070
la "prosumer" Radeon VII, che i Pro si son guardati bene dall'acquistare, è morta.
"Radeon VII is 100% EOL, we confirmed that directly with AMD before we started this round of GPU testing. Leftover supply does not mean it is still being manufactured."
-Matt Bach, Senior Puget Labs Technician
Fino alla 2070 super/2080 coprono tranquillamente con la 5700XT.
AceGranger
30-09-2019, 13:39
Fino alla 2070 super/2080 coprono tranquillamente con la 5700XT.
con al 5700XT non arrivano nemmeno alla 2070Super
ovviamente prendendo la media, non i 2-3 giochi che fanno comodo.
3D Center fa la media di tutte le medie delle review.
https://www.3dcenter.org/artikel/fullhd-ultrahd-performance-ueberblick-2012-bis-2019
Giocare con una 5700XT o una 2060S/2070/2070S assicura la stessa esperienza di gioco, pippe a parte da medie delle medie delle superiori mediate....certo non avete le lucette fisicamente corrette ma che ci volete fare...
evitiamo di insozzare al solito i thread amd parlando delle nvidia, grazie
Free Gordon
30-09-2019, 13:50
Speriamo che prima di Natale esca una 5800XT con prestazioni 2080 super like... :)
RDNA1 anche ... l'importante è che esca.
Tanto per RDNA2 ci vorrà un anno circa.. :)
HadesSaint
30-09-2019, 21:28
si parla di una navi 12 con 3200sp +
chip 350-400mm²
52-64 Shader-Cluster mit 3328-4096 Shader-Einheiten an einem 256 Bit GDDR6-Speicherinterface
spekulativ ca. 250-300W
10-13 TFlops & 448-512 GB/sec
500-700 dollari
Gyammy85
30-09-2019, 21:51
si parla di una navi 12 con 3200sp +
chip 350-400mm²
52-64 Shader-Cluster mit 3328-4096 Shader-Einheiten an einem 256 Bit GDDR6-Speicherinterface
spekulativ ca. 250-300W
10-13 TFlops & 448-512 GB/sec
500-700 dollari
Già la 5700xt tocca quasi i 10 tf, la radeon 7 viaggia tranquillamente a 1,8 GHz a stock e i 2000 in oc, non credo proprio che navi 12 possa fare peggio. Io dico che la 2080ti è a portata di mano, lo scaling dovrebbe essere praticamente lineare da 40 a 56-60-64 cu
mikael84
30-09-2019, 23:31
Speriamo che prima di Natale esca una 5800XT con prestazioni 2080 super like... :)
RDNA1 anche ... l'importante è che esca.
Tanto per RDNA2 ci vorrà un anno circa.. :)
Io continuo a dubitare che esca. Sono speculazioni di 3dcenter, dove parla di un bus a 256bit. Ovviamente non possono fare un big chip con quel bus, già ora tra rop's e bus è un mezzo disastro.
Attualmente, come ha anche allertato nvidia, AMD sta preparando le rivali della 1660 liscia e 1650ti (5600).
Il chippone, 3070/80 like, lo vedremmo con RDNA2.
Andy1111
01-10-2019, 18:56
Radeon Image Sharpening
https://www.youtube.com/watch?v=AJ1XBJTVvEg
Nessuna perdita di prestazioni e con on almeno per me sembra anche meglio dell'originale. Ancora non li ho provati gli ultimi driver appena ho tempo lo faccio. Voi che ne pensate?
ninja750
01-10-2019, 19:16
Radeon Image Sharpening
https://www.youtube.com/watch?v=AJ1XBJTVvEg
Nessuna perdita di prestazioni e con on almeno per me sembra anche meglio dell'originale. Ancora non li ho provati gli ultimi driver appena ho tempo lo faccio. Voi che ne pensate?
come puoi notare dal video vedi differenze quasi solo zoomando e con gioco fermo altrimenti è dura
ciò non toglie che in molti giochi la differenza non è poca e visto che è "gratis" performancicamente parlando non vedo perchè non usarlo
ma mentre sei nella giungla che corri dietro a qualcuno col fucile o mentre sei a 200km/h sul tuo circuito preferito dubito che l'esperienza di gioco cambi anche di poco
imho
buono cmq che lo hanno implementato anche per vega con gli ultimi 19.9.3
sembrava una questione solo di navi
Già la 5700xt tocca quasi i 10 tf, la radeon 7 viaggia tranquillamente a 1,8 GHz a stock e i 2000 in oc, non credo proprio che navi 12 possa fare peggio. Io dico che la 2080ti è a portata di mano, lo scaling dovrebbe essere praticamente lineare da 40 a 56-60-64 cu
SE esisterà una 5800XT, dubito fortemente che arriverà a tallonare una 2080ti, mi sembrano previsioni fin troppo ottimiste (per non dire altro :D).
Per me non uscirà nemmeno, avremo tutta una lineup completa l'anno prossimo per controbattere la serie 3000 di nvidia.
Free Gordon
02-10-2019, 01:50
Il chippone, 3070/80 like, lo vedremmo con RDNA2.
Molto probabile.
Ma se uscisse una 5800XT nel 2019, sono convinto non sarebbe niente male.. ;)
ma una Radeon 5700 o 5700 XT secondo voi farà girare bene i giochi delle prossime generazioni di console Sony e Microsoft ? E' un acquisto sensato per la longevità ? tipo 6/7 anni ?
ma una Radeon 5700 o 5700 XT secondo voi farà girare bene i giochi delle prossime generazioni di console Sony e Microsoft ? E' un acquisto sensato per la longevità ? tipo 6/7 anni ?
una vga on perfromerà mai per 6/7 anni decentemente, a meno che per sei sette anni tu continui a giocare i titoli di oggi o degli indie senza troppe pretese.... sicuramente andrà come e più di una nuova console...
Ma lo avete visto sto tizio che sta facendo un gioco "teardown" dove usa gli effetti ray tracing senza la necessità di usare le RTX?
Non aspettatevi il capolavoro dell'anno ma il video è gustoso da vedere
https://youtu.be/Fgkhs_jI_mM
sarebbe sprecata una RX 5700 per un FX 6300@4,5Ghz ?
Attualmente ho una RX 570 8gb gioco in full hd.
mircocatta
03-10-2019, 07:59
sarebbe sprecata una RX 5700 per un FX 6300@4,5Ghz ?
Attualmente ho una RX 570 8gb gioco in full hd.
sarebbe sprecata ma avresti comunque un boost prestazionale
Ma lo avete visto sto tizio che sta facendo un gioco "teardown" dove usa gli effetti ray tracing senza la necessità di usare le RTX?
Non aspettatevi il capolavoro dell'anno ma il video è gustoso da vedere
https://youtu.be/Fgkhs_jI_mM
Ripetete con me:
Il ray tracing NON è RTX
l'RTX è la piattaforma nvidia che include tra le altre cose le implementazioni ray tracing sulle proprie gpu
sarebbe sprecata ma avresti comunque un boost prestazionale
per fini ludici meglio cambiare la mia vga con una molto più potente e lascire fx 6300, oppure cambiare il processore e passare a Ryzen 5 3600 e lasciare la RX 570 ? In che modo troverei più fps ?
Ripetete con me:
Il ray tracing NON è RTX
Il ray tracing NON è RTX
l'RTX è la piattaforma nvidia che include tra le altre cose le implementazioni ray tracing sulle proprie gpu
l'RTX è la piattaforma nvidia che include tra le altre cose le implementazioni ray tracing sulle proprie gpu
:O
nevets89
03-10-2019, 11:26
per fini ludici meglio cambiare la mia vga con una molto più potente e lascire fx 6300, oppure cambiare il processore e passare a Ryzen 5 3600 e lasciare la RX 570 ? In che modo troverei più fps ?
Io dico la seconda, cioè magari avresti più FPS con la prima opzione, ma solo su certi giochi in cui la CPU viene utilizzata molto poco.... Altrimenti mi sa che Cambierebbe poco e niente... Guardati qualche review di giochi su gamegpu per farti un'idea di quanto il tuo fx limita la vga
shocker94
03-10-2019, 11:49
sarebbe sprecata una RX 5700 per un FX 6300@4,5Ghz ?
Attualmente ho una RX 570 8gb gioco in full hd.Direi di si. A meno che vai di 1440p o 2160p, così attenui il bottleneck.
per fini ludici meglio cambiare la mia vga con una molto più potente e lascire fx 6300, oppure cambiare il processore e passare a Ryzen 5 3600 e lasciare la RX 570 ? In che modo troverei più fps ?
la 570 è rispettabile in fullhd ancora oggi, ergo per me inizierei pensionando l'FX6300
Un 3600, con una B450 e 16gb di ram non troppo scrause te li porti a casa a meno di una singola Navi....e ti danno pure un gioco adesso..... la 570 la potrai pensionare l'anno prossimo sempre che serva....
Roland74Fun
03-10-2019, 14:04
sarebbe sprecata una RX 5700 per un FX 6300@4,5Ghz ?
Attualmente ho una RX 570 8gb gioco in full hd.Dipende da cosa giochi.
Se continui col FHD a 60 Hz in 7 Giochi su 10 sei a posto. In 2 giochi su 10 saresti limitato dalla cpu e in un gioco su 10 sei limitato dalla VGA (nell'ultimo caso mi riferisco a giochi talmente pesanti dove la vga e stracaricata mentre la cpu non fa quasi nulla ad esempio uno su tutti resident evil).
Se vuoi il FHD a 144 Hz sei limitato da tutto specialmente dalla CPU.
Se passi al 1440p allora meglio cambiare VGA. Ma io aspetterei l'anno prossimo ed intanto soldi permettendo cambiare CPU scheda madre e ram.
In altre parole, ora hai un sistema equilibrato seppur coi suoi limiti.
Per un sistema più performante ma ugualmente equilibrato devi cambiare tutto.
Gyammy85
07-10-2019, 14:38
https://i.postimg.cc/GmW7nFkc/2019-10-07-1.png (https://postimg.cc/JsQcbB6g)
https://i.postimg.cc/JhdbWMwj/2019-10-07.png (https://postimg.cc/Ff3fytHK)
https://i.postimg.cc/K8pK1f92/untitled5500.png (https://postimages.org/)
E la "competitricie" di 1660-1660ti?:(
mircocatta
07-10-2019, 17:07
dovremo aspettarci un prezzo intorno ai 150-170€? perchè oltre non avrebbe senso
mikael84
07-10-2019, 17:27
dovremo aspettarci un prezzo intorno ai 150-170€? perchè oltre non avrebbe senso
Viene messa in competizione con la 1650, ma la fascia per caratteristiche tecniche è la 1660 (+50% circa), con quest'ultima un tantino avanti, se quel 37% è veritiero.
La 1650 è solo uno scarto di del chip x07 a costi elevati.
gtx 1660: 1408cc
rx 5500: 1408st
Free Gordon
07-10-2019, 23:09
Dipenderà dalle frequenze, dai consumi (per il chip mobile) e soprattutto dai COSTI... :)
Piazzeranno qualcosa tra le 5500 e le 5700? Il divario è bello grosso...
c'e' questa slide che fa' presagire consumi bassi
https://i.ibb.co/Fsk3GRC/AMD-Radeon-RX-5500-Series-Navi-14-Graphics-Card-2-1030x533.jpg (https://ibb.co/KNchCTS)
ma poi le specifiche di amd dicono ben altro
https://www.amd.com/en/products/graphics/amd-radeon-rx-5500
TBP 150w,connettore 8pin,alimentatore da 550w(per la 480/570 era da 500/450w):mbe:
in pratica consuma come una 570,va come una 580/90,1660 al prezzo di?
bhe speriamo non piu' di una 570 in saldo se no i vaffa si sprecano
ma che hanno combinato,la 5700 va nettamente meglio consumando poco piu':(
la cosa strana e' che in giro molti testimoni hanno visto le prime slide a 110w,poco dopo correte da amd a 150:nono:
Piazzeranno qualcosa tra le 5500 e le 5700? Il divario è bello grosso...
le ............ 5600? :stordita:
Se la 5700 liscia è a 170w non può questa averne 150...altrimenti non hanno veramente senso.
le ............ 5600? :stordita:Vedremo
A me la 5500 sembra interessantissima per i 1080p.
Il problema è che le 570 si trovano a 100+ euro, e le 580 a 150+ oramai...
Se lanciano la 5500 a piu di 150 gli rido in faccia. La 1650 sta a 135+...
A me la 5500 sembra interessantissima per i 1080p.
Il problema è che le 570 si trovano a 100+ euro, e le 580 a 150+ oramai...
Se lanciano la 5500 a piu di 150 gli rido in faccia. La 1650 sta a 135+...
le 570 e le 580 tra poco non le troverai più come ogni release di ogni serie gpu....
ma una RX 5500 sarà sufficente per fare girare i prossimi giochi console NEXTGEN ?
arxangel
08-10-2019, 12:36
ma una RX 5500 sarà sufficente per fare girare i prossimi giochi console NEXTGEN ?
Ne dubito, ovviamente non c'è niente di ufficiale ma secondo i rumor più realistici le nuove console dovrebbero avere più o meno la potenza di una nvidia 2060 quindi sotto quella soglia non si potrà aspettare grossa longevità, comunque ne sapremo di più in primavera quando ci saranno gli annunci ufficiali e vedremo i primi giochi.
Free Gordon
08-10-2019, 12:53
ma una RX 5500 sarà sufficente per fare girare i prossimi giochi console NEXTGEN ?
A 1080p e impostazioni medium/high certamente. :)
E' fuor di dubbio. ;)
A proposito di next-gen, sono appena uscite delle nuove informazioni ufficiali sulla PS5, e la Sony ha confermato che avrà ray-tracing a livello di hardware.
A sto punto, mi viene il dubbio che anche le prossime Navi avranno un qualche tipo di ray tracing, altrimenti non vedo come sia possibile - una cosa è fare un design custom per le console, una cosa è un'architettura completamente diversa.
Inoltre, mi viene da pensare che acquistare adesso una Navi tipo la RX 5700 sia una cattiva idea? Visto che probabilmente i giochi futuri useranno molto più spesso il ray tracing (dal momento che le console lo supporteranno, e come al solito i giochi saranno sviluppati prima per console). Senza, ci si troverebbe indietro.
arxangel
08-10-2019, 13:23
A proposito di next-gen, sono appena uscite delle nuove informazioni ufficiali sulla PS5, e la Sony ha confermato che avrà ray-tracing a livello di hardware.
A sto punto, mi viene il dubbio che anche le prossime Navi avranno un qualche tipo di ray tracing, altrimenti non vedo come sia possibile - una cosa è fare un design custom per le console, una cosa è un'architettura completamente diversa.
Inoltre, mi viene da pensare che acquistare adesso una Navi tipo la RX 5700 sia una cattiva idea? Visto che probabilmente i giochi futuri useranno molto più spesso il ray tracing (dal momento che le console lo supporteranno, e come al solito i giochi saranno sviluppati prima per console). Senza, ci si troverebbe indietro.
Anche le nuove Intel supporteranno il ray tracing via hardware, secondo me conviene aspettare l' uscita delle nuove console dove almeno per pS5 si è già parlato ufficialmente, lo ha detto Cerny che all' epoca lavorava per Sony, di Ray tracing, poi se uno compra ora corre il rischio che gra due anni deve comunque cambiare scheda video.
https://www.dsogaming.com/news/intel-confirms-that-its-discrete-xe-gpus-will-release-in-2020-and-will-support-ray-tracing/
AceGranger
08-10-2019, 13:54
A proposito di next-gen, sono appena uscite delle nuove informazioni ufficiali sulla PS5, e la Sony ha confermato che avrà ray-tracing a livello di hardware.
A sto punto, mi viene il dubbio che anche le prossime Navi avranno un qualche tipo di ray tracing, altrimenti non vedo come sia possibile - una cosa è fare un design custom per le console, una cosa è un'architettura completamente diversa.
Inoltre, mi viene da pensare che acquistare adesso una Navi tipo la RX 5700 sia una cattiva idea? Visto che probabilmente i giochi futuri useranno molto più spesso il ray tracing (dal momento che le console lo supporteranno, e come al solito i giochi saranno sviluppati prima per console). Senza, ci si troverebbe indietro.
Non ci sono dubbi a riguardo, lo hanno detto ufficialmente...
RDNA 2 avra il RT in hardware, e comunque, si sapeva anche prima dell'annuncio ufficiale, visto che non esiste altro modo per avere il RT in real time.
Tutto cio che uscira quest'anno di AMD non avra RT, tutto cio che uscira l'anno prossimo avra RT ( presumibilmente ad esclusione delle entry lvl )
l'uscita delle console è fissa a fine anno, in linea con la presentazione a meta anno della nuova architettura a distanza del canonico anno di vita minimo di ogni generazione di chip, in questo caso 5700XT; magari la TOP gamma potrebbero lanciarla qualche mese prima visto che non hanno nulla da ammortizzare.
arxangel
08-10-2019, 18:33
Oltre tutto AMD con la PS5 userà lo stesso approccio di Nvidia un chip a parte all' interno della GPU che si occuperà solo del raytracing, penso che ormai non abbia molto senso comprare una scheda video senza ray tracing se si vuole un minimo di longevità, sopra i 2 anni e mezzo, tre.
Windtears
08-10-2019, 19:25
Oltre tutto AMD con la PS5 userà lo stesso approccio di Nvidia un chip a parte all' interno della GPU che si occuperà solo del raytracing, penso che ormai non abbia molto senso comprare una scheda video senza ray tracing se si vuole un minimo di longevità, sopra i 2 anni e mezzo, tre.
non sono d'accordo, a detta di un dev nvidia (che sono i primi spingitori di cavalieri gigaraggiosi), il primo gioco pensato completamente con il ray tracing in testa si vedrà nel 2023 o giù di lì.
Ci sta tutto il tempo di godersi navi così com'è...
poi chiaro che se a fine 2020 usciranno le console che supportano RT non vuole dire che tutti i giochi lo supporteranno al 100% e soprattutto a che prezzo?
Già il 4k è un upscale a 30fps su xone e pro e l'alternativa è il fullhd a 60 (spesso manco stabili)... secondo me sarà rt on-off esattamente come ora è per la res... e sappiamo tutti come andra a finire... -.-
io spero solo che non stuprino i giochi per simulare sto rt perché fa moda (vedi l'obbrobbrio control, dove persino le piante emettono luce, o due monitor accesi a pochi passi di distanza abbiano comportamenti differenti solo perché va fatto vedere che l'effetto c'è e allora un crt diventa un faro da stadio. :( ), esattamente come è stato per il 3d, ora sepolto e defunto.
arxangel
08-10-2019, 19:45
non sono d'accordo, a detta di un dev nvidia (che sono i primi spingitori di cavalieri gigaraggiosi), il primo gioco pensato completamente con il ray tracing in testa si vedrà nel 2023 o giù di lì.
Ci sta tutto il tempo di godersi navi così com'è...
poi chiaro che se a fine 2020 usciranno le console che supportano RT non vuole dire che tutti i giochi lo supporteranno al 100% e soprattutto a che prezzo?
Già il 4k è un upscale a 30fps su xone e pro e l'alternativa è il fullhd a 60 (spesso manco stabili)... secondo me sarà rt on-off esattamente come ora è per la res... e sappiamo tutti come andra a finire... -.-
io spero solo che non stuprino i giochi per simulare sto rt perché fa moda (vedi l'obbrobbrio control, dove persino le piante emettono luce, o due monitor accesi a pochi passi di distanza abbiano comportamenti differenti solo perché va fatto vedere che l'effetto c'è e allora un crt diventa un faro da stadio. :( ), esattamente come è stato per il 3d, ora sepolto e defunto.
I giochi che sono usciti finora col ray tracing lo hanno messoli tanto per, è appiccicato sopra al sistema di illuminazione tradizionale alla meno peggio con risultati finora scadenti o addirittura peggiorativi, invece i giochi next gen saranno nativi ray tracing e quindi sia le prestazioni che la qualità visiva sarà superiore al ray tracing attuale, oltretutto il ray tracing semplifica la vita agli sviluppatori quindi penso sarà usatissimo anche considerando che il target delle console è più la fedeltà d'immagine che il numero di FPS.
Quindi penso che dopo il primo anno, anno e mezzo con giochi cross generation tutti i giochi faranno uso di ray tracing sia su console che su PC, non c'è motivo per il quale non dovrebbero usarlo.
Andy1111
08-10-2019, 19:47
https://www.guru3d.com/news-story/tsmc-is-producing-euv-based-n7-technology-in-high-volume.html
Questo 2020 sarà pieno di sorprese, è partita la produzione N7+ di TMSC
15 al 20% di densità in più e un consumo energetico migliorato
Windtears
08-10-2019, 19:59
I giochi che sono usciti finora col ray tracing lo hanno messoli tanto per, è appiccicato sopra al sistema di illuminazione tradizionale alla meno peggio con risultati finora scadenti o addirittura peggiorativi, invece i giochi next gen saranno nativi ray tracing e quindi sia le prestazioni che la qualità visiva sarà superiore al ray tracing attuale, oltretutto il ray tracing semplifica la vita agli sviluppatori quindi penso sarà usatissimo anche considerando che il target delle console è più la fedeltà d'immagine che il numero di FPS.
Quindi penso che dopo il primo anno, anno e mezzo con giochi cross generation tutti i giochi faranno uso di ray tracing sia su console che su PC, non c'è motivo per il quale non dovrebbero usarlo.
guarda stavo leggendo che i primi giochi saranno le solite remastered ecc, di next gen non ci sta niente per il 2020 inizio 2021. secondo me, ti ripeto, prima del 2021-22 non si vedrà niente per cui valga la pena sacrificare quel poco di prestazioni che avranno le nuove console a inizio ciclo vitale... l'ottimizzazione è una brutta bestia e, personalmente, dubito proprio che riusciranno ad avere RT pienamente utilizzabile prima di 2-3 anni dall'uscita.
Spero di sbagliarmi, la differenza la faranno i middleware e quanto ms-sony aiuteranno gli sviluppatori... altrimenti ciccia, un nuovo halo o gow che scattano per via dei gigoraggi non lo faranno uscire, ne sono certo.
Su pc sicuramente ci sta una spinta oscena e (personalmente) dolosa per l'adozione massiva di queste nuove tecniche quando invece ciò che necessitano i giochi sono di IA-fisica e interazioni non solo legate a script di sceneggiatura... ma il graficone spinge sempre, così come la kagata delle tv 8k per far vendere nuovi pannelli, per cui non dubito che tra due anni avremo schede che "potenzialmente" possono far girare rt in tempo reale, ma sono scettico che possano generare tutto il game (senza usare artifurbi come dlss e ris) e non solo parti sempre maggiori di illuminazione ecc.
poi magari mi sbaglio, ma secondo me navi per giocare a 1440p adesso e tra due-tre anni andrà benone.
scusa il papiro. -.-
guarda stavo leggendo che i primi giochi saranno le solite remastered ecc, di next gen non ci sta niente per il 2020 inizio 2021. secondo me, ti ripeto, prima del 2021-22 non si vedrà niente per cui valga la pena sacrificare quel poco di prestazioni che avranno le nuove console a inizio ciclo vitale... l'ottimizzazione è una brutta bestia e, personalmente, dubito proprio che riusciranno ad avere RT pienamente utilizzabile prima di 2-3 anni dall'uscita.
Spero di sbagliarmi, la differenza la faranno i middleware e quanto ms-sony aiuteranno gli sviluppatori... altrimenti ciccia, un nuovo halo o gow che scattano per via dei gigoraggi non lo faranno uscire, ne sono certo.
Su pc sicuramente ci sta una spinta oscena e (personalmente) dolosa per l'adozione massiva di queste nuove tecniche quando invece ciò che necessitano i giochi sono di IA-fisica e interazioni non solo legate a script di sceneggiatura... ma il graficone spinge sempre, così come la kagata delle tv 8k per far vendere nuovi pannelli, per cui non dubito che tra due anni avremo schede che "potenzialmente" possono far girare rt in tempo reale, ma sono scettico che possano generare tutto il game (senza usare artifurbi come dlss e ris) e non solo parti sempre maggiori di illuminazione ecc.
poi magari mi sbaglio, ma secondo me navi per giocare a 1440p adesso e tra due-tre anni andrà benone.
scusa il papiro. -.-I devkit sono già in mano a chi di dovuto, io credo che stiano già programmando in quella direzione, vero che i remastered raytracing saranno il primo step per fare migrare le persone verso PS5, vero anche che ci dovrà essere per forza già dall'inizio dei titoli che sulle ps 4 te li scordi, altrimenti come gliela vendi la nuova piessecinque?
Purtroppo per noi pcisti è come dici tu, finché le scatolette nuove non le faranno frullare, noi aumenteremo solo la risoluzione e gli FPS.
https://www.guru3d.com/news-story/tsmc-is-producing-euv-based-n7-technology-in-high-volume.html
Questo 2020 sarà pieno di sorprese, è partita la produzione N7+ di TMSC
15 al 20% di densità in più e un consumo energetico migliorato
a forza di aumentare le densità ci troviamo il buco nero con la vga intorno :stordita: non so cosa si inventeranno d'ora in avanti, raffreddare chip da 200mmq con potenze di 250-300w richiederebbe minimo degli aio.....
Gyammy85
09-10-2019, 08:21
I giochi che sono usciti finora col ray tracing lo hanno messoli tanto per, è appiccicato sopra al sistema di illuminazione tradizionale alla meno peggio con risultati finora scadenti o addirittura peggiorativi, invece i giochi next gen saranno nativi ray tracing e quindi sia le prestazioni che la qualità visiva sarà superiore al ray tracing attuale, oltretutto il ray tracing semplifica la vita agli sviluppatori quindi penso sarà usatissimo anche considerando che il target delle console è più la fedeltà d'immagine che il numero di FPS.
Quindi penso che dopo il primo anno, anno e mezzo con giochi cross generation tutti i giochi faranno uso di ray tracing sia su console che su PC, non c'è motivo per il quale non dovrebbero usarlo.
Considera che a 7 anni dalle dx12 ancora i giochi nativi dx12 sono un paio, ostracizzati per il loro biasing (inesistente)
Considera che siamo al paradosso che i giochi console girano dx12 nativi e potrebbero girare nativi dx12 su pc ma bisogna fare il backroll in dx11 tutto sulla cpu e sui driver ad hoc di alcune marche, perché se no le spolliciate in giù non si contano
Considera che control lo hanno portato in dx11 dal motore dx12 nativo per poterlo patchare in dx12 per mettere favolosi effetti di riflessione mai visti prima su mario bros
Io credo che il concetto di nativo sia utopistico, perché la formula gameworks/rtx piace a tutti, che ci vuole, pigli metro ci metti la patch, oohhhhhhh futuro, ma ci puoi giocare pure con una vga del 2010, tanto è lo stesso motore di metro 2033.
mircocatta
09-10-2019, 08:40
dite che a livello ingegneristico amd è stata consigliata o "aiutata" da quelli di Sony e Microsoft per la parte hardware dedicata all'RT ? o quest'ultime si affideranno ciecamente su quello che partorirà AMD ? perchè se da una parte abbiamo nvidia che si è già "fatta le ossa" con la serie 2000 rtx, dall'altra abbiamo amd che, a tutti gli effetti, si butta su qualcosa di nuovo solo quando nvidia porterà la sua seconda versione, il rischio di deludere le aspettative di Sony e Microsoft è altino
Gyammy85
09-10-2019, 08:55
dite che a livello ingegneristico amd è stata consigliata o "aiutata" da quelli di Sony e Microsoft per la parte hardware dedicata all'RT ? o quest'ultime si affideranno ciecamente su quello che partorirà AMD ? perchè se da una parte abbiamo nvidia che si è già "fatta le ossa" con la serie 2000 rtx, dall'altra abbiamo amd che, a tutti gli effetti, si butta su qualcosa di nuovo solo quando nvidia porterà la sua seconda versione, il rischio di deludere le aspettative di Sony e Microsoft è altino
Ma io non credo, amd sviluppa le sue tecnologie, poi gli altri le commissionano o sviluppano in tandem i soc...
Da quello che è trapelato (ma ormai è certo al 99%, da un anno tutti i rumor su navi e console sono stati confermati), dovrebbero usare un ibrido o forse direttamente rdna2, con almeno 3300 sp, che in configurazione dual cu dovrebbero permettere i calcoli in ray tracing "assieme" al normale rendering, un approccio molto più flessibile delle rtx 2000
Non bisogna dimenticare che ray tracing non è rtx, e che amd ci sta lavorando da anni probabilmente
Davano 12 tf di potenza di calcolo, quindi 56 cu a 1700 mhz, ci sta, si è visto che le 7 nm di amd arrivano tutte a 2 ghz in oc, e che a clock anche poco più bassi i consumi calano in maniera pronunciata (vega 20 a 1500 mhz consuma uno sputino)
A sony e microsoft interessa solo una cosa: spendere poco e guadagnare molto...
Secondo me il RT sulla prox generazione di console sarà ancora solo uno specchietto per le allodole, per cui non credo proprio che alle due di cui sopra interessi un chip con chissà quali performance in RT (ma dal costo non conveniente per loro), e questo AMD lo sa bene, per cui... andranno tutti molto d'accordo, vedrai... ;)
Per me ci sarà da accontentarsi se tireranno il 4k a fps decenti.
arxangel
09-10-2019, 12:12
Considera che a 7 anni dalle dx12 ancora i giochi nativi dx12 sono un paio, ostracizzati per il loro biasing (inesistente)
Considera che siamo al paradosso che i giochi console girano dx12 nativi e potrebbero girare nativi dx12 su pc ma bisogna fare il backroll in dx11 tutto sulla cpu e sui driver ad hoc di alcune marche, perché se no le spolliciate in giù non si contano
Considera che control lo hanno portato in dx11 dal motore dx12 nativo per poterlo patchare in dx12 per mettere favolosi effetti di riflessione mai visti prima su mario bros
Io credo che il concetto di nativo sia utopistico, perché la formula gameworks/rtx piace a tutti, che ci vuole, pigli metro ci metti la patch, oohhhhhhh futuro, ma ci puoi giocare pure con una vga del 2010, tanto è lo stesso motore di metro 2033.
Perchè comandano le console appunto che sono dx 11, se non avessero avuto il Ray tracing nativo anche il ray tracing sarebbe stato ignorato e diventato solo un gimmick fine a se stesso.
Penso invece sarà nativo una cosa è sviluppare per pC, dove pochi utenti fra quelli che compreranno il gioco potranno poi sfruttare questo RTX una cosa è farlo quando il 100% dei giocatori sfrutteranno il ray tracing e poi specialmente i first party usano al 100% la console quindi non vedo perchè dovrebbero fare due versioni, e questo si applicherà pure ai PC figurati se perdono tempo a fare motori grafici apposta senza ray tracing solo per i PC.
mircocatta
09-10-2019, 12:25
A sony e microsoft interessa solo una cosa: spendere poco e guadagnare molto...
Secondo me il RT sulla prox generazione di console sarà ancora solo uno specchietto per le allodole, per cui non credo proprio che alle due di cui sopra interessi un chip con chissà quali performance in RT (ma dal costo non conveniente per loro), e questo AMD lo sa bene, per cui... andranno tutti molto d'accordo, vedrai... ;)
personalmente non lo darei così per scontato
se la loro intenzione è di vendere più piattaforme possibili, devono anche giustificarne l'acquisto
se il ray tracing sarà soft come lo è attualmente sulle RTX, con i giochi multipiattaforma, il videogiocatore non passerà facilmente alle nuove console per avere 60fps in 4k o raytracing trascurabile (e non entrambe le cose)
già ora su console si ha un 4k fittizio abbastanza fluido (giocabile) per cui, se vogliono convincermi a comprare la nuova generazione, devono dare molto di più a parità di videogioco
per questo mi è venuto il dubbio se anche loro hanno contribuito o meno a sviluppare la parte hardware per l'RT, senza accontentarsi della proposta AMD
personalmente non lo darei così per scontato
se la loro intenzione è di vendere più piattaforme possibili, devono anche giustificarne l'acquisto
se il ray tracing sarà soft come lo è attualmente sulle RTX, con i giochi multipiattaforma, il videogiocatore non passerà facilmente alle nuove console per avere 60fps in 4k o raytracing trascurabile (e non entrambe le cose)
già ora su console si ha un 4k fittizio abbastanza fluido (giocabile) per cui, se vogliono convincermi a comprare la nuova generazione, devono dare molto di più a parità di videogioco
per questo mi è venuto il dubbio se anche loro hanno contribuito o meno a sviluppare la parte hardware per l'RT, senza accontentarsi della proposta AMDNon ti bastano i giochi esclusivi? :V
Sent from my Pixel 2 XL using Tapatalk
mikael84
09-10-2019, 14:39
Dipenderà dalle frequenze, dai consumi (per il chip mobile) e soprattutto dai COSTI... :)
I consumi dipenderanno tutto dalla tensione che si sceglie, se la spari ad 1,168 o 1,2v (troppi), oppure ti allinei ai 7nm con 0,95/1v.
Dai primi grafici pare abbiano abbandonato il doppio engine, per passare direttamente ai 4. Infatti le 5500 praticamente sono 4 engine con 4 pixel, 16 z-stencil, e 3 DCU per engine. In più hanno dimezzato il bus per 224gb/s.
Strano però dichiarare 8gb su 5500, significa adottare la doppia densità che attualmente solo Samsung ha.
Gyammy85
09-10-2019, 15:47
Perchè comandano le console appunto che sono dx 11, se non avessero avuto il Ray tracing nativo anche il ray tracing sarebbe stato ignorato e diventato solo un gimmick fine a se stesso.
Penso invece sarà nativo una cosa è sviluppare per pC, dove pochi utenti fra quelli che compreranno il gioco potranno poi sfruttare questo RTX una cosa è farlo quando il 100% dei giocatori sfrutteranno il ray tracing e poi specialmente i first party usano al 100% la console quindi non vedo perchè dovrebbero fare due versioni, e questo si applicherà pure ai PC figurati se perdono tempo a fare motori grafici apposta senza ray tracing solo per i PC.
No no, le console hanno api a basso livello, sicuramente non sono dx11, infatti quantum break forza 4 e gears 5 sono dx12 nativi più o meno
Poi non bisogna confondere ray tracing e rtx, quello di cui parlate è rtx, ed è ben lungi dall'essere ray tracing puro...prendi control, distruggi tutto ma guardacaso i lampadari no, eh quelli non possono muoversi perché se no la luce sballa...non mi vengano a dire che il calcolo della luce è più vero del vero, quando poi ci sono le stesse limitazioni del source engine di half life 2 del 2004
dite che a livello ingegneristico amd è stata consigliata o "aiutata" da quelli di Sony e Microsoft per la parte hardware dedicata all'RT ? o quest'ultime si affideranno ciecamente su quello che partorirà AMD ? perchè se da una parte abbiamo nvidia che si è già "fatta le ossa" con la serie 2000 rtx, dall'altra abbiamo amd che, a tutti gli effetti, si butta su qualcosa di nuovo solo quando nvidia porterà la sua seconda versione, il rischio di deludere le aspettative di Sony e Microsoft è altino
Calma ragazzi, pare quasi che il RT sia qualcosa di inarrivabile :D
A livello hardware è abbastanza semplice da implementare (e ci sono vari modi), Nvidia ha come al solito fatto in modo di avere un ecosistema proprietario ed esclusivo di accesso a DX12. Ricorda che è già tutto inserito nelle API.
Il vero problema è dal lato sviluppatori, che devono utilizzare il RT in modo intelligente per non sprecare risorse...
Free Gordon
10-10-2019, 01:45
I consumi dipenderanno tutto dalla tensione che si sceglie, se la spari ad 1,168 o 1,2v (troppi), oppure ti allinei ai 7nm con 0,95/1v.Dai primi grafici pare abbiano abbandonato il doppio engine, per passare direttamente ai 4. Infatti le 5500 praticamente sono 4 engine con 4 pixel, 16 z-stencil, e 3 DCU per engine. In più hanno dimezzato il bus per 224gb/s. Strano però dichiarare 8gb su 5500, significa adottare la doppia densità che attualmente solo Samsung ha.
Buono per i 4 motori geometrici, saranno molto meglio delle vecchie GCN a 128bit..
Le Samsung costano di più?
Navità? 😅
Nessun leak all'orizzonte
ninja750
15-10-2019, 18:12
Calma ragazzi, pare quasi che il RT sia qualcosa di inarrivabile :D
A livello hardware è abbastanza semplice da implementare (e ci sono vari modi), Nvidia ha come al solito fatto in modo di avere un ecosistema proprietario ed esclusivo di accesso a DX12. Ricorda che è già tutto inserito nelle API.
non è tanto la questione del facile o difficile, è una questione di costi
una ps5 che deve costare in tutto 500€ non può avere una gpu tale da permettere raytracing fluido nemmeno a 1080p
la 2060 super o la 2070 costano 500€ solo vga e in 1080p in Control fanno ben 32fps!. TRENTADUE.
per questo ritengo inutile abilitare il RT sulle 5700 o sulle future 5800 via software/hardware perchè non ce la faranno in nessun modo
a meno che per la console si renderizzi il tutto a 720P per upscalare a 4k (auguri..)
Ale55andr0
15-10-2019, 18:13
Navità? 😅
Nessun leak all'orizzonte
solo in fascia fermacarte e portapenne
Ale55andr0
15-10-2019, 18:16
non è tanto la questione del facile o difficile, è una questione di costi
una ps5 che deve costare in tutto 500€ non può avere una gpu tale da permettere raytracing fluido nemmeno a 1080p
dio buono, ma perchè si fanno ancora assurdi paragoni di costo con prodotti commerciali venduti al dettaglio agli utenti finali rispetto a milionate di chip OEM che peraltro sono per prodotti che vedremo fra oltre un anno... e as usual, pure con la programmazione su pc rispetto a un hardware unico e ottimizzato :muro: :muro: :muro:
vorrei ricordare a tutti che tolta l'attuale generazione le console hanno sempre montato roba che al lancio su pc non esisteva nemmeno... :rolleyes:
arxangel
15-10-2019, 18:40
Oltretutto finora il raytracing è roba posticcia appiccicata sopra all' illuminazione tradizionale all' ultimo minuto con risultati scadenti sia visivamente, sia dal punto di vista prestazionale, invece i giochi next gen saranno pensati da principio per usare il raytracing quindi le cose non saranno le stesse.
Ora non penso che useranno un illuminazione full raytracing ma sarà sempre un misto fra rasterizzazione e raytracing ma non sarà la copia cinese del raytracing che finora abbiamo visto.
ninja750
15-10-2019, 19:16
dio buono, ma perchè si fanno ancora assurdi paragoni di costo con prodotti commerciali venduti al dettaglio agli utenti finali rispetto a milionate di chip OEM che peraltro sono per prodotti che vedremo fra oltre un anno... e as usual, pure con la programmazione su pc rispetto a un hardware unico e ottimizzato :muro: :muro: :muro:
vorrei ricordare a tutti che tolta l'attuale generazione le console hanno sempre montato roba che al lancio su pc non esisteva nemmeno... :rolleyes:
ps4 lanciata nel 2013, c'erano 780ti o 290x quale è più potente?
ps3 lanciata nel 2007, c'erano 3870 e 8800gtx.. idem?
Ale55andr0
15-10-2019, 19:52
ps4 lanciata nel 2013, c'erano 780ti o 290x quale è più potente?
ma la comprensione del testo è andata perduta? :rolleyes: mi risulta che io abbia detto eccetto l'ATTUALE generazione, vale a dire ps4 e one....
dio buono, ma perchè si fanno ancora assurdi paragoni di costo con prodotti commerciali venduti al dettaglio agli utenti finali rispetto a milionate di chip OEM che peraltro sono per prodotti che vedremo fra oltre un anno... e as usual, pure con la programmazione su pc rispetto a un hardware unico e ottimizzato :muro: :muro: :muro:
vorrei ricordare a tutti che tolta l'attuale generazione le console hanno sempre montato roba che al lancio su pc non esisteva nemmeno... :rolleyes:
ps3 lanciata nel 2007, c'erano 3870 e 8800gtx.. idem?
PS3, ovvero processore cell che non aveva uguale in fatto di prestazioni, roba che su pc era fantascienza (che fosse difficile da usare poi è altro discorso), idem le velocissime e COSTOSISSIME memorie rambus di una play 2...roba da due spicci eh?! :rotfl:. Lato microsoft, idem con la 360, ibm tri core a 3.2ghz e gpu amd a shader unificati con chiamate dx 10, la prima in assoluto quando su pc c'erano le x1900 a vertex e shader separati dx9.1, NON le 8800gtx che arrivarono dopo :rolleyes: hardware che all'epoca era di fascia incommensurabilmente superiore al costo delle console ma che NON costava 2000 euro, messo su una console. Da sempre* al lancio :read: le console hanno avuto un hardware avanzatissimo rispetto al pc (persino la play due poteva gestire una mole poligonare superiore a quella delle vga dell'epoca), tanto che venivano vendute IN PERDITA :read:
*devo ripetere eccetto ecc. ecc.? queste attuali sono state le PRIME console da due soldi rispetto alle epoche precedenti paragonate all'hardware pc, le altre hanno avuto un hardware molto avanzato in relazione al loro periodo e al loro costo
mikael84
15-10-2019, 20:01
Buono per i 4 motori geometrici, saranno molto meglio delle vecchie GCN a 128bit..
Le Samsung costano di più?
Non è per via del costo, ma su un 128bit mettere 8gb di vram significa utilizzare le ddr6 a doppia densità, che attualmente solo Samsung ha, micron ancora nada.
Ram attualmente utilizzate solo dalle quadro.:)
Gyammy85
16-10-2019, 09:01
ma la comprensione del testo è andata perduta? :rolleyes: mi risulta che io abbia detto eccetto l'ATTUALE generazione, vale a dire ps4 e one....
PS3, ovvero processore cell che non aveva uguale in fatto di prestazioni, roba che su pc era fantascienza (che fosse difficile da usare poi è altro discorso), idem le velocissime e COSTOSISSIME memorie rambus di una play 2...roba da due spicci eh?! :rotfl:. Lato microsoft, idem con la 360, ibm tri core a 3.2ghz e gpu amd a shader unificati con chiamate dx 10, la prima in assoluto quando su pc c'erano le x1900 a vertex e shader separati dx9.1, NON le 8800gtx che arrivarono dopo :rolleyes: hardware che all'epoca era di fascia incommensurabilmente superiore al costo delle console ma che NON costava 2000 euro, messo su una console. Da sempre* al lancio :read: le console hanno avuto un hardware avanzatissimo rispetto al pc (persino la play due poteva gestire una mole poligonare superiore a quella delle vga dell'epoca), tanto che venivano vendute IN PERDITA :read:
*devo ripetere eccetto ecc. ecc.? queste attuali sono state le PRIME console da due soldi rispetto alle epoche precedenti paragonate all'hardware pc, le altre hanno avuto un hardware molto avanzato in relazione al loro periodo e al loro costo
Non sapevo che la x360 avesse shader unificati e le dx10, pensavo solo avesse la tessellation...
Comunque tutti i discorsi sulle console non vengono fatti seriamente, perché tanto non ce la fanno ecc...
Tipo se uscissero "4k 120 fps rt off e 4k 60 rt on" finedimondo proprio
mircocatta
16-10-2019, 11:50
PS3, ovvero processore cell che non aveva uguale in fatto di prestazioni, roba che su pc era fantascienza (che fosse difficile da usare poi è altro discorso), idem le velocissime e COSTOSISSIME memorie rambus di una play 2...roba da due spicci eh?! :rotfl:. Lato microsoft, idem con la 360, ibm tri core a 3.2ghz e gpu amd a shader unificati con chiamate dx 10, la prima in assoluto quando su pc c'erano le x1900 a vertex e shader separati dx9.1, NON le 8800gtx che arrivarono dopo :rolleyes: hardware che all'epoca era di fascia incommensurabilmente superiore al costo delle console ma che NON costava 2000 euro, messo su una console. Da sempre* al lancio :read: le console hanno avuto un hardware avanzatissimo rispetto al pc (persino la play due poteva gestire una mole poligonare superiore a quella delle vga dell'epoca), tanto che venivano vendute IN PERDITA :read:
*devo ripetere eccetto ecc. ecc.? queste attuali sono state le PRIME console da due soldi rispetto alle epoche precedenti paragonate all'hardware pc, le altre hanno avuto un hardware molto avanzato in relazione al loro periodo e al loro costo
a memoria le gtx 8800 e ps3 uscirono nello stesso periodo, novembre 2006 (solo in giappone)
e perdonami ma c'era un'enorme differenza (visto che già allora i giochi non erano 1080p nativi su console), i quad core su pc (come il mio vecchio q6600 <3 ) arrivarono 4 mesi dopo assieme al lancio di ps3 in europa (marzo 2007)
Free Gordon
16-10-2019, 23:57
Non sapevo che la x360 avesse shader unificati e le dx10, pensavo solo avesse la tessellation...
Xenos non era dx10 compliant (ovviamente) ma aveva 48 unità unificate a 500mhz..
Ma la soluzione "taglia costi" più importante studiata da ATI fu l'uso della eDRAM... che sgravava molto la banda di sistema e permetteva alla 360 di avere un hw molto più semplice di PS3 (aveva un solo BUS di memoria verso i 512MB di GDDR3, al contrario di PS3 che aveva due pool di memoria e due bus distinti), mantenendo però performance molto simili.
Ale55andr0
17-10-2019, 08:37
Xenos non era dx10 compliant (ovviamente) ma aveva 48 unità unificate a 500mhz..
Ma la soluzione "taglia costi" più importante studiata da ATI fu l'uso della eDRAM... che sgravava molto la banda di sistema e permetteva alla 360 di avere un hw molto più semplice di PS3 (aveva un solo BUS di memoria verso i 512MB di GDDR3, al contrario di PS3 che aveva due pool di memoria e due bus distinti), mantenendo però performance molto simili.
lato grafico era superiore alla ps 3, e l'unificazione della memoria permetteva agli sviluppatori di gestire meglio le risorse senza troppi vincoli. Cmq, il punto in generale era/è che in proporzione ad oggi quelle erano macchine potenti e vendute a prezzo "stracciato" rispetto all'hardware che montavano e meglio posizionate rispetto ai pc da gioco, non macchine palesemnte sottodimensionate come ps4 e one che al lancio che erano roba di fascia media...due anni prima dell'uscita!! tutto li' il discorso che pare faccia fatica a passare...al prossimo giro pare invece che si tornerà (finalmente) a una situazione simile alla precedente
AceGranger
17-10-2019, 08:50
lato grafico era superiore alla ps 3, e l'unificazione della memoria permetteva agli sviluppatori di gestire meglio le risorse senza troppi vincoli. Cmq, il punto in generale era/è che in proporzione ad oggi quelle erano machcine potenti e vendute a prezzo "stracciato" rispetto all'hardware, non macchine sottodimensionate come ps4 e one che al lancio che erano roba di fascia media...due anni prima dell'uscita! tutto li' il discorso che pare faccia fatica a passare...
ma anche senza scendere nel tecnico, non ci vuole tanto a vedere la durata delel console... la PS3 è durata 7 anni; PS4 e One manco riuscivano a reggere il FHD e sono state rimpiazzate a nemmeno 3 anni di distanza dalle fantasmagoriche "Pro" che avranno anche loro una vita pari a quella di un moscerino.
ormai i tempi belli sono andati, l'andazzo è quello e non venderanno piu in perdita;
non per altro, si sono visti ben pochi miglioramenti a livello di numero di poligoni e numero di istanze presenti in scena, visto che le console non riescono a reggere nulla.
Ale55andr0
17-10-2019, 08:54
ormai i tempi belli sono andati, l'andazzo è quello e non venderanno piu in perdita.
dalle presunte specifiche leakate direi proprio di no. Ma gia uno zen 2 otto core sopra i 3ghz è un punto di partenza notevolissimo ed è praticamente confermato. Vedremo il resto ma io dico che supereranno i 10tflop di slancio e avranno non meno di 20gb di ram, probabilmente 24 con 4 allocati per il SO. Poi se ci guadagneranno o meno poco mi tange, se l'hardware sarà quello :D
Gyammy85
17-10-2019, 09:05
dalle presunte specifiche leakate direi proprio di no. Ma gia uno zen 2 otto core sopra i 3ghz è un punto di partenza notevolissimo ed è praticamente confermato. Vedremo il resto ma io dico che supereranno i 10tflop di slancio e avranno non meno di 20gb di ram, probabilmente 24 con 4 allocati per il SO. Poi se ci guadagneranno o meno poco mi tange, se l'hardware sarà quello :D
Zen 2 a 3 ghz si sapeva da tanto, nella news di hwu si parla di un es (no devkit) della ps5 con gpu navi a 2 ghz
Dato che probabilmente sarà a metà strada fra rdna1 e 2, potrebbero fare 52 cu e arrivare a 13 tf, i primi leak indicavano questo...con scheduling per poter usare le cu per rt
Andy1111
25-10-2019, 21:30
https://www.techpowerup.com/260456/nvidia-influencing-youtube-tech-journalists-product-placements-alleges-whistleblower
Perchè non mi stupisce?!
https://www.techpowerup.com/260456/nvidia-influencing-youtube-tech-journalists-product-placements-alleges-whistleblower
Perchè non mi stupisce?!
Ha sempre fatto così...le politiche di marketing di nvidia hanno sempre fatto schifo. La cosa triste è che 1 persona su 100 ha avuto il coraggio di smerdarli... gli altri 100 sono lì che si fanno ingrassare con i regalini.
ninja750
26-10-2019, 07:38
il capellone ha già fatto un video dedicato dove smentisce la cosa (e vorrei vedere)
fraussantin
26-10-2019, 08:33
Una domanda chiedo anche qui : devo fare un PC ad un amico con una 2060s o una 5700xt ma quando nessuna ha la porta dvi\vga .
Gli adattatori hdmi\vga danno problemi ? Ha il monitor vecchio e lo cambierà ma non subito. Ha sempre fatto così...le politiche di marketing di nvidia hanno sempre fatto schifo. La cosa triste è che 1 persona su 100 ha avuto il coraggio di smerdarli... gli altri 100 sono lì che si fanno ingrassare con i regalini.Quando i guadagni arrivano più dagli sponsor che dagli spettatori\lettori è normalissimo che accada questo.
Succedeva quando andavo a comprare PAGANDO BENE riviste di ogni settore , ti immagini sul web free .
È difficilissimo che uno youtuber professionista smerdi un prodotto ricevuto in omaggio altrimenti poi non gli mandano più niente e il canale non può crescere.
Quelli amatoriali , e ce ne sono tantissimi spesso o sono fanboy o da una parte o dall'altra.
Poi nel mezzo quello serio sl trova di sicuro , ma sono veramente pochi.
E guarda anche sui forum è lo stesso specie nella sezione consigli per acquisti , fra fanboy , foraggiati e dipendenti o cmq personale di certe aziende in incognito non è che sia facile farsi una idea corretta di cosa comprare.
Andy1111
26-10-2019, 08:46
il capellone ha già fatto un video dedicato dove smentisce la cosa (e vorrei vedere)
il capellone meglio stendere un velo pietoso ......
https://i.postimg.cc/SXsFHM5X/capellone.jpg (https://postimg.cc/SXsFHM5X)
Una domanda chiedo anche qui : devo fare un PC ad un amico con una 2060s o una 5700xt ma quando nessuna ha la porta dvi\vga .
Gli adattatori hdmi\vga danno problemi ? Ha il monitor vecchio e lo cambierà ma non subito. Quando i guadagni arrivano più dagli sponsor che dagli spettatori\lettori è normalissimo che accada questo.
Succedeva quando andavo a comprare PAGANDO BENE riviste di ogni settore , ti immagini sul web free .
È difficilissimo che uno youtuber professionista smerdi un prodotto ricevuto in omaggio altrimenti poi non gli mandano più niente e il canale non può crescere.
Quelli amatoriali , e ce ne sono tantissimi spesso o sono fanboy o da una parte o dall'altra.
Poi nel mezzo quello serio sl trova di sicuro , ma sono veramente pochi.
E guarda anche sui forum è lo stesso specie nella sezione consigli per acquisti , fra fanboy , foraggiati e dipendenti o cmq personale di certe aziende in incognito non è che sia facile farsi una idea corretta di cosa comprare.
Spero abbia la porta dvi il monitor...in questo caso vai da hdmi a dvi. Gli adattatori hdmi/vga hanno spesso problemi se non sono decenti per problemi di hdcp e sicuramente devono essere attivi.
fraussantin
26-10-2019, 09:13
Spero abbia la porta dvi il monitor...in questo caso vai da hdmi a dvi. Gli adattatori hdmi/vga hanno spesso problemi se non sono decenti per problemi di hdcp e sicuramente devono essere attivi.
mi par di aver capito che ha l'adattatore dvi vga adesso su una 760
tipo questo immagino
https://i.postimg.cc/1tts77qR/screenshot-125.jpg
almeno mi ha detto così.
fare hdmi->dvi->vga con 2 adattatori immagino che non risolva niente... giusto
Monitor nuovo... prima di impazzire inutilmente.
fraussantin
26-10-2019, 09:42
Monitor nuovo... prima di impazzire inutilmente.
eh .. vedremo cosa fare ..
Lunar Wolf
26-10-2019, 10:49
Spero abbia la porta dvi il monitor...in questo caso vai da hdmi a dvi. Gli adattatori hdmi/vga hanno spesso problemi se non sono decenti per problemi di hdcp e sicuramente devono essere attivi.I passivi non funzionano per niente. Quelli attivi che convertono il segnale da digitale a analogico e funzionano gli costano minimo 80€...
fraussantin
26-10-2019, 10:56
I passivi non funzionano per niente. Quelli attivi che convertono il segnale da digitale a analogico e funzionano gli costano minimo 80€...Azzarola...
Ecco perchè non ci mettono più la dvi nelle gpu
Lunar Wolf
26-10-2019, 11:17
Azzarola...
Ecco perchè non ci mettono più la dvi nelle gpuDvi non lo mettono perché c'è la display port... Da dp a dvi basta l'adattatore ma son sempre segnali digitali, invece convertire con un semplice cavo da digitale a analogico la storia finisce con un bel segnale assente sul monitor XD
fraussantin
26-10-2019, 11:21
Dvi non lo mettono perché c'è la display port... Da dp a dvi basta l'adattatore ma son sempre segnali digitali, invece convertire con un semplice cavo da digitale a analogico la storia finisce con un bel segnale assente sul monitor XDSpe non ci sto capendo una mazza .. da dvi a VGA si passa agevolmente con un adattatore ( se non ricordo male anche in ufficio è a quel modo)
Anche perchè il vga non lo vedo da secoli sulle GPU.
A64FX+DFI nF4
26-10-2019, 12:54
Spe non ci sto capendo una mazza .. da dvi a VGA si passa agevolmente con un adattatore ( se non ricordo male anche in ufficio è a quel modo)
Anche perchè il vga non lo vedo da secoli sulle GPU.
perchè nella dvi-i della scheda video c'è anche l'uscita analogica, ma hdmi e displayport sono solo digitali quindi serve un convertitore digitale->analogico hardware
Lunar Wolf
26-10-2019, 14:01
perchè nella dvi-i della scheda video c'è anche l'uscita analogica, ma hdmi e displayport sono solo digitali quindi serve un convertitore digitale->analogico hardwareDvi-D... Dvi - I no ;)
fraussantin
26-10-2019, 14:12
perchè nella dvi-i della scheda video c'è anche l'uscita analogica, ma hdmi e displayport sono solo digitali quindi serve un convertitore digitale->analogico hardwareAh ecco .. .
Niente dobbiamo trovare una GPU col dvi ..
Chiudo OT e ringrazio tutti
A64FX+DFI nF4
26-10-2019, 14:52
Dvi-D... Dvi - I no ;)
dvi-i digitale e analogica
dvi-a solo analogica
dvi-d solo digitale
https://it.wikipedia.org/wiki/Digital_Visual_Interface
fraussantin
26-10-2019, 15:16
dvi-i digitale e analogica
dvi-a solo analogica
dvi-d solo digitale
https://it.wikipedia.org/wiki/Digital_Visual_InterfaceGiusto per capire quelle poche gpu che hanno il dvi è con l'analogico o no?
Scusate per l'ot , ma non so dove chiedere.
A64FX+DFI nF4
26-10-2019, 15:36
Giusto per capire quelle poche gpu che hanno il dvi è con l'analogico o no?
Scusate per l'ot , ma non so dove chiedere.
potrei sbagliarmi ma praticamente il 99.9% delle schede video che hanno il dvi hanno la dvi-i, qualcuna delle più vecchie a la dvi-d, praticamente nessuna la dvi-a, comunque è scritto nelle specifiche tecniche la versione
mi correggo, per esempio le Sapphire RX580 (scheda recente) hanno la dvi-d e non la dvi-i (probabilmente per risparmiare sul convertitore digitale-analogico) quindi non possono usare adattatori dvi-vga
l'ultima serie a supportare dvi-i per quanto riguarda amd dovrebbe essere la serie rx3x0
Quando si vedrà qualche test della RX 5500?
VanCleef
28-10-2019, 08:57
Quando si vedrà qualche test della RX 5500?
Mi associo alla domanda... queste schede sono previste prima di Natale o in fascia media la scelta sarà sempre tra 570/580/590/1660?
Gyammy85
28-10-2019, 09:18
Quando si vedrà qualche test della RX 5500?
Mi associo alla domanda... queste schede sono previste prima di Natale o in fascia media la scelta sarà sempre tra 570/580/590/1660?
In realtà la 5500 esiste già, anche se credo solo per oem e mobile, immagino che per novembre escano le recensioni, tanto più che le versioni dovrebbero essere sempre due, 5500 e 5500xt che è pure trapelata
Free Gordon
28-10-2019, 10:36
Direi che la liscia se la giochi benissimo con la 2060 Super... :) anche se l'intento di Nvidia era evidentemente quello di contrastare la XT... :D
https://i.ibb.co/7Kx1vtv/Opera-Snap.png (https://imgbb.com/)
https://www.techspot.com/review/1931-radeon-5700-xt-vs-geforce-2060-super/
Giusto per capire quelle poche gpu che hanno il dvi è con l'analogico o no?
Scusate per l'ot , ma non so dove chiedere.
L'uscita analogica non la usa più nessuno e le vga non la supportano più indipendentemente dal connettore.
Se ti serve l'analogico dovrai comprarti una convertitore esterno hdmi-vga o una scheda video datata.
C'è da dire che con la 5700XT hanno fatto proprio un bel prodottino.
Se non erro è più veloce anche della VEGA 64 ed ha un ottimo rapporto prezzo/prestazioni.
Gyammy85
28-10-2019, 18:28
C'è da dire che con la 5700XT hanno fatto proprio un bel prodottino.
Se non erro è più veloce anche della VEGA 64 ed ha un ottimo rapporto prezzo/prestazioni.
Ciao! Come stai? :)
Si ottime schede
fraussantin
28-10-2019, 19:31
Le 5700 xt reference Sono tutte uguali ?
Gigabyte xfx o sapphire Sono le solite oppure a livello elettrico e componenti cambia qualcosa?
Forse abbiamo trovato la soluzione di un monitor freesync da abbinarci una 5700xt e gli piace la reference .. ( non gli interessa del rumore)
Ci sarebbe la gigabyte a 400 euro ..
Ale55andr0
29-10-2019, 07:24
https://wccftech.com/new-amd-gpu-spotted-rra-big-navi/
https://wccftech.com/new-amd-gpu-spotted-rra-big-navi/
per un ray tracing di qualità!!!!!!!!!!!!!!!!!!
:ops2:
Ciao! Come stai? :)
Si ottime schede
Ciao Gyammy! Tutto ok grazie e spero altrettanto ;) ;) ;)
Sto sclerando per un problema VEGA64 e Monitor SAMSUNG CF791...
(Vedi/vedete discussione di VEGA in questa sezione...)
sgrinfia
29-10-2019, 13:43
per un ray tracing di qualità!!!!!!!!!!!!!!!!!!
:ops2:
Spero che non sia un ritorno dei "morti viventi", e che sia una prova di forza .
Spero che non sia un ritorno dei "morti viventi", e che sia una prova di forza .
qualsiasi cosa sia non me la potrò permettere ma felice se torneranno a competere a certi livelli
Free Gordon
29-10-2019, 14:08
In realtà la 5500 esiste già, anche se credo solo per oem e mobile, immagino che per novembre escano le recensioni, tanto più che le versioni dovrebbero essere sempre due, 5500 e 5500xt che è pure trapelata
Speriamo... anche perché la liscia dovrebbe essere in pari con la 590 ma esiste la fascia 1660 Super/Ti che va' coperta.
Quindi una XT è necessaria... :)
Free Gordon
29-10-2019, 14:10
A proposito, non so se è già stata postata:
https://wccftech.com/review/msi-radeon-rx-5700-gaming-x-graphics-card-review-23333/2/
Questa mi par molto bella :)
hatake82
31-10-2019, 23:24
A proposito, non so se è già stata postata:
https://wccftech.com/review/msi-radeon-rx-5700-gaming-x-graphics-card-review-23333/2/
Questa mi par molto bella :)
wow...davvero molto bella
per un ray tracing di qualità!!!!!!!!!!!!!!!!!!
:ops2:
Non mi interessa l'rtx al momento ma una scheda per il 4k60fps perciò che costi meno non avendo quella feature inutile!
Speriamo... anche perché la liscia dovrebbe essere in pari con la 590 ma esiste la fascia 1660 Super/Ti che va' coperta.
Quindi una XT è necessaria... :)
Per me ci stanno mettendo troppo a farla uscire...di questo passo la troveremo "comprabile" a gennaio.
grey.fox
03-11-2019, 16:59
Una domanda chiedo anche qui : devo fare un PC ad un amico con una 2060s o una 5700xt ma quando nessuna ha la porta dvi\vga .
Gli adattatori hdmi\vga danno problemi ? Ha il monitor vecchio e lo cambierà ma non subito.
Stesso problema che ho avuto io.
Ho risolto alla grande con il convertitore HDMI -> VGA della Hama.
Pagato una 30ina di euro in negozio purtroppo perchè avevo fretta, ma online credo si trovi a meno.
Ti mando un link in pvt.
hatake82
05-11-2019, 01:08
Per me ci stanno mettendo troppo a farla uscire...di questo passo la troveremo "comprabile" a gennaio.
speriamo....anche se la vedo molto difficile visti i dati di vendita delle ultime...prima vorranno spremere un pò di più il mercato con le ultime uscite
Gyammy85
05-11-2019, 08:15
speriamo....anche se la vedo molto difficile visti i dati di vendita delle ultime...prima vorranno spremere un pò di più il mercato con le ultime uscite
I dati di vendita delle ultime dicono che hanno fatto il botto, basta con sto damage control
ninja750
07-11-2019, 16:13
slide AMD:
https://i.postimg.cc/zGfXznFs/Cattura.jpg
ergo è sovrapponibile alle 580/590 con margine di tolleranza
Free Gordon
07-11-2019, 17:28
E quindi la 5600...?
Dovrebbe essere una scheda tra la 1660 Super e la 2600? :fagiano:
mircocatta
07-11-2019, 21:28
quindi 5500 sui 120€ e 5600 sui 220€?
quindi 5500 sui 120€ e 5600 sui 220€?
Mah se la 5500 sarà a livello simile delle 580/590 costerà almeno 200 euro, non meno (spero di sbagliarmi)
Mah se la 5500 sarà a livello simile delle 580/590 costerà almeno 200 euro, non meno (spero di sbagliarmi)
Siamo in due a sperare che ti sbagli :D .
mircocatta
08-11-2019, 08:15
Mah se la 5500 sarà a livello simile delle 580/590 costerà almeno 200 euro, non meno (spero di sbagliarmi)
viene confrontata nelle slide con la 1650 che è una scheda venduta a 120-130€ :stordita:
è anche un discorso di "evoluzione tecnologica".. in un mercato sano, il rapporto costo/prestazione migliora ad ogni serie di schede nuove (nuovo pp= minor costo a chip e più prestazioni), solo nvidia riesce a ribaltare questa "legge" :D
viene confrontata nelle slide con la 1650 che è una scheda venduta a 120-130€ :stordita:
è anche un discorso di "evoluzione tecnologica".. in un mercato sano, il rapporto costo/prestazione migliora ad ogni serie di schede nuove (nuovo pp= minor costo a chip e più prestazioni), solo nvidia riesce a ribaltare questa "legge" :D
Speriamo sia così, ma spesso il prezzo viene fatto dal mercato e non da motivazioni tecnologiche.
Per questo dubito che mettano in vendita una scheda che (probabilmente) va più delle 580/590 e la fanno pagare quanto una 1650
Como ho già detto, sono solo ipotesi e spero di sbagliarmi.
Gyammy85
08-11-2019, 11:08
Intanto si vocifera di una navi 21 da 505 mm2...
In teoria ci dovrebbe essere anche la 5600 da piazzare nella fascia 200-250 euro, vedremo. Non si sa ancora nulla di concreto
ninja750
08-11-2019, 11:12
Intanto si vocifera di una navi 21 da 505 mm2...
ci gira RDR2 in 1080P?
mircocatta
08-11-2019, 15:57
Intanto si vocifera di una navi 21 da 505 mm2...
tutti questi mesi di nulla mi lasciano perplesso :stordita:
o forse eravamo troppo abituati al periodo pre navi, dove le news e "motivi" per chiaccherare erano di più
ninja750
08-11-2019, 16:19
per VGA AMD: abilitando l'async compute del gioco i frame minimi aumentano in maniera considerevole!
In the system.xml file you are looking for the following line... asyncComputeEnabled change to value="true"
i massimi saranno uguali ma lo stutter dovrebbe andare via
nb non funziona con tutte le vga
per VGA AMD: abilitando l'async compute del gioco i frame minimi aumentano in maniera considerevole!
In the system.xml file you are looking for the following line... asyncComputeEnabled change to value="true"
i massimi saranno uguali ma lo stutter dovrebbe andare via
nb non funziona con tutte le vga
Più che aumentare il framerate,diminuisce il frametime,ergo fps più stabili e con meno oscillazioni
Dovrebbe funzionare solo con Vulkan
Free Gordon
08-11-2019, 23:49
Intanto si vocifera di una navi 21 da 505 mm2...
Ma speriamo.. anche RDNA1.. e che esca in fretta
Poi prossimo anno c'è tempo per RDNA2..
Ale55andr0
09-11-2019, 22:46
In teoria ci dovrebbe essere anche la 5600 da piazzare nella fascia 200-250 euro, vedremo. Non si sa ancora nulla di concreto
ferma carte ne abbiamo? :O
Gyammy85
11-11-2019, 09:57
ferma carte ne abbiamo? :O
Credo che faranno 5500-5500xt, e a gennaio le 5900, fare altri cut non ha senso, la 5700 liscia intorno ai 350 euro ammazza già tutto quello che c'è sopra e sotto dal punto di vista price/perf
ferma carte ne abbiamo? :O
Non ho capito
majinbu7
11-11-2019, 13:35
Non ho capito
Al buon Alessandro tutto ciò che è sotto una
R7 o controparte 2080 è da considerarsi fermacarte, un pò lo capisco avendo lui una 1080....spera sempre che AMD annunci un'ipotetica 5900XT, ma ci credo poco che mai arriverà, secondo me si passerà direttamente RDNA2
Non so se è una notizia riciclata.
Qualche leak
https://wccftech.com/amd-navi-23-nvidia-killer-gpu-rumored-to-support-hardware-ray-tracing-coming-next-year/amp/
ninja750
14-11-2019, 11:28
hanno implementato in un motore grafico di crytek il RT con qualunque VGA ovviamente chi ha le unità dedicate va più forte ma:
https://uploads.disquscdn.com/images/2dd2073e6a7de19f2e91dd09d2fd32a1d4d8001fdac48c814057365daee2dc5e.png
le 5700 non fanno così schifo eh
ninja750
14-11-2019, 11:31
qui il link: https://wccftech.com/neon-noir-cryengine-hardware-api-agnostic-ray-tracing-demo-tested-and-available-now/
AceGranger
14-11-2019, 11:47
hanno implementato in un motore grafico di crytek il RT con qualunque VGA ovviamente chi ha le unità dedicate va più forte ma:
le 5700 non fanno così schifo eh
peccato che NON vengano usate le unita hardware... se venissero utilizzate andrebbero nettamente di piu.
We used the tool that we were given to benchmark the game engine performance across a variety of graphics cards from the Radeon RX Vega 56 to the GeForce RTX 2080Ti to see how it all performed in an engine that is supporting Real-Time Ray Tracing features but not using specific hardware acceleration.
ma al dilà di cosa usi o non usi il bench, è un bench cinematica... in game quegli fps non li farai.
tanto ora che finiranno l'engine, e che uscira il primo gioco con questo engine, ci saranno gia fuori le nuove GPU, sia AMD che nVidia, e sicuro gli faranno usare le unita dedicate che avranno entrambi.
ninja750
14-11-2019, 13:43
peccato che NON vengano usate le unita hardware
hai ragione, chissà come fanno a non utilizzarle però credevo fossero trasparenti al software e che fosse tutto gestito via hardware altrimenti vorrebbe dire diverse implementazioni per hardware diversi alla faccia delle directx :confused:
AceGranger
14-11-2019, 14:08
hai ragione, chissà come fanno a non utilizzarle però credevo fossero trasparenti al software e che fosse tutto gestito via hardware altrimenti vorrebbe dire diverse implementazioni per hardware diversi alla faccia delle directx :confused:
si sono trasparenti, ma il software le utilizza se è scritto per usarle....
sono ancora agli inizi, quando arrivera la versione definitiva, avrai il motore che usera sia le unita di nVidia si a quelle di AMD.
mircocatta
14-11-2019, 16:19
c'è anche da dire che le nvidia hanno un framerate nettamente più stabile, o meglio, sulle amd è davvero "ballerino"
https://www.youtube.com/watch?v=83s4QyaGYd8
Andy1111
14-11-2019, 18:03
c'è anche da dire che le nvidia hanno un framerate nettamente più stabile, o meglio, sulle amd è davvero "ballerino"
https://www.youtube.com/watch?v=83s4QyaGYd8
ma è dx11 che ti aspetti !!!!
Grizlod®
15-11-2019, 09:15
Per chi volesse provarlo, il link per il download del benchmark:
https://www.cryengine.com/marketplace/product/neon-noir
Ad ogni modo, è un bench FPU, presente anche nella suite di Aida...
https://i.postimg.cc/KjQkW1J6/RT-bench-AIDA64.jpg (https://postimages.org/)
...per cui potrebbe venire eseguito dai moderni processori (imho).
Ecco cosa dice la guida di AIDA 64 in proposito:
FP32 Ray-Trace
This benchmark measures the single precision (also known as 32-bit) floating-point performance through the computation of a scene with a SIMD-enhanced ray tracing engine. The code behind this benchmark method is written in Assembly, and it is extremely optimized for every popular AMD, Intel and VIA processor core variants by utilizing the appropriate x87, SSE, SSE2, SSE3, SSSE3, SSE4.1, AVX, AVX2, AVX-512, FMA, and FMA4 instruction set extension.
FP32 Ray-Trace test is HyperThreading, multi-processor (SMP) and multi-core (CMP) aware.
FP64 Ray-Trace
This benchmark measures the double precision (also known as 64-bit) floating-point performance through the computation of a scene with a SIMD-enhanced ray tracing engine. The code behind this benchmark method is written in Assembly, and it is extremely optimized for every popular AMD, Intel and VIA processor core variants by utilizing the appropriate x87, SSE, SSE2, SSE3, SSSE3, SSE4.1, AVX, AVX2, AVX-512, FMA, and FMA4 instruction set extension.
FP64 Ray-Trace test is HyperThreading, multi-processor (SMP) and multi-core (CMP) aware.
Grizlod®
16-11-2019, 12:20
Provato il bench (risultati a parte in quanto in underclock con CPU e GPU) e non sembra usare il multithreading, per cui, credo faccia tutto la scheda video.
Provato il bench (risultati a parte in quanto in underclock con CPU e GPU) e non sembra usare il multithreading, per cui, credo faccia tutto la scheda video.Ho un 3570k RAM DDR3 2.133 cl11 a 4.4 con una Vega 56 UV a 1.070v e clock reale a 1.600 (1.637), faccio lo stesso punteggio di un sistema con RAM più veloci DDR4 a 3.200 e un ryzen 3600 sempre con una Vega 56, visto sul tubo.
Il punteggio ottenuto dalla mia configurazione è 5393 ad ultra, schermo intero Full HD
A vedere questo bench sembra che superposition benchmark sia più pesante nonostante non vi sia raytracing
Gyammy85
18-11-2019, 10:35
A vedere questo bench sembra che superposition benchmark sia più pesante nonostante non vi sia raytracing
Ormai è una gara a chi fa il mattone peggio ottimizzato con la gpu che per metà sta ferma e per l'altra metà fatica male il doppio
Ale55andr0
18-11-2019, 13:46
https://wccftech.com/amd-2nd-gen-rdna-navi-gpu-radeon-rx-graphics-card-ces-2020-rumor/
Certo fa ridere la cosa ma ho notato che a livello di effetti non mi sembra sto granché questo benchmark di Crytek, poi è una "cutscene" se mi passate il termine, niente che faccia gridare al miracolo ray tracing o no. Al contrario superposition si può anche usare in modalità libera. Bisognerà vedere che applicazioni avrà nei giochi che sono sempre il vero banco di prova
Salve ragazzi, al momento gioco con la configurazione in firma a 1080p senza problemi. Volevo chiedere un vostro parere.
Ha senso cambiare la mia scheda video? al momento la configurazione composta da mobo+cpu+ram la tengo che va benone.
Non vorrei cambiare per rimanere a 1080p, ma eventualmente avrei da cambiare anche il monitor, e qui ho bisogno dei vostri consigli, mi spiego meglio.
Quando sono passato a 290, era difficile gestire il 4k con le schede video dell'epoca.
Ora la situazione è migliorata per giocare in 4k con dettagli maxati o comunque alti? Purtroppo sono fermo da alcuni anni con gli aggiornamenti, non riesco a seguire il forum come un tempo causa vari impegni come tutti.
Quindi a voi il quesito: ha senso cambiare monitor per passare a 4k? o comunque mi ritroverei nelle medesime condizioni di qualche anno fa in cui non ci si riusciva a gestire il 4k con singola gpu? nel caso mi consigliaste di passare a 4k, su che scheda video potrei orientarmi? Ho sempre avuto AMD, ormai da oltre 15 anni, quasi 20 per la precisione, e mi sono trovato sempre bene, non ci sarebbero problemi a passare ad Nvidia se ci fossero validi motivi. Grazie a tutti e scusate l'intervento lungo.
P.S. i consumi non sono un problema così come la scelta tra nuovo ed usato, non è un problema se devo comprare un buon usato.
Salve ragazzi, al momento gioco con la configurazione in firma a 1080p senza problemi. Volevo chiedere un vostro parere.
Ha senso cambiare la mia scheda video? al momento la configurazione composta da mobo+cpu+ram la tengo che va benone.
Non vorrei cambiare per rimanere a 1080p, ma eventualmente avrei da cambiare anche il monitor, e qui ho bisogno dei vostri consigli, mi spiego meglio.
Quando sono passato a 290, era difficile gestire il 4k con le schede video dell'epoca.
Ora la situazione è migliorata per giocare in 4k con dettagli maxati o comunque alti? Purtroppo sono fermo da alcuni anni con gli aggiornamenti, non riesco a seguire il forum come un tempo causa vari impegni come tutti.
Quindi a voi il quesito: ha senso cambiare monitor per passare a 4k? o comunque mi ritroverei nelle medesime condizioni di qualche anno fa in cui non ci si riusciva a gestire il 4k con singola gpu? nel caso mi consigliaste di passare a 4k, su che scheda video potrei orientarmi? Ho sempre avuto AMD, ormai da oltre 15 anni, quasi 20 per la precisione, e mi sono trovato sempre bene, non ci sarebbero problemi a passare ad Nvidia se ci fossero validi motivi. Grazie a tutti e scusate l'intervento lungo.
P.S. i consumi non sono un problema così come la scelta tra nuovo ed usato, non è un problema se devo comprare un buon usato.
Non ho uno schermo 4k, ma a giudicare dalle recensioni, se vuoi i 120/144hz, secondo me, ti conviene il 1440p, a 4k bisogna ancora scendere un po' con i dettagli.
ninja750
19-11-2019, 07:53
Ora la situazione è migliorata per giocare in 4k con dettagli maxati o comunque alti?
si, se hai 1200€ da spendere (2080ti)
no, se hai 500€ da spendere (5700xt/2070s)
ninja750
19-11-2019, 13:42
presentata la nuova W5700 radeon pro per workstation:
First Workstation card with PCIe 4.0
First Workstation card manufactured in 7nm node
First Radeon Pro with USB-C connector
2304 Stream Processors @ 8.9 TFLOPs
8GB GDDR6 256-bit
prima di questa quale era la più potente?
Thricome82
19-11-2019, 13:59
presentata la nuova W5700 radeon pro per workstation:
First Workstation card with PCIe 4.0
First Workstation card manufactured in 7nm node
First Radeon Pro with USB-C connector
2304 Stream Processors @ 8.9 TFLOPs
8GB GDDR6 256-bit
prima di questa quale era la più potente?
WX9100 mi pare
sgrinfia
19-11-2019, 22:46
Salve ragazzi, al momento gioco con la configurazione in firma a 1080p senza problemi. Volevo chiedere un vostro parere.
Ha senso cambiare la mia scheda video? al momento la configurazione composta da mobo+cpu+ram la tengo che va benone.
Non vorrei cambiare per rimanere a 1080p, ma eventualmente avrei da cambiare anche il monitor, e qui ho bisogno dei vostri consigli, mi spiego meglio.
Quando sono passato a 290, era difficile gestire il 4k con le schede video dell'epoca.
Ora la situazione è migliorata per giocare in 4k con dettagli maxati o comunque alti? Purtroppo sono fermo da alcuni anni con gli aggiornamenti, non riesco a seguire il forum come un tempo causa vari impegni come tutti.
Quindi a voi il quesito: ha senso cambiare monitor per passare a 4k? o comunque mi ritroverei nelle medesime condizioni di qualche anno fa in cui non ci si riusciva a gestire il 4k con singola gpu? nel caso mi consigliaste di passare a 4k, su che scheda video potrei orientarmi? Ho sempre avuto AMD, ormai da oltre 15 anni, quasi 20 per la precisione, e mi sono trovato sempre bene, non ci sarebbero problemi a passare ad Nvidia se ci fossero validi motivi. Grazie a tutti e scusate l'intervento lungo.
P.S. i consumi non sono un problema così come la scelta tra nuovo ed usato, non è un problema se devo comprare un buon usato.
Non ci sono ancora gpu in grado di gestire come si dovrebbe il 4K ,puoi mettere pure una 2080ti ma gestire è un parolone pure per lei .
Discorso diverso invece per il 2k.
Grazie per gli interventi ragazzi.
Secondi voi avrebbe senso passare da fhd a 2k? O meglio passare direttamente a 4k quando la situazione sarà migliore?
Ed eventualmente, che scheda mi consigliate per fhd e per 2k?
Al momento la mia 290 va benone, la cambierei per sfizio. Grazie a tutti
sgrinfia
20-11-2019, 08:08
Grazie per gli interventi ragazzi.
Secondi voi avrebbe senso passare da fhd a 2k? O meglio passare direttamente a 4k quando la situazione sarà migliore?
Ed eventualmente, che scheda mi consigliate per fhd e per 2k?
Al momento la mia 290 va benone, la cambierei per sfizio. Grazie a tutti
Allora aspetta la prossima sfornata di schede video AmdInvidia visto che hai una R9 290 quindi una scheda che anche io utilizzo con soddisfazione in full HD.
OvErClOck82
20-11-2019, 09:02
Grazie per gli interventi ragazzi.
Secondi voi avrebbe senso passare da fhd a 2k? O meglio passare direttamente a 4k quando la situazione sarà migliore?
Ed eventualmente, che scheda mi consigliate per fhd e per 2k?
Al momento la mia 290 va benone, la cambierei per sfizio. Grazie a tuttiSe la scimmia non è troppo aggressiva io aspetterei e passerei al 4k + scheda adatta tra un po'
Inviato dal mio COL-L29 utilizzando Tapatalk
Gyammy85
20-11-2019, 09:59
Grazie per gli interventi ragazzi.
Secondi voi avrebbe senso passare da fhd a 2k? O meglio passare direttamente a 4k quando la situazione sarà migliore?
Ed eventualmente, che scheda mi consigliate per fhd e per 2k?
Al momento la mia 290 va benone, la cambierei per sfizio. Grazie a tutti
Già a 1440p la qualità dell'immagine sale abbastanza, ma dipende tutto dal tuo budget, se vuoi spendere sulle 350-400 ti puoi prendere pure una 5700 liscia che va alla grande a 1440p
Sembra che al ces presenteranno rdna2, almeno un annuncio, quindi estate, a meno che non lancino pure una 5900 per il 4k ma si parlerebbe di almeno 700 euro
nessuno29
20-11-2019, 10:48
Non ci sono ancora gpu in grado di gestire come si dovrebbe il 4K ,puoi mettere pure una 2080ti ma gestire è un parolone pure per lei .
Discorso diverso invece per il 2k.
Una 2080ti tra l'altro su uno xeon x58 del 2010 la vedo ridicola come cosa.
sgrinfia
20-11-2019, 12:56
Una 2080ti tra l'altro su uno xeon x58 del 2010 la vedo ridicola come cosa.
Punti di vista opiniabili ,io Una 2080ti la metterei senza problemi accoppiata al mio FX 8320e oppure al I7 3960x se solo qualcuno mi regalerebbe tale scheda.;)
Ale55andr0
20-11-2019, 13:01
Punti di vista opiniabili ,io Una 2080ti la metterei senza problemi accoppiata al mio FX 8320e oppure al I7 3960x se solo qualcuno mi regalerebbe tale scheda.;)
magna tranquillo sgrì :asd:
...e fai anche un ripassino :p
sgrinfia
20-11-2019, 15:27
magna tranquillo sgrì :asd:
...e fai anche un ripassino :p
Pardon, scordo che qui si è amanti della coniugazione dei verbi :stordita: .
cercherò di usare il Verbo "regalare"in modo corretto ...;)
è che avendo girato tutta Italia e ascoltato 3000 dialetti per me i verbi hanno perso senso......
nessuno29
20-11-2019, 16:27
Punti di vista opiniabili ,io Una 2080ti la metterei senza problemi accoppiata al mio FX 8320e oppure al I7 3960x se solo qualcuno mi regalerebbe tale scheda.;)
Mah secondo me è più opinabile il tuo punto di vista, rispetto al mio :)
Grazie per gli interventi ragazzi.
Secondi voi avrebbe senso passare da fhd a 2k? O meglio passare direttamente a 4k quando la situazione sarà migliore?
Ed eventualmente, che scheda mi consigliate per fhd e per 2k?
Al momento la mia 290 va benone, la cambierei per sfizio. Grazie a tuttiIo propenderei più per un 2k a 144hz, per andare a questa frequenza sul 4k bisognerà aspettare parecchio, quindi una 5700x andrà benissimo, poi quando ci saranno molti più giochi con il Ray Tracing, penserai a quale scheda prendere, tanto tra l'uscita delle AMD RT, le nuove console e i giochi che avranno tale tecnologia, passerà sicuramente almeno un altro anno prima di avere dei risultati, quindi vai di 5700x e goditela, tanto con gli effetti RT (non ci sono un granché di giochi ed è ancora tutto molto acerbo) per ora si gioca bene solo dalla 2080 in su, tanti soldini.
nessuno29
20-11-2019, 16:58
Io propenderei più per un 2k a 144hz, per andare a questa frequenza sul 4k bisognerà aspettare parecchio, quindi una 5700x andrà benissimo, poi quando ci saranno molti più giochi con il Ray Tracing, penserai a quale scheda prendere, tanto tra l'uscita delle AMD RT, le nuove console e i giochi che avranno tale tecnologia, passerà sicuramente almeno un altro anno prima di avere dei risultati, quindi vai di 5700x e goditela, tanto con gli effetti RT (non ci sono un granché di giochi ed è ancora tutto molto acerbo) per ora si gioca bene solo dalla 2080 in su, tanti soldini.
Con quella cpu del 2010 i 144 hz può anche scordarseli, perchè consigliate cose infattibili...
mircocatta
20-11-2019, 18:00
Con quella cpu del 2010 i 144 hz può anche scordarseli, perchè consigliate cose infattibili...
beh oddio, guarda la mia configurazione, io di raggiungere i 144hz non ho poi questi gran problemi, sicuramente se avessi una cpu aggiornata un buon 10-15% in piu netto lo avrei ma sicuramente non sto usando la gpu al 50% delle sue possibilità
non credo che uno xeon come il suo sia così inferiore rispetto al mio 3770k, visto che è anche overcloccato (e se non sbaglio la sua è una cpu 6/12)
nessuno29
20-11-2019, 19:32
beh oddio, guarda la mia configurazione, io di raggiungere i 144hz non ho poi questi gran problemi, sicuramente se avessi una cpu aggiornata un buon 10-15% in piu netto lo avrei ma sicuramente non sto usando la gpu al 50% delle sue possibilità
non credo che uno xeon come il suo sia così inferiore rispetto al mio 3770k, visto che è anche overcloccato (e se non sbaglio la sua è una cpu 6/12)
Si preferivano i 9700k per 5-10 fps rispetto ad un 2700x, ed ora si consiglia una 2080ti su un x5650 del 2010. Non è una cpu scarsa, anzi è ancora ottima nonostante l'età, però per il 2k 144hz la vedo difficile.
Fossi in lui terrei ancora la 290 per il full Hd. Tanto il 4k a basso costo è ancora lontano.
sgrinfia
20-11-2019, 20:54
Mah secondo me è più opinabile il tuo punto di vista, rispetto al mio :)
Ovvio che la stessa cosa possa essere vista da prospettive diverse :)
Grazie dei consigli, al momento allora resto così e passerò in 4k direttamente quando la tecnologia lo permetterà a prezzi ragionevoli.
Tuttavia, non credo che ad oggi il mio processore sia un grosso limite. E' vecchiotto, ma non ha mai arrancato in alcuno scenario e non solo ludico, per cui cambierei prima la scheda video e se mi rendessi conto di essere veramente limitato, anche piattaforma. Ma il problema ora non si pone, dato che comunque resto con la 290 almeno un altro pò. Per chi fosse curioso, possiamo fare un cinebench o non saprei quale altro bench e vediamo più o meno come è messo questo Xeon5670 @4.6, così da renderci conto a quale processore è equiparabile. :)
P.S. confermo che è una cpu 6/12.
Piedone1113
21-11-2019, 08:12
Grazie dei consigli, al momento allora resto così e passerò in 4k direttamente quando la tecnologia lo permetterà a prezzi ragionevoli.
Tuttavia, non credo che ad oggi il mio processore sia un grosso limite. E' vecchiotto, ma non ha mai arrancato in alcuno scenario e non solo ludico, per cui cambierei prima la scheda video e se mi rendessi conto di essere veramente limitato, anche piattaforma. Ma il problema ora non si pone, dato che comunque resto con la 290 almeno un altro pò. Per chi fosse curioso, possiamo fare un cinebench o non saprei quale altro bench e vediamo più o meno come è messo questo Xeon5670 @4.6, così da renderci conto a quale processore è equiparabile. :)
P.S. confermo che è una cpu 6/12.
dovrebbe essere circa un 9400 a 3.6 ghz, quindi tanto collo non lo vedo
Se avete qualche bench da fare per essere più diciamo precisi nel confronto ancora meglio :)
Oirasor_84
21-11-2019, 22:25
salve a tutti,una info...ma navi 12 verrà presentata a gennaio?purtroppo negli ultimi mesi non ho seguito molto e mi ricordavo che per navi big si parlava come presentazione nel periodo estivo,chiedo perchè ieri sera in preda alla scimmia ho acquistato una 5700xt con wb,tra le altre cose non molto convinto perchè non non mi andava d'investire soldi su una fascia media.
mircocatta
21-11-2019, 23:40
Se avete qualche bench da fare per essere più diciamo precisi nel confronto ancora meglio :)
al volo ti direi cinebench r15 single core!
salve a tutti,una info...ma navi 12 verrà presentata a gennaio?purtroppo negli ultimi mesi non ho seguito molto e mi ricordavo che per navi big si parlava come presentazione nel periodo estivo,chiedo perchè ieri sera in preda alla scimmia ho acquistato una 5700xt con wb,tra le altre cose non molto convinto perchè non non mi andava d'investire soldi su una fascia media.Non si sa nulla purtroppo
al volo ti direi cinebench r15 single core!
Bisogna attivare una opzione per eseguire il bench in single core?o al termine mi dice il punteggio in st?
Perché non hai investito su Nvidia scusa
majinbu7
22-11-2019, 09:25
salve a tutti,una info...ma navi 12 verrà presentata a gennaio?purtroppo negli ultimi mesi non ho seguito molto e mi ricordavo che per navi big si parlava come presentazione nel periodo estivo,chiedo perchè ieri sera in preda alla scimmia ho acquistato una 5700xt con wb,tra le altre cose non molto convinto perchè non non mi andava d'investire soldi su una fascia media.
Rdna2 uscirà in estate ;)
Oirasor_84
22-11-2019, 09:33
Perché non hai investito su Nvidia scusaPer diversi motivi,sono un fanboy Ati, perché ho deciso che nvidia non avrà più un soldo da me, perché sulla stessa fascia di prezzo Ati/amd ha sempre offerto prestazioni migliori,maggiore longevità.
Inviato dal mio Mi A1 utilizzando Tapatalk
nessuno29
22-11-2019, 11:29
al volo ti direi cinebench r15 single core!
L'i5 9400 single core viaggia sui 175 in cinebench
L' x5670 a default sta sui 100 un 75% in meno, a 4,6 GHz circa 140. Quanto circa un 3770k a default.
Oirasor_84
22-11-2019, 12:51
Rdna2 uscirà in estate ;)Grazie,ieri cercando info sono incappato in un articolo di hw sulla presunta presentazione di navi 12 e 14 a dicembre o inizio 2020.Comunque ho appena letto di una presunta 2080ti super di nvidia,mi viene da pensare che nvidia sappia già che le prossime amd andranno più della 2080ti.
Inviato dal mio Mi A1 utilizzando Tapatalk
,mi viene da pensare che nvidia sappia già che le prossime amd andranno più della 2080ti.
Inviato dal mio Mi A1 utilizzando Tapatalk
bhe diciamo che sarebbe il minimo sindacale
se non avessi visto cosa permette di fare rdna sarei stato scettico ma visto che rdna2 sarà ancora meglio non faccio fatica a crederci....il problema ès empre lo stesso: se non me lo posso permettere me ne batot il belino se amd è finalmente tornata non dico in pari ma quasi..... :stordita:
le 2080ti super indicano solo che per lameno sei mesi nvidia non avrà nulla di più veloce quindi la 3080 prima di giugno non esce, nessuno con una 2080ti oggi la cambierà per 5 fps in più della super
Ale55andr0
22-11-2019, 14:49
mi viene da pensare che nvidia sappia già che le prossime amd andranno più della 2080ti.
ma va? sarebbe il minimo sindacale visto che sarebbero una generazione dietro, no perchè anche l prossime serie 3000 di nvidia saranno anche quelle più vleoci pure lei della 2080ti :asd:
Il problema è che probabilmente la prossima to pamd se la giocherà con la 2080ti, mentre la prossima top 3000 asfalterà tutto il resto, same old story, è dai tempi della 7970 ghz che amd non ha più avuto la top di gamma più veloce del mercato
Sono rimasto un po' stupito quando ho visto i bench di una rx 5500 su tpu dato che la scheda ancora non si vede negli shop e non se ne sa quasi nulla:
La review è della 1650 super ma l'admin ha comprato per conto suo una rx 5500 oem(sembra) per i test:
https://www.techpowerup.com/review/msi-geforce-gtx-1650-super-gaming-x/
Se fossero veramente 140-150 dollari potrebbe essere best buy nella fascia bassa/htpc.
ninja750
22-11-2019, 16:01
Sono rimasto un po' stupito quando ho visto i bench di una rx 5500 su tpu dato che la scheda ancora non si vede negli shop e non se ne sa quasi nulla:
La review è della 1650 super ma l'admin ha comprato per conto suo una rx 5500 oem(sembra) per i test:
https://www.techpowerup.com/review/msi-geforce-gtx-1650-super-gaming-x/
Se fossero veramente 140-150 dollari potrebbe essere best buy nella fascia bassa/htpc.
molto interessante anche se mancano ancora molti bench
in alcuni ambiti è vicino alla RX570 in altri vicino alla RX580 in altri addirittura un pelo sopra
possiamo arrotondare che le prestazioni sono da RX580 ma con 50w in meno quando non si superano i 4gb di vram utilizzata
mircocatta
22-11-2019, 16:04
ma va? sarebbe il minimo sindacale visto che sarebbero una generazione dietro, no perchè anche l prossime serie 3000 di nvidia saranno anche quelle più vleoci pure lei della 2080ti :asd:
Il problema è che probabilmente la prossima to pamd se la giocherà con la 2080ti, mentre la prossima top 3000 asfalterà tutto il resto, same old story, è dai tempi della 7970 ghz che amd non ha più avuto la top di gamma più veloce del mercato
sinceramente...chissenefrega la serie 3080 asfalterà tutto se poi me la piazzeranno a 1500€ in su :asd:
Oirasor_84
22-11-2019, 17:31
ma va? sarebbe il minimo sindacale visto che sarebbero una generazione dietro, no perchè anche l prossime serie 3000 di nvidia saranno anche quelle più vleoci pure lei della 2080ti :asd:
Il problema è che probabilmente la prossima to pamd se la giocherà con la 2080ti, mentre la prossima top 3000 asfalterà tutto il resto, same old story, è dai tempi della 7970 ghz che amd non ha più avuto la top di gamma più veloce del mercato
bhe diciamo che sarebbe il minimo sindacale
Ok col minimo sindacale, però c'è da dire che nvidia ha sempre avuto il silicio migliore e al di là dell'architettura questo fa tanto nelle prestazioni.Non sono d'accordo sul discorso 7970 ghz,le r9 sono state presentate dopo kepler andavano di più,se la sono giocata con Maxwell uscite dopo,ed adesso in alcuni giochi tipo rdr2 con vulkan se la giocano la 980ti.Purtroppo amd ha sempre preso il silicio peggiore mettendo dentro architetture "complesse" e driver che con le dx11 facevano a cazzotti.
Inviato dal mio Mi A1 utilizzando Tapatalk
Ale55andr0
22-11-2019, 18:16
veramente amd ha avuto anche salti di nodo di vantaggio...senza saperlo sfruttare (andare a malapena uguale, spesso senza mai raggiungere la top rivale, e consumando pure più..), altro che silicio migliore nvidia. Sono le architetture che han fatto pena, il silicio è una scusa bella e buona
giovanbattista
23-11-2019, 01:36
molto interessante anche se mancano ancora molti bench
Eccola qui provata x bene riporto l'estratto......in questa rece ci sono 22 giochi, a 1920*1080 è Ok escluso qualche titolo, credo che "giocando" con le impostazioni si possano raggiungere discreti risultati, anche nei titoli + ostici.
https://tpucdn.com/review/amd-radeon-rx-5500/images/average-fps-1920-1080.png
https://tpucdn.com/review/amd-radeon-rx-5500/images/average-fps_1920_1080.png
https://tpucdn.com/review/amd-radeon-rx-5500/images/average-fps-2560-1440.png
https://tpucdn.com/review/amd-radeon-rx-5500/images/average-fps_2560_1440.png
veramente amd ha avuto anche salti di nodo di vantaggio...senza saperlo sfruttare (andare a malapena uguale, spesso senza mai raggiungere la top rivale, e consumando pure più..), altro che silicio migliore nvidia. Sono le architetture che han fatto pena, il silicio è una scusa bella e buona
Sono d'accordo, lato CPU nulla da eccepire, ma dal lat GPU AMD ne deve mangiare di merda da nVidia
Ton90maz
23-11-2019, 04:25
Eccola qui provata x bene riporto l'estratto......in questa rece ci sono 22 giochi, a 1920*1080 è Ok escluso CUT
Che cesso, potrebbe avere mercato come fermaporte :asd:
A parte gli scherzi, mi sa che i driver hanno qualche problema, o non si spiegherebbero performance così sottotono, specialmente in alcuni giochi.
Ok che avranno frequenze diverse ma sta roba è più di mezza navi media, ma va la metà. E' come se lo scaling non 1:1 funzionasse al contrario.
VanCleef
23-11-2019, 08:39
Come al solito, sarà all'80% il rapporto prezzo/prestazioni e al 20% quello prestazioni/consumo a decidere se sarà o meno una buona scheda...
Dell'architettura figa non interessa quasi a nessuno
StylezZz`
23-11-2019, 11:49
Dell'architettura figa non interessa quasi a nessuno
Quoto.
Ormai con i tempi che corrono, l'unica cosa che andrebbe presa in considerazione è il rapporto prezzo/prestazioni, dei nanometri e quache watt in meno c'è ne stiamo fregando altamente, giustifico solo i portatili dove è davvero importante guardare i consumi.
scusate, sapete se uscira una RX 5500 anche con 8 gb di ram ?
Quella nel test è una 4 gb.
Secondo voi avrebbe senso sostituire una RX 570 8gb con una 5500 ?
StylezZz`
23-11-2019, 15:02
Secondo voi avrebbe senso sostituire una RX 570 8gb con una 5500 ?
No, non ha proprio senso, e dal mio punto di vista anche chi ha una RX 480 può starsene buono.
Oirasor_84
23-11-2019, 15:09
veramente amd ha avuto anche salti di nodo di vantaggio...senza saperlo sfruttare (andare a malapena uguale, spesso senza mai raggiungere la top rivale, e consumando pure più..), altro che silicio migliore nvidia. Sono le architetture che han fatto pena, il silicio è una scusa bella e buona
Sono d'accordo, lato CPU nulla da eccepire, ma dal lat GPU AMD ne deve mangiare di merda da nVidia
Se vogliamo entrare nel merito delle architetture con pro e contro lieto di partecipare,altrimenti i discorsi sopra sono solo gossip informatico.Perchè si sa che GCN non è un architettura per solo gaming,con quel tipo di scheduler hardware perdi efficienza,poi aggiungi un silicio peggiore ed ottieni una mattonella come hawaii e vega piena di transistor.
Anche l'architettura RDNA ha una base di partenza GCN.Possiamo discuterne con piacere dei pro e dei contro,su quale sia la migliore scelta considerando prezzo,consumi,motori grafici ecc... ma dire amd cacca pupù,o ne deve mangiare merda da nvidia,o andare uguale consumando di più sono discorsi da gossip.
nessuno29
23-11-2019, 16:36
Ma quanto è diventata scarsa la 1060 oh?
perche' hai mai visto un'nvidia invecchiare bene???
:asd::asd::asd:
Free Gordon
24-11-2019, 00:39
Sono rimasto un po' stupito quando ho visto i bench di una rx 5500 su tpu dato che la scheda ancora non si vede negli shop e non se ne sa quasi nulla:
La review è della 1650 super ma l'admin ha comprato per conto suo una rx 5500 oem(sembra) per i test:
https://www.techpowerup.com/review/msi-geforce-gtx-1650-super-gaming-x/
Se fossero veramente 140-150 dollari potrebbe essere best buy nella fascia bassa/htpc.
Hmmm mah... :stordita: è un chip grande quanto la 1660 che va' meno della 1650...
Mi pare una gran tavanata sta Navi14 di AMD.
A meno che non abbia delle unità disabilitate... ha un'efficienza abbastanza bassa rispetto alla vecchia concorrenza a 12nm... :doh: :muro:
nessuno29
24-11-2019, 09:36
Hmmm mah... :stordita: è un chip grande quanto la 1660 che va' meno della 1650...
Mi pare una gran tavanata sta Navi14 di AMD.
A meno che non abbia delle unità disabilitate... ha un'efficienza abbastanza bassa rispetto alla vecchia concorrenza a 12nm... :doh: :muro:
Stai trollando vero?
E' la metà di una 1660\1650 super e viaggia ben di più di una 1650.
Purtroppo saranno i prezzi a deciderne la bontà. Nella fascia dei 130-150 euro mi sembra un'ottima soluzione. Posta invece a 180-200 non ha senso. Bisogna vedere che bisogno avrà amd di vendere.
Aspettando e sperando nel ces 2020! :(
AceGranger
24-11-2019, 10:21
Se vogliamo entrare nel merito delle architetture con pro e contro lieto di partecipare,altrimenti i discorsi sopra sono solo gossip informatico.Perchè si sa che GCN non è un architettura per solo gaming,con quel tipo di scheduler hardware perdi efficienza,poi aggiungi un silicio peggiore ed ottieni una mattonella come hawaii e vega piena di transistor.
Anche l'architettura RDNA ha una base di partenza GCN.Possiamo discuterne con piacere dei pro e dei contro,su quale sia la migliore scelta considerando prezzo,consumi,motori grafici ecc... ma dire amd cacca pupù,o ne deve mangiare merda da nvidia,o andare uguale consumando di più sono discorsi da gossip.
si peccato che in campo Pro vada peggio che nel mondo gaming.
arxangel
24-11-2019, 10:24
Purtroppo saranno i prezzi a deciderne la bontà. Nella fascia dei 130-150 euro mi sembra un'ottima soluzione. Posta invece a 180-200 non ha senso. Bisogna vedere che bisogno avrà amd di vendere.
Si parla di 150 euro, comunque è deprimente che dalla bolla minining in poi non c'è una scheda video con un rapporto prezzo/prestazioni decente all' aumentare delle prestazioni aumentano i prezzi.
Anche a 150 con soli 4 gb di ram non la prenderei mai, ha più senso una 580 che costa una ventina di euro in più ma ha il dopio della Vram e va più veloce, oppure una 570 se uno ha pochi soldi.
Si parla di 150 euro, comunque è deprimente che dalla bolla minining in poi non c'è una scheda video con un rapporto prezzo/prestazioni decente all' aumentare delle prestazioni aumentano i prezzi.
Anche a 150 con soli 4 gb di ram non la prenderei mai, ha più senso una 580 che costa una ventina di euro in più ma ha il dopio della Vram e va più veloce, oppure una 570 se uno ha pochi soldi.
Forse attualmente quella che si avvicina di più a questo requisito è la gtx 1660 super, viaggia come una 1660Ti e si trova tra i 210 e i 250 euro, a seconda delle marche e dei modelli...
... prezzo che se fosse stato applicato fin da subito alla 1660Ti l'avrebbe fatta diventare una best buy.
Forse attualmente quella che si avvicina di più a questo requisito è la gtx 1660 super, viaggia come una 1660Ti e si trova tra i 210 e i 250 euro, a seconda delle marche e dei modelli...
... prezzo che se fosse stato applicato fin da subito alla 1660Ti l'avrebbe fatta diventare una best buy.
con un FX6350 riesci a sfruttare bene la tua gtx 1660Ti ?
StylezZz`
24-11-2019, 16:31
Forse attualmente quella che si avvicina di più a questo requisito è la gtx 1660 super, viaggia come una 1660Ti e si trova tra i 210 e i 250 euro, a seconda delle marche e dei modelli.
Aggiungo la RX 590, si trova a partire da 190 euro, e con 215 euro prendi la Sapphire Nitro+ che è la migliore come dissipatore e frequenze. Ha anche 8 GB di VRAM, cosa chiedere di più?
https://www.youtube.com/watch?v=kcPNDKLg7qE&t (benchmark 1440p)
arxangel
24-11-2019, 16:52
Forse attualmente quella che si avvicina di più a questo requisito è la gtx 1660 super, viaggia come una 1660Ti e si trova tra i 210 e i 250 euro, a seconda delle marche e dei modelli...
... prezzo che se fosse stato applicato fin da subito alla 1660Ti l'avrebbe fatta diventare una best buy.
Si in quella fascia la 1660 super è sicuramente la migliore insieme all' eterna 580.
fraussantin
24-11-2019, 17:17
Si parla di 150 euro, comunque è deprimente che dalla bolla minining in poi non c'è una scheda video con un rapporto prezzo/prestazioni decente all' aumentare delle prestazioni aumentano i prezzi.
Anche a 150 con soli 4 gb di ram non la prenderei mai, ha più senso una 580 che costa una ventina di euro in più ma ha il dopio della Vram e va più veloce, oppure una 570 se uno ha pochi soldi.Il problema è che la bolla del mining Ormai ha reso "normale" per i più spendere 4-500 euro per una GPU.
E sia amd che Nvidia se ne stanno approfittando.
Io rimango dell'idea che l'unica GPU sensata di AMD sia la 5700xt (custom)che offre prestazioni leggermente inferiori di una 2070S ma ad un prezzo aggressivo e tutto sommato con consumi decenti. Anche la liscia non è male , ma preferisco la 2060S a quel punto.
Resta il fatto che adesso sono un nodo avanti rispetto ad nvidia, con rdna 2 devono darsi una bella svegliata o rischiano veramente di restare indietro.
Ale55andr0
24-11-2019, 17:29
Resta il fatto che adesso sono un nodo avanti rispetto ad nvidia, con rdna 2 devono darsi una bella svegliata o rischiano veramente di restare indietro.
Si', devono svegliarsi, cmq non è che rischiano di stare indietro, è da anni che lo sono...
fraussantin
24-11-2019, 17:35
Si', devono svegliarsi, cmq non è che rischiano di stare indietro, è da anni che lo sono...Sì in passato si . diciamo che adesso, tecnologie RT a parte , sono abbastanza in pari sulla fascia media.( Della fascia alta non gli frega nulla si vede chiaramente)
Con ampere la fascia 2070\5700 passerà in medio-bassa , una 3060 sarà sicuramente più performante di queste e sfornare una 5800 come è stata leakkata non servirà a nulla.
Sono già indietro pur stando "avanti" e non vedo lumi all'orizzonte, anzi ora che nvidia recupera con il processo produttivo c'è il rischio che AMD affondi ancora di più lato GPU, l'unica cosa che può avvantagiarli è che sono i fornitori delle gpu console di prossima generazione e questo potrebbe avvantaggiarli sul fronte ottimizzazione dei giochi, ma questo è da vedere perché doveva essere così anche questa generazione e non è stato, nvidia ha sempre avuto parecchie marce in più
Ale55andr0
24-11-2019, 17:38
Sì in passato si . diciamo che adesso, tecnologie RT a parte , sono abbastanza in pari sulla fascia media.( Della fascia alta non gli frega nulla si vede chiaramente)
Con ampere la fascia 2070\5700 passerà in medio-bassa , una 3060 sarà sicuramente più performante di queste e sfornare una 5800 come è stata leakkata non servirà a nulla.
per me saranno pari quando lotterano alla pari fascia su fascia, inclusa l'altissima (soprattutto, è da eoni che mancano al top assoluto) e senza nodo di vantaggio, e la vedo dura... Spero di sbagliarmi...ma chissà, magari rdna2 sarà un step netto in avanti. Mi pare di capire che teoricamente dovrebbe essere la "vera" implementazione dell'architettura amd totalmente pensata per il gaming
Andy1111
24-11-2019, 17:42
rdna2 con i 7+ di tmsc ampere con i 7+ di samsung e tmsc quindi la questione mi sembra ancora tutta da vedere
Ton90maz
24-11-2019, 18:21
Hmmm mah... :stordita: è un chip grande quanto la 1660 che va' meno della 1650...
Mi pare una gran tavanata sta Navi14 di AMD.
A meno che non abbia delle unità disabilitate... ha un'efficienza abbastanza bassa rispetto alla vecchia concorrenza a 12nm... :doh: :muro:
Stai trollando vero?
E' la metà di una 1660\1650 super e viaggia ben di più di una 1650.Ma c'ha quasi lo stesso numero di transistor di tu 116 (forse si riferiva a questo) e un nodo di vantaggio. Ha pure più transistor di polaris e il bus dimezzato è compensato dalle dalle GDDR6. Dovrebbe andare mooooolto di più di una rx 570. Allo stato attuale è un cesso senza precedenti, ma sono convinto che risolveranno con i nuovi driver.
Sì in passato si . diciamo che adesso, tecnologie RT a parte , sono abbastanza in pari sulla fascia media.( Della fascia alta non gli frega nulla si vede chiaramente)
Con ampere la fascia 2070\5700 passerà in medio-bassa , una 3060 sarà sicuramente più performante di queste e sfornare una 5800 come è stata leakkata non servirà a nulla.Mah, priva invece se ne fregavano della fascia dove stanno vendendo le attuali navi? :asd:
Per parecchio tempo non hanno avuto niente sopra polaris, poi hanno avuto un buco tra i 250 e i 400 euro, ma occupavano (malamente) la fascia alta. Ora, chissà perché, non hanno niente sopra i 400 euro (la subaru 7 non la considero neanche) e non hanno nulla di pronto per la fascia tra i 200 e i 300 euro.
Non sono neanche coerenti. Per me non è una questione di volontà ma di compromessi, occupano quello che riescono. Navi è uscita relativamente bene e non si sono fatti scrupoli a prezzarla nella fascia dei 350-400 euro.
con un FX6350 riesci a sfruttare bene la tua gtx 1660Ti ?
Il mio PC non è bilanciato, ma questo lo so.
Prima di passare alla 1660Ti avevo su una 1050Ti, ma purtroppo con il FHD non mi dava molte soddisfazioni (stavo mediamente sui 30-40 fps con i giochi in mio possesso) e così ho fatto il cambio questa primavera: ho raddoppiato i fotogrammi, nonostante il mio FX6350 faccia un po' da bottleneck.
Comunque a breve la 1660Ti passerà su una configurazione più performante che mi deve arrivare questa settimana e allora dovrei stare tranquillo per i prossimi 2-3 anni.
fraussantin
24-11-2019, 19:08
Ma c'ha quasi lo stesso numero di transistor di tu 116 (forse si riferiva a questo) e un nodo di vantaggio. Ha pure più transistor di polaris e il bus dimezzato è compensato dalle dalle GDDR6. Dovrebbe andare mooooolto di più di una rx 570. Allo stato attuale è un cesso senza precedenti, ma sono convinto che risolveranno con i nuovi driver.
Mah, priva invece se ne fregavano della fascia dove stanno vendendo le attuali navi? :asd:
Per parecchio tempo non hanno avuto niente sopra polaris, poi hanno avuto un buco tra i 250 e i 400 euro, ma occupavano (malamente) la fascia alta. Ora, chissà perché, non hanno niente sopra i 400 euro (la subaru 7 non la considero neanche) e non hanno nulla di pronto per la fascia tra i 200 e i 300 euro.
Non sono neanche coerenti. Per me non è una questione di volontà ma di compromessi, occupano quello che riescono. Navi è uscita relativamente bene e non si sono fatti scrupoli a prezzarla nella fascia dei 350-400 euro.Non guardare che costa 400 euro , ma navi è il diretto successore di Polaris e infatti finirà nelle console.
rdna2 con i 7+ di tmsc ampere con i 7+ di samsung e tmsc quindi la questione mi sembra ancora tutta da vedere
Senza ombra di dubbio tutto è da vedere.
Nvidia potrebbe anche fare il passettino per poi riscaldare la minestra con le super.
Non è che si vergognano...
Gyammy85
24-11-2019, 21:24
Allo stato attuale è un cesso senza precedenti, ma sono convinto che risolveranno con i nuovi driver.
Ci risiamo :rolleyes:
Non è assolutamente così
https://i.postimg.cc/8ChDbKR7/photo-2019-11-23-19-39-26.jpg (https://postimages.org/)
La 5500 ha 22 cu, 88 tmu e 32 rops, e riesce anche a clock uguali (lì è rilassata e viaggia a 1400 contro i soliti 1800) ad andare come la 580, che ha 144 tmu e 36 cu...siamo a oltre il 60% in più come rendimento, che è praticamente la stessa differenza fra una 580 e la 5700 liscia (anche di più, considerando la differenza di clock e le 64 rops)
Quindi scala esattamente quanto dovrebbe, ci sono numerosi confronti che lo dimostrano
https://www.youtube.com/watch?v=Gs7-RECrhSw&feature=youtu.be
https://www.youtube.com/watch?v=9A2x_Q90xLc&t=1s
https://www.youtube.com/watch?v=2lFFwjeSuFc&t=45s
https://www.youtube.com/watch?v=UuAWrVvSUiQ&t=173s
Aggiungo la RX 590, si trova a partire da 190 euro, e con 215 euro prendi la Sapphire Nitro+ che è la migliore come dissipatore e frequenze. Ha anche 8 GB di VRAM, cosa chiedere di più?
https://www.youtube.com/watch?v=kcPNDKLg7qE&t (benchmark 1440p)
Interessante benchmark, che oltre alla buona capacità della rx590 nel 2k, dimostra anche come la 1660 super non sfiguri rispetto alla 2060. Questo mi fa ben sperare per la mia 1660Ti che è leggermente sopra alla super.
Tra l'altro la mia prossima configurazione sarà molto simile alla configurazione di prova.
Grazie.
Ton90maz
25-11-2019, 00:18
Ci risiamo :rolleyes:
Non è assolutamente così
https://i.postimg.cc/8ChDbKR7/photo-2019-11-23-19-39-26.jpg (https://postimages.org/)
La 5500 ha 22 cu, 88 tmu e 32 rops, e riesce anche a clock uguali (lì è rilassata e viaggia a 1400 contro i soliti 1800) ad andare come la 580, che ha 144 tmu e 36 cu...siamo a oltre il 60% in più come rendimento, che è praticamente la stessa differenza fra una 580 e la 5700 liscia (anche di più, considerando la differenza di clock e le 64 rops)
Quindi scala esattamente quanto dovrebbe, ci sono numerosi confronti che lo dimostrano
https://www.youtube.com/watch?v=Gs7-RECrhSw&feature=youtu.be
https://www.youtube.com/watch?v=9A2x_Q90xLc&t=1s
https://www.youtube.com/watch?v=2lFFwjeSuFc&t=45s
https://www.youtube.com/watch?v=UuAWrVvSUiQ&t=173s
Non smentisci niente perché molti giochi sono diversi e manca la media delle performance, ma visto che sono masochista mi sono messo a prendere qualche frame e a calcolare il rapporto degli fps. La 5500, stando alle rilevazioni spannometriche fatte, va un 15-18% (se va bene, togliamo le situazioni più da cpu bottleneck o si spianano) più della 570 (mi sembra giusto confrontare scassata vs scassata), nonostante il nodo di vantaggio, i transistor in più, lo spazio risparmiato dalle gddr6 e un rapporto più vantaggioso di CU sane e... vabbè chissene frega, mo comincio ad essere troppo pignolo :asd:. Ottima cosa che consumi di meno, ma comunque più di tanto non sale, e anche se mi piace parlare di architetture, il prodotto questo è, con i driver attuali.
I 1400 MHz non c'entrano niente, dovresti saperlo che le subaru e le navi hanno il clock molto più dinamico di polaris, che appena ha un minimo di carico schizza alla frequenza boost. Se prendevi un frame con stuttering e contatore fps in ritardo potevi far credere che girava a 600 MHz :asd:
Gyammy85
25-11-2019, 08:35
Si', devono svegliarsi, cmq non è che rischiano di stare indietro, è da anni che lo sono...
Ormai è un disco rotto sempre più rotto ma che gira sempre meglio, o sono indietro per il pp, o sono avanti col pp ma sono due step dietro, o hanno la scheda migliore si ma il markettinngghe
per me saranno pari quando lotterano alla pari fascia su fascia, inclusa l'altissima (soprattutto, è da eoni che mancano al top assoluto) e senza nodo di vantaggio, e la vedo dura... Spero di sbagliarmi...ma chissà, magari rdna2 sarà un step netto in avanti. Mi pare di capire che teoricamente dovrebbe essere la "vera" implementazione dell'architettura amd totalmente pensata per il gaming
Voglio proprio vedere i commenti appena usciranno la fascia altissima (eh ma a che serve, eh ma due anni dopo, si ma deve costare 300 euro, si ma io sono uno che è dalla parte del portafoglio mio ecc........)
Non smentisci niente perché molti giochi sono diversi e manca la media delle performance, ma visto che sono masochista mi sono messo a prendere qualche frame e a calcolare il rapporto degli fps. La 5500, stando alle rilevazioni spannometriche fatte, va un 15-18% (se va bene, togliamo le situazioni più da cpu bottleneck o si spianano) più della 570 (mi sembra giusto confrontare scassata vs scassata), nonostante il nodo di vantaggio, i transistor in più, lo spazio risparmiato dalle gddr6 e un rapporto più vantaggioso di CU sane e... vabbè chissene frega, mo comincio ad essere troppo pignolo :asd:. Ottima cosa che consumi di meno, ma comunque più di tanto non sale, e anche se mi piace parlare di architetture, il prodotto questo è, con i driver attuali.
I 1400 MHz non c'entrano niente, dovresti saperlo che le subaru e le navi hanno il clock molto più dinamico di polaris, che appena ha un minimo di carico schizza alla frequenza boost. Se prendevi un frame con stuttering e contatore fps in ritardo potevi far credere che girava a 600 MHz :asd:
Come al solito ogni spiegazione è inutile, quindi per te il fatto che vada come una 580 oc o di più nei giochi ue4 è un fail, perché doveva scalare meglio, certo se va il 70% in più cu su cu è troppo poco...e non è neanche la versione desktop, dato che questa qui è per oem
Per il resto, ok era rilassata e andava a 1400, ciò non toglie che genera gli stessi frame dalla 580 a 1366, o se vogliamo, era così rilassata da boostare meno (e pure polaris boosta meno con carichi bassi)
StylezZz`
25-11-2019, 08:55
Quei 4GB la castreranno parecchio, anche a 1080p con settaggi su ultra, tra textures etc ormai non bastano più.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.