View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™
Gyammy85
10-08-2019, 22:01
https://twitter.com/KOMACHI_ENSAKA/status/1160256073321738241
24 cu - 1900 mhz
Sarebbe in zona 1660ti
mikael84
10-08-2019, 22:56
The HBM2E DRAM comes in 8-Hi stack configuration and utilizes 16 Gb memory dies, stacked together and clocked at 3.2 Gbps. This would result in a total bandwidth of 410 GB/s on a single and 920 GB/s with two HBM2E stacks which is just insane. To top it all, the DRAM has a 1024-bit wide bus interface which is the same as current HBM2 DRAM. Samsung says that their HBM2E solution, when stacked in 4-way configuration, can offer up to 64 GB memory at 1.64 TB/s of bandwidth.
Questa è la cosa interessante di questo rumor.
Con un bus a 2048 bit avrebbero 900GB/s di banda (che basterebbero ampiamente a una navi RDNA1 "fijivega" da 64CU --> la 5800);
con un bus a 4096 invece...potrebbero dar da mangiare anche a 8shader engine e 128rops... :oink: :oink: :oink:
Queste sono le flashbolt, ram ancora non a listino su Samsung. Hynix è ferma a 256 per stack come le Flare classiche.
La Samsung al momento può utilizzare le aquabolt da 2,4, ovvero 307gb/s per stack (1,22 gb/s), ma anche qua non esiste la concorrenza, essendo ferma, quindi dovresti fare l'accordo solo con samsung.
E' lo stesso casino delle ddr6.
Cmq tra un anno molte cose cambieranno, peccato che solo Samsung innovi .:)
https://twitter.com/KOMACHI_ENSAKA/status/1160256073321738241
24 cu - 1900 mhz
Sarebbe in zona 1660ti
Speriamo :O .
Free Gordon
11-08-2019, 04:37
Queste sono le flashbolt, ram ancora non a listino su Samsung.
però se la Navi 64CU (5800XT) uscisse con le aquabolt e un bus a 2048bit....... :)
sarebbero in ballo ;) non credi?
Copiano paro-paro la RadeonVII sulla nuova archi RDNA1 scalando il bus, forse gli costa anche poco il progetto. :asd:
Vediamo dove vanno a parare...
Ale55andr0
11-08-2019, 08:41
però se la Navi 64CU (5800XT) uscisse con le aquabolt e un bus a 2048bit....... :)
sarebbero in ballo ;) non credi?
Copiano paro-paro la RadeonVII sulla nuova archi RDNA1 scalando il bus, forse gli costa anche poco il progetto. :asd:
Vediamo dove vanno a parare...
ma anche basta, ma anche no :help:
maxmix65
11-08-2019, 10:22
smontaggio XFX RX 5700 XT Black Wolf
https://www.expreview.com/69807.html
Se non ricordo male ci stavano parecchie critiche su quel dissipatore
https://www.reddit.com/r/Amd/comments/cokvu4/xfx_at_it_again_unsoldered_steel_plate_contacting/
Free Gordon
11-08-2019, 16:47
ma anche basta, ma anche no :help:
parlo di una 5800 in uscita prima di natale e non di un chippone a 7nm+ con RDNA2 ;)
Ale55andr0
11-08-2019, 17:55
parlo di una 5800 in uscita prima di natale e non di un chippone a 7nm+ con RDNA2 ;)
si si ma io il numero 64 non lo voglio più leggere nemmeno su una bolletta, basta co sta suddivisione uguale a se stessa da eoni, aumentino sti caspio di raster e ribilancino il chip con un diverso numero di cu, non ne posso più di sto 4/64/64.
mikael84
11-08-2019, 18:01
però se la Navi 64CU (5800XT) uscisse con le aquabolt e un bus a 2048bit....... :)
sarebbero in ballo ;) non credi?
Copiano paro-paro la RadeonVII sulla nuova archi RDNA1 scalando il bus, forse gli costa anche poco il progetto. :asd:
Vediamo dove vanno a parare...
La BW delle aquabolt sarebbe l'ideale in un chip 24 DCU (3072st) e prestazioni da 2080s circa.
La VII insegna che la BW dev'essere ampia se non si lavora di compressione.:)
Riguardo i chip, difficile capire quale siano le intenzioni di AMD, sopratutto sulla 5800, nome che vorrà dire qualcosa rispetto alla concorrente.
Io non escluderei neppure un navi, big navi 7nm, poi l'anno prossimo riproposti con rdna2 7nm+.:)
La BW delle aquabolt sarebbe l'ideale in un chip 24 DCU (3072st) e prestazioni da 2080s circa.
La VII insegna che la BW dev'essere ampia se non si lavora di compressione.:)
Riguardo i chip, difficile capire quale siano le intenzioni di AMD, sopratutto sulla 5800, nome che vorrà dire qualcosa rispetto alla concorrente.
Io non escluderei neppure un navi, big navi 7nm, poi l'anno prossimo riproposti con rdna2 7nm+.:)
letto in giro: la compressione aumenta le latenze
vero o falso?
letto in giro: la compressione aumenta le latenze
vero o falso?
Penso di si dato che comunque è un calcolo matematico da applicare a dati esistenti. Però non credo sia qualcosa che possa spostare certi equilibri o creare problemi.
Ale55andr0
11-08-2019, 22:29
Riguardo i chip, difficile capire quale siano le intenzioni di AMD, sopratutto sulla 5800
beh, al momento non sappiamo nemmeno se la vogliono fare
maxmix65
11-08-2019, 23:13
Sapphire rx 5700xt Pulse review
http://www.vmodtech.com/th/article/sapphire-radeon-rx-5700-xt-pulse-review
mikael84
11-08-2019, 23:38
letto in giro: la compressione aumenta le latenze
vero o falso?
Assolutamente vero, la GPU in base alla compressione da attuare è costretta a sprecare più cicli.
Tuttavia è decisamente più conveniente migliorare la compressione per sgravare i piccoli bus e relative BW molto strette.:)
Sapphire rx 5700xt Pulse review
http://www.vmodtech.com/th/article/sapphire-radeon-rx-5700-xt-pulse-review
Max ti conviene postare qua, sicuramente più visibile
https://www.hwupgrade.it/forum/showthread.php?t=2887976&page=57
Free Gordon
12-08-2019, 14:43
La BW delle aquabolt sarebbe l'ideale in un chip 24 DCU (3072st) e prestazioni da 2080s circa.
La VII insegna che la BW dev'essere ampia se non si lavora di compressione.:)
Riguardo i chip, difficile capire quale siano le intenzioni di AMD, sopratutto sulla 5800, nome che vorrà dire qualcosa rispetto alla concorrente.
Io non escluderei neppure un navi, big navi 7nm, poi l'anno prossimo riproposti con rdna2 7nm+.:)
Solo 48CU? 11.6 tflops a 1900mhz...
Basta per una 2080Super?
Sulla seconda ipotesi tua, non sarebbe male: fanno un chip RDNA1 e poi lo upgradano alla 2 l'anno prossimo coi 7nm.
Potrebbe essere una soluzione anche quella...
mikael84
12-08-2019, 15:10
Solo 48CU? 11.6 tflops a 1900mhz...
Basta per una 2080Super?
Sulla seconda ipotesi tua, non sarebbe male: fanno un chip RDNA1 e poi lo upgradano alla 2 l'anno prossimo coi 7nm.
Potrebbe essere una soluzione anche quella...
Con la percentuale di BW delle aquabolt mediamente si. Chiaramente in molte medie si ritroverebbe sotto, ma in tanti casi competerebbe sino al QHD.
Con questa BW no, pareggerebbe la 2080.
A livello di shader, istruzioni e cache è tanta roba Navi.:)
Gyammy85
13-08-2019, 08:07
https://i.postimg.cc/sxqpnDL9/Annotazione-2019-08-13-090438.png (https://postimages.org/)
Sarebbe una gpu da 25 tf fp32, se usano come riferimento la potenza int8 come vega 20
8 shader engine
Jeetkundo
13-08-2019, 14:00
AMD: It's OK that Radeon RX 5700 series cards run at 110C
Read more:*https://www.tweaktown.com/news/67056/amd-ok-radeon-rx-5700-series-cards-run-110c/index.html
Spero sia uno scherzo, immaginate chi fa un cross o ha un m2 vicino o sotto le vga :D
mikael84
13-08-2019, 14:38
beh, al momento non sappiamo nemmeno se la vogliono fare
Per te che interessano le console. neppure ne discuto tanto per ora si parla del nulla sotto questo profilo.:)
https://www.xboxdynasty.de/news/xbox-next/geruecht-scarlett-und-dante-dev-kit-spezifikationen-aufgedeckt/
https://i.postimg.cc/sxqpnDL9/Annotazione-2019-08-13-090438.png (https://postimages.org/)
Sarebbe una gpu da 25 tf fp32, se usano come riferimento la potenza int8 come vega 20
8 shader engine
Probabilmente una dual GPU compute.;)
Piedone1113
13-08-2019, 15:16
AMD: It's OK that Radeon RX 5700 series cards run at 110C
Read more:*https://www.tweaktown.com/news/67056/amd-ok-radeon-rx-5700-series-cards-run-110c/index.html
Spero sia uno scherzo, immaginate chi fa un cross o ha un m2 vicino o sotto le vga :D
No, non è uno scherzo e tu hai frainteso tutto.
La temperatura di 110° è riferito al parametro entro in quale deve lavorare la gpu.
Ma i 110° sono riferiti non alla superfice della gpu ma ad ogni singolo hotpost di essa.
Diciamo che amd ha previsto 40 hotspot monitorati da sensori, fin quando nessuno di questi punti raggiunge i 110° il clock è al max.
se 39 punti di misurazioni hanno una temp di 80° ed un solo punto raggiunge i 110° vengono abbassate le frequenze, ma questo non vuol dire che la gpu è a 110°, ma solo una piccola area di essa. magari la temperatura media della gpu è 82° in quel momento anche se le frequenze vengono tagliate.
Gyammy85
13-08-2019, 15:38
Probabilmente una dual GPU compute.;)
Non credo, la dual esiste e la montano sui mac, non la chiamerebbero arcturus, inoltre ci sono un sacco di estensioni nuove nei driver linux
Un mi50 non è una dual mi25
La mi25 è uscita a dicembre 2016, le mi50 e 60 a novembre 2018, questa probabilmente a novembre/dicembre 2019
ninja750
13-08-2019, 17:52
consiglio questa lettura: https://community.amd.com/community/gaming/blog/2019/08/12/amd-radeon-community-update-more-control-over-gpu-power-and-performance-enhanced-thermal-monitoring-maximized-performance
parla del differente approccio ai mhz (stile cpu) delle nuove vga cioè non più numero fisso di fabbrica ma boost variabile
mikael84
13-08-2019, 17:53
Non credo, la dual esiste e la montano sui mac, non la chiamerebbero arcturus, inoltre ci sono un sacco di estensioni nuove nei driver linux
Un mi50 non è una dual mi25
La mi25 è uscita a dicembre 2016, le mi50 e 60 a novembre 2018, questa probabilmente a novembre/dicembre 2019
La chiamano arcturus essendo basata sul prossimo chip.
100 INT8, o 25TF fp32 significano 6144 st a 2050 o 7168st a 1750.
Gli 8 engine possono far lavorare sino a 8192st teoricamente, ma parliamo di numeri esagerati per die e TDP sui 300watt.
La chiamano arcturus essendo basata sul prossimo chip.
100 INT8, o 25TF fp32 significano 6144 st a 2050 o 7168st a 1750.
Gli 8 engine possono far lavorare sino a 8192st teoricamente, ma parliamo di numeri esagerati per die e TDP sui 300watt.
Se mi dai 25tf, sti cavoli del consumo per il game si intende, nel computing e affini contano parecchio il consumo e il calore.
arcturus non è una architettura gaming ma hpc
Gyammy85
13-08-2019, 18:23
La chiamano arcturus essendo basata sul prossimo chip.
100 INT8, o 25TF fp32 significano 6144 st a 2050 o 7168st a 1750.
Gli 8 engine possono far lavorare sino a 8192st teoricamente, ma parliamo di numeri esagerati per die e TDP sui 300watt.
Mah, sarebbe sui 600 mm2, molto meno di v100 e volta
Vedremo
Ale55andr0
13-08-2019, 21:15
Per te che interessano le console. neppure ne discuto tanto per ora si parla del nulla sotto questo profilo.:)
https://www.xboxdynasty.de/news/xbox-next/geruecht-scarlett-und-dante-dev-kit-spezifikationen-aufgedeckt/
interessante, grazie ,)
fra l'altro avevo appena letto questo, ma mi pare una stronzata megagalattica:
https://multiplayer.it/notizie/ps5-gpu-2-ghz-14-tflops-potenza-rtx-2080-leak.html
9.2tflop, meno di gooole stadia, maddai :asd:
Ale55andr0
13-08-2019, 21:18
La chiamano arcturus essendo basata sul prossimo chip.
100 INT8, o 25TF fp32 significano 6144 st a 2050 o 7168st a 1750.
Gli 8 engine possono far lavorare sino a 8192st teoricamente, ma parliamo di numeri esagerati per die e TDP sui 300watt.
beh, 300w per 128cu per me sono accettabilissimi :D
mikael84
13-08-2019, 23:27
Se mi dai 25tf, sti cavoli del consumo per il game si intende, nel computing e affini contano parecchio il consumo e il calore.
Probabilmente non ci arriverà neppure una 3080ti a quei valori.:)
Mah, sarebbe sui 600 mm2, molto meno di v100 e volta
Vedremo
Una è a 12nm, a 7nm+, avrà al 90% 6144cc ma con meno die.
In questi chip si cerca di mantenere un ratio decente in FP64
interessante, grazie ,)
fra l'altro avevo appena letto questo, ma mi pare una stronzata megagalattica:
https://multiplayer.it/notizie/ps5-gpu-2-ghz-14-tflops-potenza-rtx-2080-leak.html
9.2tflop, meno di gooole stadia, maddai :asd:
Ok 7nm+, ma girare a 2ghz in una scatoleta mi pare irreale.
AMD ha il VRM Infineon sbloccato, ed abbastanza tirato (1,2v, quanto i 28nm in pratica), però questo comporta consumi abbastanza marcati.
A 7nm si dovrebbe stare intorno a 0,95v, in linea di massima con la 5700 liscia.
Essendo basto su RDNA, sarà sicuramente un chip con più shader e meno clock, magari proprio a 0,95v.:)
beh, 300w per 128cu per me sono accettabilissimi :D
Si, tra un qualche anno.:p
Cmq una volta che si riuscirà a passare i 4 engine, si potrà passare facilmente il muro die 4096st.
5120st saranno gli shader della 3080ti in linea di massima.:)
arcturus non è una architettura gaming ma hpcEh, magari ho scritto male, parlavo in teoria del game ma facendo riferimento al fatto che non lo erano.
Tu la prenderesti una scheda game da 25tf a con TDP di 300w? 😅😁
interessante, grazie ,)
fra l'altro avevo appena letto questo, ma mi pare una stronzata megagalattica:
https://multiplayer.it/notizie/ps5-gpu-2-ghz-14-tflops-potenza-rtx-2080-leak.html
9.2tflop, meno di gooole stadia, maddai :asd:Dice però che sono come 14tf gcn, mha
Ale55andr0
14-08-2019, 09:07
Io continuo a sperare che nelle prossime console ci sarà un big navi con più SP, frequenze più basse, rdna2 e almeno 13tflop... Sogno!
pure io, ma secondo me si andrà molto vicino a tali specifiche, un sogno ababstanza realizzabile imho. Ci vedo nna big navi leggermente cuttata intorno ai 12tflop
Al costo di un prezzo iniziale più elevato (i sondaggi dicono che la gente si accolla 600€ per la prossima PS) secondo me spingeranno sull'hw più potente possibile per farle durare più a lungo possibile queste console.... che sempre secondo me potrebbero essere le ultime con hw destinato al calcolo piuttosto che allo streaming.
non so se danno retta a questi sondaggi o quanto rappresentino davvero chi poi li spende sul serio e non a chiacchiere, ma per me meglio 599 subito con un bell'hardware pompato che 399 per poi vederti una pro dopo due anni
Dice però che sono come 14tf gcn, mha
per me non staranno mai sotto i 10tflop, a prescindere dall'architettura. E no n staranno certo sotto alla console google
Free Gordon
14-08-2019, 12:31
Per te che interessano le console. neppure ne discuto tanto per ora si parla del nulla sotto questo profilo.:)
https://www.xboxdynasty.de/news/xbox-next/geruecht-scarlett-und-dante-dev-kit-spezifikationen-aufgedeckt/
11,6tflops e 24GB di memoria nella versione "home"..
Beh..considerando Navi10 per pc, son bei numeri, più o meno ciò che mi aspettavo. :)
Solo la bandwith non capisco, solo 560GB/s di bus condiviso mi paion al limite... Cosa monteranno le GDDR6 da 12g invece della 14..? :stordita:
RT: 1 RTC per Compute Unit
Questa la cosa più "strana". Da questo leak parrebbe che con RDNA2 AMD voglia associare un rtcore per ogni CU.
Quindi 56core RT in questa APU... chissà se è vero. :D
Probabilmente una dual GPU compute.;)
Hmm dici una dual..?
Da come parla quello (quello del leak corretto su Navi) parrebbe il chippone prossimo HPC..
Free Gordon
14-08-2019, 12:57
La cosa veramente interessante da capire sarebbe come passano dai core Jaguar agli Zen2 nell'interfaccia con la GPU.. e i vari bus onion e garlic che fine faranno.
Che ruolo avrà l'IF in questa architettura ecc ecc..
Ton90maz
14-08-2019, 13:05
Per te che interessano le console. neppure ne discuto tanto per ora si parla del nulla sotto questo profilo.:)
https://www.xboxdynasty.de/news/xbox-next/geruecht-scarlett-und-dante-dev-kit-spezifikationen-aufgedeckt/
Probabilmente una dual GPU compute.;)Non mi tornano le dimensioni del die. Eventualmente, quanto potrà aumentare la densità in un anno?
Free Gordon
14-08-2019, 13:20
Non mi tornano le dimensioni del die. Eventualmente, quanto potrà aumentare la densità in un anno?
8 core Zen2 custom comprensivi di L3 potrebbero essere sugli 80mmq (dato che i nudi e crudi per pc sono 74).. ma non sappiamo se questi core hanno sempre 16MB ognuno.
La APU è di 400mmq quindi i restanti 320mmq sono di GPU, Mem controller e IF...
320mmq per quella roba @7nm+ potrebbe anche essere...
Ale55andr0
14-08-2019, 13:24
Io sono molto propenso a credere che al dayone le nuove console offriranno una resa simile ad un pc di fascia alta (ho detto simile), al netto di inutili masterrace fatta da dettagli uber/ultra...
per me invece a sto giro i pc "tremeranno", quantomeno quelli da giocatore "medio" e non le configurazioni ultra, perchè non vedo più uno stacco netto ne sui tflop delle gpu ne di potenza della cpu, che avrà anche meno clock, ok, ma considerando quanto possano fare a livello di draw call su console imho compenseranno. Poi lo scatafascio di ram unificata per me sarà una bella inciapet per chi ha la classica vga da 8gb....
Ton90maz
14-08-2019, 13:46
8 core Zen2 custom comprensivi di L3 potrebbero essere sugli 80mmq (dato che i nudi e crudi per pc sono 74).. ma non sappiamo se questi core hanno sempre 16MB ognuno.
La APU è di 400mmq quindi i restanti 320mmq sono di GPU, Mem controller e IF...
320mmq per quella roba @7nm+ potrebbe anche essere...
Dovrebbero far stare in 70 mm quadrati l'hardware per il ray tracing, 16 CU e 128 bit di interfaccia.
mikael84
14-08-2019, 14:55
Dice però che sono come 14tf gcn, mha
Dipende dal tipo di lavoro, carico, istruzioni, non è una legge fisica, ma si arriva a picchi del 1,5/1,55x in base alla ram.
Se fai lo stesso paragone con la VII è totalmente diverso ovviamente (sopratutto alle alte risoluzioni dove una inchioda prima).
11,6tflops e 24GB di memoria nella versione "home"..
Beh..considerando Navi10 per pc, son bei numeri, più o meno ciò che mi aspettavo. :)
Solo la bandwith non capisco, solo 560GB/s di bus condiviso mi paion al limite... Cosa monteranno le GDDR6 da 12g invece della 14..? :stordita:
Potrebbero optare delle 12gb in quanto necessitano di meno tensione, 1,2v contro 1,365v. Alle console interessa più che altro il quantitativo ram che la BW effettiva.
Io che controllo ogni parametro, mediamente in 1440p max, la BW è ferma a 150gb/s in quasi tutti i giochi, salvo dove devi campionate l'MSAA.:)
RT: 1 RTC per Compute Unit
Questa la cosa più "strana". Da questo leak parrebbe che con RDNA2 AMD voglia associare un rtcore per ogni CU.
Quindi 56core RT in questa APU... chissà se è vero. :D
Un RT core ogni 64 shader è la stessa procedura di nvidia, ma non tutti vengono utilizzati, solo una parte di essi.
Navi produce 9,7TF, ovvero 0,97giga rays. L'equivallente di 5 RT core.
Hmm dici una dual..?
Da come parla quello (quello del leak corretto su Navi) parrebbe il chippone prossimo HPC..
Inizialmente ho pensato a 2 chip da 3500st.
Il chip HPC nvidia dovrebbe passare a 6144st, con clock non penso altissimo, troppi shader.
Per ottenere 100INT8 su single chip AMD dovrebbe far boostare a 2050 6144st o 7168st a 1750 su 8 engine. Sinceramente mi pare veramente tanto.
Dovrebbero far stare in 70 mm quadrati l'hardware per il ray tracing, 16 CU e 128 bit di interfaccia.
In proporzione circa 100/105 con i 7nm+
Considera che non scala tutto coem nvidia, scalano solo i core (più cicciotti) ed il doppio MC. niente rop's/l2/ACE etc.
Aldilà dei numeri, spero che AMD tiri fuori il coniglio dal cappello, se non altro per spingere ulteriormente Nvidia sul fronte sviluppo, mi sembra che la grafica stia aumentando di qualità in maniera moltol enta e non prendiamoci in giro ma desideriamo tutti la grafica spaccamascella oltre che ad una buona giocabilità e una longevità adeguata.
mikael84
14-08-2019, 18:47
Aldilà dei numeri, spero che AMD tiri fuori il coniglio dal cappello, se non altro per spingere ulteriormente Nvidia sul fronte sviluppo, mi sembra che la grafica stia aumentando di qualità in maniera moltol enta e non prendiamoci in giro ma desideriamo tutti la grafica spaccamascella oltre che ad una buona giocabilità e una longevità adeguata.
Purtroppo i giochi PC sono legati a quelli console. Per vedere un balzo tecnico bisognerà che la ps5 o xbox evolvano.
Quando programmeranno per queste console, cambierà tutto. Le console, sopratutto le vecchie si portanno tantissimi colli di bottiglia, non solo computazionali.
La potenza non manca di certo, ma se utilizzata solo per salire di risoluzione e frame...
Purtroppo i giochi PC sono legati a quelli console. Per vedere un balzo tecnico bisognerà che la ps5 o xbox evolvano.
Quando programmeranno per queste console, cambierà tutto. Le console, sopratutto le vecchie si portanno tantissimi colli di bottiglia, non solo computazionali.
La potenza non manca di certo, ma se utilizzata solo per salire di risoluzione e frame...Come darti torto, ma se AMD ci fa la grazia... sappiamo tutti che chip montano le console...
Beh insomma con RT al momento ci sono solo mazzette di mezzo, se vedi il video comparativo ... di nVidia .... su control (mi pare) rtx on vs rtx off, su rtx off sembra di vedere un gioco di 20 anni fa.
Inoltre se per poter implementare il raytracing (al di la di nVidia) bisogna sacrificare dettagli e filtri per avere un framerate umano, saremo bis e da capo
Le console c'entrano e non c'entrano, vedi farcry 2 vs farcry 5 (video su YouTube molto esplicativo)In quel video che dici tu, è più una questione di dettagli.
Io farcry 2 ce l'ho ancora e ogni tanto ci gioco, non è così distante come grafica da diversi titoli più moderni ma non si vede solo dalle fiamme o i buchi sulle superfici.
mikael84
14-08-2019, 22:54
Le console c'entrano e non c'entrano, vedi farcry 2 vs farcry 5 (video su YouTube molto esplicativo)
FC2 è solo più curato, gli altri FC sono copia e incolla, giusto per vendere.:)
mikael84
14-08-2019, 23:32
Ma magari avessero fatto un copia incolla, mancano un botto di cose proprio :D
Si vedono le console come il male, io dico che senza di loro il gaming PC come lo conosciamo oggi non ci sarebbe:)
Le console non sono un male, per carità, arrichiscono il parco giochi. Tuttavia lato grafica, devi sempre stare dietro a loro, perchè il motore dev'essere pensato per loro (appena si va oltre, tutto viene castrato /WD ad esempio).
Quando si investiva qualcosa sul PC, i vari F.E.A.R., Oblivion, crysis, quelli si che risaltavano le GPU, senza legarsi a PS2/3.
Abbiamo SSD da 10 anni ormai, CPU potenti, come i sandy bridge da quasi 10 anni, ram a volontà, ed ancora motori senza profondità, sfondini in lontananza, pop-up assurdi e motori riciclati per girare su una 7850.:)
La pS5/xbox, con ssd, cpu decenti, e gpu degna, porterà qualcosa di nuovo, che da anni i PCisti hanno nel case.:)
Ale55andr0
15-08-2019, 09:40
uno Zen2 8 core a 3.2ghz su una console è molto più che una cpu "decente", farebbe quello che non farebbe mai la versione pc a 4ghz per come lo sfrutterebbero :asd:
AceGranger
15-08-2019, 09:51
uno Zen2 8 core a 3.2ghz su una console è molto più che una cpu "decente", farebbe quello che non farebbe mai la versione pc a 4ghz per come lo sfrutterebbero :asd:
uno Zen 8 core su console farebbe automaticamente sfruttare appieno anche uno Zen 8 core su PC, essendo stessa architettura.
se la differenza hardware fra i 2 componenti presi è elevata, "lo scaling" è una chimera sostanzialmente inesistente; se un gioco è pensato per un determinato numero di poligoni e determinate texture quello è, non esiste nessun game engine che ti fa aumentare i poligoni e ti modifica l'unwrap e qualità delle texture di conseguenza, e nessuno sviluppatore farà mai il doppio lavoro per farti avere uno scaling ottimale; "texture quattrokappa" e "tassellazione" attualmente sono solo supercazzole per tentare di arginare una limitazione alla base.
Le console sono una spinta all'aumento della grafica generale dei videogiochi a inizio vita, dopo già un anno sono solo una palla al piede e quel livello te lo tieni fino all'arrivo della nuova generazione.
Ale55andr0
15-08-2019, 10:10
uno Zen 8 core su console farebbe automaticamente sfruttare appieno anche uno Zen 8 core su PC, essendo stessa architettura.
le draw call su pc a quanto ne so non arrivano ai livelli di una console all'atto pratico, non alle fanfare dichiarate da microsoft con le dx12 che a oggi ci hanno dato zero miglioramenti prestazionali rispetto al quadro che ci sbandieravano. Difficilmente su pc immagino una cpu jaguar a 1.6ghz far girare i medesimi giochi sotto windows, men che meno quando ci sta gente che guardando l'utilizzo della cpu vede robe assurde. Non è che perchè la cpu è la stessa voiltà, è tutto automatico
AceGranger
15-08-2019, 10:21
le draw call su pc a quanto ne so non arrivano ai livelli di una console all'atto pratico, non alle fanfare dichiarate da microsoft con le dx12 che a oggi ci hanno dato zero miglioramenti prestazionali rispetto al quadro che ci sbandieravano. Difficilmente su pc immagino una cpu jaguar a 1.6ghz far girare i medesimi giochi sotto windows, men che meno quando ci sta gente che guardando l'utilizzo della cpu vede robe assurde. Non è che perchè la cpu è la stessa voiltà, è tutto automatico
su PC hai solo la perdita data dal fatto che sotto hai un OS vero che gira che è per ovvie ragioni piu pesante di un OS fatto specificatamente per console; non credere che la differenza sia chissa quale, anche perchè le console, anche quando fanno girare miracolosamente un gioco a 1080p 60 fps lo fanno al minimo dei poligoni e al minimo delle texture...
quindi si, la console è ovviamente piu efficiente, ma visto che tanto ormai non escono piu con hardware top in perdita, ma le fanno uscire con hardware medio in pari o gia a ricavo, dopo 1 anno sono gia superate e il problema è che bloccano i miglioramenti per 4-5 anni.
Gyammy85
15-08-2019, 10:45
le draw call su pc a quanto ne so non arrivano ai livelli di una console all'atto pratico, non alle fanfare dichiarate da microsoft con le dx12 che a oggi ci hanno dato zero miglioramenti prestazionali rispetto al quadro che ci sbandieravano. Difficilmente su pc immagino una cpu jaguar a 1.6ghz far girare i medesimi giochi sotto windows, men che meno quando ci sta gente che guardando l'utilizzo della cpu vede robe assurde. Non è che perchè la cpu è la stessa voiltà, è tutto automatico
Certo le dx12 qualcuno dovrebbe anche usarle, finora abbiamo solo forza Horizon 4 e strange Brigade (no, i dx11 dal 2010 "con una patch Nvidia per le dx12 finta ma crediamoci lo stesso" non contano)
Roland74Fun
15-08-2019, 11:24
Il test cpu overhead di 3D Mark versione completa riporta un rapporto draw Calls di circa 10:1 in favore di dx12/vulkan rispetto a dx11.
Ciononostante i giochi che ad oggi mostrano il migliore incremento prestazionale sono quelli nativi dx12/vulkan.
Quelli che sono sia in dx11 che in dx12 generalmente hanno un miglioramento più contenuto se non un peggioramento.
Ma questa è una fase di transizione. Con l'arrico di turing (che per implementare tutte le sue nuove feature richiede dx12) e con le nuove console è ipotizzabile che dx11 venga quasi definitivamente abbandonato entro il prossimo futuro.
Ricordiamoci però cosa sono riusciti a tirare fuori con una 480 depotenziata e una CPU non proprio all'altezza, la prossima PlayStation avrà probabilmente anche 3 volte la potenza di una PS4 pro sotto il cofano e un ecosistema capace di dargli in pasto molti più dati.
La PS4 pro più o meno era la scheda "media" che stava nei PC, la prossima avrà come riferimento una potenziale scheda "media" da 10/12tf ed essendo basata su tecnologia Navi, quei tf saranno più prestanti.
Pensate che tra un anno la massa avrà nel PC una scheda media nel PC che abbia almeno 10tf? Secondo me no e credo che stavolta si alzerà l'asticella della qualità... A meno che non ci rompono le @@ con l' 8K totalmente inutile, speriamo di no.
Ton90maz
15-08-2019, 13:27
Quelle ipotetiche cpu "decenti" a 3.2 GHz potrebbero far finire in discarica una valanga di cpu attuali :asd:
Se cominciassero a sfruttare i threads gli i5 attuali diventerebbero i nuovi core duo.
fraussantin
15-08-2019, 13:56
Quelle ipotetiche cpu "decenti" a 3.2 GHz potrebbero far finire in discarica una valanga di cpu attuali :asd:
Se cominciassero a sfruttare i threads gli i5 attuali diventerebbero i nuovi core duo.Gli i 5 a sei core forse no. Avendo un IPC alto e frequenze da urlo reggeranno ancora un bel po'.
Il problema sono per tutti gli altri soprattutto i ryzen prima serie e ovviamente tutti gli Intel sotto al 8600k.
mikael84
15-08-2019, 14:05
uno Zen2 8 core a 3.2ghz su una console è molto più che una cpu "decente", farebbe quello che non farebbe mai la versione pc a 4ghz per come lo sfrutterebbero :asd:
Quelle ipotetiche cpu "decenti" a 3.2 GHz potrebbero far finire in discarica una valanga di cpu attuali :asd:
Se cominciassero a sfruttare i threads gli i5 attuali diventerebbero i nuovi core duo.
Decenti, nel senso CPU degna, non quelle CPU aborto montate nelle vecchie.
Ton90maz
15-08-2019, 17:59
Gli i 5 a sei core forse no. Avendo un IPC alto e frequenze da urlo reggeranno ancora un bel po'.
Il problema sono per tutti gli altri soprattutto i ryzen prima serie e ovviamente tutti gli Intel sotto al 8600k.Se si ripeterà lo stesso schema l'ipc da solo farà ben poco in mancanza del sufficiente numero di threads. L'unica differenza è che prima avevano la necessità di spingere la programmazione su 6-7 threads, ora avranno molto più margine in single thread.
Free Gordon
15-08-2019, 23:51
Dovrebbero far stare in 70 mm quadrati l'hardware per il ray tracing, 16 CU e 128 bit di interfaccia.
Se consideri un 5% (come dice Mik) rispetto al 7nm DUV e prendi per ipotesi che gli RT core occupino 1/10 dello spazio delle CU, sarebbe poca spesa introdurre 56RT core.
Secondo me c'è anche da considerare che i core Zen2 dentro a Scarlett non avranno 16MB di L3 come le versioni PC, dato che probabilmente sarebbe spazio sprecato.
Comunque vedremo...io spero in almeno 3500sp in Scarlett..
Roland74Fun
16-08-2019, 02:44
Nei dintorni del 4k a momenti manco il Jaguar in alcune situazioni era un limite (fm7, halo 5, titanfall 2, solo per citarne alcuni girano tutti nei pressi del 4k a 60fps su one x), figuriamoci i ryzen prima serie.....In questi giorni mi hanno prestato una PS4 liscia versione slim. Rainbow six siege, CoD MW remastered, Fortnite, girano a 60 FPS.
La grafica è pur sempre a 1080p ed è di una pulizia e di una brillantezZa, impressionante. Almeno sul mio TV.
L'esperienza di gioco è ottima.
Se ottimizzano bene non vedo l'ora di constatare cosa faranno con la prossima generazione.
Gyammy85
16-08-2019, 08:05
Nei dintorni del 4k a momenti manco il Jaguar in alcune situazioni era un limite (fm7, halo 5, titanfall 2, solo per citarne alcuni girano tutti nei pressi del 4k a 60fps su one x), figuriamoci i ryzen prima serie.....
Si deve vedere il rendimento effettivo di quel jaguar con dx12 a basso livello
mircocatta
16-08-2019, 08:26
Le console non sono un male, per carità, arrichiscono il parco giochi. Tuttavia lato grafica, devi sempre stare dietro a loro, perchè il motore dev'essere pensato per loro (appena si va oltre, tutto viene castrato /WD ad esempio).
Quando si investiva qualcosa sul PC, i vari F.E.A.R., Oblivion, crysis, quelli si che risaltavano le GPU, senza legarsi a PS2/3.
Abbiamo SSD da 10 anni ormai, CPU potenti, come i sandy bridge da quasi 10 anni, ram a volontà, ed ancora motori senza profondità, sfondini in lontananza, pop-up assurdi e motori riciclati per girare su una 7850.:)
La pS5/xbox, con ssd, cpu decenti, e gpu degna, porterà qualcosa di nuovo, che da anni i PCisti hanno nel case.:)
dubito che con ps5/xbox scarlett vedremo una netta evoluzione, semplicemente perchè continueranno a sviluppare videogiochi che dovranno girare su pc, sp5, xbox scarlett e l'attuale gen di console, che frenerà il tutto
non è un caso se stanno puntando molto alle esclamazioni del tipo "4k e 120fps"
avremo sempre gli stessi vecchi e riciclati motori grafici, purtroppo
dovremo sperare in game only new gen/pc, ma dubito ne vedremo molti!
Free Gordon
16-08-2019, 13:41
dubito che con ps5/xbox scarlett vedremo una netta evoluzione,
Non subito penso.. ma nel giro di un anno vedremo dei giochi sviluppati ad hoc solo per girare sulle nuove macchine.
Il nuovo Halo ad esempio potrebbe essere tranquillamente il blockbuster grafico con cui presentarsi al grande pubblico per Scarlett. :)
Le console hanno sempre avuto la stessa evoluzione sui multipiatta ma sono i giochi dedicati (ormai pochi, è vero) a fare la differenza.
PS5 ne avrà di più di Scarlett probabilmente, come ne ha avuti di più in questa gen. Vedere Spiderman/GoW,Horizon ecc per credere....
mikael84
16-08-2019, 14:14
dubito che con ps5/xbox scarlett vedremo una netta evoluzione, semplicemente perchè continueranno a sviluppare videogiochi che dovranno girare su pc, sp5, xbox scarlett e l'attuale gen di console, che frenerà il tutto
Inizialmente saranno crossgen, finchè non abbandonerano le scatolette vecchie.
non è un caso se stanno puntando molto alle esclamazioni del tipo "4k e 120fps"
avremo sempre gli stessi vecchi e riciclati motori grafici, purtroppo
Quello è marketing
dovremo sperare in game only new gen/pc, ma dubito ne vedremo molti!
Come detto sopra, inzialmente saranno crossgen con miglioramenti, sopratutto RT.
I primi giochi next gen saranno quelli sviluppati solo sulle nuove console, un pò come successe con AC unity.
Ovviamente si ritornerà sempre punto e a capo, visto che su PC le GPU si evolvono.
Tuttavia sarà l'unico modo per vedere un balzo grafico.
I crysis su PC sono finiti.
Chiudo OT console.;)
Se fosse vero, la 2080ti probabilmente verrà battuta in tempi non biblici.
https://www.google.com/amp/s/www.phonandroid.com/nvidia-lancer-gpu-geforce-rtx-haut-de-gamme.html/amp
Se fosse vero, la 2080ti probabilmente verrà battuta in tempi non biblici.
https://www.google.com/amp/s/www.phonandroid.com/nvidia-lancer-gpu-geforce-rtx-haut-de-gamme.html/amp
Di un eclatante, miracoloso, oserei dire irresponsabile (semicit.) ... 8%
Di un eclatante, miracoloso, oserei dire irresponsabile (semicit.) ... 8%
C'è gente che cambia scheda video per molto meno, eh! :O
Di un eclatante, miracoloso, oserei dire irresponsabile (semicit.) ... 8%Ho scordato la parola che dava senso alla frase... Ovvero che AMD possa battere la 2080ti in tempi non biblici, ho sottointeso un po' troppo 😅
Gyammy85
17-08-2019, 10:34
Ho scordato la parola che dava senso alla frase... Ovvero che AMD possa battere la 2080ti in tempi non biblici, ho sottointeso un po' troppo 😅
Dovrebbe essere contro l'eventuale navi 12
Le console non sono un male, per carità, arrichiscono il parco giochi. Tuttavia lato grafica, devi sempre stare dietro a loro, perchè il motore dev'essere pensato per loro (appena si va oltre, tutto viene castrato /WD ad esempio).
Quando si investiva qualcosa sul PC, i vari F.E.A.R., Oblivion, crysis, quelli si che risaltavano le GPU, senza legarsi a PS2/3.
Abbiamo SSD da 10 anni ormai, CPU potenti, come i sandy bridge da quasi 10 anni, ram a volontà, ed ancora motori senza profondità, sfondini in lontananza, pop-up assurdi e motori riciclati per girare su una 7850.:)
La pS5/xbox, con ssd, cpu decenti, e gpu degna, porterà qualcosa di nuovo, che da anni i PCisti hanno nel case.:)
Penso seriamente che sopravvalutiate il ruolo dell'hardware correlato all'aspetto grafico di un videogioco.
La bellezza di un videogioco e il suo realismo è spesso molto più legato al budget artistico che non agli aspetti tecnologici di un motore grafico.
Modelli ed effetti dettagliati richiedono tempo e soldi via via crescenti, puoi migliorare l'hardware quanto ti pare ma se non hai il budget da investire in modelli, animazioni e texture ed effetti migliori l'hardware rimane poco rilevante.
fraussantin
17-08-2019, 12:34
Penso seriamente che sopravvalutiate il ruolo dell'hardware correlato all'aspetto grafico di un videogioco.
La bellezza di un videogioco e il suo realismo è spesso molto più legato al budget artistico che non agli aspetti tecnologici di un motore grafico.
Modelli ed effetti dettagliati richiedono tempo e soldi via via crescenti, puoi migliorare l'hardware quanto ti pare ma se non hai il budget da investire in modelli, animazioni e texture ed effetti migliori l'hardware rimane poco rilevante.In alcuni open world aumentando l'hw si può fare già con i motori attuali.
Per esempio in odyssey aumentando le risorse hw si poteva migliorare dettagli e qualità di animazioni che sono state evidentemente downgradate rispetto ad origins per fare funzionare il gioco
Idem per tw3 basta solo guardare cosa hanno fatto i modder.
La mia preoccupazione è un altra.
Se sulle console mi ci Piazzi un 8 core decente e una GPU con le palle , i dev inizieranno a fare giochi tecnicamente migliori o semplicemente diminuiranno i costi di ottimizzazione?
AceGranger
17-08-2019, 13:42
In alcuni open world aumentando l'hw si può fare già con i motori attuali.
Per esempio in odyssey aumentando le risorse hw si poteva migliorare dettagli e qualità di animazioni che sono state evidentemente downgradate rispetto ad origins per fare funzionare il gioco
Idem per tw3 basta solo guardare cosa hanno fatto i modder.
La mia preoccupazione è un altra.
Se sulle console mi ci Piazzi un 8 core decente e una GPU con le palle , i dev inizieranno a fare giochi tecnicamente migliori o semplicemente diminuiranno i costi di ottimizzazione?
i fantomatici "costi di ottimizzazione" non esistono, nel senso che:
una volta che hai in mano i dev kit riesci a farti un'idea abbastanza chiara di quanti poligoni, quanti Kbyte di texture e che tipo di fisica riesce a far girare quel determinato hardware e ti regoli di conseguenza;
una volta che poi testi le varie parti del gioco vedi bene o male dove ci sono problemi particolari e vai di downgrade selettivo in quei punti dove si è "sbagliato" o, come si vede in molti giochi, te ne freghi e lasci il momentaneo calo di frame.
Non c'è molta differenza fra gestire un modello Low-Poly e un modello Hi-Poly, sopratutto quando si parte da modelli ricavati mediante fotogrammetria o animazioni con base Motion Capture, che sono entrambe tecniche alla base dei titoli AAA.
Generalmente, tutti gli sviluppatori tendono sempre a offrire il meglio della grafica che possono, perchè alla fine è uno dei parametri principali per i quali la massa sceglie un gioco.
shocker94
20-08-2019, 10:29
Vale la pena passare da una 1080ti ad una 5700xt? Sinceramente, di prendere un'altra nvidia non ne ho voglia, però sono preoccupato di perdere qualcosa con la 5700xt.
Inviato dal mio Redmi Note 7 utilizzando Tapatalk
Gyammy85
20-08-2019, 10:36
Vale la pena passare da una 1080ti ad una 5700xt? Sinceramente, di prendere un'altra nvidia non ne ho voglia, però sono preoccupato di perdere qualcosa con la 5700xt.
Inviato dal mio Redmi Note 7 utilizzando Tapatalk
Guadagneresti qualcosa in dx12 e vulkan, consumeresti meno e col bonus del Radeon image sharpening, oltre a un pannello driver del 2019 chill frtc e supporto migliore al freesync
shocker94
20-08-2019, 10:40
Guadagneresti qualcosa in dx12 e vulkan, consumeresti meno e col bonus del Radeon image sharpening, oltre a un pannello driver del 2019 chill frtc e supporto migliore al freesyncPeccato che i giochi dx12 e vulkan siano pochissimi.
Freesync, purtroppo, non potrò usarlo, avendo un monitor GSYNC. Ma, va beh, mi arrangerò col sync veloce.
Inviato dal mio Redmi Note 7 utilizzando Tapatalk
AceGranger
20-08-2019, 11:01
Vale la pena passare da una 1080ti ad una 5700xt? Sinceramente, di prendere un'altra nvidia non ne ho voglia, però sono preoccupato di perdere qualcosa con la 5700xt.
Inviato dal mio Redmi Note 7 utilizzando Tapatalk
sinceramente, ma sei serio :mbe: ?
meno prestazioni, meno Vram, piu db e l'unica cosa che guadagneresti sarebbero 30W di consumi
https://www.hwupgrade.it/articoli/skvideo/5479/amd-radeon-rx-5700xt-e-rx-5700-navi-in-comparativa-con-23-schede-video_index.html
https://www.techpowerup.com/review/amd-radeon-rx-5700-xt/28.html
https://www.techspot.com/review/1896-msi-radeon-5700-xt-evoke/
a maggior ragione che hai pure un monitor GSync e la 1080Ti aumenta il divario al salire della risoluzione.
shocker94
20-08-2019, 11:04
sinceramente, ma sei serio :mbe: ?
meno prestazioni, meno Vram, piu db e l'unica cosa che guadagneresti sarebbero 30W di consumi
https://www.hwupgrade.it/articoli/skvideo/5479/amd-radeon-rx-5700xt-e-rx-5700-navi-in-comparativa-con-23-schede-video_index.html
https://www.techpowerup.com/review/amd-radeon-rx-5700-xt/28.html
https://www.techspot.com/review/1896-msi-radeon-5700-xt-evoke/Più che altro è per avere una gpu più longeva che, quasi sicuramente, supererà la 1080ti nel tempo (sempre che Nvidia non accelleri i tempi).
Inviato dal mio Redmi Note 7 utilizzando Tapatalk
AceGranger
20-08-2019, 11:12
Più che altro è per avere una gpu più longeva che, quasi sicuramente, supererà la 1080ti nel tempo (sempre che Nvidia non accelleri i tempi).
Inviato dal mio Redmi Note 7 utilizzando Tapatalk
attualmente la 1080Ti sta avanti anche in alcuni titoli DX12 e il divario medio va dal 7% in FHD al 12% in 4K.
ammesso anche di recuperare il 10% del 1440p andresti in pari, essendo pure super ottimisti e di guadagnare un ulteriore 5%, seriamente tu butteresti nel cesso ora dei soldi per avere un cacato 5% molto ottimistico fra minimo 2 anni :mbe: ?
anche se prendi al situazione piu favorevole di tutte che è Vulkan, Wolfenstein: Youngblood a 1440p la 1080Ti fa 135 fps la 5700XT ne fa 139... e in 4K la 1080 TI ne fa 74 e la 5700XT ne fa 76...
o spendi e fai un salto vero o tieniti i soldi e aspetta l'anno prossimo.
shocker94
20-08-2019, 11:14
attualmente la 1080Ti sta avanti anche in titoli DX12 e il divario medio va dal 7% in FHD al 12% in 4K.
ammesso anche di recuperare il 10% del 1440p andresti in pari, essendo pure super ottimisti e di guadagnare un ulteriore 5%, seriamente tu butteresti nel cesso ora dei soldi per avere un cacato 5% molto ottimistico fra minimo 2 anni :mbe: ?
o spendi e fai un salto vero o tieniti i soldi e aspetta l'anno prossimo.Il cambio lo farei senza rimettere 1 euro. Ma comunque sia, credo che mi terrò la 1080ti
Inviato dal mio Redmi Note 7 utilizzando Tapatalk
mircocatta
20-08-2019, 11:34
avrebbe poco senso passare da 1080 liscia a 5700xt, figuriamoci se si possiede una Ti :stordita:
Gyammy85
20-08-2019, 11:35
sinceramente, ma sei serio :mbe: ?
meno prestazioni, meno Vram, piu db e l'unica cosa che guadagneresti sarebbero 30W di consumi
https://www.hwupgrade.it/articoli/skvideo/5479/amd-radeon-rx-5700xt-e-rx-5700-navi-in-comparativa-con-23-schede-video_index.html
https://www.techpowerup.com/review/amd-radeon-rx-5700-xt/28.html
https://www.techspot.com/review/1896-msi-radeon-5700-xt-evoke/
a maggior ragione che hai pure un monitor GSync e la 1080Ti aumenta il divario al salire della risoluzione.
Menomale che i siti fanno le medie va
Ma poi i watt risparmiati in game sono molto più di 30 eh
mircocatta
20-08-2019, 11:38
Menomale che i siti fanno le medie va
Ma poi i watt risparmiati in game sono molto più di 30 eh
si ma gyammy, dai, da qui a pensare che valga il cambio ne passa di acqua :asd:
Gyammy85
20-08-2019, 11:45
si ma gyammy, dai, da qui a pensare che valga il cambio ne passa di acqua :asd:
Ci sono tutte le altre feature da considerare, poi certo la differenza non è molta
shocker94
20-08-2019, 11:46
Menomale che i siti fanno le medie va
Ma poi i watt risparmiati in game sono molto più di 30 ehHo una reference abbastanza stretta di powerlimit, più di 300w non fa. In game sta sui 230/250 di solito.
Inviato dal mio Redmi Note 7 utilizzando Tapatalk
Gyammy85
20-08-2019, 11:56
Ho una reference abbastanza stretta di powerlimit, più di 300w non fa. In game sta sui 230/250 di solito.
Inviato dal mio Redmi Note 7 utilizzando Tapatalk
La xt consuma meno di una 580 sta sui 150 watt di gpu, ce ne vuole per arrivare a 250
AceGranger
20-08-2019, 11:59
Ci sono tutte le altre feature da considerare, poi certo la differenza non è molta
ha gia il Gsync e quindi non guadagnerebbe nulla dal Freesync e con ReShade puo usare lo sharpening anche con la 1080Ti.
non esistono motivazioni sensate e intelligenti per un cambio in negativo.
La xt consuma meno di una 580 sta sui 150 watt di gpu, ce ne vuole per arrivare a 250
HWUpgrade non la pensa come te.
Gyammy85
20-08-2019, 12:02
ha gia il Gsync e quindi non guadagnerebbe nulla dal Freesync e con ReShade puo usare lo sharpening anche con la 1080Ti.
non esistono motivazioni sensate e intelligenti per un cambio in negativo.
HWUpgrade non la pensa come te.
Solo che il ris è migliore di tutti gli altri sharpener esistenti
mircocatta
20-08-2019, 12:08
anche io ho una 1080ti e non mi sognerei mai di prendere una 5700xt che generalmente va meno, suvvia :asd:
piuttosto aspetto speranzoso (visto cosa c'è di buono con le 5700xt) per le 5800xt oppure direttamente rdna2
AceGranger
20-08-2019, 12:10
Solo che il ris è migliore di tutti gli altri sharpener esistenti
tralasciando che non è vero ed è la tua solita sparata, non hai capito che puo usare quello di AMD visto che è utilizzabile in ReShade :asd:
https://reshade.me/forum/shader-discussion/5577-new-contrast-adaptive-sharpening-from-amd#34976
shocker94
20-08-2019, 12:32
tralasciando che non è vero ed è la tua solita sparata, non hai capito che puo usare quello di AMD visto che è utilizzabile in ReShade :asd:
https://reshade.me/forum/shader-discussion/5577-new-contrast-adaptive-sharpening-from-amd#34976Non lo sapevo. Scarico subito. Grazie.
Inviato dal mio Redmi Note 7 utilizzando Tapatalk
Gyammy85
20-08-2019, 13:19
tralasciando che non è vero ed è la tua solita sparata, non hai capito che puo usare quello di AMD visto che è utilizzabile in ReShade :asd:
https://reshade.me/forum/shader-discussion/5577-new-contrast-adaptive-sharpening-from-amd#34976
Techspot ha testato il ris e ha confermato che è il migliore, pure contro lo sharpener di Nvidia.
Poi reshade non è compatibile con le dx12, ma vabbè, chiudiamola qua
mikael84
20-08-2019, 14:15
La xt consuma meno di una 580 sta sui 150 watt di gpu, ce ne vuole per arrivare a 250
La XT sta a 225 circa per via del regolatore infineon sparato alto (1,164/1,2v).
La liscia consuma meno (165/185w) in quanto rientra nei parametri migliori del VRM 0,97v e relativo clock.;)
Siamo arrivati al punto di non ritorno dove viene consigliata una 5700XT per sostituire una 1080TI.
AceGranger
20-08-2019, 14:50
Techspot ha testato il ris e ha confermato che è il migliore, pure contro lo sharpener di Nvidia.
Poi reshade non è compatibile con le dx12, ma vabbè, chiudiamola qua
Tech spot ha concluso cosi:
"This is just a subjective analysis though, so you can go through and see which technique you prefer. For many people everything might look pretty similar, in which case it really doesn’t matter which filter you use for sharpening."
visto che c'è chi preferisce un filtro piu forte e chi uno blando.
la parte dove è migliore è nelle risosrse richieste inferiori a quelle di Freestyle di nVidia che richiede il 4-5% in piu, ma per il semplice fatto che Freestyle di nVidia permette di regolare altri filtri e non solo lo sharpening.
ReShade ha iniziato a introdurre il supporto alle DX12 dalla 4.3.0
quindi si, finiamola qui che tanto ti inventi sempre le cose.
alzi la mano chi sapesse di freestyle prima che amd introducesse il ris
alzi la mano chi sapesse di freestyle prima che amd introducesse il ris
Mai usato sharpener in vita mia, proverò :asd:
Gyammy85
20-08-2019, 16:11
Tech spot ha concluso cosi:
"This is just a subjective analysis though, so you can go through and see which technique you prefer. For many people everything might look pretty similar, in which case it really doesn’t matter which filter you use for sharpening."
visto che c'è chi preferisce un filtro piu forte e chi uno blando.
la parte dove è migliore è nelle risosrse richieste inferiori a quelle di Freestyle di nVidia che richiede il 4-5% in piu, ma per il semplice fatto che Freestyle di nVidia permette di regolare altri filtri e non solo lo sharpening.
ReShade ha iniziato a introdurre il supporto alle DX12 dalla 4.3.0
quindi si, finiamola qui che tanto ti inventi sempre le cose.
Si si, certo. :rolleyes: :rolleyes:
alzi la mano chi sapesse di freestyle prima che amd introducesse il ris
:asd: :asd: e no c'era solo il "deep learning tensor ai corez rt anti aliaising"
Gyammy85
20-08-2019, 17:00
effettivamente il DLSS, la seconda "killer features" che "meglio averla che non" non se lo sta cag....ndo più nessuno, addirittura nvidia tira fuori un nuovo sharpener software via driver... mah.... :stordita:
p.s.
sono usciti i nuovi uberdriver nvidia che vantano interessanti incrementi prestazionali, nuove features (a quanto pare l'impostazione ULTRA su low latency è equivalente all'amd anti lag) ecc ecc...
Già provati, meravigliosi
https://www.guru3d.com/news-story/quicktest-geforce-436-02-gamescom-in-battlefield-vstrange-brigade-and-formula-1.html
Radeon Sharpening è interessante (e averlo integrato nei driver attivabile/disattivabile in qualsiasi momento con una shortcut da tastiera è comoderrimo) ma la 1080ti in gsync resta preferibile alla 5700XT in fastsync...
Se è una FE rumorosetta al massimo si potrebbe fare un sidegrade passando ad una 2070 super (che però pare siano molto difficili da trovare) o spendere dei soldi per una 2080/2080S.
Io una TI la cambierei solo con una TI, poi ognuno può fare quel che vuole :D
Detto da uno che ha la 2080 liscia.
Ale55andr0
20-08-2019, 18:17
AmD, escila la 5800 :O
Free Gordon
21-08-2019, 04:00
Il cambio lo farei senza rimettere 1 euro. Ma comunque sia, credo che mi terrò la 1080ti
Il cambio non ha alcun senso...
Certo, se ti costa ZERO, tutto può avere senso ma già solo lo sbattimento software non vale la pena imho.. :D
fraussantin
21-08-2019, 06:04
alzi la mano chi sapesse di freestyle prima che amd introducesse il ris🖐️
È quasi un annetto che lo uso ovviamente solo per lo sharpen in dx12 .
I settaggi di default fanno ampiamente cagare ma piccole correzioni sono un toccasana per risolvere le magagne di questi antialiasing blurrosi
L'unico difetto di freestyle è che non funziona in tutti i giochi ma a differenza di reshade funziona in dx12.
Ale55andr0
21-08-2019, 07:20
Il cambio non ha alcun senso...
Certo, se ti costa ZERO, tutto può avere senso ma già solo lo sbattimento software non vale la pena imho.. :D
ma manco in pari, perde solo prestazioni nella maggior parte dei casi e 3 gb di ram che fanno comodo in diversi scenari.
#AMDescila5800
Gyammy85
21-08-2019, 07:31
ma manco in pari, perde solo prestazioni nella maggior parte dei casi e 3 gb di ram che fanno comodo in diversi scenari.
#AMDescila5800
Non sia mai che uno provi una AMD se non va 10x la scheda che aveva prima, e manco ha lerretix :asd:
E la 5800?? "Eh ma non ha rtx e poi se uno voleva spendere tanto lo spendeva prima pure se non voleva che la concorrenza non c'eraaaaaa"
🖐️
È quasi un annetto che lo uso ovviamente solo per lo sharpen in dx12 .
I settaggi di default fanno ampiamente cagare ma piccole correzioni sono un toccasana per risolvere le magagne di questi antialiasing blurrosi
L'unico difetto di freestyle è che non funziona in tutti i giochi ma a differenza di reshade funziona in dx12.
ma fa parte del pacchetto geforce experience?
majinbu7
21-08-2019, 07:40
Non sia mai che uno provi una AMD se non va 10x la scheda che aveva prima, e manco ha lerretix :asd:
E la 5800?? "Eh ma non ha rtx e poi se uno voleva spendere tanto lo spendeva prima pure se non voleva che la concorrenza non c'eraaaaaa"
Per l'amor del cielo...ok voler provare una AMD , ma se per farlo devi perdere in prestazioni / 3gb di Ram e rinunciare al G-sync ...beh forse sarebbe meglio aspettare tempi migliori e magari puntare ad una futura AMD , dove guadagnerà quanto meno in prestazioni .
Ale55andr0
21-08-2019, 10:38
Non sia mai che uno provi una AMD se non va 10x la scheda che aveva prima, e manco ha lerretix :asd:
ma che razza di commento è? certo che prosso (certo non io che le ho avute per tipo 10 anni ed era ora che provassi green dopo la tnt2 ultra nel mesozoico :asd:) provare una AMD, ma una dello stesso segmento prestazionale, mica un modello più lento, non ha senso :rolleyes:
E la 5800?? "Eh ma non ha rtx e poi se uno voleva spendere tanto lo spendeva prima pure se non voleva che la concorrenza non c'eraaaaaa"
ma che stracacchiaccio c'entra? Cioè posto un commento perchè mi interessa una ipotetica 5800 e inizi col delirio da mestruo. Santo iddio gyammy anche quando uno si alza con la "buona volontà", sopporta il caldo, le zanzare, poi te ne esci con ste sparate senza senso che ci azzeccano come il ciucco :muro:
Porca di una vacca, sei la peggiore risma di fanboy che io abbia mai letto sulla rete, e si che navigo da eoni :muro:
Qua chiudo che già mi sono rotto le pelotas di leggere le tue sparate allucinanti e disagiate al pronti via, te ne torni in ignore, basta, ci ho provato ma non ti si regge, o quantomeno non io.
Gyammy85
21-08-2019, 11:04
Chiedo scusa, non volevo offenderti
Siamo arrivati al punto di non ritorno dove viene consigliata una 5700XT per sostituire una 1080TI.
Beh, avessi sostituito la gtx 670 con una 7870 che era molto più lenta alla release mi avrebbe dato una gpu decisamente più longeva.
Però sono d'accordo che sia un cambio senza senso.
Se uno è stanco di Nvidia basta aspettare la prossima gpu amd, io le gpu le cambio solo per salti di 50%+ ALMENO, cambiare per fare 33 fps quando se ne facevano 31 o farne 108 quando se ne facevano 100 mi sembrano differenze inesistenti.
Beh, avessi sostituito la gtx 670 con una 7870 che era molto più lenta alla release mi avrebbe dato una gpu decisamente più longeva.
Però sono d'accordo che sia un cambio senza senso.
Se uno è stanco di Nvidia basta aspettare la prossima gpu amd, io le gpu le cambio solo per salti di 50%+ ALMENO, cambiare per fare 33 fps quando se ne facevano 31 o farne 108 quando se ne facevano 100 mi sembrano differenze inesistenti.
Hai centrato il punto. Tra l'altro una 1080ti non la cambierei nemmeno con una 2080, ma solo con una 2080ti.
pensa un pò, avevo fatto proprio qualche giorno fa un esempio a chi mi sbatteva in faccia "l'8% in più, da recensione, della 2070S rispetto alla 5700XT" proprio con gli stessi numeri, 100fps vs 108fps dicendo che non fosse una svolta.... ma evidentemente non la pensano tutti così :)
Per me questi numeri, ma sarò onesto, anche 20% sono poco rilevanti. 20% significa fare 72 fps quando l'altra gpu ne fa 60..L'esperienza di gioco quella è...Se devi spenderci soldi per quel 20% abbassa uno dei mille filtri inutili e senza impatto visivo di cui sono pieni i videogiochi e dormi contento..
Dovessi comprare una gpu oggi semmai guarderei i giochi specifici. Gioco tanto a Rainbow Six..? Guardiamo come va su Rainbow Six. Gioco tanto a Destiniy 2? Vediamo quanto va in Destiny 2. Ma figuriamoci mettersi a fare le guerre di religione per un 10% di performance.
Credo che a quel punto le feature secondare come reshader, rtx o quello che uno preferisce e consumi/calore siano molto più rilevanti di 10/15 ma anche 20% fps.
Volessi una gpu oggi prenderei una 5700 di quelle belle fresche silenziose, la downvolto e downclocko, spengo fraps e gioco felice senza sentire il minimo rumore provenire dal pc..
Capisco che specie su un forum di entusiasti di hardware ci sono persone con altre esigenze, ma a me onestamente i videogiochi sono 7/8 anni che mi sembrano uguali graficamente e no, non credo il problema sia l'hardware o le console. Ma è da Arkham City che non mi è più capitato di cambiare gpu per un videogioco perchè mi sembrava davvero bello visivamente.
Gyammy85
27-08-2019, 21:07
Altro leak di navi 14, questo stranamente con 3 giga di vram
https://twitter.com/KOMACHI_ENSAKA/status/1166310860857307136
Immagino sempre minimo 4 giga sarà un refuso
Altro leak di navi 14, questo stranamente con 3 giga di vram
https://twitter.com/KOMACHI_ENSAKA/status/1166310860857307136
Immagino sempre minimo 4 giga sarà un refuso
non ho capito dove si piazza a livello di performance.
Gyammy85
28-08-2019, 13:02
non ho capito dove si piazza a livello di performance.
1660ti immagino
Free Gordon
28-08-2019, 16:04
White paper di Navi
https://www.amd.com/system/files/documents/rdna-whitepaper.pdf
Mik facci sapere cosa c'è di bello secondo te. :sofico:
Ton90maz
29-08-2019, 12:08
Qui dice che il fillrate e il culling delle primitive sono superiori rispetto alla 131 :oink:
Free Gordon
29-08-2019, 13:33
Q2 c'è il sorpasso di AMD su Nvidia?
Avranno venduto più portatili con AMD?
Domanda... ;)
majinbu7
29-08-2019, 13:39
Direi che è giusto così...alla fine le controparti Nvidia hanno prezzi troppo alti, con Navi AMD ha trovato un'ottimo rapporto prezzo/prestazioni, almeno per quanto riguarda la piega del mercato attuale.
ninja750
29-08-2019, 13:41
votate le feature che vorreste vedere nei prossimi driver:
https://www.feedback.amd.com/se/5A1E27D203B57D32
Legolas84
29-08-2019, 13:42
Guardate che ci sono anche le integrate li.... infatti anche in passato AMD stava sopra.
Bisogna vedere il grafico delle sole schede discrete per avere una visione attendibile. :)
Free Gordon
29-08-2019, 13:42
Direi che è giusto così...alla fine le controparti Nvidia hanno prezzi troppo alti, con Navi AMD ha trovato un'ottimo rapporto prezzo/prestazioni, almeno per quanto riguarda la piega del mercato attuale.
Q2 2019... non c'entra nulla Navi...
Free Gordon
29-08-2019, 13:43
Guardate che ci sono anche le integrate li.... infatti anche in passato AMD stava sopra.
Bisogna vedere il grafico delle sole schede discrete per avere una visione attendibile. :)
Infatti facevo la domanda di cui sopra.. proprio per quello..
Anche perché Navi è uscito a Luglio...
Legolas84
29-08-2019, 13:45
I Ryzen hanno la gpu integrata? Perchè in quel caso è facile supporre che ne abbiano venduti un botto visto che sono buone cpu....
Free Gordon
29-08-2019, 13:50
I Ryzen hanno la gpu integrata? Perchè in quel caso è facile supporre che ne abbiano venduti un botto visto che sono buone cpu....
eh no... è solo raven ridge che ha l'iGPU..
quindi dev'essere un risultato legato ai notebook.
FINALMENTE aggiungerei... in effetti solo da quest'anno nei vari centri ho visto una buona offerta di notebook con AMD. :)
Ci hanno messo 2 anni ma pian pianino stanno arrivando ai risultati che "contano", cioè erodere quote nel mercato mobile Intel (server lo stavano già facendo dall'uscita dei primi Epyc).
Andy1111
29-08-2019, 13:56
votate le feature che vorreste vedere nei prossimi driver:
https://www.feedback.amd.com/se/5A1E27D203B57D32
bella questa queste due sicuramente :
Radeon Anti-Lag Expanded Support for Products or APIs
ReLive HDR Support
io le ho messe tutte :D :D
queste 2 cmq mi interessano molto l'anti-lag lo sto usando su odyssey e anche se ho un hdr 400 sto usando anche l'HDR con freesync 2 e non è per nulla male
https://steamcommunity.com/profiles/76561198067560131/screenshots/?appid=812140&sort=newestfirst&browsefilter=myfiles&view=imagewall tutti screen con hdr on usando la modalità foto del gioco
AceGranger
29-08-2019, 16:17
Direi che è giusto così...alla fine le controparti Nvidia hanno prezzi troppo alti, con Navi AMD ha trovato un'ottimo rapporto prezzo/prestazioni, almeno per quanto riguarda la piega del mercato attuale.
non centra nulla il costo delle GPU nVidia, visto che dal Q4 2018 è in salita e prima costavano pure di piu...
è AMD che sta vendendo piu CPU con grafica integrata a discapito di Intel che sta crollando.
eh no... è solo raven ridge che ha l'iGPU..
quindi dev'essere un risultato legato ai notebook.
intel sta vendendo molte meno CPU di fascia bassa e media.
voglio dire è abbastanza chiaro quel grafico, nVidia è stabile, Intel è crollata e AMD è salita... la salita repentina di AMD corrisponde al crollo repentino di Intel.
Gyammy85
29-08-2019, 18:25
non centra nulla il costo delle GPU nVidia, visto che dal Q4 2018 è in salita e prima costavano pure di piu...
è AMD che sta vendendo piu CPU con grafica integrata a discapito di Intel che sta crollando.
intel sta vendendo molte meno CPU di fascia bassa e media.
voglio dire è abbastanza chiaro quel grafico, nVidia è stabile, Intel è crollata e AMD è salita... la salita repentina di AMD corrisponde al crollo repentino di Intel.
Si ma non è che sono tutte apu, ci sono pure le discrete. È così difficile ammettere che ne vendono di più?
Nel Q3 ci sarà da ridere
AceGranger
29-08-2019, 19:02
Si ma non è che sono tutte apu, ci sono pure le discrete. È così difficile ammettere che ne vendono di più?
Nel Q3 ci sarà da ridere
nVidia non è scesa e, visto che NON si vendono piu GPU del passato, non sta vendendo piu discrete.
ninja750
29-08-2019, 19:13
nVidia non è scesa e, visto che NON si vendono piu GPU del passato, non sta vendendo piu discrete.
la penso come te, non credo siano aumentate le vendite di 580 né delle 5700 che sono ancora sovraprezzate
Free Gordon
30-08-2019, 03:24
voglio dire è abbastanza chiaro quel grafico, nVidia è stabile, Intel è crollata e AMD è salita... la salita repentina di AMD corrisponde al crollo repentino di Intel.
Sì ma credo siano APU mobili e non desktop.. ;)
E' questo il dato importante.
nVidia non è scesa e, visto che NON si vendono piu GPU del passato, non sta vendendo piu discrete.
Infatti dal grafico è abbastanza chiaro che ha rosicchiato quote ad Intel. Probabilmente nel settore mobile e qualcosina nel desktop low con le apu.
mircocatta
30-08-2019, 08:10
Infatti dal grafico è abbastanza chiaro che ha rosicchiato quote ad Intel. Probabilmente nel settore mobile e qualcosina nel desktop low con le apu.
o sono cieco o non capisco di che grafico state parlando :asd:
majinbu7
30-08-2019, 08:38
o sono cieco o non capisco di che grafico state parlando :asd:
Non c'è più perchè era stato messo dal solito fake account, che è stato bannato e post cancellato.
o sono cieco o non capisco di che grafico state parlando :asd:
Credo stiano parlando di questo
https://www.tomshw.it/hardware/amd-batte-nvidia-per-la-prima-volta-dal-2014/
Piedone1113
31-08-2019, 13:42
Infatti dal grafico è abbastanza chiaro che ha rosicchiato quote ad Intel. Probabilmente nel settore mobile e qualcosina nel desktop low con le apu.
Nel report parla anche di contrazione vendite tablet ( probabilmente riferite al solo mercato x86 e totalmente in mano ad intel) e di una contrazione dei desktop.
Quindi credo che l'aumento di AMD sia dovuto in parte alle grafiche integrate, ma anche alle gpu discrete ( sia notebook che desktop) con un -0,2% di nvidia.
Considerando anche che il mercato desktop ha avuto una contrazione del 3% e che amd ha avuto un netto balzo in avanti con ryzen3000 probabilmente le fluttuazioni sono assorbite dalla fascia bassa delle vga ( sia amd che nvidia) perchè le apu amd non hanno avuto una penetrazione del 20% nei pc e notebook ( altrimenti amd sarebbe al 50% del mercato cpu totale mentre invece è solo poco sopra il 20%)
Insomma un leggero guadagno di share con la grafica integrata sui notebook ed un deciso guadagno sulle discrete di fascia bassa a spese di intel, ma anche di nvidia ( anche se molto marginale)
Gyammy85
31-08-2019, 18:20
E devono essere per forza di fascia bassa, se no dovremmo ammettere che nvidia non venda in fascia alta :asd:
Certo che è strano, fino a ieri AMD era zero nel mobile e ora no
Comunque zen 2 e navi non ci sono visto che sono stati lanciati nel q3
E devono essere per forza di fascia bassa, se no dovremmo ammettere che nvidia non venda in fascia alta :asd:
Certo che è strano, fino a ieri AMD era zero nel mobile e ora no
Comunque zen 2 e navi non ci sono visto che sono stati lanciati nel q3Strano non lo è, con le vendite in ascesa per il brand Ryzen, ai venditori si è aperto un canale di vendita verso AMD, le persone meno informate si sono viste apparire davanti agli occhi e sotto il naso una "nuova" CPU ed hanno associato finalmente il tutto anche per le GPU AMD, molto probabilmente sui portatili, anche gli OEM spingeranno sempre di più AMD, paghi meno, margine più elevato in vendita.
La percezione dell'uomo sulla realtà ha dell'incredibile.
fraussantin
01-09-2019, 14:08
Strano non lo è, con le vendite in ascesa per il brand Ryzen, ai venditori si è aperto un canale di vendita verso AMD, le persone meno informate si sono viste apparire davanti agli occhi e sotto il naso una "nuova" CPU ed hanno associato finalmente il tutto anche per le GPU AMD, molto probabilmente sui portatili, anche gli OEM spingeranno sempre di più AMD, paghi meno, margine più elevato in vendita.
La percezione dell'uomo sulla realtà ha dell'incredibile.Anche il fatto che sono pcie4 ha aiutato le vendite , ho letto in giro di gente ah meglio abbinarci una 5700 è pcie4. ( Senza poi sapere manco cosa è )
Si sa qualcosa della fascia media e bassa? Tipo 5600 e 5500?
Inviato dal mio Mi A2 Lite utilizzando Tapatalk
Gyammy85
01-09-2019, 20:44
Si sa qualcosa della fascia media e bassa? Tipo 5600 e 5500?
Inviato dal mio Mi A2 Lite utilizzando Tapatalk
Ecco le ultime info su navi 14 (5600)
https://twitter.com/coreteks/status/1168186270293602304?s=19
Tutte con gddr6, forse 24 cu...la 3 giga solo per OEM e cina
Anche il fatto che sono pcie4 ha aiutato le vendite , ho letto in giro di gente ah meglio abbinarci una 5700 è pcie4. ( Senza poi sapere manco cosa è )Infatti, chi ha conoscenza acquista con giudizio, gli altri si affidano alla pubblicità.
Piedone1113
02-09-2019, 10:23
E devono essere per forza di fascia bassa, se no dovremmo ammettere che nvidia non venda in fascia alta :asd:
Certo che è strano, fino a ieri AMD era zero nel mobile e ora no
Comunque zen 2 e navi non ci sono visto che sono stati lanciati nel q3
Nvidia non vende in fascia alta ( se parliamo delle rtx) a confermarlo le dichiarazioni di nvidia stessa che parlano di vendite sotto le attese
AceGranger
02-09-2019, 10:40
Nvidia non vende in fascia alta ( se parliamo delle rtx) a confermarlo le dichiarazioni di nvidia stessa che parlano di vendite sotto le attese
a Gennaio in riferimento al Q4 2018; poi i trimestri sono stati sopra le attese e in salita, mentre il q4 era la parte terminale della discesa e ancora c'erano in giro le scorte di Pascal.
ora,va bene tutto ma...
se il fatturato TOTALE, e ribadiamolo TOTALE, quindi con ZEN, EPYC, GPU, RADEON PRO, CHIP Console etc. etc. di AMD nel Q2 è stato di 1,5 Miliardi e nello stesso periodo il solo fatturato delle GeForce è stato di 1,3 Miliardi
e se la divisione Computing and Graphic di AMD ha fatturato 940 Milioni, visto che sta vendendo come il pane RYZEN fate un po voi le stime di quale possa essere il fatturato della parte GPU,
chi vendera mai piu GPU ?
perchè sono 2 le cose, o le vende in nero sottobanco o una della 2, CPU o GPU, non sta vendendo tanto, seno il fatturato sarebbe BEN OLTRE i 940 Milioni
e giusto per raffronto, il Q2 2018 di nVidia, quello di 2 anni fa fuori dalla bolla Mining e in normale vendita di Pascal, era di 1,2 Miliardi ( ovviamente per le sole GeForce ).
Free Gordon
02-09-2019, 12:56
Avete i dati del fatturato totale di Nvidia?
Geforce + Quadro ecc ecc?
cronos1990
02-09-2019, 13:02
Avevo letto poco tempo fa un'articolo dove in effetti si parlava di fatturato in contrazione per Nvidia da qualche tempo e difficoltà di vendita delle GPU RTX... che si accoppiava con un articolo ancor più datato che dava le stesse notizie. Ma non ricordo i link e neanche il contenuto preciso, in fin dei conti mi frega zero del bilancio delle società, mi interessa di più le schede che tirano fuori.
In ogni caso era confermato un calo del fatturato e della vendita delle GPU, ma si affermava anche che il bilancio era comunque in attivo.
AceGranger
02-09-2019, 13:19
Avete i dati del fatturato totale di Nvidia?
Geforce + Quadro ecc ecc?
1,3 Miliardi GeForce
300 Milioni QUADRO
650 Milioni TESLA
200 Milioni Automotive
100 Milioni OEM & IP
totale 2,5 Miliardi utili 550 Milioni
Avevo letto poco tempo fa un'articolo dove in effetti si parlava di fatturato in contrazione per Nvidia da qualche tempo e difficoltà di vendita delle GPU RTX... che si accoppiava con un articolo ancor più datato che dava le stesse notizie. Ma non ricordo i link e neanche il contenuto preciso, in fin dei conti mi frega zero del bilancio delle società, mi interessa di più le schede che tirano fuori.
In ogni caso era confermato un calo del fatturato e della vendita delle GPU, ma si affermava anche che il bilancio era comunque in attivo.
certo, tutti hanno fatto un calo del fatturato una volta scoppiato il mining... AMD ha fatto "meglio" ma solo per via delle CPU che stanno vendendo tantissimo complice l'ottimo prodotto e i problemi di Intel e, visto che sta vendendo vagonate di Ryzen come in Germania che vende 2 volte le CPU di Intel, provate a ipotizzare quanto potra mai essere il fatturato delle GPU, visto che tutta la divisione CPU-GPU consumer ha fatto solo 940 milioni.
nVidia ha fatto peggio perchè non ha le CPU e in piu aveva scazzato di brutto con gli ordinativi delel Pascal che avevano oltretutto gonfiato ancora di piu i trimestri record precedenti.
quindi si, ha fatto OVVIAMENTE peggio dell'anno scorso, ma non mi sembra intelligente basare l'analisi sui quei cali, visto l'eccezionalità di quei trimestri; non ci vuole tanto, basta andare a confrontare i fatturati dell'anno precedente il mining, quando le Pascal avevano i prezzi non gonfiati e distribuivano volumi "normali" ( anche se qualche segnale di mining gia lo si aveva nella parte finale dell'anno ).
giusto per statistica, fatturati dei trimestri di nVidia in Miliardi
2016
1,3
1,4
2
2,1
2017
1,9
2,1
2,6
2,9
2018
3,2
3,1
3,1
2,2
2019
2,2
2,5
2,9 stimato
-
ultimo trimestre 2017 e i 3 trimestri 2018 sono stati la bolla mining con relativa implosione nel Q4; e sempre per statistica, nel q4 "brutto" dello "scoppio", ha comunque fatto un utile di 300 Milioni... solo nella mente di pochi sta andando male e non sta vendendo GPU.
Free Gordon
02-09-2019, 14:26
1,3 Miliardi GeForce
300 Milioni QUADRO
650 Milioni TESLA
200 Milioni Automotive
100 Milioni OEM & IP
totale 2,5 Miliardi utili 550 Milioni
Quindi più del 50% è fatto dal gaming...e un altro 25% da Tesla.
Pensavo fossero ormai diversi i rapporti..
Se AMD fa 1,5mld in tutto, credo che il gaming (RTG) sia a non più di 500 milioni.. :fagiano:
Sarebbe 1/3 di quello che fa Nvidia.
Ale55andr0
02-09-2019, 14:36
possiamo tornare a parlare delle prossime gpu amd? grazie :O
fraussantin
02-09-2019, 14:45
Non pensavo che ci fosse un mercato del genere sulle tesla azz..
Piedone1113
03-09-2019, 18:20
a Gennaio in riferimento al Q4 2018; poi i trimestri sono stati sopra le attese e in salita, mentre il q4 era la parte terminale della discesa e ancora c'erano in giro le scorte di Pascal.
ora,va bene tutto ma...
se il fatturato TOTALE, e ribadiamolo TOTALE, quindi con ZEN, EPYC, GPU, RADEON PRO, CHIP Console etc. etc. di AMD nel Q2 è stato di 1,5 Miliardi e nello stesso periodo il solo fatturato delle GeForce è stato di 1,3 Miliardi
e se la divisione Computing and Graphic di AMD ha fatturato 940 Milioni, visto che sta vendendo come il pane RYZEN fate un po voi le stime di quale possa essere il fatturato della parte GPU,
chi vendera mai piu GPU ?
perchè sono 2 le cose, o le vende in nero sottobanco o una della 2, CPU o GPU, non sta vendendo tanto, seno il fatturato sarebbe BEN OLTRE i 940 Milioni
e giusto per raffronto, il Q2 2018 di nVidia, quello di 2 anni fa fuori dalla bolla Mining e in normale vendita di Pascal, era di 1,2 Miliardi ( ovviamente per le sole GeForce ).
Ed ecco arrivato il Paladino nvidia a difendere la sua dolce donzella.
Ma il tuo ragionamento fa acqua da molte parti che ti elenco:
1 non sappiamo il ricarico medio che applicano i due competitor nella vendita ad oem e distributori, ne tantomeno il ricarico che questi ultimi applicano ai rispettivi prodotti ( e gia qua il discorso balla e di molto)
2 non conosciamo il costo medio della singola gpu di amd e nvidia ( quindi se il costo medio di amd fosse 50 e quello di nvidia 100 per paraggere il numero di pezzi venduti nvidia dovrebbe fatturare il doppio senza considerare il ricarico medio che logicamente amd deve mantenere più basso per rendere appetibili i suoi prodotti e guadagnare quote di mercato).
Da tutte le statistiche fin'ora viste le apu amd stanno al 22% delle vendite totali di cpu nel 2019, contro il 18% del 2018 e comunque non le consideriamo nel fatturato gpu ma cpu.
Tenendo in considerazione quanto scritto:
Contrazione vendite tablet intel quindi meno grafica integrata venduta in assoluto perchè non rimpiazzate da apu amd.
Volume vendite delle cpu totali di amd rappresentati da solo il 22% di APU.
Vendita totale CPU intel con grafica integrata ad oltre l'80%
Contrazione totale del mercato Gpu desktop.
Cosa di fa dissentire nel leggere che Amd ha rosicchiato quote di mercato ( in numero di pezzi venduti ) a nvidia in fascia bassa ( vga sotto i 200€) non l'ho mica capito.
E se mi ricordo bene ai tempi delle 960_980 eri tu che dicesti che metà del fatturato nvidia gforce era generato da vga di classe 960 a salire.
AceGranger
03-09-2019, 19:52
Ed ecco arrivato il Paladino nvidia a difendere la sua dolce donzella.
Ma il tuo ragionamento fa acqua da molte parti che ti elenco:
1 non sappiamo il ricarico medio che applicano i due competitor nella vendita ad oem e distributori, ne tantomeno il ricarico che questi ultimi applicano ai rispettivi prodotti ( e gia qua il discorso balla e di molto)
2 non conosciamo il costo medio della singola gpu di amd e nvidia ( quindi se il costo medio di amd fosse 50 e quello di nvidia 100 per paraggere il numero di pezzi venduti nvidia dovrebbe fatturare il doppio senza considerare il ricarico medio che logicamente amd deve mantenere più basso per rendere appetibili i suoi prodotti e guadagnare quote di mercato).
Da tutte le statistiche fin'ora viste le apu amd stanno al 22% delle vendite totali di cpu nel 2019, contro il 18% del 2018 e comunque non le consideriamo nel fatturato gpu ma cpu.
Tenendo in considerazione quanto scritto:
Contrazione vendite tablet intel quindi meno grafica integrata venduta in assoluto perchè non rimpiazzate da apu amd.
Volume vendite delle cpu totali di amd rappresentati da solo il 22% di APU.
Vendita totale CPU intel con grafica integrata ad oltre l'80%
Contrazione totale del mercato Gpu desktop.
Cosa di fa dissentire nel leggere che Amd ha rosicchiato quote di mercato ( in numero di pezzi venduti ) a nvidia in fascia bassa ( vga sotto i 200€) non l'ho mica capito.
no infatti non l'hai capito perchè non parlavo in particolare delle discrete desktop ma delle discrete in generale desktop+mobile, visto che nelle discrete
desktop è salita visto il taglio di prezzo drastico ma nelle discrete mobile è scesa;
pero è arrivara quasi a vendere 2 APU per ogni GPU discreta.
per la questione fatturati, bastano gia fantacalcoli inventati di altri, a me bastano i dati dei fatturati che sono cristallini su chi abbia il margine superiore e da dove saltano fuori gli utili; e tu non li conterai, ma AMD CPU e GPU li mette assieme; certo, sarebbe molto bello se tornasse a separare le divisioni ma purtroppo non lo fa.
E se mi ricordo bene ai tempi delle 960_980 eri tu che dicesti che metà del fatturato nvidia gforce era generato da vga di classe 960 a salire.
no, io avevo riportato la risposta del ceo di nVidia su una domanda che gli era stata fatta in un'intervista.
Free Gordon
04-09-2019, 13:38
Difficile discutere su delle cifre chiare.
Se Nvidia fa 1.3mld di fatturato solo su Geforce... mentre AMD fa 1.5 per tutto il suo business, mi pare evidente che i valori in gioco per quanto riguarda il solo gaming siano molto differenti. :)
Sappiamo bene che AMD sta avendo successo con Ryzen quindi senza avere più info riguardo alla ripartizione dei fatturati, possiamo solo immaginare che quel piccolo sorpasso che si vede da parte di AMD nei confronti di Nvidia nel Q4 18 sia "relativo" a Intel. ;)
AMD ha rosicchiato quote ad Intel nelle integrate notebook (Ryzen serie U essenzialmente 2500U ecc ecc) e forse un po' nelle integrate desktop.
Nvidia in questo discorso c'entra poco...
Piedone1113
04-09-2019, 14:45
Difficile discutere su delle cifre chiare.
Se Nvidia fa 1.3mld di fatturato solo su Geforce... mentre AMD fa 1.5 per tutto il suo business, mi pare evidente che i valori in gioco per quanto riguarda il solo gaming siano molto differenti. :)
Sappiamo bene che AMD sta avendo successo con Ryzen quindi senza avere più info riguardo alla ripartizione dei fatturati, possiamo solo immaginare che quel piccolo sorpasso che si vede da parte di AMD nei confronti di Nvidia nel Q4 18 sia "relativo" a Intel. ;)
AMD ha rosicchiato quote ad Intel nelle integrate notebook (Ryzen serie U essenzialmente 2500U ecc ecc) e forse un po' nelle integrate desktop.
Nvidia in questo discorso c'entra poco...
Stiamo parlando in percentuali ed io ho detto che amd ha guadagna sia su intel che su nvidia, ma in modo minore ed in fascia bassa.
Piccoli spunti sul quale riflettere:
Tablet x86 -18% ( qui terreno esclusivo intel e quindi parte della flessione delle sue integrate arriva da questo)
apu amd 22% del totale venduto ( ed il market share globale di amd non credo che oltrepassi il 16% del totale avendo in campo desktop il 18% e nel mobile il 14.1% ) quindi quel 22% a stento copre il 4% del comparto grafico integrato ( ma in ambito mobile ha avuto un balzo del +1% dal 1 al secondo quarto quindi una variazione inferiore allo 0,2% del totale della grafica).
Quindi ci sembra chiaro che le apu amd hanno portatato un segno + molto esiguo in percentuale.
Ma ancora se nel quarto precedente Nvidia deteneva il 16% con 100 unità vendute, una contrazione del mercato totale pc avrebbe dovuto portare ad un aumento percentuale vendendo gli stessi pezzi.
Si evince facilmente che nvidia ha venduto almeno l'5% di gpu in meno rispetto il trimestre precedente.
Mercato in contrazione percentuale piatta significa meno unità vendute ( 16 è il 16% di 100, mentre di 90 il 16% è meno di 15 pezzi venduti)
Quindi AMD ha preso quote di mercato alle integrate intel ed in parte alle discrete di fascia bassa nVidia poichè l'aumento delle apu AMD è del solo 0,2% delle cpu vendute sul totale ( intel+AMD) insufficienti a coprire il balzo in avanti di AMD.
vime76amd
04-09-2019, 19:21
Qualche nuova notizia su una ipotetica 5800xt ...?
Inviato dal mio SM-J510FN utilizzando Tapatalk
Ale55andr0
04-09-2019, 23:16
Qualche nuova notizia su una ipotetica 5800xt ...?
Inviato dal mio SM-J510FN utilizzando Tapatalk
hai sbagliato thread, qui si parla dei guadagni di nvidia/amd :rolleyes:
Se annunciano ora la 5800 xt chi se la fila la 5700 :stordita:
La annunceranno a gennaio come per la VII! ( o era febbraio in uscita a marzo non ricordo bene)
fraussantin
07-09-2019, 09:39
Se annunciano ora la 5800 xt chi se la fila la 5700 :stordita:
La annunceranno a gennaio come per la VII! ( o era febraio in uscita amarzo non rciordo bene)
son 2 prodotti differenti dal prezzo imho notevolmente diverso
son 2 prodotti differenti dal prezzo imho notevolmente diverso
Io dalla 5800xt mi aspetto il 4k a prezzo contenuto!
Free Gordon
08-09-2019, 03:17
Io dalla 5800xt mi aspetto il 4k a prezzo contenuto!
Prezzo contenuto di 650€? :asd:
Perché difficilmente costerà meno... guardando quando costano le 2080 ma soprattutto le 5700.. ;)
mircocatta
08-09-2019, 08:06
650 forse la 5800 liscia :O
mi aspetto intorno agli 800€ per una 5800xt con ipotetici 64cu no RT e prestazioni 2080ti - 5%/7%
Gyammy85
08-09-2019, 08:28
650 forse la 5800 liscia :O
mi aspetto intorno agli 800€ per una 5800xt con ipotetici 64cu no RT e prestazioni 2080ti - 5%/7%
Considera che navi quasi pareggia la radeon 7, una 5800 con 56 o 60 cu dovrebbe andare il 40-50% in più passando quindi la 2080ti
L'arch è diversa e ora le cu vanno sempre al 100% ;)
ninja750
08-09-2019, 08:29
650 forse la 5800 liscia :O
mi aspetto intorno agli 800€ per una 5800xt con ipotetici 64cu no RT e prestazioni 2080ti - 5%/7%
e tre giochi AAA in bundle :O
Gyammy85
08-09-2019, 08:59
Piccolo riassunto della situazione
https://i.postimg.cc/wB6ZJNR2/ED3-Gd-PKU8-AAc-ls.png (https://postimages.org/)
soulsore
08-09-2019, 09:53
Io dalla 5800xt mi aspetto il 4k a prezzo contenuto!Forse aumenterà un po il GAP tra le due versioni rispetto alle 5700 come prezzo, ma imho la situazione sarà..
RX 5800 sui 600$
RX 5800 XT sui 700$
anche AMD non è che possa regalarle le schede e già cosi sarebbero ottimi prezzi (sopratutto rapportati alla controparte Nvidia dato che andrebbero a scontrarsi con 2080/S e 2080Ti)
ninja750
08-09-2019, 11:06
quando leggo 600 e 700 $ "ottimi prezzi" mi sale il sangue in testa, "soprattutto se rapportato a nvidia" parzialmente corregge il tiro, ma resta sempre una follia che ormai vedo è sempre più accettata.... a forza di questi ottimi prezzi il gaming pc finirà per ritornare una nicchia.
diciamo che il gaming 1080P è alla portata di tutti
il gaming QHD o 4K è per pochi e mi chiedo sempre il senso ma tant'è
mikael84
08-09-2019, 14:37
Io dalla 5800xt mi aspetto il 4k a prezzo contenuto!
La 5800xt per ora è solo su carta, non è certa, mentre la 5600 si, visto che nvidia sta già preparando la 1650ti e qualche 1660 nuova.;)
Considera che navi quasi pareggia la radeon 7, una 5800 con 56 o 60 cu dovrebbe andare il 40-50% in più passando quindi la 2080ti
L'arch è diversa e ora le cu vanno sempre al 100% ;)
E' un tantino semplificato ma in pratica rispetto al vecchio GCN in parte è così.
Con RDNA alcuni problemi sono rimasti, ma le ALU per via istruzionale sono deciamente più impegnate, in quanto oltre alle emulazioni, il vecchio GCN aveva problemi con il set d'istruzioni divergente, facendo rimanere, quasi fosse una dipendenza un vettore in idle o gran parte degli shader integrati.
Cambia, e non è una cosa da poco la L0, ora non più condivisa tra i vari gruppi di shader array, ma ora viene condivisa tra i due DCU, che ora vengono eseguito con 5 cicli di clock, contro gli 11 necessari per completare due CU, entrambi aventi accesso alla l1 ed l2.
Stravolta anche la l2, se prima quasi tutto veniva buttato in "l2", ora gli array sono sistemati in modo da utilizzare quasi esclusivamente la l1 (banda notevolmente ampliata), sgravando la l2, che necessita per ogni operazione di più cicli di clock.
Shader, raster, rop's passano prima dalla l1, sviando la l2 il più possibile, e lasciando buona parte di l2, alla compressione dati, per sgravare la banda (su bench sembra cambiare nulla).
La LDS ha subito alcune migliorie, ogni DCU è collegata a 2 banchi da 32 ALU, che si occupa di rifornire i DCU, evitando di sprecare ALU di calcolo.
Migliora anche il culling, ogni engine elabora una primitiva ma ne espelle 2.;)
vime76amd
08-09-2019, 17:07
Basta che esca sta 5800xt ....almeno cé scelta...
Inviato dal mio SM-J510FN utilizzando Tapatalk
Ale55andr0
08-09-2019, 22:14
Prezzo contenuto di 650€? :asd:
Perché difficilmente costerà meno... guardando quando costano le 2080 ma soprattutto le 5700.. ;)
se restano sugli 8gb 500 cartoni bastano e avanzano per pagargli un chip un po' più grande della 5700xt
ma se fanno una bella 60cu/6/96 con 12gb a 384bit i 600/650 ci starebbero tutti e sarebbe un "affarone" rispetto la 2080 liscia
Solo che non la fanno :/
fraussantin
08-09-2019, 22:22
se restano sugli 8gb 500 cartoni bastano e avanzano per pagargli un chip un po' più grande della 5700xt
ma se fanno una bella 60cu/6/96 con 12gb a 384bit i 600/650 ci starebbero tutti e sarebbe un "affarone" rispetto la 2080 liscia
Solo che non la fanno :/
ma non valeva la regola 4 8 16 per le ram su amd?
mikael84
08-09-2019, 22:50
ma non valeva la regola 4 8 16 per le ram su amd?
Dipende dal bus adottato.
I bus a 192/384/352 li utilizza nvidia in base ai GPC.
Polaris e Navi hanno un 256 bit per 4 engine, Vega in ddr è uguale, mentre la VII ha 16gb in quanto hanno esteso il bus a 4096bit (512bit in ddr6):)
Su navi visto le ddr6 possono anche optare per un 384bit e quindi 12gb.
Free Gordon
09-09-2019, 02:58
se restano sugli 8gb 500 cartoni bastano e avanzano per pagargli un chip un po' più grande della 5700xt
ma se fanno una bella 60cu/6/96 con 12gb a 384bit i 600/650 ci starebbero tutti e sarebbe un "affarone" rispetto la 2080 liscia
Solo che non la fanno :/
Ma se costano 400€ le Navi10 full reference, come puoi pensare che una eventuale Navi20 (anche se "cut") possa costare solo 500? :D
Partiranno da 600 in su SE VA' BENE... :sofico:
Un eventuale chip da 64CU in RDNA1 in arrivo prima di Natale sarebbe una bella sorpresa, non so che prestazioni avrebbe ma credo che manterrebbe la caratteristiche fondamentali di Vega10, 64CU-256TU-64RBE e 4Geo ;)
Per altre "declinazioni" credo si dovrà attendere RDNA2 senza dubbio. :)
Il prezzo contenuto quale sarebbe se già oggi una 5700xt custom costa 400€ o più ed una 2070s pure peggio? :fagiano:
La 5800 prenderà la fascia di prezzo della 5700 e la 5700 andrà verso i 200.
fraussantin
09-09-2019, 10:30
La 5800 prenderà la fascia di prezzo della 5700 e la 5700 andrà verso i 200.Questo forse , ma non é detto , accadrà quando arriverà ampere sempre se arriverà il prossimo anno.
PS cmq si ho capito che scherzavi.
Free Gordon
09-09-2019, 11:12
La 5800 prenderà la fascia di prezzo della 5700 e la 5700 andrà verso i 200.
Sarebbe una bellissima cosa da parte di AMD...
Ma non credo finché non vedo... :)
"AMD non è una onlus" (cit.)
Si anche la gente quando venne lanciata la 7870 a 350 euro diceva..."seee, la 7870 a 250 euro sogna".
Sei mesi dopo costava 100 euro in meno, 18 mesi dopo la trovavi abbondantemente sotto i 200...
Anche le 570 i primi mesi dopo il lancio le trovavi a 220 euro e oltre, per poi trovarle a 170, (poi a 300 causa mining :asd: ) e oramai le trovi a poco piu di 100 euro..
Io non ho dubbi che se lanciano la 5800 prenderà il posto in fascia di prezzo della 5700 xt e la 5700 si riposizionerà sotto i 300, è pur sempre un chip da 250 mm^2..
è pur sempre un chip da 250 mm^2..
un chip 7nm da 250mm^2 costa come un 12nm da 500mm^2
ergo
sognate pure
Eh certo, dimentichiamo Ryzen 2 sia da 200+ mm^2 a 7nm..
A conti fatti è venduto agli stessi prezzi di ryzen 1 serie 2000 quindi il tuo ragionamento non ha il minimo senso.
confronti mele con barra inanimata di carbonio (cit.)
fraussantin
09-09-2019, 11:52
Eh certo, dimentichiamo Ryzen 2 sia da 200+ mm^2 a 7nm..
A conti fatti è venduto agli stessi prezzi di ryzen 1 serie 2000 quindi il tuo ragionamento non ha il minimo senso.Non é che ryzen 2 costi tanto poco é ...considera che è Senza RAM senza PCB con un dissi certamente piú economico , con costi minori di sviluppo driver e imho amd recupera qualcosina anche facendo la cresta sul chipset.
In ogni caso il prezzo lo fa il mercato.
Come giustamente non si é vergogna a prezzare alta la 5700 , non vedo perché non potrebbe farlo con la 5800.
Certamente quando arriverà la concorrenza Nvidia , sempre se questa non tirerà ad alzare ancora l'asticella , dovrà adeguarsi.
AceGranger
09-09-2019, 12:11
Eh certo, dimentichiamo Ryzen 2 sia da 200+ mm^2 a 7nm..
A conti fatti è venduto agli stessi prezzi di ryzen 1 serie 2000 quindi il tuo ragionamento non ha il minimo senso.
si.. con il piccolo particolare che i 200+ mm2 di Ryzen 2 NON sono monolitici.
e con l'altro piccolo particolare che i chiplet 8 core monolitici sono solo di 80 mm2 e sui 7nm, mentre il chiplet I/O da 125 mm2 è fatto sui 12nm... per gli EPYC il chiplet I/O, che sara grande intorno ai 400 mm2, è fatto sui 14nm
il 60% di Zen2 fino 8 core è a 12nm
il 40% di Zen2 da 12 a 16 core è a 12nm
fra il 40 e il 60% degli EPYC è a 14nm. ( vado a occhio non ho visto tutte le configurazioni scoperchiate )
i 7nm non sono mai stati economici e faranno il salto sui 7nm+ prima che lo diventino.
l'unico motivo per il quale TSMC lo ha fatto è perchè doveva battere Samsung e l'unico motivo per il quale AMD lo ha usato è che con le GPU non ce l'avrebbe mai fatta ne con i 14nm ne con i 12nm a starci dentro con il TDP, mentre con le CPU hanno un die talmente piccolo che il costo elevato del silicio viene controbilanciato dagli scarti praticamente inesistenti.
i 7nm+ dicono che saranno piu economici.
Ale55andr0
09-09-2019, 13:36
Ma se costano 400€ le Navi10 full reference, come puoi pensare che una eventuale Navi20 (anche se "cut") possa costare solo 500? :D
Partiranno da 600 in su SE VA' BENE... :sofico:
Un eventuale chip da 64CU in RDNA1 in arrivo prima di Natale sarebbe una bella sorpresa, non so che prestazioni avrebbe ma credo che manterrebbe la caratteristiche fondamentali di Vega10, 64CU-256TU-64RBE e 4Geo ;)
Per altre "declinazioni" credo si dovrà attendere RDNA2 senza dubbio. :)
manco per sbaglio, le vecchie top montavano costose hbm 2 che complicavano ulteriormente (interposer) il discorso in un contesto preciso (chippazzo), ergo una 8gb con ddr6 non c'è un solo motivo per cui debba costare 700 euro per un chip con ~100mm^2 in più come unica differenza.
mircocatta
09-09-2019, 13:50
si.. con il piccolo particolare che i 200+ mm2 di Ryzen 2 NON sono monolitici.
e con l'altro piccolo particolare che i chiplet 8 core monolitici sono solo di 80 mm2 e sui 7nm, mentre il chiplet I/O da 125 mm2 è fatto sui 12nm... per gli EPYC il chiplet I/O, che sara grande intorno ai 400 mm2, è fatto sui 14nm
il 60% di Zen2 fino 8 core è a 12nm
il 40% di Zen2 da 12 a 16 core è a 12nm
fra il 40 e il 60% degli EPYC è a 14nm. ( vado a occhio non ho visto tutte le configurazioni scoperchiate )
i 7nm non sono mai stati economici e faranno il salto sui 7nm+ prima che lo diventino.
l'unico motivo per il quale TSMC lo ha fatto è perchè doveva battere Samsung e l'unico motivo per il quale AMD lo ha usato è che con le GPU non ce l'avrebbe mai fatta ne con i 14nm ne con i 12nm a starci dentro con il TDP, mentre con le CPU hanno un die talmente piccolo che il costo elevato del silicio viene controbilanciato dagli scarti praticamente inesistenti.
i 7nm+ dicono che saranno piu economici.
beh allora è ottimo, dovremo aspettarci prezzi "bassi" in futuro :) meno male che non ho ancora comprato niente a 7nm :asd:
Free Gordon
09-09-2019, 14:20
manco per sbaglio, le vecchie top montavano costose hbm 2 che complicavano ulteriormente (interposer) il discorso in un contesto preciso (chippazzo), ergo una 8gb con ddr6 non c'è un solo motivo per cui debba costare 700 euro per un chip con ~100mm^2 in più come unica differenza.
che c'entrano le vecchie top? :D
ho semplicemente detto che se una Navi10 da 40cu costa 450€, una Navi20 da 60cu non costerà meno di 600... è matematico :D
Anche io vorrei che non fosse così...secondo me il prezzo massimo della 5700XT (aka RX 680 ;) ) sarebbe dovuto essere 350€ (fascia Polaris10 sostanzialmente, anche se P10 tirò molto il prezzo verso il basso fino a 200..), del resto la 480 era erede commerciale di Tonga.
Purtroppo però così non sarà... la 5800 costerà 600 carte o più, farà concorrenza alla 2080 del resto. Sempre che arrivi in quest'anno solare...
Se arriva con RDNA2 nel 2020 inoltrato allora non so cosa sarà esattamente...
Andy1111
09-09-2019, 14:20
un chip 7nm da 250mm^2 costa come un 12nm da 500mm^2
ergo
sognate pure
No qualche mese fa è uscito fuori che i 7 costavano molto meno
https://www.hwupgrade.it/forum/showpost.php?p=46294927&postcount=59103
https://pbs.twimg.com/media/D-jk4o9W4AAI3qk.jpg:large
No qualche mese fa è uscito fuori che i 7 costavano molto meno
https://www.hwupgrade.it/forum/showpost.php?p=46294927&postcount=59103
https://pbs.twimg.com/media/D-jk4o9W4AAI3qk.jpg:large
in realtà il primo grafico conferma quello che dico, che poi loro si aspettino di venderne DI PIU' per abbassare il costo UNITARIO (terzo grafico) è un altro paio di maniche.....tenendo poi presente l'incognita delle rese dei wafer, ma potrebbero essere annegati già nel costo dei wafer (ipotizzando che quello sia il costo di un wafer "buono" insomma) ma non credo.
No qualche mese fa è uscito fuori che i 7 costavano molto meno
https://www.hwupgrade.it/forum/showpost.php?p=46294927&postcount=59103
https://pbs.twimg.com/media/D-jk4o9W4AAI3qk.jpg:large
Quel grafico parte dal presupposto che aumenti il numero di die allo scalare in giù delle dimensioni.
E' ovvio che a parità di transistors il costo diminuisca visto che la densità cresce molto. Altrimenti non sarebbe economicamente conveniente passare ad un nodo più piccolo, tanto valeva rimanere su quello vecchio e fare chip grandi come padelle (nei limiti).
Ma un wafer da 7nm dalle slide amd gli costa il doppio di uno da 14nm (8k vs 4k).
Quindi, facendo i conti: 4'000 dollari di wafer ti davano indietro 250 chip polaris su un wafer da 300 mm, con una resa dell'80% parliamo di 191 chip vendibili e un costo per chip di 21$.
Con i wafer da 300 mm a 8'000 $ e dimensioni di navi leggermente più grandi (15.83 vs 15.23 mm per lato), otteniamo 229 chip, con una resa del 70% parliamo di 160 chip per wafer e un costo per chip di: 50$.
Ora, vi invito a fare una considerazione però: è certamente vero che il prezzo è più che raddoppiato da polaris a navi, ma parliamo sempre di 29$ in più per i chip. Non è certo una quantità di denaro che fa lievitare il prezzo da polaris a navi di 170$ no? Giustificherebbe un aumento di 30$, non 170.
E allora da dove altro deriva la differenza di prezzo?
8 gb di memorie gddr6 costano 8x11: 88$.
8 gb di memorie gddr5 costano 8x6.8: 50$.
Sono piuttosto sicuro che le mie stime siano anche esagerate e i vendors possano pagare meno i chip gddr6.
Quindi abbiamo 29$ di chip in più e altri 38$ per l'uso delle memorie gddr6 per un totale di 67$ in più di costo fra una 5700xt ed una 480.
La 480 è stata lanciata a 229$ nel 2016 per il modello da 8gb (andrebbe notato che all'epoca 8gb di memorie gddr5 costavano più di quanto le gddr6 costino adesso).
In conclusione: il prezzo "onesto" della 5700xt, guardando semplicemente il rincaro (nel caso peggiore) dei costi dovrebbe essere di 300 $ ma ovviamente poichè questa gen di Nvidia fa schifo e ha di poco cambiato i rapporti prezzo/prestazioni si è potuta permettere di venderle a 400 $.
Ergo, non c'è alcun motivo per cui non potremmo vedere entro 12 mesi 5700 vendute retail a 200 euro circa, forse anche meno. Dipenderà dagli inventari, dal rapporto domanda/offerta, dalla concorrenza, da quanto costeranno i batch futuri di memorie gddr6 e i wafer a 7nm, ma amd non perderebbe soldi a vendere navi, anche adesso, a 200$, ci guadagnerebbe praticamente nulla, ma è un discorso diverso.
Ale55andr0
09-09-2019, 17:04
che c'entrano le vecchie top? :D
ho semplicemente detto che se una Navi10 da 40cu costa 450€, una Navi20 da 60cu non costerà meno di 600... è matematico :D
..
veramente le reference stanno sui 360-370 e confermo quanto detto sopra più che mai: una 56-60cu con 8gb (otto) di ddr6 possono tranquillamente piazzarla a quel prezzo, se lo vogliono, senza il minimo problema. Idem una 60cu con 12gb sui 600:
se restano sugli 8gb 500 cartoni bastano e avanzano per pagargli un chip un po' più grande della 5700xt
ma se fanno una bella 60cu/6/96 con 12gb a 384bit i 600/650 ci starebbero tutti e sarebbe un "affarone" rispetto la 2080 liscia
Solo che non la fanno :/
Possono piazzarla a qualsiasi prezzo, bisogna vedere se la gente se le compra ;)
Ale55andr0
09-09-2019, 17:42
Possono piazzarla a qualsiasi prezzo, bisogna vedere se la gente se le compra ;)
il settore dei beni di primissima NON necessità non conosce vere crisi :D
Si ma AMD in fascia alta ha sempre venduto molto poco storicamente, a prescindere dalla bontà delle sue offerte.
Una gpu amd da 600 euro rimane sugli scaffali anche se è migliore dell'equivalente Nvidia da 750 euro.
Sarei molto sorpreso lanciassero una gpu da oltre 500 $ in volumi semidecenti.
mikael84
09-09-2019, 18:15
veramente le reference stanno sui 360-370 e confermo quanto detto sopra più che mai: una 56-60cu con 8gb (otto) di ddr6 possono tranquillamente piazzarla a quel prezzo, se lo vogliono, senza il minimo problema. Idem una 60cu con 12gb sui 600:
Della 5800 in realtà non c'è traccia, neppure nvidia si è mossa, cosa che sta avvenendo per contrastare la futura 5600 (1660 circa).
A parer mio, va a finire come con polaris e vega.
RDNA2 full vs 3080
RDNA2 cut vs 3070 (super, xt, le o quello che sarà)
Navi mid RDNA 2 vs 3060.
Sinceramente mi pare una scelta assurda fare un big chip (con HBM, difficilmente vedremmo grossi bus ddr6) RDNA1, per poi essere sostituito dopo alcuni mesi.
Ale55andr0
09-09-2019, 19:32
Della 5800 in realtà non c'è traccia, neppure nvidia si è mossa.
e chi mai detto il contrario, ma piuttosto che sarebbe bello se la facessero "e come". Nvidia che deve muoversi a fare, ha il primato delle prestazioni e ogni possibile buco di mercato coperto, è AMD che deve svegliarsi, specialmente, anzi, soprattutto in fascia alta e altissima dove sono secoli che dorme
AceGranger
09-09-2019, 19:55
e chi mai detto il contrario, ma piuttosto che sarebbe bello se la facessero "e come". Nvidia che deve muoversi a fare, ha il primato delle prestazioni e ogni possibile buco di mercato coperto, è AMD che deve svegliarsi, specialmente, anzi, soprattutto in fascia alta e altissima dove sono secoli che dorme
non so quanto abbia senso farla uscire a fine anno con i 7nm+ alle porte, perchè il chip deve stare in vendita almeno 1 anno.
se la 5800 arrivasse veramente a fine anno vorrebbe dire solo una cosa, che i 7nm+ arriverebbero a fine 2020... e rischierebbero di arrivare dopo nVidia sui 7nm+; imho, arrivati a questo punto tanto vale saltare e arrivare direttamente con la 6800 a 7nm+.
Ale55andr0
09-09-2019, 20:07
non so quanto abbia senso farla uscire a fine anno con i 7nm+ alle porte, perchè il chip deve stare in vendita almeno 1 anno.
se la 5800 arrivasse veramente a fine anno vorrebbe dire solo una cosa, che i 7nm+ arriverebbero a fine 2020... e rischierebbero di arrivare dopo nVidia sui 7nm+; imho, arrivati a questo punto tanto vale saltare e arrivare direttamente con la 6800 a 7nm+.
non vedo perchè no però: fanno una gpu competitva fra 2080 e 2080ti a 7nm "per natale" e poi il mega full chip a 7nm+ durante 2020, con i soliti rebrand/rimpiastri nelle fasce inferiori con i soliti piccoli aggiustamenti qui e la (frequenze ecc.). Francamente mi pare incomprensibile non farlo piuttosto che si', hanno il chip delle nuove console bello che pronto nei devkit :asd:, ce ne diano una variante di nome 5800 :fagiano:
mikael84
09-09-2019, 23:02
e chi mai detto il contrario, ma piuttosto che sarebbe bello se la facessero "e come". Nvidia che deve muoversi a fare, ha il primato delle prestazioni e ogni possibile buco di mercato coperto, è AMD che deve svegliarsi, specialmente, anzi, soprattutto in fascia alta e altissima dove sono secoli che dorme
Nvidia muove mari e monti appena attaccata. Tanto che pur avendo la 1650/1660/1660ti, per il mese prossimo è previsto il full tux17 1650ti e forse una versione a ram migliori della 1660.
Nulla sulla fascia alta.
non vedo perchè no però: fanno una gpu competitva fra 2080 e 2080ti a 7nm "per natale" e poi il mega full chip a 7nm+ durante 2020, con i soliti rebrand/rimpiastri nelle fasce inferiori con i soliti piccoli aggiustamenti qui e la (frequenze ecc.). Francamente mi pare incomprensibile non farlo piuttosto che si', hanno il chip delle nuove console bello che pronto nei devkit :asd:, ce ne diano una variante di nome 5800 :fagiano:
Le console saranno rdna2 7nm+, difficile facciano una variante uguale RDNA1 con i classici 7nm, poi tutto può essere.:)
Certamente AMD poteva direttamente creare la navi mid a 3072st e cut a 2816, considerando la spesa irrisoria di die. Agli stessi prezzi di ora avrebbe fatto molto male ad nvidia.
Chiaro che i chip vengono pensati molto prima, ma se sulla carta pensavano di pareggiare l'IPC...;)
Tra 12 mesi però ci saranno console finalmente carrozzate anche lato CPU e che daranno grosso filo da torcere a configurazioni medio alte sia su performance che prezzo.... Vedremo, il prezzo buono delle 5700 doveva essere ora o tra poco :)Fra 12 mesi avremo tutta la linea nuova AMD, compreso ray tracing e probabilmente una parte della nuova Nvidia.
Potenza ce ne sarà a sufficienza lato PC, le console di nuova generazione saranno comunque delle belle bestie.
Roland74Fun
10-09-2019, 20:29
Mi pare di capire che AMD svilupperà una soluzione come polaris, pensata cioè per le scatolette per poi utilizzarla come soluzione modulare per i PC.
Free Gordon
10-09-2019, 21:23
Si vocifera ci sarà un RT core ogni CU, quindi se ci saranno 56CU ci saranno 56RT core...
Ale55andr0
10-09-2019, 21:36
Si vocifera ci sarà un RT core ogni CU, quindi se ci saranno 56CU ci saranno 56RT core...
il numero è relativo se non sappiamo di quanto sono capaci
il numero è relativo se non sappiamo di quanto sono capaciExactly
fraussantin
11-09-2019, 07:33
Almeno è chiaro a cosa servirà un 3700g sulle console.
Gyammy85
11-09-2019, 07:58
https://multiplayer.it/notizie/xbox-scarlett-core-ray-tracing-confermati-sviluppatori-di-gears-5.html
:cool:
Non è una novità, si sa da un anno ormai
Comunque nella roadmap generica è presente rdna2 prima del 2021 con unità rt e poi il discorso cloud, ma penso sia sempre per il cloud gaming, tipo stadia quando aggiorneranno la piattaforma hardware
Si vocifera ci sarà un RT core ogni CU, quindi se ci saranno 56CU ci saranno 56RT core...
La cosa più semplice è un ibrido fra rdna e rdna2, infatti erano 56 cu con una sorta di multo threading, tipo fare dinamicamente o rasterizzazione normale o ray tracing
Del resto anche la x360 era un ibrido fra r500 e r600
e chi mai detto il contrario, ma piuttosto che sarebbe bello se la facessero "e come". Nvidia che deve muoversi a fare, ha il primato delle prestazioni e ogni possibile buco di mercato coperto, è AMD che deve svegliarsi, specialmente, anzi, soprattutto in fascia alta e altissima dove sono secoli che dorme
Sicuramente dopo i 200 euro.
Sotto non ha nulla che contrasti rx570 e rx580 come rapporto prezzo/prestazioni.
AceGranger
11-09-2019, 09:06
il numero è relativo se non sappiamo di quanto sono capaci
in realta è ininfluente anche quanto sono capaci, perchè tanto il rapporto TFlops degli SM e rays/s non lo puoi variare piu di tanto.
mikael84
11-09-2019, 11:39
il numero è relativo se non sappiamo di quanto sono capaci
2 RT per 1 DCU
2 RT a 2ghz (0,2 g/rays/2 TF).
Ad oggi vengono utilizzati meno del 40%.
La console se integrerà 28 DCU avrà 56 RT, da verificare la ripartizione in game.;)
Free Gordon
11-09-2019, 15:22
Certamente AMD poteva direttamente creare la navi mid a 3072st e cut a 2816, considerando la spesa irrisoria di die.
Ma infatti secondo me ci sarebbe ancora lo spazio per presentare prima di Dicembre una 5800XT da 3072sp... con RDNA1. Prezzo con un buon dissipatore reference 600€.. chiaro. :) Non di più...
Certo che se non ci hanno pensato... beh...colpa loro. :fagiano:
Free Gordon
11-09-2019, 15:30
il numero è relativo se non sappiamo di quanto sono capaci
Considera che nelle Turing i core RT sono 1 ogni 64sp, quindi avrebbero lo stesso rapporto per AMD.
In TU106 infatti sono 40 (2560sp), in TU104 sono 48 (3072sp). :)
Probabile che le capacità di calcolo possano essere quindi vicine...
2 RT per 1 DCU
2 RT a 2ghz (0,2 g/rays/2 TF).
Ad oggi vengono utilizzati meno del 40%.
La console se integrerà 28 DCU avrà 56 RT, da verificare la ripartizione in game.;)
quindi sarebbero 1 teraflop a CU, quindi 56TF di picco teorico per il chip da 3584sp?
utilizzarne la metà significa poter comunque contare su 25TF di potenza in più per quelle tasks..mica poco. Su console potrebbero metterli a frutto in maniera radicalmente migliore rispetto al pc. :)
mikael84
11-09-2019, 16:31
Ma infatti secondo me ci sarebbe ancora lo spazio per presentare prima di Dicembre una 5800XT da 3072sp... con RDNA1. Prezzo con un buon dissipatore reference 600€.. chiaro. :) Non di più...
Certo che se non ci hanno pensato... beh...colpa loro. :fagiano:
Spazio con quei die ce n'è tanto, io parlavo di creare direttamente un 3072.
Una 5800xt ideale per me sarebbe da 3584st e 12gb BW ddr6.
Il BIG chip HBM con RDNA 1 per me è no sense, salvo ritardi sui 7nm+.:)
Cmq guardavo test delle navi, leggevo 875mhz ddr6, valore ad 8n praticamente, ora ho letto che girano a 0,85v contro gli 1,35v (1,365v) di base, e watt sotto le 20 in applicativi molto stressanti.
Qua due sono le cose, o leggono male i programmi, o c'è qualche problema, ed è per questo che i programmi professionali rilevano seri problemi alle rop's, allineandole alle polaris.
Un ruolo chiave di navi sulla compresisone è la L2, ora sgravata dalla l1 a cui hanno aumentato il BW effettivo.
quindi sarebbero 1 teraflop a CU, quindi 56TF di picco teorico per il chip da 3584sp?
utilizzarne la metà significa poter comunque contare su 25TF di potenza in più per quelle tasks..mica poco. Su console potrebbero metterli a frutto in maniera radicalmente migliore rispetto al pc. :)
A 2 ghz 2TF a CU, ho riportato male io con i DCU:p
Praticamente è RT x clock = g/rays x 10 Tflops
Quindi 1 RT x 2ghz = 0,2/rays x 10 = 2 TF
56 TF a 2ghz =11,2 g/rays = 112TF
Una 2080TI è come se, per formulazione ne utilizzasse 27-30 di picco.
Probabilmente sia da RDNA2 che da Ampere ci saranno migliorie sotto quesot punto di vista, oltre ad una maggior unità e clock.:)
Ton90maz
11-09-2019, 16:58
Io penso che AMD sia in vantaggio sul prezzo prestazioni fino alla 5700xt..
Ni. Di solito le 590 costano più delle 1660 (forse uguale adesso), pur andando mediamente un po' meno. Gli manca anche una gpu tra la 590 e la 5700 per fronteggiare la 1660 Ti. Tra l'altro non si diceva che era questa la fascia che faceva vendere di più?
Ale55andr0
12-09-2019, 07:38
Una 5800xt ideale per me sarebbe da 3584st e 12gb BW ddr6.
Il BIG chip HBM con RDNA 1 per me è no sense, salvo ritardi sui 7nm+.:)
non una 3840 6 raster 96 rops sempre 12gb? :p
#uscitela5800
Gyammy85
12-09-2019, 08:08
non una 3840 6 raster 96 rops sempre 12gb? :p
#uscitela5800
Potrebbe essere una dual 5700 quindi 72 cu, ma non vedo perché fare roba così grossa quando probabilmente 56 cu e un numero di rops adeguato fai una top lo stesso, tanto più che in base alla nuova road map rdna2 a 7 nm+ dovrebbe uscire max q3 2020
https://www.guru3d.com/news-story/amd-roadmaps-mention-rdna2zen3-and-zen4.html
PS fra l'altro gcn 14/7 nm viene indicata come shipping, quindi sembrerebbe che la radeon 7 sia ancora in produzione essendo l'unica gcn a 7 nm
Vega sta in piedi per content creation e minare in attesa di arcturus, navi è la declinazione gaming di una nuova arch che durerà un po'......
AceGranger
12-09-2019, 10:44
Vega sta in piedi per content creation e minare in attesa di arcturus, navi è la declinazione gaming di una nuova arch che durerà un po'......
Vega non vende piu in quel mercato; gia prima, i pochi sfortunati come me che si erano fidati erano 4 gatti, dall'uscita delle RTX e della piattaforma Studio, vendono praticamente solo nVidia.
non per altro sono sparite dalla quasi totalita dei canali di vendita.
Se sono potenti le mazzette verdi per mettere RT in ogni dove, in quel mondo devono essere proprio una cosa assurda.....non esiste un motivo per il quale amd non possa essere in grado di offrire certificazioni su quei software per i propri driver/schede.....ricorda la situazione unreal engine......:rolleyes:
Gyammy85
12-09-2019, 11:48
Vega non vende piu in quel mercato; gia prima, i pochi sfortunati come me che si erano fidati erano 4 gatti, dall'uscita delle RTX e della piattaforma Studio, vendono praticamente solo nVidia.
non per altro sono sparite dalla quasi totalita dei canali di vendita.
Vega e soprattutto la radeon 7 hanno prestazioni molto elevate in buona parte dei software, quindi con 750 euro ti portavi a casa una scheda che faceva la barba alle varie schede blasonate della concorrenza, certo se uno deve usare per forza i software nvidia coi compilatori nvidia ovvio che se metti una amd da 1 watt a 20 ghz da 100000 tf ti dirà sempre "wrong vga detected"
Se sono potenti le mazzette verdi per mettere RT in ogni dove, in quel mondo devono essere proprio una cosa assurda.....non esiste un motivo per il quale amd non possa essere in grado di offrire certificazioni su quei software per i propri driver/schede.....ricorda la situazione unreal engine......:rolleyes:
Perché amd spinge sui software open, difatti non supporta neanche rt senza unità dedicate come su pascal, nvidia non molla, costa troppo o semplicemente amd rinuncia a parlarci, come molti altri del resto
fraussantin
12-09-2019, 11:54
Perché amd spinge sui software open, difatti non supporta neanche rt senza unità dedicate come su pascal, nvidia non molla, costa troppo o semplicemente amd rinuncia a parlarci, come molti altri del resto
Non lo supporta perchè farebbe semplicemente ridere come performance e come risultato i suoi clienti sarebbero solo invogliati a comprarsi una rtx.
AceGranger
12-09-2019, 12:09
Se sono potenti le mazzette verdi per mettere RT in ogni dove, in quel mondo devono essere proprio una cosa assurda....
la cosa assurda è leggere sempre le solite perle di gente che parla di content creation e di GPU Pro senza mai averne avuta una per le mani e usando al massimo Paint
non esiste un motivo per il quale amd non possa essere in grado di offrire certificazioni su quei software per i propri driver/schede.....
sono sparite dai canali di vendita perchè non vendevano.
:mbe: i driver li fa... peccato che facciano letteralmente cagare :rolleyes:.
o vogliamo parlare dell'arretratezza e quasi inesistente piano di sviluppo software e plugin ?
Lato hardware, i core RT danno un boost prestazionale che, nel peggiore dei casi, è 1,7x una volta che vengono abilitati ( perchè nel migliore dei casi arriva a 3x e oltre ); e non vale solo per la parte render, ma anche per la parte viewport real time; e e gia questo vale il salto e il costo in piu c'è l'nVLink che permette di quasi di raddoppiare la Vram.
l'unica situazione che esiste è che AMD offre prodotti obsoleti e un supporto demmerda.
la sparata sull'Unreal Engine poi non poteva certo mancare, come se Unity, Luminous Engine etc. etc. non integrino allo stesso modo asset di nVidia; manca solo la barzelletta Luxmark e poi abbiamo completato :asd:
in campo Pro non esistono i fanboy, esistono solo i SOLDI, e se una cosa fa schifo, fa schifo, e viene ignorata anche se GRATIS, vedasi il bellissimo RadeonPro Render, nato vecchio di un lustro e che in 2 anni ha conquistato un mirabolante 0,3% di market share :asd:
Vega e soprattutto la radeon 7 hanno prestazioni molto elevate in buona parte dei software, quindi con 750 euro ti portavi a casa una scheda che faceva la barba alle varie schede blasonate della concorrenza, certo se uno deve usare per forza i software nvidia coi compilatori nvidia ovvio che se metti una amd da 1 watt a 20 ghz da 100000 tf ti dirà sempre "wrong vga detected"
molto elevate in una manciata di software e comunque in linea con nVidia, ma è totalmente INUTILE avere prestazioni quando hai driver demmerda e con bug noti che vengono perpetrati per 3 release di fila... e VEGA FE almeno aveva i driver PRo, la Radeon 7 non ha nemmeno quelli :rolleyes:
Perché amd spinge sui software open, difatti non supporta neanche rt senza unità dedicate come su pascal, nvidia non molla, costa troppo o semplicemente amd rinuncia a parlarci, come molti altri del resto
come al solito a parlare di cose che non conosci e sparare baggianate ?
non li stavo nemmeno contando i software only nVidia, prendendo software in comune, ti basta mettere una RTX e avere il tuo boost, perchè li stanno supportando praticamente tutti.
AMD spinge sul non fare nulla con la balla dell'"Open", investe zero e raccoglie zero; non frega nulla a nessuno "dell'Open" nel mondo Pro, servono cose che funzionino e supportate che, nel caso di AMD, non avviene.
il suo RadonPro Render gratuito è l'emblema del suo impegno, un inutile motore di render, nato vecchio, senza nessuna novita e con un supporto che in 2 anni ha rasentato il ridicolo;
nel 2018 aveva un market share dello 0,4%, sai,la novita, la gente lo installa e lo prova, è gratis... poi si rende conto che fa cagare e che ha un supporto che è quello dei giochi che mettevano nei choco-pops e nel 2019 scende allo 0,3% :asd:
Non ti scaldare tranquillo, del content creation mi frega meno di zero, è vero
Il mio discorso era un altro: secondo te amd non sa fare driver per le proprie schede professionali e quindi vende delle vere e proprie truffe OPPURE chi sviluppa quei software piattaforme semplciemente se ne frega di chi ha lo 0,3%?
Per quanto riguarda i giochi con UE che ho usato ho trovato sempre dei mattoni poco ottimizzati che nulla danno in più graficamente rispetto a engine che girano bene su entrambe le piattaforme in commercio, ma se dici tu che è tutta colpa di amd anche qui bhe ci credo.....
AceGranger
12-09-2019, 13:06
Non ti scaldare tranquillo, del content creation mi frega meno di zero, è vero
Il mio discorso era un altro: secondo te amd non sa fare driver per le proprie schede professionali e quindi vende delle vere e proprie truffe OPPURE chi sviluppa quei software piattaforme semplciemente se ne frega di chi ha lo 0,3%?
eh no, mi scaldo si, visto che i 1200 euro per quel cesso di VEGA FE che dai bench sembrava un meraviglia di GPU li ho spesi :mad:.
- se i bug di un determinato software si risolvono con la nuova release di driver, senza aggiornare il software e senza cambiare nessun pezzo hardware, secondo te di chi è colpa ?
- se la GPU discreta ha problemi con alcune delle GPU integrate delle MB per server, e i problemi si risolvono con l'uso della release dopo dei driver, secondo te di chi è colpa ?
- se, utilizzando 3 software grafici in muti-tasking abbastanza impegnativi per la GPU, random la schermata del PC diventa nera ( ma il PC non va in crash ) e il problema non si presenta piu dopo l'ultima release dei driver, secondo te, di chi è la colpa, visto che non sono avvenuti altri aggiornamenti contestualmente a quello dei driver video ?
io i 1200 euro glieli ho dati per avere una GPU funzionante da subito, non dopo 12 mesi con release che risolvevano un problema alla volta...
nei giochi potra anche aver recuperato, ma in ambito Pro è semplicemente sterco, ne piu ne meno.
( p.s. il pc non ha nulla, e nemmeno al GPU, visto che i problemi li dava anche su altro PC e che lo stesso, prima e dopo AMD, va con nVidia senza problemi e che la GPU con la release Q4 ha smesso di dare conflitti e schermate nere )
(p.p.s. per carita, nVidia non è esente da problemi, ma santo cielo... qui siamo ben sotto la decenza )
Si direi siano proprio problemi di prodotto acerbo quelli che elenchi.............. non di problemi legati ad applicativi comunque (infatti nei bench dici anche tu che volava) io avevo capito quello....
Amen, testa bassa e recupereranno anche lì...... :stordita:
mikael84
14-09-2019, 14:18
non una 3840 6 raster 96 rops sempre 12gb? :p
#uscitela5800
Lo scaling a 6 geo, comprende una rivisitazione architetturale, con possibile introduzione di altri due ACE, HWS. Non penso che con RDNA1 rivedano queste cose.
Aggiungere due motori, 32 rop's, e 128bit ddr6, comporta anche dei consumi non indifferenti, salvo non calare di vcore in stile 5700 liscia (la tensione dovrebbe essere di 0,95v non certo 1,2v, tensione da 28nm) ed accontentarsi di 1600/1700 di clock.
C'è un problema che continuano a rivelare i sintetici e le ddr6, che anche mettendo 96 rop's in blending forse ne sfrutti 64.
Si passerebbe a quasi 15mld di transistor su un die equivalente a circa 600mm2 16nm.
Aumenta la l1 e la l2 passa a ben 6mb.
AMD ormai lavora su RDNA2, vedo difficile ipotizzare grossi stravolgimenti.
Lavorare su 4 engine è sicuramente più conveniente, sopratutto se l'obbiettivo è la 2080 super, full tu104.:)
Io so solo che mi ritrovo con un 4k freesync e sono costretto a giocare a 1440p con vsync con una 1080 e qua non si vede nulla per il 4k che come minimo costerà 800€ che non posso permettermi salvo miracoli da parte di amd lato prezzo...se va bene dopo natale!
mircocatta
15-09-2019, 10:58
Io so solo che mi ritrovo con un 4k freesync e sono costretto a giocare a 1440p con vsync con una 1080 e qua non si vede nulla per il 4k che come minimo costerà 800€ che non posso permettermi salvo miracoli da parte di amd lato prezzo...se va bene dopo natale!
Perdonami ma comprando un 4k in che fascia di vga pensavi di cadere? Quelle da 300-400€? :stordita:
Perdonami ma comprando un 4k in che fascia di vga pensavi di cadere? Quelle da 300-400€? :stordita:
Inizialmente l'ho presa per l'ho preso per la one x!
Per carità la 1080 qualcosa in 4k lo regge, ma poca roba!
Cmq adesso la colpa è mia se esistono monitor 4k freesync e non le GPU!
:muro:
Ps:tra l'altro io volevo prendere una vega 64....voi le avete viste...minatori dei miei stivali!
Windtears
15-09-2019, 11:23
Io so solo che mi ritrovo con un 4k freesync e sono costretto a giocare a 1440p con vsync con una 1080 e qua non si vede nulla per il 4k che come minimo costerà 800€ che non posso permettermi salvo miracoli da parte di amd lato prezzo...se va bene dopo natale!
freisar, sarò sincero visto che sto anche sul forum di là, il tuo errore è stato farti consigliare da quel covo di fanboy nvidia di EE... non si consiglia mai una scheda nvidia ha chi ha freesync. Punto. Ovviamente vale il contrario per chi ha monitor gync.
Ti fossi comprato una vega 56-64 o adesso una 5700xt avresti potuto giocare col freesync tranquillamente, ovviamente disabilitando le schifezze ammazzafps non ottimizzate. Dai test la xt in molti giochi col 4k ci sta sui 60fps (e anche di più, ubisoft esclusa), magari usando il ris potresti anche "accontentarti" e vendere la 1080 prima che si svaluti, ma visto che hai aspettato tanto conviene capire quanto devi aspettare la 5800 e poi decidere.
Ognuno compra il meglio che può per il suo budget in un certo momento.
Con la palla di vetro è tutto più semplice. "se avessi fatto, se avessi aspettato...".
Windtears
15-09-2019, 15:30
Ognuno compra il meglio che può per il suo budget in un certo momento.
Con la palla di vetro è tutto più semplice. "se avessi fatto, se avessi aspettato...".
Vul, non è un giudizio con il "senno di poi"... in quel forum amd non esiste o fa schede di merda, per cui non le consigliano a prescindere... poi uno si trova a non sfruttare al 100% il proprio hw sia una scheda video o il monitor.
La 1080 non si discute, ma su un monitor freesync (e ben prima che nvidia iniziasse a supportare adaptive sync solo dove dice lei) non aveva senso allora, adesso, né in futuro (a meno che nvidia non molli gsync, ma la vedo dura visto che con lg adesso lo supporta pure su alcune tv).
Free Gordon
15-09-2019, 15:48
Inizialmente l'ho presa per l'ho preso per la one x!
Per carità la 1080 qualcosa in 4k lo regge, ma poca roba!
Cmq adesso la colpa è mia se esistono monitor 4k freesync e non le GPU!
:muro:
in che senso non esistono le GPU?
Vega e Navi ti permettono di giocare in 4K, sopra i 30fps sicuramente.
Certo, se cerchi frame rate molto più alti ti conviene una 2080Ti... :)
Crysis76
15-09-2019, 16:02
fai uno SLI di 1080 , se la main lo supporta e il portafogli pure
ma le scatolette permettono il 4k sopra i 30fps?
chiedo perché non seguo il mondo console
Windtears
15-09-2019, 16:28
fai uno SLI di 1080 , se la main lo supporta e il portafogli pure
ma le scatolette permettono il 4k sopra i 30fps?
chiedo perché non seguo il mondo console
sopra no, locked si... e comq è il solito checkboard da 1800p. -.-
Crysis76
15-09-2019, 19:23
sopra no, locked si... e comq è il solito checkboard da 1800p. -.-
ah ok, allora perché ci sono utenti che paragonano il 4k sul pc con quello delle console ? . Mi sfugge qualcosa?
Perché se su console si accontentano di 30fps@4k e su pc vogliono i 60-100?
fraussantin
15-09-2019, 19:47
ah ok, allora perché ci sono utenti che paragonano il 4k sul pc con quello delle console ? . Mi sfugge qualcosa?
Perché se su console si accontentano di 30fps@4k e su pc vogliono i 60-100?Questione di abitudine. Su console è da sempre che son abituati a 30 fps.
Su PC con quello che costano è una eresia solo parlarne.
mircocatta
15-09-2019, 23:24
Inizialmente l'ho presa per l'ho preso per la one x!
Per carità la 1080 qualcosa in 4k lo regge, ma poca roba!
Cmq adesso la colpa è mia se esistono monitor 4k freesync e non le GPU!
:muro:
Il 4k è una res che è e rimarrà "costoso da gestire" ancora per un po'.. per cui mi chiedo perché lamentarsi dell'assenza di gpu > radeon vii se non si è disposti a spendere comunque oltre i 600€/700€, anche ci fossero già le 5800xt imho costeranno comunque cifre molto alte
Io i vostri discorsi sulle risoluzioni non li sopporto, sono distaccati dalla realtà.
Prendi una 7970 ed è la scheda perfetta per i 1080p? Hmmmm...
Se giochi a giochi fino al 2010 si. Ci giochi anche nel 2019...? Certo..ma con che rinunce?
Allora prendiamo una gpu superiore, prendiamo una 2060 super.
Ci giochi a 1080p? Certo. Eppure, anche la 2060 super soffre in certi giochi a 1080p, e certi come l'ultimo rise of the tomb raider satura anche i 6gb, anche a 1080p...
Ergo, sta storia dei 4k dovete capire che non ha senso. Non esisterà mai la scheda definitiva per i 4k.
2080ti e 1080p?
Si certo..dipende dalle tecnologie..con effetti rtx maxati muore anche quella gpu...a 1080p..
Prendetevi la gpu migliore per le vostre tasche e dormite sereni che l'hardware definitivo non esiste mai.
Anche la 980 era quasi perfetta per i 4k...se ci si fermava ai giochi del 2013/2014..E anche la 2080ti è perfetta o quasi..se ci si ferma ai giochi di oggi..
fraussantin
15-09-2019, 23:55
Ci giochi a 1080p? Certo. Eppure, anche la 2060 super soffre in certi giochi a 1080p, e certi come l'ultimo rise of the tomb raider satura anche i 6gb, anche a 1080p...
gli bastano e avanzano .
https://www.youtube.com/watch?v=SULRTI234vE e considera che il gioco è più leggero del benchmark .
non torniamo dietro con i soliti discorsi di un anno fa. e cmq se per quello far cry 5 ne satura 8 in full hd se metti le texture hd. siamo su pc come metti le mani per disattivare rtx puoi metterle per disattivare altre cavolate che non servono ad un tubero.
Bello perchè il tuo video mostra chiaramente già a 1080p che 6gb sono saturi..
fraussantin
16-09-2019, 00:37
Bello perchè il tuo video mostra chiaramente già a 1080p che 6gb sono saturi..
io ne vedo usati 5.5 sia in full hd che in 4k e sappiamo entrambi cosa significa
Gyammy85
16-09-2019, 09:45
fai uno SLI di 1080 , se la main lo supporta e il portafogli pure
ma le scatolette permettono il 4k sopra i 30fps?
chiedo perché non seguo il mondo console
SLI di 1080? auguri
Ci sono diversi giochi che girano a 4k 60 sulla one x, pure gears 5 mi pare
Io so solo che mi ritrovo con un 4k freesync e sono costretto a giocare a 1440p con vsync con una 1080 e qua non si vede nulla per il 4k che come minimo costerà 800€ che non posso permettermi salvo miracoli da parte di amd lato prezzo...se va bene dopo natale!
Comunque almeno il freesync lo puoi attivare lo stesso ;)
Non ti darà le prestazioni che mancano, ma a livello di fluidità ti aiuta e con i giusti accorgimenti ci puoi giocare dignitosamente
Comunque almeno il freesync lo puoi attivare lo stesso ;)
Non ti darà le prestazioni che mancano, ma a livello di fluidità ti aiuta e con i giusti accorgimenti ci puoi giocare dignitosamente
E qui il punto il mio monitor non è compatibile con il freesync nvidia!
Non è certificato, ma che io sappia è attivabile su tutti a patto che si utilizzi una displayport (e credo che tutti i monitor non TV ad alte risoluzioni la abbiano)
mircocatta
16-09-2019, 14:31
E qui il punto il mio monitor non è compatibile con il freesync nvidia!
con una 5700xt spenderesti il giusto e sfrutteresti a dovere il tuo schermo perchè, appunto, il freesync serve proprio in quei casi che non riesci a mantenere stabile il frame rate sopra al refresh del monitor
HadesSaint
17-09-2019, 09:07
devo capire sti 3vbios della nitro+ ..uno semplice uno spinto e l'altro?
devo capire sti 3vbios della nitro+ ..uno semplice uno spinto e l'altro?Normale, spinto e... Porno 😅
Free Gordon
17-09-2019, 12:59
Io i vostri discorsi sulle risoluzioni non li sopporto, sono distaccati dalla realtà.
Certo, il tuo discorso è corretto.
E' anche chiaro però che se, considerando un certo periodo storico, uno desidera una scheda che gestisca bene i games contemporanei alla massima risoluzione, non è Navi la scelta migliore in assoluto.
La scelta è soggettiva, personalmente se potessi... adesso giocherei su un monitor sui 30pollici, con freesync lfc, 1440p e una Navi full.
Il 4K e la 2080Ti sono troppo troppo cari imho (per ciò che danno in più).
Gyammy85
17-09-2019, 14:39
Altre apparizioni di navi 12
https://twitter.com/KOMACHI_ENSAKA/status/1173861103014563840
id 7360 e 7362, 5800 e 5800xt?
ninja750
17-09-2019, 14:54
non si era detto che non sarebbero mai esistite le 5800? ma tecnicamente solo delle 5600?
Certo, il tuo discorso è corretto.
E' anche chiaro però che se, considerando un certo periodo storico, uno desidera una scheda che gestisca bene i games contemporanei alla massima risoluzione, non è Navi la scelta migliore in assoluto.
La scelta è soggettiva, personalmente se potessi... adesso giocherei su un monitor sui 30pollici, con freesync lfc, 1440p e una Navi full.
Il 4K e la 2080Ti sono troppo troppo cari imho (per ciò che danno in più).
O forse i 4k vanno benissimo anche con gpu non top a patto di non voler per forza maxare ogni singolo setting, di cui la maggior parte inutili e che raramente migliorano la qualità?
Free Gordon
19-09-2019, 01:41
O forse i 4k vanno benissimo anche con gpu non top a patto di non voler per forza maxare ogni singolo setting, di cui la maggior parte inutili e che raramente migliorano la qualità?
D'accordissimo che tra high e ultra ci sia pochissima differenza visiva e grande differenza di prestazioni, ma non credo che Navi gestisca bene i giochi in 4K ad high. Soprattutto gli ultimi.
Se così fosse, basterebbe una 5700XT effettivamente.. ;)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.