View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™
VanCleef
23-12-2019, 14:49
Le nuove console saranno sicuramente un ottimo prodotto, ma meno spettacolari di quanto si creda, saranno sempre console che devono contenere dei costi ma soprattutto un prezzo di vendita non certo da fascia premium.
concordo ma faccio notare che si possono permettere di vendere l'hardware con un guadagno risicatissimo se non nullo dato che ormai gli introiti arrivano sopratutto dai servizi collegati al possedere una console.
Della serie: meglio venderne il 100 ricavando 1 che venderne 10 ricavando 2...
Un chip grosso col il tu106 costruito a 7nm+ UV non é che te lo regalano. Ma ricordo che non é che ci sarà solo quello.
Si parla di un controller da 100 euro , una nvme da 1 tera , 12 giga di gddr6 , alimentazione adeguata sia come regolatori di tensione che come psu , lan , wifi e cavolatine necessarie.
La vecchia console aveva una apu basata su un processore insulso e una GPU da 200 euro e costava cmq una cifra importante . E a detta di loro era venduta a rimessa.
Qui si parla di ben altri costi.
Va beh ne riparleremo a ottembre 2020
Il vero passo avanti è la CPU. Quella di PS4 e XBOX ONE era davvero poca roba, un bobcat rimaneggiato.
Lato GPU era la fascia media da 212mm² a 28nm, una 7870. Che ricordo aveva 2GB GDDR5 contro gli 8GB delle console. Non vedo molta differenza, proporzionalmente, con una 5700xt rimpicciolita a 7nm+ :D
Per quanto riguarda gli accessori ho i miei dubbi sul nvme da 1TB, il pad costerà 100 euro a noi poveri cristi, di certo non a loro :)
Poi nulla vieta di ficcarci di tutto e di più e aumentare di 100 euro il prezzo finale...
Ale55andr0
23-12-2019, 17:27
concordo ma faccio notare che si possono permettere di vendere l'hardware con un guadagno risicatissimo se non nullo dato che ormai gli introiti arrivano sopratutto dai servizi collegati al possedere una console.
Della serie: meglio venderne il 100 ricavando 1 che venderne 10 ricavando 2...
i produttori di console prendono soldi anche (e soprattutto..) in percentuale per ogni gioco venduto...
certo che una console con 8core zen2,piu' una specie di 6700 con RT in hw,16/24? GB gddr6,e' veramente tanta roba per 500€
se MS la rilascia direttamente con W10 e compatibilita' totale,o quasi,alle applicazioni x86,farebbe tabula rasa di tutti i ridicoli assemblati che ci sono in giro:asd:
fraussantin
23-12-2019, 22:15
Per quanto riguarda gli accessori ho i miei dubbi sul nvme da 1TB, il pad costerà 100 euro a noi poveri cristi, di certo non a loro :)
Poi nulla vieta di ficcarci di tutto e di più e aumentare di 100 euro il prezzo finale...
secondo me è obbligatorio . un disco meccanico tempo 1 anno diventa lentissimo e fare lo streaming di texture in alta qualità su dischi lenti crea sempre problemi. q se vogliono usare quella vram decentemente servirà anche un ssd decente. poi se non sarà nvme sarà sata , cmq non è che costi troppo meno.
per il controller si a loro costerà 20 euro , ma poi ci va calcolato la percentuale di ricarico , spese ecc come su tutto anche se vai in pareggio ce la devi mettere assieme alle tasse. Il vero passo avanti è la CPU. Quella di PS4 e XBOX ONE era davvero poca roba, un bobcat rimaneggiato.
Lato GPU era la fascia media da 212mm² a 28nm, una 7870. Che ricordo aveva 2GB GDDR5 contro gli 8GB delle console.
su questo ancora non capisco a cosa gli serva una cpu del genere. un 4 core buono è più che sufficente per una console con obbiettivo 4k 60 fps . non deve gestire tutta la roba di un pc Non vedo molta differenza, proporzionalmente, con una 5700xt rimpicciolita a 7nm+ :D
mah il 7nm+( quello vero) a quanto pare costerà e non poco quello vecchio il prossimo anno sarà a sconto , che poi non è che posson oprodurre i chip a ottobre.. questi devono essere pronti ben prima ed in elevata quantità , non è una radeon 7 che ne vendi 3 per città , qui ce ne vogliono a vagonate
fraussantin
24-12-2019, 08:19
comincio a rivalutare il mio modo di capire le donne, sono meno misteriose del masterracer.
Sicuramente le sparano meno grosse di certi fanboy o quanto meno non le ho mai sentite dire , mmmo esce la nuova borsa di Mario CoZZ ci mettono i laccetti con i brillantini di sviaroski e costerà 50 euro .. liujjjo preparati a fallire...
fraussantin
24-12-2019, 08:41
di tutto il discorso sono riuscito solo a colpirti sull'orgoglio con una battuta sui 3.5gb della tua ex 970 (vga che per altro ho avuto pure io! hihi).... ma i fanboy sono sempre gli altri eh! :asd:Veramente no. Non mi pare proprio di essermi riferivo a quella.
Potrei ripeterlo per la centordesima volta che La 970 é stata una grande scheda e con 3.5 giga di RAM ,.visto che il 4 in 1080p non lo usava non ha mai dato problemi. Fatti piú volte test e controtest qui sul forum.
E siccome l'hai avuta lo sai anche tu.
Anche la sua concorrente 290 lo era ,ma tra le 2 preferisco sempre Nvidia per il sw di corredo che offre tra cui ansel.
Ma questo non c'entra nulla con il discorso Xbox , budget ristretto , 500 euro , e non poterci infilare il mondo intero dentro.
Rimane aperta anche la possibilità 2 console una da 899 e una da 499.
Ale55andr0
24-12-2019, 14:28
https://multiplayer.it/notizie/ps5-e-xbox-series-x-inferiori--geforce-rtx-2080-secondo-nvidia.html?comment_page=3#comment_c7661519
peccato che nei titoli ottimizzati una 5700xt da 9.75tflop va come una 2080. Ovviamente sono un manciata di titoli, SIA CHIARO.....MA su una console ottimizzi SEMPRE per l'hardware che hai, ergo coi 12tflop delle nuove potran fare solo che ulteriormente meglio ergo caro Huang, ma che stai a dire?! :rolleyes: E poi che paragone è? Mica le console sono concorrenti delle schede 2080. :doh:
fraussantin
24-12-2019, 14:35
900 euro una console? secondo me neanche il sonaro più incallito comprerebbe una playstation a 900, posto che non siamo più nel 1995 dove qualche folle le comprava a 1milione e mezzo di lire di importazione.
il fatto è che qui dentro, inteso come forum di "appassionati" spendaccioni e viziati (mi ci metto pure io eh) di hw e maximum details, preferiremmo avere una console uberpower ed in barba se costa 300 in più su 5 anni di vita utile, noi 300 li spendiamo in mouse rgb per 6 mesi d'uso.
il 95% degli utilizzatori console, anche quelli che si denigravano tra di loro per 1080p vs 900p (ps4 vs one), di hw uber e maximum detail se ne sbattono allegramente, mentre condannano una console se costa 100 di più dell'altra (one con kinect).
la verità secondo me al solito deve stare nel mezzo, la console potente (one x) mi ha fatto passare da masterracer a consolaro (e come me tanti altri, complice anche fenomeni come il mining che ha reso impossibile comprare vga per 2 anni), dall'altro lato bisognerebbe rendersi conto (e provarle per bene) che l'ombra dell'ombra sfumata in 8k in gioco non è tanto percepibile rispetto ad una buona ombra che impatta il 300% in meno sulle performance.... e non tiriamo in ballo i 30fps costanti e fluidi che, dopo 1 settimana di adattamento, diventano più o meno godibili o ininfuenti su buona parte dei giochi (ho detto buona parte, non tutti, posto che su one x a 30fps gira poca robba e tutto per colpa della CPU).
Ma guarda al di là del sistema chiuso , no modding , grafica e framerate quel che é , secondo me il piú grosso limite delle scatolette é la mancanza di un sistema di controllo preciso per gli fps. Col pad non c'è la faccio a giocare a moltissimi giochi.
Ale55andr0
24-12-2019, 14:54
beh quando il gaming è indirizzato allo streaming (e per ora i server di google montano amd e quelli di x cloud probabilmente pure....) e molti pc gamer stanno passando a console è chiaro che a nvidia parte un attimino la strizza e si lascia andare ad una fase "legittimamente" disturbatoria, ogni attore farà la sua parte per tentare di portare acqua al proprio mulino. :)
io spero sempre che oltre a zen2 8 core ci sia sopra una rdna 1.5 se non una rdna 2 e se come ipotizzo la nuova xbox consumerà sui 300w (la one x adesso come picco sta sui 150w) ma in cambio offrirà performance elevate, me ne sbatto :ciapet:
ci sta, ma in questo caso sta dicendo comunque una cosa NON vera, cioè che la 2080 è superiore alle nuove console:
-la 2080 fa 10.6Tflop nominali, (non parlatemi di custom, mega boost ecc ecc. quello è il dato ufficiale NVIDIA e a quello mi attengo), le nuove console, o almeno la nuova xbox, 12tflop, ergo è già inferiore lato mera potenza di calcolo
-con la console spremi all'osso l'hardware, col pc è più difficile, ergo quei 12tflop, che già sono superiori li sfrutti anche meglio di una 2080 aldilà dei discorsi sui tflop
Quel che dice quindi è una vera e propria falsità, che non c'entra nulla col portare acqua al proprio mulino ma potrei benissimo chiamare truffa :rolleyes:
Io l'unica cosa che cambierei è la GPU mai poi immagino con i primi giochi esclusivi NG servirà un octa core perciò credo che investire ora come ora in qualsiasi cosa non abbia senso, aspetto di vedere come sono le console e le nuove GPU e i prezzi sopratutto!
mikael84
24-12-2019, 16:49
https://multiplayer.it/notizie/ps5-e-xbox-series-x-inferiori--geforce-rtx-2080-secondo-nvidia.html?comment_page=3#comment_c7661519
peccato che nei titoli ottimizzati una 5700xt da 9.75tflop va come una 2080. Ovviamente sono un manciata di titoli, SIA CHIARO.....MA su una console ottimizzi SEMPRE per l'hardware che hai, ergo coi 12tflop delle nuove potran fare solo che ulteriormente meglio ergo caro Huang, ma che stai a dire?! :rolleyes: E poi che paragone è? Mica le console sono concorrenti delle schede 2080. :doh:
Ha ragione lui, il chip ps5, salvo modifiche strutturali offrirà il 12% circa medio di performance superiori ad una 5700xt, tale picco può anche calare per via di alcuni stadi moltiplicatori inferiori per clock.
Considerando che una 5700xt è pari o mediamente inferiore ad una 2070s nei titoli complessivi (unreal etc), il livello di potenza raggiungibile medio sarà quello di una 2080/s;)
https://i.postimg.cc/FkYgdW19/postimage.png (https://postimg.cc/FkYgdW19)
Mica poco la potenza di una 2080 nelle prossime console, ma del resto tocca fare così visto che stavolta il 4K devono standardizzarlo per davvero, senza trucchetti di supersampling.
Oirasor_84
24-12-2019, 17:11
https://multiplayer.it/notizie/ps5-e-xbox-series-x-inferiori--geforce-rtx-2080-secondo-nvidia.html?comment_page=3#comment_c7661519
peccato che nei titoli ottimizzati una 5700xt da 9.75tflop va come una 2080. Ovviamente sono un manciata di titoli, SIA CHIARO.....MA su una console ottimizzi SEMPRE per l'hardware che hai, ergo coi 12tflop delle nuove potran fare solo che ulteriormente meglio ergo caro Huang, ma che stai a dire?! :rolleyes: E poi che paragone è? Mica le console sono concorrenti delle schede 2080. :doh:Ma di cosa ti meravigli,pensa a quando presentò la gtx480 sul palco e in mano aveva un pezzo di cartone.
Inviato dal mio Mi A1 utilizzando Tapatalk
Ale55andr0
24-12-2019, 17:16
Ha ragione lui, il chip ps5, salvo modifiche strutturali offrirà il 12% circa medio di performance superiori ad una 5700xt, tale picco può anche calare per via di alcuni stadi moltiplicatori inferiori per clock.
Considerando che una 5700xt è pari o mediamente inferiore ad una 2070s nei titoli complessivi (unreal etc), il livello di potenza raggiungibile medio sarà quello di una 2080/s;)
https://i.postimg.cc/FkYgdW19/postimage.png (https://postimg.cc/FkYgdW19)
perdonami ma io parlo di giochi console OTTIMIZZATI con quell'hardware..e se su pc (dove non fai quello che fai su console) una 5700xt "nei suoi titoli "ottimizzati" va come una 2080(e in alcuni casi eclatanti meglio) lui su una gpu like 5700xt "plus" 12% non ha ragione manco per il cazzo, scusa il francesismo :O
Su console ottimizzi sempre per quell'hardware, i discorsi sulla media a paragone dell'andamento AMD/nvidia dei vari engine in ambiente pc lasciano un po' il teppo che trovano: a pari tflop su pc andrà sempre meno (lo dice carmak, non io..e parla addirittura di valori sino al doppio...) quindi non possiamo automaticamente fare lo stesso discorso trasposto su ambiente diverso, non del tutto almeno.
Non esistono discorsi di livello medio per quanto mi riguarda, i giochi nascono per girare prima sulle console a riferimento, poi ti metto due opzioni AMMAZZA frame nella versione pc. A pari potenza la versione pc NON andrà mai come quella console
fraussantin
24-12-2019, 17:21
perdonami ma io parlo di giochi console OTTIMIZZATI con quell'hardware..e se su pc (dove non fai quello che fai su console) una 5700xt "nei suoi titoli "ottimizati" va come una 2080(e in alcuni casi meglio..) lui su una gpu like 5700xt "plus" 12% non ha ragione manco per il cazzo, scusa il francesismo :O
Non esistono discorsi di livello medio per quanto mi riguarda, i gioch nascono per girare prima sulle console a riferimento, poi ti metto due opzioni AMMAZZA frame nella versione pc. A pari potenza la verisone pc NON andrà mai come quella consoleSe la console sarà quella davvero non servirà nessun effetto ammazza frame.
Un 9900k e un 3950 saranno da buttare nel cesso assieme alla fascia alta delle attuali GPU.
Sai cosa vuol dire mettere un 3700x in una console?
Se la console sarà quella davvero non servirà nessun effetto ammazza frame.
Un 9900k e un 3950 saranno da buttare nel cesso assieme alla fascia alta delle attuali GPU.
Sai cosa vuol dire mettere un 3700x in una console?
Eh certo, e secondo te gli sviluppatori ammazzano il mercato PC gaming creando dei requisiti su PC sbalorditivi, rendendo obbligatorio avere il doppio delle risorse dell'hardware console. Ma come ti viene in mente?
Ale55andr0
24-12-2019, 17:27
Sai cosa vuol dire mettere un 3700x in una console?
no, non lo so perchè il 3700x ha 7-800mhz in più a core (4.3).. non capisco perchè ti sei fissato che è un 3700x :asd: se è per architettura e numero di core potresti anche chiamarlo 3800x se è per quello, fisicamente il chip è quello ma la frequenza di quasi 1ghz x 8 in meno cambia un paio di cosine :D
Comunque ho capito il tuo discorso (specie lato draw call e con una cpu che resta notevolissima su console...)...considera però che non riusciranno a spremere tutta la potenza della cpu in fretta, specie considerando le fetecchie alle quali erano abituati :asd: ergo il giorno che ci riusciranno penso che noi staremmo parlando di ryzen 6000 o giù di li :asd:
fraussantin
24-12-2019, 17:30
Eh certo, e secondo te gli sviluppatori ammazzano il mercato PC gaming creando dei requisiti su PC sbalorditivi, rendendo obbligatorio avere il doppio delle risorse dell'hardware console. Ma come ti viene in mente?Beh non lo faranno, almeno subito , ma di certo non avranno bisogno di effetti ammazza frame.
Sempre se ..
@alessandro basterà aspettare i nuovi Intel ddr5 vedrai come li spingeranno agevolmente.
Esatto, prima che sfruttino al meglio quella CPU si farà quasi fine generazione e intanto su PC saranno usciti nuove CPU. Le console dovranno durare altri 6-7 anni, come al solito, e le risorse le si sfrutta col tempo. Comunque non vedo perché mai una CPU Zen 2 monca su console dovrebbe portare le sette piaghe d'Egitto su PC, semplicemente usciranno giochi dove un 6/8 core sarà molto più utile di un 4 core, che nei giochi è durato ben 10 anni e ancora dura adesso, anche se per ancora un anno. Io vedo semplicemente un ulteriore avvicinamento delle console ai PC, e la necessità di dover riaggiornare la GPU quando possibile, per via della nuova richiesta VRAM ancor prima che di teraflops.
fraussantin
24-12-2019, 17:36
Esatto, prima che sfruttino al meglio quella CPU si farà quasi fine generazioni e intanto su PC saranno usciti nuove CPU. Le console dovranno durare altri 6-7 anni, come al solito, e le risorse le si sfrutta col tempo. Comunque non vedo perché mai una CPU Zen su console dovrebbe portare le sette piaghe d'Egitto su PC, semplicemente usciranno giochi dove un 6/8 core sarà molto più utile di un 4 core, che nei giochi è durato ben 10 anni e ancora dura adesso, anche se per ancora un anno. Io vedo semplicemente un ulteriore avvicinamento delle console ai PC, e la necessità di dover riaggiornare la GPU quando possibile, per via della nuova richiesta VRAM ancor prima che di teraflops.Se smettono di ottimizzare perché tanto la cpu é Li a non far niente vedi che risate.
La CPU delle attuali console mette in crisi anche dei buoni processori Intel o amd in certi giochi. Se la ragia sarà quella al prossimo cambio gen ci sarà da ridere
Secondo me no sarà quello che si é predetto , ma se lo sarà verrà sfruttato perché non ha senso spendere per ottimizzare se hai l'hw che sta fermo.
Stai affermando che gli sviluppatori non ottimizzeranno più sulla versione PC, ma questo vuol dire tutta una serie di problemi enormi perché la versione PC va lavorata in vista delle GPU e come lavora con le memorie che per forza di cose sono completamente diverse nel funzionamento rispetto su console. Non è possibile non ottimizzare più giochi per PC.
Gyammy85
24-12-2019, 18:08
Ma di cosa ti meravigli,pensa a quando presentò la gtx480 sul palco e in mano aveva un pezzo di cartone.
Inviato dal mio Mi A1 utilizzando Tapatalk
Si rendono conto che i loro annunci ormai generano lo stesso hype di un tostapane rotto, così qualcuno dell'ufficio stampa avrà pensato "ehi, perché non fare qualche articolo dove spariamo balle a iosa sulle console AMD, magari vendiamo qualche 2060s in più" :asd:
Windtears
24-12-2019, 18:30
ragazzi, io vi auguro buon natale... non ammazzatevi troppo con gli OT sulle console (anche se fanno ben sperare le future gpu pc). :)
Ton90maz
24-12-2019, 18:52
I valori RT sono decisamente troppo elevati per essere menzionati come calcolo.
56 RT ad esempio (1rt per CU) producono un picco di 9 g/rays, ovvero 90 tflops.
12 tf fp32 vengono calcolati tramite n. DCU per clock su 7nm+Non parlo di utilizzare solo le unità "generiche" per il RT, ma di integrarle a unità dedicate. Ancora non sappiamo come amd implementerà il RT, ma si può escludere che a servirà maggiore potenza di calcolo, per eseguire tali operazioni?
Free Gordon
24-12-2019, 19:08
Su console ottimizzi sempre per quell'hardware, i discorsi sulla media a paragone dell'andamento AMD/nvidia dei vari engine in ambiente pc lasciano un po' il teppo che trovano: a pari tflop su pc andrà sempre meno (lo dice carmak, non io..e parla addirittura di valori sino al doppio...) quindi non possiamo automaticamente fare lo stesso discorso trasposto su ambiente diverso, non del tutto almeno.
Non esistono discorsi di livello medio per quanto mi riguarda, i giochi nascono per girare prima sulle console a riferimento, poi ti metto due opzioni AMMAZZA frame nella versione pc. A pari potenza la versione pc NON andrà mai come quella console
Questo era vero più un tempo che oggi...
Oggi le console sono programmate ad alto livello, la ONE sarà una sorta di pc in scatola con qualche ottimizzazione ma nulla di paragonabile alle customizzazioni che si videro con PS3 o Xbox360 e soprattutto al lavoro a basso livello che si faceva su quelle macchine.
Ton90maz
24-12-2019, 19:14
perdonami ma io parlo di giochi console OTTIMIZZATI con quell'hardware..e se su pc (dove non fai quello che fai su console) una 5700xt "nei suoi titoli "ottimizzati" va come una 2080(e in alcuni casi eclatanti meglio) lui su una gpu like 5700xt "plus" 12% non ha ragione manco per il cazzo, scusa il francesismo :O
Su console ottimizzi sempre per quell'hardware, i discorsi sulla media a paragone dell'andamento AMD/nvidia dei vari engine in ambiente pc lasciano un po' il teppo che trovano: a pari tflop su pc andrà sempre meno (lo dice carmak, non io..e parla addirittura di valori sino al doppio...) quindi non possiamo automaticamente fare lo stesso discorso trasposto su ambiente diverso, non del tutto almeno.
Non esistono discorsi di livello medio per quanto mi riguarda, i giochi nascono per girare prima sulle console a riferimento, poi ti metto due opzioni AMMAZZA frame nella versione pc. A pari potenza la versione pc NON andrà mai come quella consoleCon tutto il rispetto per Carmack, ha detto una cazzata :asd:
Fortunatamente esistono DF e affini, con i loro confronti che dimostrano la falsità di tali affermazioni. I giochi su console non sono SEMPRE super ottimizzati, così come non sono sempre ottimuzzati peggio, su pc. Non ho voglia di approfondire la questione (non adesso almeno :asd), ma puoi trovare tutte le info del caso.
@Mikael84: ma sto 12% da dove esce? Considerando la frequenza media "tipica" delle 5700 xt, 12 tflops sono quasi il 30% in più.
Ton90maz
24-12-2019, 19:24
I Tflops si contano sempre e solo per la GPU.
Non riesco a capire perchè dovrebbe essere impossibile, parliamo di una CPU da 199mm² e di una GPU da 251mm² in cui dobbiamo aggiungere solo 2 Tflops.
Facciamo 500mm² (pardon Mikael è spannometrico) sui quali applicare un +20% di densità. E aggiungere le unità RT che comunque occupano pochissimo.
Con 500mm² fai tutto e credo di essere stato molto largo, siamo a livello di una 2060 super come dimensioni...Se non ci hanno presi in giro (cosa alquanto probabile :asd: ), il SoC che microsoft ha svelato si stima sia da circa 380-400 mm^2. Si potrebbe già fare una stima di quello che c'è dentro.
A 7 nm+, semmai useranno tale processo, i numeri potrebbero essere diversi, ma bisogna vedere se davvero produrranno chip il 20% più densi.
fraussantin
25-12-2019, 07:19
Innanzitutto buongiorno e buon natale!
Stamani mi sono svegliato con questa news , riguardo alla conferenza del nostro amico Fonzie verde.
https://tech.everyeye.it/notizie/nvidia-il-ceo-dichiarato-superiorita-geforce-rtx-ps5-xbox-series-x-418630.html
Ora non avevo seguito la conferenza , ma qui si parla non di 2080 superiore a Xbox ma Di 2080maxq e siccome non seguo più i portatili da qualche anno sono andato sul buon vecchio notebookcheck a cercarmi cosa ci fosse di diverso rispetto ad una 2080 desktop.
https://www.notebookcheck.net/NVIDIA-GeForce-RTX-2080-Max-Q-Graphics-Card.386276.0.html
Ecco mi pare che ci sia una bella differenza ma ripeto non conosco il chip i questione perchè non mi interessa in generale
Ora potrebbe essere una delle tante sparate a cui ci ha abituato , potrebbe essere la veritá , potrebbe essere Everyeye che ha bisogno di qualche click in più di multiplayer , non so cosa dire , ma certo riapre qualche dubbio.
Metto un bench a caso di un gioco pro amd ,ma lì ci sono tutti https://uploads.tapatalk-cdn.com/20191225/4260a76159f5b54f736dfce95cabe19c.jpg
Stai affermando che gli sviluppatori non ottimizzeranno più sulla versione PC, ma questo vuol dire tutta una serie di problemi enormi perché la versione PC va lavorata in vista delle GPU e come lavora con le memorie che per forza di cose sono completamente diverse nel funzionamento rispetto su console. Non è possibile non ottimizzare più giochi per PC.
E quando mai hanno ottimizzato i giochi per PC? :asd: ormai viviamo solo di porting fatti male.
Io stavo affermando che con un hw sovradimensionato smetteranno di ottimizzare anche per console perchè tanto c'è potenza, questo almeno nelle versioni dei giochi per le nuove. poi in modalità low per le vecchie dovranno per forza continuare ad ottimizzare.
Ottimizzare costa e ci vuole tempo.
Roland74Fun
25-12-2019, 07:42
Ragazzi, tenete sempre a mente che le console attuali hanno come riferimento i 30 fps. Qualsiasi cpu di 10 anni a questa parte li può fare anche con giuochi moderni, persino il buon vecchio core 2 quad.
Ottimizzando e spalmando bene le DC sugli 8 core del Jaguar il problema è risolto.
Lato grafico un 30 fps a dettagli medi (di solito é l'ultimo step grafico ad uccidere le prestazioni senza a volte troppa differenza di resa) in 1440p upscalati in 4k si possono fare anche su polaris.
Provato di persona con la RX 480.
La Xbox1x poi ha 4 cu in più che non guastano.
I 60fps a 1080p su ps4 (slim) li ho visti solo su FORNITE e su Rainbow six siege, ma stiamo parlando di giochini.
Roland74Fun
25-12-2019, 08:45
Tra un po spunta che la ps3 powered by nVidia è più potente della ps5... Huang ha semplicemente anticipato il capodanno e ne sta sparando a raffica :asd:Esatto, quindi anche il corrispettivo ATI xenos della Xbox 360 coi suoi bei 240 GFlops ed il pixel shader 3.0 sarà meglio di RDNA2 o qualsiasi cosa ci sia nelle prossime console.
fraussantin
25-12-2019, 08:54
Tra un po spunta che la ps3 powered by nVidia è più potente della ps5... Huang ha semplicemente anticipato il capodanno e ne sta sparando a raffica :asd:
pero di tutte le sparate assurde su queste console è forse quella pìu credibile.
se non sbaglio andrebbe più del doppio della attuale xbox quindi da garantire 4k a 60 fps , ma ad un costo e con dei consumi credibili per il budget e lo scatolotto in questione.
e lascia corda per una versione potenziata che arriverà fra 2,3 anni con rdna2 e i famigerati 12 teraflop reali.
vedremo , ma ho come il sospetto che ci sarà da ridere !
Gyammy85
25-12-2019, 09:24
Tra un po spunta che la ps3 powered by nVidia è più potente della ps5... Huang ha semplicemente anticipato il capodanno e ne sta sparando a raffica :asd:
:asd: io mi aspetto la ps1 remastered con ue4 precaricato e tomb Raider 1 rtx con 9700k+rtx 2060
Io stavo affermando che con un hw sovradimensionato smetteranno di ottimizzare anche per console perchè tanto c'è potenza, questo almeno nelle versioni dei giochi per le nuove. poi in modalità low per le vecchie dovranno per forza continuare ad ottimizzare.
Ottimizzare costa e ci vuole tempo.
Beh il lavoro di ottimizzazione su PC riguarda moltissimi aspetti, anche il dover valutare se dei software in background possano entrare in conflitto con il videogioco o anche le periferiche esterne, quali mouse e tastiera. Insomma, è un lavoro enorme che non riguarda solo il dover valutare CPU+GPU, quindi dovranno fare quello che han sempre fatto, solo che ora, vista una CPU molto più degna, potranno spingersi nel fare molte più cose di prima.
Roland74Fun
25-12-2019, 10:34
I giochi ottimizzati per PC esistono.
Magari sono giochi che non ci interessano ma ci sono.
I BF girano alla grande con tutto quel popò di roba che fanno muovere, per non parlare di un MAD MAX dalle prestazioni oscenamente eccezionali.
E poi ecco le ultime infornate di giochi in dx12/vulkan nativi: Doom, wolfenstein, WWZ, e persino il recente RDR2 che è pesante certo, ma ha talmente tanta roba a schermo da fare impressione.
E ricordiamoci che l'architettura console è pur sempre x86 e non c'è bisogno di fare i porting come una volta riscrivendo quasi tutto da capo. I nuovi motori fatti per le console di questa generazione sono adatti anche per girare su PC con minori interventi.
arxangel
25-12-2019, 13:21
Dubito che Huang conosca le esatte specifiche delle nuove console, quelle le sanno solo AMD, Sony e Microsoft e si è comunque ancora in tempo a modificarle aggiungendo 100 mhz di qua e 1 giga di là.
Quindi mi sembrano solo sparate non sense.
amon.akira
25-12-2019, 13:36
ovviamente dovete tener presente che le prossime console avranno il raytracing e se l hanno annunciato hanno intenzione di implementarlo nei giochi, quindi che tra un anno una 2080ti di ora costi 500€ può anche essere ma che nello stesso prezzo ti becchi anche un 8+8,piu vram, ssd, pad alimentatore,chassis,raffreddamento...mah non so finirete per restare delusi secondo me ^^
fraussantin
25-12-2019, 13:39
Possono essere sicuramente sparate senza senso , come ha fatto altre volte , ma fidati che Huang Sa benissimo cosa ha in calderone amd. Fa parte del loro lavoro prevedere la concorrenza. Sono a contatto con gli stessi fornitori, le stesse catene di produzione , gli stessi rivenditori e probabilmente qualche bustarella svolazza in tasca a qualcuno in cambio di informazioni.
mikael84
25-12-2019, 15:47
perdonami ma io parlo di giochi console OTTIMIZZATI con quell'hardware..e se su pc (dove non fai quello che fai su console) una 5700xt "nei suoi titoli "ottimizzati" va come una 2080(e in alcuni casi eclatanti meglio) lui su una gpu like 5700xt "plus" 12% non ha ragione manco per il cazzo, scusa il francesismo :O
Su console ottimizzi sempre per quell'hardware, i discorsi sulla media a paragone dell'andamento AMD/nvidia dei vari engine in ambiente pc lasciano un po' il teppo che trovano: a pari tflop su pc andrà sempre meno (lo dice carmak, non io..e parla addirittura di valori sino al doppio...) quindi non possiamo automaticamente fare lo stesso discorso trasposto su ambiente diverso, non del tutto almeno.
Non esistono discorsi di livello medio per quanto mi riguarda, i giochi nascono per girare prima sulle console a riferimento, poi ti metto due opzioni AMMAZZA frame nella versione pc. A pari potenza la versione pc NON andrà mai come quella console
Ma quando mai:p
Tralasciando che rispetto alle schede analoghe, bisogna vedere le caratteristiche dei vari motori, a livello di TMU (2x su navi), livello geometrico, z-buffer e nel caso di AMD la precompilazione dei registri.
Il dato per flops, non è sempre indice.
Ti sei mai chiesto perchè il 70% dei giochi unreal, crytek, ed i vari sintetici allineano una 5700xt ad una 2060 super, ma solo in importanti produzioni la scheda raggiunge una 2070 super?:p
Questo perchè il 25% spesso si perde in emulazioni. evitabili solo tramite registri precompilati e shader intrinsic, che permettono di andare più a basso livello delle nvidia in certi giochi.
Il discorso che fa lui, relativo alla 2080 è mediamente reale, almeno se prendiamo il puro hardware e non le singole ottimizzazioni 1 su 100.
Di picco la console può arrivare alla 2080s ne più ne meno.;)
carmak sta ancora programmando doom3.;)
Questo era vero più un tempo che oggi...
Oggi le console sono programmate ad alto livello, la ONE sarà una sorta di pc in scatola con qualche ottimizzazione ma nulla di paragonabile alle customizzazioni che si videro con PS3 o Xbox360 e soprattutto al lavoro a basso livello che si faceva su quelle macchine.
esatto.
Con tutto il rispetto per Carmack, ha detto una cazzata :asd:
Fortunatamente esistono DF e affini, con i loro confronti che dimostrano la falsità di tali affermazioni. I giochi su console non sono SEMPRE super ottimizzati, così come non sono sempre ottimuzzati peggio, su pc. Non ho voglia di approfondire la questione (non adesso almeno :asd), ma puoi trovare tutte le info del caso.
@Mikael84: ma sto 12% da dove esce? Considerando la frequenza media "tipica" delle 5700 xt, 12 tflops sono quasi il 30% in più.
Il 12% è il valore medio di differenza tra una liscia ed una x, ripreso dal grosos delle review.
Il ratio sarà lo stesso che intercorrerà la 5700xt dal chip console, con la differenza che oltre all' aumento flops, si perde in geometria, rop's.
Bisogna dire però che alcune cose, come il livello di BW sarà differente e meno esoso, rispetto ad un chip desktop.
Oirasor_84
25-12-2019, 16:52
Ma quando mai:p
Tralasciando che rispetto alle schede analoghe, bisogna vedere le caratteristiche dei vari motori, a livello di TMU (2x su navi), livello geometrico, z-buffer e nel caso di AMD la precompilazione dei registri.
Il dato per flops, non è sempre indice.
Ti sei mai chiesto perchè il 70% dei giochi unreal, crytek, ed i vari sintetici allineano una 5700xt ad una 2060 super, ma solo in importanti produzioni la scheda raggiunge una 2070 super?:p
Questo perchè il 25% spesso si perde in emulazioni. evitabili solo tramite registri precompilati e shader intrinsic, che permettono di andare più a basso livello delle nvidia in certi giochi.
Il discorso che fa lui, relativo alla 2080 è mediamente reale, almeno se prendiamo il puro hardware e non le singole ottimizzazioni 1 su 100.
Di picco la console può arrivare alla 2080s ne più ne meno.;)
carmak sta ancora programmando doom3.;)
esatto.
Il 12% è il valore medio di differenza tra una liscia ed una x, ripreso dal grosos delle review.
Il ratio sarà lo stesso che intercorrerà la 5700xt dal chip console, con la differenza che oltre all' aumento flops, si perde in geometria, rop's.
Bisogna dire però che alcune cose, come il livello di BW sarà differente e meno esoso, rispetto ad un chip desktop.
Nei sintetici dx11 la 5700xt va come la 2060s,in time spy con gli ultimi driver fa lo stesso score di una 2070s.
Cryengine e unreal non sono il 70% dei motori usati nei giochi( che poi nel cry engine e derivati dx12 sta in linea con la 2070s),ma sono il 70% dei giochi che mettono nelle recensioni, altrimenti se fai una recensione con giochi tipo,bf1,bf5, rdr2 e ci metto anche cryengine e derivati in dx12, la 5700xt supera la 2070s e tallona la 2080s.
Ora siccome huang addirittura parla della 2080 mobile che ha clock ridotti e dovrebbe avere le stesse performance di una 2070,sta solo facendo marketing e non capisco perché state dando importanza alle parole di uno che è salito sul palco di las vegas alle presentazioni di fermi con una vga finta.
Inviato dal mio Mi A1 utilizzando Tapatalk
mikael84
25-12-2019, 18:22
Nei sintetici dx11 la 5700xt va come la 2060s,in time spy con gli ultimi driver fa lo stesso score di una 2070s.
Hai qualche screen, ad esempio a 1935/50mhz (avg medio delle custom a 10400)?
https://i.postimg.cc/z3dqwL9M/esag.png (https://postimg.cc/z3dqwL9M)
Se fai questo tanto, i driver hanno davero fatto un buon lavoro.;)
Cryengine e unreal non sono il 70% dei motori usati nei giochi( che poi nel cry engine e derivati dx12 sta in linea con la 2070s),ma sono il 70% dei giochi che mettono nelle recensioni, altrimenti se fai una recensione con giochi tipo,bf1,bf5, rdr2 e ci metto anche cryengine e derivati in dx12, la 5700xt supera la 2070s e tallona la 2080s.
Lo so che il sito non ti piacerà, ma è l'unico che testa ogni singolo gioco.
https://gamegpu.com/
Prendi una ventina di giochi, con i vari unreal ed altri motori e fammi vedere che ti esce.;)
Ora siccome huang addirittura parla della 2080 mobile che ha clock ridotti e dovrebbe avere le stesse performance di una 2070,sta solo facendo marketing e non capisco perché state dando importanza alle parole di uno che è salito sul palco di las vegas alle presentazioni di fermi con una vga finta.
Inviato dal mio Mi A1 utilizzando Tapatalk
Qua si, sul mobile siamo al delirio, ma ciò che ho sottolineato io, è che mediamente il chip di microsoft e sony, per come è presentato, nelle buone ipotesi avrà una potenza analoga a quella della 2080/s.
Chiaramente per via della diversità di utilizzo della BW in qualche produzione la può superare, ma in linea di massima la potenza del chip è quella.;)
Oirasor_84
25-12-2019, 19:37
Hai qualche screen, ad esempio a 1935/50mhz (avg medio delle custom a 10400)?
https://i.postimg.cc/z3dqwL9M/esag.png (https://postimg.cc/z3dqwL9M)
Se fai questo tanto, i driver hanno davero fatto un buon lavoro.;)
Se dobbiamo confrontarle stock si guarda il punteggio della reference, ed in questo caso ecco il mio score a stock con clock 1993mhz e la penultima release dei driver nuovi https://www.3dmark.com/3dm/41838572?
500 punti circa sotto la 2070s reference che dovrebbero essere circa 2/3fps meno.
Qui invece con la 5700xt in oc https://www.3dmark.com/3dm/41838926?
con clock a 2100mhz,considera anche la piattaforma diversa e le ram che le ho a 2666mhz
Comunque è nel fristrike ultra che vanno uguali in quello normale forse qualcosina in più la 5700xt
Lo so che il sito non ti piacerà, ma è l'unico che testa ogni singolo gioco.
https://gamegpu.com/
Prendi una ventina di giochi, con i vari unreal ed altri motori e fammi vedere che ti esce.;)
Per quanto riguarda i giochi il sito mi va benissimo anche io lo seguo per farmi un'idea,io intendevo dire che la differenza di performance tra 5700xt e la 2070s sono molto più marcate se si testano 20 giochi di cui 18 sono con unreal ungine e motori in dx11.Discorso diverso se si fa una media inserendo più giochi in dx12 e con motori pro amd tipo frostbyte.
Nel cryengine e derivati anche dx11 tipo far cry 5 a 1080p la 5700xt e a 5 fps dalla 2070s,a 1440p vanno uguali e la 2070 perde terreno e considera che tutte queste recensioni sono fatte con i driver vecchi
Qua si, sul mobile siamo al delirio, ma ciò che ho sottolineato io, è che mediamente il chip di microsoft e sony, per come è presentato, nelle buone ipotesi avrà una potenza analoga a quella della 2080/s.
Chiaramente per via della diversità di utilizzo della BW in qualche produzione la può superare, ma in linea di massima la potenza del chip è quella.;)
Sulle potenzialità dell gpu da console siamo d'accordo,ma si discuteva sulla sparata di huang alla conferenza e siccome addirittura si faceva riferimento alla 2080 mobile mi son detto aspetta un attimo.
Ale55andr0
25-12-2019, 20:02
ovviamente dovete tener presente che le prossime console avranno il raytracing e se l hanno annunciato hanno intenzione di implementarlo nei giochi, quindi che tra un anno una 2080ti di ora costi 500€ può anche essere ma che nello stesso prezzo ti becchi anche un 8+8,piu vram, ssd, pad alimentatore,chassis,raffreddamento...mah non so finirete per restare delusi secondo me ^^
peccato che la 2080ti abbia tipo 700 e passa mm^2 di ciccia per costar tanto, cosa che non sarà nel caso della gpu della console che non ha bisogno di quella mattonella per raggiungere 12tflop a 1600mhz circa (possono essere 56cu a 1675 o 60 a 1563 per quel valore). Poi come si faccia ancora a dubitare del fatto che sia possibile fare una gpu per le console 56/60cu a 7nm rispetto le 40cu a 16nm della one x, e che anzi sia una evoluzione quasi banale e "conservativa", non me lo spiego :asd: (dai 28 ai 14 nm hanno raddoppiato di netto le cu rispetto le versioni lisce...anzi nel caso della one x più che raddoppiato e aumentato di un botto il clock pure...)
Ale55andr0
25-12-2019, 20:05
Possono essere sicuramente sparate senza senso , come ha fatto altre volte , ma fidati che Huang Sa benissimo cosa ha in calderone amd. Fa parte del loro lavoro prevedere la concorrenza. Sono a contatto con gli stessi fornitori, le stesse catene di produzione , gli stessi rivenditori e probabilmente qualche bustarella svolazza in tasca a qualcuno in cambio di informazioni.
...quello che tu dici sotto si chiama spionaggio industriale e in america NON è molto ben visto, li su ste cose non scherzano, ti inchiappettano "senza sputo e con la sabbia" (cit. colta di un utente del forum che non ricordo :asd:). Posto che poi non avrebbe ALCUN senso comunque rischiare perchè non sono nemmeno prodotti che competono nel mercato con loro e che, se è per quello, NON montano nemmeno la medesima gpu che equipaggerà la prossima top amd. Quello che sta facendo huang è sparare azzate giusto per far parlare dei "suoi" prodotti
Ale55andr0
25-12-2019, 20:12
Qua si, sul mobile siamo al delirio, ma ciò che ho sottolineato io, è che mediamente il chip di microsoft e sony, per come è presentato, nelle buone ipotesi avrà una potenza analoga a quella della 2080/s.
Chiaramente per via della diversità di utilizzo della BW in qualche produzione la può superare, ma in linea di massima la potenza del chip è quella.;)
2080 liscia manco per sbaglio, figuriamoci poi la versione portatile :asd:, il picco massimo non può essere la 2080S semplicemente perchè già oggi nei casi favorevoli a quel livello ci si porta la 5700xt che è ben inferiore alla gpu che monteranno le console (no a sto giro manco con le "supercazzole" mi convinci, pardon me :p :p :p ) Ma tolto quello, anche abbracciando la tua visione, "analogo" dalle mie parti non vuol dire inferiore, è questa principalmente la fregnaccia che si contesta al cartoonato dagli occhi a mandorla :asd:
edit: scusate i post in sequenza, ho scordato l'esistenza del multiquote :muro:
fraussantin
25-12-2019, 20:25
...quello che tu dici sotto si chiama spionaggio industriale e in america NON è molto ben vista, li su ste cose non scherzano. Posto che non avrebbe ALCUN senso perchè non sono nemmeno prodotti che competono nel mercato con loro. Quello che sta facendo huang è sparare cazzate giusto per far parlare dei "suoi" prodotti
C'è un sottile limite entro il quale si possono sapere tante cose. Tipo sapere per quanti mesi hanno prenotato la produzione , la quantità di scarti , e altre cose .
Nelle grandi aziende ci sono reparti appositi che devono solo studiate la concorrenza. , Lo devono sapere per sopravvivere.
peccato che la 2080ti abbia tipo 700 e passa mm^2 di ciccia per costar tanto, cosa che non sarà nel caso della gpu della console che non ha bisogno di quella mattonella per raggiungere 12tflop a 1600mhz. Poi come si faccia ancora a dubitare del fatto che fare 56/60cu a 7nm rispetto le 40cu a 16nm delle console attuali sia una evoluzione quasi banale, anzi, direi quasi conservativa :asd:
Sì bisogna capire quanto costa il silicio a 7nm+
.Quello a 7nm normale sembra costare tanto.
fraussantin
25-12-2019, 21:42
te l'ho detto, il terreno sta vacillando e la paura che il proprio core business vada a donne da qui a pochi anni è palpabile, queste dichiarazioni che li per li lasciano perplessi sul loro valore sono significative di quanto anche loro sappiano che da un lato il gaming pc con hw dedicato E' PROBABILE che abbia più o meno i giorni (2 o 3 anni se dovessi sbilanciarmi) contati (diventando sempre più una nicchia per facoltosi in favore dello streaming dove per altro tutti si stanno attrezzando con soluzioni AMD), dall'altro che forse gli ultimi margini di vendita "del ferro" saranno appannaggio delle console e quindi della diretta concorrente nonchè pressochè monopolista, nintendo esclusa, del settore.
metti pure che la concorrente diretta cioè AMD ha le cpu che loro non hanno (e che sul mobile portano in dote soluzioni grafiche proprietarie) e pure sul comparto gpu discrete sta pian piano posizionando una serie di tasselli buoni e aumentando il consenso....
mio parere personale, se oggi fossi un azionista nvidia sarei oltremodo preoccupato, poi magari mi sbaglierò (e lo spero per loro!)
Stadia con la sua qualità al massimo farà concorrenza alla Nintendo !
Seriamente convincere un PC gamer abituato a 120 fps alla grafica pulita e lag bassissimi non sarà facile.
Stadia sembra più adatta a casual gaming o al consolaro non pro.
In ogni fra 3 anni non cambierà nulla ci saranno i PC le console e forse stadia sempre se il Cloud Microsoft con il suo catalogo enorme non la farà sparire.
fraussantin
25-12-2019, 21:54
Dai il tempo alla tecnologia e connettività di evolvere, già il gamepass sta avendo un successo planetario.... E poi ti ricordo che il tuo punto di vista (che può coincidere con il mio) da gamer dal palato fine, cozza paurosamente con quello del consolaro medio (che di input lag, definizione, 144hz o altro non ne ha idea neanche di cosa siano) e del casual gamer (angry birds, pokemon go, fortnite) e se sommi le due categorie fanno 98,5% del mercato, poi ci siamo io, te e quattro gatti su questo forum ed analoghi esteri, che contano meno del 2 di coppe con briscola a bastoni. ;)
Tempo te lo do , ma 3 anni sono pochi. Microsoft è avvantaggiata perchè ha appunto una base buona.
Ma non è concorrenza al PC medio alto , quindi al mercato delle RTX .Al massimo appunto alle console
mikael84
25-12-2019, 23:12
Se dobbiamo confrontarle stock si guarda il punteggio della reference, ed in questo caso ecco il mio score a stock con clock 1993mhz e la penultima release dei driver nuovi https://www.3dmark.com/3dm/41838572?
500 punti circa sotto la 2070s reference che dovrebbero essere circa 2/3fps meno.
Qui invece con la 5700xt in oc https://www.3dmark.com/3dm/41838926?
con clock a 2100mhz,considera anche la piattaforma diversa e le ram che le ho a 2666mhz
Comunque è nel fristrike ultra che vanno uguali in quello normale forse qualcosina in più la 5700xt
Bel punteggio a 2ghz, ma ripeto le custom in DC a 2ghz non ci arrivano, quindi i valori sono quelli alla fine.
In parte il problema è anche legato al riconoscimento di 48 rop's, come la 2060super.
Sulle potenzialità dell gpu da console siamo d'accordo,ma si discuteva sulla sparata di huang alla conferenza e siccome addirittura si faceva riferimento alla 2080 mobile mi son detto aspetta un attimo.
No va beh sulla mobile lascia il tempo che trova, li sono assolutamente daccordo.;)
2080 liscia manco per sbaglio, figuriamoci poi la versione portatile :asd:, il picco massimo non può essere la 2080S semplicemente perchè già oggi nei casi favorevoli a quel livello ci si porta la 5700xt che è ben inferiore alla gpu che monteranno le console (no a sto giro manco con le "supercazzole" mi convinci, pardon me :p :p :p ) Ma tolto quello, anche abbracciando la tua visione, "analogo" dalle mie parti non vuol dire inferiore, è questa principalmente la fregnaccia che si contesta al cartoonato dagli occhi a mandorla :asd:
Ok, fammi vedere tutti i giochi in 4k, modalità della console, dove si elimina il problema CPU, o almeno si riduce, ciò che affermi.
Almeno una decina visto ciò che affermi.;)
Altrimenti discutiamo del nulla in un forum tecnico.;)
Ale55andr0
26-12-2019, 07:36
ho parlato di giochi nel quale la 5700xt simile o a tratti meglio una 2080, in generale a prescindere dal contesto cpu. Coi recenti driver poi sono ulteriormente migliorate rispetto i vecchi bench.
Sostenere che una versione da 12tflop andrà come una 2080/S (che sono vicine fra loro parliamo di 3-5 frame) o addirittura meno, da parte di Mr. cartoon, che sarebbe giusto uno sputo (!) più della 5700xt, non è credibile:
https://www.youtube.com/watch?v=Fj-R8l776yM
Comunque, vedremo al momento delle specifiche più complete con che gpu si avrà a che fare :)
...la prossime console a ogni modo non avrà alcun problema lato cpu, passano da un jaguar 1.8/2.1ghz con il quale han cacciato fuori l'impensabile pur nei suoi limiti, figurarsi con uno zen 2 a 3.5ghz se avranno colli di bottiglia in 4k :)
fraussantin
26-12-2019, 07:57
ho parlato di giochi nel quale la 5700xt simile o a tratti meglio una 2080, in generale a prescindere dal contesto cpu. Coi recenti driver poi sono ulteriormente migliorate rispetto i vecchi bench.
Con I recenti driver sono solo aumentati i bug e per fortuna solo per le navi. Le vega e Polaris sembrano esenti.
Stanno tutti tornado a 2 relese fa.
In ogni caso non scrivere che la 5700xt va meglio di una 2080 altrimenti c'é il rischio che qualcuno lo prende per vero e poi ci rimane male..
Ale55andr0
26-12-2019, 07:59
In ogni caso non scrivere che la 5700xt va meglio di una 2080 altrimenti c'é il rischio che qualcuno lo prende per vero e poi ci rimane male..
basta saper leggere, si chiama comprensione del testo :read:
tutti sti bug io nel thread ufficiale non li vedo, come al solito il problema di qualche tizio diventa il problema dell'umanità (fanboystica, dell'una o dell'altra parte a seconda dei casi :D)...poi su console i driver saranno sicuramente un problema :asd:
fraussantin
26-12-2019, 08:10
basta saper leggere, si chiama comprensione del testo :read:
tutti sti bug io nel thread ufficiale non li vedo, come al solito il problema di qualche tizio diventa il problema dell'umanità (fanboystica, dell'una o dell'altra parte a seconda dei casi :D)...poi su console i driver saranno sicuramente un problema :asd:
Occhio non vede cuore non Dole :asd:
PS poi sono io il fanboy ..
poi su console i driver saranno sicuramente un problema :asd:
Questo é vero.
Ale55andr0
26-12-2019, 08:26
Occhio non vede cuore non Dole :asd:
PS poi sono io il fanboy ..
è riferito a chi potrebbe voler distorcere un testo dove il contesto è messo chiaro ("suoi giochi/certi giochi") che non è traducibile con "la 5700xt va meglio della 2080", quantomeno in un thread tecnico frequentato da gente con fondamenti sufficienti a non cadere in simili, banali, fraintendimenti. Se invece qualcuno ci casca, come detto sopra, è un suo problema di comprensione del testo, perchè io ricordo benissimo di non aver mai scritto che la 5700xt va come la 2080 e stop, ma che lo fa in un contesto preciso e che ho messo in relazione al mondo console dove l'ottimizzazione è ancora migliore. Questo in raffronto a un manager di una azienda rivale che fa paragoni con le console di cui sopra e poi fa statement definitivi "2080 meglio delle nuove console" senza i dovuti contesti che evitano, appunto, incomprensioni del testo. Pensate te, sarà mica un fanboy, uno che disinforma o entrambi? :D
fraussantin
26-12-2019, 08:47
È anche vero che sui forum la questione driver è affrontata nel seguente modo e sfido a sostenere il contrario :D :
Forum AMD: ho appena installato i nuovi driver e mi si è otturato il water, what a shame, ero appena tornato ad AMD dopo 28 anni di nVidia ma questo mi basta per vendere tutto e tornare ad nVidia, lo scriverò su tutti i forum nazionali ed internazionali e chiederò a Mattarella di menzionarlo nel discorso a reti unificate di fine anno.
Forum nVidia: ho appena installato i nuovi driver ed ho avuto un bsod, poco male, sono sicuro però che la colpa è dei driver del chipset x470 AMD che sono buggati, cmq alla fine ci sta, può capitare (5 minuti dopo edita il messaggio e dice che è tutto OK e non è mai successo niente di strano ed apre un thread nella sezione motherboard dove insulta i driver AMD alludendo che se vedono una VGA nVidia causano un bsod voluto)
si riparte con il vittimismo ..
fraussantin
26-12-2019, 09:17
Leggendo entrambi i forum, vittimismo o no, effettivamente in quello amd se uno ha un problema viene detto di tutto di più mentre su quello invidia si minimizza e si aspetta se migliora qualcosa, e uguale tra intel e amd sui processori. Le controparti di amd hanno fatto un ottimo lavoro col marketing.A me risulta che quando le rtx crepavano tutti stavamo a dire di state attenti a comprarle e dove comprarle, quando sono usciti driver che davano problemi , si escono per tutte , tutto a dire di non installarli , qui non si può dire nulla anzi se c'é un problema é solo colpa di un utente scemo che non sa usare amd .
Io questo lo chiamo vittimismo . Poi che gli utenti incapaci capitino tutti ad amd é proprio sfortuna.
Cmq chiuderei il discorso che tanto é inutile.
Ton90maz
26-12-2019, 10:19
È anche vero che sui forum la questione driver è affrontata nel seguente modo e sfido a sostenere il contrario :D :
Forum AMD: ho appena installato i nuovi driver e mi si è otturato il water, what a shame, ero appena tornato ad AMD dopo 28 anni di nVidia ma questo mi basta per vendere tutto e tornare ad nVidia, lo scriverò su tutti i forum nazionali ed internazionali e chiederò a Mattarella di menzionarlo nel discorso a reti unificate di fine anno.
Forum nVidia: ho appena installato i nuovi driver ed ho avuto un bsod, poco male, sono sicuro però che la colpa è dei driver del chipset x470 AMD che sono buggati, cmq alla fine ci sta, può capitare (5 minuti dopo edita il messaggio e dice che è tutto OK e non è mai successo niente di strano ed apre un thread nella sezione motherboard dove insulta i driver AMD alludendo che se vedono una VGA nVidia causano un bsod voluto)
P.s.
A proposito di min....ate, ma è impensabile pensare che sulle prossime console ci sarà qualcosa di simile agli Intel + Vega, cioè CPU e GPU fisicamente separate ma interconnesse e sullo stesso package? :OE' possibile, ma non so quanto possa essere vantaggioso, vista l'area dei core zen. Comunque, se non ci hanno presi in giro con indizi sbagliati, almeno la nuova xbox avrà un'apu, visto che si parlava di SoC (che però vuol dire tutto e niente).
fraussantin
26-12-2019, 10:33
ipotizzare un colpo di scena, cioè ps5 e scarlett NON saranno uguali (o quasi uguali) nell'hw come tutti si aspettano o prevedono... è un pò quello che mi sento.
vedremo :)
qualcuno prevede che ps5 costerà 399 dollari invece che 499 appunto perchè avrà un hw inferiore , ma che questa ( il prezzo)potrebbe essere l'arma vincente di sony oltre alle esclusive japponiche
Se una amd ha un problema, tutte le amd hanno il problema, se tutte le rtx muoiono, tanto si fa rma. :sofico:
fanboy! :P
Ale55andr0
26-12-2019, 11:01
A proposito di min....ate, ma è impensabile pensare che sulle prossime console ci sarà qualcosa di simile agli Intel + Vega, cioè CPU e GPU fisicamente separate ma interconnesse e sullo stesso package? :O
tempo fa SE ricordo bene, fu chiesto a una testa d'uovo Sony se ps5 avesse di nuovo una apu e rispose qualcosa del tipo "stavolta faremo qualcosa di diverso", qualunque cosa volesse dire.
Ale55andr0
26-12-2019, 11:03
doppio
Ale55andr0
26-12-2019, 11:06
qualcuno prevede che ps5 costerà 399 dollari invece che 499 appunto perchè avrà un hw inferiore , ma che questa ( il prezzo)potrebbe essere l'arma vincente di sony oltre alle esclusive japponiche
mah, poco tempo fa si parlava di 600 euro per sony con tanto di sondaggione "quanto siete disposti a spendere", e di recente di due console di cui una prossima ai 1000 euro :rotfl:
EDIT: e niente, contnuo a dimenticare il multiquote, avrò l'alzheimer :muro:
una funzione "cancella messaggio" sarebbe utile per ovviare a chi la mattina lascia la testa sul cuscino come me :asd: (magari con tempo massimo di 15 minuti per evitare giochetti "sleali")
Free Gordon
26-12-2019, 11:13
Con I recenti driver sono solo aumentati i bug e per fortuna solo per le navi.Le vega e Polaris sembrano esenti.
Nel senso che nell'ultima release di driver son segnalati più bugs con Navi..? :confused:
Sennò fammi capire da che cosa deriva la tua affermazione..
Free Gordon
26-12-2019, 11:17
ipotizzare un colpo di scena, cioè ps5 e scarlett NON saranno uguali (o quasi uguali) nell'hw come tutti si aspettano o prevedono... è un pò quello che mi sento.
Beh.. questo più che possibile è certo. :D
PS5 e SeriesX non avranno lo stesso hw..... :fagiano:
Come è però anche certo che saranno APU AMD.. :)
Ale55andr0
26-12-2019, 11:20
Beh.. questo più che possibile è certo. :D
PS5 e SeriesX non avranno lo stesso hw..... :fagiano:
Come è però anche certo che saranno APU AMD.. :)
non saprei, per me saranno molto più vicine a questo giro, anche perchè microsoft con one x ha avuto tempo di regolarsi rispetto ps4 pro, ma ora usciranno nella stessa annata e più o meno nello stesso periodo (fine anno)
Ale55andr0
26-12-2019, 11:36
mmhhm se non ricordo male la one e la ps4 differivano soltanto nelle frequenze e nel fatto che una aveva ddr3 e l'altra ddr5 o una cosa del genere...
la one aveva 768sp, la ps4 1152sp
mikael84
26-12-2019, 11:48
ho parlato di giochi nel quale la 5700xt simile o a tratti meglio una 2080, in generale a prescindere dal contesto cpu. Coi recenti driver poi sono ulteriormente migliorate rispetto i vecchi bench.
Sostenere che una versione da 12tflop andrà come una 2080/S (che sono vicine fra loro parliamo di 3-5 frame) o addirittura meno, da parte di Mr. cartoon, che sarebbe giusto uno sputo (!) più della 5700xt, non è credibile:
https://www.youtube.com/watch?v=Fj-R8l776yM
Comunque, vedremo al momento delle specifiche più complete con che gpu si avrà a che fare :)
...la prossime console a ogni modo non avrà alcun problema lato cpu, passano da un jaguar 1.8/2.1ghz con il quale han cacciato fuori l'impensabile pur nei suoi limiti, figurarsi con uno zen 2 a 3.5ghz se avranno colli di bottiglia in 4k :)
Ok, essendo una console 4k, mi piacerebbe vedere dove mediamente vai più di una 2080 o 2080/s già ora. Se anche fosse 1 o 2, una rondine non fa primavera.
Le review medie la danno al livello oscillante tra 2060 super e 2070 super.
Nei casi migliori se la gioca con la 2070 super, queste perchè una volta programmati i registri e impostato lo shader intrincs a livello di prestazioni sono piuttosto simili per flops, con ogni gpu che ha dei punti di forza, ad esempio la radeon le TMU, la 2070s la geometria (per ora però tarata alla 7850) e rop's.
La 2080 è mediamente il 6-8% più veloce della 2070 super
La 2080 super è mediamente più veloce il 13/15% di picco.
La 2080 super raggiunge in boost a stock 12tf, quanto la console, ma ha una banda superiore.
Considerando che la console utilizza al meglio la BW rispetto le GPU desktop, sicuramente può trarne dei benefici.
Traendo delle conlusioni, possiamo paragonare il chip console proprio a queste 2 GPU, sopratutto in ambienti 4k, dove le rop's si AMD in parte frenano.
Dopo ci può essere la mosca bianca che vuoi per driver o per altro, sul chip console riesce a spingere di più, questo si, ma ci saranno anche i casi, dove le prestazioni saranno allineate alla 2070s (vedi unreal, strategici, giochi di serie b etc che sono la maggioranza).;)
PS: chiaro che se poi, mettono un bus a 384bit, magari 6 engine, 96 rop's, ma anche solo il bus da 384, la 2080 alza bandiera bianca.
PS: in AMD alla fine a JHH lo vogliono molto bene, e si aiutano a vicenda. Ti immagini se AMD, avesse lanciato, dopo aver pareggiato praticamente l'IPC di una 2070 super nei pro, una GPU che anzichè avere 20DCU (48 CU), ne integrasse 24 (48)?
Con 15mm2 circa, si passava da 251 a 266, magari ci mettevi le HC16 da 512gb/s ed allo stesso prezzo o 50$ in più di lucro, avresti scombussolato tutto il mercato di JHH, costretto a vendere le 2080 super al prezzo delle 2070 super.:p
Ale55andr0
26-12-2019, 12:54
mickael ma a quali review medie, io parlo dei casi (cioè giochi) favorevoli :fagiano: ma allora parlo austrio :asd:
esempio
https://www.anandtech.com/show/14618/the-amd-radeon-rx-5700-xt-rx-5700-review/12
ricordiamo, chippettini ino ino 9.75tflop
Dal momento che su console la gpu la sfruttano meglio che su pc (anche prendendo un engine a favore), se huang mi parla di una 2080 più veloce di una simil "5800" nella console io mi incacchio, anche se a natale siamo tutti più buoni. (...anche perchè io non sono religioso, a natale sono più cattivo, e poi è pure finito :asd: )
Ma poi scusa, qualche volta tu stesso hai detto di una ipotetica 48cu/3072sp sarebbe stata una bella scheda che avrebbe dato filo da torcere alla 2080 e ora che si parla di una ipotetica gpu da 56cu? :fagiano:
PS: chiaro che se poi, mettono un bus a 384bit, magari 6 engine, 96 rop's, ma anche solo il bus da 384, la 2080 alza bandiera bianca.
su quello mi sa che stiamo freschi pure su PC, altro che console :asd:
domanda, la ram unificata gddr6 e lo sfruttamento di bandwith come non abbiamo mai visto, potrebbero aiutare (ipoteticamente) un chip uguale alla 5700xt ad andare di più in 4k o i colli di bottiglia in 4k di navi sono da cercarsi altrove (solo nelle rop)?
In attesa della sua risposta, alla fine è pur sempre una gpu molto poco pompata lato "cilindrata" (CU, rops ecc), forse è ingeneroso parlare di "colli di bottiglia nel 4k" per una chip del genere che non nasce certo per il 4k
amon.akira
26-12-2019, 13:12
ora il chippettino ino ino dovrà fare anche rt, qua bisognerebbe bookmarkare e ci risentiamo a giugno, già dire di avere un sistema completo ssd,vram maggiore,cpu 8+8 etc... e gpu al pari di una 2080 a 500-600euro sarebbe una vittoria, tu addirittura dici è impossibile perchè troppo basso, quindi ce la giochiamo con la 3080? la 5700xt tra un anno costerà 100euro con 1anno di vita :asd:
Ale55andr0
26-12-2019, 13:21
ora il chippettino ino ino dovrà fare anche rt, qua bisognerebbe bookmarkare e ci risentiamo a giugno, già dire di avere un sistema completo ssd,vram maggiore,cpu 8+8 etc... e gpu al pari di una 2080 a 500-600euro sarebbe una vittoria, tu addirittura dici è impossibile perchè troppo basso, quindi ce la giochiamo con la 3080? la 5700xt tra un anno costerà 100euro con 1anno di vita :asd:
quello della console non sarà un chippettino troppo ino pare perchè i 12tflop impongono più unità di calcolo per non avere frequenze esagerate (per 12 Tflop con le 40cu della 5700xt 2343Mhz!) . Quanto all'RT, almeno lato play 5 Cerny ufficialmente detto che vi è apposita unità hardware nella gpu
Andy1111
26-12-2019, 13:40
quello della console non sarà un chippettino troppo ino pare perchè i 12tflop impongono più unità di calcolo per non avere frequenze esagerate (per 12 Tflop con le 40cu della 5700xt 2343Mhz!) . Quanto all'RT, almeno lato play 5 Cerny ufficialmente detto che vi è apposita unità hardware nella gpu
Non sono un esperto di console, non le ho mai apprezzate, ma trovo limitante il paragone con la 5700 quando si parla della vga che andrà sulla console, perchè
rdna2 sarà differente da rdna , in più sviluppato a 7+ che consente rispetto a 7 o un aumento del 7% alla stessa potenza o un 10% di consumo inferiore con lo stesso clock, https://www.anandtech.com/show/14687/tsmc-announces-performanceenhanced-7nm-5nm-process-technologies quindi non sapendo la scelta fatta e le modifiche che rdna2 avrà rispetto a rdna fare supposizioni ora mi sembra molto prematuro.
mikael84
26-12-2019, 15:05
domanda, la ram unificata gddr6 e lo sfruttamento di bandwith come non abbiamo mai visto, potrebbero aiutare (ipoteticamente) un chip uguale alla 5700xt ad andare di più in 4k o i colli di bottiglia in 4k di navi sono da cercarsi altrove (solo nelle rop)?
Si, sopratutto la ram unificata limiterà i dati doppiati tra ram e vram, gran risparmio di risorse verso la memoria, sopratutto lato BW, dove il trasferimento continuo tra ram e GPU la grava.
Riguardo le rop's il chip console verrà rifatto da 0, e sicuramente aggiornato. Navi, tende troppo ad allinearsi alle 2070/2060s, soluzioni da 48 rop's, che attualmente vengono rilevate anche sulle 5700/xt.
https://images.anandtech.com/graphs/graph14618/111338.png
clicca
https://i.postimg.cc/m1BYc7rd/rop-s.png (https://postimg.cc/m1BYc7rd)
Come dimostra questo grafico in blending, ovvero ad alter risoluzioni, MSAA o SSAA, il livello rop's è totalmente negativo.
Sicuramente lo sistemeranno con i prossimi chip.:)
mickael ma a quali review medie, io parlo dei casi (cioè giochi) favorevoli :fagiano: ma allora parlo austrio :asd:
esempio
https://www.anandtech.com/show/14618/the-amd-radeon-rx-5700-xt-rx-5700-review/12
Beh un gioco me l'hai portato.:p
Questo si che è un vero banco di prova. Totalmente slegato alla CPU.
60fps con msaa4 in 4k.:p
ricordiamo, chippettini ino ino 9.75tflop
Come la controparte, anzi sopra ho visto un bench stock a 10,3tf
Dal momento che su console la gpu la sfruttano meglio che su pc (anche prendendo un engine a favore), se huang mi parla di una 2080 più veloce di una simil "5800" nella console io mi incacchio, anche se a natale siamo tutti più buoni. (...anche perchè io non sono religioso, a natale sono più cattivo, e poi è pure finito :asd: )
Ma poi scusa, qualche volta tu stesso hai detto di una ipotetica 48cu/3072sp sarebbe stata una bella scheda che avrebbe dato filo da torcere alla 2080 e ora che si parla di una ipotetica gpu da 56cu? :fagiano:
Esatto, non devi guardare il numero di CU (ora DCU), ma la potenza totale del chip.
Tra 3584cc a 1650 e 3072 a 1930mhz (circa), meglio la seconda, perchè, avresti un vantaggio geometrico e di rop's non minimo.
In ogni caso, un chip del genere, per l'appunto sarebbe stato il contro 2080-2080s a soli 15/16mm2 in più:)
Ton90maz
26-12-2019, 15:28
mah, poco tempo fa si parlava di 600 euro per sony con tanto di sondaggione "quanto siete disposti a spendere", e di recente di due console di cui una prossima ai 1000 euro :rotfl:
EDIT: e niente, contnuo a dimenticare il multiquote, avrò l'alzheimer :muro:
una funzione "cancella messaggio" sarebbe utile per ovviare a chi la mattina lascia la testa sul cuscino come me :asd: (magari con tempo massimo di 15 minuti per evitare giochetti "sleali")
Basterebbe la banalissima funzione di incorporamento automatico, presente in qualunque forum con una piattaforma che non sia del giurassico :muro:
Ale55andr0
26-12-2019, 15:40
Come la controparte, anzi sopra ho visto un bench stock a 10,3tf
la controparte è un cippettino come io sono brad pitt :sofico:
Tra 3584cc a 1650 e 3072 a 1930mhz (circa), meglio la seconda, perchè, avresti un vantaggio geometrico e di rop's non minimo.
aspè, ma quello solo se il 3584 mantiene invariato tutto il resto, ma non lo sappiamo. A dire il vero poi se sarà rdna2 sappiamo meno ancora di che cambierà.
mikael84
26-12-2019, 16:34
la controparte è un cippettino come io sono brad pitt :sofico:
Chiaro, è basato su un PP differente. Sono circa 400/402mm2 a pari PP.:)
aspè, ma quello solo se il 3584 mantiene invariato tutto il resto, ma non lo sappiamo. A dire il vero poi se sarà rdna2 sappiamo meno ancora di che cambierà.
Qua tutto può cambiare, si speculava sui primi dati, anche se non penso ci siano vari stravolgimenti.
Probabilmente i chip sia console che gaming avranno un'efficienza migliore, e sopratutto i chip gaming clock leggermente più elevati.
amon.akira
26-12-2019, 18:47
Mikael scusa ma allora se già la 5700xt nei best case raggiunge la 2080, una ipotetica rdna2 con ipc superiore, priva di colli di bottiglia e con RAM gddr6 unificata è tanto impensabile pensare che renderà (che è diverso da dire "è potente come") stabilmente e non spot, almeno come una 2080s? Penso che Alessandro sintetizzando volesse intendere questo, al contrario del giacchetta che verosimilmente la butta in caciara sui dati di raw power (se non sbaglio con le fury AMD fece lo stesso parlando di potenza esagerata in termini di tflop...)
devi fare di piu o vuoi fare meno watt? perchè le console non possono spingersi tanto in la con i watt, la 5700xt fa 220watt? mettici anche la cpu e siamo fuori budget watt console. ora con le midgen in mente non punteranno piu a spingere in perdita quando dopo 3anni fanno l upgrade. quindi ripeto avete previsioni molto ottimistiche
fraussantin
26-12-2019, 19:22
Secondo me guardando lo chassis della series x ipotizzare un consumo totale di 250/300w per me non sarebbe follia :)Mm secondo 220 230 sono il massimo anche con quella torre se vogliono mantenere rumorosità decenti come promesso
Per 300 W cosa serve un noctua d15? E forse non basta se consideriamo che i 7 nm sono piú difficili da raffreddare dei 16 per via della poca superfice di contatto
Basterebbe la banalissima funzione di incorporamento automatico, presente in qualunque forum con una piattaforma che non sia del giurassico :muro:
Non possono aggiornare la piattaforma perché deve rimanere compatibile con la risoluzione piú usata nel 2019 cioé 1024x768.
Un 3700x a 3.2GHz non so se arriverà a 40W in full. Una 5700XT a 1500/1600MHz, anche considerando qualche CU in più, non credo arrivi a 200W. Il tutto a 7nm+, quindi probabilmente possiamo limare ancora qualcosina.
Per carità, sono stime fatte in modo molto, molto grossolano ed io non ho competenze per entrare nel dettaglio architetturale, solo elettrico.
Però sia Zen che RDNA sono architetture spremute al limite del MHz e con una limata alle frequenze (e quindi tensioni) consuma molto meno. Con i 7nm+ poi se non ricordo male un ulteriore 10% nei consumi lo guadagni a parità di frequenza.
Consideriamo poi che:
- alcune parti CPU e GPU sono "doppie" (ex. controller memoria, e questo giova anche nei mm²)
- la mobo è molto più semplice
- La RAM è unificata
Insomma...secondo me con 400mm² e 200-220W esce un bel pezzo di hardware.
Gyammy85
27-12-2019, 10:09
Per carità, sono stime fatte in modo molto, molto grossolano ed io non ho competenze per entrare nel dettaglio architetturale, solo elettrico.
Però sia Zen che RDNA sono architetture spremute al limite del MHz e con una limata alle frequenze (e quindi tensioni) consuma molto meno. Con i 7nm+ poi se non ricordo male un ulteriore 10% nei consumi lo guadagni a parità di frequenza.
Consideriamo poi che:
- alcune parti CPU e GPU sono "doppie" (ex. controller memoria, e questo giova anche nei mm²)
- la mobo è molto più semplice
- La RAM è unificata
Insomma...secondo me con 400mm² e 200-220W esce un bel pezzo di hardware.
Insomma, non mi pare, se così fosse la 5700xt reference non terrebbe tranquillamente i 1900 in game
Scusate se mi intrometto ma AMD al ces presenterà qualcosa non so la famigerata big navi?!
O tocca aspettare più avanti per rdna2 e puntare su quelle?
mircocatta
27-12-2019, 12:14
Scusate se mi intrometto ma AMD al ces presenterà qualcosa non so la famigerata big navi?!
O tocca aspettare più avanti per rdna2 e puntare su quelle?
si presume che big navi sia già rdna2, d'altronde la fascia alta è l'unica che può sfruttare il raytracing, per cui fare una big ancora su rdna1 senza rt avrebbe poco senso
si presume che big navi sia già rdna2, d'altronde la fascia alta è l'unica che può sfruttare il raytracing, per cui fare una big ancora su rdna1 senza rt avrebbe poco senso
Ma a me non intereasa il rt voglio solo sti Benedetti 4k60fps sui pannelli 4k freesync e poi rt per cosa per aumentare costi e dimezzare le prestazioni?
Che amd tiri fuori una scheda rt nel 2021 con rdn2 che regga i 4k non ho dubbi ma nel frattempo?
fraussantin
27-12-2019, 12:55
Ma a me non intereasa il rt voglio solo sti Benedetti 4k60fps sui pannelli 4k freesync e poi rt per cosa per aumentare costi e dimezzare le prestazioni?
Che amd tiri fuori una scheda rt nel 2021 con rdn2 che regga i 4k non ho dubbi ma nel frattempo?
rdr2 ci ha mostrato che si possono fare cose bellissime anche senza rt e infatti spacca il culo a qualunque gioco rtx fatto fino ad oggi da nvidia.
ma anche minecraft rt è bello , se la strada intrapresa è quella piaccia o non piaccia sarà obbligatorio , certo non entro 2 anni , ma in futuro si
amon.akira
27-12-2019, 12:56
Ma a me non intereasa il rt voglio solo sti Benedetti 4k60fps sui pannelli 4k freesync e poi rt per cosa per aumentare costi e dimezzare le prestazioni?
Che amd tiri fuori una scheda rt nel 2021 con rdn2 che regga i 4k non ho dubbi ma nel frattempo?
2021?
seriesX e ps5 saranno fuori a novembre 2020, quindi entro giugno avremo le soluzioni rt by amd, così avremo anche un reale paragone performance/watt/value
Roland74Fun
27-12-2019, 13:10
rdr2 ci ha mostrato che si possono fare cose bellissime anche senza rt e infatti spacca il culo a qualunque gioco rtx fatto fino ad oggi da invidia.
È vero, ma non tutte le SH su mettono a lavorare su un gioco per 7 anni.
fraussantin
27-12-2019, 13:46
È vero, ma non tutte le SH su mettono a lavorare su un gioco per 7 anni.
non credo che quegli effetti luci abbiano richiesto 7 anni di lavoro. sono stati in gran parte aggiunti solo nella versione pc
Roland74Fun
27-12-2019, 13:55
non credo che quegli effetti luci abbiano richiesto 7 anni di lavoro. sono stati in gran parte aggiunti solo nella versione pcEppure...eh eh eh....
https://uploads.tapatalk-cdn.com/20191227/3c6d2b6f57fab49ae1da76410fec4099.jpg
fraussantin
27-12-2019, 14:19
Eppure...eh eh eh....
https://uploads.tapatalk-cdn.com/20191227/3c6d2b6f57fab49ae1da76410fec4099.jpg
c'è scritto geforce , non rtx :mbe:
Rumors "freschi" indicano che la ps5 avrà un hw dedicato ad RT non di AMD. Chissà se questo sarà un punto di forza o no.... Magari glielo da nVidia il raytracing :asd:
quindi verosimilmente ps5 sarà rdna 1 o poco più, con RT di terze parti ed è probabile che si scontrerà con Xbox lockheart sul piano prezzo/prestazioni.
Scusa ma se la gpu é amd come fanno ad avere hw RT di altri ? E poi di chi? Quello Nvidia non credo visto che é integrato nella GPU .
Intel per adesso le GPU le compra da amd .. che ci mettono un soc arm come Nintendo :asd:
Free Gordon
27-12-2019, 14:27
mmhhm se non ricordo male la one e la ps4 differivano soltanto nelle frequenze e nel fatto che una aveva ddr3 e l'altra ddr5 o una cosa del genere...
ONE e PS4 sono decisamente differenti, due progetti diversi
Certo, sono sempre APU AMD con GCN e Jaguar.... :)
la one aveva 768sp, la ps4 1152sp
Non solo, ONE ha 32MB di sRAM nella GPU e le ddr3, PS4 un "semplice" bus con GDDR5.
Free Gordon
27-12-2019, 14:40
Rumors "freschi" indicano che la ps5 avrà un hw dedicato ad RT non di AMD. Chissà se questo sarà un punto di forza o no.... Magari glielo da nVidia il raytracing :asd:
quindi verosimilmente ps5 sarà rdna 1 o poco più, con RT di terze parti ed è probabile che si scontrerà con Xbox lockheart sul piano prezzo/prestazioni.
L'Hw RT dovrà essere necessariamente integrato nella GPU, quindi se non è AMD a fornire l'hw RT, sarà un chip sviluppato ad hoc da Sony stessa (titolare comunque dei diritti sul chip, come è sempre stato anche per XboxONE e PS4).
Non ci saranno altre IP in mezzo.. ;-)
Cmq Sony potrebbe chiedere a uno fra ARM stessa, Qualcomm, IBM, Huawei :asd: Intel :asd: o altri di sviluppare delle unità specializzate per quei workload ma non di certo ad Nvidia... :ciapet:
Insomma, non mi pare, se così fosse la 5700xt reference non terrebbe tranquillamente i 1900 in game
Si vero ma credo che intendesse "spremute in efficienza" dove magari overclocchi e non guadagni molto.
Intendo che siamo già ben oltre la "linearità" nel grafico frequenza x tensione.
Quindi si, sono spremute, aldilà del fatto che puoi ancora salire un po' (sparando consumi fuori da ogni logica). E non tiriamo in ballo il tweaking perchè non è una cosa fattibile su larga scala, si trova sempre un compromesso per avere il 99,99% di chip funzionanti a default + turbo.
arxangel
27-12-2019, 19:29
Rumors "freschi" indicano che la ps5 avrà un hw dedicato ad RT non di AMD. Chissà se questo sarà un punto di forza o no.... Magari glielo da nVidia il raytracing :asd:
quindi verosimilmente ps5 sarà rdna 1 o poco più, con RT di terze parti ed è probabile che si scontrerà con Xbox lockheart sul piano prezzo/prestazioni.
Sarà quante cag..cioè rumor :D sentiremo da qui all' uscita delle nuove console, se non lo fa AMD, che tra l' altro farà uscire schede video con raytracing via hardware, chi lo fà, ormai i rumor sulle nuove console stanno diventando incontrollabili con i siti di videogiochi che ci ricamano per aumentare la console war ed i relativi click.
Windtears
27-12-2019, 21:06
Sarà quante cag..cioè rumor :D sentiremo da qui all' uscita delle nuove console, se non lo fa AMD, che tra l' altro farà uscire schede video con raytracing via hardware, chi lo fà, ormai i rumor sulle nuove console stanno diventando incontrollabili con i siti di videogiochi che ci ricamano per aumentare la console war ed i relativi click.
powerVR fa rt dal 2016, e hanno anche l'integrazione con ue4 e api vulkan, ma siamo OT direi.
Ale55andr0
27-12-2019, 21:12
Rumors "freschi" indicano che la ps5 avrà un hw dedicato ad RT non di AMD. Chissà se questo sarà un punto di forza o no.... Magari glielo da nVidia il raytracing :asd:
quindi verosimilmente ps5 sarà rdna 1 o poco più, con RT di terze parti ed è probabile che si scontrerà con Xbox lockheart sul piano prezzo/prestazioni.
https://www.youtube.com/watch?v=0C1xn2H5Xcs
Scusa ma se la gpu é amd come fanno ad avere hw RT di altri ? E poi di chi? Quello Nvidia non credo visto che é integrato nella GPU .
Intel per adesso le GPU le compra da amd .. che ci mettono un soc arm come Nintendo :asd:
ma infatti suona come una delle peggio minchiatone supercazzolate mai lette sui rumors di un sito di hardware
Oh non lo sto dicendo io, se cerchi trovi i rumors, l'rt fornito da nVidia era una battuta ovviamente ;)
Magari hanno trovato più convivente rdna1 affidando il raytracing ad un chip a parte. .
Cerny lo ha detto chiarametne: l'hardware per accelerare rtx è nella gpu:
"There is ray-tracing acceleration in the GPU hardware"
Free Gordon
28-12-2019, 11:32
Si lo abbiamo capito, bisogna vedere se sta GPU è stata customizzata o no, quando usciranno ste console torneremo qui a vedere quali rumors erano balle e quali no. ;)
customizzata lo è per forza di cose, sono APU AMD ad hoc sviluppate "in collaborazione" con Sony e Ms, i titolari dei diritti sul chip.. ;)
Ale55andr0
28-12-2019, 11:57
Si lo abbiamo capito, bisogna vedere se sta GPU è stata customizzata o no, quando usciranno ste console torneremo qui a vedere quali rumors erano balle e quali no. ;)
se customizzata è, lo è sempre da parte di amd, sony non può modificare le proprietà intellettuali altrui, e comunque non avrebbe senso a priori: amd supporterà il ray tracing di suo perchè la direzione intrapresa è ormai quella, non c'è bisogno di customizzazioni extra su quel frangente
Ed anche questo è OK.... Intendevo relativamente all'rt di cui si vocifera possa essere di terze parti.
cosa che come detto sopra non può essere, perchè se integrato nella gpu il prodotto è di amd, non di una terza parte
amon.akira
28-12-2019, 12:30
Bisogna vedere che rdna monta la ps5, se dovesse montare rdna1 (il navi che conosciamo) come farebbe con il raytracing?
non capisco dove troviate il problema, sappiamo al 100% che a novembre 2020 sia ps5 che xbox avranno il raytracing, sappiamo che amd fornisce i partners, sappiamo che ha rdna2 in cantiere, per quale motivo amd non dovrebbe far uscire la sua soluzione rt su pc tra giugno e settembre?
amon.akira
28-12-2019, 12:48
Quale problema?
Rdna2 non è mai stato ufficialmente confermato sulle console nextgen.....
fai 2+2
console novembre 2020 amd=rt 100% annunciato
amd pc=rdna1 senza rt
rdna2 prossima uscita
Ale55andr0
28-12-2019, 13:39
Bisogna vedere che rdna monta la ps5, se dovesse montare rdna1 (il navi che conosciamo) come farebbe con il raytracing?
per me non esiste e non è mai esistita proprio l'ipotesi che sia rdna1: per me sarà un copincolla della series x con qualche mhz/cu in più o in meno
fraussantin
28-12-2019, 15:36
per me non esiste e non è mai esistita proprio l'ipotesi che sia rdna1: per me sarà un copincolla della series x con qualche mhz/cu in più o in menoCmq é da diversi mesi che ci sono in giro decine\centinaia di ps5 a cesso turco per i dev dei giochi. Idem per le Xbox.
Non penso che Montino già una rdna2 a 7+ ma un chip piú grosso e "caldo" che per CPU GPU non crea problemi , ma per RT?
amon.akira
28-12-2019, 15:50
i kit si aggiornano (cambiano) non esiste che inizi a lavorare con l hw definitivo.
l rt è relativo, non è che se nn hanno l hw definitivo nn possono implementarlo.
Ale55andr0
28-12-2019, 16:47
Cmq é da diversi mesi che ci sono in giro decine\centinaia di ps5 a cesso turco per i dev dei giochi. Idem per le Xbox.
Non penso che Montino già una rdna2 a 7+ ma un chip piú grosso e "caldo" che per CPU GPU non crea problemi , ma per RT?
viste le dimensioni dei devkit ps5 non vedo problemi di dissipazione, posto che sono macchine non definitive. Poi allo stato prototipale non vedo perchè non possano già avere rdna2
La cosa probabile, trattandosi di un custom, è che sia un ibrido RDNA/RDNA2 con ray tracing.
Ma nulla vieta che sia RDNA2 full, dato che le console usciranno mesi dopo le schede nuove...
fraussantin
28-12-2019, 19:59
Con la testa immagino che sarà così, con il cuore spero in full rdna2 :oink:Beh il discorso é che se é rdna1 non puó avere 12 teracosi , anche se hanno messo un coprocessore grafico per RT a meno di non farne un piccolo barbecue. In effetti la forma ci sarebbe anche LoL.
Beh il discorso é che se é rdna1 non puó avere 12 teracosi , anche se hanno messo un coprocessore grafico per RT a meno di non farne un piccolo barbecue. In effetti la forma ci sarebbe anche LoL.
RDNAxt consuma tanto perchè per poter stare tra la 2070 e la 2070s deve lavorare a 1.2V.
Se l'avessero tarata per andare tra la 2060 e la 2060s, come naturale per un chippino da 251mm², i consumi sarebbero stati ben altri.
Scelte commerciali, giuste tra l'altro, dato che stanno capitalizzando bene. Ma su console non credo proprio assisteremo a qualcosa del genere, aumenteranno le CU e diminuiranno tensioni e clock :)
Ton90maz
28-12-2019, 23:08
Beh il discorso é che se é rdna1 non puó avere 12 teracosi , anche se hanno messo un coprocessore grafico per RT a meno di non farne un piccolo barbecue. In effetti la forma ci sarebbe anche LoL.
Chi l’ha detto? Può benissimo avere 12 tflops ed essere costruito su base rdna1. Ah, non sappiamo NULLA di rdna2, a parte che implementerà il ray tracing su alcuni modelli. Potrebbe essere quasi identica a rdna1, per quanto ne sappiamo.
Qualcuno di voi preparato ha per caso idea di come potrebbero essere le unità di calcolo RT su rdna2?
Potrebbero essere separate dalle cu oppure intrinseche?
Io non ci capisco una feva
giovanbattista
29-12-2019, 01:50
Qualcuno di voi preparato ha per caso idea di come potrebbero essere le unità di calcolo RT su rdna2?
Potrebbero essere separate dalle cu oppure intrinseche?
Io non ci capisco una feva
l'unica cosa che forse può risponderti
tieni conto che è vecchia mi pare luglio 2019
https://www.techpowerup.com/256975/amd-patent-shines-raytraced-light-on-post-navi-plans
pdf (http://www.freepatentsonline.com/20190197761.pdf)con la richiesta di brevetto
al ces ne sapremo di + mi pare presenterenno l'archittetura rnda2, secondo varie fonti
fraussantin
29-12-2019, 02:58
RDNAxt consuma tanto perchè per poter stare tra la 2070 e la 2070s deve lavorare a 1.2V.
Se l'avessero tarata per andare tra la 2060 e la 2060s, come naturale per un chippino da 251mm², i consumi sarebbero stati ben altri.
Scelte commerciali, giuste tra l'altro, dato che stanno capitalizzando bene. Ma su console non credo proprio assisteremo a qualcosa del genere, aumenteranno le CU e diminuiranno tensioni e clock :)
Sì appunto se la mandi come una 2060 non hai12 TF ma 7 per arrivare a 12 tflop devi quasi raddoppiare le cu ..
E i consumi aumentano per altri motivi.
Chi lha detto? Può benissimo avere 12 tflops ed essere costruito su base rdna1. Ah, non sappiamo NULLA di rdna2, a parte che implementerà il ray tracing su alcuni modelli. Potrebbe essere quasi identica a rdna1, per quanto ne sappiamo.
Scusa , mi dici come fa rdna 1 ad arrivare a 12 tflop tenendo bassi i consumi? E soprattutto perché non abbiamo una GPU del genere desktop se fattibile?
fraussantin
29-12-2019, 04:52
Guarda che una 5700xt a 7nm e non 7nm+ con soli 2560sp e 2.1ghz di clock (inefficienti quanto vuoi per altri motivi, ma ci arriva) fa quasi 11tflop.
Se avesse come la vii 3840sp basterebbero 1.6ghz per avere 12tflop. E una vii a 1.6ghz già sui 7nm non credo che consumi tanto...
E senza chip specializzati per il calcolo degli rtcosi
Che poi appunto la vii di tflop ne ha 14 e passa quindi la GPU che chiedi esiste già, che poi abbia altri tipi di problemi risolvibili con la tecnologia evolutasi da quando è uscita ad oggi è un altro discorso..
chiaro , ma lui mi dice di abbassare tensioni perni consumi (e clock) , tu me li alzi , bisogna anche prendere una decisione .. tutte e 2 le cose non si possono fare se non vai a 7+
fraussantin
29-12-2019, 05:46
Quindi secondo te una vii con la tecnologia di oggi, ottimizzata a 7nm+ e 1.6ghz consumerebbe di più/tanto.
Sembra che tu voglia detto che sarà un fallimento a prescindere...
Sembra che tu voglia detto che sarà un fallimento a prescindere...
Anche se uscissero con una 5700 e un 3600 liscio sarebbero un successo . Prestazioni ottime in 4k ( parliamo di console zben ottimizzate)
Quindi fallimento no di sicuro.
Solo che bisogna essere realisti e mi viene difficile pensare che amd abbia certe carte in tasca e non le abbia sfruttate ancora per le GPU dedicate.
Se era possibile fare una GPU a 12 tf che consumasse poco a prezzi umani la avremmo già a scaffale.assieme alla versione super OC da 16tf
Se amd la Radeon 7 con tecnologia navi non l'ha fatta è perchè costa troppo.
Arriverà il prossimo anno con rdna2 questo è sicuro . Ma secondo me il prossimo anno assieme alla 6700xt arriverà anche una fascia più alta.
fraussantin
29-12-2019, 07:33
No forse per AMD è possibile oggi grazie ai 7nm+ ed all'esperienza fatta con Vega/vii e navi.
Del resto una vii a 1.6ghz sui 7nm ci andrebbe consumando meno di 180w ed in 4k non farebbe affatto schifo.
NON riesco a seguirti , la 7 é già a 7 nm deve le sue performance alle hbm2 senza le quali non andrebbe da nessuna parte , ha costi proibitivi per il mercato desktop non vedo come si possa immaginare di metterla su console.
Fare una navi con 3840 core a 7 nm con architettura ottimizzata e 16 ddr6 é possibile ? Beh che aspetta amd tutti la vorremmo. 499 e 599 dollari (8 e 16 giga) farebbe il botto
Ottimizza (oggi non ieri), metti a 7nm+ (oggi non ieri) e aumenta l'IPC grazie alla nuova architettura di oggi... e vedi che a pari consumi (180w) ottieni molto di più. Aggiungi CPU ed il resto e arrivi a 250w. La ps3 per riferimento faceva 200w.
Sì ma quanto ti costa tutto quel silicio a 7+?
Cmq si secondo me saremo sui 230 250w massimo . Filippo spencer ha detto che sarà silenziosa. ( E penso che sia ormai d'obbligo che lo sia )
PS le PS3 di prima generazione schioppavano quasi tutte cmq facevano un fracasso infernale. Idem per le Xbox. Era un problema di stagno ok , ma alla base c'era l'alta temperatura.
Cmq ripensavo al tuo discorso dell'altro giorno riguardo al chip modulare , e secondo me hasenso.
Ci potrebbero mettere secondo te un chiplet zen2 + un chip di i\o + un chip grafico dedicato + un chip rt ? Abbatterebbero i costi degli scarti imho
Sono curioso di vedere come saranno le apu zen2.
Ton90maz
29-12-2019, 08:16
Sì appunto se la mandi come una 2060 non hai12 TF ma 7 per arrivare a 12 tflop devi quasi raddoppiare le cu ..
E i consumi aumentano per altri motivi.
Scusa , mi dici come fa rdna 1 ad arrivare a 12 tflop tenendo bassi i consumi? E soprattutto perché non abbiamo una GPU del genere desktop se fattibile?Boh, con 30-40 mm quadrati di silicio in più? Sarebbe da vedere quanto scali un chip del genere, ma non vedo particolari problemi nella realizzazione.
Anche se uscissero con una 5700 e un 3600 liscio sarebbero un successo . Prestazioni ottime in 4k ( parliamo di console zben ottimizzate)
Quindi fallimento no di sicuro.
Solo che bisogna essere realisti e mi viene difficile pensare che amd abbia certe carte in tasca e non le abbia sfruttate ancora per le GPU dedicate.
Se era possibile fare una GPU a 12 tf che consumasse poco a prezzi umani la avremmo già a scaffale.assieme alla versione super OC da 16tf
Se amd la Radeon 7 con tecnologia navi non l'ha fatta è perchè costa troppo.
Arriverà il prossimo anno con rdna2 questo è sicuro . Ma secondo me il prossimo anno assieme alla 6700xt arriverà anche una fascia più alta.Se avessero potuto fare delle scelte a tavolino e con la certezza di sviluppare i prodotti in tempo, col cavolo che avrebbero fatto quella baracca a 7 nm. Sarebbero passati direttamente a navi (ovviamente se parliamo in ottica gaming. Il coso 7 ha altri vantaggi che magari interessavano già a qualcuno). Se ancora non esiste sarà perchè, evidentemente, non hanno le risorse o l'interesse a sviluppare diecimila chip diversi, e punteranno all'uso delle memorie della disperazione, con un chip più grande e performante.
mircocatta
29-12-2019, 11:11
2304SP su bus a 192bit?:mbe: :mbe:
sarà castratissima lato memorie, molto più che dalla frequenza (immagino che in oc non possa raggiungere le frequenze delle 5700), in ogni caso è un bel gioiellino se venduta sotto i 300€
imho il prezzo delle 5500xt crollerà per dare più spazio alle 5600xt, altrimenti una 5500xt a 200-230€ non la comprerà nessuno
gianni1879
29-12-2019, 11:22
Si assolutamente un bus a 192 bit castra un bel pò le prestazioni ;)
2304SP su bus a 192bit?:mbe: :mbe:
sarà castratissima lato memorie, molto più che dalla frequenza (immagino che in oc non possa raggiungere le frequenze delle 5700), in ogni caso è un bel gioiellino se venduta sotto i 300€
imho il prezzo delle 5500xt crollerà per dare più spazio alle 5600xt, altrimenti una 5500xt a 200-230€ non la comprerà nessuno
Concordo,
stessi SP della 5700 ma su 192 bit... e va da se che il bandwidth memoria crolla drasticamente come si nota dalla tabella nella news.
però come giustamente dici poi è anche una questione di prezzo... se fosse relativamente basso quella specifica sarebbe giustificata e allora davvero appetibile.
Oirasor_84
29-12-2019, 12:07
RDNAxt consuma tanto perchè per poter stare tra la 2070 e la 2070s deve lavorare a 1.2V.
Se l'avessero tarata per andare tra la 2060 e la 2060s, come naturale per un chippino da 251mm², i consumi sarebbero stati ben altri.
Scelte commerciali, giuste tra l'altro, dato che stanno capitalizzando bene. Ma su console non credo proprio assisteremo a qualcosa del genere, aumenteranno le CU e diminuiranno tensioni e clock :)
in realtà sia consumo che voltaggi sono dinamici,la vga arriva a picchi di 200w ma generalmente ha un avg di 180w circa e io la tengo col power limit al massimo.
l'unica cosa che forse può risponderti
tieni conto che è vecchia mi pare luglio 2019
https://www.techpowerup.com/256975/amd-patent-shines-raytraced-light-on-post-navi-plans
pdf (http://www.freepatentsonline.com/20190197761.pdf)con la richiesta di brevetto
al ces ne sapremo di + mi pare presenterenno l'archittetura rnda2, secondo varie fontiHo dato una letta, interessante...
Quindi per le ubertop, probabilmente ci dovremmo aspettare delle belle padelle di chip
fraussantin
29-12-2019, 13:35
Considerando che è una scheda per il fhd, laddove il bus non viene saturato, con un minino di OC andrà quanto la 5600 liscia.
Certo i 6gb di RAM non piacciono....É una scheda che ormai punta al 1080p quindi 6 giga bastano anche. Quello che mi preoccupa é il prezzo , visto quanto costa la 5500 ... 8 giga.. ( che senso ha sta cosa?) Una delle 2 sarà per forza fuori mercato.
Ale55andr0
29-12-2019, 13:56
ehilà, si continua a fermacartare quindi :D :D :D
Free Gordon
29-12-2019, 17:08
Guarda che una 5700xt a 7nm e non 7nm+ con soli 2560sp e 2.1ghz di clock (inefficienti quanto vuoi per altri motivi, ma ci arriva) fa quasi 11tflop.
Se avesse come la vii 3840sp basterebbero 1.6ghz per avere 12tflop. E una vii a 1.6ghz già sui 7nm non credo che consumi tanto...
E senza chip specializzati per il calcolo degli rtcosi
Che poi appunto la vii di tflop ne ha 14 e passa quindi la GPU che chiedi esiste già, che poi abbia altri tipi di problemi risolvibili con la tecnologia evolutasi da quando è uscita ad oggi è un altro discorso..
Non metteranno più GCN nelle console. ;)
Free Gordon
29-12-2019, 17:12
Ecco le specifiche Ufficiali della RX 5600 XT fresche fresche
https://www.pcgaming.tech/radeon-rx-5600-xt-specifiche-ufficiali.html
Come dicevamo qualche tempo fa', è Navi10 con 36CU e bus cuttato.
Nulla di nuovo sotto il sole..
C'è solo da vedere a che tensione gira e quindi i consumi reali.. :)
Sarà una bella scheda per chi gioca a 1080p se resta sui 280€ ;)
mikael84
29-12-2019, 18:09
Come dicevamo qualche tempo fa', è Navi10 con 36CU e bus cuttato.
Nulla di nuovo sotto il sole..
C'è solo da vedere a che tensione gira e quindi i consumi reali.. :)
Sarà una bella scheda per chi gioca a 1080p se resta sui 280€ ;)
Se i bench sono veri, l'hanno praticamente allineata alla V56.
A livello di tensione il best è 0,95v, già la navi liscia gira a 0,987v.
ninja750
29-12-2019, 19:01
il clock non è un pochino basso visto questa nuova architettura?
Sì appunto se la mandi come una 2060 non hai12 TF ma 7 per arrivare a 12 tflop devi quasi raddoppiare le cu ..
E i consumi aumentano per altri motivi.
- La 5700XT lavora a 1.2V per avere 1905MHz boost e 9,75TFlops.
- La 5700 lavora a 0.98V per avere 1725MHz boost e 7.9TFlops.
Passando da 7nm a 7nm+ abbiamo +20% di densità e -10% di consumi a parità di frequenza.
Una GPU da 56CU e 1650MHz, funzionante a 0.95V mi sembra ampiamente possibile e con consumi ottimi...e avresti 11.8TFlops.
Scusa , mi dici come fa rdna 1 ad arrivare a 12 tflop tenendo bassi i consumi? E soprattutto perché non abbiamo una GPU del genere desktop se fattibile?
Non abbiamo una GPU del genere oggi perchè AMD ha deciso così. Ha puntato alla 2070 e a fare il massimo di margine possibile per poi fare una lineup completa con RDNA2.
Edit: oltretutto se procedi così, aumenti i TFlops, ma perdi in tutti i moltiplicatori che dipendono dalla frequenza. Per una console può andare bene, se devi competere con nVidia a suon di fps, non saprei.
Free Gordon
30-12-2019, 03:36
Ecco le specifiche Ufficiali della RX 5600 XT fresche fresche
https://www.pcgaming.tech/radeon-rx-5600-xt-specifiche-ufficiali.html
Se i bench sono veri, l'hanno praticamente allineata alla V56.
A livello di tensione il best è 0,95v, già la navi liscia gira a 0,987v.
eh..speriamo siano 0,95v.. :D
- La 5700XT lavora a 1.2V per avere 1905MHz boost e 9,75TFlops.
- La 5700 lavora a 0.98V per avere 1725MHz boost e 7.9TFlops.
Passando da 7nm a 7nm+ abbiamo +20% di densità e -10% di consumi a parità di frequenza.
Una GPU da 56CU e 1650MHz, funzionante a 0.95V mi sembra ampiamente possibile e con consumi ottimi...e avresti 11.8TFlops.
Al 90% saranno 52 le CU (per migliorare le rese) e 1800mhz di boost. ;)
Sarà una bestia un'APU del genere... :sofico:
mikael84
30-12-2019, 12:39
Ho dato una letta, interessante...
Quindi per le ubertop, probabilmente ci dovremmo aspettare delle belle padelle di chip
Integrare gli RT non dovrebbe costare molto, si stima circa 4,9mm2 su 4,5 per DCU.
Ciò che potrebbe cambiare è una rivisitazione totale dei CU, quindi renderli complessivamente più grossi. Bisogna vedere anche come affronteranno il problema tensor core, se via shader o nativamente (AMD può fare certe operazioni via shader.
Inoltre c'è da implementare la L1.
Ciò che peserebbe nel big chip, se non aumentano gli engine sono i controller, in quanto si adotterà un 4096bit per le HBM2, solo questo porta via 65mm2 d'area. Ovviamente con il 7nm base.
Sulle console dovremmo quindi avere gli shader a 140mm2 contro i 90mm2 della 5700, da aggiungere la l1 (irrisorio), però parliamo sempre di 7nm+, di conseguenza quei 140mm2 potrebbero scendere sotto i 120.
Command processor e ACE, occupano circa 10mm2, e rimarebbero probabilmente tali, una 40ina l'interfaccia.
Integrare gli RT non dovrebbe costare molto, si stima circa 4,9mm2 su 4,5 per DCU.
Ciò che potrebbe cambiare è una rivisitazione totale dei CU, quindi renderli complessivamente più grossi. Bisogna vedere anche come affronteranno il problema tensor core, se via shader o nativamente (AMD può fare certe operazioni via shader.
Inoltre c'è da implementare la L1.
Ciò che peserebbe nel big chip, se non aumentano gli engine sono i controller, in quanto si adotterà un 4096bit per le HBM2, solo questo porta via 65mm2 d'area. Ovviamente con il 7nm base.
Sulle console dovremmo quindi avere gli shader a 140mm2 contro i 90mm2 della 5700, da aggiungere la l1 (irrisorio), però parliamo sempre di 7nm+, di conseguenza quei 140mm2 potrebbero scendere sotto i 120.
Command processor e ACE, occupano circa 10mm2, e rimarebbero probabilmente tali, una 40ina l'interfaccia.
Ok la densità, il problema sta sulla superficie da raffreddare, mi fai un chip ultracompatto anche se a 7nm+ ma con specifiche mostruose, chi lo raffredda? Frozen in persona?
Soprattutto nelle console dove serve un sistema di dissipazione compatto.
Inviato dal mio Redmi 7A utilizzando Tapatalk
Ok la densità, il problema sta sulla superficie da raffreddare, mi fai un chip ultracompatto anche se a 7nm+ ma con specifiche mostruose, chi lo raffredda? Frozen in persona?
Soprattutto nelle console dove serve un sistema di dissipazione compatto.
Inviato dal mio Redmi 7A utilizzando Tapatalk
Dai primi render la nuova Xbox non sembra proprio piccolissima, ancora un po' e diventa un companion cube :asd:
Roland74Fun
30-12-2019, 20:14
Al CES 2020 il 6 gennaio magari vedremo Lisa Su sul palco con una nuova schedona da 35 cm trivontala da 12 trislot in mano dire: "We love gamers, and we have a great new vga for them, the first Rdna2 Ray tracing capable.
It barely beat competitor vga 2070s in many games (scorre slide incomprensibile a schemo con una serie di techdemo sconosciuti).
Available on March 2021 at only 1.199$."
:D :D
Ale55andr0
30-12-2019, 22:15
https://wccftech.com/amd-radeon-rx-navi-21-gpu-2x-performance-5700-xt-die-size-rumor/
mikael, esplica, cosa ti aspetti da quei numeri? :O
:p
Digital foundry riporta delle voci spacciandole per parola di un insider AMD che sta lavorando ai chip console e dice ps5 circa 9tflop, series x circa 12 tflop.
....non ci credo nemmeno se l'insider si chiama Gesù Cristo e mi moltiplica il conto in banca di un fattore 10x :O ....che è pure poco per avere qualcosa di decente, facciamo 100X :asd:
Al CES 2020 il 6 gennaio magari vedremo Lisa Su sul palco con una nuova schedona da 35 cm trivontala da 12 trislot in mano dire: "We love gamers, and we have a great new vga for them, the first Rdna2 Ray tracing capable.
It barely beat competitor vga 2070s in many games (scorre slide incomprensibile a schemo con una serie di techdemo sconosciuti).
Available on March 2021 at only 1.199$."
:D :D
Di cartone Modello pre-alpha, 350W TDP.
https://wccftech.com/amd-radeon-rx-navi-21-gpu-2x-performance-5700-xt-die-size-rumor/
Boiazza la miseria, 505mm² a 7nm+ sono tanta roba.
Il RT non dovrebbe occupare molto, bisognerebbe capire cos'hanno fatto con i tensor. Ma per un raddoppio del genere si può sperare ad un evoluzione dei geo magari :sperem:
Mikaeeeeeeel :D
arxangel
30-12-2019, 22:36
Boiazza la miseria, 505mm² a 7nm+ sono tanta roba.
Il RT non dovrebbe occupare molto, bisognerebbe capire cos'hanno fatto con i tensor. Ma per un raddoppio del genere si può sperare ad un evoluzione dei geo magari :sperem:
Mikaeeeeeeel :D
Certo sperando che non sparino 1000 e passa euro, ma sono sicuro lo faranno.
Ale55andr0
30-12-2019, 22:44
Boiazza la miseria, 505mm² a 7nm+ sono tanta roba.
Il RT non dovrebbe occupare molto, bisognerebbe capire cos'hanno fatto con i tensor. Ma per un raddoppio del genere si può sperare ad un evoluzione dei geo magari :sperem:
Mikaeeeeeeel :D
in BF soliti 4, con 64cu, 64rops e un sacco di silicio ridondante per salire in frequenza :asd:
mikael84
30-12-2019, 23:22
https://wccftech.com/amd-radeon-rx-navi-21-gpu-2x-performance-5700-xt-die-size-rumor/
mikael, esplica, cosa ti aspetti da quei numeri? :O
:p
....non ci credo nemmeno se l'insider si chiama Gesù Cristo e mi moltiplica il conto in banca di un fattore 10x :O ....che è pure poco per avere qualcosa di decente, facciamo 100X :asd:
Boiazza la miseria, 505mm² a 7nm+ sono tanta roba.
Il RT non dovrebbe occupare molto, bisognerebbe capire cos'hanno fatto con i tensor. Ma per un raddoppio del genere si può sperare ad un evoluzione dei geo magari :sperem:
Mikaeeeeeeel :D
Qua ci vuole frate indovino.:p Si parla solo di die.
Nel chip AMD sono principalmente 5 le parti:
I/0
controller
DCU
l1/l2/rop's
CPU command processor/hws/ace/engine
In Navi I/0 circa 38mm2
10 CPU
66 256bit
90mm2 i DCU
L'altro è speso per l1/l2 rop's.
Dovessimo raddopiare il chip, non avremmo mai un raddoppio esatto.
AMD può fare operazioni tensor via shader, ma servirebbero i nativi ovviamente, che occuperebbero quanto le ALU fp32 per CU.
40 DCU (rt) su 6 engine occuperebbero 190/200mm2.
Rop's/l2/L1 circa 70mm2
Dovremmo essere a circa 400mm2 su 6 engine, su 8 le cose cambiano ancora, per via delle rop's e delle l2.
Un chip da 500, farebbe pensare in primis a delle rivisitazioni alle CU, un pò come le NCU di Vega e come il RT venga gestito dall'hardware, funzioni fisse.
In Vega, ad esempio una buona parte era per l'HBCC.
Vediamo l'evolversi, però 500mm2 è tanta roba, magari è la volta che passano agli 8 engine.:)
fraussantin
31-12-2019, 00:27
https://youtu.be/dN6RgGecP-Y
Dai primi render la nuova Xbox non sembra proprio piccolissima, ancora un po' e diventa un companion cube :asd::asd:
Qua ci vuole frate indovino.:p Si parla solo di die.
Nel chip AMD sono principalmente 5 le parti:
I/0
controller
DCU
l1/l2/rop's
CPU command processor/hws/ace/engine
In Navi I/0 circa 38mm2
10 CPU
66 256bit
90mm2 i DCU
L'altro è speso per l1/l2 rop's.
Dovessimo raddopiare il chip, non avremmo mai un raddoppio esatto.
AMD può fare operazioni tensor via shader, ma servirebbero i nativi ovviamente, che occuperebbero quanto le ALU fp32 per CU.
40 DCU (rt) su 6 engine occuperebbero 190/200mm2.
Rop's/l2/L1 circa 70mm2
Dovremmo essere a circa 400mm2 su 6 engine, su 8 le cose cambiano ancora, per via delle rop's e delle l2.
Un chip da 500, farebbe pensare in primis a delle rivisitazioni alle CU, un pò come le NCU di Vega e come il RT venga gestito dall'hardware, funzioni fisse.
In Vega, ad esempio una buona parte era per l'HBCC.
Vediamo l'evolversi, però 500mm2 è tanta roba, magari è la volta che passano agli 8 engine.:)Mattonella 😅
Gyammy85
31-12-2019, 08:31
Mannaggia volevo dissertare sui 720p a 28,2 fps upscalati a 4k 120 fps e esce una news su navi 21, uffi
https://wccftech.com/amd-radeon-rx-navi-21-gpu-2x-performance-5700-xt-die-size-rumor/
mikael, esplica, cosa ti aspetti da quei numeri? :O
:p
Io so solo che le hbm non le possono mettere perché nvidia non le usa, le gddr6 neanche perché già le usa nvidia, quindi boh, protenderei per ddr2 a 500 mhz
Boiazza la miseria, 505mm² a 7nm+ sono tanta roba.
Il RT non dovrebbe occupare molto, bisognerebbe capire cos'hanno fatto con i tensor. Ma per un raddoppio del genere si può sperare ad un evoluzione dei geo magari :sperem:
Mikaeeeeeeel :D
Io mi aspetto cu che lavorano sia su raster che su rt come ho già scritto altre vote...considera che il 7 nm+ porta un discreto aumento di densità, insomma un piccolo mostro
Certo sperando che non sparino 1000 e passa euro, ma sono sicuro lo faranno.
Secondo me entro i 799
in BF soliti 4, con 64cu, 64rops e un sacco di silicio ridondante per salire in frequenza :asd:
No no a sto giro fermeranno tutto a 125 mhz @ 700 watt
Ton90maz
31-12-2019, 09:54
Che bella bestia. Se anche raddoppiassero tutto navi 10 - tolti command processor e I/O - rimarrebbero quasi 50 mm quadrati per altro :O
mikael84
31-12-2019, 11:58
Che bella bestia. Se anche raddoppiassero tutto navi 10 - tolti command processor e I/O - rimarrebbero quasi 50 mm quadrati per altro :O
Qualcosa si devono inventare, dovrebbero competere con la prossima 3080, scheda che sicuramente starà sopra la 2080ti.
Il chip GT102 ha 18,2m/transistor.
Ale55andr0
31-12-2019, 19:56
interessanti spunti sulle gpu delle nuove scatolette in questo forum. Il leak dei 9.2tflop di PS5 vs i 12 della torre nera ha generato panico o entusiasmo a seconda delle fazioni :asd:
https://www.resetera.com/threads/ps5-and-xbox-series-speculation-launch-thread-ot9-for-flops-sake.162235/page-4
Coumunque, se fossero veri i 9.2tflop come furono, purtroppo, veri i leak dei 1.86tflop/1152sp di ps4 e addirittura 768sp di one la penserei esattamente come come allora: che merda fumante sta generazione di console :rolleyes: cioè manco si sarebbero scomodati ad aumentare le cu rispetto la vecchia, tutto clock e chippetto da due lire, che pezzentanza oscena sarebbe :Puke:
Secondo me per competere davvero nella fascia che conta l'hanno prossimo, il doppio di preatazioni non bastano, altrimenti sarà come quest'anno, una serie di schede nata vecchia
fraussantin
31-12-2019, 20:28
Secondo me per competere davvero nella fascia che conta l'hanno prossimo, il doppio di preatazioni non bastano, altrimenti sarà come quest'anno, una serie di schede nata vecchiaSecondo me ha già fatto un miracolo con queste navi che di sbagliato hanno solo il prezzo.
Se invece di tirargli il collo con frequenze altissime( e quindi consumi alti) e prezzarle care , le avesse chiamate col loro nome 670 e 680 e prezzate 249 e 299 dollari, quindi 300 e 350 euro saremmo tutti a gridare al miracolo.
Amd stavolta é stata avida e non ha saputo sfruttare lo svantaggio di Nvidia con i chippino costosi.
Ale55andr0
31-12-2019, 20:32
Secondo me per competere davvero nella fascia che conta l'hanno prossimo, il doppio di preatazioni non bastano, altrimenti sarà come quest'anno, una serie di schede nata vecchia
il doppio di una 5700xt è sorpassare di netto una 2080ti eh...che ti aspettavi, la gpu quantica? :asd:
comunque stante che i titoli next gen li tareranno sulla console più scrausa fra quelle in commercio, fossero veri i pezzentensi 9.2tflop (:Puke:) del micropene di silicio della play 5 hai voja se ti basta il doppio di una 5700xt :asd:
Comunque sto tizio (cazz è? :asd:)
rassicura:
https://www.reddit.com/r/PS5/comments/ei5459/believable_i_have_trust_in_this_guy_as_now/
che spasso :rotfl: vediamo un mese e una settimana prima che sia ufficiale chissà cosa :asd:
Ale55andr0
31-12-2019, 20:56
si guarda, tw3 su ps è uguale che su pc (esempio a caso, no non postarmi video comparativi del tubo, just in case...ho avuto il "piacere" di vederlo di persona...) :asd: idem rdr2 :asd:
...e comunque un 1080p su una console next gen sarebbe improponibile
Oh finalmemte qualche rumor sulla big, spero in bene!
Secondo me ha già fatto un miracolo con queste navi che di sbagliato hanno solo il prezzo.
Se invece di tirargli il collo con frequenze altissime( e quindi consumi alti) e prezzarle care , le avesse chiamate col loro nome 670 e 680 e prezzate 249 e 299 dollari, quindi 300 e 350 euro saremmo tutti a gridare al miracolo.
Amd stavolta é stata avida e non ha saputo sfruttare lo svantaggio di Nvidia con i chippino costosi.Siamo d'accordo quindi che queste navi sono fumo negli occhi, sarebbero state delle schede diddio prezzate molto al di sotto di quelle nvidia, visto che fanno solo raster, invece ci hanno dato delle schede nate vecchie (le stesse prestazioni nvidia le faceva già da più di un anno con ray tracing per quanto pessimo e a 12nm) fatte passare per chissà cosa prezzandole al punto giusto per fartele passare come un affare e loro tirarci su quanti più soldi possibili, in realtà sono schede da 300€ massimoil doppio di una 5700xt è sorpassare di netto una 2080ti eh...che ti aspettavi, la gpu quantica? :asd:
comunque stante che i titoli next gen li tareranno sulla console più scrausa fra quelle in commercio, fossero veri i pezzentensi 9.2tflop (:Puke:) del micropene di silicio della play 5 hai voja se ti basta il doppio di una 5700xt :asd:
Comunque sto tizio (cazz è? :asd:)
rassicura:
https://www.reddit.com/r/PS5/comments/ei5459/believable_i_have_trust_in_this_guy_as_now/
che spasso :rotfl: vediamo un mese e una settimana prima che sia ufficiale chissà cosa :asd:No assolutamente, ma credi che basti ad AMD per tenere il passo di nvidia con Ampere? Secondo me si creerà un'altra situazione simile a quella di quest'anno, con schede fatte passare per grandiose ma che in realtà non lo sono, e a 7+nm fa ridere la cosa, così AMD non tornerà mai competitiva, e nVidia continuerà a marciarci sopra vendendo a quanto cavolo le pare perché tanto può fare il bello e il cattivo tempo.
Sulla questione console, il minimo sindacale nel 2020 saranno 12tf,al di sotto di questa soglia saranno dei cessi, per quanto fighi ti possano far credere i giochi suvvia una 5800xt al doppio di una 5700xt saranno 15tf per non contare una 3080 quanti tf ti spara
Ale55andr0
31-12-2019, 23:32
credi che basti ad AMD per tenere il passo di nvidia con Ampere?
stare al passo di che? ormai è chiaro da anni che amd se ne sbatte le terga della fascia alta e dei primati prestazionali. Se poi deve stare al passo per far comprare le nvidia a prezzo migliore sai quanto gli frega ancor più :asd:
mikael84
31-12-2019, 23:35
interessanti spunti sulle gpu delle nuove scatolette in questo forum. Il leak dei 9.2tflop di PS5 vs i 12 della torre nera ha generato panico o entusiasmo a seconda delle fazioni :asd:
https://www.resetera.com/threads/ps5-and-xbox-series-speculation-launch-thread-ot9-for-flops-sake.162235/page-4
Coumunque, se fossero veri i 9.2tflop come furono, purtroppo, veri i leak dei 1.86tflop/1152sp di ps4 e addirittura 768sp di one la penserei esattamente come come allora: che merda fumante sta generazione di console :rolleyes: cioè manco si sarebbero scomodati ad aumentare le cu rispetto la vecchia, tutto clock e chippetto da due lire, che pezzentanza oscena sarebbe :Puke:
Il chip di navi attuale lo utilizzeranno varie volte, faranno anche vari rebrand sino al MCM, prossimo chip sia di nvidia che di AMD.
Certo sui 7nm+ si parte già dalla fascia bassa.
A tutto nostro svantaggio ahinoi, ridatemi i tempi delle HD7970, la mia ultima Ati
nessuno29
01-01-2020, 10:06
Siamo d'accordo quindi che queste navi sono fumo negli occhi, sarebbero state delle schede diddio prezzate molto al di sotto di quelle nvidia, visto che fanno solo raster, invece ci hanno dato delle schede nate vecchie (le stesse prestazioni nvidia le faceva già da più di un anno con ray tracing per quanto pessimo e a 12nm) fatte passare per chissà cosa prezzandole al punto giusto per fartele passare come un affare e loro tirarci su quanti più soldi possibili, in realtà sono schede da 300&euro
Ma chi lo ha visto sto ray tracing nei giochi? Parlando sinceramente ad oggi non si è visto nulla, gli effettini marmo lucido che si sono visti sono anche piuttosto ridicoli. Quindi perchè mai le navi sarebbero schede vecchie? perchè nvidia ha implementato a prezzi proibitivi una tecnologia ancora in stato embrionale? vedremo dalla prossima gen cosa vorrà dire il raytracing nei giochi, perchè se farà la fine di physx con 4 fogli ed il mantello svolazzante su batman campa cavallo...
Le navi sono per me schede piazzate ad un prezzo giusto se guardiamo quella che è la concorrenza, lato prezzi. Guardando invece il mercato prima che nvidia iniziasse a vendere a quei 4 fissati schede come la titan a 1000 euro allora il prezzo è un 100 euro troppo alto, sempre meglio dei 400 e più euro di troppo delle ultime nvidia top gamma. Insomma navi è il meglio del peggio.
Windtears
01-01-2020, 10:12
1 gennaio 2020 e si ricomincia come da tradizione,
AMD = schede nate vecchie, senze rt e sovraprezzate :sofico:
Ahahahahah dai dai che mancano ancora 364 giorno al 2021 :sofico:
è bisestile questo. :asd:
ahrevelation
01-01-2020, 10:31
Siamo d'accordo quindi che queste navi sono fumo negli occhi, sarebbero state delle schede diddio prezzate molto al di sotto di quelle nvidia, visto che fanno solo raster
Ray tracing allo stato attuale. Meglio rinfrescare la memoria
https://www.youtube.com/watch?v=Oe37xKHlQHM
giovanbattista
01-01-2020, 10:37
Ma chi lo ha visto sto ray tracing nei giochi? Parlando sinceramente ad oggi non si è visto nulla, gli effettini marmo lucido che si sono visti sono anche piuttosto ridicoli. Quindi perchè mai le navi sarebbero schede vecchie? perchè nvidia ha implementato a prezzi proibitivi una tecnologia ancora in stato embrionale? vedremo dalla prossima gen cosa vorrà dire il raytracing nei giochi, perchè se farà la fine di physx con 4 fogli ed il mantello svolazzante su batman campa cavallo...
Le navi sono per me schede piazzate ad un prezzo giusto se guardiamo quella che è la concorrenza, lato prezzi. Guardando invece il mercato prima che nvidia iniziasse a vendere a quei 4 fissati schede come la titan a 1000 euro allora il prezzo è un 100 euro troppo alto, sempre meglio dei 400 e più euro di troppo delle ultime nvidia top gamma. Insomma navi è il meglio del peggio.
non ho voglia di recuperare il post cmq è su questa discu....il vero rt lo vedremo se va tutto bene nel 2030 (ho snocciolato tutti i dati e i tf necesari, che ad oggi non sfiorano minimamente le potenze di calcolo che servono), sempre che vogliano vogliamo supportarlo, se entra amd e intel di sicuro altrimenti, ciaone......mentre in ambito lavorativo è dove ha preso maggior piede per il momento
mircocatta
01-01-2020, 10:45
Ah ora le navi non hanno senso...Ah ok.
Vi ricordo che se non uscivano le navi stavamo ancora a guardare le 2070 liscie a 550€
Andy1111
01-01-2020, 11:01
Scusate Ampere qua di la ma lo avete visto? mi sembra come quando qualcuno diceva Ampere ci pensa Samsung i loro 7 sono nettamente migliori di TSMC poi alla fine che esce fuori, Ampere su TSMC, vi state facendo troppe aspettative non è che rimarrete scottati alla fine?! Io ho un prurito ma per ora mi sto zitto ...... BUON ANNO
Ah ora le navi non hanno senso...Ah ok.
Vi ricordo che se non uscivano le navi stavamo ancora a guardare le 2070 liscie a 550€
infatti..
Gyammy85
01-01-2020, 11:16
Scusate Ampere qua di la ma lo avete visto? mi sembra come quando qualcuno diceva Ampere ci pensa Samsung i loro 7 sono nettamente migliori di TSMC poi alla fine che esce fuori, Ampere su TSMC, vi state facendo troppe aspettative non è che rimarrete scottati alla fine?! Io ho un prurito ma per ora mi sto zitto ...... BUON ANNO
Per nvidia funziona così, 10x faster per lo shrink e 6x faster per side grade (pascal 16 nm 10x maxwell 28 nm, turing 12 nm 6x pascal 16 nm, ampere 12 nm++++++++++++++ o 7 nm wow 10x turing ecc...), tutto previsto e tutto calcolato, la preoccupazione è amd che non è possibile impostare il modello di calcolo e la scatola di edgeworth per stabilire di quanto verranno scontate le nvidia all'utilità marginale decrescente di quanto amd failerà di più.
Ale55andr0
01-01-2020, 13:12
https://www.youtube.com/watch?time_continue=9&v=rHT9P9XnsHc&feature=emb_logo
#uscitela5800
Nate vecchie perché fanno le stesse prestazioni di schede che nvidia ha rilasciato 2 anni fa, ray tracing o meno, il ray tracing è la ciliegina e cmq a 1080p puoi giocarci easy
Ale55andr0
01-01-2020, 15:24
Nate vecchie perché fanno le stesse prestazioni di schede che nvidia ha rilasciato 2 anni fa, ray tracing o meno, il ray tracing è la ciliegina e cmq a 1080p puoi giocarci easy
error: fanno le prestazioni che faceva nvidia 2 anni fa in fascia high end (700euro)
mikael84
01-01-2020, 15:28
https://www.youtube.com/watch?time_continue=9&v=rHT9P9XnsHc&feature=emb_logo
#uscitela5800
Per la 5800 (2080/s like) basta aggiungere 18mm2 di CU e le HC16 di samsung per elevare un tantino la BW.
Con un chippino di 270mm2 facevi la 5800 easy.
AMD con 18mm2 di chip in più poteva realmente fare male ad nvidia.;)
Andy1111
01-01-2020, 15:37
Nate vecchie perché fanno le stesse prestazioni di schede che nvidia ha rilasciato 2 anni fa, ray tracing o meno, il ray tracing è la ciliegina e cmq a 1080p puoi giocarci easy
Perchè devi uscirtene con queste notizie inesatte e pretenziose scusa il debutto delle RTX è stato il 20 settembre 2018 quindi un anno e 3 mesi mentre le super il 9 luglio 2019 insieme al debutto delle 5700 amd
A me mi pare che fa le stesse preatazioni di una 1080ti che sbaglio o è uscita nel 2017? E allora...
Ah e le faceva a 12nm
Perché a qurlla è comparabile visto che le rtx hanno la ciliegina
visto che le rtx hanno la ciliegina
Ciliegina ? :mc:
aspe'
:asd: :asd: :asd:
avete ragione voi, le nuove Navi sono superfighissime e AMD si mangia tutti a colazione, che ci dovete fare delle prestazioni e dei consumi, voi c'avete i 7 nanometri e il PCI-E 4.0
OvErClOck82
01-01-2020, 18:04
avete ragione voi, le nuove Navi sono superfighissime e AMD si mangia tutti a colazione, che ci dovete fare delle prestazioni e dei consumi, voi c'avete i 7 nanometri e il PCI-E 4.0Dai resisti fino al 7 che poi riaprono le elementari :asd:
Inviato dal mio COL-L29 utilizzando Tapatalk
Ale55andr0
01-01-2020, 18:07
avete ragione voi, le nuove Navi sono superfighissime e AMD si mangia tutti a colazione, che ci dovete fare delle prestazioni e dei consumi, voi c'avete i 7 nanometri e il PCI-E 4.0
e che c'entra sto commento sarcastico con quanto si discuteva? Non ho letto da nessuna parte che sno le più fighissime e si magnano tutti a colazione (anzi io stesso sono il primo a scherzare sul fatto che oggi si interessi solo alla fascia "fermcarte" :asd:), ,ma poi, potreste gentilmente psiegarci tutte ste lagne sui consumi, prima che riguardassero amd, non le piangeva nessuno dei green? (domanda reotrica..) il punto qui era/è uno: hai per caso da contraddire il FATTO che ad oggi che solo la 2080ti e la 2080s (cioè schede da ben oltre 500 euro..) battono in modo apprezzabile la 1080ti nella stessa gamma nvidia? :read: ergo la 5700xt che si rivolge a una determinata fascia, in relazione a quel prezzo è una eccellente vga, e sminuirla dicendo che la 1080ti, cioè una scheda TOP di gamma da 700 e passa cucuzze le faceva una generazione prima quelle prestazioni (a quasi il doppio del prezzo) non ha senso ed è del tutto gratuito: non ricordo nessun caso in cui una scheda di fascia 4cucuzze con chip grande na nticchia mazzolasse la ex top di gamma della generazione prima, ne nessuno che lo pretendesse :stordita: . Che faccio, segnalo o la piantiamo con questi flame palesi? :rolleyes:
Dai resisti fino al 7 che poi riaprono le elementari :asd:
Inviato dal mio COL-L29 utilizzando Tapatalk
così la discussione la si fa degenerare ulteriormente... basta usare gli argomenti basati sulla semplice realtà di cui sopra per far notare a qualcuno che sta andando a parare verso il flaming
mircocatta
01-01-2020, 18:23
e che c'entra sto commento sarcastico con quanto si discuteva? Non ho letto da nessuna parte che sno le più fighissime e si magnano tutti a colazione (anzi io stesso sono il primo a scherzare sul fatto che oggi si interessi solo alla fascia "fermcarte" :asd:), ,ma poi, potreste gentilmente psiegarci tutte ste lagne sui consumi, prima che riguardassero amd, non le piangeva nessuno dei green? (domanda reotrica..) il punto qui era/è uno: hai per caso da contraddire il FATTO che ad oggi che solo la 2080ti e la 2080s (cioè schede da ben oltre 500 euro..) battono in modo apprezzabile la 1080ti nella stessa gamma nvidia? :read: ergo la 5700xt che si rivolge a una determinata fascia, in relazione a quel prezzo è una eccellente vga, e sminuirla dicendo che la 1080ti, cioè una scheda TOP di gamma da 700 e passa cucuzze le faceva una generazione prima quelle prestazioni (a quasi il doppio del prezzo) non ha senso ed è del tutto gratuito: non ricordo nessun caso in cui una scheda di fascia 4cucuzze con chip grande na nticchia mazzolasse la ex top di gamma della generazione prima, ne nessuno che lo pretendesse :stordita: . Che faccio, segnalo o la piantiamo con questi flame palesi? :rolleyes:
così la discussione la si fa degenerare ulteriormente... basta usare gli argomenti basati sulla semplice realtà di cui sopra per far notare a qualcuno che sta andando a parare verso il flaming
C'è da aggiungere che stiamo parlando comunque di una delle serie, pascal, meglio uscite negli ultimi anni.
Un chip che con la serie media 1070) batteva la top precedente (980ti)
C'è da aggiungere che stiamo parlando comunque di una delle serie, pascal, meglio uscite negli ultimi anni.
Un chip che con la serie media 1070) batteva la top precedente (980ti)
La serie Pascal io non l'ho trovata così eccelsa.
Nvidia ha semplicemente alzato notevolmente i clock rispetto a maxwell.
Ricordiamoci che le 980ti avevano quasi il 50% di margine di overclock sul core.
Maxwell aveva un margine di oc praticamente mai visto in ambito gpu.
Pascal è uscito occato molto piu in alto e aveva un margine di oc molto piu limitato rispetto a maxwell.
Non ci scordiamo che una 980ti occata bene supera anche una 1080 liscia in certe condizioni e in genere sta avanti ad una 1070 anche occata.
I chip pascal inoltre erano piuttosto piccoli ed economici (cioè la 1080 son 300 mm^2 di gpu venduta a 700 euro fino al lancio della 1080ti...).
Sinceramente non mi interessa cadere in provocazioni ed affini, io ho spiegato perché ritengo che le cose stiano così, ora su qualcuno vuole argomentare e dire la sua ben venga per la discussione, perché alla fine è questo che si fa su un forum. Io ritengo che una scheda che fa prestazioni ottenibili 2 anni fa, non è una scheda presentabile, a tutto svantaggio della concorrenza e dei consumatori, quanto più che non sono il primo a dire che AMD ha fatto cartello, se voleva dare un colpo a nVidia, e riportare le cose ad un livello accettabile doveva piazzare le schede a 300€. Dal punto di vista tecnologico siamo molto indietro, c'è da vedere se come per i processori anche lato GPU in futuro AMD colmerà il gap, al momento siamo ancora in fase embrionale
Dai era capodanno :D
https://cdn.diffords.com/contrib/stock-images/2016/3/56/20164d06cbbba1f380025b003c68c6b20dd7.jpg
mircocatta
01-01-2020, 19:45
Sinceramente non mi interessa cadere in provocazioni ed affini, io ho spiegato perché ritengo che le cose stiano così, ora su qualcuno vuole argomentare e dire la sua ben venga per la discussione, perché alla fine è questo che si fa su un forum. Io ritengo che una scheda che fa prestazioni ottenibili 2 anni fa, non è una scheda presentabile, a tutto svantaggio della concorrenza e dei consumatori, quanto più che non sono il primo a dire che AMD ha fatto cartello, se voleva dare un colpo a nVidia, e riportare le cose ad un livello accettabile doveva piazzare le schede a 300€. Dal punto di vista tecnologico siamo molto indietro, c'è da vedere se come per i processori anche lato GPU in futuro AMD colmerà il gap, al momento siamo ancora in fase embrionale
300€ per una fascia di mercato, all'annuncio delle 5700, che oscillava dai 530€ ai 600€ (2070/1080ti)?
Manco nei sogni più bagnati!
Ok boomer
Lo scossone c'è stato , altroché, ha "costretto" Nvidia alle versioni S ad un prezzo inferiore alle versioni lisce, per noi consumatori non è stato "poco"
Ale55andr0
01-01-2020, 19:56
Sinceramente non mi interessa cadere in provocazioni ed affini
non è che ci cadi, le fai, è diverso...:rolleyes: e l'argomentazione ti è stata bella che fornita
Io ritengo che una scheda che fa prestazioni ottenibili 2 anni fa, non è una scheda presentabile
ah, quindi amd doveva presentare schede dalla 1080ti in su quindi :doh:
ma nvidia giustamente può fare solo tre quarti della sua produzione pari inferiore a quelle, basta che hai la 2080ti poi sotto puoi fare schede più sconvenienti della rivali a pari performance e venire plaudito, non fa una piega.
se voleva dare un colpo a nVidia, e riportare le cose ad un livello accettabile doveva piazzare le schede a 300&euro
no, doveva regalarle con le patatine visto che per qualcuno i 370 euro di una 5700xt sono molti quando è semplicemente la gpu col miglior rapporto prezzo prestazioni attualmente disponibile per i gamer "evoluti" ma che non possono o non vogliono spendere botte di 6-700 euro
Roland74Fun
01-01-2020, 19:57
Si ma infatti di solito è così. La RX 480 uscì anni dopo la 290X/390 prestazioni uguali consumi di molto inferiori e prezzo quasi dimezzato apportando in tre qualche feature architetturale migliorativa.
Idem successe colla 1060 che prendeva il posto della 980.
Ed allora che dovevano fare con quelle schede? Non dovevano uscirle?
Se i miei pensieri li prendi come flame è un problema tuo non mio
Ovvio che doveva andare più forte di una scheda uscita due anni fa, a 7nm poi, poi le piazzi a quel prezzo e siamo punto e a capo e le 2080ti vendute a più di 1000€ dopo più di un anno e mezzo che sono uscite, il discorso poi è partito dal rumour sulle 5800 che non mi pare promettente come TOP DI GAMMA
Ale55andr0
01-01-2020, 21:16
Se i miei pensieri li prendi come flame è un problema tuo non mio
Ovvio che doveva andare più forte di una scheda uscita due anni fa, a 7nm poi, poi le piazzi a quel prezzo e siamo punto e a capo e le 2080ti vendute a più di 1000€ dopo più di un anno e mezzo che sono uscite, il discorso poi è partito dal rumour sulle 5800 che non mi pare promettente come TOP DI GAMMA
dire che una scheda di fascia media con un chippettino da 40cu doveva andare più forte della top di gamma rivale della precedente generazione e criticarla per questo, non è ovvio manco per sbaglio, e farlo polemizzandoci è flame eccome: è come lamentarsi, insistendo, che la nuova golf non batte la porsche della scorsa generazione e pretendere di avere ragione. Le prestazioni di fascia in fascia salgono di generazione in generazione, ma non si può pretendere l'impossibile, men che meno se lo si fa a senso unico visto che dall'altra pare non ho visto miracoli in tal senso, mi pare....
Per il resto se vuoi di più puoi prendere una nvidia 2080/ti, mica non hai scelta o ti si punta la pistola per prendere AMD, e se la cosa non ti sta bene, beh "il problema è tuo". Se la 5800 non ti pare promettente (cosa che invece pare l'opposto visto quanto va forte il chip piccolo e che il prossimo pare sarà dalle parti del doppio quanto a die size..) idem.
Andy1111
01-01-2020, 22:57
http://ir.amd.com/news-releases/news-release-details/amd-announces-press-conference-ces-2020
Spider-Mans
02-01-2020, 08:51
sempre le solite war xd
domando ma tra una ps5 e una xbox x series...amd si ricordera anche delle top di gamma pc? chesso è cosi difficile sperare in una scheda amd che vada ad eguagliare o superare la 2080ti e prezzarla sulla ex fascia top dei 700-800 euro? da qui a fine anno?
impossibile? ma allora amd a cosa serve? giusto a far flammare i fanboy e poco altro in ambito gpu...se nvidia puo fare quel che vuole...ditelo eh
delle schede per fullhd o 2k ..mi faccio un brodino..qui vogliamo potenza per il 4k60 a prezzi umani
amd questa è la tua missione
Free Gordon
02-01-2020, 11:48
delle schede per fullhd o 2k ..mi faccio un brodino..qui vogliamo potenza per il 4k60 a prezzi umani
amd questa è la tua missione
RTX3080 ed RDNA2 dovrai aspettare...se questa fantasia vorrai realizzare... :asd:
Almeno spero.....
Spider-Mans
02-01-2020, 15:00
RTX3080 ed RDNA2 dovrai aspettare...se questa fantasia vorrai realizzare... :asd:
Almeno spero.....
https://thumbs.gfycat.com/WhoppingAdmiredChick-size_restricted.gif
i know...
vabbe attendiamo..... sono anni che attendiamo... :asd:
Spider-Mans
02-01-2020, 15:05
Ha detto prezzi umani, quindi sicuro rtx3080 la puoi depennare, con la differenza che rtx3080 ê autorizzata/legittimata/giustificata a costare ipotetici 800€ e ad andare quanto una vecchia 2080ti, la corrispondente AMD deve andare almeno quanto la 3080ti e costare di meno (non piú di 400€ e metti che ci sto rimettendo) se no è fail e obbliga nVidia a tenere i prezzi alti nonché gli utenti a comprarle a caro prezzo.
Questo è il succo degli ultimi illuminati interventi dichiaratamente/esplicitamente superpartes.
tra uno sbav amd e un blame verde...ogni tanto uscire dall inutile war...difficile?
togli funzioni rtx..togli il sovraprezzo di nvidia assurdo
aggiungi 12 mesi di ritardo
amd avrebbe tutte le possibilita economiche per piazzare schede equiparabili alle 2080ti al prezzo che ho indicato...
il punto è se ne ha voglia , forza e basi tecniche per farlo
la collaborazione con sony e microsoft in ambito console possibile che non porti vantaggi all utenza pc?
4 anni fa si facevano gli stesdi discorsi...posizioni cristalizzate...boooh
ah di rtx mi frega una cippa...non voglio tornare al fullhd per godermi il ray tracing a 60 frame...
rtx è ad oggi una buona propaganda...fra 10 anni avra senso a 4k..forse xD
Comunque vorrei fare una considerazione, se la prossima Xbox avrà 12tf, che cavolo di scheda ci vorrà sui PC per maxare le conversioni dei giochi a 2k e soprattutto a 4k?
Inviato dal mio Redmi 7A utilizzando Tapatalk
http://ir.amd.com/news-releases/news-release-details/amd-announces-press-conference-ces-2020
Orario ita?
Comunque vorrei fare una considerazione, se la prossima Xbox avrà 12tf, che cavolo di scheda ci vorrà sui PC per maxare le conversioni dei giochi a 2k e soprattutto a 4k?
Inviato dal mio Redmi 7A utilizzando Tapatalk
Si rinuncerà all rt
Orario ita?
alle 23:00 italiane:sbav:
https://www.youtube.com/watch?v=zUeo7kUzn_8
do per scontato che a parte la rx5600,e la nuova apu octacore mobile,il resto sara' tutta una slide e qualche demo-test,ma e' ugualmente eccitante seguirla:D
Comunque vorrei fare una considerazione, se la prossima Xbox avrà 12tf, che cavolo di scheda ci vorrà sui PC per maxare le conversioni dei giochi a 2k e soprattutto a 4k?
Inviato dal mio Redmi 7A utilizzando Tapatalk
Il problema sta tutto nella parola "maxare". Alcuni effetti sono disastrosi sulle performance e non aggiungono nulla di visibile in movimento, a volte addirittura fai fatica a notare la differenza negli screenshot.
Se la nuova XBOX avrà 12Tflops, secondo me con al massimo 14-15 (stessa scheda desktop più clockata) su PC avrai le stesse identiche cose e ti spiego perchè:
Prendiamo ad esempio il mattone capolavoro RDR2: lo giochi a 1080p con una radeon 480, tra medium e high, sul televisore di casa upscalato a 4k a frames vicini ai 60. Cosa avrebbe di diverso dalla versione PS4pro? Niente...infatti le risorse sono quelle, hai giusto il 20% di Tflops in più dati dal clock.
Il resto degli effetti sono fatti per la versione PC e richiedono un sacco di risorse, proprio perchè sono cose "incollate" su un motore grafico pensato per un processore con performance di 10 anni fa e una 7850. Poi hanno dato una "rinfrescata" al tutto per farlo andare su una 480 downclockata.
E poi ci hanno aggiunto di tutto e di più per far contenti i PCisti incalliti. Ma un motore del 2013 rimane, per come è stato concepito.
Quello che voglio dire è che la differenza di ottimizzazione tra una console e un PC sta pian piano diminuendo, proprio perchè le console ormai sono dei minipc con architettura molto simile, gestione RAM a parte.
Avere una console con un Ryzen 3700x secondo me GIOVERÀ a noi poveri cristi con un PC decente, proprio perchè i nuovi engine potranno usare ben altre risorse e far lavorare meglio le schede video.
Onestamente non mi preoccuperei troppo sul maxare i giochi next gen, ora abbiamo le scatolette che sono praticamente dei colli di bottiglia, i giochi pc non fanno altro che sfruttare gli stessi asset e infarcirli di effetti pesanti di cui manco ti accorgi, cosa renderanno possibile le nuove scatolette saranno finalmente nuovi assets poligonali e texturali che le schede attuali sono già pronte a gestire
Il problema sta tutto nella parola "maxare". Alcuni effetti sono disastrosi sulle performance e non aggiungono nulla di visibile in movimento, a volte addirittura fai fatica a notare la differenza negli screenshot.
Se la nuova XBOX avrà 12Tflops, secondo me con al massimo 14-15 (stessa scheda desktop più clockata) su PC avrai le stesse identiche cose e ti spiego perchè:
Prendiamo ad esempio il mattone capolavoro RDR2: lo giochi a 1080p con una radeon 480, tra medium e high, sul televisore di casa upscalato a 4k a frames vicini ai 60. Cosa avrebbe di diverso dalla versione PS4pro? Niente...infatti le risorse sono quelle, hai giusto il 20% di Tflops in più dati dal clock.
Il resto degli effetti sono fatti per la versione PC e richiedono un sacco di risorse, proprio perchè sono cose "incollate" su un motore grafico pensato per un processore con performance di 10 anni fa e una 7850. Poi hanno dato una "rinfrescata" al tutto per farlo andare su una 480 downclockata.
E poi ci hanno aggiunto di tutto e di più per far contenti i PCisti incalliti. Ma un motore del 2013 rimane, per come è stato concepito.
Quello che voglio dire è che la differenza di ottimizzazione tra una console e un PC sta pian piano diminuendo, proprio perchè le console ormai sono dei minipc con architettura molto simile, gestione RAM a parte.
Avere una console con un Ryzen 3700x secondo me GIOVERÀ a noi poveri cristi con un PC decente, proprio perchè i nuovi engine potranno usare ben altre risorse e far lavorare meglio le schede video.Insomma un sacco di soldi 😅
Inviato dal mio Redmi 7A utilizzando Tapatalk
Ale55andr0
02-01-2020, 22:50
https://www.techpowerup.com/gpu-specs/amd-navi-21.g923
mikael84
02-01-2020, 22:56
https://www.techpowerup.com/gpu-specs/amd-navi-21.g923
Se così fosse, finalmente si passa ai 6 engine.
I dati riportati sono da 6 engine, compresa la l2.
Quindi per ora un max di 6144st è raggiungibile (magari prox gen.)
Soluzione ben superiore ad una 2080ti nei pro.
Insomma un sacco di soldi ��
Inviato dal mio Redmi 7A utilizzando Tapatalk
Insomma, una cpu e una gpu di fascia media già da metà di quest'anno per avere qualcosa a livello della PS5/XBOX.
Per maxare, invece, come al solito si dovrà spendere 1200 euro di sola gpu, e aggiornare ogni anno come sempre.
Free Gordon
03-01-2020, 02:58
https://www.techpowerup.com/gpu-specs/amd-navi-21.g923
:cincin: :mano: :yeah: :winner:
Speriamo sia vero... una bella 6800 e una 6900XT non ce le leva nessuno :sofico: , poi faranno una versione di Navi 10 upclocckata per reggere un po' meglio l'impatto con la fascia immediatamente inferiore (dato che il salto da questa a Navi è molto grande :eek: ).
Free Gordon
03-01-2020, 02:59
Se così fosse, finalmente si passa ai 6 engine.
I dati riportati sono da 6 engine, compresa la l2.
Quindi per ora un max di 6144st è raggiungibile (magari prox gen.)
Soluzione ben superiore ad una 2080ti nei pro.
Vediamo questi nei 6 engine.. :D ma questa scheda cmq non è abbastanza per la 3080Ti.
Starà a cavallo tra la 3080 e la Ti probabilmente.
Potrebbe essere un bello sgambetto ad Nvidia se la piazzano allo stesso prezzo della 3080... :oink: :oink: :oink:
:cincin: :mano: :yeah: :winner:
Speriamo sia vero... una bella 6800 e una 6900XT non ce le leva nessuno :sofico: , poi faranno una versione di Navi 10 upclocckata per reggere un po' meglio l'impatto con la fascia immediatamente inferiore (dato che il salto da questa a Navi è molto grande :eek: ).
A questo punto potrebbero fare, su base RDNA2:
- il chippone da 5120 (6900xt e 6800xt cuttato)
- il chip da 3584 (6700xt simil Xbox e 6600xt mezzo amputato)
- il chippino da 1792 (6500xt)
Magari sogno :D
mircocatta
03-01-2020, 08:26
5120sp a 2ghz non superano i 20tf?
Roland74Fun
03-01-2020, 10:50
Prime immagini 5600 xt
https://www.pcgaming.tech/prime-immagini-della-amd-radeon-rx-5600-xt.htmlMamma mia, un'altra astronave triventola.
mircocatta
03-01-2020, 12:12
Mamma mia, un'altra astronave triventola.
dissi alquanto inutile per una scheda del genere clockata così in basso, davvero no sense, difatti il pcb è lungo almeno "una ventola" in meno
fraussantin
03-01-2020, 12:33
dissi alquanto inutile per una scheda del genere clockata così in basso, davvero no sense, difatti il pcb è lungo almeno "una ventola" in menoL'ultimo dei problemi di quella scheda.
Quel dissi serve a giustificare il presso assurdo che avrà .
mircocatta
03-01-2020, 12:36
L'ultimo dei problemi di quella scheda.
Quel dissi serve a giustificare il presso assurdo che avrà .
assurdo? si sa già?
a conti fatti dovranno forzatamente prezzare le 5600xt tra i 250€ e i 330€ e per una scheda che andrà simil vega56 non è affatto un cattivo prezzo, visto che nvidia a quel prezzo vende le 1660ti che vanno meno
https://www.techpowerup.com/review/zotac-geforce-gtx-1660-ti/28.html
se inveci intendi il prezzo di quel modello particolare...beh, ovvio, avrà un prezzo esagerato che la renderà invendibile
gianni1879
03-01-2020, 13:03
Mamma mia, un'altra astronave triventola.
Ahhaha verissimo
gianni1879
03-01-2020, 13:04
Tutti i modelli overclockati dalle aziende hanno prezzi sproporzionati rispetto ai modelli con frequenze standard. Poi sappiamo bene quando vale la pena oppure no
fraussantin
03-01-2020, 13:23
assurdo? si sa già?
a conti fatti dovranno forzatamente prezzare le 5600xt tra i 250€ e i 330€ e per una scheda che andrà simil vega56 non è affatto un cattivo prezzo, visto che nvidia a quel prezzo vende le 1660ti che vanno meno
https://www.techpowerup.com/review/zotac-geforce-gtx-1660-ti/28.html
se inveci intendi il prezzo di quel modello particolare...beh, ovvio, avrà un prezzo esagerato che la renderà invendibile
con 6 giga di ram e quel bus è la 2060 dei poveri . senza rtx e con prestazioni inferiori. a questo punto meglio una vega 1000 volte meglio una vega
ninja750
03-01-2020, 13:26
Mamma mia, un'altra astronave triventola.
si.. specialmente su quella fascia quasi inutile
anche se a dire il vero a loro costa meno fare una cosa più sottile e lunga come quella che una cosa massiccia come la 5700xt pulse
con 6 giga di ram e quel bus è la 2060 dei poveri . senza rtx e con prestazioni inferiori. a questo punto meglio una vega 1000 volte meglio una vega
esistono le 1660 per questi paragoni
una vega nuova con garanzia? ne acquisto dieci....
mikael84
03-01-2020, 14:27
Vediamo questi nei 6 engine.. :D ma questa scheda cmq non è abbastanza per la 3080Ti.
Starà a cavallo tra la 3080 e la Ti probabilmente.
Potrebbe essere un bello sgambetto ad Nvidia se la piazzano allo stesso prezzo della 3080... :oink: :oink: :oink:
Ampere è da vedere, c'è da capire se hanno risolto il problema GPC, tramite fase tock, ho hanno apportato alcune migliorie sopratutto lato RT.
Ricordo che Turing via RT è beta, gestisce il 50/30/20% di unità, tramite FP+INT32 /RT/IA (tc)
Ad RT ultra la 2080ti si allinea alla 2060/2070, per rendere l'idea.
Mi aspetto almeno un 50% medio tra fascia, ma molo bisognerà valutare via clock.
A poco mi serve vedere 2100 di core se muri a 2250.:)
Lato AMD, i 6 engine bypassano il muro dei 4096st, e lo elevano a 6144st.
Quindi considerando (in media, non in forza horizon) la 5700xt leggermente più veloce della 2070, è facile aspettarsi perfomance superiori alla Titan rtx, che a pari unità integra 4608st (+10% 2080ti) e l2-rop's identiche.
Attualmente credo che il duello sarà 3080-RDNA2 con magari un pro che digerisce meglio un'archi, rispetto ad un'altra.
AMD però ha pure un'altra arma, ovvero le HBM, con 128 (1024) bit da poter utilizzare, per aumentare drasticamente la banda.
giovanbattista
03-01-2020, 16:03
https://www.techpowerup.com/262604/xfx-leaks-upcoming-radeon-rx-5600-xt-graphics-card-too-the-thicc-ii-pro-staging
https://www.techpowerup.com/img/p4kiw7JKQUbm51wY.jpg
questa sembra + meglio:D
Ale55andr0
03-01-2020, 16:39
Lato AMD, i 6 engine bypassano il muro dei 4096st, e lo elevano a 6144st.
sarebbe anche ora, solo un paio di secoli di ritardo :stordita:
chissà cosa ci ritaglieranno per le console....
Ton90maz
03-01-2020, 18:18
Ma da dove esce sta roba? Hanno aggiunto roba inventata o sono tutti dati trafugati?
Mi sembrano strani i 6 cosi abbinati alle 40 DCU (possibile cut?). Il die è anche molto grande per avere "solo" 96 rops e 384 bit di banda. Vorrebbe dire che hanno fatto una valanga di modifiche per implementare il ray tracing o aumentare il clock.
Interessante anche la gpu da 350 mm quadrati della nuova xbox (io sapevo che sarebbe stata ancora un'apu, ma possono benissimo aver fatto trafugare indizi falsi o potrebbe essere stato un semplice errore). Avrebbe 6 MB di cache L2, come la navi padella, ma 64 ROPS. Non è una roba strana?
Ale55andr0
03-01-2020, 18:25
5120sp a 2ghz non superano i 20tf?
yes, 20.48 Tflop
Ale55andr0
03-01-2020, 18:26
Ma da dove esce sta roba? Hanno aggiunto roba inventata o sono tutti dati trafugati?
?
boh, l'ho trovato su techpowerup e l'ho postato. Ai posteri.
stesso lavoretto ma sulel gpu di play5 e series x:
https://www.techpowerup.com/gpu-specs/playstation-5-gpu.c3480
https://www.techpowerup.com/gpu-specs/xbox-series-x-gpu.c3482
la play5 fa sinceramente troppo pena per esser vera (addirittura sempre 8gb di ram...) e lo scarto prestazionale con la gpu di series x sarebbe da andarsi a nascondere...ergo anche i numeretti sulle navi desktop vanno presi cum grano salis a sto punto..oddio, andavano presi così a prescindere, visto che di ufficiale c'è nulla
https://www.techpowerup.com/gpu-specs/amd-navi-21.g923Quindi potrebbero starci anche 80 unità di calcolo RT?
Manca proprio quel dato per specularci per bene
@mikael84
Una volta che l'approccio al RT sarà anche facoltà delle schede AMD, come diavolo faranno per gli effetti?
Verranno usate le dx per il raytracing?
amon.akira
03-01-2020, 22:19
@mikael84
Una volta che l'approccio al RT sarà anche facoltà delle schede AMD, come diavolo faranno per gli effetti?
Verranno usate le dx per il raytracing?
già sono usate le dx12, api DXR
stando agli sviluppatori (DICE) ora essendoci solo nvidia hanno "ottimizzato" per lei, ma sicuramente in futuro si avrà un approccio unico.
già sono usate le dx12, api DXR
stando agli sviluppatori (DICE) ora essendoci solo nvidia hanno "ottimizzato" per lei, ma sicuramente in futuro si avrà un approccio unico.Grazie, credevo che esistesse solo una programmazione ad hoc fuori dalle dx per le rtx
posto anche qui visto si tratta della gpu integrata in Renoir(apu)
da prendere con le pinze
test gpu(apu)Renoir +65% rispetto a picasso
https://www.hardwaretimes.com/7nm-amd-ryzen-4000-renoir-apus-to-feature-up-to-65-faster-graphics/
https://gpu.userbenchmark.com/Compare/AMD-RX-Vega-10-Ryzen-iGPU-vs-AMD-Radeon-Graphics/m432559vsm1005641
https://www.userbenchmark.com/UserRun/23316225
mikael84
04-01-2020, 00:16
sarebbe anche ora, solo un paio di secoli di ritardo :stordita:
chissà cosa ci ritaglieranno per le console....
Poi vediamo, parliamo di una notizia sparata da chissà chi, e tutti seguono a ruota per fare clickbait;)
Ma da dove esce sta roba? Hanno aggiunto roba inventata o sono tutti dati trafugati?
Mi sembrano strani i 6 cosi abbinati alle 40 DCU (possibile cut?). Il die è anche molto grande per avere "solo" 96 rops e 384 bit di banda. Vorrebbe dire che hanno fatto una valanga di modifiche per implementare il ray tracing o aumentare il clock.
Interessante anche la gpu da 350 mm quadrati della nuova xbox (io sapevo che sarebbe stata ancora un'apu, ma possono benissimo aver fatto trafugare indizi falsi o potrebbe essere stato un semplice errore). Avrebbe 6 MB di cache L2, come la navi padella, ma 64 ROPS. Non è una roba strana?
Clickbait, si specula sulle news, ma non prendete nulla per vero.
Cmq, potrebbero pure presentarlo un big chip, dovrebbero competere con la 3080 almeno, che sarà sicuramente una bella bestia.
Allora riguardo le CU, bisogna valutare un rapporto, l'ideale è rasterizzare 16 pixel ogni 512st x primitiva.
Con Navi sono passati a 640st per 16 pixel x primitiva (2 di scarto per ottimizzare il culling).
I classici engine da 4096st sono un collabrodo, come lo è la 2070 e la 2080ti, per rapporti pessimi.
Un engine così dovrebbe avere 2 primitive e 32 pixel (128 rop's), ma il problema è la BW.
Lavorando con i 6 engine, il rapporto dev'essere di 4608st sino a 6144st (rapporot pessimo, solo per compute).
Quindi ci può stare che big navi possa andare su quei tot di shader.
Riguardo il bus, si può creare asincrono, quindi HBM2 con 4096 (512bit), e 6m l2, oppure utilizzare un classico 4 geo, e collegarci con 32mm2 in più un bus da 384bit, senza intaccare la l2.
Per ogni array shader, basta collegare 896st x 16 pixel, anzichè 640st x 16 pixel (navi).
Quindi potrebbero starci anche 80 unità di calcolo RT?
Manca proprio quel dato per specularci per bene
Sono solo speculazioni, copia e incolla dei siti per fare clickbait. Non c'è niente di sicuro.:)
mircocatta
04-01-2020, 08:01
beh è anche vero che gia a novembre si parlava di una possibile presentazione di rdna2 al CES di settimana prossima assieme ad una variante navi inferiore alla 5700, cioè la 5600 (e a dirlo è stato un leaker che bene o male ci ha preso su parecchie date, riportate nella news)
https://www.tomshw.it/hardware/amd-rdna2-gpu-ces-2020/
ninja750
04-01-2020, 09:25
potrebbe interessare a qualcuno: ho trovato un modo per usare i 144hz in windows senza avere il clock vram piantato a palla! fatto una mini-guida qui: https://www.hwupgrade.it/forum/showthread.php?p=46559969#post46559969
:)
Non so se era stata già postata ma ci sono le prime foto della XFX
https://www.pcgaming.tech/ecco-la-xfx-radeon-rx-5600-xt.html
dissipatore simile alla 5500xt, più graziosa della asrock:D
Sì, è già stata segnalata da giovanbattista:
https://www.techpowerup.com/262604/xfx-leaks-upcoming-radeon-rx-5600-xt-graphics-card-too-the-thicc-ii-pro-staging
Gyammy85
04-01-2020, 22:13
Certo che è strano, appena son comparsi i leak di navi 21 da 505 mm2 improvvisamente sono apparsi pure i leak farneticanti per Ampere "i maggici 7 nm veri up to 50% faster than everything at 95 watt of tdp up to 20x moar power of power ecc..., roba già vista, diciamo che ormai sono assaliti dall'ansia da prestazione, del "ehi, se non pompiamo l'hype finisce male", tipo tutte le versioni super uscite, tutto per un misero chippetto fail da 250 mm2, loro che ormai a fare mattonelle ci mettono niente, quindi se appena appena fanno una roba a 7 nm+ con rt serio da 505 mm2, e allora so mazzate…
Quindi su, un po' di ampere 10x turing e passa la paura
A quanto pare le rx5600xt hanno la stessa Bandwidth delle gtx1660Ti, 288 GB/s.
Mi aspetto prestazioni simili e probabilmente prezzi simili.
Gyammy85
04-01-2020, 22:18
A quanto pare le rx5600xt hanno la stessa Bandwidth delle gtx1660Ti, 288 GB/s.
Mi aspetto prestazioni simili e probabilmente prezzi simili.
I punteggi al timespy indicano prestazioni intorno alla vega 56
Se andranno di più costando uguale, o meglio ancora costando di meno, forse finalmente AMD avrà la possibilità di rifarsi anche nella fascia media, a tutto vantaggio di noi consumatori che vedremo finalmente i prezzi tornare a valori consoni.
Se invece AMD inseguirà Nvidia anche nel prezzo la vedo dura, soprattutto in relazione alle nuove schede di fascia medio/alta di prossima uscita sia verdi che rosse.
A quanto pare le rx5600xt hanno la stessa Bandwidth delle gtx1660Ti, 288 GB/s.
Mi aspetto prestazioni simili e probabilmente prezzi simili.
anche di piu',ha la stessa BW ma gli stessi cu/sp della 5700,cioe' 2304 contro i 1536 della 1660ti
mi aspetto prezzo simile ma prestazioni superiori,fino a vega56/2060;)
amon.akira
04-01-2020, 23:03
Certo che è strano, appena son comparsi i leak di navi 21 da 505 mm2 improvvisamente sono apparsi pure i leak farneticanti per Ampere "i maggici 7 nm veri up to 50% faster than everything at 95 watt of tdp up to 20x moar power of power ecc..., roba già vista, diciamo che ormai sono assaliti dall'ansia da prestazione, del "ehi, se non pompiamo l'hype finisce male", tipo tutte le versioni super uscite, tutto per un misero chippetto fail da 250 mm2, loro che ormai a fare mattonelle ci mettono niente, quindi se appena appena fanno una roba a 7 nm+ con rt serio da 505 mm2, e allora so mazzate…
Quindi su, un po' di ampere 10x turing e passa la paura
paura eh :sofico:
anche di piu',ha la stessa BW ma gli stessi cu/sp della 5700,cioe' 2304 contro i 1536 della 1660ti
mi aspetto prezzo simile ma prestazioni superiori,fino a vega56/2060;)
Non puoi confrontare i core cuda con gli stream processor, sono due tipi di schede completamente diverse, ma puoi fare il confronto sui core solo tra le stesse famiglie di GPU.
Cmq la 1660Ti si avvicina alla vega 56, che è inferiore alla 2060, quindi se la 5600xt non farà di meglio dovrà necessariamente costare meno.
Si sa niente della conference amd al ces?
Gyammy85
05-01-2020, 08:10
paura eh :sofico:
Si Nvidia sicuramente
mircocatta
05-01-2020, 09:18
Non puoi confrontare i core cuda con gli stream processor, sono due tipi di schede completamente diverse, ma puoi fare il confronto sui core solo tra le stesse famiglie di GPU.
Cmq la 1660Ti si avvicina alla vega 56, che è inferiore alla 2060, quindi se la 5600xt non farà di meglio dovrà necessariamente costare meno.
in linea di massima invece lo sono, rx 5700 / 2070 e 5700xt/2070S sono li a dimostrarlo (portate alla stessa frequenza di memorie e gpu praticamente vanno uguali)
la 5600xt si prospetta essere una scheda molto interessante ma amd come al solito arriva un po tardi, quando ormai le 1660ti hanno già stravenduto tra chi voleva spendere una cifra tra 250/300€...
ps: sono davvero curioso nel vedere dove arriverà in OC o se addirittura gli si potrà flashare il bios delle 5700xt
gianni1879
05-01-2020, 13:11
in linea di massima invece lo sono, rx 5700 / 2070 e 5700xt/2070S sono li a dimostrarlo (portate alla stessa frequenza di memorie e gpu praticamente vanno uguali)
la 5600xt si prospetta essere una scheda molto interessante ma amd come al solito arriva un po tardi, quando ormai le 1660ti hanno già stravenduto tra chi voleva spendere una cifra tra 250/300€...
ps: sono davvero curioso nel vedere dove arriverà in OC o se addirittura gli si potrà flashare il bios delle 5700xt
bei tempi quando si sbloccavano le pipeline..
Ale55andr0
05-01-2020, 15:55
https://pbs.twimg.com/media/ENc-GYVWoAEe4es?format=jpg&name=medium
Andy1111
05-01-2020, 16:05
https://pbs.twimg.com/media/ENc-GYVWoAEe4es?format=jpg&name=medium
bene bene prima di quello che immaginavo
Ale55andr0
05-01-2020, 16:39
oddio, io speravo entro il q1..
https://pbs.twimg.com/media/ENc-GYVWoAEe4es?format=jpg&name=mediumPer le prestazioni ci sarà da aspettare...metteranno solo una demo con RT
Roland74Fun
05-01-2020, 16:55
Per le prestazioni ci sarà da aspettare...metteranno solo una demo con RTVabbeh per quello avevamo già noir della crytek a disposizione.
AceGranger
05-01-2020, 17:18
Vabbeh pr quell avevamo già noir della crytek a disposizione.
Che non serve a nulla, visto che ancora non supporta le unita dedicate.
Faresti andare un bench su RDNA2 senza usarne le unita RT, utile....
https://pbs.twimg.com/media/ENc-GYVWoAEe4es?format=jpg&name=medium
Dalla stessa immagine si evince che la rx5600xt andrà a competere con le gtx1660super e gtx1660Ti, come immaginavo.
Roland74Fun
05-01-2020, 17:43
Che non serve a nulla, visto che ancora non supporta le unita dedicate.
Faresti andare un bench su RDNA2 senza usarne le unita RT, utile....Ma che ne so, guarda, visto come se la tirano non mi stupirei se a questo punto mostrassero una demo precalcolata e ciao con tutto il coro festante coi cappellini rossi a gridare wow ed a fare la ola. A questo punto meglio tenersi l' SSR o le sferette e chi s'e visto s'e visto.
mistri94
05-01-2020, 17:48
è questa notte alle 2 la presentazione?
fraussantin
05-01-2020, 17:50
è questa notte alle 2 la presentazione?No domani notte dopo la mezzanotte , almeno credo
PS ma quella foto da dove esce ? Sul sito del CES non la trovo.
Cmq alla fine è credibile e rispecchia i leak finora
AceGranger
05-01-2020, 18:02
Ma che ne so, guarda, visto come se la tirano non mi stupirei se a questo punto mostrassero una demo precalcolata e ciao con tutto il coro festante coi cappellini rossi a gridare wow ed a fare la ola. A questo punto meglio tenersi l' SSR o le sferette e chi s'e visto s'e visto.
Non è che se la tirano, l'architettura la mostrano quando è pronta... una volta uscita, avverrà quello che sta avvenendo ora con l'RTX, i vari game engine integreranno l'uso delle nuove unita e bona; per la fine di quest'anno si avra, credo, un supporto completo.
Quelli di Crytek invece bho, è piu affidabile un bambino di 5 anni a cui gli dici di non mangiare la torta che ha davanti e poi te ne vai dalla stanza :asd:
alemax505
05-01-2020, 21:58
https://pbs.twimg.com/media/ENc-GYVWoAEe4es?format=jpg&name=medium
non manca tanto :D
arxangel
05-01-2020, 22:08
Dovrebbe uscire insieme ad Ampere quindi, spero esca pure qualche sorellina minore e non solo il chippone da probabilmente 800-1000 euro minimo ma qualche scheda video con ray tracing max 500 euro.
Gyammy85
06-01-2020, 11:27
Dovrebbe uscire insieme ad Ampere quindi, spero esca pure qualche sorellina minore e non solo il chippone da probabilmente 800-1000 euro minimo ma qualche scheda video con ray tracing max 500 euro.
Ampere non esiste, non si sa cos'è, com'è, quando sarà e se si chiamerà così, quindi dire usciranno assieme mi sembra azzardato
Roland74Fun
06-01-2020, 11:37
Ampere non esiste, non si sa cos'è, com'è, quando sarà e se si chiamerà così, quindi dire usciranno assieme mi sembra azzardatoChe male c'è se escono assieme? Magari vanno solo al cinema od a prendersi un gelato. Non mi pare il caso di farne una tragedia.
fraussantin
06-01-2020, 11:44
Che male c'è se escono assieme? Magari vanno solo al cinema od a prendersi un gelato. Non mi pare il caso di farne una tragedia.Ci manca solo una relazione segreta tra loro e poi un matrimonio combinato .. ci salverebbe solo una rivoluzione.. :asd:
mikael84
06-01-2020, 11:53
Ampere non esiste, non si sa cos'è, com'è, quando sarà e se si chiamerà così, quindi dire usciranno assieme mi sembra azzardato
Ampere sarà presentato inizialmente in HPC al GTC del 22 marzo.;)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.