PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 [238] 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348

amon.akira
06-01-2020, 12:07
Ampere non esiste, non si sa cos'è, com'è, quando sarà e se si chiamerà così, quindi dire usciranno assieme mi sembra azzardato

#mai_una_gioia

:asd:

Andy1111
06-01-2020, 12:54
https://www.hwupgrade.it/news/skvideo/nvidia-ampere-alcune-previsioni-sulle-future-gpu-attese-per-il-2020_85488.html

per le proposte professionali della famglia Tesla e Quadro NVIDIAutilizza in genere il proprio GTC, GPU Technology Conference; l'edizione2020 si terrà a San Jose dal 22 al 26 marzo 2020. Sarà presumibilmentequella la cornice scelta per la prima introduzione ufficialedell'architettura Ampere, rivolta in quel contesto al mondo deiprofessionisti e dei data center
•a seguire, con l'approssimarsi dell'estate, NVIDIA presenterà leproposte Ampere della famiglia GeForce destinate ai videogiocatori. Ilnome dovrebbe essere quello di GeForce 3000, con le proposte top di gammache saranno le prime a venir presentate sul mercato. In questo caso leopzioni a disposizione per NVIDIA sono il Computex di Taipei ainizio giugno, l'E3 di Los Angeles un paio di settimane dopo oppureil Gamescom di Colonia alla metà del mese di agosto. Altraalternativa, per l'azienda americana, quella di annunciare le proprie nuoveschede in un contesto svincolato da altri eventi gestendone uno in proprio.

Quindi se non cambia qualcosa e i rumor sono veri uscirà prima rdna 2 e poi ampere

Peter.B
06-01-2020, 13:33
https://pbs.twimg.com/media/ENc-GYVWoAEe4es?format=jpg&name=medium

Si scontreranno contro le nuove proposte di Nvidia, sicuramente anche Ampere verrà rilasciata per maggio/giugno. Spero in un bel ritorno di AMD su fascia alta, potrei anche tornare su AMD a questo giro SOLO SE la top di gamma che si scontrerà con la 3080 va uguale a meno prezzo o poco meno sempre a meno prezzo :rolleyes:

ionet
06-01-2020, 13:35
https://pbs.twimg.com/media/ENc-GYVWoAEe4es?format=jpg&name=medium

a prima vista un riassunto plausibile ma chiaramente slide fake:D
scritto da cani proprio,a tratti spoilerizza troppo,male,errori grammaticali

Peter.B
06-01-2020, 13:40
Ampere non esiste, non si sa cos'è, com'è, quando sarà e se si chiamerà così, quindi dire usciranno assieme mi sembra azzardato

Ampere esiste ed è verso le sue fasi finali, verrà presentata a marzo nel settore pro e poi in quello gamer/consumer verso giugno con possibile rilascio sul mercato a giugno stesso o luglio.

mircocatta
06-01-2020, 15:44
ma se la conferenza è alle 14 (los angeles?) non significa ore 22 italiane?

fufino
06-01-2020, 15:46
ma se la conferenza è alle 14 (los angeles?) non significa ore 22 italiane?

Esatto
https://www.youtube.com/watch?v=zUeo7kUzn_8

fraussantin
06-01-2020, 15:47
ma se la conferenza è alle 14 (los angeles?) non significa ore 22 italiane?

ces las vegas dovrebbero essere le 23 , ma secondo me slitta a mezzanotte.

cmq penso di guardarlo.

sapete se esiste qualche modo per avere i sub anche eng?

mircocatta
06-01-2020, 15:51
ces las vegas dovrebbero essere le 23 , ma secondo me slitta a mezzanotte.

cmq penso di guardarlo.

sapete se esiste qualche modo per avere i sub anche eng?

youtube non li mette?

avoja se me lo guardo, ho già pronto un joint per l'occasione:fagiano:

fraussantin
06-01-2020, 15:57
youtube non li mette?

avoja se me lo guardo, ho già pronto un joint per l'occasione:fagiano:

se c'è su youtube allora si .


che canale?

mircocatta
06-01-2020, 15:59
se c'è su youtube allora si .


che canale?

https://www.youtube.com/user/amd/


ho visto un count down che segna 6 ore, quindi 11 di stasera

Oirasor_84
06-01-2020, 17:31
youtube non li mette?

avoja se me lo guardo, ho già pronto un joint per l'occasione:fagiano:

un joint è quello che penso io ...maria o altro?

Ale55andr0
06-01-2020, 19:12
l'apu di xbox series x

https://twitter.com/xboxptdummies/status/1214248713599754257/photo/1


dunque, base*altezza*3.14/7nm+ = un tot di tfloppies e tanti ragggi :O


qualcuno, ha sparato 380mm^2 (a sentimento credo :asd:), non sarebbe male considerando i 7 nani (onex è 360mm^2 mi pare), ma teoricamente dentro ci sta oltre la cpu il suo chiplet i/o che sulla versione desktop, anche se su pp grosso, occupa una bella fetta a se stante nel supporto...

gianni1879
06-01-2020, 20:15
la conferenza è per le 23 :00 CET
https://www.youtube.com/watch?v=zUeo7kUzn_8&feature=youtu.be

Ale55andr0
06-01-2020, 20:22
non vedo l'ora di restare deluso come ogni anno :asd:

Ale55andr0
06-01-2020, 20:38
scherzi a parte, visto che la 5700xt col chippetto da 250mm^2 va piuttosto bene (fra 2070 e 2070s) dalla architettura più evoluta rdna2 su 500mm^2 magari non tarata a cazzum (voltaggi assurdi) mi aspetto prestazioni mediamente superiori alla 2080ti. Se fosse una 16gb sulla fascia dei 6-700 sarebbe una bella schedozza. Uì uill sii :O

La delusione era più riferita al fatto che sicuramente diranno fra il poco e il nulla e che dovremo aspettare diversi mesi...

Pelvix
06-01-2020, 20:40
non vedo l'ora di restare deluso come ogni anno :asd:

Vedrai che non mancherà anche a sto giro :muro:

Raven
06-01-2020, 21:41
completamente OT, ok... ma solo per dirvi che, dopo anni, anche nvidia ha finalmente introdotto il frame cap limiter nei suoi driver... :rolleyes:
Meglio tardi che mai! :O

mircocatta
06-01-2020, 21:43
tra poco la live, qua con commento italiano
https://www.twitch.tv/everyeyeit

Oirasor_84
06-01-2020, 22:19
Comunque Lisa la vedo bella carica,o ha pippato sulla mattonella rdna2 ,oppure fra cpu nuove, console e gpu sà di passare un bel 2020.

Ton90maz
06-01-2020, 22:29
30 minuti (di nulla) sono andati. Vediamo adesso...

fraussantin
06-01-2020, 22:30
Intanto ci han detto che la 5600 costerà Troppo.
Certo che 15w per ryzen 4000 con quelle performance sembra un valore incredibile....

Che sia quello di Xbox? Mi son perso quanti core ha.

Oirasor_84
06-01-2020, 22:36
Intanto ci han detto che la 5600 costerà Troppo.


Che sia quello di Xbox? Mi son perso quanti core ha.
8,versione gaming 4800h boost a 4.2 (se non ricordo male) 45w

DuttZ
06-01-2020, 22:51
Mbè? Finito?

Ton90maz
06-01-2020, 22:51
Buonanotte ragazzi :asd:

mircocatta
06-01-2020, 22:53
che tristezza :asd:
neanche un accenno nelle slide

AceGranger
06-01-2020, 22:53
:rotfl:

Ale55andr0
06-01-2020, 22:56
cioè, peggio di quel che credevo, si sono superati :O

fraussantin
06-01-2020, 22:58
L'unico cosa veramente interessante è quella roba che usa la cpu in accoppiata ai calcoli grafici.

Anche se non ho capito dove vogliono andare a parare

amon.akira
06-01-2020, 22:59
ampere non esiste, rdna2 è sicuro...

...mi sa che esce prima ampere sul mercato :asd:

mikael84
06-01-2020, 22:59
cioè, peggio di quel che credevo, si sono superati :O

Dovevano presentare la 5600 (vega56) lato GPU, o c'era altro?

amon.akira
06-01-2020, 23:06
Dovevano presentare la 5600 (vega56) lato GPU, o c'era altro?

non so, io l ho seguita perchè si vociferava di una demo raytracing rdna2 in cui non ci sarebbero stati dati sulle performance, ma nisba ovviamente :/

mikael84
06-01-2020, 23:10
non so, io l ho seguita perchè si vociferava di una demo raytracing rdna2 in cui non ci sarebbero stati dati sulle performance, ma nisba ovviamente :/

Io sapevo solo della CPU mobile e della 5600 (vega56), per questo non l'ho neppure seguita.
Sto leggendo qualcosa ora su anandtech.:)

euscar
06-01-2020, 23:30
Dalla slide che si trova a circa 35'20'' del video su youtube, il confronto tra 5600XT e 1660Ti su 3 giochi vede la prima in vantaggio di circa il 15% sulla seconda.
Ora bisogna vedere a quanto la propongono.

mircocatta
06-01-2020, 23:31
Dalla slide che si trova a circa 35'20'' del video su youtube, il confronto tra 5600XT e 1660Ti su 3 giochi vede la prima in vantaggio di circa il 15% sulla seconda.
Ora bisogna vedere a quanto la propongono.

279$, se non sbaglio lo stesso prezzo di lancio della 1660ti un anno fa

euscar
07-01-2020, 00:01
Immagino 279$ tasse escluse, quindi verrà sui 300 euro.
A questo prezzo chi se la fila?

PS: anteprima da anandtech (https://www.anandtech.com/show/15298/amd-announces-radeon-rx-5600-series-a-lighter-navi).

mircocatta
07-01-2020, 00:17
Immagino 279$ tasse escluse, quindi verrà sui 300 euro.
A questo prezzo chi se la fila?

Anche le 5700xt erano 449$ al lancio e subito si trovavano a 450€, non vedo perché debba esser tanto diverso per le 5600xt

Hadar
07-01-2020, 00:26
non so, io l ho seguita perchè si vociferava di una demo raytracing rdna2 in cui non ci sarebbero stati dati sulle performance, ma nisba ovviamente :/Se ne parla al computex, non hanno fretta di buttare roba per competere con schede di super nicchia. Già vendono poco quelle da 300€, pensa che mercato potrà mai avere la 2080ti a 1000€ (e un'ipotetica chippone by amd).
La 5800xt mi sa che salta, si passa a nuova nomenclatura con rdna 2 dopo l'estate/fine anno

Sent from my Pixel 2 XL using Tapatalk

euscar
07-01-2020, 00:26
Anche le 5700xt erano 449$ al lancio e subito si trovavano a 450€, non vedo perché debba esser tanto diverso per le 5600xt

Speriamo bene.
Così almeno riparte quella sana concorrenza tra AMD e Nvidia che giova tanto a noi consumatori.

amon.akira
07-01-2020, 00:40
Se ne parla al computex, non hanno fretta di buttare roba per competere con schede di super nicchia. Già vendono poco quelle da 300€, pensa che mercato potrà mai avere la 2080ti a 1000€ (e un'ipotetica chippone by amd).
La 5800xt mi sa che salta, si passa a nuova nomenclatura con rdna 2 dopo l'estate/fine anno

Sent from my Pixel 2 XL using Tapatalk

eh computex taipei, giugno...esce veramente prima ampere mi sa :doh:

si be che si va di rdna2 si sa, le console l avranno ed escono a novembre 2020, però giustamente con la 5600 in giro non era conveniente darsi la zappa sui piedi, anche quei notebook "gaming" nella seconda metà del 2020 con la 5600 a partire da 800$ non li vedo benissimo, sapendo che 2mesi dopo anche le scatolette avranno una gpu piu aggiornata a un prezzo inferiore.

fraussantin
07-01-2020, 06:28
Presentare rdna2 insieme alle 5600xt sarebbe stato un suicidio per la 5600xt, inoltre credo che Microsoft e Sony abbiano chiesto di uscire prima loro per generare più "wow" di quanto genererebbero se presentassero dopo le console con il chip cut della versione pc dopo che questa venga sdoganata al pubblico.

Cmq che dilusione AMD, vuoi che muoro? una concorrente della 1660ti che mancava (a parole a tutti, nei fatti sembra un po meno) e che costa troppo quanto la 1660ti che costa il giusto e va meno, una CPU mobile da 8 core e 16 thread che va forte, con GPU seria e consuma un caxxo ma siamo annebbiati dalla 2080maxInQ che va più della series x (auto certificato da huang in persona), una CPU da 64 core che va di più di una piattaforma rivale che costa 5 volte... Tutto dopo che avevano annunciato che presentavano big navi, ps5 e series x in modalità gang bang e niente.... meno male che lato nVidia è andata decisamente meglio, nuovissimi e fiammanti (speriamo di no!) driver che introducono "anticipatamente" il supporto RT al (qua)tripla a wolfenstein yb e nientepopodimeno che il gsync a 360hz che ormai è una tecnologia a reti neurali che prevede il prossimo frame.Beh l'anno passato la 1660ti faceva ridere perchè con i soliti soldi si comprava Vega in Tanzania e aveva più RAM e hbm , oggi lo possiamo dire di questa.

5500 e 5600 non hanno senso a questi prezzi , caleranno , lo sappiamo tutti , ma per quale motivo mi lanci dei prodotti a prezzi assurdi per poi calarli subito ? Boh scelte di mercato che non condivido. La 5600 andava fatta ok ma non puoi metterla da sola sul vassoio da portata . Da l'impressione che non gli frega niente di fare GPU dedicate . Ed invece sappiamo che ha in cantiere GPU potenti con raytracing.

Cmq l'unica news interessante di tutto l'ambaradan è Sony che conferma raytracing entro il prossimo Natale.

fraussantin
07-01-2020, 06:52
ci avevo quasi creduto poi ho pensato alle vendite di 1660ti e Vega ed ho pensato "oh wait"Se non caleranno a 250euro secondo me non vendono neppure queste.
Ho paura per i prezzi delle rdna2 sinceramente .

Non si sono vergognati a prezzare 4k ( 5000 euro da noi spicci più o meno ) il 3990x , sì vero che ha le prestazioni , vero che visto in una certo ottica fa risparmiare anche , ma non c'è valore di silicio per uscire un prezzo del genere

fraussantin
07-01-2020, 07:09
Ma sei serio quando parli di vergogna sul prezzo del 64 core che asfalta 20mila euro di piatta Intel? Lo avesse fatto Intel avremmo già il braccio enorme e 4 diottrie di meno... AMD al solito deve regalareSì sono serio . Non c'è valore di produzione . Sono 8 blocchetti di silicio venduti da 300 a 400 euro l'uno , montati insieme e venduti a quasi a 5000 euro con iva e resto. Questi tr sono tutti troppo cari imho .
E si se lo possono permettere vista la concorrenza.

Fosse stato un chip monolitico avremmo potuto parlarne , scarti costi ecc..

Ma fanno bene cmq come per il 3900 a 600 euro li han venduti , ora in offerta a 470, il suo prezzo poi mica un regalo , chi l'ha preso sta a brontolare ..

mircocatta
07-01-2020, 07:53
eh computex taipei, giugno...esce veramente prima ampere mi sa :doh:

si be che si va di rdna2 si sa, le console l avranno ed escono a novembre 2020, però giustamente con la 5600 in giro non era conveniente darsi la zappa sui piedi, anche quei notebook "gaming" nella seconda metà del 2020 con la 5600 a partire da 800$ non li vedo benissimo, sapendo che 2mesi dopo anche le scatolette avranno una gpu piu aggiornata a un prezzo inferiore.

credi a me, quei notebook con 5600m sono delle BOMBE a 799$
te lo dico perchè ho passato almeno gli ultimi due anni a cercare un notebook sotto i 700€ e meglio di un i5+1650 non sono riuscito a trovare nulla, solitamente questa fascia di prezzo è occupata da laptop con nvidia mx130-150-vega8
Beh l'anno passato la 1660ti faceva ridere perchè con i soliti soldi si comprava Vega in Tanzania e aveva più RAM e hbm , oggi lo possiamo dire di questa.



farà anche ridere ma ha venduto un botto, ma mi ripeto: amd qui esce davvero troppo tardi, chi voleva cambiare spendendo massimo 250-300€ l'ha già fatto da tempo, tra 1660ti/2060/5700

due cose che mi stonano della conferenza:
1. hanno lasciato perdere dichiaratamente la fascia 4k, visto che manco l'hanno menzionata
2. hanno menzionato ps5 e la nuova xbox, che usciranno a fine anno...dovremo aspettarci una rdna2 dopo le console? troppo, troooooppo tempo, non farà in tempo a rispondere alla 2080ti che già dovrà trovarsi in un mercato con le ampere?

Gyammy85
07-01-2020, 07:59
Solita storia, tutto troppo caro (specie il 3990x da addirittura 4000 euro che va il 30% in più del doppio intel da soli 20000) e tutto troppo inutile (la 5600xt inutile perché c'è già la 1660ti che va meno) e i notebook inutili (ma se io voglio fotografare mi compro una reflex ubermegaipercit.), niente niente anche oggi fallisce domani?

Gyammy85
07-01-2020, 08:05
credi a me, quei notebook con 5600m sono delle BOMBE a 799$
te lo dico perchè ho passato almeno gli ultimi due anni a cercare un notebook sotto i 700€ e meglio di un i5+1650 non sono riuscito a trovare nulla, solitamente questa fascia di prezzo è occupata da laptop con nvidia mx130-150-vega8


farà anche ridere ma ha venduto un botto, ma mi ripeto: amd qui esce davvero troppo tardi, chi voleva cambiare spendendo massimo 250-300€ l'ha già fatto da tempo, tra 1660ti/2060/5700

due cose che mi stonano della conferenza:
1. hanno lasciato perdere dichiaratamente la fascia 4k, visto che manco l'hanno menzionata
2. hanno menzionato ps5 e la nuova xbox, che usciranno a fine anno...dovremo aspettarci una rdna2 dopo le console? troppo, troooooppo tempo

E' molto semplice, chi non si informa prende nvidia per sentito dire (ma a 300 euro la gente un minimo si informa, a meno di bminkia conclamati), chi si informa sa che che la 5600xt va di più e si porta dietro un supporto migliore a fs e driver molto più avanzati
Hanno cambiato strategia, hanno una roadmap e la rispettano in toto, e si riservano per eventi ad hoc la roba più cicciosa, tanto tutti sanno che ora esce la roba nuova a 7 nm+

mircocatta
07-01-2020, 08:07
qualcuno mi spiega poi le 3 suddivisioni del marchio freesync?
perchè a conti fatti, le caratteristiche della versione premium sono le stesse che già ho sul mio freesync 2

giovanbattista
07-01-2020, 08:09
Sì sono serio . Non c'è valore di produzione . Sono 8 blocchetti di silicio venduti da 300 a 400 euro l'uno , montati insieme e venduti a quasi a 5000 euro con iva e resto. Questi tr sono tutti troppo cari

the 3990X only costs $3,990:eek: ;)mentre il monolite di 2014+++++++++++++++++odissea delle cazzate spaziali a 20.000 essendo una architettura sopraffina è regalato, peccato venga doppiato sulle lunghe distanze, mentre sullo 0 a 100 si prende solo il 30%

e pure io sono serio

fraussantin
07-01-2020, 08:17
the 3990X "only" costs $3,990:eek: ;)mentre il monolite di 2014+++++++++++++++++odissea delle cazzate spaziali a 20.000 essendo una architettura sopraffina è regalato, peccato venga doppiato sulle lunghe distanze, mentre sullo 0 a 100 si prende solo il 30%Non ho detto che non conviene , anzi ho specificato il contrario , ho solo detto che lo vendono "bene" se prendi 8 3800x , già cari di suo ( perchè non è che li regalano )vedi come ci marciano su.

Cmq tutti felici è...

giovanbattista
07-01-2020, 08:22
Non ho detto che non conviene , anzi ho specificato il contrario , ho solo detto che lo vendono "bene" se prendi 8 3800x , già cari di suo ( perchè non è che li regalano )vedi come ci marciano su.

Cmq tutti felici è...

ma è chiaro che se lo trovassi nelle patatine sarei + contento ma devi ragionare

Ho bisogno di x potenza vediamo che opzioni ho?

Uno piataforma intel mettiamo 25000€ (e sono stato onesto o al ribasso che è + facile)

Piattaforma amd mettiamo 12500 (non ho controllato x entrambe i prezzi ma a spanne ci siamo)

Cosa prendo? ma sopratutto cosa prendersti?

Fatti 2 conti ad assemblare 8 pc completi di licenza e licenze x i software che usi, spazio occupato possibili guasti che aumentano esponenzialmente e consumo (di positivo puoi continuare anche se una macchina si ferma) xche se ti piace vincere facile tenendo conto solo del prezzo cpu....ma che te lo dico a fare?


parliao di + del 50% di differenza a favore di amd mettendo le prestazioni in pari che sappiano non esserlo ma facciamo finta

nb piatta amd 4000€ cpu e ho messo a spanne il resto

piatta intel solo 5000 esclusa la cpu oggi sono strabuono

AceGranger
07-01-2020, 08:25
E' molto semplice, chi non si informa prende nvidia per sentito dire (ma a 300 euro la gente un minimo si informa, a meno di bminkia conclamati), chi si informa sa che che la 5600xt va di più e si porta dietro un supporto migliore a fs e driver molto più avanzati
Hanno cambiato strategia, hanno una roadmap e la rispettano in toto, e si riservano per eventi ad hoc la roba più cicciosa, tanto tutti sanno che ora esce la roba nuova a 7 nm+

seeeeeee ceeeeeerto, come no.

giovanbattista
07-01-2020, 08:40
Non ho detto che non conviene , anzi ho specificato il contrario , ho solo detto che lo vendono "bene" se prendi 8 3800x , già cari di suo ( perchè non è che li regalano )vedi come ci marciano su.

Cmq tutti felici è...

spetta che non ho finito quindi amd sovraprezza mentre intel è da denuncia x circonvenzione d'incapace, xchè solo quello può essere uno solo se seglie quella strada escludendo il fanboysmo religioso totalitario in cui al confronto i talebani sono di ampie veduti liberali riformisti e atei;)

quindi concludendo fraussantin ( in amicizia e senza nessun odio altrimenti sarei stupido al 100%) anche perchè mi pare di ricordare (ma posso fare pure confusione prendila con le pize questa affermazione) che eri uno del th del 690CM......quanto tempo


guardi la pagliuzza ma non vedi la trave

Windtears
07-01-2020, 08:45
qualcuno mi spiega poi le 3 suddivisioni del marchio freesync?
perchè a conti fatti, le caratteristiche della versione premium sono le stesse che già ho sul mio freesync 2

servono a rinominare (e si spera fare selezione in base alle specifiche) meglio i monitor in arrivo e per cercare di frenare l'avanzata delle pecette gsync compatibile che sta mettendo nvidia sui monitor freesync, ricaricando i costi sull'utente finale.

ci sta una ignoranza abissale, ieri spiegavo alla reda di everyeye in diretta sul loro canale mentre commentavano il ces che non è nvidia a rendere i monitor compatibili per le schede amd, ma che lo standard è adaptive sync e non gsync e nvidia sta correndo ai ripari supportandolo proprio perché i monitor in uscita ormai sono tutti as.
Poi che ci siano monitor di qualità oscena che non metirebbero nemmeno di essere nominati fs è lampante e questo piano di specifiche forse è più chiaro e stringente del solo fs2 di una volta. ;)

AceGranger
07-01-2020, 09:04
Se non caleranno a 250euro secondo me non vendono neppure queste.
Ho paura per i prezzi delle rdna2 sinceramente .

Non si sono vergognati a prezzare 4k ( 5000 euro da noi spicci più o meno ) il 3990x , sì vero che ha le prestazioni , vero che visto in una certo ottica fa risparmiare anche , ma non c'è valore di silicio per uscire un prezzo del genere

al massimo quello sovraprezzato è il 24 core che, visto anche il costo della MB, non credo convenga molto.


questo 64 core ha un prezzo ottimo.

Gyammy85
07-01-2020, 09:10
qualcuno mi spiega poi le 3 suddivisioni del marchio freesync?
perchè a conti fatti, le caratteristiche della versione premium sono le stesse che già ho sul mio freesync 2

Si, puro marketing, sono passati da due fasce a tre

Andy1111
07-01-2020, 09:14
Si, puro marketing, sono passati da due fasce a tre

non l'ho capita manco io sta cosa cmq :

https://community.amd.com/community/gaming/blog/2020/01/06/introducing-amd-freesync-premium-and-amd-freesync-premium-pro

ninja750
07-01-2020, 10:11
nientepopodimeno che il gsync a 360hz che ormai è una tecnologia a reti neurali che prevede il prossimo frame.

questo è ridicolo.. la 2080ti non fa nemmeno 144fps in tantissimi giochi a che servono 360hz??

euscar
07-01-2020, 10:15
qualcuno mi spiega poi le 3 suddivisioni del marchio freesync?
perchè a conti fatti, le caratteristiche della versione premium sono le stesse che già ho sul mio freesync 2

Suddivisione in 3 tipologie:

- FreeSync

Tear free
Low flicker
Low latency

- FreeSync Premium (NEW)

At least 120 Hz at min FHD resolution
Low framerate compensation
Tear free
Low flicker
Low latency

- FreeSync Premium Pro (Previously known as FreeSync 2 HDR)

HDR capabilities and game support
At least 120 Hz at min FHD resolution
Low framerate compensation
Tear free
Low flicker
Low latency in SDR and HDR

caccapupu91
07-01-2020, 10:30
questo è ridicolo.. la 2080ti non fa nemmeno 144fps in tantissimi giochi a che servono 360hz??

Gni, conta che negli eSport non maxi i setting grafici. Quasi sempre abbassi tutto "low" per vedere prima il bersaglio, v-sync off in cui più frame hai meno input lag hai. Avere un refresh così alto aiuta a vedere per quanto fast sia più dettagli ai tuoi occhi, si traduce in molte più informazioni al cervello e ai livelli pro può tornare utile

fraussantin
07-01-2020, 10:42
questo è ridicolo.. la 2080ti non fa nemmeno 144fps in tantissimi giochi a che servono 360hz??Sul fatto che non serve a nulla ok , ma ci sono svitati che giocano con la 2080ti in 1080p a grafica minima per i lag..

Thricome82
07-01-2020, 10:52
Sul fatto che non serve a nulla ok , ma ci sono svitati che giocano con la 2080ti in 1080p a grafica minima per i lag..

In ambito competitivo è perfettamente normale, altro che svitati...

fraussantin
07-01-2020, 11:21
In ambito competitivo è perfettamente normale, altro che svitati...È perfettamente normale giocare al minimo in 1080p , ma con una 2080ti 360 fps mi sembra una follia .. poi avranno le loro ragioni a me ignote , ma una 2060 avanzerebbe imho.

ninja750
07-01-2020, 11:32
ho guardato comparative online e già tra 144 e 240 un umano fatica a vedere differenze, ci riescono solo in superslowmo con fotocamere professionali

figuriamoci 360

majinbu7
07-01-2020, 11:40
Se ne parla al computex, non hanno fretta di buttare roba per competere con schede di super nicchia. Già vendono poco quelle da 300€, pensa che mercato potrà mai avere la 2080ti a 1000€ (e un'ipotetica chippone by amd).
La 5800xt mi sa che salta, si passa a nuova nomenclatura con rdna 2 dopo l'estate/fine anno

Sent from my Pixel 2 XL using Tapatalk

All'uscita del 5800xt ci credevano in pochi e a darla per certa era il solito profeta che inizia on la G e finisce con il 5 :asd:

Ale55andr0
07-01-2020, 12:19
Dovevano presentare la 5600 (vega56) lato GPU, o c'era altro?

si vociferava del chippone rdna2 quantomeno accennato e di una demo rt senza dati sulle prestazioni, ma insomma qualcosa di concreto, invece nulla..zero, nada.

Ale55andr0
07-01-2020, 12:27
All'uscita del 5800xt ci credevano in pochi e a darla per certa era il solito profeta che inizia on la G e finisce con il 5 :asd:

poi però fa scena muta sulle sue previsioni e dice che seguono la roadmap eh :O

Peter.B
07-01-2020, 13:45
questo è ridicolo.. la 2080ti non fa nemmeno 144fps in tantissimi giochi a che servono 360hz??

Refresh sopra i 165 sono assolutamente inutili, un po' come commercializzare l'8K :asd:

ninja750
07-01-2020, 13:50
https://i.postimg.cc/W4zd57Yz/7jw510ynk8941.jpg

mikael84
07-01-2020, 14:08
si vociferava del chippone rdna2 quantomeno accennato e di una demo rt senza dati sulle prestazioni, ma insomma qualcosa di concreto, invece nulla..zero, nada.

Credo che come Ampere gaming (quadro) la presentazione rdna 2 la vedremmo al computex a giugno.
Sinceramente mi sarebbe piaciuto vedere almeno l'architettura o le varie modifiche di rdna2 relative al RT.

The_SaN
07-01-2020, 14:30
ho guardato comparative online e già tra 144 e 240 un umano fatica a vedere differenze, ci riescono solo in superslowmo con fotocamere professionali

figuriamoci 360

Oltre i 144Hz non ti accorgi della fluidità delle immagini, ma riduci l'input lag.

Raven
07-01-2020, 14:53
https://i.postimg.cc/W4zd57Yz/7jw510ynk8941.jpg

All'inizio avevo letto smartshit... :fagiano:

Gyammy85
07-01-2020, 17:23
All'uscita del 5800xt ci credevano in pochi e a darla per certa era il solito profeta che inizia on la G e finisce con il 5 :asd:

poi però fa scena muta sulle sue previsioni e dice che seguono la roadmap eh :O

Certo, meglio fare le previsioni a ritroso col senno di poi dicendo "eh ma io lo avevo detto" :asd:

Ci credevano in pochi dopo, ma prima era plausibile, poi i tempi si dilatano e uno capisce che intendono passare direttamente a rdna2, di vederla al ces era una speranza, ma hanno preferito dare la recedenza ai prodotti in uscita a breve...poi uno può sempre aspettare le uscite ufficiali ma allora non esisterebbero i thread aspettando

Ale55andr0
07-01-2020, 17:53
https://i.imgur.com/JENujpg.jpg

Gyammy85
07-01-2020, 18:12
https://i.imgur.com/JENujpg.jpg

Avevo letto, per me se ne parla a metà anno per zen 3 e rdna 2, l'anno scorso le fecero la stessa domanda su navi e rispose allo stesso modo, "avrete altri dettagli nel corso dell'anno"

mircocatta
07-01-2020, 19:01
poi però fa scena muta sulle sue previsioni e dice che seguono la roadmap eh :O

aggiungiamo però che siamo in un forum dove ci sono utenti che sarebbero capaci di venire qua a dire "amd è in tirardo perchè gyammy85 aveva detto che..."


e non sto scherzando, è già successo

Pelvix
07-01-2020, 19:09
Eccolo ciclico ad ogni lancio AMD... Stavamo in ansia :O

No, tranquillo, non me la perderei per nulla al mondo l'ennesima nuovissima GPU vintage:doh:

Pelvix
07-01-2020, 19:17
aggiungiamo però che siamo in un forum dove ci sono utenti che sarebbero capaci di venire qua a dire "amd è in tirardo perchè gyammy85 aveva detto che..."


e non sto scherzando, è già successo

Ma perchè, le roadmap AMD non le fa lui?!?! :eek: :eek: :eek:

ninja750
07-01-2020, 19:40
quindi big navi confermata

Ale55andr0
07-01-2020, 19:49
quindi big navi confermata

beh, non è che ci fossero dubbi che dovesse arrivare, prima o poi, il "problema" era/è il quanto "poi" medesimo...

Gyammy85
07-01-2020, 21:36
beh, non è che ci fossero dubbi che dovesse arrivare, prima o poi, il "problema" era/è il quanto "poi" medesimo...

Io direi sempre q3, sempre che non vogliano svelare prima l'architettura, poi ci sarebbero pure le mi100/mi200 per il mercato hpc, vega evolved con b-float

Free Gordon
08-01-2020, 00:23
A quanto pare per Settembre/Ottobre escono anche i Ryzen R3/5/7 serie 4000 a 7nm+...

Sembra AMD abbia una roadmap quinquennale sui Ryzen veramente ben fatta!!! :eek:

Gundam1973
08-01-2020, 00:48
A quanto pare per Settembre/Ottobre escono anche i Ryzen R3/5/7 serie 4000 a 7nm+...

Sembra AMD abbia una roadmap quinquennale sui Ryzen veramente ben fatta!!! :eek:

Bene cosi a novembre mi accatto un 3900x in saldo e chiudo il capitolo Cpu per i prossimi 5 anni! ;-)

fraussantin
08-01-2020, 06:50
Gordon Ung, PC World: Do you think that AMD has to have a high-end competitor in the discrete graphics market?

LS: [laughs] I know those on Reddit want a high end Navi!*You should expect that we will have a high-end Navi, and that it is important to have it. The discrete graphics market, especially at the high end, is very important to us. So you should expect that we will have a high-end Navi, although I don’t usually comment on unannounced products.

https://videocardz.com/newz/amds-lisa-su-we-will-have-a-high-end-navi


Io mi son perso per strada : ma il nome "stellato" di rdna2 sarà sempre navi?

majinbu7
08-01-2020, 08:53
aggiungiamo però che siamo in un forum dove ci sono utenti che sarebbero capaci di venire qua a dire "amd è in tirardo perchè gyammy85 aveva detto che..."


e non sto scherzando, è già successo

Aggiungiamo che le previsioni su notizie siamo tutti liberi di farle ecc... darle per certo perchè ti credi un'insider o vuoi farti credere tale per poi fare immancabilmente la pipì fuori dal vasetto forse è un pò troppo ;)

ninja750
08-01-2020, 11:45
5600xt presentate ad oggi: https://videocardz.com/84144/amd-radeon-rx-5600-xt-custom-graphics-cards-roundup

https://cdn.videocardz.com/1/2020/01/AMD-Radeon-RX-5600-XT-Custom-designs-1000x337.jpg

mikael84
08-01-2020, 14:39
Io direi sempre q3, sempre che non vogliano svelare prima l'architettura, poi ci sarebbero pure le mi100/mi200 per il mercato hpc, vega evolved con b-float

Queste mi100 che sbandieri sempre, sono speculazioni o qualcosa di sicuro?
Parliamo di 6144st a 2050 di clock.
Quindi un chip apposito HPC. Chip poco sensato, considerando che le FP64 le emula.

Ale55andr0
08-01-2020, 16:00
Queste mi100 che sbandieri sempre, sono speculazioni o qualcosa di sicuro?


più che altro, a noi che ce ne impippa?

mikael84
08-01-2020, 16:12
più che altro, a noi che ce ne impippa?

Come che ce ne impippa.
Si tratta di un nuovo (ipotetico) chip sbandierato di continuo, capace di 6144st a 2050mhz.
Dalla mi50 è nata la VII per dire.;)

mircocatta
08-01-2020, 17:57
Come che ce ne impippa.
Si tratta di un nuovo (ipotetico) chip sbandierato di continuo, capace di 6144st a 2050mhz.
Dalla mi50 è nata la VII per dire.;)

un chip da 25tf? non ci crederei neanche se lo vedessi :eek:

Gyammy85
08-01-2020, 18:27
Queste mi100 che sbandieri sempre, sono speculazioni o qualcosa di sicuro?
Parliamo di 6144st a 2050 di clock.
Quindi un chip apposito HPC. Chip poco sensato, considerando che le FP64 le emula.

Ci sono le stringhe driver che indicano questa variante, sembra supporti le istruzioni b-float e abbia 128 cu e 8 geo, solo hpc...anzi è apparsa pure la mi200, dual GPU, immagino tutte a 7 nm+...dovrebbero andare a finire nel super computer frontier

più che altro, a noi che ce ne impippa?

Dovrebbe uscire assieme a epyc milan

Come che ce ne impippa.
Si tratta di un nuovo (ipotetico) chip sbandierato di continuo, capace di 6144st a 2050mhz.
Dalla mi50 è nata la VII per dire.;)

No, gaming solo rdna da ora in poi

un chip da 25tf? non ci crederei neanche se lo vedessi :eek:

A 7 nm+ si può, naturale evoluzione

The_SaN
08-01-2020, 18:28
Ma questa fantomatica mi100 su che architettura sarebbe basata?

Gyammy85
08-01-2020, 18:30
Ma questa fantomatica mi100 su che architettura sarebbe basata?

Vega migliorata

Alekos Panagulis
08-01-2020, 19:35
Consiglio la visione di questo video: https://youtu.be/pboDbxogSw4

Inviato dal mio Mi 9T utilizzando Tapatalk

mircocatta
08-01-2020, 20:16
Consiglio la visione di questo video: https://youtu.be/pboDbxogSw4

Inviato dal mio Mi 9T utilizzando Tapatalk

consiglio di vederlo al rallentatore (0,5x), non serve a niente ma almeno fa ridere :asd:

Gyammy85
08-01-2020, 21:59
https://i.postimg.cc/WpMyjQNM/5600-5600xt.jpg (https://postimg.cc/5j2gSKF0)


https://i.postimg.cc/jSG6DSvC/5600m-5700m.jpg (https://postimg.cc/zyFHM5s1)

Ale55andr0
08-01-2020, 22:08
Come che ce ne impippa.
Si tratta di un nuovo (ipotetico) chip sbandierato di continuo, capace di 6144st a 2050mhz.
Dalla mi50 è nata la VII per dire.;)

si, ma è un prodotto pro che più pro non si può, inoltre la 7 è uscita come roba rattoppata alla meglio per coprire un buco in gamma alta nel consumer, in modo nemmeno convincente, non credo accadrà di nuovo, o meglio sperò proprio che avremo un prodotto gaming dedicato, non un contentino

mikael84
08-01-2020, 22:59
si, ma è un prodotto pro che più pro non si può, inoltre la 7 è uscita come roba rattoppata alla meglio per coprire un buco in gamma alta nel consumer, in modo nemmeno convincente, non credo accadrà di nuovo, o meglio sperò proprio che avremo un prodotto gaming dedicato, non un contentino

Ho capito, ma parliamo sempre di un nuovo (ipotetico) chip grafico, quindi se menzionato va discusso.;)
Non per forza deve rientrare nel gaming.

Ci sono le stringhe driver che indicano questa variante, sembra supporti le istruzioni b-float e abbia 128 cu e 8 geo, solo hpc...anzi è apparsa pure la mi200, dual GPU, immagino tutte a 7 nm+...dovrebbero andare a finire nel super computer frontier



Speculazioni ;)
Anche Ampere viene data per 8000kcc e bus da 6144bit, la realtà sarà diversa.

Alekos Panagulis
09-01-2020, 10:01
consiglio di vederlo al rallentatore (0,5x), non serve a niente ma almeno fa ridere :asd:Non ho capito la battuta.

Inviato dal mio Mi 9T utilizzando Tapatalk

Gyammy85
09-01-2020, 10:10
Speculazioni ;)
Anche Ampere viene data per 8000kcc e bus da 6144bit, la realtà sarà diversa.

Insomma, se ne parla da diversi mesi, c'era un tweet che indicava 128 cu e 8 shader engine per Arcturus che sarebbe il nome in codice della mi100 (gfx908 a quanto pare, che indica una evoluzione dell'arch vega)
La cosa certa è che non verrà mai utilizzata in fascia gaming

Peter.B
09-01-2020, 15:28
Insomma le nuove GPU di fascia alta, AMD le tirerà fuori non prima di autunno 2020? Vorranno venderle in un periodo vicino all'uscita dei Ryzen 4000 immagino. Chiaro che uscirà prima Ampere.

Gyammy85
09-01-2020, 15:39
Insomma le nuove GPU di fascia alta, AMD le tirerà fuori non prima di autunno 2020? Vorranno venderle in un periodo vicino all'uscita dei Ryzen 4000 immagino. Chiaro che uscirà prima Ampere.

Io dico q3 come navi 10
PS ma perché la roba AMD deve uscire sempre in autunno? :D :D

nicolarush
09-01-2020, 15:43
Io dico q3 come navi 10
PS ma perché la roba AMD deve uscire sempre in autunno? :D :D

a proposito, ora che è uscita la 5600xt non c'è la possibilità di unire le discussioni 5500 e 5700 (aggiungendo la 5600)?

ninja750
09-01-2020, 15:44
l'nda per la 5600xt?

Peter.B
09-01-2020, 15:44
Io dico q3 come navi 10
PS ma perché la roba AMD deve uscire sempre in autunno? :D :D

Mah che dire, speriamo di vederle prima eh, non mi dispiacerebbe tornare su AMD se il prodotto è bello cazzuto.

Gyammy85
09-01-2020, 15:52
a proposito, ora che è uscita la 5600xt non c'è la possibilità di unire le discussioni 5500 e 5700 (aggiungendo la 5600)?

La 5500 ha navi 14 quindi è un chip a parte, 5600 e 5700 invece si possono unire perché sono entrambe navi 10 a quanto pare

l'nda per la 5600xt?

21 gennaio

mikael84
09-01-2020, 15:59
Insomma, se ne parla da diversi mesi, c'era un tweet che indicava 128 cu e 8 shader engine per Arcturus che sarebbe il nome in codice della mi100 (gfx908 a quanto pare, che indica una evoluzione dell'arch vega)
La cosa certa è che non verrà mai utilizzata in fascia gaming

Molto probabilmente è una mi50 dual;)
100/8
200/4

ninja750
09-01-2020, 16:26
boom! :D +17% a pari risoluzione :ciapet:

https://i.imgur.com/AdlnLJp.png

FroZen
09-01-2020, 16:31
boom! :D +17% a pari risoluzione :ciapet:

https://i.imgur.com/AdlnLJp.png

bel sistemino che ti sei fatto

ma non ho capito cosa abbia dato l'incremento :stordita:

Gyammy85
09-01-2020, 16:36
boom! :D +17% a pari risoluzione :ciapet:

https://i.imgur.com/AdlnLJp.png

Cosa sarebbe?

grey.fox
09-01-2020, 16:37
Un Benchmark con hardware sperimentale non ancora riconosciuto?

ninja750
09-01-2020, 17:36
che ne so, trovato su reddit

un benchmark online con una fantomatica amd engeneering sample che va più della 2080ti :O :D

Gyammy85
09-01-2020, 17:43
che ne so, trovato su reddit

un benchmark online con una fantomatica amd engeneering sample che va più della 2080ti :O :D

Uuuuuuuuhhhhhh...
Sarebbe un jebait di proporzioni enormi

grey.fox
09-01-2020, 18:12
che ne so.......

:D :D :D Viva la schiettezza!!

Ale55andr0
09-01-2020, 18:24
Cosa sarebbe?

https://videocardz.com/newz/mysterious-amd-radeon-gpu-appears-in-openvr-benchmark-leaderboard

Ale55andr0
09-01-2020, 20:01
fermacarte, fermacarte per tutti, fermacarte everywhere :asd:

https://twitter.com/VideoCardz/status/1215351965288407047

StylezZz`
09-01-2020, 20:19
fermacarte, fermacarte per tutti, fermacarte everywhere :asd:

https://twitter.com/VideoCardz/status/1215351965288407047

:doh:

fraussantin
09-01-2020, 20:22
https://www.tomshw.it/hardware/intel-dg1-prototipo-ces-2020/

Schedina che fa quasi tenerezza...

Windtears
09-01-2020, 20:51
https://www.tomshw.it/hardware/intel-dg1-prototipo-ces-2020/

Schedina che fa quasi tenerezza...

con la "forza" che hanno (occulta o meno come ai tempi dello scandalo mediamarket), scommetete che riuscirà a infilarla in tutti i portatili in vendita e non si vedranno più nvidia e amd? :P

mikael84
09-01-2020, 23:02
che ne so, trovato su reddit

un benchmark online con una fantomatica amd engeneering sample che va più della 2080ti :O :D

Big navi può, e deve superare agevolmente la 2080ti, considerando che è pure uno scarto del tu102.;)
La sfida sarà rdna2/3080

Ampere hanno già detto che va +50% consumando la metà quindi con +17% è un fermacarte che va più o meno uguale ad una 2080maxq o alla prossima 3050ti 2gb! :O

Ampere può andare facilmente il +50% per fascia, ma anche di più volendo.
Tutto il resto, sui consumi, tutte fesserie.

NAP.
10-01-2020, 04:00
Farto sta che a prescindere dai consumi, se ampere da il 50% a Turing per fascia, con il 17% questa scheda sconosciuta è un fermacarte, più interessante sarebbe se fosse la 6700xt

ninja750
10-01-2020, 07:47
Farto sta che a prescindere dai consumi, se ampere da il 50% a Turing per fascia, con il 17% questa scheda sconosciuta è un fermacarte, più interessante sarebbe se fosse la 6700xt

magari è quella di fascia 200$ :O

Ampere hanno già detto che va +50% consumando la metà quindi con +17% è un fermacarte che va più o meno uguale ad una 2080maxq o alla prossima 3050ti 2gb! :O

stessi proclami che si rumoreggiavano mesi prima dell'uscita di turing

Thricome82
10-01-2020, 08:21
che ne so, trovato su reddit

un benchmark online con una fantomatica amd engeneering sample che va più della 2080ti :O :D

Leggere bene i leak per favore...
La CPU è un ES AMD (presumibilmente una APU) "AMD Eng Sample: 100-000000098-40_39/27_Y (16 CPUs), ~2.8GHz"
Mentre la GPU in realtà è una Nvidia sperimentale "Card name: NVIDIA Graphics Device - Key: Enum\PCI\VEN_10DE&DEV_1F12&SUBSYS_1F111043&REV_A1"
Infatti è un PCI ID Nvidia non ancora noto (10DE:1F12)
leggete bene il log qui sotto (basta scorrere e troverete la GPU Nvidia):
------------------
System Information
------------------
Operating System: Windows 10 Pro 64-bit (10.0, Build 18363) (18362.19h1_release.190318-1202)
Language: English (Regional Setting: English)
System Manufacturer: ASUSTeK COMPUTER INC.
System Model: Zephyrus G GA401IV_GA401IV
BIOS: GA401IV.100.T50 (type: UEFI)
Processor: AMD Eng Sample: 100-000000098-40_39/27_Y (16 CPUs), ~2.8GHz
Memory: 16384MB RAM
Available OS Memory: 15790MB RAM
Page File: 4078MB used, 14142MB available
Windows Dir: C:\Windows
DirectX Version: DirectX 12
DX Setup Parameters: Not found
User DPI Setting: 144 DPI (150 percent)
System DPI Setting: 192 DPI (200 percent)
DWM DPI Scaling: UnKnown
Miracast: Available, with HDCP
Microsoft Graphics Hybrid: Supported
DirectX Database Version: 1.1.2
DxDiag Version: 10.00.18362.0387 64bit Unicode

------------
DxDiag Notes
------------
Display Tab 1: No problems found.
Display Tab 2: The file C:\Windows\System32\DriverStore\FileRepository\nvam.inf_amd64_2626e2eb18663673\nvldumdx.dll,C:\Windows\System32\DriverStore\FileRepository\nvam.inf_amd64_2626e2eb18663673\nvldumdx.dll,C:\Windows\System32\DriverStore\FileRepository\nvam.inf_amd64_2626e2eb18663673\nvldumdx.dll,C:\Windows\System32\DriverStore\FileRepository\nvam.inf_amd64_2626e2eb18663673\nvldumdx.dll is not digitally signed, which means that it has not been tested by Microsoft's Windows Hardware Quality Labs (WHQL). You may be able to get a WHQL logo'd driver from the hardware manufacturer.
Sound Tab 1: No problems found.
Input Tab: No problems found.

--------------------
DirectX Debug Levels
--------------------
Direct3D: 0/4 (retail)
DirectDraw: 0/4 (retail)
DirectInput: 0/5 (retail)
DirectMusic: 0/5 (retail)
DirectPlay: 0/9 (retail)
DirectSound: 0/5 (retail)
DirectShow: 0/6 (retail)

---------------
Display Devices
---------------
Card name: AMD Radeon(TM) Graphics
Manufacturer: Advanced Micro Devices, Inc.
Chip type: AMD Radeon Graphics Processor (0x1636)
DAC type: Internal DAC(400MHz)
Device Type: Full Device (POST)
Device Key: Enum\PCI\VEN_1002&DEV_1636&SUBSYS_1F111043&REV_C6
Device Status: 0180200A [DN_DRIVER_LOADED|DN_STARTED|DN_DISABLEABLE|DN_NT_ENUMERATOR|DN_NT_DRIVER]
Device Problem Code: No Problem
Driver Problem Code: Unknown
Display Memory: 8391 MB
Dedicated Memory: 496 MB
Shared Memory: 7894 MB
Current Mode: 2560 x 1440 (32 bit) (60Hz)
HDR Support: Not Supported
Display Topology: Internal
Display Color Space: DXGI_COLOR_SPACE_RGB_FULL_G22_NONE_P709
Color Primaries: Red(0.643555,0.331055), Green(0.301758,0.609375), Blue(0.155273,0.061523), White Point(0.313477,0.329102)
Display Luminance: Min Luminance = 0.500000, Max Luminance = 270.000000, MaxFullFrameLuminance = 270.000000
Monitor Name: Generic PnP Monitor
Monitor Model: unknown
Monitor Id: AUOE68C
Native Mode: 2560 x 1440(p) (60.012Hz)
Output Type: Internal
Monitor Capabilities: HDR Not Supported
Display Pixel Format: DISPLAYCONFIG_PIXELFORMAT_32BPP
Advanced Color: Not Supported
Driver Name: C:\Windows\System32\DriverStore\FileRepository\u0348053.inf_amd64_d857fc3ed0c41b07\B348005\aticfx64.dll,C:\Windows\System32\DriverStore\FileRepository\u0348053.inf_amd64_d857fc3ed0c41b07\B348005\aticfx64.dll,C:\Windows\System32\DriverStore\FileRepository\u0348053.inf_amd64_d857fc3ed0c41b07\B348005\aticfx64.dll,C:\Windows\System32\DriverStore\FileRepository\u0348053.inf_amd64_d857fc3ed0c41b07\B348005\amdxc64.dll
Driver File Version: 26.20.14001.3000 (English)
Driver Version: 26.20.14001.3000
DDI Version: 12
Feature Levels: 12_1,12_0,11_1,11_0,10_1,10_0,9_3,9_2,9_1
Driver Model: WDDM 2.6
Graphics Preemption: Primitive
Compute Preemption: DMA
Miracast: Not Supported
Detachable GPU: No
Hybrid Graphics GPU: Integrated
Power P-states: Not Supported
Virtualization: Paravirtualization
Block List: No Blocks
Catalog Attributes: N/A
Driver Attributes: Final Retail
Driver Date/Size: 10/23/2019 4:00:00 PM, 1919624 bytes
WHQL Logo'd: Yes
WHQL Date Stamp: Unknown
Device Identifier: {D7B71EE2-5576-11CF-4B78-A0097DC2D735}
Vendor ID: 0x1002
Device ID: 0x1636
SubSys ID: 0x1F111043
Revision ID: 0x00C6
Driver Strong Name: oem43.inf:cb0ae414f65a09d8:ati2mtag_Renoir:26.20.14001.3000:PCI\VEN_1002&DEV_1636&SUBSYS_1F111043&REV_C6
Rank Of Driver: 00CF0000
Video Accel: Unknown
DXVA2 Modes: DXVA2_ModeMPEG2_VLD DXVA2_ModeH264_VLD_NoFGT DXVA2_ModeHEVC_VLD_Main DXVA2_ModeH264_VLD_Stereo_Progressive_NoFGT DXVA2_ModeH264_VLD_Stereo_NoFGT DXVA2_ModeVC1_VLD DXVA2_ModeHEVC_VLD_Main10 DXVA2_ModeVP9_VLD_Profile0 DXVA2_ModeVP9_VLD_10bit_Profile2
Deinterlace Caps: n/a
D3D9 Overlay: Not Supported
DXVA-HD: Not Supported
DDraw Status: Enabled
D3D Status: Enabled
AGP Status: Enabled
MPO MaxPlanes: 2
MPO Caps: ROTATION,VERTICAL_FLIP,HORIZONTAL_FLIP,YUV,BILINEAR,STRETCH_YUV,HDR (MPO3)
MPO Stretch: 16.000X - 0.250X
MPO Media Hints: rotation, resizing, colorspace Conversion
MPO Formats: NV12,420_OPAQUE
PanelFitter Caps: ROTATION,VERTICAL_FLIP,HORIZONTAL_FLIP,YUV,BILINEAR,STRETCH_YUV,HDR (MPO3)
PanelFitter Stretch: 16.000X - 0.250X
Extension Drivers:
Driver Name: C:\Windows\System32\DriverStore\FileRepository\amdkmdae.inf_amd64_d9d8818e177b0c8c\amdkmdae.inf
Driver Version: 26.20.14001.3000
Driver Date: 10/24/2019
Driver Provider: Advanced Micro Devices, Inc.
Catalog Attributes: N/A
Component Drivers:
Driver Name: Unknown
Driver Version: Unknown
Driver Date: Unknown
Driver Provider: Unknown
Catalog Attributes: N/A

Card name: NVIDIA Graphics Device
Manufacturer: NVIDIA
Chip type: Graphics Device
DAC type: Integrated RAMDAC
Device Type: Full Device
Device Key: Enum\PCI\VEN_10DE&DEV_1F12&SUBSYS_1F111043&REV_A1
Device Status: 0180200A [DN_DRIVER_LOADED|DN_STARTED|DN_DISABLEABLE|DN_NT_ENUMERATOR|DN_NT_DRIVER]
Device Problem Code: No Problem
Driver Problem Code: Unknown
Display Memory: 13874 MB
Dedicated Memory: 5980 MB
Shared Memory: 7894 MB
Current Mode: Unknown
HDR Support: Unknown
Display Topology: Unknown
Display Color Space: Unknown
Color Primaries: Unknown
Display Luminance: Unknown
Driver Name: C:\Windows\System32\DriverStore\FileRepository\nvam.inf_amd64_2626e2eb18663673\nvldumdx.dll,C:\Windows\System32\DriverStore\FileRepository\nvam.inf_amd64_2626e2eb18663673\nvldumdx.dll,C:\Windows\System32\DriverStore\FileRepository\nvam.inf_amd64_2626e2eb18663673\nvldumdx.dll,C:\Windows\System32\DriverStore\FileRepository\nvam.inf_amd64_2626e2eb18663673\nvldumdx.dll
Driver File Version: 26.21.0014.4104 (English)
Driver Version: 26.21.14.4104
DDI Version: 12
Feature Levels: 12_1,12_0,11_1,11_0,10_1,10_0,9_3,9_2,9_1
Driver Model: WDDM 2.6
Graphics Preemption: Pixel
Compute Preemption: Dispatch
Miracast: Not Supported
Detachable GPU: No
Hybrid Graphics GPU: Discrete
Power P-states: Not Supported
Virtualization: Paravirtualization
Block List: No Blocks
Catalog Attributes: N/A
Driver Attributes: Final Retail
Driver Date/Size: 10/17/2019 4:00:00 PM, 944632 bytes
WHQL Logo'd: No
WHQL Date Stamp: None
Device Identifier: Unknown
Vendor ID: 0x10DE
Device ID: 0x1F12
SubSys ID: 0x1F111043
Revision ID: 0x00A1
Driver Strong Name: oem30.inf:0f066de367514f4e:Section038:26.21.14.4104:pci\ven_10de&dev_1f12&subsys_1f111043
Rank Of Driver: 00CF0001
Video Accel: Unknown
DXVA2 Modes: DXVA2_ModeMPEG2_VLD DXVA2_ModeVC1_D2010 DXVA2_ModeVC1_VLD DXVA2_ModeH264_VLD_Stereo_Progressive_NoFGT DXVA2_ModeH264_VLD_Stereo_NoFGT DXVA2_ModeH264_VLD_NoFGT DXVA2_ModeHEVC_VLD_Main DXVA2_ModeHEVC_VLD_Main10 DXVA2_ModeMPEG4pt2_VLD_Simple DXVA2_ModeMPEG4pt2_VLD_AdvSimple_NoGMC DXVA2_ModeVP9_VLD_Profile0 DXVA2_ModeVP9_VLD_10bit_Profile2
Deinterlace Caps: n/a
D3D9 Overlay: Unknown
DXVA-HD: Unknown
DDraw Status: Enabled
D3D Status: Enabled
AGP Status: Enabled
MPO MaxPlanes: 0
MPO Caps: Not Supported
MPO Stretch: Not Supported
MPO Media Hints: Not Supported
MPO Formats: Not Supported
PanelFitter Caps: Not Supported
PanelFitter Stretch: Not Supported

AceGranger
10-01-2020, 08:46
Leggere bene i leak per favore...
La CPU è un ES AMD (presumibilmente una APU) "AMD Eng Sample: 100-000000098-40_39/27_Y (16 CPUs), ~2.8GHz"
Mentre la GPU in realtà è una Nvidia sperimentale "Card name: NVIDIA Graphics Device - Key: Enum\PCI\VEN_10DE&DEV_1F12&SUBSYS_1F111043&REV_A1"
Infatti è un PCI ID Nvidia non ancora noto (10DE:1F12)
leggete bene il log qui sotto (basta scorrere e troverete la GPU Nvidia):
[CODE]------------------
System Information
------------------



:rotfl:

Gyammy85
10-01-2020, 08:56
Leggere bene i leak per favore...
La CPU è un ES AMD (presumibilmente una APU) "AMD Eng Sample: 100-000000098-40_39/27_Y (16 CPUs), ~2.8GHz"
Mentre la GPU in realtà è una Nvidia sperimentale "Card name: NVIDIA Graphics Device - Key: Enum\PCI\VEN_10DE&DEV_1F12&SUBSYS_1F111043&REV_A1"
Infatti è un PCI ID Nvidia non ancora noto (10DE:1F12)
leggete bene il log qui sotto (basta scorrere e troverete la GPU Nvidia):
------------------
System Information
------------------
Operating System: Windows 10 Pro 64-bit (10.0, Build 18363) (18362.19h1_release.190318-1202)
Language: English (Regional Setting: English)
System Manufacturer: ASUSTeK COMPUTER INC.
System Model: Zephyrus G GA401IV_GA401IV
BIOS: GA401IV.100.T50 (type: UEFI)
Processor: AMD Eng Sample: 100-000000098-40_39/27_Y (16 CPUs), ~2.8GHz
Memory: 16384MB RAM
Available OS Memory: 15790MB RAM
Page File: 4078MB used, 14142MB available
Windows Dir: C:\Windows
DirectX Version: DirectX 12
DX Setup Parameters: Not found
User DPI Setting: 144 DPI (150 percent)
System DPI Setting: 192 DPI (200 percent)
DWM DPI Scaling: UnKnown
Miracast: Available, with HDCP
Microsoft Graphics Hybrid: Supported
DirectX Database Version: 1.1.2
DxDiag Version: 10.00.18362.0387 64bit Unicode

------------
DxDiag Notes
------------
Display Tab 1: No problems found.
Display Tab 2: The file C:\Windows\System32\DriverStore\FileRepository\nvam.inf_amd64_2626e2eb18663673\nvldumdx.dll,C:\Windows\System32\DriverStore\FileRepository\nvam.inf_amd64_2626e2eb18663673\nvldumdx.dll,C:\Windows\System32\DriverStore\FileRepository\nvam.inf_amd64_2626e2eb18663673\nvldumdx.dll,C:\Windows\System32\DriverStore\FileRepository\nvam.inf_amd64_2626e2eb18663673\nvldumdx.dll is not digitally signed, which means that it has not been tested by Microsoft's Windows Hardware Quality Labs (WHQL). You may be able to get a WHQL logo'd driver from the hardware manufacturer.
Sound Tab 1: No problems found.
Input Tab: No problems found.

--------------------
DirectX Debug Levels
--------------------
Direct3D: 0/4 (retail)
DirectDraw: 0/4 (retail)
DirectInput: 0/5 (retail)
DirectMusic: 0/5 (retail)
DirectPlay: 0/9 (retail)
DirectSound: 0/5 (retail)
DirectShow: 0/6 (retail)

---------------
Display Devices
---------------
Card name: AMD Radeon(TM) Graphics
Manufacturer: Advanced Micro Devices, Inc.
Chip type: AMD Radeon Graphics Processor (0x1636)
DAC type: Internal DAC(400MHz)
Device Type: Full Device (POST)
Device Key: Enum\PCI\VEN_1002&DEV_1636&SUBSYS_1F111043&REV_C6
Device Status: 0180200A [DN_DRIVER_LOADED|DN_STARTED|DN_DISABLEABLE|DN_NT_ENUMERATOR|DN_NT_DRIVER]
Device Problem Code: No Problem
Driver Problem Code: Unknown
Display Memory: 8391 MB
Dedicated Memory: 496 MB
Shared Memory: 7894 MB
Current Mode: 2560 x 1440 (32 bit) (60Hz)
HDR Support: Not Supported
Display Topology: Internal
Display Color Space: DXGI_COLOR_SPACE_RGB_FULL_G22_NONE_P709
Color Primaries: Red(0.643555,0.331055), Green(0.301758,0.609375), Blue(0.155273,0.061523), White Point(0.313477,0.329102)
Display Luminance: Min Luminance = 0.500000, Max Luminance = 270.000000, MaxFullFrameLuminance = 270.000000
Monitor Name: Generic PnP Monitor
Monitor Model: unknown
Monitor Id: AUOE68C
Native Mode: 2560 x 1440(p) (60.012Hz)
Output Type: Internal
Monitor Capabilities: HDR Not Supported
Display Pixel Format: DISPLAYCONFIG_PIXELFORMAT_32BPP
Advanced Color: Not Supported
Driver Name: C:\Windows\System32\DriverStore\FileRepository\u0348053.inf_amd64_d857fc3ed0c41b07\B348005\aticfx64.dll,C:\Windows\System32\DriverStore\FileRepository\u0348053.inf_amd64_d857fc3ed0c41b07\B348005\aticfx64.dll,C:\Windows\System32\DriverStore\FileRepository\u0348053.inf_amd64_d857fc3ed0c41b07\B348005\aticfx64.dll,C:\Windows\System32\DriverStore\FileRepository\u0348053.inf_amd64_d857fc3ed0c41b07\B348005\amdxc64.dll
Driver File Version: 26.20.14001.3000 (English)
Driver Version: 26.20.14001.3000
DDI Version: 12
Feature Levels: 12_1,12_0,11_1,11_0,10_1,10_0,9_3,9_2,9_1
Driver Model: WDDM 2.6
Graphics Preemption: Primitive
Compute Preemption: DMA
Miracast: Not Supported
Detachable GPU: No
Hybrid Graphics GPU: Integrated
Power P-states: Not Supported
Virtualization: Paravirtualization
Block List: No Blocks
Catalog Attributes: N/A
Driver Attributes: Final Retail
Driver Date/Size: 10/23/2019 4:00:00 PM, 1919624 bytes
WHQL Logo'd: Yes
WHQL Date Stamp: Unknown
Device Identifier: {D7B71EE2-5576-11CF-4B78-A0097DC2D735}
Vendor ID: 0x1002
Device ID: 0x1636
SubSys ID: 0x1F111043
Revision ID: 0x00C6
Driver Strong Name: oem43.inf:cb0ae414f65a09d8:ati2mtag_Renoir:26.20.14001.3000:PCI\VEN_1002&DEV_1636&SUBSYS_1F111043&REV_C6
Rank Of Driver: 00CF0000
Video Accel: Unknown
DXVA2 Modes: DXVA2_ModeMPEG2_VLD DXVA2_ModeH264_VLD_NoFGT DXVA2_ModeHEVC_VLD_Main DXVA2_ModeH264_VLD_Stereo_Progressive_NoFGT DXVA2_ModeH264_VLD_Stereo_NoFGT DXVA2_ModeVC1_VLD DXVA2_ModeHEVC_VLD_Main10 DXVA2_ModeVP9_VLD_Profile0 DXVA2_ModeVP9_VLD_10bit_Profile2
Deinterlace Caps: n/a
D3D9 Overlay: Not Supported
DXVA-HD: Not Supported
DDraw Status: Enabled
D3D Status: Enabled
AGP Status: Enabled
MPO MaxPlanes: 2
MPO Caps: ROTATION,VERTICAL_FLIP,HORIZONTAL_FLIP,YUV,BILINEAR,STRETCH_YUV,HDR (MPO3)
MPO Stretch: 16.000X - 0.250X
MPO Media Hints: rotation, resizing, colorspace Conversion
MPO Formats: NV12,420_OPAQUE
PanelFitter Caps: ROTATION,VERTICAL_FLIP,HORIZONTAL_FLIP,YUV,BILINEAR,STRETCH_YUV,HDR (MPO3)
PanelFitter Stretch: 16.000X - 0.250X
Extension Drivers:
Driver Name: C:\Windows\System32\DriverStore\FileRepository\amdkmdae.inf_amd64_d9d8818e177b0c8c\amdkmdae.inf
Driver Version: 26.20.14001.3000
Driver Date: 10/24/2019
Driver Provider: Advanced Micro Devices, Inc.
Catalog Attributes: N/A
Component Drivers:
Driver Name: Unknown
Driver Version: Unknown
Driver Date: Unknown
Driver Provider: Unknown
Catalog Attributes: N/A

Card name: NVIDIA Graphics Device
Manufacturer: NVIDIA
Chip type: Graphics Device
DAC type: Integrated RAMDAC
Device Type: Full Device
Device Key: Enum\PCI\VEN_10DE&DEV_1F12&SUBSYS_1F111043&REV_A1
Device Status: 0180200A [DN_DRIVER_LOADED|DN_STARTED|DN_DISABLEABLE|DN_NT_ENUMERATOR|DN_NT_DRIVER]
Device Problem Code: No Problem
Driver Problem Code: Unknown
Display Memory: 13874 MB
Dedicated Memory: 5980 MB
Shared Memory: 7894 MB
Current Mode: Unknown
HDR Support: Unknown
Display Topology: Unknown
Display Color Space: Unknown
Color Primaries: Unknown
Display Luminance: Unknown
Driver Name: C:\Windows\System32\DriverStore\FileRepository\nvam.inf_amd64_2626e2eb18663673\nvldumdx.dll,C:\Windows\System32\DriverStore\FileRepository\nvam.inf_amd64_2626e2eb18663673\nvldumdx.dll,C:\Windows\System32\DriverStore\FileRepository\nvam.inf_amd64_2626e2eb18663673\nvldumdx.dll,C:\Windows\System32\DriverStore\FileRepository\nvam.inf_amd64_2626e2eb18663673\nvldumdx.dll
Driver File Version: 26.21.0014.4104 (English)
Driver Version: 26.21.14.4104
DDI Version: 12
Feature Levels: 12_1,12_0,11_1,11_0,10_1,10_0,9_3,9_2,9_1
Driver Model: WDDM 2.6
Graphics Preemption: Pixel
Compute Preemption: Dispatch
Miracast: Not Supported
Detachable GPU: No
Hybrid Graphics GPU: Discrete
Power P-states: Not Supported
Virtualization: Paravirtualization
Block List: No Blocks
Catalog Attributes: N/A
Driver Attributes: Final Retail
Driver Date/Size: 10/17/2019 4:00:00 PM, 944632 bytes
WHQL Logo'd: No
WHQL Date Stamp: None
Device Identifier: Unknown
Vendor ID: 0x10DE
Device ID: 0x1F12
SubSys ID: 0x1F111043
Revision ID: 0x00A1
Driver Strong Name: oem30.inf:0f066de367514f4e:Section038:26.21.14.4104:pci\ven_10de&dev_1f12&subsys_1f111043
Rank Of Driver: 00CF0001
Video Accel: Unknown
DXVA2 Modes: DXVA2_ModeMPEG2_VLD DXVA2_ModeVC1_D2010 DXVA2_ModeVC1_VLD DXVA2_ModeH264_VLD_Stereo_Progressive_NoFGT DXVA2_ModeH264_VLD_Stereo_NoFGT DXVA2_ModeH264_VLD_NoFGT DXVA2_ModeHEVC_VLD_Main DXVA2_ModeHEVC_VLD_Main10 DXVA2_ModeMPEG4pt2_VLD_Simple DXVA2_ModeMPEG4pt2_VLD_AdvSimple_NoGMC DXVA2_ModeVP9_VLD_Profile0 DXVA2_ModeVP9_VLD_10bit_Profile2
Deinterlace Caps: n/a
D3D9 Overlay: Unknown
DXVA-HD: Unknown
DDraw Status: Enabled
D3D Status: Enabled
AGP Status: Enabled
MPO MaxPlanes: 0
MPO Caps: Not Supported
MPO Stretch: Not Supported
MPO Media Hints: Not Supported
MPO Formats: Not Supported
PanelFitter Caps: Not Supported
PanelFitter Stretch: Not Supported

E l'avrebbero attaccata al portatile amd, così giusto per trollare? mah
Da dove esce tutta sta pappardella?

:rotfl:

3060 confirmed

Thricome82
10-01-2020, 08:58
E l'avrebbero attaccata al portatile amd, così giusto per trollare? mah
Da dove esce tutta sta pappardella?


Gyammy secondo me dovete stare un attimino più cauti e realisti... IMHO

La "pappardella" esce dalla risposta al leak su Reddit di un utente che ha postato il log di quel test...

Detto questo, va bene che AMD ha detto che uscirà la Navi "grossa" ma calmate i bollenti spiriti, poi non ci lamentiamo se il thread viene ridicolizzato.

Gyammy85
10-01-2020, 09:04
Gyammy secondo me dovete stare un attimino più cauti e realisti... IMHO

La "pappardella" esce dalla risposta al leak su Reddit di un utente che ha postato il log di quel test...

Scusami se mi permetto, ma siccome per molto meno mi danno del visionario perché sbaglio di due giorni l'uscita, non è che appena appare nvidia ohh wow corro al preorder
A me suona strano che abbiano usato un portatile amd per attaccarci la nvidia powah, esterna, giusto per dire "hey baby", insomma ci saranno stati mazzi di portatili con 99999k dentro per mostrare l'insuperabile potenza
Andiamoci cauti, come dici tu
Il log di un test mezzo screenshottato, vabbè
Si si lo sappiamo che nvidia è incredibilmente più grossa che amd grossa non è manco un quarto, tranquillo

AceGranger
10-01-2020, 09:04
3060 confirmed


7900XT HBM4 5nm+ confirmed

Thricome82
10-01-2020, 09:10
Scusami se mi permetto, ma siccome per molto meno mi danno del visionario perché sbaglio di due giorni l'uscita, non è che appena appare nvidia ohh wow corro al preorder
A me suona strano che abbiano usato un portatile amd per attaccarci la nvidia powah, esterna, giusto per dire "hey baby", insomma ci saranno stati mazzi di portatili con 99999k dentro per mostrare l'insuperabile potenza
Andiamoci cauti, come dici tu
Il log di un test mezzo screenshottato, vabbè
Si si lo sappiamo che nvidia è incredibilmente più grossa che amd grossa non è manco un quarto, tranquillo

Mi spiace Gyammy ma sei troppo di parte, non sei obiettivo.
Leggessi almeno la mia firma...

AceGranger
10-01-2020, 09:10
Scusami se mi permetto, ma siccome per molto meno mi danno del visionario perché sbaglio di due giorni l'uscita, non è che appena appare nvidia ohh wow corro al preorder
A me suona strano che abbiano usato un portatile amd per attaccarci la nvidia powah, esterna, giusto per dire "hey baby", insomma ci saranno stati mazzi di portatili con 99999k dentro per mostrare l'insuperabile potenza
Andiamoci cauti, come dici tu
Il log di un test mezzo screenshottato, vabbè
Si si lo sappiamo che nvidia è incredibilmente più grossa che amd grossa non è manco un quarto, tranquillo

NON è un portatile AMD, è un presunto portatile di ASUS :asd:

e ASUS si, crea portatili misti AMD e nVidia

quel bench sembrerebbe la nuova variante dello Zephyrus che gia esistente:
AMD Ryzen7 3750H + 1660Ti

https://www.asus.com/it/ROG-Republic-Of-Gamers/ROG-Zephyrus-G15/

Gyammy85
10-01-2020, 09:19
Mi spiace Gyammy ma sei troppo di parte, non sei obiettivo.
Leggessi almeno la mia firma...

Non è che siccome uno in firma ha addirittura due prodotti amd automaticamente significa qualcosa eh
Ripeto, per molto meno mi si prende in giro, permettimi di avere dubbi...poi sta cosa l'hanno postata nel reddit di nvidia dato che in quello di amd non c'è traccia

NON è un portatile AMD, è un portatile di ASUS :asd:

e ASUS si, crea portatili misti AMD e nVidia

quel bench sembrerebbe la nuova variante dello Zephyrus che gia esistente:
AMD Ryzen7 3750H + 1660Ti

https://www.asus.com/it/ROG-Republic-Of-Gamers/ROG-Zephyrus-G15/

Wow la 1660ti che va più forte della 2080ti che va il 450% in piùùùùùù
E la radeon graphics!!
radeon+1660ti+super nvidia fascia entry+amd cpu
E poi? asciugatrice e lavatrice no?
PS quel codice engineering sample è riferito alla serie 4000 comunque, non 3750h
Vabbè dai, 3060 confirmed e non ne parliamo più

Thricome82
10-01-2020, 09:25
Non è che siccome uno in firma ha addirittura due prodotti amd automaticamente significa qualcosa eh
Ripeto, per molto meno mi si prende in giro, permettimi di avere dubbi...poi sta cosa l'hanno postata nel reddit di nvidia dato che in quello di amd non c'è traccia



Wow la 1660ti che va più forte della 2080ti che va il 450% in piùùùùùù
E la radeon graphics!!
radeon+1660ti+super nvidia fascia entry+amd cpu
E poi? asciugatrice e lavatrice no?

Gyammy quello è un benchmark di un portatile non ancora sul mercato, quindi evita queste risposte da asilo infantile perchè non fanno ridere e mettono ancora più in ridicolo il thread, siamo su un forum che parla di hardware o no?
Analizza i dati che ti ho fornito, leggi bene e poi argomenta, perchè fino ad ora ho solo visto un atteggiamento poco maturo da parte tua.

Gyammy85
10-01-2020, 09:32
Gyammy quello è un benchmark di un portatile non ancora sul mercato, quindi evita queste risposte da asilo infantile perchè non fanno ridere e mettono ancora più in ridicolo il thread, siamo su un forum che parla di hardware o no?
Analizza i dati che ti ho fornito, leggi bene e poi argomenta, perchè fino ad ora ho solo visto un atteggiamento poco maturo da parte tua.

Mi risulta solo strano che usino il portatile amd (quello che bottleneccka dei poveri che compra solo lo 0,00004% della gente ecc...) per attaccarci come vga esterna (su dock che devono essere comunque predisposte) la nvidia, quando potevano provarla su qualunque pc fisso senza problemi, tutto qui
E ripeto ancora, sono normali dubbi, non voglio fare ulteriori polemiche, pace

Thricome82
10-01-2020, 09:33
PS quel codice engineering sample è riferito alla serie 4000 comunque, non 3750h


Confermo che non leggi...
L'utente AceGranger ha scritto:
"Quel bench sembrerebbe la nuova variante dello Zephyrus già esistente" non ha detto che è quel modello...

AceGranger
10-01-2020, 09:34
Non è che siccome uno in firma ha addirittura due prodotti amd automaticamente significa qualcosa eh
Ripeto, per molto meno mi si prende in giro, permettimi di avere dubbi...poi sta cosa l'hanno postata nel reddit di nvidia dato che in quello di amd non c'è traccia



Wow la 1660ti che va più forte della 2080ti che va il 450% in piùùùùùù
E la radeon graphics!!
radeon+1660ti+super nvidia fascia entry+amd cpu
E poi? asciugatrice e lavatrice no?


per me puo essere anche VIA Technologies + Voodoo che non mi cambia una fava :asd:;

fa solo molto ridere come sei passato dal commentare un leak carta da culo, "omggg TERREMOTOOO" a "è un orribile falso" in un nanosecondo :asd:

Thricome82
10-01-2020, 09:35
Mi risulta solo strano che usino il portatile amd (quello che bottleneccka dei poveri che compra solo lo 0,00004% della gente ecc...) per attaccarci come vga esterna (su dock che devono essere comunque predisposte) la nvidia, quando potevano provarla su qualunque pc fisso senza problemi, tutto qui
E ripeto ancora, sono normali dubbi, non voglio fare ulteriori polemiche, pace

Non c'è scritto da nessuna parte che si tratta di una GPU esterna, nessuno parla di dock esterni.
Quella è una GPU mobile Nvidia non ancora sul mercato e con questo chiudo la discussione perchè è veramente tempo perso con te.

Gyammy85
10-01-2020, 09:37
Non c'è scritto da nessuna parte che si tratta di una GPU esterna, nessuno parla di dock esterni.
Quella è una GPU mobile Nvidia non ancora sul mercato e con questo chiudo la discussione perchè è veramente tempo perso con te.

Quindi è una mobile nvidia che va il 20% in più in vr dell discreta 2080ti, e al ces parla dei driver e della super patch del megaflop wolf youngblood, ok

Thricome82
10-01-2020, 09:41
Chiedo ai moderatori se è possibile fare un po' di pulizia nel thread, dopo tutta questa discussione si perdono le informazioni reali e tutto diventa fuffa come al solito.

Grazie

Gyammy85
10-01-2020, 09:46
Molto probabilmente è una mi50 dual;)
100/8
200/4

No no, la dual vega 20 esiste già e la motano nei mac pro
Il codice gfx908 è proprio nuovo, e indicano 128 cu e 8 shader engine, oltre al supporto alle istruzioni b-float per il machine/deep learning

AceGranger
10-01-2020, 09:47
PS quel codice engineering sample è riferito alla serie 4000 comunque, non 3750h
Vabbè dai, 3060 confirmed e non ne parliamo più

:rotfl: no dai seriamente.....

lo riscrivo uguale, fidati, non è difficile da capire la lingua italiana:

"quel bench sembrerebbe la nuova variante dello Zephyrus che gia esistente:"



e puo tranquillamente anche essere una GPU AMD per quello che mi frega di quel bench, dei portatil1 e in generale di un leak carta da culo come quello :asd:

Thricome82
10-01-2020, 09:55
No no, la dual vega 20 esiste già e la motano nei mac pro
Il codice gfx908 è proprio nuovo, e indicano 128 cu e 8 shader engine, oltre al supporto alle istruzioni b-float per il machine/deep learning

E da questo si evince che non sei molto preparato sull'argomento.

GFX9xx è Vega:
GFX906 e GFX907 (MI50, MI60, Pro Vega II, Pro Vega II Duo, Radeon VII)

GFX10xx è Navi:
GFX1010 e GFX1012 (5300M, Pro 5300M, 5500XT, Pro W5500, 5600, 5600XT, 5700, 5700XT, Pro W5700)

Con molta probabilità GFX908 è Arcturus (Una nuova Radeon Instinct per workstation)
Per scrupolo controllo gli ID presenti nei Kext AMD di MacOS Catalina 10.15.3 per vedere se riesco a risalire a GFX908

Gyammy85
10-01-2020, 10:13
E da questo si evince che non sei molto preparato sull'argomento.

GFX9xx è Vega:
GFX906 e GFX907 (MI50, MI60, Pro Vega II, Pro Vega II Duo, Radeon VII)

GFX10xx è Navi:
GFX1010 e GFX1012 (5300M, Pro 5300M, 5500XT, Pro W5500, 5600, 5600XT, 5700, 5700XT, Pro W5700)

Con molta probabilità GFX908 è Arcturus (Una nuova Radeon Instinct per workstation)
Per scrupolo controllo gli ID presenti nei Kext AMD di MacOS Catalina 10.15.3 per vedere se riesco a risalire a GFX908

Lo so, Arcturus è basato su una nuova variante di vega

ninja750
10-01-2020, 10:16
Leggere bene i leak per favore...
La CPU è un ES AMD (presumibilmente una APU) "AMD Eng Sample: 100-000000098-40_39/27_Y (16 CPUs), ~2.8GHz"
Mentre la GPU in realtà è una Nvidia sperimentale "Card name: NVIDIA Graphics Device - Key: Enum\PCI\VEN_10DE&DEV_1F12&SUBSYS_1F111043&REV_A1"
Infatti è un PCI ID Nvidia non ancora noto (10DE:1F12)
leggete bene il log qui sotto (basta scorrere e troverete la GPU Nvidia):

duole farti notare quello che ha risposto in merito lo **sviluppatore** di quel software:

Hi, I'm the developer of the benchmark (OpenVR Benchmark), and since I was already asked on my discord server to comment on the AMD benchmark result everyone seems to be talking about, I guess I will also comment here to let people know what I think.

To be clear, I do not have access to any more information than you, I also just see the result in the leaderboard, beating all the 2080 Ti.

The CPU does seem to be a Ryzen 7 4800H and people generally seem to agree about that. Regarding the GPU, it is definitely some kind of unreleased high end GPU, as being 17% above the best performing 2080 Ti is quite a big step. It hasn't really been mentioned here, but that best performing 2080 Ti in the leaderboard is already a really good performing 2080 Ti. As usual, there's many GPUs that perform somewhere in the middle, with few being faster and few being slower. The majority of 2080 Ti actually perform more around ~80 fps in this benchmark, so the unnamed GPU we talk about here is around 29% faster than a regular 2080 Ti, while being 17% faster than the highest overclocked 2080 Ti.

I guess it might be just about possible to get a "30% higher than 2080 Ti" result by having a 2080 Ti with a world-record liquid nitrogen OC, but I think most likely people using engineering sample CPUs, especially a Ryzen 7 4800H, are not running liquid nitrogen OCs.

So this benchmark result is very likely done with some unannounced GPU. And since I would consider it very unlikely that someone has access to both an AMD engineering sample CPU and an unannounced Nvidia GPU, and is allowed to use both in the same system, I think it is most likely that this is an unannounced AMD GPU. So I do agree with most people here that this most likely seems to be a new AMD GPU that is quite a bit faster than a 2080 Ti, but I also think to not be disappointed if it ends up being something different, no one should feel 100% certain about this.


cmq vedremo.. non mi strapperei i capelli per nulla

Thricome82
10-01-2020, 10:19
duole farti notare quello che ha risposto in merito lo **sviluppatore** di quel software:

Hi, I'm the developer of the benchmark (OpenVR Benchmark), and since I was already asked on my discord server to comment on the AMD benchmark result everyone seems to be talking about, I guess I will also comment here to let people know what I think.

To be clear, I do not have access to any more information than you, I also just see the result in the leaderboard, beating all the 2080 Ti.

The CPU does seem to be a Ryzen 7 4800H and people generally seem to agree about that. Regarding the GPU, it is definitely some kind of unreleased high end GPU, as being 17% above the best performing 2080 Ti is quite a big step. It hasn't really been mentioned here, but that best performing 2080 Ti in the leaderboard is already a really good performing 2080 Ti. As usual, there's many GPUs that perform somewhere in the middle, with few being faster and few being slower. The majority of 2080 Ti actually perform more around ~80 fps in this benchmark, so the unnamed GPU we talk about here is around 29% faster than a regular 2080 Ti, while being 17% faster than the highest overclocked 2080 Ti.

I guess it might be just about possible to get a "30% higher than 2080 Ti" result by having a 2080 Ti with a world-record liquid nitrogen OC, but I think most likely people using engineering sample CPUs, especially a Ryzen 7 4800H, are not running liquid nitrogen OCs.

So this benchmark result is very likely done with some unannounced GPU. And since I would consider it very unlikely that someone has access to both an AMD engineering sample CPU and an unannounced Nvidia GPU, and is allowed to use both in the same system, I think it is most likely that this is an unannounced AMD GPU. So I do agree with most people here that this most likely seems to be a new AMD GPU that is quite a bit faster than a 2080 Ti, but I also think to not be disappointed if it ends up being something different, no one should feel 100% certain about this.


cmq vedremo.. non mi strapperei i capelli per nulla

E io cosa ho scritto? :D
Che si tratta di una GPU Nvidia non ancora rilasciata...
Dubito fortemente che si tratti di una GPU AMD quando gli ID sono di una Nvidia

ninja750
10-01-2020, 10:21
E io cosa ho scritto? :D
Che si tratta di una GPU Nvidia non ancora rilasciata...
Dubito fortemente che si tratti di una GPU AMD quando gli ID sono di una Nvidia

spetta che uso lo zoom: I think it is most likely that this is an unannounced AMD GPU

:D

FroZen
10-01-2020, 10:29
spetta che uso lo zoom: I think it is most likely that this is an unannounced AMD GPU

:D

scusa è una nvidia?

non è che è la nuova DG1 intel?

non leggo bene................

Thricome82
10-01-2020, 10:36
spetta che uso lo zoom: I think it is most likely that this is an unannounced AMD GPU

:D

E ripeto, dubito fortemente sia una GPU AMD quando gli ID hardware sono di una Nvidia non presente sul mercato...

fraussantin
10-01-2020, 11:07
E ripeto, dubito fortemente sia una GPU AMD quando gli ID hardware sono di una Nvidia non presente sul mercato...Doveva uscire una 2080ti super , ma non avrebbe molto senso a questi punti..

Free Gordon
10-01-2020, 11:10
Queste mi100 che sbandieri sempre, sono speculazioni o qualcosa di sicuro?
Parliamo di 6144st a 2050 di clock.
Quindi un chip apposito HPC. Chip poco sensato, considerando che le FP64 le emula.

Non è che importi poi molto se le emula, dato che potranno anche fare 1:2... :)
Anche 1:4 non sarebbe poi male. :D

Free Gordon
10-01-2020, 11:15
https://www.tomshw.it/hardware/intel-dg1-prototipo-ces-2020/
Schedina che fa quasi tenerezza...


eeeeh.. pensa che tenerezza se ne mettono 10 insieme... :) :) :)

majinbu7
10-01-2020, 11:38
Comunque oh, tutti eccitati per l'ennesima gpu che non ci potremo permettere :asd:

a volte le cose vanno viste nella giusta propsettiva :asd:

Quanta sacro santa verità in questo post , o per lo meno che il 98% non si potrà permettere :D

Ps: ma una (anche se breve sospensione) ad un'istigatore al flame come sir. Giammy85, cavaliere senza macchia (se non rossa) non la diamo ? no vero ?...peccato , ma la speranza è l'ultima a morire :asd:

DuttZ
10-01-2020, 11:51
Non è che siccome uno in firma ha addirittura due prodotti amd automaticamente significa qualcosa eh
Ripeto, per molto meno mi si prende in giro, permettimi di avere dubbi...poi sta cosa l'hanno postata nel reddit di nvidia dato che in quello di amd non c'è traccia



Wow la 1660ti che va più forte della 2080ti che va il 450% in piùùùùùù
E la radeon graphics!!
radeon+1660ti+super nvidia fascia entry+amd cpu
E poi? asciugatrice e lavatrice no?
PS quel codice engineering sample è riferito alla serie 4000 comunque, non 3750h
Vabbè dai, 3060 confirmed e non ne parliamo piùL'ho visto anche io ma se guardi a destra della tabella, ti accorgerai che le risoluzioni sono assai differeti

Arrow0309
10-01-2020, 12:50
NON è un portatile AMD, è un presunto portatile di ASUS :asd:

e ASUS si, crea portatili misti AMD e nVidia

quel bench sembrerebbe la nuova variante dello Zephyrus che gia esistente:
AMD Ryzen7 3750H + 1660Ti

https://www.asus.com/it/ROG-Republic-Of-Gamers/ROG-Zephyrus-G15/

Gyammy quello è un benchmark di un portatile non ancora sul mercato, quindi evita queste risposte da asilo infantile perchè non fanno ridere e mettono ancora più in ridicolo il thread, siamo su un forum che parla di hardware o no?
Analizza i dati che ti ho fornito, leggi bene e poi argomenta, perchè fino ad ora ho solo visto un atteggiamento poco maturo da parte tua.

https://www.techpowerup.com/262655/asus-rog-announces-the-zephyrus-g14-and-the-zephyrus-g15-gaming-laptops

AceGranger
10-01-2020, 13:01
https://www.techpowerup.com/262655/asus-rog-announces-the-zephyrus-g14-and-the-zephyrus-g15-gaming-laptops

diventa sempre piu comica la cosa :asd:

è un portatile di cartapesta, in realta non esiste.

FreeMan
10-01-2020, 13:08
Ps: ma una (anche se breve sospensione) ad un'istigatore al flame come sir. Giammy85, cavaliere senza macchia (se non rossa) non la diamo ? no vero ?...peccato , ma la speranza è l'ultima a morire :asd:

e invece ignorare (magari con apposita funzione) chi voi pensate stia trollando? lo sa tutto il web "don't feed the troll".... tanto banale quando poco applicato.. evidentemente vi piace il "gioco"...

e ora finitela.

>bYeZ<

Ale55andr0
10-01-2020, 13:32
E ripeto, dubito fortemente sia una GPU AMD quando gli ID hardware sono di una Nvidia non presente sul mercato...

Eh si, ma non girare la frittata, perchè prima hai detto "eh, io che ho detto?", beh, l'esatto opposto di cio che hai letto... :p

poi se dubiti è altro discorso ancora :)
..io cmq non ci ho capito più un h, e lo stesso vale per le specs delle nuove console, dove un giorno è più forte una e quello dopo l'altra ancora, senza ancora mezzo dato ufficiale :asd:

Ale55andr0
10-01-2020, 13:34
Doveva uscire una 2080ti super , ma non avrebbe molto senso a questi punti..

beh, dipende da quanto è vicina/lontana ampere...se arrivasse nel q2 2020, cioè realisticamente in autunno, per gli appassionati avrebbe senso eccome! e pure per il portafoglio di nvidia...

Free Gordon
10-01-2020, 15:10
Molto probabilmente Intel avrà tecnologie per linkare più GPU-die insieme, prima degli altri..

Se la DG1 è un chippino da prestazioni tipo 5500m (e consumi minori ovviamente), averne 4...6 o 8 insieme farà la differenza.

Attendo incuriosito.. Considerando poi che son costruite col 10nm+.... :)

mircocatta
10-01-2020, 19:15
Molto probabilmente Intel avrà tecnologie per linkare più GPU-die insieme, prima degli altri..

Se la DG1 è un chippino da prestazioni tipo 5500m (e consumi minori ovviamente), averne 4...6 o 8 insieme farà la differenza.

Attendo incuriosito.. Considerando poi che son costruite col 10nm+.... :)

Ma è una supposizione o ci sono fonti o notizie a riguardo? Perché amd con quello che ha fatto sui ryzen non mi sembra da meno, anzi

fraussantin
10-01-2020, 19:48
Molto probabilmente Intel avrà tecnologie per linkare più GPU-die insieme, prima degli altri..

Se la DG1 è un chippino da prestazioni tipo 5500m (e consumi minori ovviamente), averne 4...6 o 8 insieme farà la differenza.

Attendo incuriosito.. Considerando poi che son costruite col 10nm+.... :)

Mmmm se fosse cosí facile e veloce penso che lo avrebbero annunciato con un bel tabellone a blocchetti ..

Se tu dopo anni di attese mi esci con un chippino del cavolo che ammazza tutte le aspettative , a breve c'é solo il chippino .

Poi che fra qualche anno facciano anche altri ci sta.

Cioé io lo avrei annunciato prima di fare vedere quella cosina e poi avrei detto questa é uno di loro.

fraussantin
11-01-2020, 18:38
Ho trovato queste fotine in rete .. https://uploads.tapatalk-cdn.com/20200111/7cca0ea13f052ccc15af6352c6f7324d.jpghttps://uploads.tapatalk-cdn.com/20200111/f0c0cdbb89af01b5230161b415841428.jpghttps://uploads.tapatalk-cdn.com/20200111/d076cb256a3a088b4ccb60e3445ddd1d.jpg

gianni1879
11-01-2020, 20:11
Ho trovato queste fotine in rete .. https://uploads.tapatalk-cdn.com/20200111/7cca0ea13f052ccc15af6352c6f7324d.jpghttps://uploads.tapatalk-cdn.com/20200111/f0c0cdbb89af01b5230161b415841428.jpghttps://uploads.tapatalk-cdn.com/20200111/d076cb256a3a088b4ccb60e3445ddd1d.jpg
Interessante :cool:

Ale55andr0
11-01-2020, 20:47
è l'apu della xbox series x. Circa 400mm2 a quel che si dice. La cpu dovrebbe essere un 8/16 versione cut di zen 2 (L3 ridotta da 32mb a 8mb) fra 3.2 e 3.6ghz

fraussantin
11-01-2020, 21:40
Con il doppio della densità ed un'area così ci sarà da divertirsi....

P.s. comparativa curiosa stadia vs one x su metro exodus, CPU tosta e Vega 56 10.7tflop vs Jaguar mexxa e simile polaris 6tflop :asd:

https://www.eurogamer.it/articles/2019-01-10-digitalfoundry-metro-exodus-stadia-vs-xbox-one-x-analisi-comparativa
C'é tutto lo spazio per farci entrare un 3700 liscio e una 5700 xt piú collegamenti e modulo RT..
In quella vecchia quanto spazio occupava la gpu? ( Una 570 se non erro)

Ma é sicuro che stadia faccia usare una singola GPU per un singolo utente?
Perché con una Vega 56 si ottiene molto di piú di quello che offre . Non potrebbe essere un enorme multigpu che opera con piú istanze aperte?

amon.akira
11-01-2020, 22:30
C'é tutto lo spazio per farci entrare un 3700 liscio e una 5700 xt piú collegamenti e modulo RT..
In quella vecchia quanto spazio occupava la gpu? ( Una 570 se non erro)

Ma é sicuro che stadia faccia usare una singola GPU per un singolo utente?
Perché con una Vega 56 si ottiene molto di piú di quello che offre . Non potrebbe essere un enorme multigpu che opera con piú istanze aperte?

ovvio che sia cosi, mica dedicano una gpu per ogni utente, abbassi i dettagli a livello one x e ci metti 2utenti sopra e già hai dimezzato i costi

Ton90maz
11-01-2020, 23:19
C'é tutto lo spazio per farci entrare un 3700 liscio e una 5700 xt piú collegamenti e modulo RT..
In quella vecchia quanto spazio occupava la gpu? ( Una 570 se non erro)

Ma é sicuro che stadia faccia usare una singola GPU per un singolo utente?
Perché con una Vega 56 si ottiene molto di piú di quello che offre . Non potrebbe essere un enorme multigpu che opera con piú istanze aperte?E' una 580 + 8 CU + 128 bit GGDR5 di interfaccia extra + qualche customizzazione del command processor.


Se fosse davvero da 400 mm^2, con la densità attuale ci starebbero una 5700 e oltre una delle nuove apu. Basterebbe togliere l'interfaccia dual channel ddr4, l'hardware grafico ridondante e convertire le CU vega in hardware navi per avere una grossolana stima. Con molte incognite, visto che non si sa che hardware servirà per il ray tracing e la densità effettiva, ma sarebbe già qualcosa.

fraussantin
12-01-2020, 07:51
ovvio che sia cosi, mica dedicano una gpu per ogni utente, abbassi i dettagli a livello one x e ci metti 2utenti sopra e già hai dimezzato i costi

Ecco , quindi quei confronti non hanno senso. Almeno a livello di hw.



.

Ho trovato questa foto in rete ,
]https://uploads.tapatalk-cdn.com/20200112/d46823c5c2eb96726f4977b3b38e1fb1.jpg
non ho a portata di mano gli strumenti per fare il calcolo ( un semplice righello xD) di quanto occupa , ma " a braccia " molto poco

Ragazzi a me rimane il dubbio che quelli siano a 7+. Sono enormi e monolitici costerebbero un po' tantino ..
In ogni caso una 5700 a 7 nm occupa poco piú della metá , se quelli come dice Alessandro sono 400 mmq. ( 250 mmq) un 3700 senza i\o occupa uno sputo a confronto e rimane spazio per tutto il resto.

É anche vero che se fossero a 7+ ( ovviamente prototipi possibili ) potrebbero calare i costi di produzione impostando l'architettura con qualche cu spenta e core spento da tenere "di scorta"per diminuire gli scarti.

Gyammy85
12-01-2020, 08:16
C'è spazio a sufficienza per una rdna2 da 56 cu a 7 nm+ e coinciderebbe con i 12 tf

fraussantin
12-01-2020, 09:05
Il problema è che questa spiegazione è una SUA ipotesi, in realtà google non ha mai detto (a meno che me lo sono perso) che le risorse indicate vengano condivise, anzi ha detto che all'occorrenza si possono usare più istanze per ottenere ancora più potenza.


Poi se qualcuno trova qualcosa di ufficiale dove si dice che stadia su una Vega56 fa girare due utenti, ben venga.... Che poi se guardi le specifiche della GPU (una 580 con più sp, customizzazioni e memoria unificata e con solo qualche MHz di meno di clock) ti accorgi che se ci metti anche l'ottimizzazione in uno scenario GPU limited (4k) non è cosi irrealistico pensare che vada quanto una GPU discreta della fascia 1070/vega56Secondo me non é che una 56 viene usata da 2 utenti , ma che un PC con 20 Vega 56 ( numero a caso) serva ad gestire dai 25 ai 35 utenti a seconda del gioco e a seconda della affollamento e dalla qualità richiesta.

E questo tornerebbe anche col fatto che nelle ore di punta inl molti hanno notato un degrado di qualità dello streaming e della grafica e del framerate.

Almeno da quello che lessi nelle prime recensioni

fraussantin
12-01-2020, 09:25
E potrebbe essere un ragionamento logico che però renderebbe una truffa o quasi la dichiarazione che stadia offre 10.7tflop a chi si abbina a meno che avessero qualche clausola che dice "up to 10.7tflop, 5tflop (numero a caso) minimi garantito"

se guardiamo alle dichiarazioni ''truffa'' tanto vale iniziare a costruire carceri nuove perchè non bastano quelle attuali...

il fatto è che stadia è fatta solo da un tipo di gpu , non ha senso dedicare una vega 56 a chi non paga ( 1080p@30) e la solita anche a chi paga (4k@30~60 fps)

Free Gordon
12-01-2020, 09:55
Ho trovato queste fotine in rete ..

E' a 7nm+.. ed è più grande della OneX..

Mi sa che il bestio è in arrivo... :sofico: :oink:

Free Gordon
12-01-2020, 09:59
Ma è una supposizione o ci sono fonti o notizie a riguardo? Perché amd con quello che ha fatto sui ryzen non mi sembra da meno, anzi

Il problema per le GPU non è il protocollo di comunicazione, ma "come" effettivamente linkare le due (o più) GPU insieme.

Intel è l'unica per ora ad avere questa tecnologia, a meno che nello scambio con AMD non abbia "prestato" o venduto qualcosa anche a lei.

Sicuramente non l'ha fatto con Nvidia... :)

Mikael dice che l'MCM arriverà nel 22 per Nvidia.

Secondo me Intel ci arriva prima... e rischia di sbancare il tavolo... :fagiano:

Free Gordon
12-01-2020, 10:03
C'é tutto lo spazio per farci entrare un 3700 liscio e una 5700 xt piú collegamenti e modulo RT..
In quella vecchia quanto spazio occupava la gpu? ( Una 570 se non erro)
Ma é sicuro che stadia faccia usare una singola GPU per un singolo utente?
Perché con una Vega 56 si ottiene molto di piú di quello che offre . Non potrebbe essere un enorme multigpu che opera con piú istanze aperte?


Xbox seriesX avrà uno Zen2 8/16 e una RDNA2 da 52CU in sù.. (no 40 come Navi10). :)

Free Gordon
12-01-2020, 10:09
Con il doppio della densità ed un'area così ci sarà da divertirsi....
P.s. comparativa curiosa stadia vs one x su metro exodus, CPU tosta e Vega 56 10.7tflop vs Jaguar mexxa e simile polaris 6tflop :asd:
https://www.eurogamer.it/articles/2019-01-10-digitalfoundry-metro-exodus-stadia-vs-xbox-one-x-analisi-comparativa

Questo articolo per come è posto non ha alcun senso. :asd:

Stadia è un sistema cloud, con macchine virtuali. Non c'è semplicemente un hw dietro (come su pc, con driver ecc) ma una macchina virtuale.

Ora c'è da capire perché abbia performance più basse di OneX ma sinceramente non ci vedo nulla di strano... :)

Non è che ogni utente ha a disposizione una Vega56 con Zen annesso ecc ecc.. :asd:

Stadia è all'inizio, sicuramente avranno modo di migliorare, upgradare il sistema ecc ecc..

AceGranger
12-01-2020, 11:10
Il problema per le GPU non è il protocollo di comunicazione, ma "come" effettivamente linkare le due (o più) GPU insieme.

Intel è l'unica per ora ad avere questa tecnologia, a meno che nello scambio con AMD non abbia "prestato" o venduto qualcosa anche a lei.

Sicuramente non l'ha fatto con Nvidia... :)

Mikael dice che l'MCM arriverà nel 22 per Nvidia.

Secondo me Intel ci arriva prima... e rischia di sbancare il tavolo... :fagiano:

il canale di comunicazione lo hanno tutte e 3. IF puo essere usato anche con le GPU e nVlink puo essere usato tranquillamente die to die.

il problema è che le GPU utilizzerebbero il canale molto piu delle CPU e il consumo è ancora troppo elevato; a parita di silicio ( e architetture ad efficienza simili ), se le altre 2 faranno ancora GPU monolitiche, la prima che usera l'MCM perdera in prestazioni.

Windtears
12-01-2020, 12:11
Il problema per le GPU non è il protocollo di comunicazione, ma "come" effettivamente linkare le due (o più) GPU insieme.

Intel è l'unica per ora ad avere questa tecnologia, a meno che nello scambio con AMD non abbia "prestato" o venduto qualcosa anche a lei.

Sicuramente non l'ha fatto con Nvidia... :)

Mikael dice che l'MCM arriverà nel 22 per Nvidia.

Secondo me Intel ci arriva prima... e rischia di sbancare il tavolo... :fagiano:

dipende da quanto sia potente il singolo "core" grafico e la latenza introdotta, del resto la "colla" di amd per i ryzen è stata un successo, ma non erano core bulldozer. -.-

Free Gordon
12-01-2020, 12:11
il canale di comunicazione lo hanno tutte e 3. IF puo essere usato anche con le GPU e nVlink puo essere usato tranquillamente die to die.
il problema è che le GPU utilizzerebbero il canale molto piu delle CPU e il consumo è ancora troppo elevato; a parita di silicio ( e architetture ad efficienza simili ), se le altre 2 faranno ancora GPU monolitiche, la prima che usera l'MCM perdera in prestazioni.


Non sono convinto che ad oggi siano in grado tutte e tre di assemblare MCM allo stesso modo. :)
IF e Nvlink sono dei protocolli.. ma l'unica che può collegare in maniera efficiente più die con delle memorie, oggi è Intel.

Anche perdesse un po' in prestazioni, può fare dei mini-die talmente economici e parchi in consumo che non sarà un problema..

Credo che ne vedremo delle belle SE riescono a mettere tutto insieme. :D


dipende da quanto sia potente il singolo "core" grafico e la latenza introdotta, del resto la "colla" di amd per i ryzen è stata un successo, ma non erano core bulldozer. -.-

Esattamente. Dipende molto da quanto sarà potente il singolo core.. ma se fanno anche solo una GPU che compete con una RDNA1 da 22CU, ne vedremo delle belle.

Free Gordon
12-01-2020, 12:13
Il confronto sul piano tecnico lo ho spostato io, ma alla presentazione di stadia avevano detto "abbiamo un hw che offrirà performance superiori alle attuali midgen" all'atto pratico al massimo pareggia la one x.
Ora possiamo giudicare quello che c'è, non gli upgrade futuri

Marketing... come tutti... :)

Stadia è un sistema cloud, facilissimo che a seconda del gioco ci saranno prestazioni più o meno buone (anche perché dipende molto dal "porting" come viene fatto.. (e da chi lo fa aggiungerei :D )

Sostanzialmente è come una console appena uscita, ad oggi.

mikael84
12-01-2020, 15:36
Il problema per le GPU non è il protocollo di comunicazione, ma "come" effettivamente linkare le due (o più) GPU insieme.

Intel è l'unica per ora ad avere questa tecnologia, a meno che nello scambio con AMD non abbia "prestato" o venduto qualcosa anche a lei.

Sicuramente non l'ha fatto con Nvidia... :)

Mikael dice che l'MCM arriverà nel 22 per Nvidia.

Secondo me Intel ci arriva prima... e rischia di sbancare il tavolo... :fagiano:

MCM dovrebbe essere la prossima architettura nvidia, ed anche AMD potrebbe passare a tale soluzione.
Non ci sono più roadmap, ma so che almeno nvidia ci sta lavorando da anni, per ora non con otitmi risultati.
Lo standard MCM è purtroppo più complesso di quel che può sembrare, se d auna parte risparmi con i die, dall'altra spendi in l1,5 e dram molto veloci, nonchè collegamenti xbar.

Nei primi esperimenti, il MCM ha dimostrato di poter far funzionare 8196 e 16000k cc, fattore impensabile per un monolitico.
Tuttavia ci sono dei problemi, sopratutto via l2.
La l2 è collegata direttamente verso tutti gli SM nel monolitico, o meglio lo è anche sul MCM, ma non verso tutti i die.
Quindi sono 4 cache da l2 molto grosse verso il solo GPM (singolo die), non verso tutti e 4, dove tramite xbar accedono tutti e 4 i GPM.
Grossi problemi anche lato latenza ram, dove hanno constatato che con poca BW, il parallelismo crolla, per ovviare a questo, hanno deciso di elevare la BW sino a 3 tb/s, con risultati accettabili a partire da 1,5tb/s via HBM.

Ottimo paralellismo quindi, ma la latenza ram, continua ad essere un severo problema.
ddr normale 20/25ns
MCM: 100ns (4 volte in più mediamente).

Progetto in stand by quindi.
Tuttavia l'idea è quella di sprecare vari transistor e spazio per collegare 4 grosse l1,5, ovvero delle cache a cavallo tra la l1 e la l2. Si parla di cache di 16mb x4), delle vere l2 praticamente che permetterebbero di far dialogare al meglio i GPM, senza sprecare 32 cicli di clock di accesso e ridurre i vari accessi.

E' vero che è un tantino OT, in quanto riguarda nvidia, però è pur vero che le aziende ci stanno lavorando già da tempo e sicuramente, ora come ora avranno fatto passi da gigante.:)

thunderforce83
12-01-2020, 17:33
MCM dovrebbe essere la prossima architettura nvidia, ed anche AMD potrebbe passare a tale soluzione.
Non ci sono più roadmap, ma so che almeno nvidia ci sta lavorando da anni, per ora non con otitmi risultati.
Lo standard MCM è purtroppo più complesso di quel che può sembrare, se d auna parte risparmi con i die, dall'altra spendi in l1,5 e dram molto veloci, nonchè collegamenti xbar.

Nei primi esperimenti, il MCM ha dimostrato di poter far funzionare 8196 e 16000k cc, fattore impensabile per un monolitico.
Tuttavia ci sono dei problemi, sopratutto via l2.
La l2 è collegata direttamente verso tutti gli SM nel monolitico, o meglio lo è anche sul MCM, ma non verso tutti i die.
Quindi sono 4 cache da l2 molto grosse verso il solo GPM (singolo die), non verso tutti e 4, dove tramite xbar accedono tutti e 4 i GPM.
Grossi problemi anche lato latenza ram, dove hanno constatato che con poca BW, il parallelismo crolla, per ovviare a questo, hanno deciso di elevare la BW sino a 3 tb/s, con risultati accettabili a partire da 1,5tb/s via HBM.

Ottimo paralellismo quindi, ma la latenza ram, continua ad essere un severo problema.
ddr normale 20/25ns
MCM: 100ns (4 volte in più mediamente).

Progetto in stand by quindi.
Tuttavia l'idea è quella di sprecare vari transistor e spazio per collegare 4 grosse l1,5, ovvero delle cache a cavallo tra la l1 e la l2. Si parla di cache di 16mb x4), delle vere l2 praticamente che permetterebbero di far dialogare al meglio i GPM, senza sprecare 32 cicli di clock di accesso e ridurre i vari accessi.

E' vero che è un tantino OT, in quanto riguarda nvidia, però è pur vero che le aziende ci stanno lavorando già da tempo e sicuramente, ora come ora avranno fatto passi da gigante.:)
grande mikael...le tue spiegazioni richiederebbero una laurea in ingegneria ma e' bello capire le cose in anticipo(per quel poco che mi riesce leggendo questo), sicuramente la tua opinione conta molto per quanto mi riguarda...quindi questa sarebbe lo sviluppo di un'ulteriore architettura delle gpu di prossima generazione oppure parliamo di studi e basta?

Gyammy85
12-01-2020, 18:12
Ultimi aggiornamenti

https://i.postimg.cc/B6xgdqH6/photo-2020-01-12-17-50-30.jpg (https://postimg.cc/7GZ0zrB8)

mikael84
12-01-2020, 23:40
grande mikael...le tue spiegazioni richiederebbero una laurea in ingegneria ma e' bello capire le cose in anticipo(per quel poco che mi riesce leggendo questo), sicuramente la tua opinione conta molto per quanto mi riguarda...quindi questa sarebbe lo sviluppo di un'ulteriore architettura delle gpu di prossima generazione oppure parliamo di studi e basta?

E' un'architettura che nvidia, ma la stessa AMD studiano da anni, per sviare la complessa realizzazione dei padelloni monolitici.
Tuttavia nvidia almeno, aveva vari problemi inizialmente.:)

Ultimi aggiornamenti



72 RT significano 4608st. Il RT è importante accoppiarlo con le FP/int, altrimenti perdi prestazioni. Aggiungerle come unità separate che agiscono sugli stessi dati imporrebbe un overhead non indifferente di continue copie di dati. Il che appunto farebbe crollare le prestazioni.

72rt su 40DCU significa disaccoppiarli dal core ed utlizzarli tramite commando array.
12 o 18 per array.

Free Gordon
13-01-2020, 00:45
MCM dovrebbe essere la prossima architettura nvidia, ed anche AMD potrebbe passare a tale soluzione.
Non ci sono più roadmap, ma so che almeno nvidia ci sta lavorando da anni, per ora non con otitmi risultati.
Lo standard MCM è purtroppo più complesso di quel che può sembrare, se d auna parte risparmi con i die, dall'altra spendi in l1,5 e dram molto veloci, nonchè collegamenti xbar.
Nei primi esperimenti, il MCM ha dimostrato di poter far funzionare 8196 e 16000k cc, fattore impensabile per un monolitico.
Tuttavia ci sono dei problemi, sopratutto via l2.


Il fatto è che non sappiamo nulla dell'architettura Xe di Intel. :D

E' un errore paragonare le difficoltà che ha Nvidia ad adattare le proprie attuali archi al multichip-module, senza perdere troppe prestazioni alle eventuali difficoltà di Intel. Non si sa nulla di come è strutturato Xe.

Del resto un vecchio pallino di Raja...era proprio il multi-GPU. :D

Il problema di Nvidia (come di AMD) è che hanno evoluto le proprie architetture non pensando all'effettivo inserimento in un disegno modulare delle stesse, dato che era necessario (per loro) competere immediatamente con i chip piccoli, medi e grandi del diretto competitor. :)

Sicuramente ci stanno provando tutti... ma solo Intel, che è fuori dai giochi da sempre, ha la chance di farcela secondo me, avendo oltretutto la capacità realizzativa migliore tra le 3 in fatto di interconnessioni e processi produttivi (perlomeno parlando di basse frequenze).

mircocatta
13-01-2020, 10:08
E' un'architettura che nvidia, ma la stessa AMD studiano da anni, per sviare la complessa realizzazione dei padelloni monolitici.
Tuttavia nvidia almeno, aveva vari problemi inizialmente.:)



72 RT significano 4608st. Il RT è importante accoppiarlo con le FP/int, altrimenti perdi prestazioni. Aggiungerle come unità separate che agiscono sugli stessi dati imporrebbe un overhead non indifferente di continue copie di dati. Il che appunto farebbe crollare le prestazioni.

72rt su 40DCU significa disaccoppiarli dal core ed utlizzarli tramite commando array.
12 o 18 per array.
quindi presupponi che faranno il contrario di quello che suggerisci nel grassetto? (è quello che fa anche nvidia nelle RTX?)

ionet
13-01-2020, 15:53
Il fatto è che non sappiamo nulla dell'architettura Xe di Intel. :D

E' un errore paragonare le difficoltà che ha Nvidia ad adattare le proprie attuali archi al multichip-module, senza perdere troppe prestazioni alle eventuali difficoltà di Intel. Non si sa nulla di come è strutturato Xe.

Del resto un vecchio pallino di Raja...era proprio il multi-GPU. :D

Il problema di Nvidia (come di AMD) è che hanno evoluto le proprie architetture non pensando all'effettivo inserimento in un disegno modulare delle stesse, dato che era necessario (per loro) competere immediatamente con i chip piccoli, medi e grandi del diretto competitor. :)

Sicuramente ci stanno provando tutti... ma solo Intel, che è fuori dai giochi da sempre, ha la chance di farcela secondo me, avendo oltretutto la capacità realizzativa migliore tra le 3 in fatto di interconnessioni e processi produttivi (perlomeno parlando di basse frequenze).

quoto,il passaggio a MCM potrebbe compromettere buona parte dell'enorme know-how che Nvidia e AMD hanno nei confronti di Intel
i costi produttivi a nm inferiori aumentano sempre piu',il MCM e' obbligatorio
c'e' buona possibilita' quindi per un terzo competitore

per chi si chiede quanto si perde da un monolitico al mcm,il calcolo non va fatto solo direttamente a parita' di condizione
il vantaggio del mcm sono:

un piccolo chip costa meno progettarlo e produrlo,hai piu' rese,e' piu' versatile,cioe' puoi presentare piu' famiglie di prodotti basate sullo stesso chip
ma sopratutto un piccolo chip puo' immediatamente usare processi produttivi all'avanguardia;)

in altre parole non ci saranno piu' parita' di condizioni,un monolite da 7/800mm2 e' piu' costoso e meno versatile,ha meno rese e anzi per recuperarne il possibile si cutta,si usa nmetria matura,in saldo
ma cio' comporta che esci per ultimo,in ritardo,a giochi fatti quando sta per uscire la nuova gpu mcm che la mettera' di nuovo in ombra

la domanda giusta e',se e' meglio un enorme monolite di precedente generazione o un mcm di nuova?

una risposta possiamo trovarla da un esempio pratico,e' sotto gli occhi di tutti,Zen2 si basa su piccoli chip a 7nm ma il vantaggio sulla densita'(tanti core),e consumi piu' bassi hanno messo fuori gioco tutti i monolitici anche multichip di precedente nanometria di Intel;)

mikael84
13-01-2020, 18:07
Il fatto è che non sappiamo nulla dell'architettura Xe di Intel. :D

E' un errore paragonare le difficoltà che ha Nvidia ad adattare le proprie attuali archi al multichip-module, senza perdere troppe prestazioni alle eventuali difficoltà di Intel. Non si sa nulla di come è strutturato Xe.

Del resto un vecchio pallino di Raja...era proprio il multi-GPU. :D

Il problema di Nvidia (come di AMD) è che hanno evoluto le proprie architetture non pensando all'effettivo inserimento in un disegno modulare delle stesse, dato che era necessario (per loro) competere immediatamente con i chip piccoli, medi e grandi del diretto competitor. :)

Sicuramente ci stanno provando tutti... ma solo Intel, che è fuori dai giochi da sempre, ha la chance di farcela secondo me, avendo oltretutto la capacità realizzativa migliore tra le 3 in fatto di interconnessioni e processi produttivi (perlomeno parlando di basse frequenze).

Non sappiamo se si parta direttamente sul monolitico o multichip.
L'architettura intel cmq, dovrebbe essere la classica, con le execution unit.
Quindi geometria- EU x 8 core, cache.
In un monolitico potrebbe andare di 4 engine per 256 EU, ovvero 2048 processor.
L'obbiettivo è raggiungere le 512 EU, questo richiederebbe per ora 8 engine.
Intel pare dichiarare che le EU da 128 possono andare quanto una 1650 o relativa AMD. Il che è pure probabile, pensando ai nuovi clock ed ai praticamente 1024 core.
Il monolitico base potrebbe quindi essere paragonabile a navi liscia 2060/super, sopratutto via ddr6 e piena larghezza.

Non sappiamo effettivamente come gestirà le EU sopra tale cifra, in quanto con 512 EU potrebbe raggiungere prestazioni molto elevate.
per dire, con 4 chip, potresti prendere anche 8196 core.:fagiano:

quindi presupponi che faranno il contrario di quello che suggerisci nel grassetto? (è quello che fa anche nvidia nelle RTX?)

Nvidia le ha integrate tra fp ed int non slegate.
Tuttavia, non sappiamo ancora se il rapporto di AMD è corretto su big navi.

Gyammy85
13-01-2020, 21:17
https://i.postimg.cc/fTMdVVWK/Annotazione-2020-01-13-221512.jpg (https://postimg.cc/yWrx5YZg)

amon.akira
13-01-2020, 21:47
rdna2 +50% rispetto a rdna1 a parità di consumo (https://www.overclock3d.net/news/gpu_displays/amd_s_rdna_2_architecture_will_deliver_major_performance_efficiency_improvements_-_rumour/1)

Ale55andr0
13-01-2020, 21:57
rdna2 +50% rispetto a rdna1 a parità di consumo (https://www.overclock3d.net/news/gpu_displays/amd_s_rdna_2_architecture_will_deliver_major_performance_efficiency_improvements_-_rumour/1)


...dunque dunque dunque...se faranno un chip full da 500mm^2, ipotizzando a spanne 80cu/5120sp avremmo, diciamo con un soft spot intorno ai 1700mhz prima di arrivare alla fusione del nocciolo per richiesta di tensioni spropositate, una gpu da 17.4 terafloppi, quindi un 70% spannometrico più di una 5700xt....ma se rdna2, a pari consumo di una ipotetica rdna 1 da 17.4 tfloppi ha il 50% di performance in più....naaa, troppo burro a fontanella mi pare, per essere realistico, sarebbe una roba mostruosa

The_SaN
13-01-2020, 21:58
rdna2 +50% rispetto a rdna1 a parità di consumo (https://www.overclock3d.net/news/gpu_displays/amd_s_rdna_2_architecture_will_deliver_major_performance_efficiency_improvements_-_rumour/1)

Stando alle slide di TSMC con il pp guadagni circa il 10-15% in efficienza, quindi se dovesse essere vero, avremo un MIRACOLO architetturale.

The_SaN
13-01-2020, 22:01
...dunque dunque dunque...se faranno un chip full da 500mm^2, ipotizzando a spanne 80cu/5120sp avremmo, diciamo con un soft spot intorno ai 1700mhz prima di arrivare alla fusione del nocciolo per richiesta di tensioni spropositate, una gpu da 17.4 terafloppi, quindi un 70% spannometrico più di una 5700xt....ma se rdna2, a pari consumo di una ipotetica rdna 1 da 17.4 tfloppi ha il 50% di performance in più....naaa, troppo burro a fontanella mi pare, per essere realistico, sarebbe una roba mostruosa

Esatto, sembra troppo pure a me. Non siamo ai livelli assurdi del rumor su nVidia, ma ripeto, è davvero moooooolto ottimista...

Ale55andr0
13-01-2020, 22:17
Esatto, sembra troppo pure a me. Non siamo ai livelli assurdi del rumor su nVidia, ma ripeto, è davvero moooooolto ottimista...

il rumor su nvidia, almeno in parte, è assolutamente realistico: lato prestazioni il 50% in più fra nuova architettura e nuovo pp ci sta tutto. Che sia contemporaneo al dimezzamento dei consumi, ecco, quello mi pare una stronzata :asd:
Oh, poi se ci riescono tanto di cappello, ma le vga verdi non costeranno più un rene, ma un polmone + conguaglio a scelta fra occhio della testa e testicolo più grande :asd:

Stando alle slide di TSMC con il pp guadagni circa il 10-15% in efficienza, quindi se dovesse essere vero, avremo un MIRACOLO architetturale.

o più che altro la dimostrazione che hanno propinato un'architettura che è stata un colabrodo reiterato per anni e migliorato una nticchia alla volta, finalmente sostituita con qualcosa di concreto dopo aver avuto più liquidità per r&d grazie a zen

amon.akira
13-01-2020, 22:21
be dimenticate che come arch amd è dietro, abbiamo una 5700xt a 7nm vs una 2070super a 12nm e nonostrante ciò consuma (+30w) di piu e non ha rt.

quindi 15%nodo e 35%arch ci sta, altrimenti non recupererà mai lo svantaggio

Ale55andr0
13-01-2020, 22:25
be dimenticate che come arch amd è dietro, abbiamo una 5700xt a 7nm vs una 2070super a 12nm e nonostrante ciò consuma (+30w) di piu e non ha rt.

quindi 15%nodo e 35%arch ci sta, altrimenti non recupererà mai lo svantaggio

considera anche che è tarata a muzzo come al solito lato vcore, perchè come chippetto da 250mm è pazzesco quel che fa, visto che nei casi favorevoli va a tediare una 2080 grande quanto una piazza d'armi. Comunque vedremo...si prospettano cose molto interessanti lato gpu sia da una parte che dall'altra e finalmente abbiamo anche concorrenza lato proci, con amd che sta tirando calci sulle gengive a intel a botte di +15% di ipc e consumi al ribasso a ogni uscita :asd:

mikael84
13-01-2020, 23:33
...dunque dunque dunque...se faranno un chip full da 500mm^2, ipotizzando a spanne 80cu/5120sp avremmo, diciamo con un soft spot intorno ai 1700mhz prima di arrivare alla fusione del nocciolo per richiesta di tensioni spropositate, una gpu da 17.4 terafloppi, quindi un 70% spannometrico più di una 5700xt....ma se rdna2, a pari consumo di una ipotetica rdna 1 da 17.4 tfloppi ha il 50% di performance in più....naaa, troppo burro a fontanella mi pare, per essere realistico, sarebbe una roba mostruosa

Probabilmente i 7nm+ permetteranno ad AMD di salire di clock. Silicio avanzato, consumi minori, chip rivisitati (basta utilizzare i transistor in base alla dispersione, più lenti con meno dispersione di corrente in parti meno sensibili, e quelli a pià dispersione in altre aree, basta un minimo di lavoro elettrico).
Oppure ancora, rivedere le connessioni lente che degradano il clock massimo.

Tralasciando che quel link significa nulla, come la sparata di quello nvidia.
In pratica dice che riusciranno a fare quanto una 2080ti a 225watt, considerando anche le probabili HBM.

Il fatto che sia molto più grande non vuol dire per forza tutto.
La 590 consuma pari o spesso di più di una vega 56, con meno della metà dei transistor.:)

Ton90maz
14-01-2020, 00:01
Questo articolo per come è posto non ha alcun senso. :asd:

Stadia è un sistema cloud, con macchine virtuali. Non c'è semplicemente un hw dietro (come su pc, con driver ecc) ma una macchina virtuale.

Ora c'è da capire perché abbia performance più basse di OneX ma sinceramente non ci vedo nulla di strano... :)

Non è che ogni utente ha a disposizione una Vega56 con Zen annesso ecc ecc.. :asd:

Stadia è all'inizio, sicuramente avranno modo di migliorare, upgradare il sistema ecc ecc..

Qualcuno invece credeva che più schede video sarebbero state a disposizione del singolo utente :asd:

The_SaN
14-01-2020, 00:48
il rumor su nvidia, almeno in parte, è assolutamente realistico: lato prestazioni il 50% in più fra nuova architettura e nuovo pp ci sta tutto. Che sia contemporaneo al dimezzamento dei consumi, ecco, quello mi pare una stronzata :asd:
Oh, poi se ci riescono tanto di cappello, ma le vga verdi non costeranno più un rene, ma un polmone + conguaglio a scelta fra occhio della testa e testicolo più grande :asd:

Il +50% di prestazioni è il minimo che mi aspetto dopo un passaggio da 12nm a 7nm+... se fanno bene le cose non vedo impossibile nemmeno un +70% e valori più elevati in RT, basta non andare al risparmio :)

Il problema della sparata era il 300% (+200%) di efficienza, roba da fantascienza proprio :D

o più che altro la dimostrazione che hanno propinato un'architettura che è stata un colabrodo reiterato per anni e migliorato una nticchia alla volta, finalmente sostituita con qualcosa di concreto dopo aver avuto più liquidità per r&d grazie a zen

Pure, comunque RDNA nella sua prima versione ha migliorato molto l'efficienza nello sfruttamento delle risorse.

be dimenticate che come arch amd è dietro, abbiamo una 5700xt a 7nm vs una 2070super a 12nm e nonostrante ciò consuma (+30w) di piu e non ha rt.

quindi 15%nodo e 35%arch ci sta, altrimenti non recupererà mai lo svantaggio

Dimentichi che la 5700XT è un chip grosso la metà rispetto alla 2070s, ed è pure tirato per le palle a 1.2V.

FroZen
14-01-2020, 08:10
be dimenticate che come arch amd è dietro, abbiamo una 5700xt a 7nm vs una 2070super a 12nm e nonostrante ciò consuma (+30w) di piu e non ha rt.

se attivi rt sulla 2070 diventa una GTX560 però....

FroZen
14-01-2020, 08:11
...dunque dunque dunque...se faranno un chip full da 500mm^2, ipotizzando a spanne 80cu/5120sp avremmo, diciamo con un soft spot intorno ai 1700mhz prima di arrivare alla fusione del nocciolo per richiesta di tensioni spropositate, una gpu da 17.4 terafloppi, quindi un 70% spannometrico più di una 5700xt....ma se rdna2, a pari consumo di una ipotetica rdna 1 da 17.4 tfloppi ha il 50% di performance in più....naaa, troppo burro a fontanella mi pare, per essere realistico, sarebbe una roba mostruosa

i proclami di marketing sono sempre opachi sullo scenario nel quale quel boost avviene....ed è sempre un "up to"....ecco sgonfiato il tutto senza manco sapere l'architettura...

AceGranger
14-01-2020, 08:45
Dimentichi che la 5700XT è un chip grosso la metà rispetto alla 2070s, ed è pure tirato per le palle a 1.2V.

ma anche no....

la 5700XT ha 10,8 Miliardi di Transitor
la 2070 ha 10,3 Miliardi di Transistor
la 2070s ha 13,6 Miliardi di Transistor ( ma ovviamente essendo cuttata non li usa tutti )

https://www.techpowerup.com/gpu-specs/radeon-rx-5700-xt.c3339
https://www.techpowerup.com/gpu-specs/geforce-rtx-2070.c3252
https://www.techpowerup.com/gpu-specs/geforce-rtx-2070-super.c3440


la 5700XT è esattamente "grande" come la 2070/2070S, è piu "piccola" solo per il pp a 7nm e in piu non ha manco la parte Tensor/RT

questo vuol dire che è DIETRO in arch, perchè a conti fatti gli servono PIU transistor e un pp di vantaggio per ottenere stesse prestazioni ed efficienza simile.


questa cosa che il chip è piu piccolo è semplicemente una balla ;) e lo vedrai benissimo fra poco quando saranno entrambe a 7nm+.

Gyammy85
14-01-2020, 09:00
Giusto per chiarire la situazione consumi

https://static.techspot.com/articles-info/1907/bench/Power-1.png

https://tpucdn.com/review/amd-radeon-rx-5700-xt/images/power-gaming-average.png

amon.akira
14-01-2020, 12:32
se attivi rt sulla 2070 diventa una GTX560 però....

... e se lo attivi sulla 5700xt diventa una 9700pro :asd:

amon.akira
14-01-2020, 12:47
Senza contare che le tensioni sono sparate in alto per recuperare chip sulla produzione, altrimenti consumerebbe anche meno

Inviato dal mio Redmi 7A utilizzando Tapatalk


appunto sulla carta abbiamo 225 vs 215 e già sono +10, mettici che sono tirate per il collo quindi nell uso reale hai piu margine sulla super un +30 sono realistisci, cmq non mi sembra un vanto stiamo sempre discutendo di un 7nm vs un 12nm e sempre senza rt XD

strange brigade titolo prettamente amd, 1440p (https://static.techspot.com/articles-info/1902/bench/SB.png)

37 titoli 4k, da notare su metro un -22% (https://static.techspot.com/articles-info/1902/bench/4K.png)

quindi si, amd sta dietro in arch e DEVE recuperare, altrimenti addio concorrenza.

... è inutile che vogliate far credere che già sono in pari

nessuno29
14-01-2020, 14:23
In questo thread si guardano anche i 10 watt su 200 di consumo, in altri thread ci si diverte a consumare 400w con bios moddati. Come cambiano le prospettive. Capisco differenze grosse però le molliche no e dai.

Confrontando tra l'altro una scheda che parte da 380 euro con una da 470, uscita grazie alla concorrenza dell'altra.

DuttZ
14-01-2020, 14:32
appunto sulla carta abbiamo 225 vs 215 e già sono +10, mettici che sono tirate per il collo quindi nell uso reale hai piu margine sulla super un +30 sono realistisci, cmq non mi sembra un vanto stiamo sempre discutendo di un 7nm vs un 12nm e sempre senza rt XD



strange brigade titolo prettamente amd, 1440p (https://static.techspot.com/articles-info/1902/bench/SB.png)



37 titoli 4k, da notare su metro un -22% (https://static.techspot.com/articles-info/1902/bench/4K.png)



quindi si, amd sta dietro in arch e DEVE recuperare, altrimenti addio concorrenza.



... è inutile che vogliate far credere che già sono in pariNon importa però l'architettura, è importante quello che si può acquistare ora, consumano uguale e nel 90% dei casi nessuno si chiede altro.

Il range di acquisto di massa è ordinato in questo modo:

Prezzo-prestazioni-consumo

Delle architetture si discute nei forum, alle aziende invece importa vendere e presentano prodotti acquistabili.

Cosa c'è oggi per le prestazioni X a prezzo Y e consumo Z?

È l'unica domanda, poi puoi stare qua a menare quanto vuoi sullo sviluppo delle tecnologie, siamo in qualche decina a parlare di questo in questo forum, e anche insieme a tutti i thread della terra non sfioriamo nemmeno il numero di vendita di un determinato prodotto.

Inviato dal mio Redmi 7A utilizzando Tapatalk

Ton90maz
14-01-2020, 15:20
Posso capire la mancanza degli RT core, ma che importa se ci sono tensor core o altri pezzi di silicio tumorale che non vengono usati quasi mai? Sarebbe come dire che pascal faceva cacare e che, per un confronto con le amd baracca (vega), avrebbero dovuto inserire quintali di transistor e CU inutili, per eguagliare la scheda video in contesti che non fregano a nessuno.

Ale55andr0
14-01-2020, 15:35
alla fine conta solo una cosa, anzi due: quanto vanno, quanto costano, il come ci arrivano sono mazzi rosso-verdi. In generale però il mercato non si è più risanato dal dopo mining: le fasce di prezzo sono belle che sputtanate al rialzo in modo assolutamente ingiustificato, il che è male. Se solo avessimo "autocontrollo" e non comprassimo una mazza invece di entusiasmarci considerando 7-800 euro un buon prezzo (:eek: ) per una top di gamma solo perchè meno inculante di 1000+... :muro:

ninja750
14-01-2020, 15:49
alla fine conta solo una cosa, anzi due: quanto vanno, quanto costano, il come ci arrivano sono mazzi rosso-verdi. In generale però il mercato non si è più risanato dal dopo mining: le fasce di prezzo sono belle che sputtanate al rialzo in modo assolutamente ingiustificato, il che è male. Se solo avessimo "autocontrollo" e non comprassimo una mazza invece di entusiasmarci considerando 7-800 euro un buon prezzo (:eek: ) per una top di gamma solo perchè meno inculante di 1000+... :muro:

sulla fascia uber top chi se ne frega, ci sta che uno se vuole spenda sto stipendio in una vga

quello che non ci sta è avere fascia "media" cioè 2060/s e 5700/xt a ++400€ e quella alta 2070s a +500€

e chiamare "bassa" roba che va come o poco più delle vecchie 580/1060

Ale55andr0
14-01-2020, 16:05
https://videocardz.com/newz/afox-submits-radeon-rx-5950xt-rx-5950-rx-5900-and-rx-5800-xt-to-eec

The_SaN
14-01-2020, 16:47
ma anche no....

la 5700XT ha 10,8 Miliardi di Transitor
la 2070 ha 10,3 Miliardi di Transistor
la 2070s ha 13,6 Miliardi di Transistor ( ma ovviamente essendo cuttata non li usa tutti )

https://www.techpowerup.com/gpu-specs/radeon-rx-5700-xt.c3339
https://www.techpowerup.com/gpu-specs/geforce-rtx-2070.c3252
https://www.techpowerup.com/gpu-specs/geforce-rtx-2070-super.c3440


la 5700XT è esattamente "grande" come la 2070/2070S, è piu "piccola" solo per il pp a 7nm e in piu non ha manco la parte Tensor/RT

questo vuol dire che è DIETRO in arch, perchè a conti fatti gli servono PIU transistor e un pp di vantaggio per ottenere stesse prestazioni ed efficienza simile.


questa cosa che il chip è piu piccolo è semplicemente una balla ;) e lo vedrai benissimo fra poco quando saranno entrambe a 7nm+.

La 2070 e la 2070s sono abbastanza diverse eh :D
Che AMD sia indietro come architettura è abbastanza evidente, come era evidente pure il taget originale della 5700XT, ovvero stare tra la 2060 e la 2070. Questo proprio per i limiti architetturali a livello di performance/transistors.
Poi hanno deciso di tirarla per le palle e farle superare la 2070 a discapito dell'efficienza generale.

La 5700XT è stata una scheda per fare soldi e nient'altro. Non è nemmeno male, ma con i 7nm+ secondo me vedremo roba più bilanciata.

mikael84
14-01-2020, 18:01
ma anche no....

la 5700XT ha 10,8 Miliardi di Transitor
la 2070 ha 10,3 Miliardi di Transistor
la 2070s ha 13,6 Miliardi di Transistor ( ma ovviamente essendo cuttata non li usa tutti )

https://www.techpowerup.com/gpu-specs/radeon-rx-5700-xt.c3339
https://www.techpowerup.com/gpu-specs/geforce-rtx-2070.c3252
https://www.techpowerup.com/gpu-specs/geforce-rtx-2070-super.c3440


la 5700XT è esattamente "grande" come la 2070/2070S, è piu "piccola" solo per il pp a 7nm e in piu non ha manco la parte Tensor/RT

questo vuol dire che è DIETRO in arch, perchè a conti fatti gli servono PIU transistor e un pp di vantaggio per ottenere stesse prestazioni ed efficienza simile.


questa cosa che il chip è piu piccolo è semplicemente una balla ;) e lo vedrai benissimo fra poco quando saranno entrambe a 7nm+.

Che non è proprio poco, il 18% del chip circa.:p
I tensor sono veri e propri mattoni.
In pratica è 10,89mm2 il l'SMM completo di P.E. (tensor/rt)
8,95 circa la versione TU116/7 con i tensor riciclati per fare FP16 in contemporanea.
7,69mm2 senza tensor ed RT (un SM con RT è tensor è più grande il 41%)

GPC solo calcolo 72mm2 (65mm i 6 TPC, 7mm2 il raster)
GPC senza RT 53mm2.
Praticamente una 2070super senza RT/tensor/fp16 (accoppiata ai core fp32) e GPC sarebbe da 424mm2.

Chiudo OT.

DuttZ
14-01-2020, 20:17
alla fine conta solo una cosa, anzi due: quanto vanno, quanto costano, il come ci arrivano sono mazzi rosso-verdi. In generale però il mercato non si è più risanato dal dopo mining: le fasce di prezzo sono belle che sputtanate al rialzo in modo assolutamente ingiustificato, il che è male. Se solo avessimo "autocontrollo" e non comprassimo una mazza invece di entusiasmarci considerando 7-800 euro un buon prezzo (:eek: ) per una top di gamma solo perchè meno inculante di 1000+... :muro:A me sembra che sta cosa sia successa un po' su tutto, ora uno smartphone di fascia media ti costa dai 300&euro; ai 400&euro; e passa...

Fra qualche anno ci costerà la fascia bassa così...

Inviato dal mio Redmi 7A utilizzando Tapatalk

aled1974
14-01-2020, 21:32
A me sembra che sta cosa sia successa un po' su tutto...

ahimè quoto, in ambito fotografico è stata ed è tuttora un'impennata anche peggiore, per dire. E più marcata proprio nel segmento medio-basso :cry:

ciao ciao

GreenHunter
14-01-2020, 21:36
Io non vedo l' ora di vedere il Raytracing su schede amd

amon.akira
14-01-2020, 23:10
Io non vedo l' ora di vedere il Raytracing su schede amd

idem, chissà se sarà accolto come silicio sprecato :)

thunderforce83
14-01-2020, 23:44
appunto sulla carta abbiamo 225 vs 215 e già sono +10, mettici che sono tirate per il collo quindi nell uso reale hai piu margine sulla super un +30 sono realistisci, cmq non mi sembra un vanto stiamo sempre discutendo di un 7nm vs un 12nm e sempre senza rt XD

strange brigade titolo prettamente amd, 1440p (https://static.techspot.com/articles-info/1902/bench/SB.png)

37 titoli 4k, da notare su metro un -22% (https://static.techspot.com/articles-info/1902/bench/4K.png)

quindi si, amd sta dietro in arch e DEVE recuperare, altrimenti addio concorrenza.

... è inutile che vogliate far credere che già sono in pari

quello che ho provato a spiegare in tutti i modi nell altro thread:) ;)

mircocatta
15-01-2020, 08:35
A me sembra che sta cosa sia successa un po' su tutto, ora uno smartphone di fascia media ti costa dai 300&euro; ai 400&euro; e passa...

Fra qualche anno ci costerà la fascia bassa così...

Inviato dal mio Redmi 7A utilizzando Tapatalk

mah insomma, nel 2013 a fascia alta della telefonia costava già attorno ai 500-550€, la media 200€ in meno, un po come oggi

mircocatta
15-01-2020, 08:37
idem, chissà se sarà accolto come silicio sprecato :)

beh, se avessi una rtx ( ipotizziamo una rtx 2080) mi girerebbero assai le OO, silicio sprecato per i pochi giochi con rtx (di cui non ne ho neanche mezzo) e ancora qualche mese di vita prima che venga piallata e svalutata dalla mid della nuova generazione, sia da parte di nvidia stessa che amd

Jeetkundo
15-01-2020, 08:47
Serve una 5950xt a 700-800 euro e che vada almeno come o oltre la 2080ti. Così rivoluzioniamo un po' il mercato in tutte le fasce.

Gyammy85
15-01-2020, 09:11
...dunque dunque dunque...se faranno un chip full da 500mm^2, ipotizzando a spanne 80cu/5120sp avremmo, diciamo con un soft spot intorno ai 1700mhz prima di arrivare alla fusione del nocciolo per richiesta di tensioni spropositate, una gpu da 17.4 terafloppi, quindi un 70% spannometrico più di una 5700xt....ma se rdna2, a pari consumo di una ipotetica rdna 1 da 17.4 tfloppi ha il 50% di performance in più....naaa, troppo burro a fontanella mi pare, per essere realistico, sarebbe una roba mostruosa

Stando alle slide di TSMC con il pp guadagni circa il 10-15% in efficienza, quindi se dovesse essere vero, avremo un MIRACOLO architetturale.

Tranquilli che appena esce "ma è il minimo che potessero fare dai"

alla fine conta solo una cosa, anzi due: quanto vanno, quanto costano, il come ci arrivano sono mazzi rosso-verdi. In generale però il mercato non si è più risanato dal dopo mining: le fasce di prezzo sono belle che sputtanate al rialzo in modo assolutamente ingiustificato, il che è male. Se solo avessimo "autocontrollo" e non comprassimo una mazza invece di entusiasmarci considerando 7-800 euro un buon prezzo (:eek: ) per una top di gamma solo perchè meno inculante di 1000+... :muro:

Mi è oscuro questo meccanismo, c'è una fase tik in cui "spendo qualunque cifra per il meglio", poi una fase tok "ehhhh? ma sono pazzi tutti sti soldi", e amd si trova sempre nella fase tok, intel\nvidia nella fase tik

idem, chissà se sarà accolto come silicio sprecato :)

Si è detto più volte che amd molto probabilmente andrà di cu potenziate per avere rt+raster

mah insomma, nel 2013 a fascia alta della telefonia costava già attorno ai 500-550€, la media 200€ in meno, un po come oggi

I top di gamma sono aumentati dal primo iphone in poi, dato che era tutto un prendere in giro la gente che pensava che la gente non avrebbe mai speso 700 euro per un telefono ah ah ah

Serve una 5950xt a 700-800 euro e che vada almeno come o oltre la 2080ti. Così rivoluzioniamo un po' il mercato in tutte le fasce.

Su arch nuova e 7 nm+ si può fare tranquillamente +70% su 5700xt come top e andare a coprire la fascia tra 3080 e 3080ti ipotetiche, anche se ormai con le dx12 che prendono sempre più piede amd avrà molte meno difficoltà e non ci sarà più codice troppo ostile

Ale55andr0
15-01-2020, 09:44
Tranquilli che appena esce "ma è il minimo che potessero fare dai"



Mi è oscuro questo meccanismo, c'è una fase tik in cui "spendo qualunque cifra per il meglio", poi una fase tok "ehhhh? ma sono pazzi tutti sti soldi", e amd si trova sempre nella fase tok, intel\nvidia nella fase tik




facciamo che ti rimetto i nignore e amen, per la terza volta, ma stavolta non ci sarà un de-block me ne guardo bene. Non ho nemmeno lontanamente voglia di spiegare perchè, come al solito, deliri a sproposito e in modo ormai patologico e programmato, oserei dire. Sappi solo che di soggetti come te su internet io non ne ho mai visti, tranne forse, uno, ma su un sito che parlava di tutt'altro e che ormai vivvaddio si è ritirato dal "mestiere"

Ale55andr0
15-01-2020, 09:48
https://wccftech.com/mysterious-amd-radeon-rx-5950-xt-flagship-gpu-spotted-in-eec-registration-is-this-big-navi/ (notizia ripresa da quella di videocardz)


https://wccftech.com/amd-ryzen-4000-renoir-vega-gpu-versus-intel-ice-lake-gen-11-gpu/

ammesso sia una immagine vera, interessante un confronto spannometrico con la apu di xbox series x lato dimensioni, evidentemente le cpu su console avranno davvero una L3 ridotta di un bel po' per ospitare molte più CU lato gpu

Gyammy85
15-01-2020, 10:05
facciamo che ti rimetto i nignore e amen, per la terza volta, ma stavolta non ci sarà un de-block me ne guardo bene. Non ho nemmeno lontanamente voglia di spiegare perchè, come al solito, deliri a sproposito e in modo ormai patologico e programmato, oserei dire. Sappi solo che di soggetti come te su internet io non ne ho mai visti, tranne forse, uno, ma su un sito che parlava di tutt'altro e che ormai vivvaddio si è ritirato dal "mestiere"

Ma non era riferito a te, figurati

Gyammy85
15-01-2020, 10:13
https://wccftech.com/mysterious-amd-radeon-rx-5950-xt-flagship-gpu-spotted-in-eec-registration-is-this-big-navi/ (notizia ripresa da quella di videocardz)


https://wccftech.com/amd-ryzen-4000-renoir-vega-gpu-versus-intel-ice-lake-gen-11-gpu/

ammesso sia una immagine vera, interessante un confronto spannometrico con la apu di xbox series x lato dimensioni, evidentemente le cpu su console avranno davvero una L3 ridotta di un bel po' per ospitare molte più CU lato gpu

Quei nomi registrati non corrispondono necessariamente a vga che poi escono, però sono nuove entry, quindo almeno due di quelle esistono

Per il resto, si sono riusciti a far rendere le cu di vega quasi quanto quelle di navi in pratica se è +59%, e infatti nell'intervista a Lisa su lei indicava potenzialità simili anche per navi

C'è anche un leak del 4800H con presumo la 5600m, che batte sia in graphics che in physics score il 9880H con la 2060

argez
15-01-2020, 10:37
Serve una 5950xt a 700-800 euro e che vada almeno come o oltre la 2080ti. Così rivoluzioniamo un po' il mercato in tutte le fasce.

Tranquillo...ormai amd si è adeguata al cartello, basti vedere il troiaio della 5500xt...tralasciando la rimarchiatura e il cambio di fascia di prezzo che hanno fatto con le 5700. Quando uscirà big navi o come lo vorranno chiamare, sarà allineato ai prezzi nvidia. Non avrei mai pensato di scriverlo ma spero fortemente in intel.

DuttZ
15-01-2020, 11:30
mah insomma, nel 2013 a fascia alta della telefonia costava già attorno ai 500-550€, la media 200€ in meno, un po come oggiOggi la fascia alta dei telefonini sta intorno ai 800/1000 e non 550... Chiuso OT

Inviato dal mio Redmi 7A utilizzando Tapatalk

fraussantin
15-01-2020, 11:36
Oggi la fascia alta dei telefonini sta intorno ai 800/1000 e non 550... Chiuso OT

Inviato dal mio Redmi 7A utilizzando TapatalkSui telefoni per fortuna c'é concorrenza , ci sono fasce alte per tutte le tasche.

Jeetkundo
15-01-2020, 11:49
È giusto che chi avalla (acquistando) certe soluzioni a >1200€ per stare stretti continui a pagarle tanto e che se proprio ha da chiedere il regalo lo chieda ad nVidia come premio fedeltà.


Intel non ha mai dato alcun premio fedeltà ai suoi acquirenti, ci è voluta Amd per fargli ritoccare i prezzi (almeno della serie 10).

In ambito vga è la stessa cosa, sicuramente Nvidia non mi piazza la 3080ti a 700-800 euro.

Se AMD mi fa quindi un regalo io lo accetto volentieri e posso anche valutare l'acquisto - ho preso un monitor compatibile proprio per quello.


Sulle vga da 1200 euro hai ragione, sono prezzi da ladri***


***E se per caso c'era un velato riferimento al mio setup aggiungo che ho pagato "solo" 400€ per il mio upgrade, altrimenti non avrei mai speso quella cifra per una vga ;)

ionet
15-01-2020, 11:58
https://wccftech.com/mysterious-amd-radeon-rx-5950-xt-flagship-gpu-spotted-in-eec-registration-is-this-big-navi/ (notizia ripresa da quella di videocardz)


https://wccftech.com/amd-ryzen-4000-renoir-vega-gpu-versus-intel-ice-lake-gen-11-gpu/

ammesso sia una immagine vera, interessante un confronto spannometrico con la apu di xbox series x lato dimensioni, evidentemente le cpu su console avranno davvero una L3 ridotta di un bel po' per ospitare molte più CU lato gpu

sono solo 150mm2 scarsi il doppio di un chiplet ma c'e' tutto,cpu,I/O e gpu

https://www.anandtech.com/show/15381/amd-ryzen-mobile-4000-measuring-renoirs-die-size

per scarlett forse usano i 7nm+ a spanne tanta roba:D

Ale55andr0
15-01-2020, 14:11
Ma non era riferito a te, figurati

per questo era su mio quote :asd:

cmq la funzione ignore mi sa che non funziona visto che "ti vedo" :asd:


sarà che devo deloggarmi e riloggarmi :fagiano:

Ale55andr0
15-01-2020, 14:14
sono solo 150mm2 scarsi il doppio di un chiplet ma c'e' tutto,cpu,I/O e gpu

https://www.anandtech.com/show/15381/amd-ryzen-mobile-4000-measuring-renoirs-die-size

per scarlett forse usano i 7nm+ a spanne tanta roba:D

la prospettiva ingannava, pareva un chippazzo da 400mm2

Gyammy85
15-01-2020, 16:14
per questo era su mio quote :asd:

cmq la funzione ignore mi sa che non funziona visto che "ti vedo" :asd:


sarà che devo deloggarmi e riloggarmi :fagiano:

Nel senso che parlavo in generale

la prospettiva ingannava, pareva un chippazzo da 400mm2

Scarlett è data da 410 mm2 a 7 nm+

Free Gordon
16-01-2020, 00:06
Scarlett è data da 410 mm2 a 7 nm+


I presupposti per una console "mostruosa" ci sono tutti.... :oink: :oink: :oink:

fraussantin
16-01-2020, 07:07
Gli ultimi leak sono riepilogati in questa tabella

Qui parlano di zen2 7nm e una navi a 56 unità ( sicuramente a frequenza bassa) con 12 tf. Potrebbe essere credibile visti i 405mmq.

Dove li avete letti i 7+, e quindi zen3 ,su Xbox?https://uploads.tapatalk-cdn.com/20200116/ab4df8588bbf6a145bceda8ff8ccfd4d.jpg

Gyammy85
16-01-2020, 09:01
Gli ultimi leak sono riepilogati in questa tabella

Qui parlano di zen2 7nm e una navi a 56 unità ( sicuramente a frequenza bassa) con 12 tf. Potrebbe essere credibile visti i 405mmq.

Dove li avete letti i 7+, e quindi zen3 ,su Xbox?https://uploads.tapatalk-cdn.com/20200116/ab4df8588bbf6a145bceda8ff8ccfd4d.jpg

Beh molti indicano i 7 nm+, dato che esce fra un anno e che rdna2 nasce a 7 nm+, poi non che che è vietato fare zen 2 a 7 nm+, sono semi custom, vega è passata da 14 a 12 a 7 nm sulle apu
56 cu devi fare almeno 1650 mhz per arrivare a 12 tf, no scordiamo poi che saranno cu più potenti anche rispetto a rdna1 per il discorso rt
Per me quella lì è a 7 nm+, non ci sono conferme nè sui 7 nm+ nè sui 7 nm

DuttZ
16-01-2020, 11:06
Beh molti indicano i 7 nm+, dato che esce fra un anno e che rdna2 nasce a 7 nm+, poi non che che è vietato fare zen 2 a 7 nm+, sono semi custom, vega è passata da 14 a 12 a 7 nm sulle apu

56 cu devi fare almeno 1650 mhz per arrivare a 12 tf, no scordiamo poi che saranno cu più potenti anche rispetto a rdna1 per il discorso rt

Per me quella lì è a 7 nm+, non ci sono conferme nè sui 7 nm+ nè sui 7 nmAnche se uscissero a fine anno le scatolette, comunque la produzione deve iniziare diverso tempo prima, al lancio gli acquirenti faranno le solite risse.. quindi... Quando saranno pronte le fonderie per i 7+? Già lo sono?

Inviato dal mio Redmi 7A utilizzando Tapatalk

Ton90maz
16-01-2020, 12:43
A parte che, anche se fossero 7 nm+, bisognerebbe vedere se aumenteranno la densità, cosa per niente scontata.

Ale55andr0
16-01-2020, 13:22
vabè ma zen 2 con la L3 ridotta ad un quarto (da 32 a 8mb) e 56cu, anche con 4-8 ridondanti ce li fai stare comodi comodi in 400+ mm^2 anche sui 7nm standard

Ton90maz
16-01-2020, 13:45
vabè ma zen 2 con la L3 ridotta ad un quarto (da 32 a 8mb) e 56cu, anche con 4-8 ridondanti ce li fai stare comodi comodi in 400+ mm^2 anche sui 7nm standardCerto, però facciamo qualche considerazione generale:
- il calcolo del die ha un margine di errore che, esteso nelle due dimensioni, potrebbe non essere tanto piccolo;
- ci dovrebbe essere del silicio per il RT (che dovrebbe occupare uno sputo, ma non è detto che la soluzione sia identica a quella di invidia);
- c'è tanto spazio per 60 CU, ma non ci starebbero 6 rasterizzatori e probabilmente neanche un'interfaccia a 384 bit.

Sicuramente sarebbe un gioiello di console, ma non sarebbe il mostro che qualcuno crede.

Ale55andr0
16-01-2020, 14:20
i 6 raster e i 384 bit ce li scordiamo probabilmente, avranno 16gb pare, ergo 256bit o 512 (ma mi pare improbabile). L'rt non so quanto occuperà, sinceramente non credo una valanga di silicio, non avrebbe nemmeno senso investirci così tanto visto che gli sviluppatori non paiono nemmeno tanto propensi loro in primis :asd: e resterebbe comuqnue una prima grezza implementazione da aprte di amd. Con 8 cu ridondanti avresti 64cu totali, cuttate a 56, e staresti a 4 raster 256/512bit, piuttosto lineare come suddivisione...o meglio, piuttosto giurassica visto che la usano già da eoni, ergo rodata, sicura ed "economica" :asd:

Non mi aspetto nulla di "esotico" rispetto a QUANTO ci ha abituato amd quindi... anche se speravo/credevo io stesso per primo in una 60cu/6 raster con 24gb/384bit :sofico:

mikael84
16-01-2020, 14:26
Certo, però facciamo qualche considerazione generale:
- il calcolo del die ha un margine di errore che, esteso nelle due dimensioni, potrebbe non essere tanto piccolo;
- ci dovrebbe essere del silicio per il RT (che dovrebbe occupare uno sputo, ma non è detto che la soluzione sia identica a quella di invidia);
- c'è tanto spazio per 60 CU, ma non ci starebbero 6 rasterizzatori e probabilmente neanche un'interfaccia a 384 bit.

Sicuramente sarebbe un gioiello di console, ma non sarebbe il mostro che qualcuno crede.

I core RT neppure su nvidia sono un gran problema, anzi, il vero problema di silicio sono i tensor, paragonabili a delle unità fp32 complete.
RT + tensor occupano 3,2mm2 su 7,9mm2. 10,89mm2 con Polymorph engine.

La questione tensor non so come AMD l'affronti, di suo può fare FP16, ma non in simultanea con le fp32.
Attualmente nvidia dedica il 20% max tensor via RT.

I raster occupano molto poco, i 128bit aggiuntivi però 33mm2 se li portano via, senza considerare i 2mb l2 aggiuntivi.;)

fraussantin
16-01-2020, 14:31
I core RT neppure su nvidia sono un gran problema, anzi, il vero problema di silicio sono i tensor, paragonabili a delle unità fp32 complete.

RT + tensor occupano 3,2mm2 su 7,9mm2. 10,89mm2 con Polimorph engine.



La questione tensor non so come AMD l'affronti, di suo può fare FP16, ma non in simultanea con le fp32.

Attualmente nvidia dedica il 20% max tensor via RT.



I raster occupano molto poco, i 128bit aggiuntivi però 33mm2 se li portano via.;)Se non ho capito male senza il lavoro di denoise fatto dai tensor core RT é solo una serie di puntolini luminosi .
Questo perché é impossibile calcolare tutti i raggi , ma se ne calcolano una certa quantità e poi si spalmano sul resto dell'immagine offuscandoli.

O almeno su q2 mi era parso di capire cosí.

Se questo é vero una roba del genere ce la deve infilare anche amd altrimenti come fa? Su console potrebbe usare la cpu visto che sta lì a non far niente, ma su PC?


Edit: a meno che amd non ci sorprenda con un sistema tutto nuovo di generare raytracing.
Ed infilare questo nelle console spiazzerebbe Nvidia con il suo metodo

Ale55andr0
16-01-2020, 14:34
I core RT neppure su nvidia sono un gran problema, anzi, il vero problema di silicio sono i tensor, paragonabili a delle unità fp32 complete.
RT + tensor occupano 3,2mm2 su 7,9mm2. 10,89mm2 con Polymorph engine.

La questione tensor non so come AMD l'affronti, di suo può fare FP16, ma non in simultanea con le fp32.
Attualmente nvidia dedica il 20% max tensor via RT.

I raster occupano molto poco, i 128bit aggiuntivi però 33mm2 se li portano via, senza considerare i 2mb l2 aggiuntivi.;)


domanda: se avessimo (pura ipotesi eh), una gpu con bus a 320bit, che tipo di rapporto potremmo aspettarci a livello di cu/ raster ecc?
Chiedo perchè con tutta la buona volontà i 256bit anche con chip veloci, tenendo conto di una cpu zen2 8/16che ha bisogno di banda a sua volta, e di una gpu a 12tflop (per la console microsoft, dicono...) mi paiono un BEL collo di bottiglia.. e i 512 come detto, mi paiono fuori discussione...

ninja750
16-01-2020, 14:57
I core RT neppure su nvidia sono un gran problema

Se non ho capito male senza il lavoro di denoise fatto dai tensor core RT é solo una serie di puntolini luminosi .
Questo perché é impossibile calcolare tutti i raggi

domanda: visto che nvidia implementa RT via hardware con i tensor core, com'è possibile che con rt ON si abbassino così drasticamente gli fps? non dovrebbe essere potenza computazionale "gratis" visto che ci sono appunto unita dedicate e non si grava sul resto della gpu?

mikael84
16-01-2020, 15:01
Se non ho capito male senza il lavoro di denoise fatto dai tensor core RT é solo una serie di puntolini luminosi .
Questo perché é impossibile calcolare tutti i raggi , ma se ne calcolano una certa quantità e poi si spalmano sul resto dell'immagine offuscandoli.

O almeno su q2 mi era parso di capire cosí.

Se questo é vero una roba del genere ce la deve infilare anche amd altrimenti come fa? Su console potrebbe usare la cpu visto che sta lì a non far niente, ma su PC?


Edit: a meno che amd non ci sorprenda con un sistema tutto nuovo di generare raytracing.
Ed infilare questo nelle console spiazzerebbe Nvidia con il suo metodo

Utilizzando le FP16 native, come fa Pascal dedidando una piccola percentuale di fp32 (non ha unità fp16 native) per tale compito.
la 1080ti senza unità tensor e neanche fp16, dedica circa 2,25 tf fp32, le stesse che può dedicare AMD in fp16.
AMD su una fp32 può eseguire 2 fp16 (anche int 8 e 4).
Su metro exodus, il più pesante, vengono sprecati per questo compito circa 9/10tf fp16 su una 2080, che ha come picco 88 tflops fp16, ma solo max 20% può essere allocato (quindi 17,6).

i 6 raster e i 384 bit ce li scordiamo probabilmente, avranno 16gb pare, ergo 256bit o 512 (ma mi pare improbabile). L'rt non so quanto occuperà, sinceramente non credo una valanga di silicio, non avrebbe nemmeno senso investirci così tanto visto che gli sviluppatori non paiono nemmeno tanto propensi loro in primis :asd: e resterebbe comuqnue una prima grezza implementazione da aprte di amd. Con 8 cu ridondanti avresti 64cu totali, cuttate a 56, e staresti a 4 raster 256/512bit, piuttosto lineare come suddivisione...o meglio, piuttosto giurassica visto che la usano già da eoni, ergo rodata, sicura ed "economica" :asd:

Non mi aspetto nulla di "esotico" rispetto a QUANTO ci ha abituato amd quindi... anche se speravo/credevo io stesso per primo in una 60cu/6 raster con 24gb/384bit :sofico:

512bit significherebbero 896gb/s di BW a singola densità:sofico: , ed uno spreco di silicio non indifferente.


domanda: se avessimo (pura ipotesi eh), una gpu con bus a 320bit, che tipo di rapporto potremmo aspettarci a livello di cu/ raster ecc?
Chiedo perchè con tutta la buona volontà i 256bit anche con chip veloci, tenendo conto di una cpu zen2 8/16che ha bisogno di banda a sua volta, e di una gpu a 12tflop (per la console microsoft, dicono...) mi paiono un BEL collo di bottiglia.. e i 512 come detto, mi paiono fuori discussione...

I 320 bit li puoi creare in modalità asincrona, creando un canale di collegamento, questo non comporterebbe nulla, solo 16mm2 di silicio ( o più in caso di aggiunta l2), ma potresti gestire 20gb a doppia densità e ben 560gbps di BW.

Oppure 5 engine nativi con 80 rop's(ma è totalmente da escludere).

Ale55andr0
16-01-2020, 15:09
I 320 bit li puoi creare in modalità asincrona, creando un canale di collegamento, questo non comporterebbe nulla, solo 16mm2 di silicio ( o più in caso di aggiunta l2), ma potresti gestire 20gb a doppia densità e ben 560gbps di BW.
).

eh infatti per quello pensavo, non sarebbe affatto male....banda più adeguata e un quantitativo di ram imho più accettabile dei "soli" 16 da condividere col SO che rispetto ai 12gb di one x non mi paiono un salto generazionale degno :rolleyes:...anche se vabè, l'ssd ultra veloce potrebbe forse sopperire in parte usandolo come una sorta di estensione della ram di sistema cercando ovviamente di ottimizzare il tutto in modo da non far capire dove finisce l'una e inizia l'altro... (ovviamente 4-5gb al secondo in lettura non sono comunque 500 :asd: )




512bit significherebbero 896gb/s di BW a singola densità:sofico: , ed uno spreco di silicio non indifferente.





però però... 32 giga (16 moduli) con vecchie e fetentissime gddr5 a 10gbps farebbero 640 gb/s di banda...e magari oggi giorno costano quanto 16gb di gddr6 ultraipermega fast :sofico:

mikael84
16-01-2020, 15:12
domanda: visto che nvidia implementa RT via hardware con i tensor core, com'è possibile che con rt ON si abbassino così drasticamente gli fps? non dovrebbe essere potenza computazionale "gratis" visto che ci sono appunto unita dedicate e non si grava sul resto della gpu?

Momentaneamente è beta.
Nvidia ha creato una formula RTX-OPS (fp32 x int32 x rt x ia tc).
Tuttavia con RT attivo, mediamente lo shading viene suddiviso tra 50% fp32/int32/rt 30% e TC 20%. Oppure anche 40 fp32/int32 /rt 40% 20 ia.

Abbassando così molto la potenza FP32, una 2080ti in base al carico RT, scende ai livelli di una 2070/2060, ma non perchè non ce la fa, ma per la suddivisione.
esempio qui:
https://tpucdn.com/review/metro-exodus-benchmark-performance-test/images/rtx-1440.png

Ton90maz
16-01-2020, 15:15
I core RT neppure su nvidia sono un gran problema, anzi, il vero problema di silicio sono i tensor, paragonabili a delle unità fp32 complete.
RT + tensor occupano 3,2mm2 su 7,9mm2. 10,89mm2 con Polymorph engine.

La questione tensor non so come AMD l'affronti, di suo può fare FP16, ma non in simultanea con le fp32.
Attualmente nvidia dedica il 20% max tensor via RT.

I raster occupano molto poco, i 128bit aggiuntivi però 33mm2 se li portano via, senza considerare i 2mb l2 aggiuntivi.;)

Ma gli rt core di turing, da soli, quanto occupano? A me risulta 0,7 mm^2, ma non vorrei aver considerato una stima errata.

mikael84
16-01-2020, 15:29
eh infatti per quello pensavo, non sarebbe affatto male....banda più adeguata e un quantitativo di ram imho più accettabile dei "soli" 16 da condividere col SO che rispetto ai 12gb di one x non mi paiono un salto generazionale degno :rolleyes:...anche se vabè, l'ssd ultra veloce potrebbe forse sopperire in parte usandolo come una sorta di estensione della ram di sistema cercando ovviamente di ottimizzare il tutto in modo da non far capire dove finisce l'una e inizia l'altro... (ovviamente 4-5gb al secondo in lettura non sono comunque 500 :asd: )




però però... 32 giga (16 moduli) con vecchie e fetentissime gddr5 a 10gbps farebbero 640 gb/s di banda...e magari oggi giorno costano quanto 16gb di gddr6 ultraipermega fast :sofico:

Su un 256bit, rimanendo sullo stesso bus, puoi pure creare 32gb in modalità a conchiglia 8bit. Opzione che però porterebbe consumi e costi non indifferenti, utilizzando la stessa BW.

Le ddr5 sono solo 8gb/s, non credo proprio sia una buona soluzione per 512gb/s. Uno scempio esemplare per die, consumi e costi.:sofico:

Ma gli rt core di turing, da soli, quanto occupano? A me risulta 0,7 mm^2, ma non vorrei aver considerato una stima errata.

Sono 0,7 RT più due motori tensor per warp da 16.
In TU116/117 un motore tensor viene utilizzato per fare FP16 in contemporanea alla int ed alle fp32.
AMD come il vecchio GP100 utilizza una pipeline fp32 divisa in due fp16.
In linea di massima sono
10,89 rt/tensor
8,94mm2 con FP16 e motore tensor (tu 116/117)
7,69mm2 senza tensor e motori tensor fp16
Quasi 42% dell'area:)

Su AMD, un DCU (dual cu), quindi 128cc, tra vettori, registri, scheduler è grande circa 4,5mm2, con RT potrebbe toccare i 5mm2.;)

Ale55andr0
16-01-2020, 16:14
Le ddr5 sono solo 8gb/s, non credo proprio sia una buona soluzione per 512gb/s. Uno scempio esemplare per die, consumi e costi.:sofico:

)

non ti seguo, le gddr5 della gtx1080 dovrebbero essere delle 10gbps, che su 256bit fanno appunto i suoi 320gb/s di bandwidth :confused:.

ninja750
16-01-2020, 16:25
Momentaneamente è beta.

:fagiano: ammappa

sarebbe stato meglio dare il 100% del computo RT ai tensor e poi da li si sarebbero dovuti arrangiare gli sviluppatori e al peggio sarebbe stato fluido con la prossima serie di vga