PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 [119] 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467

Ubro92
05-08-2016, 22:00
Lasciamo perdere le cpu, per fortuna sul reparto grafico AMD seppur con ritardo e non con la stessa efficienza energetica propone comunque soluzioni valide e che maturano con il tempo :stordita:

In ambito cpu, intel si fa concorrenza da sola da diversi anni possiamo dire dall'esordio dei Sandy quindi li la situazione è ben diversa e abbastanza critica per AMD, vedremo con Zen se recupera terreno, cosa che spero dato che vorrei aggiornare entro l'anno o nel Q1 2017...

Ale55andr0
05-08-2016, 22:03
Sarebbe un pò la stessa storia di ps4 e ps4neo .

con la differenza che ps4 non andrà in legacy :asd:

Ren
05-08-2016, 22:06
Io invece direi che la strategia di marketing di nvidia con la nuovaTitan è più che azzeccata: perchè mai avrebbero dovuto buttare fuori il chippone full?

Tanto non hanno concorrenza, per cui o così o così se vuoi la top.
Inoltre nel remoto (impossibile) caso in cui arrivi la concorrenza, hanno ancora del margine per una ulteriore top più performente.

E poi immagino che il chip castrato abbia costi minori (ergo guadagni superior) in produzione, e anche rese migliori: a fronte di tutto ciò reputi sbagliata la strategia nvidia?:mbe:

Strategia perfetta per mungere la vacca...:sofico:

Dal punto di vista del cliente :tie:

Con quel prezzo di vendita non è di certo per una questione di costi che nvidia ha sfornato IL CASTRATO. ;) (bastava un dissipatore appropriato e qualche fase in più)

A quando una Titan 2 per 2000€... :p

ps. Non preoccuparti, la Concorrenza arriverà già spompata...:sofico:

AceGranger
05-08-2016, 22:09
Hanno un margine di miglioramento potenziale bello alto. ;)
Possono alzare il TDP di 30-50w, cambiare dissipatore ed usare chip full.

Mi domando quali strategie di marketing ci siano dietro un prodotto così castrato...:stordita:

imho, io la penso cosi:

devono avere svariati chip fallati, i chip Full buoni li stanno accumulando per il lancio ad Ottobre della Quadro M6000, con i fallati iniziano subito a fare soldi con la Titan, tanto li hanno li...

Poi secondo me hanno chip ancora piu fallati pronti per la Ti, che pero lanceranno dopo, in modo tale da far piu soldi con la Titan sfruttando la "frenesia" iniziale; poi piu avanti con i chip Full magari ci faranno la Titan X Black

Concordo, e aggiungo che il taglio da 12 era d'obbligo visto che il chip non è full ma tagliuzzato in stile x80ti, anche se da regola delle titan doveva montare 24GB... il che lascia dubbi se concretamente verrà fatta una ti visto che la differenza da 1080 sarebbe marginale, possibile comunque che la dicitura "ti" scompaia nuovamente nelle prossime gen lasciando alla titan il podio del chippone...

il taglio da 12 Gb non è direttamente collegato al tagliuzzamento, come non lo era nelle x80Ti; come collegamento potevano farlo tranquillamente a 24 Gb usando chip grossi il doppio come nel caso della Quadro P6000 che ha lo stesso numero di chip.

la differenza fra 1080 e 1080Ti saranno anche i Gb di memoria da 8 a 12 come la Titan.

i 24 Gb non credo verranno mai impiegati, intaccherebbero troppo la Quadro; sarei molto sorpreso di vederli nell'eventuale Titan Black.

Ren
05-08-2016, 22:14
edit.

Ren
05-08-2016, 22:16
imho, io la penso cosi:

devono avere svariati chip fallati, i chip Full buoni li stanno accumulando per il lancio ad Ottobre della Quadro M6000, con i fallati iniziano subito a fare soldi con la Titan, tanto li hanno li...

Poi secondo me hanno chip ancora piu fallati pronti per la Ti, che pero lanceranno dopo, in modo tale da far piu soldi con la Titan sfruttando la "frenesia" iniziale; poi piu avanti con i chip Full magari ci faranno la Titan X Black

Possibile ;) , ma non toglie il fatto che hanno tirato fuori una vaccata con TDP e dissipatore sottodimensionato. (clock turbo con il freno a mano tirato)

Come di dici tu, sento odore di mxrda fuori dal vaso...:D

Dimenticavo,
Viva la concorrenza!!!:sofico:

Pelvix
05-08-2016, 22:19
Strategia perfetta per mungere la vacca...:sofico:

Dal punto di vista del cliente :tie:

Con quel prezzo di vendita non è di certo per una questione di costi che nvidia ha sfornato IL CASTRATO. ;) (bastava un dissipatore appropriato e qualche fase in più)

A quando una Titan 2 per 2000€... :p

ps. Non preoccuparti, la Concorrenza arriverà già spompata...:sofico:

E beh, ma è proprio questo l'obiettivo del marketing, ergo ottima strategia direi...

Ed anche rapportando il prezzo di vendita (imbarazzante) comunque resta vero il fatto che il chip castrato costa meno e lo ottieni con rese migliori: se non ne hai bisogno, perchè mai complicarsi la vita dunque...

In merito alla cosiddetta concorrenza poi, stendiamo un velo pietoso e diamogli l'estrema unzione. RIP :cry:

AceGranger
05-08-2016, 22:21
Possibile ;) , ma non toglie il fatto che hanno tirato fuori una vaccata con TDP e dissipatore sottodimensionato. (clock turbo con il freno a mano tirano)

Come di dici tu, sento odore di mxrda fuori dal vaso...:D

come dissipatore/PCB credo abbiano copiato paro paro quello della Quadro ( che nel caso del dissi è anche quello della 1080 ), che non sono mai spinte e che viaggiano normalmente nel range degli 80-85°; zero progettazione aggiuntiva e riciclo totale; solo che nel caso dei software pro non lo senti cosi tanto il problema delle frequenze mentre nel mondo gaming te ne accorgi di piu.


lato TDP il chip è sicuramente inferiore a quello della Quadro perchè la P6000 con chip Full ha il Boost a 1560MHz, piu alto dei 1531MHz della Titan X castrata.


Nonostante tutto pero, le Performance/Watt non sono male

https://www.techpowerup.com/reviews/NVIDIA/Titan_X_Pascal/25.html

il Chip Full teoricamente dovrebbe essere un gioiellino lato efficienza.

MrBrillio
05-08-2016, 22:26
Mah sarà eh...che Pasquale duri poco o meno io son contento di vedere l'intera lineup fuori dopo poco, fosse sempre così! Altro che Ti e Titan Black, l'ideale sarebbe vedere tutto fuori subito per poter decidere in base a quanto uno vuole o può spendere.
Per me a sto giro la Ti è l'attuale Titan così prendono più soldi solo per il nome, e prima o poi sfornano la black o una dual incazzosa :asd:

Ren
05-08-2016, 22:36
come dissipatore/PCB credo abbiano copiato paro paro quello della Quadro ( che nel caso del dissi è anche quello della 1080 ), che non sono mai spinte e che viaggiano normalmente nel range degli 80-85°; zero progettazione aggiuntiva e riciclo totale; solo che nel caso dei software pro non lo senti cosi tanto il problema delle frequenze mentre nel mondo gaming te ne accorgi di piu.


lato TDP il chip è sicuramente inferiore a quello della Quadro perchè la P6000 con chip Full ha il Boost a 1560MHz, piu alto dei 1531MHz della Titan X castrata.


Nonostante tutto pero, le Performance/Watt non sono male

https://www.techpowerup.com/reviews/NVIDIA/Titan_X_Pascal/25.html

il Chip Full teoricamente dovrebbe essere un gioiellino lato efficienza.

Se abbassi le frequenze è ovvio che guadagni efficienza, soprattutto con il Finfet che da il massimo proprio sui 0.8-0.9v

Vabbuò, una bella fiera del riciclo...;)

AceGranger
05-08-2016, 22:39
Se abbassi le frequenze è ovvio che guadagni efficienza, soprattutto con il Finfet da il massimo proprio sui 0.8-0.9v

si ma le hanno abbassate di uno sputo, e la cosa interessante è che il Chip Full è a pari frequenza ma appunto Full e sempre nei 250W, contando oltretutto che la Quadro ha anche 24 Gb di ram e non 12 ( a 9 e non 11 )

Ubro92
05-08-2016, 22:44
con la differenza che ps4 non andrà in legacy :asd:

No ma a 720p 25fps probabile :sofico:

traider
05-08-2016, 22:48
Però la PS4 sarà durata almeno 3 anni come console di punta di sony ... :sofico:

E' si però io conto la data Giapponese uscita il 22 febbraio del 2014 , quindi 2 anni e qualche mese , e se ci pensi per una console è pochissimo , facendo una proporzione sarebbe come se Pascal durasse 6 mesi e poi uscisse Volta :D .

mikael84
05-08-2016, 23:36
Annamo bene. In altri siti ho visto medie in gaming di 263w.

Hanno riciclato anche il dissipatore della 1080.:doh:

Un ottimo chip castrato per imbastire la truffa.
Dai che con due modifiche :p possono tirar fuori una TITAN2 per 2000€.:sofico:

Sono dei fottuti geni in nvidia. Nemmeno intel ha mai osato tanto...

Benvenuti nell'era del Monopolio sostanziale... (grazie AMD) :sofico:

Ricordiamoci che a breve questo chip diventa 2070 e con un bus da 16gb/256bit. Tutta roba per cercare di vendere il più possibile ma a breve tireranno fuori la super soluzione ben ottimizzata.:D
2 ottimizzazioni e la prossima 2080 lo passa tranquillamente questo chip. Tutto già visto con Kepler. Anche li mi chiedevo il perchè non ottimizzassero alla GF110, invece dal nulla apparì Maxwell, l'ottimizzazione vera.:)

Luca T
06-08-2016, 00:01
Ricordiamoci che a breve questo chip diventa 2070 e con un bus da 16gb/256bit. Tutta roba per cercare di vendere il più possibile ma a breve tireranno fuori la super soluzione ben ottimizzata.:D
2 ottimizzazioni e la prossima 2080 lo passa tranquillamente questo chip. Tutto già visto con Kepler. Anche li mi chiedevo il perchè non ottimizzassero alla GF110, invece dal nulla apparì Maxwell, l'ottimizzazione vera.:)

Quindi secondo te 2017 ci saranno ottimizzazioni di Pascal e Volta passa al 2018?
O intendi che Volta sarà un Pascal ottimizzato (Maxwell 3.0)?

mikael84
06-08-2016, 00:55
Quindi secondo te 2017 ci saranno ottimizzazioni di Pascal e Volta passa al 2018?
O intendi che Volta sarà un Pascal ottimizzato (Maxwell 3.0)?

Penso un maxwell 2,0 o 3,0 (come lo si vuol chiamare), perchè c'è tanto da ottimizzare. Bisogna però vedere se ci saranno modifiche hardware, oltre alle sole unità di calcolo e clock. Non si sa ancora nulla.:)

Luca T
06-08-2016, 02:01
Penso un maxwell 2,0 o 3,0 (come lo si vuol chiamare), perchè c'è tanto da ottimizzare. Bisogna però vedere se ci saranno modifiche hardware, oltre alle sole unità di calcolo e clock. Non si sa ancora nulla.:)

Al momento come prestazioni sostituire lo SLI di 980ti con una nuova TitanX non so se conviene e lo SLI di nuove TitanX come prezzo è improponibile

DarkNiko
06-08-2016, 09:13
Al momento come prestazioni sostituire lo SLI di 980ti con una nuova TitanX non so se conviene e lo SLI di nuove TitanX come prezzo è improponibile

In assoluto non conviene e i motivi sono tanti. In primis il prezzo, assolutamente improponibile per il reale valore della scheda in oggetto e secondo perché è un investimento destinato a fallire, dato che tra 1 anno o meno i 1300 euro che regali a NVidia varranno la metà, poi se qualcuno qui dentro caga soldi quando si sveglia la mattina, buon per lui. :D

Tra l'altro ora come ora non ci sono e né ci saranno nell'imminente, titoli videoludici tali da richiedere il pensionamento anticipato delle GPU Maxwell. Puoi ancora tenere la tua ottima configurazione SLI e giocare bene a tutto, almeno questo è il mio opinabile pensiero. ;)

Nurabsa
06-08-2016, 21:35
Hanno un margine di miglioramento potenziale bello alto. ;)
Possono alzare il TDP di 30-50w, cambiare dissipatore ed usare chip full.

Mi domando quali strategie di marketing ci siano dietro un prodotto così castrato...:stordita:

una parte della malefica strategia prevede l invecchiamento precoce della serie 9 per sbandierare il 10 dappertutto
Probabile che non risulti in pieno il giochetto azzoppamento ai livelli di kepler, mitigato dall architettura.

la vera fortuna è che la 9 è stata un ottima serie che dando in eredità le sue caratteristiche alle successive sè assicurata una buona logevita per chi una vga se la gode per anni

io penso minimo i 3 della garanzia salvo stravolgimenti volta :asd:

fraussantin
06-08-2016, 22:07
già... pascal mi ricorda moltissimo kepler, purtroppo.
Anche a me. Però ancora non abbiamo volta.

Magari riescono ad ingrandire pascal ,ma usando le hmb2 abbassano i consumi .

Insomma pascal è nato e studiato per le hbm2 ( tesla) perché non sfruttarlo.

mikael84
06-08-2016, 23:28
già... pascal mi ricorda moltissimo kepler, purtroppo.

No assolutamente non ci sono shader in dipendenza (questo è un vero handicap di kepler come la vliw in parte).
Probabile che su Volta adottino il sistema di Tesla, con chip più grandi, rasterizzer da 24 pixel, e GPC più complessi.
2 stack hbm (magari da 8gb) possono coprire 4 GPC in un crossbar bidirezionale.
Migliorando le 3 resistenze da caduta, e il miglioramento sul PP, si avranno clock migliori, raster migliori e bande migliori.

Pascal e maxwell hanno bisogno di 4 chiamate per le 128 ALU, Kepler su 4 chiamate ne chiamava sempre 128 ma 64 stavano in idle (ben diverso).:)

mikael84
06-08-2016, 23:34
Anche a me. Però ancora non abbiamo volta.

Magari riescono ad ingrandire pascal ,ma usando le hmb2 abbassano i consumi .

Insomma pascal è nato e studiato per le hbm2 ( tesla) perché non sfruttarlo.

Non puoi sfruttarlo per game. Tesla GP100 è come se avesse un 512bit lineare.
Ogni stack collega 32 rop's e 1mb di cache (ogni mc 16 rop's e 512kb l2).
4 stack (4x4gb) collegano 128 rop's e 4mb di cache.
Che te ne fai di 128 rop's disegnate se ne usi 92, e nella 1080ti castrata potresti arrivare ad 80.
Quel mb di cache in più occupa spazio per niente.

L'unica soluzione sarebbe utilizzare 12gb hbm.

GP106 per 16 rop's a vuoto (che non servono) e 512kb ha occupato 43mm2 di spazio sul die.

NoAliasing
06-08-2016, 23:54
La Titan X sull'amazzone e' gia' scesa di oltre 200€ comunque :Prrr:

fraussantin
07-08-2016, 00:36
La Titan X sull'amazzone e' gia' scesa di oltre 200€ comunque :Prrr:
Si confondono bene quelle vecchie da quelle che devono uscire.

Bella trovata chiamarle uguale.

MrBrillio
07-08-2016, 07:40
La Titan X sull'amazzone e' gia' scesa di oltre 200€ comunque :Prrr:
La compri solo dal sito nvidia quella nuova ;)

Inviato dal mio ONEPLUS A3003 utilizzando Tapatalk

athlon xp 2400
07-08-2016, 10:07
Si confondono bene quelle vecchie da quelle che devono uscire.

Bella trovata chiamarle uguale.

la trappola per i polli

aled1974
07-08-2016, 10:13
però metterci un qualcosa in più nella sigla per differenziarle non sarebbe stato male... che so titan x II, titan x P :boh:

la vera "trappola per polli" IMHO scatterà quando tra qualche tempo verranno messe sui mercatini, e li mi sa che più di qualcuno comprerà la titanx maxwell credendo di prendere la titanx pascal, vuoi per ignoranza, vuoi per malafede del venditore :doh:

ciao ciao

fraussantin
07-08-2016, 10:31
però metterci un qualcosa in più nella sigla per differenziarle non sarebbe stato male... che so titan x II, titan x P :boh:

la vera "trappola per polli" IMHO scatterà quando tra qualche tempo verranno messe sui mercatini, e li mi sa che più di qualcuno comprerà la titanx maxwell credendo di prendere la titanx pascal, vuoi per ignoranza, vuoi per malafede del venditore :doh:

ciao ciao
L'avranno fatto per smaltire quelle sugli scaffali . O come fa amd ( ammesso che il nome hw sia lo stesso )per farla comparire su steam .

NoAliasing
07-08-2016, 12:34
Si confondono bene quelle vecchie da quelle che devono uscire.

Bella trovata chiamarle uguale.

La compri solo dal sito nvidia quella nuova ;)

Inviato dal mio ONEPLUS A3003 utilizzando Tapatalk

la trappola per i polli

Infatti era un post ironico...con tanto di :Prrr:

Ren
07-08-2016, 19:30
come fai ad esser sicuro che volta non sia come il passaggio kepler v2 → maxwell e non kepler v1 →v2?

la strategia di nvidia ricorda molto quella di intel: nuovo PP + architettura vecchia e rodata; secondo passaggio: PP vecchio e rodato + architettura nuova.
Poi magari pascal/volta sono come kepler v1 v2, ma non ci metterei la mano sul fuoco.

speriamo che pascal non faccia la fine di kepler (v2), tecnicamente tutto e possibile.

Nvidia ha in programma di adottare i warp a lunghezza variabile per aumentare le performance con codice divergente. I giochi sono per lo più convergenti, quindi il miglioramento è per piccole porzioni di natura computing.

Esistono anche altri studi che parlano di registri temporanei e compressione dati adattiva.

Gli studi sono relativamente recenti, quindi ho seri dubbi che possano implementarli velocemente.

Prima di parlare di stravolgimenti, aspetterei almeno le nuove roadmap, dato che quelle odierne sono incasinate (sovrapposizione Pascal/Volta)....



ps. Un altro miracolo alla maxwell non credo sia possibile, dato che hanno sistemato tutti colli di bottiglia di quel colabrodo di kepler... ;)

mikael84
07-08-2016, 19:45
come fai ad esser sicuro che volta non sia come il passaggio kepler v2 → maxwell e non kepler v1 →v2?

la strategia di nvidia ricorda molto quella di intel: nuovo PP + architettura vecchia e rodata; secondo passaggio: PP vecchio e rodato + architettura nuova.
Poi magari pascal/volta sono come kepler v1 v2, ma non ci metterei la mano sul fuoco.

speriamo che pascal non faccia la fine di kepler (v2), tecnicamente tutto e possibile.

Tra il "probabile" ed il "sicuro" ne passa.....

Kepler è legato ad un compilatore che deve far lavorare 6 blocchi da 32 (192cc) e dev'essere sempre ben supportato.
E' una tecnica presa da fermi per mandare in elaborazione più ALU, diciamo che è una 460 pompata internamente.
Se il chip è tarato per gestire 2304cc (780) ma ne lavorano indipendentemente solo 1536 (perchè hai la sola certezza di schedulare 2 blocchi per sub smx/128cc) cominciano i problemi, il tutto con rop's che definire scarse è riduttivo e senza alcuna compressione.

Maxwell è Pascal non hanno questi problemi hardware di compilatore ma saranno legati alla futura scelta architetturale.
Un possibile approccio alla Tesla potrebbe creare qualche problema alle 2. Se invece si continua a includere SMM simili con 4x32 ma in maniera maggiore, Kepler non si ripeterà se non nel lungo tempo per totale abbandono.

fraussantin
07-08-2016, 20:35
Tra il "probabile" ed il "sicuro" ne passa.....

Kepler è legato ad un compilatore che deve far lavorare 6 blocchi da 32 (192cc) e dev'essere sempre ben supportato.
E' una tecnica presa da fermi per mandare in elaborazione più ALU, diciamo che è una 460 pompata internamente.
Se il chip è tarato per gestire 2304cc (780) ma ne lavorano indipendentemente solo 1536 (perchè hai la sola certezza di schedulare 2 blocchi per sub smx/128cc) cominciano i problemi, il tutto con rop's che definire scarse è riduttivo e senza alcuna compressione.

Maxwell è Pascal non hanno questi problemi hardware di compilatore ma saranno legati alla futura scelta architetturale.
Un possibile approccio alla Tesla potrebbe creare qualche problema alle 2. Se invece si continua a includere SMM simili con 4x32 ma in maniera maggiore, Kepler non si ripeterà se non nel lungo tempo per totale abbandono.
In pratica se kepler lavora in 6x32 e .Maxwell 4x32 , attualmente kepler( com i driver attuali) un 33% di core fermi?

Crysis90
07-08-2016, 21:15
https://www.youtube.com/watch?v=HLB3WQDBbNQ

:eekk: :eekk: :hic: :hic: :hic:

Nurabsa
07-08-2016, 21:46
tarocco? :stordita:

athlon xp 2400
07-08-2016, 22:13
https://www.youtube.com/watch?v=HLB3WQDBbNQ

:eekk: :eekk: :hic: :hic: :hic:

Punti troppo leggero :) fallo andare nella palude del gobbo :)

killeragosta90
07-08-2016, 23:09
però metterci un qualcosa in più nella sigla per differenziarle non sarebbe stato male... che so titan x II, titan x P :boh:

la vera "trappola per polli" IMHO scatterà quando tra qualche tempo verranno messe sui mercatini, e li mi sa che più di qualcuno comprerà la titanx maxwell credendo di prendere la titanx pascal, vuoi per ignoranza, vuoi per malafede del venditore :doh:

ciao ciao

Vero! Ne sono sicuro...

mikael84
07-08-2016, 23:36
In pratica se kepler lavora in 6x32 e .Maxwell 4x32 , attualmente kepler( com i driver attuali) un 33% di core fermi?

Praticamente, e spiegato in maniera semplice.
La 480 era un chip senza dipendenze. 2 warp per SMM lavoravano su 2x16 cuda (32).
La 460 (da li nasce tutto), per non essere limitata a soli 256 cuda, nvidia decise di riempire gli SMM di altri 16 cuda. Il compilatore doveva fare in modo che tutti e tre i blocchi partivano insieme ma a livello hardware il 2° ed il 3° blocco erano legati.

Kepler aveva una strada. Creare SMM da 128cc, oppure andare a riempimento e collegare due blocchi da 32 da far lavorare simultaneamente.
Con il driver ben compilato la 680 poteva lavorare tra i 1024cc e 1536cc.
Questa tecnica era stata introdotta per sorprendere la 7870 di AMD, ma a conti fatti batteva inizialmente la 7970.

Questo chip all'ora potentissimo, perchè i motori erano molto tmu dipendenti, e le unità ben sfruttate erano sino a 2880 (780ti).

Quando hanno lanciato TW3, Nvidia programmò tutto per maxwell (probabilmente anche per vendere le maxwell), ha lasciato tutto allo sbando Kepler, ma kepler allo sbando non ha più il compilatore, ed ecco che perde sino al 33%.

La 780 che va come la 960, ebbene si, in potenza computazionale con meno il 33% la scheda va circa come la 960 per via del clcock, ma questa ha un'altra arma, le rop's. Le rop's sono il doppio più efficienti e grazie al clock anche superiori.
La banda pur essendo un 384bit reggeva appena 150-170gb/s (senza decompressione), la 960 raggiungeva 140 gb/s a cache ed istruzioni maggiore ma la banda non è tutto perchè la 960 non avrà mai lo stesso peso in banda, visto che le ALU inferiori richiedevano molta meno porzione.

Ecco che la 960 nei casi limiti di kepler, se la giocava con la 780:)

fraussantin
08-08-2016, 00:04
Capito !

mikael84
08-08-2016, 00:52
Capito !

Poi chiaramente nascono anche altri casini, come le istruzioni. Pascal e maxwell processano dentro l'SMM sino a 65k istruzioni. Kepler stessa cosa, ma essendo 192cc, ogni cuda può accedere a 341 istruzioni, maxwell 512.
Più istruzioni riesci ad elaborare in contemporanea, meno devi andare a pescare nella cache. La cache richiede almeno 10-12 cicli, non è istantanea.

Se un 3° del SMM non lavora o non lavora bene, perdi anche 1/3 di istruzioni per cuda.

Insomma un disastro. Maxwell è la perfezione, tutto messo a puntino, tutto ben sfruttato e Pascal ne mantiene i pregi ma approfitta dei nuovi transistor.:)

Pascal aggiunge una nuova decompressione efficace alla 2:1 che spesso non veniva decompresso, migliorando le prestazioni in banda.:)

Luca T
08-08-2016, 02:15
Poi chiaramente nascono anche altri casini, come le istruzioni. Pascal e maxwell processano dentro l'SMM sino a 65k istruzioni. Kepler stessa cosa, ma essendo 192cc, ogni cuda può accedere a 341 istruzioni, maxwell 512.
Più istruzioni riesci ad elaborare in contemporanea, meno devi andare a pescare nella cache. La cache richiede almeno 10-12 cicli, non è istantanea.

Se un 3° del SMM non lavora o non lavora bene, perdi anche 1/3 di istruzioni per cuda.

Insomma un disastro. Maxwell è la perfezione, tutto messo a puntino, tutto ben sfruttato e Pascal ne mantiene i pregi ma approfitta dei nuovi transistor.:)

Pascal aggiunge una nuova decompressione efficace alla 2:1 che spesso non veniva decompresso, migliorando le prestazioni in banda.:)

Insomma direi che a livello di architettura le Pascal ti piace parecchio :D

Devourer88
08-08-2016, 09:00
Mmh la questione degli asynchronous shader nonché quella del cambiamento di stato in legacy dei driver per maxwell 2.0 mi fa ancora di più pensare al salto di architettura a volta nel 2018. Dopo 4 nuove vga nvidia ancora rimango ben ancorato alla 980@1530mhz che col gsync sta fungendo da palliativo.
Inoltre per la maggior parte di utenti che adottano monitor comuni, dubito fortemente che una 980 non basti per risoluzioni inferiori al 2k e quindi non capisco le motivazioni o la fretta spasmodica di sostituire la vga adesso.

fraussantin
08-08-2016, 11:28
Non vedo il collegamento legacy con architettura vega.

Nvidia da sempre sposta in secondo piano la vecchia serie quando esce la nuova.

Sappiamo 3 cose :
1 che pascal è una architettura compatibile con le hbm
2 che pascal è una architettura che consuma poco.
3 che amd non ha ne ottimi silici ne bassi consumi e deve puntare tutto sulle dx12 o vulkan che sia.

Quindi l'unico motivo che potrebbe portare nvidia a cambiare architettura è per metterci gli async ,ammesso che non si possano mettere su pascal , ma questo solamente MIKEAL84 Puo saperlo :)), sempre che gli interessi metterli , visto che a oggi non servono a niente.

FroZen
08-08-2016, 12:42
Pascal non avrà mai async

Forse li avrà volta se li reputano necessari come penso visto che ogni console li userà da qui al 2020

Gimpworks lavorerà alacremente per non farli usare ma di sfruttare i punti di forza pascal fino alla prossima architettura verde

egounix
08-08-2016, 13:35
Pascal non avrà mai async

Forse li avrà volta se li reputano necessari come penso visto che ogni console li userà da qui al 2020

Gimpworks lavorerà alacremente per non farli usare ma di sfruttare i punti di forza pascal fino alla prossima architettura verde

Che geloso che sei... E pensare che quando ti ho conosciuto eri così tranquillo e pacato... Ora sei focoso!!! :kiss:

Legolas84
08-08-2016, 13:37
Non vedo il collegamento legacy con architettura vega.

Nvidia da sempre sposta in secondo piano la vecchia serie quando esce la nuova.

Sappiamo 3 cose :
1 che pascal è una architettura compatibile con le hbm
2 che pascal è una architettura che consuma poco.
3 che amd non ha ne ottimi silici ne bassi consumi e deve puntare tutto sulle dx12 o vulkan che sia.

Quindi l'unico motivo che potrebbe portare nvidia a cambiare architettura è per metterci gli async ,ammesso che non si possano mettere su pascal , ma questo solamente MIKEAL84 Puo saperlo :)), sempre che gli interessi metterli , visto che a oggi non servono a niente.


Per avere bisogno di motori Async in hardware NVIDIA dovrebbe sviluppare un'architettura inefficiente e con molti stati di idle degli shader.... quindi perchè dovrebbe farlo?

La furyX potenzialmente è sempre stata al pari di una 980Ti, ma in DX11 era sotto per via di un'architettura e di un driver inefficiente. Async le consente di mettere la pezza a tutto questo. NVIDIA non ha pezze da mettere, le sue architetture sono efficienti e con pochissimi stati di idle....

Per questo Async non da benefici sulle verdi e aiuta tantissimo le rosse.

Devourer88
08-08-2016, 13:46
Non vedo il collegamento legacy con architettura vega.

Nvidia da sempre sposta in secondo piano la vecchia serie quando esce la nuova.

Sappiamo 3 cose :
1 che pascal è una architettura compatibile con le hbm
2 che pascal è una architettura che consuma poco.
3 che amd non ha ne ottimi silici ne bassi consumi e deve puntare tutto sulle dx12 o vulkan che sia.

Quindi l'unico motivo che potrebbe portare nvidia a cambiare architettura è per metterci gli async ,ammesso che non si possano mettere su pascal , ma questo solamente MIKEAL84 Puo saperlo :)), sempre che gli interessi metterli , visto che a oggi non servono a niente.

I driver sono tutto, e fino ad adesso con aggiornamenti costanti (mensili) non ho mai avuto problemi anche nei giochi più recenti. Adesso, pensa cosa succederebbe se un gioco che a te piace non avesse il supporto hardware previsto?

Pascal non avrà mai async

Forse li avrà volta se li reputano necessari come penso visto che ogni console li userà da qui al 2020

Gimpworks lavorerà alacremente per non farli usare ma di sfruttare i punti di forza pascal fino alla prossima architettura verde

Chiamale come vuoi, il fatto è che in Batman Arkham Knight sono uno spettacolo per gli occhi. E non hanno utilizzato neanche tutte le features. Quindi immagina in futuro come potrebbe evolvere questo middleware.

Ale55andr0
08-08-2016, 14:14
Per avere bisogno di motori Async in hardware NVIDIA dovrebbe sviluppare un'architettura inefficiente e con molti stati di idle degli shader.... quindi perchè dovrebbe farlo?



quindi stai praticamente dicendo che nvidia non avrà mai gli async perchè per decidere di usarli dovrebbe avere una architettura inefficiente e non può certo farla apposta così per farsi del male.

Se volta li dovesse avere allora che significherà? che è inefficiente?

mirkonorroz
08-08-2016, 14:28
E' meglio che per l'ennesima volta qualcuno si legga questo (https://www.google.it/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&ved=0ahUKEwiJxouY6LHOAhWGWiwKHRyfCgkQFggoMAE&url=http%3A%2F%2Famd-dev.wpengine.netdna-cdn.com%2Fwordpress%2Fmedia%2F2012%2F10%2FAsynchronous-Shaders-White-Paper-FINAL.pdf&usg=AFQjCNHxdpKCiyfdVGQoiWjt0QvHe1ojIw&cad=rja) documento.

E basta con questa pezza... gli ACE fanno parte dell'architettura dall'inizio.

PS: parla anche della prelazione...

magnusll
08-08-2016, 14:38
Ecco che la 960 nei casi limiti di kepler, se la giocava con la 780:)

Visto che chiaramente ne sai, rispondimi a questa semplice domanda.

Premessa: io nel case ho una 780TI.

nVidia ovviamente sapeva (meglio di te o di chiunque altro) cos'era Kepler, quali erano le proprie intenzioni e cosa sarebbe successo.
Quindi sostanzialmente mi stai confermando dal punto di vista tecnico quello che io gia' sapevo per semplice deduzione: nVidia non si fa il benche' minimo problema a truffare milioni di clienti.

Da consumatore (quindi NON da azionista o dirigente nVidia): perche' dovrei mai piu' dare mezzo centesimo bucato a un' azienda del genere?

AkiraFudo
08-08-2016, 14:38
Per avere bisogno di motori Async in hardware NVIDIA dovrebbe sviluppare un'architettura inefficiente e con molti stati di idle degli shader.... quindi perchè dovrebbe farlo?

La furyX potenzialmente è sempre stata al pari di una 980Ti, ma in DX11 era sotto per via di un'architettura e di un driver inefficiente. Async le consente di mettere la pezza a tutto questo. NVIDIA non ha pezze da mettere, le sue architetture sono efficienti e con pochissimi stati di idle....

Per questo Async non da benefici sulle verdi e aiuta tantissimo le rosse.

un gran bel film...
sulle verdi non ci son vantaggi perchè non li supporta.
con volta riuscirai a vederli questi benefici.

Giustaf
08-08-2016, 14:40
E' meglio che per l'ennesima volta qualcuno si legga questo (https://www.google.it/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&ved=0ahUKEwiJxouY6LHOAhWGWiwKHRyfCgkQFggoMAE&url=http%3A%2F%2Famd-dev.wpengine.netdna-cdn.com%2Fwordpress%2Fmedia%2F2012%2F10%2FAsynchronous-Shaders-White-Paper-FINAL.pdf&usg=AFQjCNHxdpKCiyfdVGQoiWjt0QvHe1ojIw&cad=rja) documento.

E basta con questa pezza... gli ACE fanno parte dell'architettura dall'inizio.

PS: parla anche della prelazione...

ancora slide? :stordita:

mirkonorroz
08-08-2016, 14:46
ancora slide? :stordita:

Ancora troll?

Legolas84
08-08-2016, 15:12
un gran bel film...
sulle verdi non ci son vantaggi perchè non li supporta.
con volta riuscirai a vederli questi benefici.

Si sta bene non avendo idea di cosa siano davvero i motori async hardware e non capire perchè AMD ne trae vantaggio, e dire semplicemente se li hai vai di più vero? :asd:
E subito dopo questo autoconvincersi che in DX12 AMD sia anni luce avanti :asd:


Se metti gli Async hardware su Pascal, gli incrementi saranno ridicoli, questa è la realtà. Per questo non sono stati implementati ne su Maxwell prima, ne su Pascal dopo e dubito li vedremo su Volta. Le architetture NVIDIA sono già in grado di caricare opportunamente tutti gli shader senza bisogno di motori hardware.

Ma ormai con questo forum ho praticamente perso la speranza...

mikael84
08-08-2016, 15:13
Non vedo il collegamento legacy con architettura vega.

Nvidia da sempre sposta in secondo piano la vecchia serie quando esce la nuova.

Sappiamo 3 cose :
1 che pascal è una architettura compatibile con le hbm
2 che pascal è una architettura che consuma poco.
3 che amd non ha ne ottimi silici ne bassi consumi e deve puntare tutto sulle dx12 o vulkan che sia.

Quindi l'unico motivo che potrebbe portare nvidia a cambiare architettura è per metterci gli async ,ammesso che non si possano mettere su pascal , ma questo solamente MIKEAL84 Puo saperlo :)), sempre che gli interessi metterli , visto che a oggi non servono a niente.

Sinceramente della prossima architettura penso di aver capito ciò che nvidia andrà ad affinare, ma non so sinceramente se nvidia metta asynch shader, magari via raster.
Nvidia ha un'architettura scalare che permette ad ogni singolo thread di lavorare al massimo.
Tutto quello che fa Pascal è lavorare su due fronti, fermare il lavoro quando si deve dedicare a ben altri calcoli e memorizzare il lavoro svolto parallelamente. Questo viene fatto per cercare di non lasciare mai uno shader in attesa, che se si ritrova libero può caricare il lavoro svolto simultaneamente.
Un modo per cercare di non avere mai ALU in attesa.

Se Nvidia mette asynch hardware, questi fanno un grosso lavoro parallelo, poi il lavoro svolto deve stare in coda, non ha molto senso.
Pascal rispetto a Maxwell dai primi giochi migliora leggermente a basse risoluzioni.

AMD ha tutt'altra architettura che non riesce a far lavorare come si deve.

Visto che chiaramente ne sai, rispondimi a questa semplice domanda.

Premessa: io nel case ho una 780TI.

nVidia ovviamente sapeva (meglio di te o di chiunque altro) cos'era Kepler, quali erano le proprie intenzioni e cosa sarebbe successo.
Quindi sostanzialmente mi stai confermando dal punto di vista tecnico quello che io gia' sapevo per semplice deduzione: nVidia non si fa il benche' minimo problema a truffare milioni di clienti.

Da consumatore (quindi NON da azionista o dirigente nVidia): perche' dovrei mai piu' dare mezzo centesimo bucato a un' azienda del genere?


No attenzione, concordo che il non supporto di una simile architettura è stato folle, la gestione dipendenze l'aveva pure la Vliw di AMD.

A livello architetturale era l'unica soluzione possibile.
Nvidia aveva due strade:
Riprendere la 480-580, cioè con scheduler senza dipendenza, quindi utilizzare 128cc per SMX, oppure affidarsi ad un compilatore.

La 680 doveva competere con la 7870, però non erano convinti, allora presero il riferimento della 460.
La 460 era in:
16
16 dipendenza
16 dipendenza.

Se io ho la possibilità di far lavorare 3 blocchi simultaneamente, ho fatto tombola. Non è una truffa ma una genialata.

Kepler amplio tutto e creò due sub SMX da 96cc "2.
4 schedulati due in dipendenza.
La 680 quindi anzichè lavorare con soli 1024cc, riusciva a ad avere picchi di 1536 shader, così facendo potevano contrastare la 7870.

Al lancio però questa tecnica permise alla 680 di battere addirittura la 7970.


Quindi, non è una truffa, ma Nvidia è stata costretta.

Quello che è sbagliato è l'abbandono di un chip a compilatore.

magnusll
08-08-2016, 15:31
Quindi, non è una truffa, ma Nvidia è stata costretta.

Quello che è sbagliato è l'abbandono di un chip a compilatore.

Non discuto la soluzione tecnica, discuto la strategia commerciale. Lasciare Kepler a se' stesso (che equivale a scalarlo di due fasce verso il basso per i motivi che hai spiegato molto meglio tu) non e' stata una casualita', ma una scelta assolutamente voluta.

Se non e' truffa (soprattutto continuare a venderle dopo che internamente avevano preso la decisione, che dubito sia accaduto il giorno del rilascio di TW3...), come la chiami?

mirkonorroz
08-08-2016, 15:47
Non discuto la soluzione tecnica, discuto la strategia commerciale. Lasciare Kepler a se' stesso (che equivale a scalarlo di due fasce verso il basso per i motivi che hai spiegato molto meglio tu) non e' stata una casualita', ma una scelta assolutamente voluta.

Se non e' truffa (soprattutto continuare a venderle dopo che internamente avevano preso la decisione, che dubito sia accaduto il giorno del rilascio di TW3...), come la chiami?

Sicuramente non e' un comportamento virtuoso, ma non so se sia possibile arrivare ad una vera definizione di truffa.
Anche AMD poteva fare meglio la gestione in DX11 ed sponsorizzare le sue soluzioni a vari sviluppatori di giochi (aveva feature proprietarie anche lei), ma non lo ha fatto e quindi le schede AMD che ho usato sono sempre in qualche modo state sottoutilizzate. E' truffa?

@mikael
ma tu saresti in grado di modificare l'architettura AMD in modo che funzionasse bene AND servissero gli ACE?
Io rimango sempre male quando dici che AMD non riesce a fare andare la sua architettura. Se la sua architettura prevede gli ACE fino dall'inizio, gli ACE vanno usati punto e basta e sono parte della loro architettura non sono entita' aliene. Il fatto che prima non venissero sfruttate fa parte del discorso di prima. Doveva usarle prima.
Se poi l'architettura nvidia non ne ha bisogno, meglio per lei.
Ma io non sarei cosi' sicuro che l'ulteriore parallelizzazione, cosa su cui e' fondato il calcolo delle GPU, non debba servire. Semmai non serve con pascal, ma un domani pascal potrebbe essere obsoleto comunque e allora si riprenderanno in mano altre soluzioni che non e' detto che non prevedano gli ACE o cose del genere.

mikael84
08-08-2016, 15:48
Non discuto la soluzione tecnica, discuto la strategia commerciale. Lasciare Kepler a se' stesso (che equivale a scalarlo di due fasce verso il basso per i motivi che hai spiegato molto meglio tu) non e' stata una casualita', ma una scelta assolutamente voluta.

Se non e' truffa (soprattutto continuare a venderle dopo che internamente avevano preso la decisione, che dubito sia accaduto il giorno del rilascio di TW3...), come la chiami?

Sulla strategia commerciale è stata scorretta, di certo io che avevo 2 780 in SLI non la difendo. Certo cmq che tutto era studiato, Maxwell è stato scritto dopo di kepler.
Con TW3 il chip è stato lasciato in totale sbando. Qua c'è poco da difenderla.;)
Quando molti dicono, che su TW3 Kepler andava male per la tassellazione è una balla, visto che non era certo inferiore.

eXeS
08-08-2016, 15:52
Gli Async Shader sono un requisito delle DX12, ACE è come AMD l'ha implementato, gli Async Shader erano presenti già in Maxwell 2 ma l'allocazione delle risorse era statica, in soldoni era lo sviluppatore che doveva stabilire a priori come allocare le varie code di istruzioni e quindi di fatto non serviva ad una mazza,con Pascal l'allocazione è dinamica e quindi gli Async Shader sono supportati, con risultati inferiori rispetto ad AMD perché AMD ha un command processor meno efficiente.

http://www.anandtech.com/show/10325/the-nvidia-geforce-gtx-1080-and-1070-founders-edition-review/9


The issue, as it turns out, is that while Maxwell 2 supported a sufficient number of queues, how Maxwell 2 allocated work wasn’t very friendly for async concurrency. Under Maxwell 2 and earlier architectures, GPU resource allocation had to be decided ahead of execution. Maxwell 2 could vary how the SMs were partitioned between the graphics queue and the compute queues, but it couldn’t dynamically alter them on-the-fly. As a result, it was very easy on Maxwell 2 to hurt performance by partitioning poorly, leaving SM resources idle because they couldn’t be used by the other queues.

Getting back to Pascal then, Pascal finally fixes the resource allocation issue. For Pascal, NVIDIA has implemented a dynamic load balancing system to replace Maxwell 2’s static partitions. Now if the queues end up unbalanced and one of the queues runs out of work early, the driver and work schedulers can step in and fill up the remaining time with work from the other queues.

In concept it sounds simple, and in practice it should make a large difference to how beneficial async compute can be on NVIDIA’s architectures. Adding more work to create concurrency to fill execution bubbles only works if the queue scheduling itself doesn’t create bubbles, and this was Maxwell 2’s Achilles’ heel that Pascal has addressed.


GPUView eseguito con TimeSpy http://www.futuremark.com/pressreleases/a-closer-look-at-asynchronous-compute-in-3dmark-time-spy


NVIDIA GeForce GTX 970
...
From this image, we can see that although work is submitted in two separate queues, the queues are merged to execute on a single hardware queue.

AMD Radeon Fury
Here is a corresponding trace from an AMD Radeon Fury. Two dedicated queues can clearly be observed on both the hardware and the device context side. The black ellipses are pointing to a specific compute packet, while the yellow ellipse points to a present packet which helps to identify the DIRECT queue.

NVIDIA GeForce GTX 1080
Above is a corresponding trace from an NVIDIA GTX 1080. As can be seen the general structures resemble those which are found on AMD Radeon Fury, albeit with extra queues that do not originate from the engine and which contain only synchronization items. From this image we can see that the GTX 1080 has an additional compute queue which accepts packets in parallel with the 3D queue.


Il requisito degli async shader è l'esecuzione parallela della compute queue con la 3d queue, e pascal riesce a farlo.

Ale55andr0
08-08-2016, 15:56
un gran bel film...
sulle verdi non ci son vantaggi perchè non li supporta.
con volta riuscirai a vederli questi benefici.

è quel che credo anch'io :fagiano:

mirkonorroz
08-08-2016, 16:18
Gli Async Shader sono un requisito delle DX12, ACE è come AMD l'ha implementato, gli Async Shader erano presenti già in Maxwell 2 ma l'allocazione delle risorse era statica, in soldoni era lo sviluppatore che doveva stabilire a priori come allocare le varie code di istruzioni e quindi di fatto non serviva ad una mazza,con Pascal l'allocazione è dinamica e quindi gli Async Shader sono supportati, con risultati inferiori rispetto ad AMD perché AMD ha un command processor meno efficiente.

http://www.anandtech.com/show/10325/the-nvidia-geforce-gtx-1080-and-1070-founders-edition-review/9



GPUView eseguito con TimeSpy http://www.futuremark.com/pressreleases/a-closer-look-at-asynchronous-compute-in-3dmark-time-spy



Il requisito degli async shader è l'esecuzione parallela della compute queue con la 3d queue, e pascal riesce a farlo.

Penso che piu' che un requisito gli AS siano una opportunita' nelle DX12: non penso che le specifiche obblighino ad usarli? O sbaglio?

Giustamente invece nell'ultima frase usi il termine requisito in modo corretto, in quel contesto e io sono contento che nvidia li realizzi a modo suo, ma quello che non mi va e' il discorso della pezza di amd.

Solo per precisione (se non ho sbagliato io)

Ripeto che bisognerebbe prendere due schede paragonabili (e qui non sono certo io a capire quali possano essere) e dargli in pasto il codice con gli AS.
Quella che va di piu' (sempre che anche tutto il resto non sia sbilanciato) e' quella piu' veloce, indipendentemente da chi se ne avvantaggia di piu' rispetto a prima, che non c'entra nulla. Nvidia ha il suo modo, amd ha il suo modo che comprende gli ACE e morta li'.

C'e una scheda paragonabile alla fury con cui fare una prova con gli AS?
Se non c'e' per millemila motivi di altre differenze architetturali o di sw inesistente amen, la verita' non si sapra'. Se c'e' e c'e' il SW basta provare.

EDIT: e ci tengo a precisare che tutto cio' ha solo parzialmente a che vedere con la scelta che puoi uno va a fare, che dipende da un sacco di altri motivi, compresa l'adozione di tali tecniche. Il mio e' solo un discorso "scientifico"

EDIT2:
molto significativo il passo nel link postato imho e' proprio questo:

In the past, we have discussed the option of vendor-specific code paths with our development partners, but they are invariably against it. In many cases, an aggressive optimization path would also require altering the work being done, which means the test would no longer provide a common reference point. And with separate paths for each architecture, not only would the outputs not be comparable, but the paths would be obsolete with every new architecture launch

3DMark benchmarks use a path that is heavily optimized for all hardware. [...]


DMark is not intended to be a measure of the absolute theoretical maximum performance of hardware.


Per me qui sta molto del problema. Per quanto sia vera la seconda, si perde necessariamente di precisione.

Legolas84
08-08-2016, 16:52
Penso che piu' che un requisito gli AS siano una opportunita' nelle DX12: non penso che le specifiche obblighino ad usarli? O sbaglio?

Giustamente invece nell'ultima frase usi il termine requisito in modo corretto, in quel contesto e io sono contento che nvidia li realizzi a modo suo, ma quello che non mi va e' il discorso della pezza di amd.

Solo per precisione (se non ho sbagliato io)

Ripeto che bisognerebbe prendere due schede paragonabili (e qui non sono certo io a capire quali possano essere) e dargli in pasto il codice con gli AS.
Quella che va di piu' (sempre che anche tutto il resto non sia sbilanciato) e' quella piu' veloce, indipendentemente da chi se ne avvantaggia di piu' rispetto a prima, che non c'entra nulla. Nvidia ha il suo modo, amd ha il suo modo che comprende gli ACE e morta li'.

C'e una scheda paragonabile alla fury con cui fare una prova con gli AS?
Se non c'e' per millemila motivi di altre differenze architetturali o di sw inesistente amen, la verita' non si sapra'. Se c'e' e c'e' il SW basta provare.

EDIT: e ci tengo a precisare che tutto cio' ha solo parzialmente a che vedere con la scelta che puoi uno va a fare, che dipende da un sacco di altri motivi, compresa l'adozione di tali tecniche. Il mio e' solo un discorso "scientifico"

EDIT2:
molto significativo il passo nel link postato imho e' proprio questo:



Per me qui sta molto del problema. Per quanto sia vera la seconda, si perde necessariamente di precisione.


Guarda qui ho riassunto con parole molto semplici come mai le schede AMD hanno un balzo prestazionale in DX12 più marcato rispetto a NVIDIA.

http://www.hwupgrade.it/forum/showpost.php?p=43675345&postcount=2

È un post che ho scritto in collaborazione con mikael84.

Luca T
08-08-2016, 17:08
Ma avere un balzo prestazionale in dx12 rispetto alla concorrente ed andare più forte della concorrente in dx12 sono due cose diverse!

Legolas84
08-08-2016, 17:10
Ma avere un balzo prestazionale in dx12 rispetto alla concorrente ed andare più forte della concorrente in dx12 sono due cose diverse!

Esatto, infatti non vanno più forte della concorrente, ma indubbiamente guadagnano di più. Sempre parlando di schede vecchie... in Pascal vs Polaris la situazione è indefinita in quanto in molte fasce AMD non esiste.

eXeS
08-08-2016, 17:40
Penso che piu' che un requisito gli AS siano una opportunita' nelle DX12: non penso che le specifiche obblighino ad usarli? O sbaglio?

E' un requisito per poter scrivere sulla confezione della scheda DX12 capable, un opportunità per i programmatori che consente loro di spremere al massimo la GPU, ed anche per i produttori di GPU, ma c'è un però....

Dal punto di vista del programmatore l'uso degli AS implica una maggiore complessità del codice con un aumento dei costi di sviluppo, benefici dell'ordine del 10-15% in DX giustificano l'aumento dei costi, quando magari lo stesso risultato lo si può ottenere riducendo leggermente l'IQ ?

Dal punto di vista del produttore GPU vale un discorso analogo, se i benefici sono di quella entità, è più costoso migliorare il supporto degli AS in hardware, oppure disegnare la GPU per sostenere frequenze più elevate del 10-15% ?

Nurabsa
08-08-2016, 17:42
sommando un po tutti dati postati,

si evince che envidia sta sperimentando parecchio in chiave dx12
Prima statico poi dinamico testimonia soltanto che rapportato alla concorrenza vogliono vedere quanto spinge un architettura già molto efficiente .

Di questo passo volta potrebbe seguire pascal o in base a come lo stravolgeranno riprendere maxwell as

FroZen
08-08-2016, 17:52
E' un requisito per poter scrivere sulla confezione della scheda DX12 capable, un opportunità per i programmatori che consente loro di spremere al massimo la GPU, ed anche per i produttori di GPU, ma c'è un però....

Dal punto di vista del programmatore l'uso degli AS implica una maggiore complessità del codice con un aumento dei costi di sviluppo, benefici dell'ordine del 10-15% in DX giustificano l'aumento dei costi, quando magari lo stesso risultato lo si può ottenere riducendo leggermente l'IQ ?

Dal punto di vista del produttore GPU vale un discorso analogo, se i benefici sono di quella entità, è più costoso migliorare il supporto degli AS in hardware, oppure disegnare la GPU per sostenere frequenze più elevate del 10-15% ?

In teoria è l'approccio hw piu semplice da usare che non quello software da un punto di vista di sviluppo

mirkonorroz
08-08-2016, 18:00
DX12 e Async Compute / OpenGL new gen: Vulkan - IL SUPPORTO DI PASCAL

Le DX12 saranno le API della prossima generazione. Introducono molti vantaggi per lo più prestazionali.

Riguardo il dibattito sulla gestione dell'Async Compute consiglio di leggere questa pagina della review di Hwupgrade che spiega la situazione di Pascal:

http://www.hwupgrade.it/articoli/skvideo/4643/nvidia-geforce-gtx-1080-founders-edition-la-nuova-top-di-gamma_5.html

Detto questo ora vi chiederete come mai l'architettura NVIDIA benefica meno del salto da DX11 a DX12 rispetto a quella AMD.

Async Compute consente (sintetizzando) di bilanciare i carichi computazionali della gpu riducendo in modo drastico gli stati di idle, ovvero i periodi in cui determinati motori di calcolo della gpu rimangono in attesa che altre parti finiscano di eseguire le loro istruzioni.

l'Architettura AMD è molto più soggetta a questi problemi rispetto a quella NVIDIA. Per questo motivo le schede AMD godono di un boost prestazionale più marcato nel passaggio alle DX12. Una FuryX è generalmente paragonabile a una 980Ti in questo ambiente, grazie a questi benefici.

Secondo me l'errore e' proprio quello di pensare agli ACE come una cosa separata che vada a correggere qualcosa che non va. Gli ACE ci sono e in AMD devono usarli. Essi risolvono via HW la questions AS. Fanno parte dell'architettura. Parallelizzano dei calcoli. E' un altro modo ma e' lecito. Se gia' mikael dice che nvidia non se ne avvantaggia, vuol dire che AMD per averli in teoria dovrebbe avere una soluzione "tipo" nvidia: come si fa a stabilire se sia meglio a livello complessivo se bisogna considerare le architetture in toto e quindi le prestazioni di AMD comprensive di ACE?
DX12 e Async Compute / OpenGL new gen: Vulkan - IL SUPPORTO DI PASCAL
Pascal garantisce un boost in DX12 equivalente a quello in DX11, posizionandosi come scheda video di riferimento nella declinazione GP104-400.

Questo va bene, considerando i confronti tra le nvidia.
DX12 e Async Compute / OpenGL new gen: Vulkan - IL SUPPORTO DI PASCAL

La situazione di quanto detto sopra si evidenzia, ad esempio, in questi due test Dx12 a risoluzione 1440p:

https://tpucdn.com/reviews/NVIDIA/GeForce_GTX_1080/images/rottr_2560_1440.png

Link a Wharammer in DX12 su guru3d che purtroppo non lascia copiare le immagini.

http://www.guru3d.com/articles_pages/total_war_warhammer_directx_12_pc_graphics_performance_benchmark_review,6.html

Qui si fa vedere come la 1080 sia davanti a tutte le nvidia e ok.
E' impossibile da qui fare confronti con la fury, perche' comunque non si conosce il codice di TR rispetto a tutti gli altri aspetti e finora non e' comunque dimostrata alcuna superiorita' o inferiorita' "teorica" tra la fury e qualche altra scheda. Il test e' utile in senso pratico (per comprare una scheda piuttosto che un'altra) ma per me non e' molto utile in senso "scientifico".
DX12 e Async Compute / OpenGL new gen: Vulkan - IL SUPPORTO DI PASCAL
IL CASO ASHES OF THE SINGULARITY
AOS è un videogioco rts con un punteggio metacritic di 69. Sebbene non abbia di certo fatto parlare di se in quanto capolavoro, è stato al centro di una diatriba in quanto mostra come le schede Radeon in questo gioco stacchino nettamente le GeForce di pari fascia attivando le DX12 e l'Async Compute (sebbene la 1080 continui a far segnare le migliori prestazioni assolute).

Bene, mettetevi il cuore in pace. Nessuna GeForce andrà mai meglio di una Radeon di pari fascia in questo gioco, in quanto il motore è stato sponsorizzato da AMD, ed è scritto per favorire questo tipo di architettura.
È un pò come quando le GeForce vanno meglio delle Radeon nei giochi sponsorizzati da NVIDIA e che includono GameWorks (come The Witcher 3 ad esempio).

Queste sono tattiche ampiamente usate dalle due società, sebbene NVIDIA, a dire il vero, sia molto più incline a finanziare gli sviluppatori per favorire la propria architettura.

Permesso che vale la stessa considerazione per i giochi sopra,
qui bisogna avere delle prove. Come facciamo, senza sorgenti, a dire che e' stata favorita AMD e in che misura lo sia stata? Che tecniche sarebbero state usate? Non sicuramente l'async compute, perche' nvidia lo avrebbe "risolto" anch'essa. O ci sono diversi modi di usare, via SW, l'AS dipendenti dalle architetture? Se esistono piu' modi non avremmo praticamente mai il riscontro se non guardando i sorgenti. E non parlo solo di inversione di performance ma anche di "ulteriore allungo" (che si anvidia o amd fa lo stesso), non so se mi spiego.
Qui il problema non e' molto il gameworks rispetto magari al tressFx ( nel caso avesse favorito amd), perche' esse sono feature entrambe dichiarate e specifiche. Ognuno imho e' libero di usarle e imho si dovrebbero proprio usarle a costo di fare due versioni dei giochi. Se l'AS e' neutro on e' paragonabile a queste cosa. Ed "e'" neutro perche' si continua a dire che pascal non ne giovera'. Io on lo so mi fido di voi.
Quindi di nuovo se AOS e' pro AMD, che cosa usa di AMD che nvidia non puo' affrontare?

DX12 e Async Compute / OpenGL new gen: Vulkan - IL SUPPORTO DI PASCAL
Vulkan - Test sul nuovo DOOM

Riguardo all'uso delle nuove api OpenGL sviluppate dal gruppo Khronos e denominate Vulkan, c'è per ora un test effettuato durante la presentazione di DOOM, il nuovo gioco idSoftware sviluppato sul nuovissimo motore ID Tech6.
qui una notizia riguardo la presentazione dove si evince come le nuove API siano perfettamente supportate da PASCAL e garantiscano un importante aumento prestazionale:

http://www.tomshw.it/news/doom-gira-alla-grande-su-una-gtx-1080-grazie-alle-api-vulkan-76777



Se pascal supporta perfettamente l'AS allora il codice scritto per sfruttarlo non deve metterlo in crisi, a meno che come detto prima non vi siano due modi per sfruttare l'AS, via SW e se per caso si usasse il "metodo" amd influirebbe male su pascal?

E' un requisito per poter scrivere sulla confezione della scheda DX12 capable, un opportunità per i programmatori che consente loro di spremere al massimo la GPU, ed anche per i produttori di GPU, ma c'è un però....

Dal punto di vista del programmatore l'uso degli AS implica una maggiore complessità del codice con un aumento dei costi di sviluppo, benefici dell'ordine del 10-15% in DX giustificano l'aumento dei costi, quando magari lo stesso risultato lo si può ottenere riducendo leggermente l'IQ ?

Dal punto di vista del produttore GPU vale un discorso analogo, se i benefici sono di quella entità, è più costoso migliorare il supporto degli AS in hardware, oppure disegnare la GPU per sostenere frequenze più elevate del 10-15% ?

Giusto. Questo e' fuori discussione per quanto riguarda nvidia. EDIT: (nella situazione in cui si trova ora).

In ogni caso, vi ringrazio di intervenire senza polemica, e ditemi se ormai si va troppo alla deriva. Tutto quello che cerco di dire io e' che e' difficile fare un confronto equo e non mi va la storia della pezza.
A me rimane il dubbio delle performance su schede "teoricamente" della stessa fascia. Penso mi rimarra' visto che i test che sarebbero necessari non vengono implementati.
E alla fine non e' nemmeno detto che si possa decidere teoricamente se sia meglio una o l'altra perche', appunto una scheda potrebbe essere molto avvantaggiata o svantaggiata in un aspetto rispetto all'altra.
Cioe' se facciamo un gioco/bench (Heaven) dove la tassellazione e' usata malissimo e magari parte da 3 poligoni per finire a milioni, anche se magari a video la differenza con centomila (numeri a caso) non si vede, chiaramente si sapra' che nvidia sara' migliore, ma avrebbe senso? Idem per cose analoghe di AMD (antialiasing?).

(Non ho preso volutamente in considerazione i consumi etc. perche' in questo contesto no mi interessano, in altro e a seconda delle differenze in rapporto agli altri aspetti, certamente si').

Legolas84
08-08-2016, 18:30
mirkonorroz, non c'è peggior sordo di chi non vuol sentire ;)

la situazione è quella che ti ho linkato poi puoi provare a vederla in n mila modi ma quella rimane. NVIDIA e AMD hanno due architetture diverse. Entrambe possono dare il 100% ma nella realtà NVIDIA ha sempre dato il 90% grazie a un driver e ad un'architettura migliore mentre AMD ha sempre dato il 75%...

Poi sono arrivate le DX12 in cui è stato inserito Async Compute. L'uso di questa feature garantisce ad AMD di tirare fuori il potenziale inespresso senza dover mettere mano al driver o riprogettare l'architettura. Certo per farlo ha bisogno di inserire dei motori in hardware ma così nei giochi che lo supportano riesce a dare il 90% delle potenzialità come la rivale.

Ti aggiorno su Ashes of the Singularity: questo mediocre RTS è stato sviluppato seguendo strettamente le indicazioni di AMD per favorire la sua architettura ai danni della rivale. Vai alla pagina ufficiale del gioco http://www.ashesofthesingularity.com/ scorri fino in fondo e guarda i loghi.

Ehi non c'è niente di male nel farlo eh, anzi AMD dovrebbe farlo molto di più e magari anche con i giochi che non sono delle chiaviche, sarebbe un'ottima mossa per risollevarsi, ma per farlo servono i $$$....

mirkonorroz
08-08-2016, 19:03
mirkonorroz, non c'è peggior sordo di chi non vuol sentire ;)

la situazione è quella che ti ho linkato poi puoi provare a vederla in n mila modi ma quella rimane. NVIDIA e AMD hanno due architetture diverse. Entrambe possono dare il 100% ma nella realtà NVIDIA ha sempre dato il 90% grazie a un driver e ad un'architettura migliore mentre AMD ha sempre dato il 75%...



Questo mi va bene, cioe' male ma sono d'accordo.
Con ENTRAMBE tu intendi le schede o le marche, poiche' le architetture e i drivers fanno parte del motivo.
Se le schede danno il 75% vuol dire che e' un 75 rispetto ad un 100. Quindi un 100 deve esistere anche se non si e' mai raggiunto.
Quindi si deduce che almeno un 25 in piu' la scheda e' piu' veloce di se stessa. Quindi e' una scheda da 100.
Ovviamente non sappiamo il 100 di nvidia quanto sia rispetto al 100 di amd o viceversa.
Guarda, ti puo' sembrare una trollata ma e' per palesare la logica.



Poi sono arrivate le DX12 in cui è stato inserito Async Compute. L'uso di questa feature garantisce ad AMD di tirare fuori il potenziale inespresso senza dover mettere mano al driver o riprogettare l'architettura. Certo per farlo ha bisogno di inserire dei motori in hardware ma così nei giochi che lo supportano riesce a dare il 90% delle potenzialità come la rivale.



L'uso di questa feature (alla buon'ora aggiungo io) non e' altro che il corretto utilizzo dell'architettura AMD e di come e' stata pensata dall'inizio.
I motori in HW non sono piovuti dal cielo nel mentre... sono sempre stati li' in GCN e li hanno aumentati nel tempo.
Solo in futuro si potra' capire la direzione dove andra' e se sara' piu' conveniente aggiungere ACE a iosa o cambiare tutto.
Non ti viene il dubbio che poiche' si dice sempre che nvidia ottimizza le architetture nel breve periodo, le prossime possano essere anche sensibilmente differenti? E chi non ci dice che non prendera' la direzione di AMD, magari migliorando anche gli aspetti piu' deboli?

[/quote]



Ti aggiorno su Ashes of the Singularity: questo mediocre RTS è stato sviluppato seguendo strettamente le indicazioni di AMD per favorire la sua architettura ai danni della rivale. Vai alla pagina ufficiale del gioco http://www.ashesofthesingularity.com/ scorri fino in fondo e guarda i loghi.


Devi dimostrarlooo... o citare qualcuno che lo abbia dimostrato non basta un logo. Ripeto che features avrebbero usato che avrebbero messo in crisi le nvidia? O ci sono cicli wait con "if nvidia"?
Guarda che e' una accusa non da poco.
Io ti sto parlando da un punto di vista scientifico, e non tanto per, sono estremamente serio.
E' come quando si accusa project cars, l'ho fatto anche io, ma sono consapevole che non ho fondamenti scientifici per farlo e LO DICO, quindi rimangono le ipotesi e i fatti su come gira.
(Per inciso adesso pcars con il freesync e' tutto un altro gioco).


Ehi non c'è niente di male nel farlo eh, anzi AMD dovrebbe farlo molto di più e magari anche con i giochi che non sono delle chiaviche, sarebbe un'ottima mossa per risollevarsi, ma per farlo servono i $$$....

devil_mcry
08-08-2016, 19:12
beh di Ashes of the Singularity è abbastanza noto, il gioco tra l'altro è nato con mantle e portato in dx12 solo dopo al termine di mantle se ricordo bene , e nei video il ceo della sw house ha parlato più di amd che del gioco

che poi nn c'è nulla di male ma non mettiamo la testa sotto terra dai

fraussantin
08-08-2016, 19:16
Sulla strategia commerciale è stata scorretta, di certo io che avevo 2 780 in SLI non la difendo. Certo cmq che tutto era studiato, Maxwell è stato scritto dopo di kepler.
Con TW3 il chip è stato lasciato in totale sbando. Qua c'è poco da difenderla.;)
Quando molti dicono, che su TW3 Kepler andava male per la tassellazione è una balla, visto che non era certo inferiore.
Ecco ma secondo te nvidia poteva aiutare via driver oppure è proprio l'engine che castra quel tipo di architettura?

mirkonorroz
08-08-2016, 19:22
beh di Ashes of the Singularity è abbastanza noto, il gioco tra l'altro è nato con mantle e portato in dx12 solo dopo al termine di mantle se ricordo bene , e nei video il ceo della sw house ha parlato più di amd che del gioco

che poi nn c'è nulla di male ma non mettiamo la testa sotto terra dai

Prove please: dichiarazioni di hacker o di dipendenti o codice sorgente alla mano.
Vi rendete conto che non si puo' nemmeno dire se sia stato scritto bene per amd?
Questo per farvi capire che nei vostri ragionamenti non tenete in considerazione tutti gli aspetti.
Se vai in tribunale cosi' ti ridono in faccia e non dico che vi si debba andare, e' solo per fare capire un approccio rigoroso ad una discussione su un foruim tecnico, ma che le opinioni personali sono una cosa le prove/dimostrazioni sono un'altra cosa.
Io non faccio l'avvocato di nessuno, ripeto non si puo' accusare a caso ed essere presi sul serio.
Ed aggiungo che quello che affermate non lo scarto tra le mie ipotesi ma non potro' mai spacciarlo per vero.

Legolas84
08-08-2016, 19:25
Va bo allora io alzo bandiera bianca... e rilancio con:

Gameworks non è un middleware per favorire le gpu NVIDIA

Glide non era un'api per favorire le Voodoo

:D

mirkonorroz
08-08-2016, 19:54
Va bo allora io alzo bandiera bianca... e rilancio con:

Gameworks non è un middleware per favorire le gpu NVIDIA

Glide non era un'api per favorire le Voodoo

:D

Macche' bandiera bianca :D

Glide non lo conosco (ho avuto un buco tra l'amiga ed il pc di parecchi anni), pero' penso che da qualche parte nvidia abbia fatto qualche documento che metta in relazione le feature gameworks con le sue schede. Io forse mi fiderei di questo. Oddio... se uno volesse potrebbe diventare sviluppatore nvidia e accertarsene :D

Comunque ciao :D
Per oggi basta, e' comunque stato un piacere :)

devil_mcry
08-08-2016, 20:18
Prove please: dichiarazioni di hacker o di dipendenti o codice sorgente alla mano.
Vi rendete conto che non si puo' nemmeno dire se sia stato scritto bene per amd?
Questo per farvi capire che nei vostri ragionamenti non tenete in considerazione tutti gli aspetti.
Se vai in tribunale cosi' ti ridono in faccia e non dico che vi si debba andare, e' solo per fare capire un approccio rigoroso ad una discussione su un foruim tecnico, ma che le opinioni personali sono una cosa le prove/dimostrazioni sono un'altra cosa.
Io non faccio l'avvocato di nessuno, ripeto non si puo' accusare a caso ed essere presi sul serio.
Ed aggiungo che quello che affermate non lo scarto tra le mie ipotesi ma non potro' mai spacciarlo per vero.

http://www.gamemag.it/news/amd-al-lavoro-con-stardock-per-creare-la-grafica-directx-12-di-ashes-of-the-singularity_61201.html
http://venturebeat.com/2016/02/24/amd-partners-with-stardock-to-create-awesome-graphics-for-ashes-of-the-singularity/
http://gameranx.com/updates/id/40169/article/amd-ashes-of-the-singularity-dx12/

Nurabsa
08-08-2016, 20:25
come prova non basta che un titolo fa molti piu frame su una rossa piuttosto che su una verde e viceversa ? :stordita:

quando favoriscono l architetture la prova è lampante suvvia o come si dice qui minchia :asd:

Legolas84
08-08-2016, 20:38
Macche' bandiera bianca :D

Glide non lo conosco (ho avuto un buco tra l'amiga ed il pc di parecchi anni), pero' penso che da qualche parte nvidia abbia fatto qualche documento che metta in relazione le feature gameworks con le sue schede. Io forse mi fiderei di questo. Oddio... se uno volesse potrebbe diventare sviluppatore nvidia e accertarsene :D

Comunque ciao :D
Per oggi basta, e' comunque stato un piacere :)

Ti sei perso l'era migliore del PC game se non sai cosa sono le TurboGlide :D

fraussantin
08-08-2016, 21:27
Prove please: dichiarazioni di hacker o di dipendenti o codice sorgente alla mano.
Vi rendete conto che non si puo' nemmeno dire se sia stato scritto bene per amd?
Questo per farvi capire che nei vostri ragionamenti non tenete in considerazione tutti gli aspetti.
Se vai in tribunale cosi' ti ridono in faccia e non dico che vi si debba andare, e' solo per fare capire un approccio rigoroso ad una discussione su un foruim tecnico, ma che le opinioni personali sono una cosa le prove/dimostrazioni sono un'altra cosa.
Io non faccio l'avvocato di nessuno, ripeto non si puo' accusare a caso ed essere presi sul serio.
Ed aggiungo che quello che affermate non lo scarto tra le mie ipotesi ma non potro' mai spacciarlo per vero.
Si ma poi non ho capito dove sia il reato.

Se amd finanzia per migliorare un prodotto con le sue architetture , come nvidia fa per altri.

L'importante è che non si paghi per peggiorare volutamente le prestazioni.

mikael84
08-08-2016, 23:14
Ecco ma secondo te nvidia poteva aiutare via driver oppure è proprio l'engine che castra quel tipo di architettura?

No l'engine non castra e la compilazione del driver che dev'essere ottimale. Kepler è pure creata con una potenza elevata via TMU ma carentissima via rop's. Il rapporto tra rop's-cache-banda è pessimo. Una 780ti pur avendo un teorico di ben 335gb/s in banda, raggiunge appena i 223 gb/s, valore più infimo di quello raggiunto da una 970 con la cache tagliata.

La 780 ancora peggio, e fa degli shader e tmu la forza principale, altrimenti, si ritrova una 960 in alcuni reparti più performante.
La 970 in queste condizioni mantiene, non solo una potenza teorica superiore, ma anche un rapporto istruzioni, rop's-cache-banda nettamente superiore.:)

Macche' bandiera bianca :D

Glide non lo conosco (ho avuto un buco tra l'amiga ed il pc di parecchi anni), pero' penso che da qualche parte nvidia abbia fatto qualche documento che metta in relazione le feature gameworks con le sue schede. Io forse mi fiderei di questo. Oddio... se uno volesse potrebbe diventare sviluppatore nvidia e accertarsene :D

Comunque ciao :D
Per oggi basta, e' comunque stato un piacere :)

Questa frase va interpretata. E' vero che AMD non riesce sempre a sfruttare tutta la potenza (che poi il rapporto flops virgola mobile è relativo, visto che Nvidia associa le SFU e load store in rapporto 4:1, non le emula) ma Nvidia non ha neppure colpa se una architettura è indietro in maniera netta sulla geometria.

Nvidia, ha un GPC scalabile, basta caricarne uno per migliorare qualsiasi stadio moltiplicatore, AMD no, basta fare back face culling (heaven) e AMD la distruggi. Puoi anche mettere 20tf che non cambia nulla.

Ogni architettura ha il suo pro e contro, ma tali effetti spesso e volentieri sono impossibili anche su una Nvidia.

mirkonorroz
09-08-2016, 00:38
http://www.gamemag.it/news/amd-al-lavoro-con-stardock-per-creare-la-grafica-directx-12-di-ashes-of-the-singularity_61201.html
http://venturebeat.com/2016/02/24/amd-partners-with-stardock-to-create-awesome-graphics-for-ashes-of-the-singularity/
http://gameranx.com/updates/id/40169/article/amd-ashes-of-the-singularity-dx12/

Allora con calma... visto che siamo ormai al giorno dopo :D
Per adesso ho riletto solo la rece nel primo link.
Viene detto che gli sviluppatori di AOS hanno sviluppato il titolo a stretto contatto con AMD. Io questo non ho mai detto che sia falso ed e' un fatto credibile, quindi anche senza codice alla mano posso darlo per buono, cioe' MI FIDO.
Io pero' sono pinco pallo il pollo, ma se dovessimo provare veramente le affermazioni bisognerebbe comunque vedere il codice. A me sembra tanto ovvia questa cosa, ma probabilmente e' un fatto che riguarada solo me :boh:
In ogni caso la storia degli async mi sembra sia descritta in modo virtuoso, quindi come una cosa sempre positiva, e non viene fatto riferimento ad nvidia, che da quello che si e' visto realizza a suo modo l'AS.
E' qui nasce il problema: c'e' chi dice che il gioco e' pesantemente ottimizzato AMD: ma in base a cosa allora, se entrambe le schede realizzano efficientemente l'AS?
Io trovo una contraddizione in chi mi risponde:
1. o l'async penalizza pascal oppure no
2. o ci sono piu' modi di programmare l'AS e AOS e' stato programmato per il modo AMD che penallizzerebbe NVIDIA
3. o non e' l'AS a penalizzare NVIDIA ma qualche altra feature



Si ma poi non ho capito dove sia il reato.

Se amd finanzia per migliorare un prodotto con le sue architetture , come nvidia fa per altri.

L'importante è che non si paghi per peggiorare volutamente le prestazioni.
Ma non c'e' reato :) almeno per me. Penso ci sia un fraintendimento, con tutti quest i discorsi, mi spiace se non risulto chiaro.
Io parlo di dichiarazioni nei forum credibili o meno in rapporto a prove (quella massima e' il codice sorgente) o dichiarazioni ufficiali. Ho gia' detto piu' volte che per me i giochi dovrebbero essere sviluppati in piu' versioni o comunque ci si accontenta cosi' e si sceglie quello che c'e'.



[cut + edit]


[0] Questa frase va interpretata. E' vero che AMD non riesce sempre a sfruttare tutta la potenza (che poi il rapporto flops virgola mobile è relativo, visto che Nvidia associa le SFU e load store in rapporto 4:1, non le emula) [1] ma Nvidia non ha neppure colpa se una architettura è indietro in maniera netta sulla geometria.

[2] Nvidia, ha un GPC scalabile, basta caricarne uno per migliorare qualsiasi stadio moltiplicatore, AMD no, basta fare back face culling (heaven) e AMD la distruggi. Puoi anche mettere 20tf che non cambia nulla.

[3] Ogni architettura ha il suo pro e contro, ma tali effetti spesso e volentieri sono impossibili anche su una Nvidia.

[0]: io sono stato generico perche' nemmeno so bene quali siano gli effetti gameworks e se tutti siano basati sui poligoni. Ad esempio l'occlusion o le ombre sono tutte basate sui poligoni(?): ma il mio discorso era su tutto un altro piano e cioe' sulla credibilita' che gli effetti gameworks fossero veramente basati su feature HW proprietarie senza vedere il codice sorgente e faceva comunque parte di un ragionamento piu' generale. Poi ho detto che sono disposto a crederlo, non tanto per i risultati pratici, ma perche' in pratica lo dichiarava nvidia; ma era una ipotesi e se mi dici che tutto gameworks dipende solo dalla capacita' di elaborazione dei poligoni, in realta' vuol dire che gameworks non e' che sfrutti un qualcosa che in amd non c'e', ma che nvidia lo fa meglio "e basta". Quando PhysX era prettamente HW allora si' che il gioco si poteva dire legato ad nvidia, visto che su amd o non poteva essere attivato o toccava alla cpu.
Anche gli AS se possono essere risolti da entrambe le schede non e' che un gioco e' scritto per una piuttosto che per l'altra ma che una e' piu' efficiente dell'altra, se a causa di questo va di piu'.

[1]: certamente e mi auguro che in amd risolvano anche perche' l'aumento di poligoni in futuro servira' ancora molto.

[2]: e lo so che nvidia e' piu' forte con i poligoni e a fare il culling (e grazie a te che l'hai detto molte volte :) ), infatti non sto criticando questo.

[3]: ok ma su questo siamo d'accordo

ma forse anche sul resto o forse no solo che e' difficile rendersene conto :)

In sunto penso che voi diciate:

a. visto che l'async e' piu' forte in amd che in nvidia se faccio un gioco che lo usa massivamente il gioco e' ottimizzato amd

ed analogamente

b. visto che nvidia e' piu' forte nei poligoni se faccio un gioco che ne utilizza un sacco il gioco e' ottimizzato nvidia

solo che a me sembrava si dicesse piu' volte anche che l'implementazione in nvidia via SW degli AS non influiva visto che "ne poteva fare a meno" e che applicandola non si avevano molti benefici.
Quindi la prima frase a. non dovrebbe nemmeno essere tanto vera...
Ma mi rifaccio alla questione del punto 1. nella prima riposta a devil_mcry

Cioe' vediamo ancora:

I) programmare un gioco che supporti AS serve o no per nvidia?
Serve meno che amd.

II) AOS e' sbilanciato a favore di amd a causa degli async?
Non puo' essere sbilanciato su un aspetto che per nvidia e' trascurabile o quantomeno poco rilevante.

Allora cosa diamine e' a sbilanciare il gioco AOS a favore di AMD?

E come fa una feature data per importante nell'articolo linkato essere cosi' poco rilevante per nvidia?


Ho probabilmente ripetuto i concetti piu' di una volta nella speranza che in almeno un modo possa venire compreso.

Buona notte a tutti :)

illidan2000
09-08-2016, 09:46
Non vedo il collegamento legacy con architettura vega.

Nvidia da sempre sposta in secondo piano la vecchia serie quando esce la nuova.

Sappiamo 3 cose :
1 che pascal è una architettura compatibile con le hbm
2 che pascal è una architettura che consuma poco.
3 che amd non ha ne ottimi silici ne bassi consumi e deve puntare tutto sulle dx12 o vulkan che sia.

Quindi l'unico motivo che potrebbe portare nvidia a cambiare architettura è per metterci gli async ,ammesso che non si possano mettere su pascal , ma questo solamente MIKEAL84 Puo saperlo :)), sempre che gli interessi metterli , visto che a oggi non servono a niente.
consuma così tanto AMD ???

fraussantin
09-08-2016, 09:56
consuma così tanto AMD ???

come maxwell a 28nm :rolleyes:
Esatto.

Non è un problemone , siamo sempre a livelli decenti. ( per ora)


Ma se non cambiano architettura mi sa che tra un paio di anni ( e gen ) si ritorna a vga la 300W

Il 14 nm mi sa che un po deve durare

devil_mcry
09-08-2016, 10:29
Allora con calma... visto che siamo ormai al giorno dopo :D
Per adesso ho riletto solo la rece nel primo link.
Viene detto che gli sviluppatori di AOS hanno sviluppato il titolo a stretto contatto con AMD. Io questo non ho mai detto che sia falso ed e' un fatto credibile, quindi anche senza codice alla mano posso darlo per buono, cioe' MI FIDO.
Io pero' sono pinco pallo il pollo, ma se dovessimo provare veramente le affermazioni bisognerebbe comunque vedere il codice. A me sembra tanto ovvia questa cosa, ma probabilmente e' un fatto che riguarada solo me :boh:
In ogni caso la storia degli async mi sembra sia descritta in modo virtuoso, quindi come una cosa sempre positiva, e non viene fatto riferimento ad nvidia, che da quello che si e' visto realizza a suo modo l'AS.
E' qui nasce il problema: c'e' chi dice che il gioco e' pesantemente ottimizzato AMD: ma in base a cosa allora, se entrambe le schede realizzano efficientemente l'AS?
Io trovo una contraddizione in chi mi risponde:
1. o l'async penalizza pascal oppure no
2. o ci sono piu' modi di programmare l'AS e AOS e' stato programmato per il modo AMD che penallizzerebbe NVIDIA
3. o non e' l'AS a penalizzare NVIDIA ma qualche altra feature



Ma scusa non prendertela ma negli ultimi anni dove sei stato? AMD e nVidia non è che se supportano le stesse features funzionano uguali, le due architetture che vengono portate avanti sono diverse alla base. AMD ha da sempre architetture più orientate alla potenza brutta nei calcoli geometrici mentre nVidia ormai è da Fermi se non ricordo male che ha un'architettura orienta alle perfomance in Tasselazione. Sono due minuti di ricerca e trovi tutto. E questo già di base fa si che in certi giochi va meglio una o l'altra architettura.

AMD ha supportato attivamente lo sviluppo del motore grafico in DX12 ed è ovvio che l'ha fatto tentendo ben presente il proprio hardware (e per altro era una cosa che contestavi), e questo è un dato di fatto comprovato da comunicati ufficiali, e aggiungo ci sta, è anche su queste cose che vendono i giochi (anche se magari conveniva cercare un partner migliore dall'altra parte perché AOS non mi pare sto giocone). La stessa cosa è sempre successa sia da una e dall'altra parte. Quando questo capita, i giochi girano molto meglio su una parte e molto peggio sull'altra. Considera inoltre che su Pascal il gioco in questione peggiora senza nemmeno usare gli ACE ad alte risoluzioni


http://cdn.wccftech.com/wp-content/uploads/2016/05/GTX-1080-Ashes-Of-The-Singularity-DirectX-12-Async-Compute-Performance-4K-Extreme.jpg

Sicuramente, visti anche gli altri giochi, è un comportamento anomalo, perché supponiamo anche che sia tutto un bluff e che non ci sia il supporto degli ACE minimamente, in DX12 però in tutti i giochi che ho visto (e penso anche voi) nVidia comunque ha incrementato le performance al pari di AMD... In questo comunque decadono.

http://wccftech.com/nvidia-geforce-gtx-1080-dx12-benchmarks/

Quindi come vedi il punto non è tanto se gli ACE ci sono o meno, ma sono proprio le DX12 in generale che vanno male su nVidia.

E' un po' come nei giochi ottimizzati da nVidia per usare la tassellazione in modo massivo, AMD soffre visto che la sua architettura è orientata in altro modo e nonostante il fatto che i driver con la loro "Ottimizzazione" riducano il fattore di tassellazione certi giochi vanno male, in modo fuori scala rispetto alla controparte.

La contraddizione la trovi perché non ti informi adeguatamente prima e, sempre senza offesa, stai affrontando un discorso senza avere le info di base necessarie (anche solo in termini di memoria storica)

mirkonorroz
09-08-2016, 12:07
EDIT:
non importa va bene cosi' grazie e scusate il troppo OT. :)

devil_mcry
09-08-2016, 12:15
EDIT:
non importa va bene cosi' grazie e scusate il troppo OT. :)

Non so cosa ci fosse scritto prima dell'EDIT però voglio che sia chiara una cosa, non prendere il mio post male, non intendo in alcun modo essere arrogante o cosa. Questo sia chiaro. Il forum serve per discutere (senza fanboysmi se possibile) perché nessuno sa tutto. Non vorrei che te la sei presa.

mikael84
09-08-2016, 12:24
cut

Con le Dx12 AMD riesce a far lavorare meglio le ALU, con lavoro parallelo e riduzione overhead.

https://abload.de/img/esaajs5x.png

http://www.hwupgrade.it/articoli/skvideo/4676/ashes_2.png

fraussantin
09-08-2016, 12:50
si non è un problema adesso, ma lo sarà o potrebbe diventarlo.

però di certo non ci fanno una bella figura a livello tecnico a sfornare gpu che la concorrenza faceva nel 2014 a 28nm sul piano del perf/watt e ad avere lo stesso distacco perf/watt di prima.

poi lo posso capire se come dicevo hai tirato all'osso le spese e i guadagni sono massimizzati, se vendi e tutto, ma a livello tecnico... uhm...
guardando appunto in chiave Alta, o hbm2 o no party, o il processo di gf migliora o no party, o usi tsmc o no party, o cambi architettura o... o niente mi sa questa rimane uguale e/o simile :sofico:

il 300watt è relativo... se fai un 300watt che si mangia la Titan X ad un prezzo concorrenziale sarebbe ben accetto credo o no?
Si ma ovviamente non parlavo di vga di fascia superultra ..
Il discorso è che se come è stato per i 28 nm ,sarà per i 14\16 , se vorranno andare avanti con le Vga aumentando prestazioni negli anni, dovranno ottimizzare le architetture .

Altrimenti la 580 , la 680 , ecc , che dovranno avere prestazioni maggiori( anche se non raddoppiate) , arriveranno ad avere consumi assurdi.

mirkonorroz
09-08-2016, 13:24
Non so cosa ci fosse scritto prima dell'EDIT però voglio che sia chiara una cosa, non prendere il mio post male, non intendo in alcun modo essere arrogante o cosa. Questo sia chiaro. Il forum serve per discutere (senza fanboysmi se possibile) perché nessuno sa tutto. Non vorrei che te la sei presa.

Assolutamente vedo che sei e siete in buona fede ed e' anche vero che le mie competenze non sono come le vostre o non sono sufficienti a capire tutto, non preoccuparti. :)
Nell'edit semplicemente cercavo di avere delle conferme se avevo capito bene, ma poi ho pensato che non ero ancora convinto nella misura sufficiente per non fare prolungare ulteriormente la cosa, magari senza un esito significativo.
Il fatto e' che operativamente, almeno in un primo momento, io preferirei che se quello che scrivo non quaglia, si potrebbe quotare quello che ho scritto e marcarlo come falso frase per frase (poi se si vuole motivare e' meglio). In questo modo suddividendo le frasi in vere e false e magari evidenziando palesi deduzioni errate, capisco di piu' che se mi spiegate le cose che servono a capire a partire da zero.
Cioe' mi accontenterei di un livello "alto" e semplice come spiegazione anche solo per risolvere certi discorsi che non riesco bene a capire se collimano con i vostri o no. Faccio presente che ho fatto molte ipotesi e messo molti punti di domanda, quindi metto gia' in conto di sbagliare.
Nel post precedente ho riportato quella che a me sembrava una contraddizione a seconda che i componenti fossero veri o falsi, ma erano gia' in dubbio se fossero appunto veri o falsi quindi non davo per scontato che la contraddizione esistesse davvero, solo che se qualcuni avesse quotato e assegnato vero o falso mi sarebbe stato di molto aiuto.

Molte cose tipo la tassellazione etc. le conoscevo gia', ma su AOS non mi sembrava inerente se non per un altro discorso paralleo di ottimizzazione dei giochi per una o l'altra architettura.

Tu ora hai scritto che praticamente (tutte) le dx12 penalizzano nvidia:
ma le penalizzano perche' danno l'opportunita' amd di esprimersi o perche' vi sono molti altri aspetti che non agevolano nvidia? So che non e' la stessa cosa, ma non e' che la tassellazione venga impedita dalle dx12, e la tassellazione la fanno entrambe le schede, una meglio e l'alrta peggio.
Probabilmente il mio errore e' stato quello di credere che nonostante pascal implementi in HW l'AS, come segnalato da eXeS (spero di non aver sbagliato), non e' sufficientemente efficiente rispetto ad amd e da qui AOS utilizzando l'AS in modo massivo se ne avvantaggia. Pero' da quello che hai detto mi sembra di aver capito che se anche non si fossero usati gli AS non sarebbe cambiato molto, anzi. In questo contesto chiedevo cosa oltre agli AS penazlizzava pascal.
Poi mi immaginavo che, visto che era amd oriented non vi fosse uso di tassellazione, ma anche vi fossero pochi triangoli visto che comunque a mesh preconfezionata bisogna comunque fare il culling e amd era/e' poco efficiente.
Quindi escludevo il fattore poligoni.
Cosa rimaneva allora? Questo lo chiedevo a voi.


Con le Dx12 AMD riesce a far lavorare meglio le ALU, con lavoro parallelo e riduzione overhead.

https://abload.de/img/esaajs5x.png

http://www.hwupgrade.it/articoli/skvideo/4676/ashes_2.png

Mikael ti ringrazio, e l'informazione e' comunque utile, anche se forse l'avevo gia' letta.
Se posso permettermi, la difficolta' che trovo io nelle tue risposte e' che rispondi sempre a molto basso livello ed in modo molto sintetico, che non e' male ed e' la cosa che probabilmete riesci a fare meglio ed e' anche una tua scelta per decidere con chi interloquire o solamente dettata dal fatto che non puoi imaginarti da zero a che tipo di livello e' l'altro che scrive.
La cosa che mi piacerebbe, ma non so bene quanto sia possibile, e penso che ci sia una soglia questo e' che alcuni concetti li potresti provare ad esporre anche a piu' alto livello, anche solo per fissare dei paletti o delle sicurezze, che tu hai fondate ai livelli piu' bassi. Adesso non chiedermi gli esempi, ma io mi sono trovato piu' di una volta a leggere che magari facevano una domantda (io compreso) e tu rispondevi con calcoli, alche' non ne ho potuto ricavare nulla, nemmeno una informazione a piu' alto livello che mi sarebbe bastata.
Sia chiaro che non e' una critica, magari non ti interessa o richiederebbe troppo o in alcuni casi sarebbe impossibile, ma per me sarebbe utile.

Porto l'esempio che hai appena postato della quale ti ho ringraziato.
Devi crederci se ti dico che non so assolutamente come si inserisca in tutto questo discorso l'informazione che mi hai dato: cioe' non riesco a vederne proprio un nesso, perche' c'e' un enorme sottointeso tecnico che non conosco e che tu comunque non hai riportato.

Ovviamente la soluzione migliore sarebbe:
1. che io studiassi, ma e' una cosa parecchio se non troppo difficile per vari motivi

2. che "perdessi" meno tempo qui e lo facessi perdere di meno anche a voi

Ecco, forse la seconda devo propormi di seguirla un po' di piu' :)

Se vlolete potete rispondere, ma non importa, cioe' davvero non vorrei si dilungasse troppo la faccenda. Sarebbe grande se leggendo le vostre risposte non "potessi" replicare perche' dfinitive :)
Quindi come minimo non fatemi domande :D

Ciao

Nurabsa
09-08-2016, 18:33
com'è che si dice?

"a pensar male si fa peccato, ma spesso ci s'indovina" :sofico:

:mano: :asd:


cut

ma non puoi ubriacarti in spiaggia con fanno tutti sto periodo? :D

si scherza eh visto il mortorio estivo con le tue questions almeno si scrive :)

mirkonorroz
09-08-2016, 19:20
:mano: :asd:




ma non puoi ubriacarti in spiaggia con fanno tutti sto periodo? :D

si scherza eh visto il mortorio estivo con le tue questions almeno si scrive :)

Ehhh... in effetti sono tantissimi anni (25?) che non vedo il mare :)
Pero' sono astemio :D
Il fatto e' che la mia "analiticita' inconcludente" finisce quasi sempre per nauseare me stesso: figuriamoci gli altri. :)

Nurabsa
09-08-2016, 20:33
Ehhh... in effetti sono tantissimi anni (25?) che non vedo il mare :)
Pero' sono astemio :D
Il fatto e' che la mia "analiticita' inconcludente" finisce quasi sempre per nauseare me stesso: figuriamoci gli altri. :)

fai come me che sono astemio bevici su un nebbiolino :D

ops :p

Crysis90
12-08-2016, 20:45
http://i.imgur.com/XyPPmEb.jpg

Tenetevi forte, BOMBA pre-Ferragosto :D :eek: :

http://wccftech.com/nvidia-volta-gv110-gv104-gv102-gpu/

"NVIDIA is prepping a range of chips that will utilize the Volta architecture.
Not only that, the Volta GPU architecture has been significantly revamped and will offer a serious improvement in terms of performance and power efficiency compared to the Pascal GPUs.
According to the rumor, Volta is significantly redesigned compared to the Pascal architecture.
The streaming multiprocessor block for Pascal and Maxwell was similar but was vastly tuned along with the upgrade to the new FinFET node which led to some good increases.
Volta on the other hand will feature a completely new design across the board."

fraussantin
12-08-2016, 20:55
http://i.imgur.com/XyPPmEb.jpg

Tenetevi forte, BOMBA pre-Ferragosto :D :eek: :

http://wccftech.com/nvidia-volta-gv110-gv104-gv102-gpu/

"NVIDIA is prepping a range of chips that will utilize the Volta architecture.
Not only that, the Volta GPU architecture has been significantly revamped and will offer a serious improvement in terms of performance and power efficiency compared to the Pascal GPUs.
According to the rumor, Volta is significantly redesigned compared to the Pascal architecture.
The streaming multiprocessor block for Pascal and Maxwell was similar but was vastly tuned along with the upgrade to the new FinFET node which led to some good increases.
Volta on the other hand will feature a completely new design across the board."
Le previsioni erano corrette. Estate prossima volta.

Poi se sarà sempre a 14 nm come faranno a avere un perf\watt sconvolgente rispetto a pascal non si sa ...( le.hbm 2 faranno miracoli!)

Raven
12-08-2016, 20:56
"NVIDIA is prepping a range of chips that will utilize the Volta architecture.
Not only that, the Volta GPU architecture has been significantly revamped and will offer a serious improvement in terms of performance and power efficiency compared to the Pascal GPUs.
According to the rumor, Volta is significantly redesigned compared to the Pascal architecture.
The streaming multiprocessor block for Pascal and Maxwell was similar but was vastly tuned along with the upgrade to the new FinFET node which led to some good increases.
Volta on the other hand will feature a completely new design across the board."

... se fosse vero, adesso capisco tutta sta fretta di buttar fuori l'intera lineup di Pascal nonostante la concorrenza assente... :O

Pascal legacy già nel 2017!... :O

Crysis90
12-08-2016, 20:58
Le previsioni erano corrette. Estate prossima volta.

Poi se sarà sempre a 14 nm come faranno a avere un perf\watt sconvolgente rispetto a pascal non si sa ...

16 nm TSMC, non 14.
Secondo il leak, il chip subirà uno stravolgimento sull'architettura degli SM a favore delle perf-per-watt.
Oltre a questo, mettici anche un incremento sul n° degli SM e delle frequenze grazie alla maturazione del PP e vedrai che non sarà poi così improbabile. :) ;)

fraussantin
12-08-2016, 21:05
16 nm TSMC, non 14.
Secondo il leak, il chip subirà uno stravolgimento sull'architettura degli SM a favore delle perf-per-watt.
Oltre a questo, mettici anche un incremento sul n° degli SM e delle frequenze grazie alla maturazione del PP e vedrai che non sarà poi così improbabile. :) ;)
Si 16 , hai ragione ..fatto casino con amd.

Curioso dello sconvolgimento , la attuale dovrebbe avere una ottima ottimizzazione senza" sprechi" di cuda .

Cmq dovevano stare zitti. Così Pascal rischia la scaffalatura .

fraussantin
12-08-2016, 21:08
... se fosse vero, adesso capisco tutta sta fretta di buttar fuori l'intera lineup di Pascal nonostante la concorrenza assente... :O

Pascal legacy già nel 2017!... :O
Pascal è di fatto un rebrand di maxwell . Che c'era il rischio si sapeva.

A quel prezzo poi non era da comprare per nessuna ragione.

L'unica speranza che ci rimane per riportare in riga nvidia è che amd sforni una vga ai livelli di volta ( 2070 e 2060) , almeno come performance.

Altrimenti questi han preso il volo e non li ferma nessuno.

Crysis90
12-08-2016, 21:09
Cmq dovevano stare zitti. Così Pascal rischia la scaffalatura .

Vabè, è pur sempre un rumor.
Nulla di ufficiale.
Finchè Gengis Khan non sale sul palco col suo giubbotto nero in pelle e lo annuncia ufficialmente al mondo, rimane sempre un rumor. :O :asd: :asd:
Poi non mi preoccuperei delle vendite dei chip Pascal, visti i risultati trimestrali che hanno pubblicato proprio ieri sera:

http://wccftech.com/nvidia-reports-q2-fy17-quarterly-earnings/

:hic: :hic: :hic:

eXeS
12-08-2016, 21:11
16 nm TSMC, non 14.

14nm Samsung :) http://www.tweaktown.com/news/53375/nvidias-next-gen-gpus-made-14nm-samsung/index.html

Crysis90
12-08-2016, 21:14
14nm Samsung :) http://www.tweaktown.com/news/53375/nvidias-next-gen-gpus-made-14nm-samsung/index.html

Beh, questa è un'altra BOMBA!!
Se fosse vero, potrebbe essere vera anche la storia delle basse rese del PP a 16 nm di TSMC che aveva causato la scarsità delle 1080 al lancio. :eek:

fraussantin
12-08-2016, 21:52
14nm Samsung :) http://www.tweaktown.com/news/53375/nvidias-next-gen-gpus-made-14nm-samsung/index.html
Boia!...

Boh , aspettiamo. ..

mikael84
12-08-2016, 23:42
Si 16 , hai ragione ..fatto casino con amd.

Curioso dello sconvolgimento , la attuale dovrebbe avere una ottima ottimizzazione senza" sprechi" di cuda .

Cmq dovevano stare zitti. Così Pascal rischia la scaffalatura .

Non credo ci sia questo sconvolgimento, Nvidia lavora sempre con le FP ed le LDS/SFU.
Probabile che seguano la Tesla anche in ambito game per dare 1024 istruzioni al singolo cuda. Quindi un vero e proprio balzo computazionale anche via game.
I raster penso siano da 24 pixel a sto giro, altrimenti ne viene fuori un casotto assurdo.
Quindi 3072cc fanno 4 GPC da 768cc, oppure 4 GPC da 3584cc e 7 TPC per GPC.

Su 3072cc puoi collegare 96 rop's (più di quelle di titan pascal), un clock migliore, SM multipli ed hbm 16gb (48 rop's per stack), oppure 256 bit con ddr5x belle spinte.

Il GV102 può essere quindi fatto da 4608cc/128 rop's e 24gb hbm.


Se solo sapessi quanto dichiarato su flops per watt mi verrebbe facile ma Nvidia ha incasinato tutta la roadmap.

fraussantin
12-08-2016, 23:53
Non credo ci sia questo sconvolgimento, Nvidia lavora sempre con le FP ed le LDS/SFU.
Probabile che seguano la Tesla anche in ambito game per dare 1024 istruzioni al singolo cuda. Quindi un vero e proprio balzo computazionale anche via game.
I raster penso siano da 24 pixel a sto giro, altrimenti ne viene fuori un casotto assurdo.
Quindi 3072cc fanno 4 GPC da 768cc, oppure 4 GPC da 3584cc e 7 TPC per GPC.

Su 3072cc puoi collegare 96 rop's (più di quelle di titan pascal), un clock migliore, SM multipli ed hbm 16gb (48 rop's per stack), oppure 256 bit con ddr5x belle spinte.

Il GV102 può essere quindi fatto da 4608cc/128 rop's e 24gb hbm.


Se solo sapessi quanto dichiarato su flops per watt mi verrebbe facile ma Nvidia ha incasinato tutta la roadmap.
:ave:


;)

Ren
12-08-2016, 23:54
Non credo ci sia questo sconvolgimento, Nvidia lavora sempre con le FP ed le LDS/SFU.
Probabile che seguano la Tesla anche in ambito game per dare 1024 istruzioni al singolo cuda. Quindi un vero e proprio balzo computazionale anche via game.
I raster penso siano da 24 pixel a sto giro, altrimenti ne viene fuori un casotto assurdo.
Quindi 3072cc fanno 4 GPC da 768cc, oppure 4 GPC da 3584cc e 7 TPC per GPC.

Su 3072cc puoi collegare 96 rop's (più di quelle di titan pascal), un clock migliore, SM multipli ed hbm 16gb (48 rop's per stack), oppure 256 bit con ddr5x belle spinte.

Il GV102 può essere quindi fatto da 4608cc/128 rop's e 24gb hbm.


Se solo sapessi quanto dichiarato su flops per watt mi verrebbe facile ma Nvidia ha incasinato tutta la roadmap.


Mike non si sono mai visti rasterizer non multipli di due. :fagiano: Già gli sviluppatori (nei paper) si lamentano del efficienza con 16pixel per triangolo, non credo li aumenteranno.

Anche la storia dei warp/registri è un bel enigma. Non li hanno implementati nelle Geforce ed ora ci ripensano... :rolleyes:

Di Roadmap ne ho trovata una con sgemm 72 :confused:

mikael84
13-08-2016, 00:09
Mike non si sono mai visti raster non multipli di due.:fagiano:

Già gli sviluppatori (nei paper) si lamentano del efficienza con 16pixel per triangolo, non credo li aumenteranno.

Anche la storia dei warp/registri è un bel enigma. Non li hanno implementati nelle Geforce ed ora ci ripensano...

Di Roadmap ne ho trovata una con sgemm 72

Ma è l'unica soluzione Ren, non si può fare altrimenti senza utilizzare più GPC o Sub GPC.
I registri dipendono dai cuda, se lasci intatti gli SMM interni, non aumenti nulla, quindi devi andare a riempimento.
Non penso che Nvidia cambi la ottima 4:1:1 in cc/sfu/lds. E' arrivata a tale miglioria dopo le 341 misere istruzioni con 2 dipendenze.

Un GPC devi sempre collegarlo a due canali.
2 stack hbm devi collegarle a 4 partizioni rop's e 4 l2, utilizzare 2 sub smx è un casotto che neppure analizzo.
Raster da 32 penso siano del tutto scongiurate, salvo non utilizzare 4096cc e 6144c, una roba folle ed assurda.

Prova a disegnarmi un chip tuo, vediamo se ci troviamo.:)

Ren
13-08-2016, 00:24
Ma è l'unica soluzione Ren, non si può fare altrimenti senza utilizzare più GPC o Sub GPC.
I registri dipendono dai cuda, se lasci intatti gli SMM interni, non aumenti nulla, quindi devi andare a riempimento.
Non penso che Nvidia cambi la ottima 4:1:1 in cc/sfu/lds. E' arrivata a tale miglioria dopo le 341 misere istruzioni con 2 dipendenze.

Più che altro mi domando se non hanno intenzione di cambiare il tipo di scheduler con qual'cosa ad alto IPC o che sia più efficiente con codice divergente.
Insomma, un cambio architetturale per scontrarsi nel computing con intel. Il dubbio mi viene dai paper nvidia sul gang scheduler...

Nella grafica il design ereditato da maxwell funziona bene. Se non hanno aumentato i warp con le Geffo Pascal, probabilmente non hanno rilevato miglioramenti sostanziali con codice gaming.

Sinceramente tutta questa prescia di nvidia non ha molto senso... :confused:

mikael84
13-08-2016, 00:45
Più che altro mi domando se non hanno intenzione di cambiare il tipo di scheduler con qual'cosa ad alto IPC o che sia più efficiente con codice divergente.
Insomma, un cambio architetturale per scontrarsi nel computing con intel. Il dubbio mi viene dai paper nvidia sul gang scheduler...

Nella grafica il design ereditato da maxwell funziona bene. Se non hanno aumentato i warp con le Geffo Pascal, probabilmente non hanno rilevato miglioramenti sostanziali con codice gaming.

Sinceramente tutta questa prescia di nvidia non ha molto senso... :confused:

Io sono più fissato con un sistema di IPC alla Tesla con warp da 32k. Lavoro più parallelo via TPC, con 2 SM paralleli. Penso che questo sia il futuro anche via gaming.
Mi ricordano le Haswell sul versante L1, dove ottengo il doppio sulla L1, rispetto ad ivy e 32 istruzioni generali.
Utilizzare dipendenze lo escludo.

Ecco perchè rimango più dell'idea, che si lavori in simil tesla. Però dopo bisogna trovare tutti i collegamenti vari, e li la situazione si complica, sopratutto quando al 99% devi utilizzare 4 canali rop's e cache per fornire le ALU.:)

Ale55andr0
13-08-2016, 00:51
L'unica speranza che ci rimane per riportare in riga nvidia è che amd sforni una vga ai livelli di volta ( 2070 e 2060) , almeno come performance.




la speranza per AMD a momenti sarebbe riuscire a cacciare fuori qualcosa per allora

fraussantin
13-08-2016, 00:56
la speranza a momenti sarebbe riuscire a cacciare fuori qualcosa per allora
Su dai , per giugno è fuori vega.

Speriamo che viaggi bene. .
Perche se amd con volta lo doppia è la fine.

mikael84
13-08-2016, 00:58
la speranza a momenti sarebbe riuscire a cacciare fuori qualcosa per allora

Questo è un bel problema però. Tralasciando l'architettura che ancora, senza nessun dato è tutta un'ipotesi. La 2070 probabilmente andrà quanto o poco meno (se non poco più) di GP102.
Dove lo collochi Vega? Salvo che Volta ancora non sta uscendo, però anche questo va calcolato se si vuole spendere 500/600 euro per una fury a 1200 o poco più ottimizzata.

Ale55andr0
13-08-2016, 01:13
Su dai , per giugno è fuori vega.


pure amd, dal mercato :asd:

Perche se amd con volta lo doppia è la fine.

amd non doppia proprio nessuno, nvidia semmai :D

Ale55andr0
13-08-2016, 01:17
Dove lo collochi Vega?

fra le gengive di apu, per quanto mi stanno facendo incazzare.

A ogni modo se davvero esce volta in estate, e sarà un ulteriore balzo prestazionale e di efficienza, AMD può chiudere e finita li

Raven
13-08-2016, 08:26
Pascal è di fatto un rebrand di maxwell . Che c'era il rischio si sapeva.

A quel prezzo poi non era da comprare per nessuna ragione.

L'unica speranza che ci rimane per riportare in riga nvidia è che amd sforni una vga ai livelli di volta ( 2070 e 2060) , almeno come performance.

Altrimenti questi han preso il volo e non li ferma nessuno.

... oddio... Dai rumor sembra che Vega si collochi tra 1070 e 1080... Altro che 2070! :stordita:

ps: nvidia ha GIÀ preso il volo, e fa tutto quello che le pare e piace... ;)

Inviato dal mio SM-N910F utilizzando Tapatalk

fraussantin
13-08-2016, 08:38
pure amd, dal mercato :asd:



amd non doppia proprio nessuno, nvidia semmai :D
Pardon ! Nvidia ..
... oddio... Dai rumor sembra che Vega si collochi tra 1070 e 1080... Altro che 2070! :stordita:

ps: nvidia ha GIÀ preso il volo, e fa tutto quello che le pare e piace... ;)

Inviato dal mio SM-N910F utilizzando Tapatalk
Vero , però non sappiamo dove si collocherà la 2070.

La cosa piu esplosiva dei rumor è che samsung produrrà volta.

Non so che fabbriche ha samsung , ma se non erro devono produrre apu per console , zen (che cmq avrà il suo mercato), polaris &vega , e adesso anche volta... ... ( oltre che ai chip per cellulari tipo Qualcomm o apple)




:boh: ..

Ps e inutile menzionare navi , con amd che "naviga" in alto mare ..


Pps a chi se ne intende : le pessime prestazioni di polaris a confronto di pascal in termini di frequenze , possono dipendere anche dal processo produttivo samsung rispetto a quello tsmc?

TigerTank
13-08-2016, 08:56
Io ero rimasto che Samsung avrebbe collaborato con AMD per la produzione di nuove gpu, visto che comunque ha sempre privilegiato le rosse, dando poco spazio alle features specifiche di nvidia. Boh...certo sarebbe un brutto colpo per amd.
Comunque circa la 2070, io mi aspetterei che vada un pò meno della titan pascal, mentre la 2080 sarà sopra, calcolando il solito 25% medio tra le 2.
A fine 2015 giravano notizie tipo questa (http://pro.hwupgrade.it/news/scienza-tecnologia/c-e-samsung-ma-non-solo-dietro-le-future-gpu-di-amd_60025.html).

Giovamas
13-08-2016, 10:12
"NVIDIA is prepping a range of chips that will utilize the Volta architecture.
Not only that, the Volta GPU architecture has been significantly revamped and will offer a serious improvement in terms of performance and power efficiency compared to the Pascal GPUs.
According to the rumor, Volta is significantly redesigned compared to the Pascal architecture.
The streaming multiprocessor block for Pascal and Maxwell was similar but was vastly tuned along with the upgrade to the new FinFET node which led to some good increases.
Volta on the other hand will feature a completely new design across the board."

Oh maremma.. Causa mare scrivo poco ma vi leggo con interesse tutti i giorni. Questo è proprio un missile :cool: ecco perché la line up completa! volevo farmi un regalo a settembre per il mio primo anno da expa ma mi sa che aspetto.

Giovamas
13-08-2016, 10:14
Boia!...

Boh , aspettiamo. ..

e due.. ma che c'è:D ? Sta a vedere che ho fatto bene a tenere la 980ti

Darrosquall
13-08-2016, 10:34
Ma tanto chi ha fatto uno sli di 1070 o 1080, presumo che ha abbastanza soldi da produrli mentre va in bagno, ergo, saranno in prima fila per comprare Volta, nvidia e utenti felici :asd:

fraussantin
13-08-2016, 10:40
e due.. ma che c'è:D ? Sta a vedere che ho fatto bene a tenere la 980ti
Per quello hai fatto bene a prescindere dai rumors.

Andreadeluxe
13-08-2016, 10:47
http://www.reuters.com/article/us-samsung-elec-nvidia-idUSKCN10N0L0

;)

parcher
13-08-2016, 11:13
Non credo ci sia questo sconvolgimento, Nvidia lavora sempre con le FP ed le LDS/SFU.
Probabile che seguano la Tesla anche in ambito game per dare 1024 istruzioni al singolo cuda. Quindi un vero e proprio balzo computazionale anche via game.
I raster penso siano da 24 pixel a sto giro, altrimenti ne viene fuori un casotto assurdo.
Quindi 3072cc fanno 4 GPC da 768cc, oppure 4 GPC da 3584cc e 7 TPC per GPC.

Su 3072cc puoi collegare 96 rop's (più di quelle di titan pascal), un clock migliore, SM multipli ed hbm 16gb (48 rop's per stack), oppure 256 bit con ddr5x belle spinte.

Il GV102 può essere quindi fatto da 4608cc/128 rop's e 24gb hbm.


Se solo sapessi quanto dichiarato su flops per watt mi verrebbe facile ma Nvidia ha incasinato tutta la roadmap.

Ma è l'unica soluzione Ren, non si può fare altrimenti senza utilizzare più GPC o Sub GPC.
I registri dipendono dai cuda, se lasci intatti gli SMM interni, non aumenti nulla, quindi devi andare a riempimento.
Non penso che Nvidia cambi la ottima 4:1:1 in cc/sfu/lds. E' arrivata a tale miglioria dopo le 341 misere istruzioni con 2 dipendenze.

Un GPC devi sempre collegarlo a due canali.
2 stack hbm devi collegarle a 4 partizioni rop's e 4 l2, utilizzare 2 sub smx è un casotto che neppure analizzo.
Raster da 32 penso siano del tutto scongiurate, salvo non utilizzare 4096cc e 6144c, una roba folle ed assurda.

Prova a disegnarmi un chip tuo, vediamo se ci troviamo.:)

Più che altro mi domando se non hanno intenzione di cambiare il tipo di scheduler con qual'cosa ad alto IPC o che sia più efficiente con codice divergente.
Insomma, un cambio architetturale per scontrarsi nel computing con intel. Il dubbio mi viene dai paper nvidia sul gang scheduler...

Nella grafica il design ereditato da maxwell funziona bene. Se non hanno aumentato i warp con le Geffo Pascal, probabilmente non hanno rilevato miglioramenti sostanziali con codice gaming.

Sinceramente tutta questa prescia di nvidia non ha molto senso... :confused:

Io sono più fissato con un sistema di IPC alla Tesla con warp da 32k. Lavoro più parallelo via TPC, con 2 SM paralleli. Penso che questo sia il futuro anche via gaming.
Mi ricordano le Haswell sul versante L1, dove ottengo il doppio sulla L1, rispetto ad ivy e 32 istruzioni generali.
Utilizzare dipendenze lo escludo.

Ecco perchè rimango più dell'idea, che si lavori in simil tesla. Però dopo bisogna trovare tutti i collegamenti vari, e li la situazione si complica, sopratutto quando al 99% devi utilizzare 4 canali rop's e cache per fornire le ALU.:)
in Italiano che significa ? :help:

Scherzo, eh! tutto molto affascinante, mia moglie non mi crede :sofico:

Crysis90
13-08-2016, 11:14
http://www.reuters.com/article/us-samsung-elec-nvidia-idUSKCN10N0L0

;)

Vediamo come vanno 'sti 14 nm Samsung sulle GPU High-End.
Ad oggi NVidia aveva sempre usato TSMC.
Comunque mi sembra che da 1 anno a questa parte l'approccio di NVidia alla Roadmap sta diventando come l'ex Tic-Toc di Intel, dove appena sono riusciti a guadagnare un pò di vantaggio sulla concorrenza poi fanno uscire ogni anno una nuova "famiglia" di GPU.
Anche se in questo caso le differenze prestazionali sembrano mantenersi molto maggiori rispetto a quelle che c'erano tra ogni nuova famiglia di CPU Intel.
A questo punto rimane solo una GROSSA domanda, anzi due:

- quale sarà la Roadmap di NVidia dopo Volta??

- con tutta questa fretta e furia nel rilasciare nuove GPU costruite con PP sempre più avanzati e miniaturizzati, una volta raggiunti i 5/3 nm (limite della miniaturizzazione sul silicio) che si inventeranno per produrre i chip delle GPU??

Crysis90
13-08-2016, 11:21
http://www.tweaktown.com/articles/7830/hbm2-graphics-ram-hero-deserve/index.html

Interessantissimo articolo sulle HBM2, dove ipotizzano che NVidia non utilizzera questo tipo di memoria su GPU consumer. ;)

Ale55andr0
13-08-2016, 11:39
e dicono bene "we don't need"

AMD, oh AMD :rolleyes:

Ale55andr0
13-08-2016, 11:44
Non so che fabbriche ha samsung , ma se non erro devono produrre apu per console , zen (che cmq avrà il suo mercato), polaris &vega , e adesso anche volta... ... ( oltre che ai chip per cellulari tipo Qualcomm o apple)




che io sappia i 14nm di polaris non sono fatti da samsung ma da global foundries. Se poi so la stessa fonderia chiedo venia, ma spero di no, visto che sti 14nm su gcn stanno facendo abbastanza cagare con incrementi di clock abbastanza risibili rispetto ai 28 (VENTOTTO) nm e tensioni operative piuttosto alte per accertarsi di reggerli su tutti i chip quando doveva essere praticamente automatico anche sul silicio più fetente un incremtno del clock del 20% con pp che è la metà. Deludenti. Magari samsung farebbe meglio

eXeS
13-08-2016, 11:52
Altra bomba interessante, pascal entro fine anno potrebbe essere die-shrinkato usando i 14nm di Samsung https://www.techpowerup.com/224976/samsung-to-optical-shrink-nvidia-pascal-to-14-nm

Inviato dal mio SM-T700 utilizzando Tapatalk

mikael84
13-08-2016, 11:54
http://www.tweaktown.com/articles/7830/hbm2-graphics-ram-hero-deserve/index.html

Interessantissimo articolo sulle HBM2, dove ipotizzano che NVidia non utilizzera questo tipo di memoria su GPU consumer. ;)

Le ddr5x vanno benissimo, non ha alcun senso spendere tanto per delle HBM.
Tesla le usa ma ha pure un collegamento differente, simil 512bit.
Con un bus da 256bit e 12gb/s di data rate arrivi a 384gb/s, con 13gb/s a 416gb/s, e con 14gb/s addirittura a 446gb/s.
Valori ottimi.

devil_mcry
13-08-2016, 11:55
Oh maremma.. Causa mare scrivo poco ma vi leggo con interesse tutti i giorni. Questo è proprio un missile :cool: ecco perché la line up completa! volevo farmi un regalo a settembre per il mio primo anno da expa ma mi sa che aspetto.

Mah se la vuoi comprare ora però non ha senso aspettare un anno per Volta, con questo approccio non dovresti mai comprare niente. Di solito l'hw si dovrebbe evolvere ogni 18 mesi...


Comunque questa mossa di nVidia è davvero pesante, mi fa piacere però che si è tornati a qualche anno fa quando le GPU davvero si aggiornavano ogni 18 mesi (e non che uscivano gli stessi chip di fasce diverse) è un approccio davvero aggressivo sul mercato

Ale55andr0
13-08-2016, 11:57
Le ddr5x vanno benissimo, non ha alcun senso spendere tanto per delle HBM.

sono mesi che mi sgolo a dirlo che non servono a un cavolo se non a rallentare l'uscita delle schede per NIENTE. E costano pure parecchio

devil_mcry
13-08-2016, 11:59
sono mesi che mi sgolo a dirlo che non servono a un cavolo se non a rallentare l'uscita delle schede per NIENTE

Quando ormai tracci una linea la devi perseguire. Non usare le HBM per AMD ora vorrebbe dire "abbiamo fatto una cagata non servivano". Non hanno cambiato rotta con BD fino a restare senza CPU sul mercato per 2 anni (almeno high end) figurati se si pongono problemi con le GPU quando si parla di solo 1 anno.

Ale55andr0
13-08-2016, 12:20
Non usare le HBM per AMD ora vorrebbe dire "abbiamo fatto una cagata non servivano".


che hanno fatto una cagata (e continuano a farne), e che non servivano, lo si sapeva già. Se no nfossero campioni di cavolate a raffica non starebbero come stanno in AMD: L'unica scusante è che senza le hbm coi consumi stanno messi male rispetto a nvidia, ma io dico meglio AVERCELE queste schede del cavolo che aspettare 6 mesi per 40-50w in meno lasciando stra libera alla concorrenza per mesi e mesi per poi, capace che dopo gli eoni che si sono presi, non pigliano nemmeno la 1080 con la vega più "umana". Sarebbe un floppone clamoroso. La mia sola "fortuna" è che ste voci su Volta nel 2017, e la messa in legacy della 980ti mi frenano abbastanza dal fare qualsiasi cosa, MA... la mente come si dice "è un fil di capello", e la "frustrazione" (io senza giocare così a lungo non so stare, è una delle pochissime cose in una vita piena di problemi e insoddisfazioni che mi fanno evadere) e l'incazzatura prima o poi faranno la loro parte, come so gia che me ne pentirò ma finirà che butterò almeno 600 euro nel cesso per una 1080 che non varrà più un cazzo fra pochi mesi "grazie" a Volta e con un supporto che non si sa nemmeno per quanto durerà :muro:

Grazie AMD, grazie nvidia

illidan2000
13-08-2016, 12:29
Valuta pure lo Sli di 1070... Qualche spicciolo in più, non solo vai più forte, ma le schede si svalutano molto meno

Inviato dal mio LG-D858HK utilizzando Tapatalk

mikael84
13-08-2016, 12:30
che hanno fatto una cagata (e continuano a farne), e che non servivano, lo si sapeva già. Se no nfossero campioni di cavolate a raffica no nstarebbero dove stanno in AMD: L'unica scusante è che senza le hbm coi consumi stanno messi male rispetto a nvidia, ma io dico meglio AVERCELE queste schede del cavolo che aspettare 6 mesi per 40-50w in meno lasciando stra libera alla cocnorrenza per mesi e mesi per poi, capace che dopo gli eoni che si sono presi non pigliano nemmeno la 1080 con la vega più "umana". Sarebbe un floppone clamoroso. La mia sola "fortuna" è che ste voci su Volta nel 2017, e la messa in legacy della 980ti mi frenano abbastanza dal fare qualsiasi cosa, MA... la mente come si dice "è un fil di capello", e la "frustrazione" (io senza giocare così a lungo non so stare, è una delle pochissime cose in una vita piena di problemi e insoddisfazioni che mi fanno evadere) e l'incazzatura prima o poi faranno la loro parte, come so gia che me ne pentirò ma finirà che butterò almeno 600 euro nel cesso per una 1080 che non varrà più un cazzo fra pochi mesi "grazie" a Volta e con un supporto che non si sa nemmeno per quanto durerà :muro:

Grazie AMD, grazie nvidia

Prenditi una 1070 e vivi tranquillo, neppure ti rendi conto di quanta potenza abbia da offrire. Se poi non ci vuoi perdere molto, te la rivendi prima.;)
Ormai la situazione è questa. Inutile mangiarsi il fegato.:)

devil_mcry
13-08-2016, 12:33
che hanno fatto una cagata (e continuano a farne), e che non servivano, lo si sapeva già. Se no nfossero campioni di cavolate a raffica no nstarebbero dove stanno in AMD: L'unica scusante è che senza le hbm coi consumi stanno messi male rispetto a nvidia, ma io dico meglio AVERCELE queste schede del cavolo che aspettare 6 mesi per 40-50w in meno lasciando stra libera alla cocnorrenza per mesi e mesi per poi, capace che dopo gli eoni che si sono presi non pigliano nemmeno la 1080 con la vega più "umana". Sarebbe un floppone clamoroso. La mia sola "fortuna" è che ste voci su Volta nel 2017, e la messa in legacy della 980ti mi frenano abbastanza dal fare qualsiasi cosa, MA... la mente come si dice "è un fil di capello", e la "frustrazione" (io senza giocare così a lungo non so stare, è una delle pochissime cose in una vita piena di problemi e insoddisfazioni che mi fanno evadere) e l'incazzatura prima o poi faranno la loro parte, come so gia che me ne pentirò ma finirà che butterò almeno 600 euro nel cesso per una 1080 che non varrà più un cazzo fra pochi mesi "grazie" a Volta e con un supporto che non si sa nemmeno per quanto durerà :muro:

Grazie AMD, grazie nvidia

nVidia fa bene a fare quel che fa, comunque ritengo giusto che si vada avanti. Non era normale prima che le architetture si evolvessero ogni 2 anni. Ora se tra 12-18 mesi esce Volta è giusto così.

Comprare o non comprare in base a cosa uscirà (se non si parla di un paio di mesi) secondo me è solo masochistico, lo immagino che ti senti frustato, ma ragioniamo. Tanto nel tuo caso ora tu stai aspettando Vega, che non sai quanto va. Quando sarà quasi uscita la scheda Vega i rumors parleranno di prestazioni 2 volte una Titan X pascal (come sempre per qualunque prodotto AMD per ragioni che ignoro) per poi avere un prodotto che magari va come una 1080 e si aprirà il solito teatrino...

A quel punto però staranno per uscire le GPU Volta quindi la logica vorrebbe consigliare di non comprare una VGA in quel momento, escono le Volta, con lo stesso prezzo magari si prende di più ma come al solito per 2 mesi non saranno acquistabili... La fine della storia? Nel 2018 la GPU la stai ancora aspettando.

Se ti interessa una VGA di fascia high end (come la 1080) e se è vera quella notizia, tanto vale comprarla ora, perché anche se Vega andasse di più della 1080 hai aspettato 6 mesi in meno e quando uscirà Vega e sarà acquistabile ti sarai goduto i giochi per tutto il 2016 e 2017 probabilmente. Alla fin fine le VGA sono solo mezzi per giocare, finiscono li.

Io ritengo che ormai sono anni che non conviene comunque prendere la top (io comprerei una 1070 come feci con la 970) che permette di giocare bene. Poi la scelta è tua ma aspettare per niente, se ti interessa giocare, non è il massimo per la propria salute psichica :D

devil_mcry
13-08-2016, 12:39
Aggiungo una cosa tra l'altro, ma ci tengo a ribadirla.

La maggior parte delle persone di questo forum la VGA la compra ma non la usa, spesso è solo per fare la gara a chi lo ha più grosso. E anche se la usa, la maggior parte non compra i giochi.

Una VGA secondo me andrebbe comprata solo per godersi i giochi (togliendo tutto il discorso del calcolo computazionale e quindi quella branca li). Si prende il modello che più soddisfa i requisiti prestazionali e poi fine ci si gode i titoli non la scheda.

illidan2000
13-08-2016, 13:01
Io pure... Le uso molto poco ultimamente. Purtroppo con i gusti e il monitor che ho, non posso mettere vga scadenti...

Inviato dal mio LG-D858HK utilizzando Tapatalk

DarkNiko
13-08-2016, 13:05
A questo punto rimane solo una GROSSA domanda, anzi due:

- quale sarà la Roadmap di NVidia dopo Volta??

- con tutta questa fretta e furia nel rilasciare nuove GPU costruite con PP sempre più avanzati e miniaturizzati, una volta raggiunti i 5/3 nm (limite della miniaturizzazione sul silicio) che si inventeranno per produrre i chip delle GPU??

Prima domanda : Non lo sanno nemmeno loro. :asd:

Seconda domanda : Useranno il grafene. ;)

HwWizzard
13-08-2016, 13:09
nVidia fa bene a fare quel che fa, comunque ritengo giusto che si vada avanti. Non era normale prima che le architetture si evolvessero ogni 2 anni. Ora se tra 12-18 mesi esce Volta è giusto così.

Comprare o non comprare in base a cosa uscirà (se non si parla di un paio di mesi) secondo me è solo masochistico, lo immagino che ti senti frustato, ma ragioniamo. Tanto nel tuo caso ora tu stai aspettando Vega, che non sai quanto va. Quando sarà quasi uscita la scheda Vega i rumors parleranno di prestazioni 2 volte una Titan X pascal (come sempre per qualunque prodotto AMD per ragioni che ignoro) per poi avere un prodotto che magari va come una 1080 e si aprirà il solito teatrino...

A quel punto però staranno per uscire le GPU Volta quindi la logica vorrebbe consigliare di non comprare una VGA in quel momento, escono le Volta, con lo stesso prezzo magari si prende di più ma come al solito per 2 mesi non saranno acquistabili... La fine della storia? Nel 2018 la GPU la stai ancora aspettando.

Se ti interessa una VGA di fascia high end (come la 1080) e se è vera quella notizia, tanto vale comprarla ora, perché anche se Vega andasse di più della 1080 hai aspettato 6 mesi in meno e quando uscirà Vega e sarà acquistabile ti sarai goduto i giochi per tutto il 2016 e 2017 probabilmente. Alla fin fine le VGA sono solo mezzi per giocare, finiscono li.

Io ritengo che ormai sono anni che non conviene comunque prendere la top (io comprerei una 1070 come feci con la 970) che permette di giocare bene. Poi la scelta è tua ma aspettare per niente, se ti interessa giocare, non è il massimo per la propria salute psichica :D

Appunto!
Ad oggi la 1080 non ha senso visto che il 4K non lo regge. Per assurdo è più conveniente la Titan X, se avessi il tempo passerei al 4K e andrei di Titan X domani. Oppure se si è disposti a rompersi le pelotas lo Sli di 1070!

Vul
13-08-2016, 13:12
che hanno fatto una cagata (e continuano a farne), e che non servivano, lo si sapeva già. Se no nfossero campioni di cavolate a raffica no nstarebbero dove stanno in AMD: L'unica scusante è che senza le hbm coi consumi stanno messi male rispetto a nvidia, ma io dico meglio AVERCELE queste schede del cavolo che aspettare 6 mesi per 40-50w in meno lasciando stra libera alla cocnorrenza per mesi e mesi per poi, capace che dopo gli eoni che si sono presi non pigliano nemmeno la 1080 con la vega più "umana". Sarebbe un floppone clamoroso. La mia sola "fortuna" è che ste voci su Volta nel 2017, e la messa in legacy della 980ti mi frenano abbastanza dal fare qualsiasi cosa, MA... la mente come si dice "è un fil di capello", e la "frustrazione" (io senza giocare così a lungo non so stare, è una delle pochissime cose in una vita piena di problemi e insoddisfazioni che mi fanno evadere) e l'incazzatura prima o poi faranno la loro parte, come so gia che me ne pentirò ma finirà che butterò almeno 600 euro nel cesso per una 1080 che non varrà più un cazzo fra pochi mesi "grazie" a Volta e con un supporto che non si sa nemmeno per quanto durerà :muro:

Grazie AMD, grazie nvidia

Tanto staresti a lamentarti in ogni caso.

MrBrillio
13-08-2016, 13:18
Appunto!
Ad oggi la 1080 non ha senso visto che il 4K non lo regge. Per assurdo è più conveniente la Titan X, se avessi il tempo passerei al 4K e andrei di Titan X domani. Oppure se si è disposti a rompersi le pelotas lo Sli di 1070!

Il caldo fa brutti scherzi..l ho sempre detto :doh:

DarkNiko
13-08-2016, 13:23
Appunto!
Ad oggi la 1080 non ha senso visto che il 4K non lo regge. Per assurdo è più conveniente la Titan X, se avessi il tempo passerei al 4K e andrei di Titan X domani. Oppure se si è disposti a rompersi le pelotas lo Sli di 1070!

Dipende da cosa intendi per "il 4K non lo regge" visto che stando ai benchmark e alle esperienze riportate da molti in 4K non si comporta male, poi dipende chiaramente dai gusti personali e da come si è abituati a giocare. Maxare tutto a 4K secondo me ha poco senso, visto che a quella risoluzione già l'immagine così com'è è più definita, se poi si vogliono mettere i filtri a palla perché fa sentire più fighi allora è un altro paio di maniche. :asd:

HwWizzard
13-08-2016, 13:24
Il caldo fa brutti scherzi..l ho sempre detto :doh:

Assolutamente no! Spendere 800€ per non poter gestire il 4K è meno conveniente di spenderne 1200-1300€ e gestirlo tranquillamente senza SLI!
Girala come vuoi ma la 1080 a quel prezzo è fuori da ogni logica!

Ale55andr0
13-08-2016, 13:25
Prenditi una 1070 e vivi tranquillo, neppure ti rendi conto di quanta potenza abbia da offrire. Se poi non ci vuoi perdere molto, te la rivendi prima.;)
Ormai la situazione è questa. Inutile mangiarsi il fegato.:)

chip decurato e gddr lisce, no, preferisco qualcosa che almeno sia un po' più "next". Resta il problema dei driver però, perchè diciamocelo chiaro, nvidia ste politiche sporche le sta facendo sotto il naso di tutti, e chi come me una vga la tiene MINIMO 3 anni DEVE considerarlo, non si scappa.

@Illidan, sli? NO GRAZIE manco morto :eek:

Ale55andr0
13-08-2016, 13:27
Tanto staresti a lamentarti in ogni caso.

se tirassero fuori sta vega entro l'anno a prezzo decente (diciamo non sopra i 600) la piglierei e sparirei dal forum intento a giocare, com'è stato quando avevo la 290 e ancora non c'era aria di dover cambiare PC: ero praticamente solo presente nei thread dei giochi :read:. Che tu creda che starei qui a lamentarmi fottesego potentemente, se mi consenti. Ovvio che se poi tirano fuori una vga che va come la 1070 e costa 500 euro li sfotterei fino al 2038, ma mi parrebbe solo che normale in QUEL caso, perchè mi avrebbero tenuto mesi in sospeso, preso per i fondelli senza MEZZA specifica lasciando credere tutto e il contrario di tutto nonostante nvidia abbia tirato fuori le sue carte per poi deludere ugualmente. Con la fury x hanno fatto una roba simile, prezzi ridicoli e prestazioni inferiori alla controparte, uscita mesi prima, milllantando prue di avere la gpu più performante al mondo :doh:. Da prenderli a pesci in faccia. Fortuna in quel momento non dovevo cambiare scheda, ma la gente che aveva aspettato fino a quel momento per decidere fra le due, speranzosa di chissà cosa grazie anche alle loro FARNETICAZIONI s'è fatta sentire...e non per fargli i complimenti. E le vendite della fury x dicono il resto...




Una VGA secondo me andrebbe comprata solo per godersi i giochi (togliendo tutto il discorso del calcolo computazionale e quindi quella branca li). Si prende il modello che più soddisfa i requisiti prestazionali e poi fine ci si gode i titoli non la scheda.

a ma quello è proprio cio che faccio. Se vedessi il mio storico vedrai che in 8 anni di presenza nel forum avro' benchato si e no 3 -4 volte e giusto per capire se il mio pc era configurato correttamente rispetto ad altri con hardware simile :)
Per me il PC= gaming e navigazione... per tenermi aggiornato in merito :D

HwWizzard
13-08-2016, 13:27
Dipende da cosa intendi per "il 4K non lo regge" visto che stando ai benchmark e alle esperienze riportate da molti in 4K non si comporta male, poi dipende chiaramente dai gusti personali e da come si è abituati a giocare. Maxare tutto a 4K secondo me ha poco senso, visto che a quella risoluzione già l'immagine così com'è è più definita, se poi si vogliono mettere i filtri a palla perché fa sentire più fighi allora è un altro paio di maniche. :asd:

Se vedi le review della Titan vedi che a default regge tutto a 60 FPS, la 1080 no! Quindi ne devi avere 2, allora le 2 1070 convengono, se vuoi 1 sola VGA la scelta è obbligata ad oggi.

Raven
13-08-2016, 13:29
se vuoi 1 sola VGA la scelta è obbligata ad oggi.

eeehhh... "obbligata"?!?!?!... infatti si vede quante Titan X Pascal già ci sono, qua sul forum! :asd: (anche le 1080 sono pochine, invero... :O)

Crysis90
13-08-2016, 13:43
eeehhh... "obbligata"?!?!?!... infatti si vede quante Titan X Pascal già ci sono, qua sul forum! :asd: (anche le 1080 sono pochine, invero... :O)

Nessuna... :asd: :asd:
Comunque non si può dire che non sia un mostro di potenza.

http://www.guru3d.com/articles-pages/nvidia-titan-x-(pascal)-overclock-guide,1.html

In OC va il doppio di una Fury X.
Non vedo come AMD possa avvicinarsi a queste prestazioni prima di 6/8 mesi. :rolleyes:

Crysis90
13-08-2016, 13:51
Comunque se si pensa che una PS4 riesce a far girare questo

http://multiplayer.it/notizie/172469-uncharted-4-fine-di-un-ladro-un-video-mostra-come-stata-realizzata-la-grafica-di-uncharted-4-fine-di-un-ladro.html

dovremmo farci qualche domanda... :muro: :muro:

Raven
13-08-2016, 13:58
Nessuna... :asd: :asd:
Comunque non si può dire che non sia un mostro di potenza.

Su questo non ci piove! :O Impressive, senza senza e senza ma... ;)

Il ""problema"" è che se davvero fra un annetto stravolgeranno l'architettura Maxwell/Pascal, foooooorse prima di spendere 1350 cucuzze la gente con un minimo di sale in zucca ci pensa due/tre/quattro/cinque volte (cosa che, vista la cifra in ballo, dovrebbe fare comunque, a prescindere dal cambio di architettura, ma vabbeh... forse adesso pretendo troppo... :O)


Non vedo come AMD possa avvicinarsi a queste prestazioni prima di 6/8 mesi. :rolleyes:

Ma infatti non può... :stordita:
E secondo me non prima di 12/18 mesi, altro che 6/8! :asd:

devil_mcry
13-08-2016, 14:01
Su questo non ci piove! :O Impressive, senza senza e senza ma... ;)

Il ""problema"" è che se davvero fra un annetto stravolgeranno l'architettura Maxwell/Pascal, foooooorse prima di spendere 1350 cucuzze la gente con un minimo di sale in zucca ci pensa due/tre/quattro/cinque volte (cosa che, vista la cifra in ballo, dovrebbe fare comunque, a prescindere dal cambio di architettura, ma vabbeh... forse adesso pretendo troppo... :O)



Alla fin fine è tutto relativo a quanto guadagni. Una persona che guadagna 5000 al mese non si pone due minimamente il problema se ci pensi. Non è hw per tutti, è sbagliato chi la compra risparmiando tanto è tutta roba che diventa vecchia nel giro di poco (ANCHE SE, prima che quella scheda video non permetta più di giocare bene credo ce ne passi di tempo).

Raven
13-08-2016, 14:07
Alla fin fine è tutto relativo a quanto guadagni. Una persona che guadagna 5000 al mese non si pone due minimamente il problema se ci pensi.

mah... le Titan X Pascal sono schede video da iper-appassionati/enthusiast/nerd.... chi guadagna 5000 euro al mese le schede video imho non sa neppure cosa siano, eh... vanno su ben altro! :asd:
Personalmente, dal punto di vista economico, non avrei nessun problema (ripeto: nessuno) a prendermene 2 in SLI... ma non lo faccio perché lo trovo un insulto alla mia intelligenza per quello che ritengo sia il vero valore di una scheda video...
Che poi la scala dei valori di ognuno sia ben diversa, e che ognuno possa fare quello che vuole coi propri sghei non si discute... ;)

ps: chi compra una TitanX è perché vuole il TOP... e se vuole il TOP la cambia non appena esce la generazione successiva... :O

devil_mcry
13-08-2016, 14:09
mah... le Titan X Pascal sono schede video da iper-appassionati/enthusiast/nerd.... chi guadagna 5000 euro al mese le schede video imho non sa neppure cosa siano, eh... vanno su ben altro! :asd:
Personalmente, dal punto di vista economico, non avrei nessun problema (ripeto: nessuno) a prendermene 2 in SLI... ma non lo faccio perché lo trovo un insulto alla mia intelligenza per quello che ritengo sia il vero valore di una scheda video...
Che poi la scala dei valori di ognuno sia ben diversa, e che ognuno possa fare quello che vuole coi propri sghei non si discute... ;)

EDIT, da me c'è una persona che ha uno stipendio del genere ed è appassionato di giochi, ha la Titan X vecchia :)

Raven
13-08-2016, 14:09
adesso l'hai/avete capito? :stordita:


ehi... sono negli "anta"... ho il cervello che va mezzo servizio, ormai, sù!| :O

Ale55andr0
13-08-2016, 14:10
Non vedo come AMD possa avvicinarsi a queste prestazioni prima di 6/8 mesi. :rolleyes:

infatti non lo farà, credo che la sua single top da 6000sp potrà posizionarsi fra 1080 e titan, non di più. Cioè, quella bestia riesce a raggiugere ugualmente i 2ghz occata...amd quelle frequenze non le becca nemmeno di striscio su chip molto più piccoli nemmeno sotto azoto, dove si è arrivati attorno ai 1700 con polaris 10...



Comunque se si pensa che una PS4 riesce a far girare questo

http://multiplayer.it/notizie/172469-uncharted-4-fine-di-un-ladro-un-video-mostra-come-stata-realizzata-la-grafica-di-uncharted-4-fine-di-un-ladro.html

dovremmo farci qualche domanda... :muro: :muro:

basta abbozzare appena l'antialiasing e risparmi gia molte risorse hardware. Per il resto in quel gioco, per quanto ci sia ottima tecnica, c'è molto, mooolto più studio a livello artistico a fare l'impatto visivo che poligoni e texture (anzi alcune so proprio monche..), perchè i compromessi un occhio da pcista pignolo e cagazzi li nota subito....

Raven
13-08-2016, 14:10
Da me c'è un manager che non prende proprio 5000€ al mese (credo sui 4k, però ha il variabile di "soli" 40k) e ha la Titan X vecchia :D Dipende da chi trovi, lui è infognatissimo con i giochi

ecco... te pareva! :sofico:
Ok ok... eccezioni ce ne sono sicuramente! :p

Però sono curioso di vedere chi è il primo che se la compra qua sul forum (noto covo di ricconi!), ecco! :asd:

devil_mcry
13-08-2016, 14:12
ecco... te pareva! :sofico:
Ok ok... eccezioni ce ne sono sicuramente! :p

Però sono curioso di vedere chi è il primo che se la compra qua sul forum, ecco! :asd:

Si sono eccezioni, ma ci sono, ma si potrebbe anche estendere il discorso a figli di gente che guadagna cifre anche superiori e cose così. Insomma, sono poi "solo" 1300 non 13k :D

Il valore dei soldi è solo limitato a quanti se ne guadagnano, ormai, da poraccio, l'ho capito bene :D

eXeS
13-08-2016, 14:21
Ma non è uno shrink, i 16 e 14nm fanno parte dello stesso nodo almeno secondo tsmc e samsung, in realtà i 14nm di samsung/gf sarebbero più dei 16nm rispetto soprattutto ad Intel.

Spiegami meglio, a parità di transistors il die-size di una gpu che esce dal 14nm di Samsung non sarebbe più piccolo del die-size della stessa gpu prodotta con il 16nm di TMSC ?

devil_mcry
13-08-2016, 14:22
si vabbe, ma parla di gente che ha un mutuo, dei figli, spese in generale e prende 1100€ al mese, che guarda alla titan?

penso ci siano più giocatori sotto questo profilo che non dei dirigenti.

poi ovvio, se puoi e vuoi il top, che problema c'è :sofico:

Beh in quella situazione però, secondo me non dovrebbe proprio guardare ne PC ne giochi, o alla peggio giusto una console con 2-3 giochi... Ma questo è un mio pensiero. Alla fine ognuno fa cosa vuole giustamente, io non la comprerei (per me ha senso al massimo una scheda da 3-400€) però è tutto relativo a quanto uno guadagna. Non è tipo il fumo (che è davvero uno spreco totale di soldi secondo me) o la bottiglia di Crystal da 200€ per fare il figo in discoteca il sabato sera ecco :D

mikael84
13-08-2016, 14:43
chip decurato e gddr lisce, no, preferisco qualcosa che almeno sia un po' più "next". Resta il problema dei driver però, perchè diciamocelo chiaro, nvidia ste politiche sporche le sta facendo sotto il naso di tutti, e chi come me una vga la tiene MINIMO 3 anni DEVE considerarlo, non si scappa.

@Illidan, sli? NO GRAZIE manco morto :eek:

Sul chip decurtato che c'è di male, la 1070 mantiene 3 GPC, la 1080 solo 4 su 6.
Devi guardare le prestazioni pure.
Le ddr5 stessa cosa, sono più che sufficienti, non paragonare il bus di AMD che differisce.
Allora fa bene AMD ad insistere sulle HBM, se non vuoi le ddr5.:p
Le ddr5x sono ram per ora pietose, giusto per allungare il brodo sui classici bus.;)

Ale55andr0
13-08-2016, 14:57
Sul chip decurtato che c'è di male, la 1070 mantiene 3 GPC, la 1080 solo 4 su 6.
Devi guardare le prestazioni pure.

c'è di male che mi da fastidio come un quadro storto :D passare da 2560/64 della 290 a 1920/48 della 1070 mi darebbe proprio bucio de culo
le prestazioni pure sono buone ma...preferisco avercene ancora di più :sofico:


Le ddr5x sono ram per ora pietose, giusto per allungare il brodo sui classici bus.;)

ma come, mo pure pietose? :D qua dici:


Le ddr5x vanno benissimo, non ha alcun senso spendere tanto per delle HBM.


meglio "x" che lissie, è sempre un prodotto più nuovo che non ti da la sensazione d'aver comprato qualcosa di gia superato, anche se è ovvio che non saranno eterne, ci mancherebbe :).
E poi i 320gb/s li avrà anche la scorpio e mi darebbe fastidio, per quanto so bene che fuori da un contesto specifico restano numeri fini a se stessi, avere qualcosa meno di una scatoletta.
Oh, c'ho le mie fisime insomma :O

DarkNiko
13-08-2016, 15:03
ecco... te pareva! :sofico:
Ok ok... eccezioni ce ne sono sicuramente! :p

Però sono curioso di vedere chi è il primo che se la compra qua sul forum (noto covo di ricconi!), ecco! :asd:

Il problema non è tanto verificare chi ha disponibilità economica quanto il fatto che chi ha sì i soldi ma anche un briciolo di cervello, sa bene che spendere 1300 euro per una Titan X Pascal, che tra 1 anno varrà la metà dei soldi spesi, non è un investimento produttivo. Poi personalmente ho già dato col marchio Titan per quello che mi riguarda, sia con la primissima Titan (Kepler) che con la X (Maxwell).

Personalmente sul fronte VGA ho deciso di mettere un freno, tanto gioco divinamente a tutto. Quando e se mai vedrò i giochi non girare più bene o non sarò soddisfatto e si renderà necessario il cambio, soltanto allora se ne riparlerà.

Le VGA come dicono in tanti, nascono per giocare. Fintanto che questo desiderio non è precluso non vi è ragione di cambiare e/o di stare sempre dietro all'ultima inculata ehm trovata :asd: tecnologica. :D

Vul
13-08-2016, 15:10
perchè mi avrebbero tenuto mesi in sospeso, preso per i fondelli

Guarda che ad amd e nvidia non gliene frega niente di te eh.

Sia Nvidia che AMD stanno vendendo bene, puoi anche continuare con le mestruazioni.

Vul
13-08-2016, 15:10
che tra 1 anno varrà la metà dei soldi spesi

Volevi scrivere 4 mesi forse.

Auguri a vendere una titanx a 600 fra 1 anno.

Ale55andr0
13-08-2016, 15:15
Guarda che ad amd e nvidia non gliene frega niente di te eh.

Sia Nvidia che AMD stanno vendendo bene, puoi anche continuare con le mestruazioni.

lo so, ma a te viene il mestruo su di me se ti senti in dovere di rispondermi senza che nemmeno mi rivolgo a te, mettimi in ignore e falla finita, anzi facciamo che comincio io con te :)

mikael84
13-08-2016, 15:15
c'è di male che mi da fastidio come un quadro storto :D passare da 2560/64 della 290 a 1920/48 della 1070 mi darebbe proprio bucio de culo
le prestazioni pure sono buone ma...preferisco avercene ancora di più :sofico:




ma come, mo pure pietose? :D qua dici:




meglio "x" che lissie, è sempre un prodotto più nuovo che non ti da la sensazione d'aver comprato qualcosa di gia superato, anche se è ovvio che non saranno eterne, ci mancherebbe :).

Infatti, sono ram per aumentare la banda ma tirate di latenza.
Senza di quelle ram Nvidia doveva collegare il bus alla 320bit con 512kb di cache l2 e 16 rop's a vuoto, creando un chip più grande, più costoso e con 2gb in più, quindi altri costi.
Le ddr5x hanno risolto tutto questo, garantiscono un data rate più elevato ma sono ram tiratissime, non stravolgono nulla:) .




E poi i 320gb/s li avrà anche la scorpio e mi darebbe fastidio, per quanto so bene che fuori da un contesto specifico restano numeri fini a se stessi, avere qualcosa meno di una scatoletta.
Oh, c'ho le mie fisime insomma :O

Hai detto bene, sono numeri che non significano nulla sopratutto su diverse architetture.
E' come dire, Vega full avrà 6144st ed una Titan soli 3584cc, non la voglio:p .
I numeri di banda sono relativi, lo sai che una 290 sbandierata per 320gb/s ha solo 263gb/s? e ci devi alimentare 64 rop's per blending? E' che una 970 arriva a valori di compressione simili?

La 1070 può comprimere anche in 2:1 senza problemi, quindi raggiunge picchi elevatissimi pur dovendo rapportarsi con sole 48 rop's da z-buffer, 24 da blending.:)
Dove una 290 spingeva meglio è nelle texture incomprimibili, ma ormai le schede attuali comprimono in tutto dal 8:1 al 4:1 al 2:1

Ale55andr0
13-08-2016, 15:20
Hai detto bene, sono numeri che non significano nulla sopratutto su diverse architetture.
E' come dire, Vega full avrà 6144st ed una Titan soli 3584cc, non la voglio:p .


ma lo sai che mi hai appena ricordato che scorpio da rumor avrà da 56 a 60cu? :sofico:

:D :D :D

mikael84
13-08-2016, 15:25
ma lo sai che mi hai appena ricordato che scorpio da rumor avrà da 56 a 60cu? :sofico:

:D :D :D

3584ST/3840ST.

3584/6 raster/48 rop's e 256bit con 12gb/s e 384gb/s è una 1070 di AMD, spesso va anche meglio (altre lievemente peggio).
La scheda che volevi tu.:p

HwWizzard
13-08-2016, 15:30
eeehhh... "obbligata"?!?!?!... infatti si vede quante Titan X Pascal già ci sono, qua sul forum! :asd: (anche le 1080 sono pochine, invero... :O)

L' obbligata era riferita ai 4K@60FPS stabili

Alla fin fine è tutto relativo a quanto guadagni. Una persona che guadagna 5000 al mese non si pone due minimamente il problema se ci pensi. Non è hw per tutti, è sbagliato chi la compra risparmiando tanto è tutta roba che diventa vecchia nel giro di poco (ANCHE SE, prima che quella scheda video non permetta più di giocare bene credo ce ne passi di tempo).

Appunto, se vogliamo vedere un iPhone arriva a 1000, dura 12 mesi poi esce quello nuovo, per la Titan penso ne passeranno almeno 18 di mesi e, come giustamente dici, prima che diventi obsoleta ne passerà di tempo

mah... le Titan X Pascal sono schede video da iper-appassionati/enthusiast/nerd.... chi guadagna 5000 euro al mese le schede video imho non sa neppure cosa siano, eh... vanno su ben altro! :asd:
Personalmente, dal punto di vista economico, non avrei nessun problema (ripeto: nessuno) a prendermene 2 in SLI... ma non lo faccio perché lo trovo un insulto alla mia intelligenza per quello che ritengo sia il vero valore di una scheda video...
Che poi la scala dei valori di ognuno sia ben diversa, e che ognuno possa fare quello che vuole coi propri sghei non si discute... ;)

ps: chi compra una TitanX è perché vuole il TOP... e se vuole il TOP la cambia non appena esce la generazione successiva... :O

Lo ripeto, se avessi il tempo di giocare passerei al 4K domani e nella mia scala dei valori la Titan X sarebbe un acquisto imprescindibile al monitor 4K

Il problema non è tanto verificare chi ha disponibilità economica quanto il fatto che chi ha sì i soldi ma anche un briciolo di cervello, sa bene che spendere 1300 euro per una Titan X Pascal, che tra 1 anno varrà la metà dei soldi spesi, non è un investimento produttivo. Poi personalmente ho già dato col marchio Titan per quello che mi riguarda, sia con la primissima Titan (Kepler) che con la X (Maxwell).

Personalmente sul fronte VGA ho deciso di mettere un freno, tanto gioco divinamente a tutto. Quando e se mai vedrò i giochi non girare più bene o non sarò soddisfatto e si renderà necessario il cambio, soltanto allora se ne riparlerà.

Le VGA come dicono in tanti, nascono per giocare. Fintanto che questo desiderio non è precluso non vi è ragione di cambiare e/o di stare sempre dietro all'ultima inculata ehm trovata :asd: tecnologica. :D

Non c'entra quanto varrà tra un anno, ma come farà girare i giochi fino all'uscita della nuova Titan ;)

Raven
13-08-2016, 15:30
non è un investimento produttivo.

che poi... parlare di "investimenti produttivi" in campo hardware (qualsiasi!) è giusto un po' un ossimoro! :O

;)

DarkNiko
13-08-2016, 16:34
che poi... parlare di "investimenti produttivi" in campo hardware (qualsiasi!) è giusto un po' un ossimoro! :O

;)

Ma anche no Raven caro e posso dimostrartelo molto facilmente. Se prendi una configurazione hw basata su X99 (come la mia in firma, ma è giusto un esempio), scheda madre e cpu costano esattamente quanto costavano un anno e mezzo fa, quindi tanto spendevi allora, tanto spendi adesso, questo è ciò che considero "investimento produttivo".

Sulle VGA invece il discorso è diverso, domina in primis il marketing e c'è ovviamente più mercato tra NVidia (AMD non risulta pervenuta :D) che si diletta in parte a metterlo allegramente nel di dietro e l'utenza che cambia VGA a rotta di collo come se non ci fosse un domani, svendendo letteralmente il proprio usato (basti pensare a chi ha avuto il coraggio di vendere una 980Ti a 300-350 €, contenti loro.....) :asd:

Raven
13-08-2016, 16:37
Ma anche no Raven caro e posso dimostrartelo molto facilmente. Se prendi una configurazione hw basata su X99 (come la mia in firma, ma è giusto un esempio), scheda madre e cpu costano esattamente quanto costavano un anno e mezzo fa, quindi tanto spendevi allora, tanto spendi adesso, questo è ciò che considero "investimento produttivo".


ah... ok!.... :fagiano:

Luca T
13-08-2016, 16:42
Ma anche no Raven caro e posso dimostrartelo molto facilmente. Se prendi una configurazione hw basata su X99 (come la mia in firma, ma è giusto un esempio), scheda madre e cpu costano esattamente quanto costavano un anno e mezzo fa, quindi tanto spendevi allora, tanto spendi adesso, questo è ciò che considero "investimento produttivo".

Sulle VGA invece il discorso è diverso, domina in primis il marketing e c'è ovviamente più mercato tra NVidia (AMD non risulta pervenuta :D) che si diletta in parte a metterlo allegramente nel di dietro e l'utenza che cambia VGA a rotta di collo come se non ci fosse un domani, svendendo letteralmente il proprio usato (basti pensare a chi ha avuto il coraggio di vendere una 980Ti a 300-350 €, contenti loro.....) :asd:

Si ma le RAM sono crollate, guarda il corrispettivo delle tue Ma nuove RipjawsV stanno sui 90-100€

aled1974
13-08-2016, 16:51
Ma anche no Raven caro e posso dimostrartelo molto facilmente. Se prendi una configurazione hw basata su X99 (come la mia in firma, ma è giusto un esempio), scheda madre e cpu costano esattamente quanto costavano un anno e mezzo fa, quindi tanto spendevi allora, tanto spendi adesso, questo è ciò che considero "investimento produttivo".

senza offesa e buon per te se devi poi rivendere :mano:

ma a me sembra tanto di fregatura per il consumatore il prezzo di un prodotto che non scende, anche se di fatto succede perchè in quella fascia li chi c'è a fare concorrenza? :cry:


Si ma le RAM sono crollate, guarda il corrispettivo delle tue Ma nuove RipjawsV stanno sui 90-100€

appunto, dove c'è scelta/concorrenza...

ciao ciao

Crysis90
13-08-2016, 16:53
Guarda che ad amd e nvidia non gliene frega niente di te eh.

Sia Nvidia che AMD stanno vendendo bene, puoi anche continuare con le mestruazioni.

:asd: :asd:

fraussantin
13-08-2016, 16:56
:asd: :asd:
Amd sta vendendo bene?

Se fosse un tabacchino invece di una multinazionale piena di debiti...

fraussantin
13-08-2016, 16:56
:asd: :asd:
Amd sta vendendo bene?

Se fosse un tabacchino invece di una multinazionale piena di debiti...

OvErClOck82
13-08-2016, 17:36
amd sta vendendo bene, nonostante le risatine :rolleyes: ovvio che partendo dalla loro situazione di mercato sarebbe stupido pensare a un ribaltamento delle percentuali di market share in un mese, eh... e non ci vuole certo un master in economia per arrivarci.

Delle 480 gigafail ne vendono parecchie, tanto che i prezzi son tenuti alti perchè la domanda è elevata e ancora le disponibilità sono insufficienti...

DarkNiko
13-08-2016, 18:00
Si ma le RAM sono crollate, guarda il corrispettivo delle tue Ma nuove RipjawsV stanno sui 90-100€

Crollate fino ad un certo punto. Le Ripjaws IV che ho sotto le pagai 145 euro, ora stanno a 104 su Amazon, 40 € in meno dopo 1 anno ci può stare.

Le VGA invece da un pò di tempo a questa parte, complici purtroppo i prezzi folli imposti da NVidia, costano troppo rispetto al loro reale valore e si svalutano altrettanto troppo a distanza di poco tempo dal loro acquisto.

Anche per questa ragione ho deciso di fermarmi da futuri upgrade di VGA per un bel pò. ;)

HwWizzard
13-08-2016, 19:05
Crollate fino ad un certo punto. Le Ripjaws IV che ho sotto le pagai 145 euro, ora stanno a 104 su Amazon, 40 € in meno dopo 1 anno ci può stare.

Le VGA invece da un pò di tempo a questa parte, complici purtroppo i prezzi folli imposti da NVidia, costano troppo rispetto al loro reale valore e si svalutano altrettanto troppo a distanza di poco tempo dal loro acquisto.

Anche per questa ragione ho deciso di fermarmi da futuri upgrade di VGA per un bel pò. ;)

Beh io venivo da una 780 Lightning, presa appena disponibile, quindi quasi 3 anni. Adesso ho la 1070, ma anche fosse una Titan X tra 3 anni poco m'importa di quanto andrebbe a valere. ;) Se la vuoi cambiare ogni gen allora la sola scelta sensata è la X70)

Lunar Wolf
13-08-2016, 19:43
amd sta vendendo bene, nonostante le risatine :rolleyes: ovvio che partendo dalla loro situazione di mercato sarebbe stupido pensare a un ribaltamento delle percentuali di market share in un mese, eh... e non ci vuole certo un master in economia per arrivarci.

Delle 480 gigafail ne vendono parecchie, tanto che i prezzi son tenuti alti perchè la domanda è elevata e ancora le disponibilità sono insufficienti...
Ignore please...

Senza dati alla mano e inutile dire se vende veramente o no.

Come se dovessimo gioire tutti se amd fallisce (cosa improbabile al massimo verrà acquistata)

Al massimo si godranno le loro pascal pagate mezzo stipendio che fra 6 mesi bisogna chiedersi se avranno supporto o no se i rumor saranno veritieri.

ste-87
13-08-2016, 19:47
Non credo ci sia questo sconvolgimento, Nvidia lavora sempre con le FP ed le LDS/SFU.
Probabile che seguano la Tesla anche in ambito game per dare 1024 istruzioni al singolo cuda. Quindi un vero e proprio balzo computazionale anche via game.
I raster penso siano da 24 pixel a sto giro, altrimenti ne viene fuori un casotto assurdo.
Quindi 3072cc fanno 4 GPC da 768cc, oppure 4 GPC da 3584cc e 7 TPC per GPC.

Su 3072cc puoi collegare 96 rop's (più di quelle di titan pascal), un clock migliore, SM multipli ed hbm 16gb (48 rop's per stack), oppure 256 bit con ddr5x belle spinte.

Il GV102 può essere quindi fatto da 4608cc/128 rop's e 24gb hbm.


Se solo sapessi quanto dichiarato su flops per watt mi verrebbe facile ma Nvidia ha incasinato tutta la roadmap.

per noi comuni mortali, indicheresti come possibili specifiche della "2080" o "2070" i 3072cc con 96 rops? Per quello che c'è ora sul mercato (Pascal) credi sia possibile guadagnare ancora qualcosa significativo sulle frequenze di lavoro medie attuali delle pascal (1900-2100) o è più facile che puntino ad un maggior ipc dato che tra maxwell e pascal sembrano aver puntato più sulle prime per "pareggiare" un ipc inferiore?

In OC va il doppio di una Fury X.
Non vedo come AMD possa avvicinarsi a queste prestazioni prima di 6/8 mesi. :rolleyes:

Ma infatti non può... :stordita:
E secondo me non prima di 12/18 mesi, altro che 6/8! :asd:

il problema è che se accumuli ritardo già ora, a meno che non trovi un qualcosa di rivoluzionario che ti permetta di fare un enorme salto di prestazioni per recuperare, il gap non può altro che peggiorare...in prospettiva in 2-3 anni in questa maniera non è per niente un panorama "entusiasmante" per noi consumatori e i prezzi :eek:

Spiegami meglio, a parità di transistors il die-size di una gpu che esce dal 14nm di Samsung non sarebbe più piccolo del die-size della stessa gpu prodotta con il 16nm di TMSC ?

sperando che non accada come nel mondo mobile dove i 16nm di TSMC si sono rivelati più efficenti dei 14nm Samsung...

Crysis90
13-08-2016, 21:24
Amd sta vendendo bene?

Se fosse un tabacchino invece di una multinazionale piena di debiti...

amd sta vendendo bene, nonostante le risatine :rolleyes:

Ignore please...

Al massimo si godranno le loro pascal pagate mezzo stipendio che fra 6 mesi bisogna chiedersi se avranno supporto o no se i rumor saranno veritieri.

Raga c'è stato un clamoroso misunderstanding.
Le risatine erano relative al fatto che né ad AMD né ad NVidia frega assolutamente nulla delle mestruo di Alessandro. :asd: :asd:
Certo che in questi Thread basta veramente un nulla per essere assaliti oh. :confused: :rolleyes:

Lunar Wolf
13-08-2016, 22:02
Cosa c'entra essere assaliti?

Hai messo le faccine su una certa frase mica su Alessandro e la sua magica frase!

Cerchiamo di essere obiettivi e parlare stando in Topic invece dei soliti commenti inutili che non servono a nessuno e creano incomprensioni.

Lunar Wolf
13-08-2016, 22:09
per noi comuni mortali, indicheresti come possibili specifiche della "2080" o "2070" i 3072cc con 96 rops? Per quello che c'è ora sul mercato (Pascal) credi sia possibile guadagnare ancora qualcosa significativo sulle frequenze di lavoro medie attuali delle pascal (1900-2100) o è più facile che puntino ad un maggior ipc dato che tra maxwell e pascal sembrano aver puntato più sulle prime per "pareggiare" un ipc inferiore?





il problema è che se accumuli ritardo già ora, a meno che non trovi un qualcosa di rivoluzionario che ti permetta di fare un enorme salto di prestazioni per recuperare, il gap non può altro che peggiorare...in prospettiva in 2-3 anni in questa maniera non è per niente un panorama "entusiasmante" per noi consumatori e i prezzi :eek:



sperando che non accada come nel mondo mobile dove i 16nm di TSMC si sono rivelati più efficenti dei 14nm Samsung...
Secondo me pascal e stato una prova in campo per assaggiare questi 16nm e con la bontà di tmsc avrà superato le loro aspettative permettendo di capire meglio dove potrebbe puntare il loro nuovo progetto.

Non capisco sta corsa ma effettivamente avranno i loro motivi, sono ingegneri ed economisti con le palle a differenza di alcuni utenti qui dentro.

Se secondo loro questa nuova architettura diventa na bomba ricordiamolo per poter aumentare i volumi di vendita nel mercato professionale oltre a quello grafico che potrebbe contare poco se prende il via. Magari c'è la pressa da parte di Intel? Solo alcuni, veri, sviluppatori possono accennare qualcosa di reale.

Chiedo a Mike :cosa manca a nvidia in pascal per avere fretta a tirar fuori una nuova architettura? Ricordiamo che già pascal è stato annunciato di sorpresa rispetto alla sua roadmap!

mikael84
13-08-2016, 23:12
per noi comuni mortali, indicheresti come possibili specifiche della "2080" o "2070" i 3072cc con 96 rops? Per quello che c'è ora sul mercato (Pascal) credi sia possibile guadagnare ancora qualcosa significativo sulle frequenze di lavoro medie attuali delle pascal (1900-2100) o è più facile che puntino ad un maggior ipc dato che tra maxwell e pascal sembrano aver puntato più sulle prime per "pareggiare" un ipc inferiore?




La soluzione via raster è la prima e più semplice ma bisogna realmente vedere se riusciranno ad utilizzare un collegamento raster a 24 pixel. L'ho buttata così.
Il discorso IPC per cc è complesso da spiegare, perchè bisogna rapportare le istruzioni per warp, e l'unica veramente che riesce a raddoppiare le istruzioni è la tesla per il compute.
Kepler processa 341 istruzioni per cc su 1,5mb
Maxwell e Pascal processano 512 istruzioni su 2/3mb
Tesla processa 1024 istruzioni su 4mb di cache l2.

Più istruzioni hai in contemporanea meno devi attingere dalla l2 che richiede sino a 10-12 cicli di clock, peggiorando le latenze. Se non aumenti le istruzioni, dovresti aumentare parallelamente la L2 che anche su più alte latenze riesce ad immagazzinare più dati.

Il problema vero nasce sul come configurare un 256bit.
256bit significano 3/4 GPC, ed aumentare la soglia di TPC per GPC significa includere più TPC su un GPC bloccato via raster.
Quindi 3072cc su 64 rop's e possibili 2/2,2ghz (clock blocatto con tre resistenze di caduta su Pascal, ma è cmq acerbo).
Oppure 3072cc su 96 rop's e raster da 24 pixel con SM multipli alla Tesla compute.

Una delle ultime e troppo complesse vie che o pensato è la ripartizione GPC, come dicevo all'inizio un sub GPC e ampiezza cache.

Quindi GPC doppia partizione con doppio raster. Ogni GPC integrerebbe 4 TPC per sub GPC.
Questo è buono perchè porterebbe un sub GPC al collegamento di 16 rop's ed un mb di cache.
Un sub GPC a 8 rop's e 512kb.

Questo è uno schema però troppo esoso lato wafer, e lato cc finali.

Purtroppo non so che valore intendano raggiungere ma dopo tutti gli esempi, potremmo anche trovarci con un classico
3072cc e 64 rop's su 16gb ddr5x a 12gb/s:)



Chiedo a Mike :cosa manca a nvidia in pascal per avere fretta a tirar fuori una nuova architettura? Ricordiamo che già pascal è stato annunciato di sorpresa rispetto alla sua roadmap!

A livello puramente tecnico non manca nulla, ma Nvidia sta facendo un pò alla Intel. Ho fatto l'esempio Haswell proprio per delle migliorie IPC, tra doppio bw l1 e istruzioni totali. :)
Una cosa penso sia sicura, che il bus da 256bit di GV104 sia fatto da MC da 2gb e 16 totali.
Ci sono miriadi di fattori da calcolare, ne calcoli 20, te ne rimane uno sballato. :D

Crysis90
14-08-2016, 01:42
Cerchiamo di essere obiettivi e parlare stando in Topic invece dei soliti commenti inutili che non servono a nessuno e creano incomprensioni.

Ragazzi avete completamente perso il senso dell'umorismo...l'intelligenza artificiale sta avendo il sopravvento. :cry: :O :Prrr:

fraussantin
14-08-2016, 09:01
Ignore please...

Senza dati alla mano e inutile dire se vende veramente o no.

Come se dovessimo gioire tutti se amd fallisce (cosa improbabile al massimo verrà acquistata)

Al massimo si godranno le loro pascal pagate mezzo stipendio che fra 6 mesi bisogna chiedersi se avranno supporto o no se i rumor saranno veritieri.
Rumors o no prima di estate non ci saranno.

appleroof
14-08-2016, 10:06
Le previsioni erano corrette. Estate prossima volta.

Poi se sarà sempre a 14 nm come faranno a avere un perf\watt sconvolgente rispetto a pascal non si sa ...( le.hbm 2 faranno miracoli!)

Bè al di là delle hbm2 basta vedere il performance/watt di Maxwell vs. Kepler, entrambi a 28nm

fraussantin
14-08-2016, 12:40
Bè al di là delle hbm2 basta vedere il performance/watt di Maxwell vs. Kepler, entrambi a 28nm
Si ma kepler aveva i cuda che si prendevano un caffè tra un frame e l'altro. Maxwell lavorano come cinesi

Ale55andr0
14-08-2016, 13:25
:asd:

egounix
14-08-2016, 13:31
No longer support
Rip

Free Gordon
14-08-2016, 13:50
Maxwell lavorano come cinesi

Mah..guarda che anche loro adesso stanno mollando un pò eh :asd:

mikael84
14-08-2016, 15:18
Si ma kepler aveva i cuda che si prendevano un caffè tra un frame e l'altro. Maxwell lavorano come cinesi

Nella tua battuta purtroppo racconti la verità.:)

La 780ti ha 2880cc (15 SMX x192cuda)
2880/FMA(2)clock = 5,8TF

1920/FMA(2)clock= 3,91 TF
http://techreport.com/r.x/radeon-r9-fury-x/b3d-alu-througput.gif

Quindi i 15 SMX schedulano 128cc ed i 64 blocchi vanno a prendersi un caffè (ora spesso)
15 " 128 =1920cc.

E' spiegato banalmente, se non capite qualcosa chiedete.:)

No longer support
Rip

Le tue 780 sono 770 dei tempi che furono.:read:

Mah..guarda che anche loro adesso stanno mollando un pò eh :asd:

Dove stanno mollando? Su che gioco:)

appleroof
14-08-2016, 17:34
Si ma kepler aveva i cuda che si prendevano un caffè tra un frame e l'altro. Maxwell lavorano come cinesi

Si ma rimane il fatto che a parità di pp il p/w è nettamente migliorato, se Volta sarà ancora a 16nm nulla vieta che rispetto a Pascal si ripetano andando ad intervenire sull'architettura come appunto fatto nell'esempio che citi

Nurabsa
14-08-2016, 17:38
i 16 devono ancora esprimersi per bene,

se guardiamo quello che han tirato su con i 28 e la sua ultima incarnazione maxwell, pascal è praticamente nulla rispetto al potenziale del pp

smoicol
14-08-2016, 17:47
i 16 devono ancora esprimersi per bene,

se guardiamo quello che han tirato su con i 28 e la sua ultima incarnazione maxwell, pascal è praticamente nulla rispetto al potenziale del pp

si devono inventare qualcosa di nuovo, i limiti architetturali sono quelli, 28 o 16nn che siano

Nurabsa
14-08-2016, 18:13
si devono inventare qualcosa di nuovo, i limiti architetturali sono quelli, 28 o 16nn che siano

limiti architetturali?
gli stessi di kepler prima dell avvento di maxwell, ma allora chiamiamoli con il loro nome affinamento come ottenere il massimo da un pp apparentemente alla frutta altro che limiti.

Diversamente tutti questi ingegneri nelle bighouse potrebbero andare a zappare gli agrumeti siculi ne han tanto bisogno :asd:

illidan2000
14-08-2016, 19:59
limiti architetturali?
gli stessi di kepler prima dell avvento di maxwell, ma allora chiamiamoli con il loro nome affinamento come ottenere il massimo da un pp apparentemente alla frutta altro che limiti.

Diversamente tutti questi ingegneri nelle bighouse potrebbero andare a zappare gli agrumeti siculi ne han tanto bisogno :asd:

beh, già si sa che Volta spremerà meglio i 16nm...

Crysis90
14-08-2016, 21:03
https://www.techpowerup.com/224976/samsung-to-optical-shrink-nvidia-pascal-to-14-nm

Ne parlano un pò tutti, sembrerebbe abbastanza veritiero come rumor...
Non penso però che faranno uno shrink dei modelli già usciti della famiglia Pascal...

HwWizzard
15-08-2016, 19:55
faccio una premessa: se guardi le vecchie architetture a 28nm, amd ha un leggero vantaggio di densità rispetto ad nvidia ovvero che con lo stesso processo produttivo e lo stesso die-size ci mette dentro più transistor, questo perché ci sono molte componenti che compongono una gpu ed inoltre anche quando si parla di processo produttivo non si dice tutto, si può anche decidere di "mettere più spazio tra un transistors e l'altro".

ora detto questo, tra i 14 e 16nm di samsung/gf e tsmc ci balla circa un 3% se questa tabella se è rispettata anche con il nodo LPP di samsung usato per le gpu amd che li non è rappresentato, tsmc per le gpu usa il 16ff+k
http://oi62.tinypic.com/29m6qdw.jpg
come vedi i 14nm di Intel invece sono molto più piccoli, da quella tabella pare che i 14nm samsung siano il +37% grandi e quelli tsmc che li chiama 16nm il +40%.

come vedi tra samsung e tsmc non c'è praticamente differenza in scaling.

di fatto se guardi il vantaggio di amd rispetto a nvidia in quanto a densità è circa lo stesso della passata generazione a 28nm segno che i 2 PP sono simili da questo punto di vista.

al 99% il processo di tsmc è migliore almeno del 10% rispetto a quello si samsung sulle perf/watt, ma secondo me anche qualcosa in più :O

è marketing, samsung ha deciso di chiamare il suo pp così, sinceramente la trova una cosa scorretta e che anzi chi non sa queste cose e legge 16nm vs 14nm dice: "addirittura nvidia con un processo più grande fa meglio di amd", quando invece non è così, ma anzi tutto l'opposto.

che poi chi (amd/nvidia) ha scelto cosa (14/16nm), lo sanno loro il perché :read:

i leak dicono che amd ha molto più slot produttivi presso gf mentre nvidia ne ha pochi 20k vs 9k wafer/mese, secondo me costa anche molto meno come processo, tsmc è stra piena di ordini se pensi che poi ha la commessa apple...

Alla luce di quello che si è visto e di quello che emerge dai PP mi viene da ipotizzare che il problema di AMD ad oggi sia da imputare al PP.
Insomma Polaris ha guadagnato 150-200Mhz rispetto ai 28nm!!! Troppo poco, se ipotizziamo un Polaris sulle freq nVidia (almeno 1800-1900Mhz) possiamo presupporre che la 480 andrebbe a dar fastidio alla 1070.... ed ecco che cambia tutto il panorama, anche perché i costi per AMD non cambierebbero per la bontà del PP, ma le prestazioni eccome.
Potrebbe essere che AMD visti i problemi sul PP abbia spostato Vega al 2017 proprio per risolvere questi problemi e non far uscire un Fail simil FuryX sperando che nel frattempo il PP migliori a tal punto da portarli a competere con il GP102:ciapet: !
A me sembra molto plausibile, ditemi voi se sbaglio!

Nurabsa
15-08-2016, 20:15
l impressione è che la concorrenza si sia arenata,

adesso lasciando perdere i prezzi parlando solo di prestazioni amd ha palesemente problemi.
Non si puo piu scegliere rosso o verde, anche se a me non piace la titan pascal, amd oggi è anni luce lontana dallo sfornare qualcosa di vagamente simile.

e quando presi la mia era anni luce lontana dall avere una partner in grado di fare vga da contrapporre alle top di evigia

altro motivo per scartarla asd asd

ste-87
15-08-2016, 20:56
La soluzione via raster è la prima e più semplice ma bisogna realmente vedere se riusciranno ad utilizzare un collegamento raster a 24 pixel. L'ho buttata così.
Il discorso IPC per cc è complesso da spiegare, perchè bisogna rapportare le istruzioni per warp, e l'unica veramente che riesce a raddoppiare le istruzioni è la tesla per il compute.
Kepler processa 341 istruzioni per cc su 1,5mb
Maxwell e Pascal processano 512 istruzioni su 2/3mb
Tesla processa 1024 istruzioni su 4mb di cache l2.

Più istruzioni hai in contemporanea meno devi attingere dalla l2 che richiede sino a 10-12 cicli di clock, peggiorando le latenze. Se non aumenti le istruzioni, dovresti aumentare parallelamente la L2 che anche su più alte latenze riesce ad immagazzinare più dati.

Il problema vero nasce sul come configurare un 256bit.
256bit significano 3/4 GPC, ed aumentare la soglia di TPC per GPC significa includere più TPC su un GPC bloccato via raster.
Quindi 3072cc su 64 rop's e possibili 2/2,2ghz (clock blocatto con tre resistenze di caduta su Pascal, ma è cmq acerbo).
Oppure 3072cc su 96 rop's e raster da 24 pixel con SM multipli alla Tesla compute.

Una delle ultime e troppo complesse vie che o pensato è la ripartizione GPC, come dicevo all'inizio un sub GPC e ampiezza cache.

Quindi GPC doppia partizione con doppio raster. Ogni GPC integrerebbe 4 TPC per sub GPC.
Questo è buono perchè porterebbe un sub GPC al collegamento di 16 rop's ed un mb di cache.
Un sub GPC a 8 rop's e 512kb.

Questo è uno schema però troppo esoso lato wafer, e lato cc finali.

Purtroppo non so che valore intendano raggiungere ma dopo tutti gli esempi, potremmo anche trovarci con un classico
3072cc e 64 rop's su 16gb ddr5x a 12gb/s:)


ok, solo un'ultima domanda non intendendomene di elettronica in senso stretto: ti ho visto menzionare più volte nelle tue risposte "le resistenze di caduta", queste resistenze si occupano di tenere il voltaggio entro un certo limite in maniera fisica (hardware)? In che senso è abbastanza acerbo questo aspetto? nel senso che si può dare di più come frequenze operative eliminandole una volta affinato il pp o cosa?

ora detto questo, tra i 14 e 16nm di samsung/gf e tsmc ci balla circa un 3% se questa tabella se è rispettata anche con il nodo LPP di samsung usato per le gpu amd che li non è rappresentato, tsmc per le gpu usa il 16ff+k

come vedi i 14nm di Intel invece sono molto più piccoli, da quella tabella pare che i 14nm samsung siano il +37% grandi e quelli tsmc che li chiama 16nm il +40%.

come vedi tra samsung e tsmc non c'è praticamente differenza in scaling.

di fatto se guardi il vantaggio di amd rispetto a nvidia in quanto a densità è circa lo stesso della passata generazione a 28nm segno che i 2 PP sono simili da questo punto di vista.

al 99% il processo di tsmc è migliore almeno del 10% rispetto a quello si samsung sulle perf/watt, ma secondo me anche qualcosa in più :O

speriamo solo che il possibile cambio di pp da 16 TSMC a 14 Samsung non sia dettato solo da un basso numero di slot riservati ad nvidia, alla fine quelli TSMC mi sono sembrati sempre i migiori come prestazioni anche paragonando quanto loro dichiarano rispetto ai 28nm come metro di paragone

TSMC:

TSMC's 16FF+ (FinFET Plus) technology can provide above 65 percent higher speed, around 2 times the density, or 70 percent less power than its 28HPM technology. Comparing with 20SoC technology, 16FF+ provides extra 40% higher speed and 60% power saving.

Samsung:

14LPE (Early edition) targets the early technology leaders and time-to-market customers such as mobile application SoCs to meet the latest mobile gadgets’ aggressive schedule and improved performance/power requirements. 14LPE is the first foundry process technology manufactured in the foundry industry with the successful volume ramp-up. 14LPE offers 40% faster performance; 60% less power consumption; and, 50% smaller chip area scaling as compared to its 28LPP process.

14LPP (Performance boosted edition) is the 2nd FinFET generation which the performance is enhanced up to 10%... cut.... 14LPP will be the main process technology offering in 2016 and after.

siluro85
15-08-2016, 21:06
Alla luce di quello che si è visto e di quello che emerge dai PP mi viene da ipotizzare che il problema di AMD ad oggi sia da imputare al PP.
Insomma Polaris ha guadagnato 150-200Mhz rispetto ai 28nm!!! Troppo poco, se ipotizziamo un Polaris sulle freq nVidia (almeno 1800-1900Mhz) possiamo presupporre che la 480 andrebbe a dar fastidio alla 1070.... ed ecco che cambia tutto il panorama, anche perché i costi per AMD non cambierebbero per la bontà del PP, ma le prestazioni eccome.
Potrebbe essere che AMD visti i problemi sul PP abbia spostato Vega al 2017 proprio per risolvere questi problemi e non far uscire un Fail simil FuryX sperando che nel frattempo il PP migliori a tal punto da portarli a competere con il GP102:ciapet: !
A me sembra molto plausibile, ditemi voi se sbaglio!
Ni, nel senso che le frequenze dipendono ANCHE dal silicio ma a parità di tutto il resto, se prendi 2 cpu o gpu uguali allora si le differenze di frequenze dipendono dal silicio...

Ma tu mi paragoni le gpu di 2 case diverse... in questo caso la frequenza è determinata INNANZITUTTO dal tipo di architettura che compone le gpu.. quindi cambiando architettura cambia anche la possibilità di salire in frequenza... è questo è molto più limitante del singolo silicio.

HwWizzard
15-08-2016, 23:04
Ni, nel senso che le frequenze dipendono ANCHE dal silicio ma a parità di tutto il resto, se prendi 2 cpu o gpu uguali allora si le differenze di frequenze dipendono dal silicio...

Ma tu mi paragoni le gpu di 2 case diverse... in questo caso la frequenza è determinata INNANZITUTTO dal tipo di architettura che compone le gpu.. quindi cambiando architettura cambia anche la possibilità di salire in frequenza... è questo è molto più limitante del singolo silicio.

Si questo lo sapevo, ma se prendiamo le 2 architetture sia Pascal che Polaris sono sostanzialmente le stesse architetture dei 28nm.... vedi quanto è salito Pascal e quanto non è salito Polaris.

Ale55andr0
15-08-2016, 23:10
Insomma Polaris ha guadagnato 150-200Mhz rispetto ai 28nm!!! Troppo poco, se ipotizziamo un Polaris sulle freq nVidia (almeno 1800-1900Mhz)

NI. Il guadagno è stato basso, vero, ma è anche dovuto al fattoche GCN di per se non è una architettura che sale molto, non ha le pipeline "lunghe" come nvidia alias pentium 4 :D. Il chip più "denso" poi dovrebbe essere un ulteriore svantaggio per il raggiungimento di frequenze particolarmente elevate. Certo che, anche considerando tutti questi fattori, era lecito aspettarsi qualche centinaio di mhz in più nel passaggio 28>14, non dico mica 2ghz ma 1400/1500 "facili" si :stordita:

HwWizzard
15-08-2016, 23:33
NI. Il guadagno è stato basso, vero, ma è anche dovuto al fattoche GCN di per se non è una architettura che sale molto, non ha le pipeline "lunghe" come nvidia alias pentium 4 :D. Il chip più "denso" poi dovrebbe essere un ulteriore svantaggio per il raggiungimento di frequenze particolarmente elevate. Certo che, anche considerando tutti questi fattori, era lecito aspettarsi qualche centinaio di mhz in più nel passaggio 28>14, non dico mica 2ghz ma 1400/1500 "facili" si :stordita:

Beh ma già a 1400-1500Mhz di base la situazione sarebbe ben diversa ;) Mi ricorda tanto la situazione 58XX e Fermi dove era nVidia ad inseguire nel PP, ma da li in poi purtroppo Amd ha dormito permettendo ad nVidia di prenderci per il :ciapet: come meglio crede. E noi continuiamo a comprare:muro:

mikael84
15-08-2016, 23:34
ok, solo un'ultima domanda non intendendomene di elettronica in senso stretto: ti ho visto menzionare più volte nelle tue risposte "le resistenze di caduta", queste resistenze si occupano di tenere il voltaggio entro un certo limite in maniera fisica (hardware)? In che senso è abbastanza acerbo questo aspetto? nel senso che si può dare di più come frequenze operative eliminandole una volta affinato il pp o cosa?


[/I]


Sono 3 resistenze che generano caduta di tensione per fare crollare la scheda una volta superati certi valori.
KP suggerisce di cambiare le 3 resistenze con valori di 10OHM per sviare il crollo.

NI. Il guadagno è stato basso, vero, ma è anche dovuto al fattoche GCN di per se non è una architettura che sale molto, non ha le pipeline "lunghe" come nvidia alias pentium 4 :D. Il chip più "denso" poi dovrebbe essere un ulteriore svantaggio per il raggiungimento di frequenze particolarmente elevate. Certo che, anche considerando tutti questi fattori, era lecito aspettarsi qualche centinaio di mhz in più nel passaggio 28>14, non dico mica 2ghz ma 1400/1500 "facili" si :stordita:

Nvidia esegue un warp in 8 cicli di clock.

Crysis90
16-08-2016, 10:50
l impressione è che la concorrenza si sia arenata,

adesso lasciando perdere i prezzi parlando solo di prestazioni amd ha palesemente problemi.
Non si puo piu scegliere rosso o verde, anche se a me non piace la titan pascal, amd oggi è anni luce lontana dallo sfornare qualcosa di vagamente simile.

e quando presi la mia era anni luce lontana dall avere una partner in grado di fare vga da contrapporre alle top di evigia

altro motivo per scartarla asd asd

http://wccftech.com/amd-vega-flagship-gpu-launch-teaser/

Forse uno spiraglio di luce in fondo al tunnel c'è. ;)

aled1974
16-08-2016, 11:05
se ne parlava anche nel thread delle rosse

mi ripeto: se quella è una fabbrica per schede video..... che poi l'immagine postata su facebook era anche corredata da una "battutina", chiamiamola così nei confronti della stampa :doh: :muro:

magari si vede la luce, pero a me il tunnel sembra bello lungo da percorrere :cry:

ciao ciao

illidan2000
16-08-2016, 12:14
Speriamo bene. Se Vega esce a dicembre, la 1080ti, la vedremmo in tempi brevi e prezzi "bassi"

Inviato dal mio LG-D858HK utilizzando Tapatalk

siluro85
16-08-2016, 13:23
Qualcosa devono fare in amd... altrimenti buonanotte..

MrBrillio
16-08-2016, 13:39
Speriamo bene. Se Vega esce a dicembre, la 1080ti, la vedremmo in tempi brevi e prezzi "bassi"

Inviato dal mio LG-D858HK utilizzando Tapatalk
Ahahaha bassi? Sei sicuro? NVIDIA? Naaaa toccherà i 900/1000 la ti o poco meno.

Inviato dal mio ONEPLUS A3003 utilizzando Tapatalk

HwWizzard
16-08-2016, 13:59
Ahahaha bassi? Sei sicuro? NVIDIA? Naaaa toccherà i 900/1000 la ti o poco meno.

Inviato dal mio ONEPLUS A3003 utilizzando Tapatalk

Considerando dove sta la 1080 credo che, come giustamente dici, per la Ti 900 saranno il minimo. Resteranno da vedere quanto taglieranno GP102 e dove si posizionerà con l'OC... Se dovesse arrivare alla Titan X stock allora sarebbe un buon affare per come stanno, purtroppo, andando le cose sul fronte prezzi.
Anche VEGA non è che Amd ce lo regalerà 699$ credo sarà il minimo al quale la posizioneranno.

appleroof
16-08-2016, 14:28
Speriamo bene. Se Vega esce a dicembre, la 1080ti, la vedremmo in tempi brevi e prezzi "bassi"

Inviato dal mio LG-D858HK utilizzando Tapatalk

Se è vera che se la deve vedere con la 1080 http://wccftech.com/amd-vega-flagship-gpu-launch-teaser/

Probabile che manco la vediamo a sto giro una 1080ti.... Pero' influenzerebbe i prezzi delle gp104 :fagiano:

Ale55andr0
16-08-2016, 14:59
mi ripeto: se quella è una fabbrica per schede video.....


miniera di silicio? :D :mc:

Qualcosa devono fare in amd... altrimenti buonanotte..

l'hai detto!

...anche se...se lo fanno e la gente compra dalla concorrente uguale che lo fanno a fare, per beneficienza ai verdi? :D

mikael84
16-08-2016, 14:59
Se è vera che se la deve vedere con la 1080 http://wccftech.com/amd-vega-flagship-gpu-launch-teaser/

Probabile che manco la vediamo a sto giro una 1080ti.... Pero' influenzerebbe i prezzi delle gp104 :fagiano:

A livello teorico è una scheda in versione full che potrebbe essere una via di mezzo tra 1070-1080, costando non poco per via delle HBM. Quindi nVidia sta bella tranquilla.
Sulla 1080ti bisogna vedere il numero degli scarti, se hanno tanti scarti la fanno . Per ora le Titan sono gli scarti della prossima quadro.:)
A giudicare da quel che è successo con la 1070, in cui hanno laserato addirittura un GPC, penso che ci saranno gli scarti giusti per fare una 1080ti.

Ale55andr0
16-08-2016, 15:01
A giudicare da quel che è successo con la 1070, in cui hanno laserato addirittura un GPC


hai letto l'articolo qui su hwu? la 1070 mobile ha 2048cu e 128 tmu contro i 1920/120 della versione desktop! :stordita:

comunque non sarei così negativo con vega, se con polaris vanno come le 512bit/64rop con 256bit/32rops mi aspetto un bel balzo dalla fury x con tutti gli aggiornamenti architetturali introdotti con gcn 4. Quanto ai prezzi dubito siano così IDIOTI (ah no, spè, se penso alla fury x 4gb con l'aio... :asd: )da lanciarla allo stesos prezzo di una 1080 per andare meno, in fin dei conta ora le hbm2 dovrebbero entrare in produzione per lotti maggiori

muppo
16-08-2016, 15:04
hai letto l'articolo qui su hwu? la 1070 mobile cha 2048cu e 128 tmu contro i 1920/120 della versione desktop :stordita:

comuqnue no nsarei così negativo con vega, se vanno come le 512bit/64rop con 256bit/32rops mi aspetto un bel balzo dalla fury x senza tutti gli aggiornamenti architetturali introdotti con gcn 4

Se la facevano 2048 andava troppo vicina ad una 1080 rendendola quasi superflua, quindi l'han tenuta bassa in modo da spennarne il più possibile.

Ale55andr0
16-08-2016, 15:10
Se la facevano 2048 andava troppo vicina ad una 1080 rendendola quasi superflua, quindi l'han tenuta bassa in modo da spennarne il più possibile.

scusa e sto discorso non varrebbe allora anche nel mobile? 50mhz in meno sono tranquillamente compensati da più cu e tmu, quindi restano sempre sovrapponibili in pratica sulle prestazioni mobile vs desktop. E poi è da parecchio (togliendo un attimo la titan) che la super top va poco più del modello subito inferiore con un rapporto prezzo prestazioni nettamente peggiore, cosa risalente ai tmepi della 680/670, non credo sia quello il motivo

mikael84
16-08-2016, 15:16
hai letto l'articolo qui su hwu? la 1070 mobile ha 2048cu e 128 tmu contro i 1920/120 della versione desktop! :stordita:

comuqnue non sarei così negativo con vega, se con polaris vanno come le 512bit/64rop con 256bit/32rops mi aspetto un bel balzo dalla fury x con tutti gli aggiornamenti architetturali introdotti con gcn 4. Quanto ai prezzi dubito siano così IDIOTI (ah no, spè, se penso alla fury x 4gb con l'aio... :asd: )da lanciarla allo stesos prezzo di una 1080 per andare meno, in fin dei conta ora le hbm2 dovrebbero entrare in produzione per lotti maggiori

Sulla 1070m hanno mantenuto i 2048cc perchè operano a frequenze molto più basse. già alcune 1070 1920cc si fermano a 2ghz/2050mhz, se abilitavi anche l'altro SMM eri incasinato.
Vega sarà poco più di una fury, penso a cavallo tra 1070-1080. Basta vedere la 470.Inutile aspettarsi molto da questo chip. La banda non fa il chip, la fury ha una compressione più bassa di una 1070 malgrado la banda doppia.;)

muppo
16-08-2016, 15:29
scusa e sto discorso non varrebbe allora anche nel mobile? 50mhz in meno sono tranquillamente compensati da più cu e tmu, quindi restano sempre sovrapponibili in pratica sulle prestazioni mobile vs desktop. E poi è da parecchio (togliendo un attimo la titan) che la super top va poco più del modello subito inferiore con un rapporto prezzo prestazioni nettamente peggiore, cosa risalente ai tmepi della 680/670, non credo sia quello il motivo

probabilmente si sono accorti che il 15% che intercorreva tra 970 e 980 non spingeva bene le vendite di queste ultime, quindi questa volta imho hanno volutamente farle stare sopra del 25%, tutto li.

siluro85
16-08-2016, 15:52
An he secondo me vega (la versione da 4096 cu, sempre se esiste una da 6144) starà a cavallo tra 1070/1080 magari più vicina a quest'ultima per superarla dove sono più sfruttati gli AC. Ho intenzione di prendere una 470 ed una 380x per vedere realmente il guadagno da gcn 1.2 a polaris.. però secondo me saremo li..

muppo
16-08-2016, 15:53
cmq se non è già stato postato (http://www.overclock.net/t/1608559/motley-fool-nvidia-corporations-volta-rumored-to-be-a-monster)

mikael84
16-08-2016, 16:07
cmq se non è già stato postato (http://www.overclock.net/t/1608559/motley-fool-nvidia-corporations-volta-rumored-to-be-a-monster)

L'organizzazione SM è un bel problema ora come ora. Io è da l'inizio che prevedo un simil Tesla.
Con Tesla puoi raddoppiare le istruzioni per warp e di conseguenza elabori molte più istruzioni senza andare a pescare dalla cache.
Maxwell e Pascal gaming sono 512 istruzioni per CC, Kepler è 341 con le dipendenze, 256 senza dipendenze (come è ora).

Possono anche creare degli SM da 64cc e schedularne 4. In modo da avere un 2:1 a livello di cc/load store ed sfu e non più 4:1.
Come la GCN che ha 4 vettori da 16 ALU (64) senza dipendenze.:)

Nurabsa
16-08-2016, 19:55
cut

guarda che polaris ha un die di 230mmq (e 5.7G di transistors, 24.80M per mmq ), gp 106 di 200mmq (e 4.4G di transistors, 22M per mmq) , gp104 di 315mmq e gp102 di 470mmq... (uso i prefissi del sistema internazionale)
quindi come fai a dire una cosa simile?
nel senso che ha prodotto il pari fascia del gp106 come die-size, mica un die size di fascia superiore.
per recuperare questo svantaggio in termini di die-size in fascia alta le hbm2 e i relativi imc più piccoli vanno in aiuto, c'è da vedere con volta cosa succede se nvidia decidi di utilizzare le hbm2 per la fascia "consumer".


ti ringrazio per le belle sigle alla mikael :p

ma da buon contadino vado sul semplice pago tanto voglio tantissimo.
Mi sarebbe piaciuto quando presi la kpe poter dire che ero indeciso tra la rossa modello x e la verde modello y, ma così non è stato.
Se consideriamo il livello di cura estetica del vai partner unito alle performance non c'è partita le rosse sono scatolotti di plastica che vanno mediamente meno delle verdi.
Ero interessato alla furyx pensando ci fosse una super mega custom, invece mi ritrovai l obbligo di liquido low cost e una scheda da esporre sul banchetto brutta come la fame.

Del die size dei mmq mi frega solo dopo aver visto che tra le due top vince la rossa o la verde possibilmente con 10/15fps di scarto cosa che da anni amd si sogna.

appleroof
17-08-2016, 14:37
1070 mobile

http://hexus.net/tech/reviews/laptop/95650-nvidia-geforce-gtx-1070-mobile-asus-rog-g752vs/

traider
17-08-2016, 16:23
Quindi volta uscirà a 14nm o a 7nm ? .

Ale55andr0
17-08-2016, 16:26
14. I 7 sono lontani anni luce

Ren
17-08-2016, 16:35
14. I 7 sono lontani anni luce

2017-2018 per TSMC. (10/7nm)

Ovviamente i primi wafer sono only for Apple.

cmq Samsung per il 2017 ha in roadmap i 10nm LPE.

Ale55andr0
17-08-2016, 16:38
2017-2018 per TSMC.

Ovviamente i primi wafer sono only for Apple.

cmq Samsung per il 2017 ha in roadmap i 10nm LPE.

direi più 2018, e pure inoltrato...pensa a quanto si è rimasti a 28nm e tutt'ora i 16/14 non è che li stiano sfornando a trilioni..ogni nuovo nodo sta richiedendo una marea di tempo. Ovviamente poi parlo di pp adatti a gpu ad alte prestazioni, non roba per applicazioni low power/mobile et similia :)

Ren
17-08-2016, 16:41
direi più 2018, e pure inoltrato...pensa a quanto si è rimasti a 28nm e tutt'ora i 16/14 non è che li stiano sfornando a trilioni..ogni nuovo nodo sta richiedendo una marea di tempo. Ovviamente poi parlo di pp adatti a gpu ad alte prestazioni, non roba per applicazioni low power/mobile et similia :)

Esatto, è roba per SOC Low Power ;) ed Apple si prenderà tutto il cocuzzaro iniziale..:p

I 7nm TSMC sono un nodo HP/HPL.

Per il 2018 samsung sfornerà il 10nm LPP, adatto anche alle GPU.

Vedremo....

mikael84
17-08-2016, 16:55
Esatto, è roba per SOC Low Power ;) ed Apple si prenderà tutto il cocuzzaro iniziale..:p

I 7nm TSMC sono un nodo HP/HPL.

Per il 2018 samsung sfornerà il 10nm LPP, adatto anche alle GPU.

Vedremo....

Qua ci vanno pesanti a numeri.
http://www.3dcenter.org/news/nvidias-volta-generation-kommt-mit-den-grafikchips-gv104-gv102-und-gv110

Tutti numeri senza calcolare nulla, fossero numeri da schedina almeno.

Ren
17-08-2016, 16:59
Qua ci vanno pesanti a numeri.
http://www.3dcenter.org/news/nvidias-volta-generation-kommt-mit-den-grafikchips-gv104-gv102-und-gv110

Tutti numeri senza calcolare nulla, fossero numeri da schedina almeno.

Bei numeri da totocalcio...:D

Cosa dice l'articolo in crucco ?

mikael84
17-08-2016, 17:02
Cosa dice l'articolo in crucco ?

5000SE (presumo 5120cc) su un 540mm2/16tf.

5000SE (presumo 5120cc) su un 700mm2 /GV110

GV104 su un 370 e 3584cc/12tf.

GPC da 896cc, in pratica da 7 TPC

AceGranger
17-08-2016, 17:41
5000SE (presumo 5120cc) su un 540mm2/16tf.

5000SE (presumo 5120cc) su un 700mm2 /GV110

GV104 su un 370 e 3584cc/12tf.

GPC da 896cc, in pratica da 7 TPC

https://www.youtube.com/watch?v=6glJZMOji0g


700mm2 mi sa che avremo la Titan Volta a 1500 :p

traider
17-08-2016, 19:02
Qua ci vanno pesanti a numeri.
http://www.3dcenter.org/news/nvidias-volta-generation-kommt-mit-den-grafikchips-gv104-gv102-und-gv110

Tutti numeri senza calcolare nulla, fossero numeri da schedina almeno.

Vabbè questi ricopiati da gp e buttati a caso su gv .

mikael84
17-08-2016, 19:25
Teoricamente a livello di numeri si potrebbe realizzare anche un chip sopra i 5000 cuda.
8 GPC Pascal necessiterebbero di un core da circa 628mm2. Però 8 GPC significano un core da 5120cc /128 rop's e 4mb di cache l2/ 512bit.

Basta includere tutto nei 6 GPC e fare GPC da 896cc, limitare tutto a 16 rop's per GPC (96 finali), 3mb di cache non 4 e 384bit.
In questo modo si risparmia spazio in cache e rop's e tutto potrebbe stare in un 550mm2.

Diventerebbe.
GV102: 5376cc/ 96 rop's/384bit.......550mm2
GV104: 3584cc/64 rop's /256bit......385mm2
GV106: 1792cc/32/48 rop's /192bit.

Bisogna vedere le rese di simili chip.


https://www.youtube.com/watch?v=6glJZMOji0g


700mm2 mi sa che avremo la Titan Volta a 1500 :p

Video azzeccatissimo direi. :D

mikael84
17-08-2016, 20:10
si risparmi in mmq ma l'effetto contrario sarebbe che sbilanci il chip in stile amd passando da 40cc/rop's a 56cc/rop's.
per fare un parallelo amd, chi magari non lo sa a parte te :D, con fiji è passata da hawaii con 44sp/rop's a fiji 64 sp/rop's e sempre 4 raster.
giustamente come dici sono scelte: -80mmq per rese sicuramente superiori a discapito di un po' di performance.

anche qui, se gli basterà per superare o anche solo pareggiare la concorrenza lo faranno.

Ormai dimentica fiji che per come è pensato è un grande chip solo se realmente sfruttato su alte risoluzioni e possibilmente senza shader i idle.
A basse risoluzioni non rende per overhead e sbilanciamenti vari ma non è il caso di nvidia.
Nvidia caricando il GPC non rimane mai con punti deboli.

GV102 avrebbe 42 P.E., l'equivalente di 24 raster AMD:eek: .
La cache è buona, ma cerchi di raddoppiare le istruzioni per warp, così ogni cc ha il doppio delle istruzioni e non intasi la cache.
Quindi passi a processare 1,96 milioni di istruzioni a 5,5milioni (quasi il 200% di istruzioni libere).

Rimangono le rop's, ma sono in gran parte sufficienti.
96 rop's a 2ghz sono 192rop's a 1ghz.


Con il prossimo PP, puoi dedicarti a cache e rop's, clock e qualche cc in più.:)

Cmq sono ragionamenti così buttati, per trovare un filo logico

Crysis90
17-08-2016, 20:40
Qua ci vanno pesanti a numeri.
http://www.3dcenter.org/news/nvidias-volta-generation-kommt-mit-den-grafikchips-gv104-gv102-und-gv110

Tutti numeri senza calcolare nulla, fossero numeri da schedina almeno.

Volta sarà a 16/14 nm.
Su questo non ci piove.
Nella tabella dove hanno ipotizzato l'adozione del PP a 10 nm hanno sparato dei numeri che non stanno assolutamente né in cielo né in terra IMHO. :O

Nurabsa
17-08-2016, 21:59
il tuo discorso è corretto, ma quello che volevo farti capire è che attualmente amd non ha tirato fuori il chip concorrente del gp104 e del gp102, e quindi rispondevo alla frase messa in grassetto da te

"amd oggi è anni luce lontana dallo sfornare qualcosa di vagamente simile"

facendoti notare con numeri che ritengo semplici :D (come millimetri quadrati di superficie utilizzata dal die e densità di integrazione dei transistors per mm^2) che P10 è il rivale del gp106 dato che tra questi due chip c'è uno scarto del 15% tra le dimensioni dei due chip. (200 vs 230 mm^2)

come si è visto le fonderie non stanno dietro alla richiesta del mercato, amd ha rinunciato alla fascia alta e nvidia a quella bassa, le uniche schede che attualmente si fanno concorrenza sono la 1060 e la 480. :rolleyes:

chiariti ;)

son stato vago perche a entrare nel merito spesso finisce in ressa :asd:
con anni luce intendevo semplicemente non lo fa per cacchi sua gli costa troppo attualmente/pensa di farlo piu potente piu avanti.

Andando sul personale come avrai capito mi metterebbero in difficolta un domani con una bel full chip 5/600 mmq che va piu forte della concorrenza ma con la cura estetica di sapphire e company :doh: :Puke:

appleroof
18-08-2016, 14:37
Teoricamente a livello di numeri si potrebbe realizzare anche un chip sopra i 5000 cuda.
8 GPC Pascal necessiterebbero di un core da circa 628mm2. Però 8 GPC significano un core da 5120cc /128 rop's e 4mb di cache l2/ 512bit.

Basta includere tutto nei 6 GPC e fare GPC da 896cc, limitare tutto a 16 rop's per GPC (96 finali), 3mb di cache non 4 e 384bit.
In questo modo si risparmia spazio in cache e rop's e tutto potrebbe stare in un 550mm2.

Diventerebbe.
GV102: 5376cc/ 96 rop's/384bit.......550mm2
GV104: 3584cc/64 rop's /256bit......385mm2
GV106: 1792cc/32/48 rop's /192bit.

Bisogna vedere le rese di simili chip.




Video azzeccatissimo direi. :D

La gv102 sarebbe mostruosa ma la gv104 perfetta per me, se riesco a resistere a pascal (e per ora lo faccio benissimo :D) sarebbe davvero ideale perché a spanne mi andrebbe molto più della 980ti consumando molto meno... Vedremo, manca davvero tanto ancora

deadbeef
18-08-2016, 14:54
prima erano i driver, ora la cura estetica...come se le sapphire avessero qualcosa da invidiare agli altri marchi da quel punto di vista. Non si farebbe prima a dire "AMD non la compro, punto e basta" ?

mikael84
18-08-2016, 14:59
La gv102 sarebbe mostruosa ma la gv104 perfetta per me, se riesco a resistere a pascal (e per ora lo faccio benissimo :D) sarebbe davvero ideale perché a spanne mi andrebbe molto più della 980ti consumando molto meno... Vedremo, manca davvero tanto ancora

Ed aggiungo, non solo per te, anche per il sottoscritto.:p
Con il tuo super monitor sarebbe davvero eccelsa. Una cosa sicura al 99,99999% è che GV104 avrà 16gb di ram, sfruttando MC da 2gb.
2gb " 8 =16gb. Tradotto:
32bit " 8 canali = 256bit.

Anche con ipotesi HBM stessa cosa, sempre 16gb.
Una Titan x (pascal) affinata con 16gb, un sogno, magari sulle 700 euro.:read:

AceGranger
18-08-2016, 15:31
Ed aggiungo, non solo per te, anche per il sottoscritto.:p
Con il tuo super monitor sarebbe davvero eccelsa. Una cosa sicura al 99,99999% è che GV104 avrà 16gb di ram, sfruttando MC da 2gb.
2gb " 8 =16gb. Tradotto:
32bit " 8 canali = 256bit.

Anche con ipotesi HBM stessa cosa, sempre 16gb.
Una Titan x (pascal) affinata con 16gb, un sogno, magari sulle 700 euro.:read:

ecco, quella parte pero non la capisco: perchè è sicuro al 99,9999% l'adozione di chip a 2 Gb e non da 1 Gb ?

se avranno veramente 16 Gb di ram, mi sa che potrei acquistarne 2 o 3 :sbav:

mikael84
18-08-2016, 15:48
ecco, quella parte pero non la capisco: perchè è sicuro al 99,9999% l'adozione di chip a 2 Gb e non da 1 Gb ?

se avranno veramente 16 Gb di ram, mi sa che potrei acquistarne 2 o 3 :sbav:

Per ora siamo quasi limitati ad 1gb per MC, ma già con la quadro Pascal verranno introdotti gli MC da 2gb.
384bit sono 12 controller da 32bit. 12" 2gb= 24gb. Ovvero la prossima quadro 6000:)
I prossimi chip volta utilizzeranno questi MC, solo che per via del bus a 256bit devi calare.
256 bit sono formati da 8 canali da 32bit. Quindi 2gb " 8=16gb.
16gb con bandwidth di almeno 12gb/s micron, ovvero 384gb/s.

La quadro P5000 sarà basata sullo stesso controller del futuro GV104. Ovvero un bus da 256bit e 16gb, solo che hanno calibrato le ram a soli 9 gb/s.
Con Volta avremmo sicuramente campioni ben più spinti.
Quindi GV104 sarà sicuramente:
16gb su un 256bit e 384gb/s di banda in base ai nuovi campioni micron.:)

fraussantin
18-08-2016, 15:49
Ed aggiungo, non solo per te, anche per il sottoscritto.:p
Con il tuo super monitor sarebbe davvero eccelsa. Una cosa sicura al 99,99999% è che GV104 avrà 16gb di ram, sfruttando MC da 2gb.
2gb " 8 =16gb. Tradotto:
32bit " 8 canali = 256bit.

Anche con ipotesi HBM stessa cosa, sempre 16gb.
Una Titan x (pascal) affinata con 16gb, un sogno, magari sulle 700 euro.:read:
Gv104 immagino sarà 2070\80 z ma aggiungo 16 gb non sono tantini per quella fascia?

Insomma costicchiano .. E non vedo con cosa su possano saturare ..

appleroof
18-08-2016, 15:52
Ed aggiungo, non solo per te, anche per il sottoscritto.:p
Con il tuo super monitor sarebbe davvero eccelsa. Una cosa sicura al 99,99999% è che GV104 avrà 16gb di ram, sfruttando MC da 2gb.
2gb " 8 =16gb. Tradotto:
32bit " 8 canali = 256bit.

Anche con ipotesi HBM stessa cosa, sempre 16gb.
Una Titan x (pascal) affinata con 16gb, un sogno, magari sulle 700 euro .:read:

Si spera sempre nella concorrenza :D

Cmq Mike ci vuole almeno un anno pieno se non di più che dici :(

OvErClOck82
18-08-2016, 16:01
Ed aggiungo, non solo per te, anche per il sottoscritto.:p
Con il tuo super monitor sarebbe davvero eccelsa. Una cosa sicura al 99,99999% è che GV104 avrà 16gb di ram, sfruttando MC da 2gb.
2gb " 8 =16gb. Tradotto:
32bit " 8 canali = 256bit.

Anche con ipotesi HBM stessa cosa, sempre 16gb.
Una Titan x (pascal) affinata con 16gb, un sogno, magari sulle 700 euro.:read:

credo sia più facile che la terra inverta la sua rotazione intorno al sole piuttosto che vedere una titan x/y/z a 700 euro :asd:

mikael84
18-08-2016, 16:07
Gv104 immagino sarà 2070\80 z ma aggiungo 16 gb non sono tantini per quella fascia?

Insomma costicchiano .. E non vedo con cosa su possano saturare ..

Si GV104 sarà la 2070 e la 2080 (o per alcuni che mi chiedono la 1170-1180).
La ram finale sarà data dal bus. Su un 256bit dovresti riutilizzare MC da 1gb, come la 1070/1080. Dovranno anche venderle e renderle appetibili, le nuove Volta.
Volta utilizzerà i nuovi MC della quadro, quindi 16gb.
Per il prezzo non preoccuparti che rientrano nelle spese.
La 1080ti è probabile che la rilascino e monterà MC da 1gb però su un bus da 384bit, quindi 12gb.
La nuova serie partirà da li, ma ho paura per i prezzi.

Chiaramente GV102 avrà 24gb di ram, la ram che doveva avere la Titan Pascal.:)

Si spera sempre nella concorrenza :D

Cmq Mike ci vuole almeno un anno pieno se non di più che dici :(

Io Apple sto trovando un filo logico ai primi rumors:D però non ho ancora nessun parametro per riuscire a capire di preciso come sarà Volta.
Il fattore ram su un 256bit è una delle poche cose che direi sicure.:)

Sono daccordo, mi sembrerebbe un esercizio di celolunghismo inutile, 8 sono davvero tanti, soprattutto in una fascia in cui le schede diventano fermacarte ogni 10 mesi. Ma magari è una scusa per aumentare il prezzo in modo osceno, perché non credo abbiano voglia di regalare i GB ad AceGranger per usi non gamici :D

Ad Ace purtroppo non regalano nulla, se le faranno pagare. :)


credo sia più facile che la terra inverta la sua rotazione intorno al sole piuttosto che vedere una titan x/y/z a 700 euro :asd:

Parlo della 2080 Volta, che potrebbe essere una Titan attuale affinata su MC da 16gb totali (4gpc).

OvErClOck82
18-08-2016, 16:16
Si GV104 sarà la 2070 e la 2080 (o per alcuni che mi chiedono la 1170-1180).
La ram finale sarà data dal bus. Su un 256bit dovresti riutilizzare MC da 1gb, come la 1070/1080. Dovranno anche venderle e renderle appetibili, le nuove Volta.
Volta utilizzerà i nuovi MC della quadro, quindi 16gb.
Per il prezzo non preoccuparti che rientrano nelle spese.
La 1080ti è probabile che la rilascino e monterà MC da 1gb però su un bus da 384bit, quindi 12gb.
La nuova serie partirà da li, ma ho paura per i prezzi.

Chiaramente GV102 avrà 24gb di ram, la ram che doveva avere la Titan Pascal.:)



Io Apple sto trovando un filo logico ai primi rumors:D però non ho ancora nessun parametro per riuscire a capire di preciso come sarà Volta.
Il fattore ram su un 256bit è una delle poche cose che direi sicure.:)



Ad Ace purtroppo non regalano nulla, se le faranno pagare. :)




Parlo della 2080 Volta, che potrebbe essere una Titan attuale affinata su MC da 16gb totali (4gpc).
allora già più probabile, sperando che amd non combini casini in fascia alta, altrimenti pure per le eventuali 2080 secondo me saranno ad un bel centone in più