View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™
:asd:
"Ciovega" è già stato detto? :stordita:
Ok adesso mi ritiro fino al fallimento di AMD.
devil_mcry
03-05-2017, 08:25
battute a parte, i dati finanziari anche se buoni non hanno convinto i più scettici che ci avevano scommesso (fino qui vincendo alla grande) e gli speculatori hanno fatto il resto vendendo per fare cassa, penso scenderà ancora per tutta la settimana di qualche punto per poi stabilizzarsi e riprendere un pochino fino all'uscita di Vega, da li poi non ci saranno più novità rilevanti a meno di contratti che non sappiamo come quando in un giorno l'anno scorso ha fatto +45% per la join venture cinese :asd:
Ieri ho parlato di 8€ circa ricordi? Se si stabilizza li voglio la laurea ad honorem in economia XD
Come fai ad avere stuttering sotto i 100 hz?
Avendo una 980ti non ho il freesync. E se mi saltano i frame da 100 a 75/80 rapidamente si nota dello stuttering abbastanza fastidioso.
Inviato dal mio HTC 10 utilizzando Tapatalk
Lunar Wolf
03-05-2017, 08:45
Porca miseria il tonfo di AMD lol
Alessandro ha conoscenze potenti lol
Comunque quanto successo in borsa credo sia solo il frutto del rapporto di AMD imho anche se comunque Alessandro non ha aiutato.
Tonfo?
Parliamo di pochi dollari e magari una roba voluta per far comprare azioni e far risalire di più la quota.
Ieri ho parlato di 8€ circa ricordi? Se si stabilizza li voglio la laurea ad honorem in economia XD
il titolo e' crollato perche' era una bolla, sull'onda dell'entusiasmo tutti a comprare, ma gia' 20 giorni fa' gli analisti lo davano a 11$, siamo semplicemente scesi con i piedi per terra, poi ci aggiungi il giochino del news sell...
I risultati finanziari di ieri sono positivi perche' vanno rapportati ai precedenti e le perdite riguardano sempre i soldi dati a gf per il minor numero di processori realizzati rispetto ai contratti, e comunque stanno rientrando.
Gyammy85
03-05-2017, 08:57
Secondo me l'unico leak probabile è quello di Sandra, non è molto conosciuto e difficilmente ci si mette a fare fake, il 3dmark invece si presta bene
ci saranno pochissime schede in giro, e amd tiene il più stretto riserbo
devil_mcry
03-05-2017, 08:59
Tonfo?
Parliamo di pochi dollari e magari una roba voluta per far comprare azioni e far risalire di più la quota.
Pochi dollari perché valevano pochi dollari le azioni. Ha perso il 25% della capitalizzazione in un giorno ... fai pochi dollari per il volume di vendita e vedi quanti milioni di valore ha perso.
devil_mcry
03-05-2017, 09:03
hai ragione, come ho fatto a dimenticarli :doh:
si mi ricordo anche quando ne avevi parlato mesi fa avevo salvato il tuo post :D
http://www.hwupgrade.it/forum/showpost.php?p=43740223&postcount=25592
era un anno fa altro che mesi :sofico:
Si li era quando ero in fissa con il trading, soffrendo di DOC ogni tot mi parte una nuova fissa per qualcosa e mi ci fiondo sopra :D
Li avevo fatto poco di utile. Comunque è una cosa affascinante chi ha il manico ci credo che fa i soldi :D Sia con le azioni sia con i derivati.
Io sono troppo debole psicologicamente :D
Free Gordon
03-05-2017, 09:04
se vanno avanti così, nell'arco di 3-4 anni, AMD tornerà sui 20€ ad azione...
Gyammy85
03-05-2017, 09:10
se vanno avanti così, nell'arco di 3-4 anni, AMD tornerà sui 20€ ad azione...
Se vabbè, qui fra 3-4 minuti falliscono, nvidia sta già placcando oro le 1070 :( :(
Soulbringer
03-05-2017, 09:59
Se vabbè, qui fra 3-4 minuti falliscono, nvidia sta già placcando oro le 1070 :( :(
Beh una 1070 gold plated edition sotto le 650€, sarebbe un best buy... :asd:
curiosità:
prezzo di produzione 290x vs fury x, dovrebbe essere di 2 anni fa
http://electroiq.com/insights-from-leading-edge/wp-content/uploads/sites/4/2016/03/Sys-plus-1.jpg
I prezzi ovviamente includono solo produzione, ma non stipendi personale, ricerca, spedizioni, tasse, marketing e tutto il resto.
Ci fa ben capire quanto i margini che ha amd sulle gpu siano risicatissimi.
fraussantin
03-05-2017, 10:41
curiosità:
prezzo di produzione 290x vs fury x, dovrebbe essere di 2 anni fa
http://electroiq.com/insights-from-leading-edge/wp-content/uploads/sites/4/2016/03/Sys-plus-1.jpg
I prezzi ovviamente includono solo produzione, ma non stipendi personale, ricerca, spedizioni, tasse, marketing e tutto il resto.
Ci fa ben capire quanto i margini che ha amd sulle gpu siano risicatissimi.
Il costo della fury al d1?
:eek: e davano di ladri a samsung per l's8.
Ton90maz
03-05-2017, 10:42
Sicuramente saro' OT pero boh come diceva qualcuno qualche post addietro 290 Forever Powaaa!!
http://gpuboss.com/gpus/Sapphire-Radeon-R9-290-vs-Radeon-RX-580
la prima e' una versione base della Sapphire ovviamente la RX580 e' la refence..pero' il risultato e' quello..stravince la 290 anche se la 580 e' da 8GB..
Texture rate 164.8 GTexel/s (RX 580) 182.3 GTexel/s
Floating-point performance 5,274 GFLOPS (RX580) 5,834 GFLOPS
Fine OT e daje ancora 290 >>>>>
C'è qualquadra che non cosa
Gyammy85
03-05-2017, 10:57
C'è qualquadra che non cosa
Quel sito mette a confronto dati teorici (male), a livello di forza bruta la 290 ha 2560 sp contro 2304, 156 tmu (mi pare) contro 144, 64 rops contro 32...in tutte le review la 580 va praticamente quanto una 390x ormai, che ha 2880 sp
Gyammy85
03-05-2017, 10:59
Il costo della fury al d1?
:eek: e davano di ladri a samsung per l's8.
Vega dovrà costare 190 euro. E amd dovrà conseguire utili il triplo di nvidia. Così nvidia scende tutte le schede di 50 euro, il mondo ringrazierà per la concorrenza e per la diffusione del verde. Amd fallirà ieri. Finally.
Gyammy85
03-05-2017, 11:07
il bello è che uno (Vul) scrive di margini risicatissimi e l'altro (fraussantin) gli da del ladro (quando si è comprato una 970 dai verdi, va beh ma tanto lui trolla) :asd:
...mettetevi d'accordo...
ok, le hbm non sono un problema sul prezzo finale come sospettavamo in alcuni, ma non ditelo agli esperti :D
hbm1 48$ 4GB vs gddr5 32$ (presumo sempre 4GB se parla della 290x) → +16$
interposer/pcb 30$ vs pcb 15$ → +15$
package 30$ vs 20$ → +10$
sulla gpu avrei dei dubbi del pari costo siccome è 450mmq vs 595mmq, ma dopo 2 anni magari i 28nm costavano meno a pari mmq...
totale +41$ :asd:
le hbm2 a livello di costi/GB potrebbero tranquillamente pareggiare le gddr5x :read:
Alla fine le hbm2 costeranno un decimo delle gddr5x (almeno fino a quando non le userà nvidia premium graphics, allora la raffinata ingegnerizzazione combinata alla politica di marketing per un mondo più bello di sempre farà si che il costo salga alle stelle oltre ogni ragionevole dubbio, tutto ovviamente certificato e approvato dagli influencer) fino ad allora amdfurtofail
Soulbringer
03-05-2017, 11:29
le azioni amd sono cominciate a scendere quando ho preso la 1080... poi ieri alessandro ha comprato la 1080ti ed oggi la mia ormai ex-fury è partita per il nuovo proprietario... è stato il colpo di grazia :O
No ma sul serio Ale si è preso la 1080ti??? :D :D
Roland74Fun
03-05-2017, 11:31
No ma sul serio Ale si è preso la 1080ti??? :D :D
È il sogno di tutti noi, avendoci i soldi.
Soulbringer
03-05-2017, 11:33
Così dice lui.
Io che le ram le ho prese a <14€ l'ho dimostrato postando rigorosamente lo screenshot da Amazon, perché l'onere della prova era mio :asd:
È il sogno di tutti noi, avendoci i soldi.
Noooo, alla fine ha ceduto! E io che avevo puntato tutto su Navi... :asd:
Vabbé, almeno sarà finalmente contento, si spera.
E tu Veradun come cavolo hai fatto a prendere le ram a 14€? Ma quelle in firma?? :eek:
devil_mcry
03-05-2017, 11:43
il bello è che uno (Vul) scrive di margini risicatissimi e l'altro (fraussantin) gli da del ladro (quando si è comprato una 970 dai verdi, va beh ma tanto lui trolla) :asd:
...mettetevi d'accordo...
ok, le hbm non sono un problema sul prezzo finale come sospettavamo in alcuni, ma non ditelo agli esperti :D
hbm1 48$ 4GB vs gddr5 32$ (presumo sempre 4GB se parla della 290x) → +16$
interposer/pcb 30$ vs pcb 15$ → +15$
package 30$ vs 20$ → +10$
sulla gpu avrei dei dubbi del pari costo siccome è 450mmq vs 595mmq, ma dopo 2 anni magari i 28nm costavano meno a pari mmq...
come dice Veradun totale +41$, ma con msrp +100$ (290x 550$ vs FuryX 650$), anche se poi la 390x con 8GB invece che 4GB aveva msrp di 430$ (-220$ msrp) :asd:
le hbm2 a livello di costi/GB potrebbero tranquillamente pareggiare le gddr5x :read:
E' da considerare però che è passato del tempo in mezzo.
Sarebbe da capire quanto costavo gli 8GB delle GDDR5 al tempo delle 390X e il PCB, inoltre quanto costerà il nuovo interposer.
Comunque 41€ sono pochi visti in termini assoluti ma pensiamoli legati al prezzo della 290x. Voleva dire il 30% in più, non è poi proprio poco poco...
Se 150$ diventavano 499€ (per dire), a 190$ la 290x con HBM sarebbe costata 649€ alla fine, perché tanto il rincaro è quello...
Gyammy85
03-05-2017, 11:50
È il sogno di tutti noi, avendoci i soldi.
A quel punto uno sogna in grande, la titan xp handcrafted by huang con la foto naked stampata sul dissipatore :oink: :oink:
fraussantin
03-05-2017, 12:01
Cmq le. Hbm1 hanno un 25% in piú di costo.
Con 8 giga hbm2 potrebbero essere di piú.
È il sogno di tutti noi, avendoci i soldi.
Mah, non il mio. Preferisco gpu amd per partito preso da qualche anno a questa parte.
L'unico mio sogno non realizzato è stata la fury, proprio non ce l'ho fatta a comprarla..
Cmq le. Hbm1 hanno un 25% in piú di costo.
Con 8 giga hbm2 potrebbero essere di piú.
Teoricamente hbm2 dovrebbero costare meno, le hbm1 avevano rese non molto elevate.
mircocatta
03-05-2017, 12:17
e le gddr5x quanto costano?
Driver Vega http://www.phoronix.com/scan.php?page=news_item&px=Linux-4.12-DRM-Pull
Certificazione Koreana di una nuova gpu (Vega) http://rra.go.kr/ko/license/A_b_popup.do?app_no=201717100000098382
Mi sa proprio che in questi giorni mi divertirò :asd:
Driver Vega http://www.phoronix.com/scan.php?page=news_item&px=Linux-4.12-DRM-Pull
Certificazione Koreana di una nuova gpu (Vega) http://rra.go.kr/ko/license/A_b_popup.do?app_no=201717100000098382
Mi sa proprio che in questi giorni mi divertirò :asd:
Eh, manca meno di un mese all'ipotetica presentazione, PER FORZA devono uscire leak
Aspetto il momento adatto (ossia l'arrivo della 1080ti di Alessandro, lo faccio gioire un po' e aspetto che passa il periodo per il recesso :asd:)
Alla fine se pure Alessandro è passato alle verdi (!!!), chi è rimasto ad aspettare Vega (intendo quella top di gamma, sperando che abbia prestazioni simili alla 1080Ti).
Lui:
http://i.imgur.com/24NpHV4.gif
Vabè, se ale passa a nvidia, io passo a vega :fagiano:
fraussantin
03-05-2017, 12:51
e le gddr5x quanto costano?
se nvidia le ha preferite alle hbm2 ( native sul chip pascal ) di meno sicuro.
se nvidia le ha preferite alle hbm2 ( native sul chip pascal ) di meno sicuro.
È passato anche un anno da allora però
fraussantin
03-05-2017, 13:06
Sono native su GP100, non su GP104 e GP102.
si ma è nato prima l'uovo o la gallina.
mircocatta
03-05-2017, 13:10
si ma è nato prima l'uovo o la gallina.
l'uovo visto che lo facevano anche i dinosauri
fine OT
se nvidia le ha preferite alle hbm2 ( native sul chip pascal ) di meno sicuro.
Pascal usa HBM su applicazioni enterprise però, non sono le stesse gpu. E' gp100.
fraussantin
03-05-2017, 13:19
Pascal usa HBM su applicazioni enterprise però, non sono le stesse gpu.
quello è vero ,a pensarci potrebbe essere anche dato dal fatto che sviluppare driver sia x ddr che per hbm2 è più costoso.
o semplicemente dal fatto che l'anno scorso non c'erano volumi di produzione hmb2 tali da sopperire alle vendite.
però almeno sulle quadro poteva metterle.
devil_mcry
03-05-2017, 13:28
non ho capito dove hai tirato fuori cifre e % in quanto:
290x 4gb 150$ produzione e 550$ msrp
390x 8gb 150$ (costo più memoria compensato dalla resa più alta a wafer) 430$ msrp
furyx 4gb 190$ produzione e 650$ msrp
in termini % non grandi differenze rispetto a 290x in quanto +27% di produzione con +18% prezzo vendita, ma rispetto la 390× è enorme il vantaggio di furyx con +27% di produzione c'è una differenza di vendita a favore del +51%
da questo punto di vista è positivo il problema è che ne hanno vendute poche mi sa rispetto alle 390×... non saprei
Ho scritto al volo, i numeri sul costo li ho messi a spanne non ricordavo i prezzi di lancio
Comunque il 30% era considerando +41$ sui 147$ di costo di produzione della 290x (il confronto in realtà non era manco poi possibile). Dando poi per assunto che la 290x al lancio veniva 499€ ho stimato a 649€ (abbondando un po') l'ipotetico costo della stessa scheda con le HBM
Guardando i tuoi MSRP non ho sbagliato di tanto, hanno sicuramente ridotto la percentuale di guadagno sulla FuryX ma è indubbio che nel confronto con la 290x quelle memorie a noi sono costate almeno 100€ in più.
Il punto è che della 390x la tabella non parla e io dubito che gli costasse sempre 150$...
quello è vero ,a pensarci potrebbe essere anche dato dal fatto che sviluppare driver sia x ddr che per hbm2 è più costoso.
o semplicemente dal fatto che l'anno scorso non c'erano volumi di produzione hmb2 tali da sopperire alle vendite.
però almeno sulle quadro poteva metterle.
Ci sono sulle quadro le hbm2.
devil_mcry
03-05-2017, 13:44
Ho una domanda, ma che centra pascal con le hbm2 sopratutto in fascia extreme enterprise?
devil_mcry
03-05-2017, 13:47
si ma c'è da marzo la Quadro GP100 con 16GB hbm2, prima c'era solo la Quadro 6000 con 24GB gddr5x però ha la DP 1/2 la GP100 invece che 1/32 la 6000 che altro non è che gp102 full
https://www.tomshw.it/nvidia-quadro-gp100-le-nuove-schede-professionali-pascal-83158
cioè?
Che centrano quelle schede con Vega lol
devil_mcry
03-05-2017, 14:08
Ah sisi ma infatti io mi chiedevo il senso di paragonare una scheda da gaming con una scheda da super computer (perché poi è li che le impiegano, nemmeno nelle workstation) che costa un ordine di grandezza in più.
Che poi onestamente non solo concordo con te che le HBM in ambito ludico sono inutili su Pascal visto che non usa nemmeno tutta la banda delle GDDR5X, ma che pure su GCN 1.2 non so quanto erano sfruttate realmente. Qualcuno ha mai misurato il transfer rate medio su una Fury in gaming? Arrivava davvero a saturare tutta quella banda?
E' marketing
fraussantin
03-05-2017, 14:10
Che centrano quelle schede con Vega lol
era per capire se le hmb 2 costano meno di gddr5x o no.
Free Gordon
03-05-2017, 14:17
C'era anche questa:
http://www.bitsandchips.it/50-enterprise-business/8135-al-quartier-generale-di-globalfoundries-si-gioca-all-allegro-broker
:doh: :doh: :doh:
curiosità:
prezzo di produzione 290x vs fury x, dovrebbe essere di 2 anni fa
I prezzi ovviamente includono solo produzione, ma non stipendi personale, ricerca, spedizioni, tasse, marketing e tutto il resto.
Ci fa ben capire quanto i margini che ha amd sulle gpu siano risicatissimi.
Mah...risicatissimi mi pare eccessivo.
Una VegaX...con costi paragonabili alla FuryX, potrebbe essere anche venduta a 599€..
Se andasse come una 1080Ti, sarebbe una buona scheda. :)
Free Gordon
03-05-2017, 14:21
Quindi sono questi gli esorbitanti costi delle HBM? :asd:
100$ in più di MSRP contro 41$ in più di costi. Se è vero abbiamo la conferma che possono prezzarla come vogliono.
Infatti.
Forse potrebbero anche piazzarla a 549.
devil_mcry
03-05-2017, 14:28
Non le ha usate su GP102 perché GP102 non ha un controller HBM. Ha progettato GP102 per usare GDDR5x, e infatti ci usano quelle. E ha progettato GP104 per usare GDDR5(x), e infatti usano quelle. E ha progettato GP106 per usare GDDR5, e infatti usano quelle. Sì potevano progettarlo in un altro modo, ma poteva anche piovere o uscire una Fury da 400W con 8000SP e GDDR5x su 512bit sui 16nm TSMC :>
Lo scopo di una tecnologia di RAM è dare banda e capacità, non c'entra niente il gaming o altro. Le diverse tecnologie le usi per assicurarti quei due parametri nella misura che ti serve. In particolare le economie di scala e soprattutto la prossima generazione che avrà oltre a HBM3 anche HBM-LC consentirà di scalare anche in fasce di mercato a basso margine in cui consentire invece di alzarlo grazie a costi minori (per esempio singlo die di HBM-LC per schede entry level, con un pcb davvero minimale). Gli sviluppi ci sono, ma ci sono anche tanti preconcetti "che 4GB non bastano", quindi alla fine la Fury per questo e altri motivi ha fallito il suo compito sul mercato, non certo perché la tecnologia HBM in sé avesse o abbia qualche problema intrinseco :)
Storicamente c'è sempre stata una rincorsa tra le prestazioni che riesce offrire una unità di calcolo e la banda che riesce a garantire la memoria centrale. Sia se si parla di CPU sia di GPU. Una rincorsa che una volta vedeva una parte inseguire una volta l'altra.
Non è che se te hai una banda incredibile l'unità di calcolo è in grado di sfruttarla, per il semplice fatto che non è detto che sia in grado di consumare abbastanza dati per saturarla costantemente.
Questo è quello che succede normalmente sulle schede moderne nVidia e sono anche sicuro che è quanto succedeva sulle Fury.
Il gaming centra perché la GPU è usata in modo differente rispetto a quando fa GPGPU e cambia la quantità di dati che riesce a processare al secondo, a cui attinge dalla piramide delle memorie (dalle cache alle RAM).
devil_mcry
03-05-2017, 14:36
le hbm su fiji sono necessarie per tutto tranne che per la banda, consumi inferiori (la Nano anche se in downclock impostato sul TDP 175watt ha la stessa efficienza della 980ti https://www.techpowerup.com/reviews/AMD/R9_Nano/31.html ma ancche la X non è male, guarda invece dove sono le 290/x vs 970/980) dimensioni Die ridotte dal bus hbm vs gddr5 a parità di banda o superiore.
amd è stata costretta ad usare 4 bus hbm perché le hbm1 si fermano ad 1GB per stack, infatti con Vega si parla di soli 2 bus hbm2 sempre a 512gb/s ma con 8GB dimezzando quindi lo spazio ulteriormente on die
tonga nativo era 384bit guarda il die shot, mai usati in versione full (256bit la 380x) :doh: spreco di transistors... :rolleyes:
hawaii 512bit, 8 controller vs 4 hbm quasi la metà dello spazio aumentando pure la banda dela +33% (che però è secondario alla fine Fiji usa la stessa banda di Hawaii perché ha la DCC come Tonga)
DCC = delta color compression
Certamente il discorso consumi era importante ma onestamente fino a che punto? Cioè mi spiego, abbiamo una metrica che ci permette di valutare quanti W sono stati effettivamente risparmiati? Perché le 290x consumavano tanto di più rispetto alla 970, è vero, ma c'è anche da considerare che il DIE da cui parte la 980Ti ha 3k CC contro i 2K della 980, mentre la differenza tra Fury Full e Hawai Full è minore, 4K vs 3k. Sono il 50% in più in un caso contro il 33% in più nell'altro... Cose che si rispecchiano poi nei vari TDP...
Insomma, secondo me alla fin fine potevano benissimo giocarsela anche con delle GDDR5 all'epoca, tanto comunque le rese era basse anche con il silicio risparmiato dalle HBM...
Per Tonga, IMHO, hanno fatto male, dall'inizio. Sia il discorso di esclusività della 295X sia la scelta sul bus. Quella scheda era NETTAMENTE più evoluta delle altre, in tassellazione metteva sotto anche la 290x, ma hanno volutamente castrato le performance bah
http://wccftech.com/amd-radeon-vega-specs-leaked-linux-patch/
devil_mcry
03-05-2017, 14:45
12.5 TFLOLPS
25 (FP16) TFLOPS
Questa cosa mi era sfuggita, molto interessante. Onestamente non credo ad un ritorno dell'FP16 sul desktop ma è la precisione usata in tutti i giochi mobile/switch.
nVidia stessa ha colto l'opportunità modificando già Maxwell del X1 per fargli generare 1TFLOPs effettivo in ambito ludico mobile.
Questa scelta secondo può nascondere un interesse al ritorno sul settore mobile (non con quella ovviamente :sofico:) con qualche SoC low power ma dalla buona potenza.
devil_mcry
03-05-2017, 14:54
Secondo me è più una scelta da deep learning e perché no, ottimizzazioni proprietarie in ambito console che possano selettivamente sfruttare quello spazio per spremere al massimo l'hardware a disposizione
Al momento ci sono degli studi sull'analisi degli algoritmi in deep learning a 16bit di precisione, ma solo con certi tipi di arrotondamenti (mi pare tramite processo stocastico) è possibile farlo. Però non mi pare sia quella la precisione standard oggi in uso perché comunque genera un errore seppur marginale e immagino che dipenda dal campo di utilizzo.
Le console inoltre sono tutte GCN 4 (Polaris), anche Scorpio, quindi non hanno quella capacità.
Magari in futuro le nuove console potrebbero derivare da questa architettura, ma non la useranno di sicuro per non rompere la retrocompatibiltà se vogliono mantenere la generazione perpetua...
Gli esperti :O
ma che ci voleva, facevano un thuban doppio shrinkato e sarebbe andato meglio di bulldozer
ma che ci voleva, prendevi la 290x shrinkata con gddr5x e prendevi la titan
ma che ci voleva, invece del 343 faceva il 352 e portava a casa la championzzzzzzzzz
etc etc
p.s: poi nvidia per tirare fuori una architettura semi uguale alla precedente ha speso 2 mld di $ in r&d che sono sei mesi di intero fatturato amd quando poteva prendere qualcuno di questi gegni per molto meno :asd:
Gli esperti :O
ma che ci voleva, facevano un thuban doppio shrinkato e sarebbe andato meglio di bulldozer
ma che ci voleva, prendevi la 290x shrinkata con gddr5x e prendevi la titan
ma che ci voleva, invece del 343 faceva il 352 e portava a casa la championzzzzzzzzz
etc etc
p.s: poi nvidia per tirare fuori una architettura semi uguale alla precedente ha speso 2 mld di $ in r&d che sono sei mesi di intero fatturato amd quando poteva prendere qualcuno di questi gegni per molto meno :asd:
si è ripetuto centinaia di volte, nvidia ha creato un'architettura modulare come ha fatto amd per le cpu ryzen e il fatto che ha giocato su questo è stato tutto un vantaggio, perchè nel giro di poco tempo ha creato una line up incredibile e può ancora far molto se vuole, amd invece sembra bloccata in questo, con polaris che è un chip molto valido non poteva far molto, ma volendo poteva migliorarlo visto che tutti avevano le idee chiare di cosa ci si aspettava, ma nulla è stato fatto, architettura abbandonata e finita lì per farne un'altra tutta nuova con tutti gli svantaggi che se ne porta dietro, stessa cosa è stata fatta con il progetto fury, morto a se stesso quando invece con l'introduzione delle hbm potevano spingere per sfruttare appieno la novità, ma anche lì nulla è stato fatto, tutto morto a se stesso, spero in vega sono onesto ma non stò qui ad aspettare che esce.
majinbu7
03-05-2017, 15:15
Non vi si può lasciare due minuti da soli che succede l'Apocalisse...
Alla fine se pure Alessandro è passato alle verdi (!!!), chi è rimasto ad aspettare Vega (intendo quella top di gamma, sperando che abbia prestazioni simili alla 1080Ti).
Inviato dal mio SM-G930F utilizzando Tapatalk
Io ancora l'aspetto, e proprio in questo momento vedo attraverso la mia personale sfera di cristallo....549$ per la Full con prestazioni simili alla 1080TI :)
Gyammy85
03-05-2017, 15:17
si è ripetuto centinaia di volte, nvidia ha creato un'architettura modulare come ha fatto amd per le cpu ryzen e il fatto che ha giocato su questo è stato tutto un vantaggio, perchè nel giro di poco tempo ha creato una line up incredibile e può ancora far molto se vuole, amd invece sembra bloccata in questo, con polaris che è un chip molto valido non poteva far molto, ma volendo poteva migliorarlo visto che tutti avevano le idee chiare di cosa ci si aspettava, ma nulla è stato fatto, architettura abbandonata e finita lì per farne un'altra tutta nuova con tutti gli svantaggi che se ne porta dietro, stessa cosa è stata fatta con il progetto fury, morto a se stesso quando invece con l'introduzione delle hbm potevano spingere per sfruttare appieno la novità, ma anche lì nulla è stato fatto, tutto morto a se stesso, spero in vega sono onesto ma non stò qui ad aspettare che esce.
E se cambiano architettura è sbagliato, se la mantengono pure...è difficile essere amd
Gyammy85
03-05-2017, 15:19
Io ancora l'aspetto, e proprio in questo momento vedo attraverso la mia personale sfera di cristallo....549$ per la Full con prestazioni simili alla 1080TI :)
Alessandro ormai ha preso la 1080ti, possono spingersi oltre coi prezzi. :)
si è ripetuto centinaia di volte, nvidia ha creato un'architettura modulare come ha fatto amd per le cpu ryzen e il fatto che ha giocato su questo è stato tutto un vantaggio, perchè nel giro di poco tempo ha creato una line up incredibile e può ancora far molto se vuole, amd invece sembra bloccata in questo, con polaris che è un chip molto valido non poteva far molto, ma volendo poteva migliorarlo visto che tutti avevano le idee chiare di cosa ci si aspettava, ma nulla è stato fatto, architettura abbandonata e finita lì per farne un'altra tutta nuova con tutti gli svantaggi che se ne porta dietro, stessa cosa è stata fatta con il progetto fury, morto a se stesso quando invece con l'introduzione delle hbm potevano spingere per sfruttare appieno la novità, ma anche lì nulla è stato fatto, tutto morto a se stesso, spero in vega sono onesto ma non stò qui ad aspettare che esce.
Si ma non si sapeva anche che Polaris sarebbe stata una fascia media “transitoria” o mi sono perso qualcosa? Già mi sembra strano il refresh con la serie RX 5XX… ma è sicuramente per non far svalutare il prodotto e spremere bene la fascia di mercato che copre visto che a livello di vendite hanno/stanno avendo un discreto successo.
Che giorno inizia il computex?
devil_mcry
03-05-2017, 15:59
gm200 infatti è esattamente +50% e da 400mmq arriva alla soglia di 600mmq, hawaii è 440mmq e quindi fiji (tonga x2 negli shader) avrebbe sfondato i 600mmq con il bus 512bit arrivando circa a 660mmq, ma soprattutto i consumi sarebbero esplosi ancora di più di quello che sono, guarda la FuryX
poi non stai considerando che maxwell è un chip pressoché perfetto per lo scopo, come fosse il sandy bridge per nvidia, mentre amd con Fiji ha raddoppiato Tonga negli shader mettendoci le hbm e stop, non ha riprogettato nulla, ma secondo te perché non hanno fatto la fascia alta per tutto il 2016?
poi considera che sono state studiate in collaborazione tra amd ed hynix, han fatto bene ad usarle e fare esperienza già che le avevano in casa.
Non è detto che avesse poi bisogno di un bus a 512bit però con GCN 1.2 per avere performance adeguate grazie al DCC ... comunque sono speculazioni. Rimane il fatto che fatto 280w potevano anche arrivare a 300-320 tanto...
La dimensione del DIE non era improponibile in ogni caso, l'architettura è energivora, è stata una scelta che hanno fatto e fine dei giochi. Di sicuro non sarebbe passata da 280w a 500w.
Poi sul discorso del test mi può star pure bene tanto non le ho comprate io quelle schede :D Hanno fatto da cavia altri.
Per il discorso della top di gamma, va bene tutto ma Polaris non è che sia sto cippone inoltre non ha 4 CU tagliate? Probabilmente ha pure un MC a 384bit castrato come Tonga. Insomma, non mi dire che non potevano fare di meglio nel 2016 se il loro obbiettivo era l'architettura nuova nel 2017.
Che giorno inizia il computex?
Il 30 ma tanto AMD non partecipa perchè sarà già fallita nel frattempo.
Gli esperti :O
ma che ci voleva, facevano un thuban doppio shrinkato e sarebbe andato meglio di bulldozer
ma che ci voleva, prendevi la 290x shrinkata con gddr5x e prendevi la titan
ma che ci voleva, invece del 343 faceva il 352 e portava a casa la championzzzzzzzzz
etc etc
p.s: poi nvidia per tirare fuori una architettura semi uguale alla precedente ha speso 2 mld di $ in r&d che sono sei mesi di intero fatturato amd quando poteva prendere qualcuno di questi gegni per molto meno :asd:
E' quello che mi fa ridere quando sento cose come "e che ci voleva a fare un polaris il 30 % più grosso che prendeva la 1070 sui 300 euro".
Non si hanno idee dei costi estremi anche solo di conversione da un processo all'altro e tutta la ricerca che va dietro (senza contare che un chip da 200 mm^2 costa ben oltre il doppio di uno da 100 mm^2 e così via).
E' quello che mi fa ridere quando sento cose come "e che ci voleva a fare un polaris il 30 % più grosso che prendeva la 1070 sui 300 euro".
Non si hanno idee dei costi estremi anche solo di conversione da un processo all'altro e tutta la ricerca che va dietro (senza contare che un chip da 200 mm^2 costa ben oltre il doppio di uno da 100 mm^2 e così via).
Esatto, la relazione tra die size e costo non è lineare, ma esponenziale.
Quindi si arriva ad un punto dove non conviene più aumentare l'area del chip.
devil_mcry
03-05-2017, 16:36
Esatto, la relazione tra die size e costo non è lineare, ma esponenziale.
Quindi si arriva ad un punto dove non conviene più aumentare l'area del chip.
Guarda che è solo 232mmq Polaris 10 :D è piccino
come ti stanno facendo notare anche gli altri secondo me la fai troppo facile, gli errori si commettono non lo metto in dubbio ma se hanno valutato così avranno avuto i loro buoni motivi io ho cercato di capirlo, credo che fiji in chiave hawaii avrebbe sfondato tranquillamente i 350watt toccando i 400watt con gli 8GB gddr5 in picco da gaming (se guardi furmark già ci arriva così a 400watt :asd: )
Polaris deriva da Tonga anche lui, è identico anche nel Front-End cambia solo che: è nativo 256bit, ha 4 volte la cache L2 (512 vs 2048kb), 4CU in più a riempimento Motore Geometrico (4 raster e 32rops) e qualche miglioria minore qua e la... il risultato è +4% ipc a parità di CU/clock (380x vs 470 c'era il test di B&C)
alla fine polaris è un chip da 240mmq che si scontra con un chip da 200mmq (1060 con collegamento 192bit), come vedi nvidia per non fare la fine della 960 ha ampliato il bus/rops rispetto i soliti 128bit.
Io non sono sicuro avrebbe consumato così tanto, già quando si parlava di HBM1 ok, consumavano meno, ma di quanto?
http://www.anandtech.com/show/9266/amd-hbm-deep-dive/4
La differenza sulle RAM non è poi eccessiva, 15w forse 20. Un MC più complesso per avere un bus più ampio non può consumare 100w dai.
AMD ha messo le HBM per una questione di marketing (infatti ne siamo qui a parlare) e per una questione di "innovazione" che però è fumo negli occhi.
Per Polaris si lo so che non lo hanno stravolto, ma è migliorato decisamente sotto alcuni frangenti anche se poi il rendimento medio è quello, in più GCN 1.2 era già molto meglio delle GCN 1.1 di 290 e 290x. Con scorpio 40 CU le hanno fatte (anche bus a 384bit), una scheda più veloce di una 390x nel 2016 era fattibilissima.
Guarda che è solo 232mmq Polaris 10 :D è piccino
Piccino si, ma mica tanto cioè se si ragiona una 1070 ha 1920cc quindi un GPC completamente disattivato su 314mm^2 se te la stampi a parte siamo sui 235mm^2 dimensione parallela a quella di polaris full...
Foglia Morta
03-05-2017, 17:19
Al momento ci sono degli studi sull'analisi degli algoritmi in deep learning a 16bit di precisione, ma solo con certi tipi di arrotondamenti (mi pare tramite processo stocastico) è possibile farlo. Però non mi pare sia quella la precisione standard oggi in uso perché comunque genera un errore seppur marginale e immagino che dipenda dal campo di utilizzo.
Le console inoltre sono tutte GCN 4 (Polaris), anche Scorpio, quindi non hanno quella capacità.
Magari in futuro le nuove console potrebbero derivare da questa architettura, ma non la useranno di sicuro per non rompere la retrocompatibiltà se vogliono mantenere la generazione perpetua...
"One of the features appearing for the first time is the handling of 16-bit variables - it's possible to perform two 16-bit operations at a time instead of one 32-bit operation," he says, confirming what we learned during our visit to VooFoo Studios to check out Mantis Burn Racing. "In other words, at full floats, we have 4.2 teraflops. With half-floats, it's now double that, which is to say, 8.4 teraflops in 16-bit computation. This has the potential to radically increase performance."
http://www.eurogamer.net/articles/digitalfoundry-2016-inside-playstation-4-pro-how-sony-made-a-4k-games-machine
PS4 Pro ha un Polaris 10 custom (con feature che vanno oltre a Polaris, fp16 è una di quelle ). Riguardo Scorpio non si sono espressi, ma il fatto che abbiano confermato 44CU ( che per ragioni di yields diventano 40CU attivi ) suggerisce che ci sia un Vega 11 custom all' interno di Scorpio.
mikael84
03-05-2017, 17:42
ma guarda il gp106 che è 200mmq... questi discorsi del "se la stampo a parte" hanno il tempo che trovano anche mikael fa lo stesso ragionamento ma è sbagliato, innanzitutto il chip rispetta delle "proporzioni di geometrie" che sono quadrate o rettangolari mica ad "L", e non basta fare 315/4*3 perché il bus sarebbe ampio sempre 256bit per avere le medesime prestazioni e non 192bit come infatti è la gp106.
la 1060 è metà della 1080 in specs, ma non va la metà perché ha il bus da 192bit e non da 128 (256/2) ed infatti non è 155mmq ma ben 200mmq...
azzo sono +45mmq che nvidia ha deciso di giocarsi, mica noccioline per quelle dimensioni e quindi la 1080 occupa "solo" il +57% di spazio...
in pratica il collegamento 192 bit rops e proporzioni chip rispetto ai 128 bit costa circa 45mmq nella 1060, quindi fai 155/2*3+45= 280mmq...
si, la 1070 nativa sarebbe grossa all'incirca 270~280mmq:
gp104 die shot
Ma sbagliato di che?
GP104 si può stampare anche a 1/3/5/7 GPC sistemando il collegamento(collegamenti + 3 GPC), Kepler era a 5 GPC + un collegamento.
Stampare 3 GPC significa collegare un 192bit non 256bit chiaramente.
Se utilizzi cache e rop's per la 256bit allora ti servono circa 272mmq2.
Con un 235mmq in linea teorica ti verrebbe fuori una 1070 a 192bit.;)
devil_mcry
03-05-2017, 17:47
"One of the features appearing for the first time is the handling of 16-bit variables - it's possible to perform two 16-bit operations at a time instead of one 32-bit operation," he says, confirming what we learned during our visit to VooFoo Studios to check out Mantis Burn Racing. "In other words, at full floats, we have 4.2 teraflops. With half-floats, it's now double that, which is to say, 8.4 teraflops in 16-bit computation. This has the potential to radically increase performance."
http://www.eurogamer.net/articles/digitalfoundry-2016-inside-playstation-4-pro-how-sony-made-a-4k-games-machine
PS4 Pro ha un Polaris 10 custom (con feature che vanno oltre a Polaris, fp16 è una di quelle ). Riguardo Scorpio non si sono espressi, ma il fatto che abbiano confermato 44CU ( che per ragioni di yields diventano 40CU attivi ) suggerisce che ci sia un Vega 11 custom all' interno di Scorpio.
Non la sapevo sai la cosa di PS4 PRO. Comunque per la Scorpio hanno confermato si tratti di Polaris Custom sempre, non di Vega. Lo ha detto chiaramente DF in riferimento a quanto detto a loro in MS
sgrinfia
03-05-2017, 18:27
In anteprima le immagini "rubate" di Vega.
https://www.youtube.com/watch?v=dCr2sEYkrqY
fraussantin
03-05-2017, 18:30
In anteprima le immagini "rubate" di Vega.
https://www.youtube.com/watch?v=dCr2sEYkrqY
Tzk unboxing vega..
https://youtu.be/VD96kI4LRAk
687f:c1 vs 1080ti
https://compubench.com/compare.jsp?benchmark=compu15d&did1=45270653&os1=Windows&api1=cl&hwtype1=dGPU&hwname1=AMD+687F%3AC1&did2=46884232&os2=Windows&api2=cl&hwtype2=dGPU&hwname2=NVIDIA+GeForce+GTX+1080+Ti
devil_mcry
03-05-2017, 19:42
https://compubench.com/compare.jsp?benchmark=compu15d&did1=45270653&os1=Windows&api1=cl&hwtype1=dGPU&hwname1=AMD+687F%3AC1&did2=46884232&os2=Windows&api2=cl&hwtype2=dGPU&hwname2=NVIDIA+GeForce+GTX+1080+Ti
Si ma AMD 687F:C1 sarebbe? Quale versione?
Si ma AMD 687F:C1 sarebbe? Quale versione?
Ah boh, presumo la full.
PS: 687f:c1 vs 1080
https://compubench.com/compare.jsp?benchmark=compu15d&did1=45270653&os1=Windows&api1=cl&hwtype1=dGPU&hwname1=AMD+687F%3AC1&did2=33974771&os2=Windows&api2=cl&hwtype2=dGPU&hwname2=NVIDIA+GeForce+GTX+1080
techfede
03-05-2017, 20:28
Qualcuno di informato sui fatti, saprebbe spiegarmi quei vari test di compubench cosa vanno a "sforzare" della scheda? :stordita:
Si ma AMD 687F:C1 sarebbe? Quale versione?
Boh, dovrebbe essere la full. Ma i benchmark sono del 2017.03.10 (il più recente)
Inviato dal mio SGP712 utilizzando Tapatalk
Qualcuno di informato sui fatti, saprebbe spiegarmi quei vari test di compubench cosa vanno a "sforzare" della scheda? :stordita:
Io ho solo riportato, in pratica quel test è arabo per me
Io la butto lì ma secondo me vega avrà prestazioni circa il 40 % superiori a fury x, alla fine son gpu molto simili architetturalmente.
La differenza la faranno soprattutto le frequenze e non mi aspetto un incremento di ipc superiore al 10 % fra l'una e l'altra scheda.
Anzi, son sicuro che se fanno una recensione clock to clock le differenze non saranno drammaticamente superiori a tonga xt vs polaris.
A lungo termine Vega potrebbe superare 1080ti e suppongo che lo farà quasi subito su alcuni giochi quali Ashes of the Singularity se gli sviluppatori riscriveranno alcune funzioni per sfruttare gli fp16.
In parole povere mi aspetto prestazioni di poco superiori alla 1080 per la full, distaccherà la 1080 solo a 4k di un 10-15% ma di quasi nulla a 1080p.
A questo punto la differenza reale la farà il prezzo e le prestazioni.
Se ci sarà una versione full a 550 e una cut a 400 con prezzi reali di 350 e 500 euro circa allora ne venderanno un po, ma onestamente dubito che Nvidia non possa permettersi dei tagli molto netti di prezzo sulle sue gpu.
Chiamatemi dubbioso, ma il destino di Vega sembra destinato ad essere, almeno commercialmente, di poco migliore di quello di Fury.
Einhander
03-05-2017, 20:40
Io la butto lì ma secondo me vega avrà prestazioni circa il 40 % superiori a fury x, alla fine son gpu molto simili architetturalmente.
La differenza la faranno soprattutto le frequenze e non mi aspetto un incremento di ipc superiore al 10 % fra l'una e l'altra scheda.
Anzi, son sicuro che se fanno una recensione clock to clock le differenze non saranno drammaticamente superiori a tonga xt vs polaris.
A lungo termine Vega potrebbe superare 1080ti e suppongo che lo farà quasi subito su alcuni giochi quali Ashes of the Singularity se gli sviluppatori riscriveranno alcune funzioni per sfruttare gli fp16.
In parole povere mi aspetto prestazioni di poco superiori alla 1080 per la full, distaccherà la 1080 solo a 4k di un 10-15% ma di quasi nulla a 1080p.
A questo punto la differenza reale la farà il prezzo e le prestazioni.
Se ci sarà una versione full a 550 e una cut a 400 con prezzi reali di 350 e 500 euro circa allora ne venderanno un po, ma onestamente dubito che Nvidia non possa permettersi dei tagli molto netti di prezzo sulle sue gpu.
Chiamatemi dubbioso, ma il destino di Vega sembra destinato ad essere, almeno commercialmente, di poco migliore di quello di Fury.
Quindi l'impatto dei i mirabolanti 200 cambiamenti si riduce all'aumento di frequenza?
Annamo bene :asd: :asd:
P.s.: lassa sta quella sola di AoS e ricordati battlefront sulla Mi25 che andava meglio della 1080 e parliamo della scheda con nastro adesivo e dissipatore attaccato con lo sputo, driver pre-cristo e frequenze castrate..
Io la butto lì ma secondo me vega avrà prestazioni circa il 40 % superiori a fury x, alla fine son gpu molto simili architetturalmente.
La differenza la faranno soprattutto le frequenze e non mi aspetto un incremento di ipc superiore al 10 % fra l'una e l'altra scheda.
Anzi, son sicuro che se fanno una recensione clock to clock le differenze non saranno drammaticamente superiori a tonga xt vs polaris.
A lungo termine Vega potrebbe superare 1080ti e suppongo che lo farà quasi subito su alcuni giochi quali Ashes of the Singularity se gli sviluppatori riscriveranno alcune funzioni per sfruttare gli fp16.
In parole povere mi aspetto prestazioni di poco superiori alla 1080 per la full, distaccherà la 1080 solo a 4k di un 10-15% ma di quasi nulla a 1080p.
A questo punto la differenza reale la farà il prezzo e le prestazioni.
Se ci sarà una versione full a 550 e una cut a 400 con prezzi reali di 350 e 500 euro circa allora ne venderanno un po, ma onestamente dubito che Nvidia non possa permettersi dei tagli molto netti di prezzo sulle sue gpu.
Chiamatemi dubbioso, ma il destino di Vega sembra destinato ad essere, almeno commercialmente, di poco migliore di quello di Fury.
550€ prestazioni simili alla 1080, in poche parole più cara di quest'ultima.
Se la possono tenere
Io ho solo riportato, in pratica quel test è arabo per me
http://i.imgur.com/nXJKY4Q.jpg
OvErClOck82
03-05-2017, 20:46
Io la butto lì ma secondo me vega avrà prestazioni circa il 40 % superiori a fury x, alla fine son gpu molto simili architetturalmente.
La differenza la faranno soprattutto le frequenze e non mi aspetto un incremento di ipc superiore al 10 % fra l'una e l'altra scheda.
Anzi, son sicuro che se fanno una recensione clock to clock le differenze non saranno drammaticamente superiori a tonga xt vs polaris.
A lungo termine Vega potrebbe superare 1080ti e suppongo che lo farà quasi subito su alcuni giochi quali Ashes of the Singularity se gli sviluppatori riscriveranno alcune funzioni per sfruttare gli fp16.
In parole povere mi aspetto prestazioni di poco superiori alla 1080 per la full, distaccherà la 1080 solo a 4k di un 10-15% ma di quasi nulla a 1080p.
A questo punto la differenza reale la farà il prezzo e le prestazioni.
Se ci sarà una versione full a 550 e una cut a 400 con prezzi reali di 350 e 500 euro circa allora ne venderanno un po, ma onestamente dubito che Nvidia non possa permettersi dei tagli molto netti di prezzo sulle sue gpu.
Chiamatemi dubbioso, ma il destino di Vega sembra destinato ad essere, almeno commercialmente, di poco migliore di quello di Fury.
Se fosse come dici tu (ma non penso) l'aver aspettato due anni sarebbe stato un no sense totale
Inviato dal mio iPhone utilizzando Tapatalk
In che senso?
Tutte le gpu possono svolgere i test...
Non è paragonabile ad un bench tipo 3dmark ma sempre di una serie di test si tratta che sfruttano la gpu in modo differente, si ritorna un po' al discorso di prima sulle quadro/fire per il gaming.
Anche in quel test mi sa che il clock è massimo 1200mhz, non so a quanto andrebbe sui 1500 per raggiungere i 12.5tflops.
Con ogni probabilità sempre sotto la 1080ti
Si a questo punto aspettarsi prestazioni da 1080ti ha poco senso.
fraussantin
03-05-2017, 21:16
Ma quale unboxing, si toglie solo la maschera :stordita:
P.S: certo il fatto che in realtà Vega fosse un uomo e non si chiamasse Vega possiamo anche tralasciarlo :asd:
EDIT:
Mmm... Si chiama Vega ad è rosso...
https://s26.postimg.org/hhr8wfieh/Storm_Collectibles_M_Bison_Vega_from_Street_Figh.jpg
:asd:
nei vecchi SF sembrava una quasi una donna da li le varie teorie sul uomo donna o gay
Dalle parole di Lisona nell'intervista che era stata postata qui ieri sembrava abbastanza chiaro che l'architettura è pensata per le DX12 e Vulkan... quindi non aspettiamoci miracoli in DX11.
Certo che deve essere divertente fare una scheda per giochi che ancora non esistono! :D
Ma che ha detto Lisa sulle dx12 e vulkan? 🤔
OvErClOck82
03-05-2017, 21:40
Si a questo punto aspettarsi prestazioni da 1080ti ha poco senso.
Sulla base di ?
Inviato dal mio iPhone utilizzando Tapatalk
Solo un ipovedente poteva pensare che fosse una donna dai.
http://gcnmario.free.fr/mugen/vega-sf2x6.gif
Aveva pure il culo piatto :asd:
http://gcnmario.free.fr/mugen/vega-sf2x2.gif
In realtà nello SF originale Vega era quello che da noi si chiamava Mr Bison e quello da te postato aveva un altro nome.. non so perché cambiarono i nomi cambiando la localizzazione. Preferisco pensare alla stella però.. che sicuramente farà parecchio caldo e temo avrà un tdp elevato.. la stella polaris o polare invece come dice il nome è stata un po' freddina
mircocatta
03-05-2017, 22:00
In realtà nello SF originale Vega era quello che da noi si chiamava Mr Bison e quello da te postato aveva un altro nome.. non so perché cambiarono i nomi cambiando la localizzazione. Preferisco pensare alla stella però.. che sicuramente farà parecchio caldo e temo avrà un tdp elevato.. la stella polaris o polare invece come dice il nome è stata un po' freddina
O magari sarà una patata bollente, come Vega vixen
Mamma mia che ricordi, che dediche! :asd: :sofico:
Inviato dal mio HTC One M9 utilizzando Tapatalk
CiccoMan
03-05-2017, 22:01
In realtà nello SF originale Vega era quello che da noi si chiamava Mr Bison e quello da te postato aveva un altro nome.. non so perché cambiarono i nomi cambiando la localizzazione. Preferisco pensare alla stella però.. che sicuramente farà parecchio caldo e temo avrà un tdp elevato.. la stella polaris o polare invece come dice il nome è stata un po' freddina
Bison è il pugile di colore, mentre il matador con gli artigli è Balrog :)
Free Gordon
03-05-2017, 22:11
Al momento ci sono degli studi sull'analisi degli algoritmi in deep learning a 16bit di precisione, ma solo con certi tipi di arrotondamenti (mi pare tramite processo stocastico) è possibile farlo. Però non mi pare sia quella la precisione standard oggi in uso perché comunque genera un errore seppur marginale e immagino che dipenda dal campo di utilizzo.
Le console inoltre sono tutte GCN 4 (Polaris), anche Scorpio, quindi non hanno quella capacità.
Magari in futuro le nuove console potrebbero derivare da questa architettura, ma non la useranno di sicuro per non rompere la retrocompatibiltà se vogliono mantenere la generazione perpetua...
PS4pro e molto probabilmente Scorpio hanno quella possibilità.. ;)
Roland74Fun
03-05-2017, 22:14
Quelli di Tom's già preparano i forni crematori. :D
:asd:
nei vecchi SF sembrava una quasi una donna da li le varie teorie sul uomo donna o gay
Nella versione nipponica, Vega è il Bison occidentale 👍
Free Gordon
03-05-2017, 22:39
AMD ha messo le HBM per una questione di marketing (infatti ne siamo qui a parlare) e per una questione di "innovazione" che però è fumo negli occhi.
Come fa' quindi una Fiji a consumare come una Hawaii? Avendo il 60% e più di performance in più? :)
L'IMC di Fiji consuma molto meno di quello da 512bit di Hawaii. ;)
Per quello hanno usato le HBM con Fiji, sennò non potevano proprio farla senza beccarsi gli insulti di tutto il mondo informatico... :asd:
Free Gordon
03-05-2017, 22:48
Quelli di Tom's già preparano i forni crematori. :D
:rotfl:
non capisco se hai letto il post o solo la parte che hai evidenziato in grassetto, perché il motivo per cui è sbagliato è scritto.
3 gpc a 192 bit NON E' la 1070 e non capisco cosa vuol dire quel teorico...
tra l'altro non ho mai visto in tempi almeno recenti Die GPU rettangolari con rapporto 3:1 base e altezza in ambito gpu, amd utilizza il 2:1 per le APU mentre Intel il 3:1 per le cpu mainstream cpu+igpu, ma questo non vuol dire che non si possa fare però sistemare il chip in quel modo vorrebbe dire sistemare in modo adeguato tutte le componenti e anche facessero solamente il collegamento a 192bit non basta il valore teorico perché quel valore si basa su un rapporto 1:1 e soprattutto come detto sarebbe un altra scheda, che so una ipotetica 1060ti per fare un esempio.
Non capisco questa cosa del die rettangolare/quadrato.
Cioè dici che non è possibile una litografia "troppo" rettangolare perché ai lati del wafer avrebbero troppi die "tronchi" inutilizzabili?
E' una cosa a cui non avevo mai pensato effettivamente... Forse è vero, non è molto conveniente per le rese (ai margini del wafer), avere die non quadrati o "poco" quadrati (a parità di mmq intendo).
Non ho capito cose volevi dire, ti sei dimenticato la punteggiatura in questo post. :D
*1060Ti che non è mai uscita...ma si vociferava uscisse l'anno scorso...:fagiano:
mikael84
03-05-2017, 22:51
non capisco se hai letto il post o solo la parte che hai evidenziato in grassetto, perché il motivo per cui è sbagliato è scritto.
3 gpc a 192 bit NON E' la 1070 e non capisco cosa vuol dire quel teorico...
tra l'altro non ho mai visto in tempi almeno recenti Die GPU rettangolari con rapporto 3:1 base e altezza in ambito gpu, amd utilizza il 2:1 per le APU mentre Intel il 3:1 per le cpu mainstream cpu+igpu, ma questo non vuol dire che non si possa fare però sistemare il chip in quel modo vorrebbe dire sistemare in modo adeguato tutte le componenti e anche facessero solamente il collegamento a 192bit non basta il valore teorico perché quel valore si basa su un rapporto 1:1 e soprattutto come detto sarebbe un altra scheda, che so una ipotetica 1060ti per fare un esempio.
Non è questione che sia sbagliato, bisogna capire la microarchitettura nvidia.:rolleyes:
Non servono chip rettangolari a L a V o a Z.
Puoi creare una 1070 anche con un 235mmq con il bus a 192bit, per nvidia non è un limite (ha la LDS 512 ist), visto che la 1070 utilizza 256kb e 16 rop's a vuoto.
Kepler GK110
https://www.3dcenter.org/dateien/abbildungen/nVidia-Kepler-GK110-Die-marked.jpg
Guarda qua, sono 5, quindi non puoi stamparli?:muro: :muro: :muro: :muro:
giovanbattista
04-05-2017, 03:11
Notte...non so se erano gia stati postati nelle ultime 2 pag non li ho visti:
AMD Radeon RX Vega specs leaked, a shy monster?
http://www.tweaktown.com/news/57366/amd-radeon-rx-vega-specs-leaked-shy-monster/index.html
AMD Vega 10 GPU Specifications
http://wccftech.com/amd-radeon-vega-specs-leaked-linux-patch/
devil_mcry
04-05-2017, 06:48
Come fa' quindi una Fiji a consumare come una Hawaii? Avendo il 60% e più di performance in più? :)
L'IMC di Fiji consuma molto meno di quello da 512bit di Hawaii. ;)
Per quello hanno usato le HBM con Fiji, sennò non potevano proprio farla senza beccarsi gli insulti di tutto il mondo informatico... :asd:
Guarda che non so se hai visto dal link Anandtech, le HBM consumano 15w in meno delle GDDR5 e 17 ad esagerare rispetto a 12GB GDDR5.
Non c'è tutto sto risparmio energetico che credete... Messe le GDDR5 nella scheda (facendo finta che l'MC funzionasse), la scheda avrebbe consumato 15w in più. Metti l'MC più grosso, solo quello eh, a quanto poteva arrivare complessivamente in più? 30w? 50w? di certo non 120-150w in più...
Gyammy85
04-05-2017, 07:08
Quelli di Tom's già preparano i forni crematori. :D
Capsaicin & cream:eek: :eek:
Non mi son spiegato.
Un benchmark sintetico mostra un aspetto del componente su cui lo esegui. Nel caso del 3DMark per esempio il gaming, pur con tutti gli ovvii limiti di un sintetico rispetto ai casi reali.
Questi benchmark mi sembrano rappresentare altri tipi di performance, che non so quanto sono assimilabili al gaming.
Era un vecchio bench comunque, del sample a 1200
C'era già quando Raja Koduri & friends sceglievano quali progetti mandare avanti? Non sono ironico, mi chiedo davvero come diavolo facciano a fare hardware per API che ancora nessuno ha usato sul serio...
Infatti, dovrebbe essere semplicemente designed for gta5-tw3-mass effect from Andromeda to infinite, ma sono di coccio, non capiscono...
Intanto il titolo in borsa sta lentamente risalendo...mi sa che anche oggi falliscono domani :doh:
Gyammy85
04-05-2017, 07:16
Notte...non so se erano gia stati postati nelle ultime 2 pag non li ho visti:
AMD Radeon RX Vega specs leaked, a shy monster?
http://www.tweaktown.com/news/57366/amd-radeon-rx-vega-specs-leaked-shy-monster/index.html
AMD Vega 10 GPU Specifications
http://wccftech.com/amd-radeon-vega-specs-leaked-linux-patch/
Da notare su tweaktown la lista del redattore con dual vegafull vs titan XP, assumendo quindi intrinsecamente che una titan XP va linearmente il doppio della 1080ti :oink: :oink:
Ma qualcuno l'ha recensita per vedere se è davvero così powa, oppure bisogna fidarsi sulla parola e mettere sul mercatino gli sli di 1080ti?
Una dual amd ci sta sempre, ti risolve il salotto e i clickbait
Soulbringer
04-05-2017, 08:43
Questo l'avete visto? https://www.techpowerup.com/233004/amd-works-on-at-least-three-radeon-rx-vega-skus-slowest-faster-than-gtx-1070
9753 di timespy...sembra un bel mostro.
mircocatta
04-05-2017, 08:51
http://www.hwupgrade.it/news/skvideo/nuovi-dettagli-questa-volta-direttamente-da-amd-sulle-gpu-vega_68470.html
Gyammy85
04-05-2017, 08:52
Questo l'avete visto? https://www.techpowerup.com/233004/amd-works-on-at-least-three-radeon-rx-vega-skus-slowest-faster-than-gtx-1070
9753 di timespy...sembra un bel mostro.
Già postato, la commissione d'inchiesta l'ha valutato FAKE...
Soulbringer
04-05-2017, 08:57
nei commenti
ahahhh :rotfl:
:D :D
Già postato, la commissione d'inchiesta l'ha valutato FAKE...
Ah beh, allora... :asd:
Già postato, la commissione d'inchiesta l'ha valutato FAKE...
Mi sono perso la poesia per la "dipartita verso il verde" di alessandro... dov'è?!? :fagiano:
dado1979
04-05-2017, 09:10
Come fa' quindi una Fiji a consumare come una Hawaii? Avendo il 60% e più di performance in più? :)
L'IMC di Fiji consuma molto meno di quello da 512bit di Hawaii. ;)
Per quello hanno usato le HBM con Fiji, sennò non potevano proprio farla senza beccarsi gli insulti di tutto il mondo informatico... :asd:
Non che il discorso mi interessi molto in generale ma il presupposto dell'equazione è completamente errato: Fiji non va il 60% in più di Hawaii.
Ma neanche va vicino al 60% in più... diciamo un 25% in più.
Roland74Fun
04-05-2017, 09:26
Mi sono perso la poesia per la "dipartita verso il verde" di alessandro... dov'è?!? :fagiano:
Vedi se ti va bene questa.
Verdi pascoli.
Infine giunta è l'ora
Perché mi son stancato.
AMD vai alla malora.
E mille80ti ho comprato.
Non siate tristi per la scelta,
Un reso sempre si può fare.
Ma almeno questa volta
Meglio più non aspettare.
Nei verdi pascoli ora vado,
In mezzo a tanti utenti fortunati
Ora che ho lanciato il dado
Non posso più restare tra i dannati.
Che mesi sono fermi ad aspettare,
Distrutti e senza ormai niuna speranza,
Qualcosa che più non può arrivare,
E alla fine rimarranno senza.
Oh Vega! stella lontana,
Mancava quache settimana.
Ma ho fatto rotta altrove.
Ti prego non chiedermi dove.
Di là è tutto latte e miele,
Non aceto con fiele.
Ora vedo la luce,
Che verso la gioia conduce.
Colori e filtri blurranti
E non fps altalenanti.
Basta con queste AMD
Che sempre son cacca pipì.
Finito. :)
mircocatta
04-05-2017, 09:30
comunque non capisco come non si faccia ad essere speranzosi per vega
basta guardare polaris
la 1080ti va il 202% rispetto alla rx 580 in 1080p (fonte "l'imparziale" techpowerup qui (https://www.techpowerup.com/gpudb/2938/radeon-rx-580))
quindi:
da 2304 @ 4096sp siamo già al 177% della rx580 (1080 liscia già superata)
da 1340mhz a 1600mhz (parliamo di boost) siamo ad un altro +19%, e passiamo al 212% (1080ti già superata)
ovviamente non ci si può aspettare che le prestazioni crescano in proporzione esatta sia per SP che per frequenza.. ma è anche vero che nel semplice calcolo non ho considerato i miglioramenti di architettura (almeno un 15% lo si può sperare?) e l'assenza di colli di bottiglia dovuti alla memoria (fattore che limita molto le rx580, quindi un altro 10%)
l'unica cosa che non capisco è come una scheda del genere possa avere solo 225watt di tdp, magari è il tdp dela vega liscia e non la "X" (full)
detto questo, una stima SUPER ottimistica mi fa pensare che poor volta non è tirato così a caso, se vega FULL fosse superiore alla titan Xp vuol dire che potrà tranquillamente vedersela con la futura 2070/2080
mircocatta
04-05-2017, 09:36
Non ci si aspettano 1500MHz di boost?
Sicuramente l'efficienza delle ram aiuterebbe molto Polaris, ma da quel punto di vista Vega parte già con migliorie anche prima di considerare le HBM, ma comunque concordo su quell'aspetto della tua previsione: ha solo che da guadagnare ancora sul fronte dell'uso della ram e mi aspetto un miglioramento generale del chiamiamolo IPC rispetto a Polaris.
qui parlano ben più superiori
http://www.hwupgrade.it/news/skvideo/nuovi-dettagli-questa-volta-direttamente-da-amd-sulle-gpu-vega_68470.html
può darsi che 1,5 sia il valore base
va beh dai dati di amd la "modularità" a 4, quindi vuol dire che una cut avrà 3072 sp, 48 rops e 196 TMU.
A questo punto potrebbe essere davvero al scheda da piazzare per la fascia 350E.
Mentre la cut con 3584 sp potrebbe avere sempre 64 rops (non c'è il blocco totale di uno shader engine) e 224 TMU.
A questo punto la discriminante potrebbe essere il bus, premesso che la 3584 avrà sempre due stack hbm2 quindi stesso bus della full, la versione a 3072 la vedo dura per una questione di "costi" lasciargli 2 stack hbm2 potrebbe far salire il costo e assottigliare il guadagno, ma metterne uno solo dimezzando il bus non sarebbe un problema, quanto sarebbe il problema presentare la vga con solo 4gb di hmb2 contro gli 8gb di gddr5 delle polaris.
Se invece non hanno problemi con il costo delle hbm2 allora con 8gb e stesso bus delle due sorelline maggiori, potrebbe essere la felicità di molti (me compreso^^)
mircocatta
04-05-2017, 09:53
(SP//TMU//ROP//BW)
4096//256//64//512 sono gli stessi valori di una Fury X
3584//224//64//512 sono coerenti con il cut che fecero di Fiji per fare la Fury vanilla
Il terzo taglio potrebbe essere una nuova Nano, che sarebbe full ma con un binning spinto e frequenze leggermente più basse oppure un ulteriore cut (o una cut con frequenze più basse dell'altra cut), che però invece di dimezzare il bus potrebbe semplicemente usare una SKU inferiore delle HBM2, quindi quelle da 1.6Gbps per pin invece che 2.0Gbps per pin che mi aspetto sulle altre.
ma con gli stessi valori di (SP//TMU//ROP//BW) della furyX non c'è il rischio di avere un'architettura con gli stessi colli di bottiglia? o i problemi delle fury erano altrove?
Gyammy85
04-05-2017, 10:00
Vedi se ti va bene questa.
[b]Verdi Pascoli.[/]
Infine giunta è l'ora
Perché mi son stancato.
AMD vai alla malora.
E mille80ti ho comprato.
Non siate tristi per la scelta,
Un reso sempre si può fare.
Ma almeno questa volta
Meglio più non aspettare.
Nei verdi Pascoli ora vado,
In mezzo a tanti utenti fortunati
Ora che ho lanciato il dado
Non posso più restare tra i dannati.
Che mesi sono fermi ad aspettare,
Distrutti e senza ormai niuna speranza,
Qualcosa che più può arrivare
E alla fine rimarranno senza.
Oh Vega! stella lontana,
Mancava quache settimana.
Ma ho fatto rotta altrove.
Ti prego non chiedermi dove.
Di là è tutto latte e miele,
Non aceto con fiele.
Ora vedo la luce,
Che verso la gioia conduce.
Colori e filtri blurranti
E non fps altalenanti.
Basta con queste AMD
Che sempre son cacca pipì.
Finito. :)
T O P
Bisogna anche valutare se l'ipc sarà superiore a quello di fiji, anche quello fa tanto.
ma con gli stessi valori di (SP//TMU//ROP//BW) della furyX non c'è il rischio di avere un'architettura con gli stessi colli di bottiglia? o i problemi delle fury erano altrove?
il chip è un grosso riarrangiamento dell'archidettura gnc probabilmente il lavoro iniziale è stato fatto appositamente per togliere i colli di bottiglia in questo senso. Restando conservativi sul numero di SP per poi usare questo numero per incrementi futuri.
Effettivamente una comparazione clock to clock con fiji potrebbe darci una idea di quanto siano andati avanti e cosa c'è da aspettarsi in futuro.
sgrinfia
04-05-2017, 10:41
Vedi se ti va bene questa.
Verdi Pascoli.
Infine giunta è l'ora
Perché mi son stancato.
AMD vai alla malora.
E mille80ti ho comprato.
Non siate tristi per la scelta,
Un reso sempre si può fare.
Ma almeno questa volta
Meglio più non aspettare.
Nei verdi Pascoli ora vado,
In mezzo a tanti utenti fortunati
Ora che ho lanciato il dado
Non posso più restare tra i dannati.
Che mesi sono fermi ad aspettare,
Distrutti e senza ormai niuna speranza,
Qualcosa che più può arrivare
E alla fine rimarranno senza.
Oh Vega! stella lontana,
Mancava quache settimana.
Ma ho fatto rotta altrove.
Ti prego non chiedermi dove.
Di là è tutto latte e miele,
Non aceto con fiele.
Ora vedo la luce,
Che verso la gioia conduce.
Colori e filtri blurranti
E non fps altalenanti.
Basta con queste AMD
Che sempre son cacca pipì.
Finito. :)
Mi hai commosso :D
(SP//TMU//ROP//BW)
4096//256//64//512 sono gli stessi valori di una Fury X
3584//224//64//512 sono coerenti con il cut che fecero di Fiji per fare la Fury vanilla
Il terzo taglio potrebbe essere una nuova Nano, che sarebbe full ma con un binning spinto e frequenze leggermente più basse oppure un ulteriore cut (o una cut con frequenze più basse dell'altra cut), che però invece di dimezzare il bus potrebbe semplicemente usare una SKU inferiore delle HBM2, quindi quelle da 1.6Gbps per pin invece che 2.0Gbps per pin che mi aspetto sulle altre.
secondo me la versione 3072/192/48 può essere una buona hit per la fascia dei 349$ che presumo non riusciranno a coprire con la 3584.
Li è tutto da vedere se vorranno mantenere lo stessu bus e 8gb oppure togliere uno stack e avere bus dimezzato e soli 4 gb (ma sarebbe proprio da folli a livello commerciale).
Quello che semplifica o limita sono appunto le hbm2 adesso. Il taglio solo da 4gb per stack limita ad oggi le modularità (se ci fossero stati già disponibili tagli da 8gb sarebbe stato il top per fare top level con bus full da 16gb e mid da 8gb con bus dimezato).
sulle frequenze, anche li sono tutte da 500mhz, la produzione attuale, downgradarle per metterle a 400mhz non ha senso o poco senso se si vuole abbassare i costi. Le hbm2 a samsung o hynix conviene farle tutte con al frequenza target da 500, poi se amd decide di metterle sulle cut a 400mhz, sempre come 500mhz le paghi. Quindi tanto vale lasciarle cosi.
mircocatta
04-05-2017, 10:56
Davvero bella bravo :)
Per quanto riguarda le ultime news, come si pensava mancava il test a 1600mhz che in TS la porta a "superare" di poco 2~3% la 1080ti (supera anche la TXP full chip che però clocka meno) però TS è un test favorevole ad amd.
Comunque è impressionante vedere 1600mhz base clock per amd a vedere polaris :eek: bisogna vedere cosa hanno modificato per avere le stesse unità di Fiji, ma con +20% di IPC.
FuryX = 5597p @1100mhz
Vega = 9753p @1600mhz
normalizzando Vega a 1100mhz farebbe 6705p, quindi 6705/5597= +20%.
Anche se le unità sono le stesse amd dichiara di aver riprogettato il motore geometrico (SE), gli ACE che ora si chiamano ACU sono di nuovo 8 (2x SE), non parla più di HWS e la L2 è in stile nvidia collegata alle ROPs.
Come scrive Corsini è molto probabile quindi che vega sia modulare tipo le uarch nvidia, ma suddivisi in blocchi da 1024sp(4096sp)/SE invece che 640cc(3840cc)/GPC.
se davvero Fiji è ~500mmq o non sappiamo quanto spazio occupano i nuovi SE/ROPs ed i collegamenti della L2 oppure hanno utilizzato librerie a bassa densità e questo spiegherebbe i clock così elevati, considerando anche che risparmiano spazio per l'IMC 2048 vs 4096 bit.
https://uploads.tapatalk-cdn.com/20170504/b317fc07190095287105e81427e53db1.jpg
29Leonardo
04-05-2017, 11:18
Finito. :)
Ma con cosa fate colazione la mattina? :sofico:
Lurko solo per queste perle :rotfl:
Radeon80
04-05-2017, 11:41
Se ho capito bene in base ai rumor esisterebbe solo Vega10 che dovrebbe poi essere lanciato in 3 declinazioni che sarebbero analoghe alla Fury X,Fury e Fury Nano.
Se non dovesse esistere Vega11 tra il modello Vega10 Cut con 3584 SP e l'RX 580 verrebbe fuori un bel buco in termini sia prestazionali che a livello di posizionamento di mercato.
Quindi Vega full =470x2 + 200mhz?
Einhander
04-05-2017, 12:44
No.
Vega ha un'architettura differente, dove "differente" può voler dire "poco differente" come GCN3 -> GCN4 o Maxwell -> Pascal o "tanto differente".
Quindi di certo non è 470x2 +200mhz ma potrebbe essere molto simile, ma potrebbe anche essere completamente diversa.
Mboh pero' ricordo sempre quella dichiarazione dei 200 cambiamenti architetturali di amd...cioe' ok, magari sono 200 cambiamenti di "posizione", ma non credo dai :asd:..
Certo e' che salvo prezzacci da discount le prestazioni debbono esserci.
Su questo Ale55andro aveva ragione non si puo' arrivare un anno dopo e peccare in potenza dai :rolleyes:
Per quanto mi riguarda il concetto (o appellativo) "GCN" potrebbe essere applicato a qualsiasi architettura di vecchia o nuova generazione sviluppata da AMD.
Presumo che cio' che renda un'architettura nuova sia l'architettura stessa e non il nome ce le si da', o no?
Lo ripeto:
Graphic
Core
Next
Roland74Fun
04-05-2017, 12:44
Si starà come
d'autunnoestate
sugli alberi
le foglie scimmie
Povero Ungaretti!!! :D :D
Einhander
04-05-2017, 12:46
Si starà come
d'autunnoestate
sugli alberi
le foglie scimmie
Da premio nobel ahahahahahahahahahahah
:asd: :asd:
Einhander
04-05-2017, 12:57
GCN è un concetto di architettura, fino a quando questo concetto non cambierà AMD chiamerà in questo modo le sue architetture.
Questo vale per un sacco di cosa, vedi Intel che continua con la settima generazione di intel core.
appunto per quanto mi riguarda anche Navi potrebbe essere GCN pur differendo in maniera SOSTANZIALE da vega (per dire).
devil_mcry
04-05-2017, 13:07
GCN è un concetto di architettura, fino a quando questo concetto non cambierà AMD chiamerà in questo modo le sue architetture.
Questo vale per un sacco di cosa, vedi Intel che continua con la settima generazione di intel core.
No aspetta. Intel Core è il nome commerciale, non l'architettura. L'architettura è cambiata.
Trasponendolo sarebbe AMD RX ora o AMD Radeon prima.
Poi c'è il PR che è il numero e che segue una successione logica (in teoria) consecutiva.
Infine c'è il nome dell'architettura es Maxwell/Pascal/GCN/Zen/Skylake etc e questa è relativa alla architettura usata.
Gyammy85
04-05-2017, 13:09
Quindi Vega full =470x2 + 200mhz?
No, vega full=fury liscia+gt730 per la tessellation+1030 per la fisica
Ecco la mia poesia, si intitola la capitolazione di Alessandro
Alessandro alla fine ha ceduto
la 1080ti ha comprato
il verde cavaliere gliel'ha ordinato
un prezzo favoloso ha spuntato
per la fe che tanti successi ha racimolato
ora nel freezer la metterà
il quarto stadio di boost raggiungerà
e kingpin da qualche parte piangerà
guardando i video su youtube che ale posterà
dopo tanta tanta attesa finalmente platinare potrà
fra colori pro e peli in movimento
finalmente con tw3 potrà maxare a piacimento
sperando sempre però con molta ansia
che la 1080ti resti bella fresca nella credenza
altrimenti FCAT potrebbe sbarellare
e il frametime potrebbe impazzire
una lettera di toms riceverà
con la revoca immediata della proprietà
la scheda dovrà restituire
per manifesta incapacità nel farla boostare
nvidia è un'amante esigente
la capitolazione potrebbe non essere sufficiente
quindi gridiamo forte forte ogni di
che è sempre colpa di aemmeddi.
Roland74Fun
04-05-2017, 13:27
Anche AMD con i processori FX ha usato bulldozer, piledrive, excavator ma era sempre la stessa cosa.
Si è vero tra Zambesi e Piledriver c'è stato un effettivo cambio di alcune cose relative all'architettura ma senza stravogere tutto l'impianto.
Purtroppo le successive tecnologie streamroller ed excavator non gli sono state implementate come promesso e sono state utilizzate solo sulle apu con risultati inutili. :( :(
Roland74Fun
04-05-2017, 13:29
quindi gridiamo forte forte ogni di
che è sempre colpa di aemmeddi.
La chiusa finale è ormai come un mantra per noi. :D :D
Gyammy85
04-05-2017, 13:33
La chiusa finale è ormai come un mantra per noi. :D :D
Si è un po' il succo degli ultimi 10 anni di questo forum
A questo punto direi di chiudere il thread, concludendo che vega è una radeon 8500 con qualche modifica qua e la, e link a volta e a come stravolgerà il mondo con le dx12 e le hbm2. :eek:
devil_mcry
04-05-2017, 13:37
Stai mettendo insieme i modi diversi che hanno le diverse aziende di chiamare le cose, che anche se simili non sono uguali.
AMD chiama l'architettura GCN1, 2, 3, 4, ecc. ma questo non vuole dire che sia diverso da Nvidia (o Intel) che si inventano nomi nuovi ogni volta.
Anche AMD con i processori FX ha usato bulldozer, piledrive, excavator ma era sempre la stessa cosa.
E sempre AMD ha usato Southern Islands per GCN1, Sea Islands per GCN2, Volcanic Islands per GCN3 e Arctic Islands
Il nome commerciale delle schede video AMD è sempre stato Radeon o RX. Il nome dell'architettura è sempre stato nelle ultime 4 tornate GCN perché l'architettura non è mai cambiata. nVidia anche ha sempre chiamato GeForce le sue schede e ha chiamato Pascal una architettura (GP20x), Maxwell l'altra (GM20x) etc. In questo caso il nome in codice nuovo corrispondeva sempre ad una architettura .
AMD nello stesso modo ha chiamato con il nome commerciale diverse architetture sia le CPU che le GPU, altrimenti come ti spieghi gli Athlon e i Phenom Propus o Deneb che erano tutti K10? Semplice, K10 era l'architettura e il nome in codice era Deneb o Propus.
Allo stesso modo AMD chiamava Radeon sia le terascale che le GCN, e allo stesso modo Intel chiama con nomi commerciali diversi (Core, Pentium, Celeron) la stessa architettura.
Nota una cosa, il nome commerciale può essere usato per cose diverse.
Vedi qui
https://en.wikipedia.org/wiki/Skylake_(microarchitecture)
https://en.wikipedia.org/wiki/Graphics_Core_Next
https://en.wikipedia.org/wiki/Pascal_(microarchitecture)
Pascal, GCN, Skylake etc sono tutti nomi in codice delle architetture. I nomi commerciali sono Intel Core, AMD Radeon o RX, Geforce GTX
Semplicemente mentre AMD ha chiamato GCN 2 GCN 3 etc nVidia ha chiamato GK104 Kepler, GM204 etc. Per Intel c'è solo il generico progressivo (11esima per Skylake) e per AMD K10 etc
Soulbringer
04-05-2017, 13:41
http://wccftech.com/tech-secrets-nvidia-amd-tsmc-stolen/
Ok ragazzi, ora che l'architettura di Pascal è stata trafugata è tutto più chiaro:
dietro il furto c'è sicuramente AMD, Vega sarà infatti un copia-incolla di Pascal quindi avranno esattamente le stesse prestazioni. AMD le venderà a meno di nVidia ma comunque la gente, nonostante le schede siano uguali, comprerà comunque verde e finalmente AMD fallirà!
:asd:
devil_mcry
04-05-2017, 14:03
Fury/RX = Titan/GTX
GCN4/5 = Maxwell/Pascal
Polaris → P10/P11 = GPx → GP106/GP107
GCN è solo un modo generico per identificare la base, poi gli mettono i numeri invece di inventarsi nomi nuovi come fa nvidia o intel, anche con Zen faranno così.
Leggi l'edit ho fatto modifiche.
GCN è il nome della micro architettura. Ma il nome commerciale è un'altra cosa.
Intel Core è il nome commerciale non quello dell'architettura.
Lui invece diceva questo
Questo vale per un sacco di cosa, vedi Intel che continua con la settima generazione di intel core.
Il che è sbagliato, l'architettura delle CPU Intel Core di 7th Gen è Skylake, Intel Core di 7th Gen è solo il nome commerciale è come dire le GTX di 10th generazione... Tra l'altro Skylake è l'11esima generazione di architettura per Intel. Il nome commerciale è il nome dell'architettura non è la stessa cosa.
Te stai dicendo la stessa cosa che dicevo io ma hai quotato il suo post.
Ovvero
No aspetta. Intel Core è il nome commerciale, non l'architettura. L'architettura è cambiata.
Trasponendolo sarebbe AMD RX ora o AMD Radeon prima.
Poi c'è il PR che è il numero e che segue una successione logica (in teoria) consecutiva.
Infine c'è il nome dell'architettura es Maxwell/Pascal/GCN/Zen/Skylake etc e questa è relativa alla architettura usata.
Non avevo citato le Fury ovviamente visto che ne hanno fatte 2 e non si sa se avrà seguito.
mikael84
04-05-2017, 14:13
kepler è fatto in modo diverso è predisposto per il numero dispari (192cc ogni smx e 576cc(3x smx) ogni gpc) ma come vedi non è un rettangolo 3:1 nemmeno in questo caso, ma è 4:3.
Kepler è uguale compresi i collegamenti, ma è adattato a 5GPC. Gli SMX non centrano nulla.:p
quel:p lo che non capisci è che se la teoria ti dice 235mmq per 192bit o 275mmq per 256bit non significa che poi sia effettivamente realizzabile.
Spiegami come hanno collegato Kepler, dopo discutiamo su cosa non capisco.
Voglio che mi illustri tutto il collegamento di GK110;) :fagiano:
quindi stai dicendo che nvidia ha di nuovo dato specifiche errate sul bus? a me risulta che la 1070 sia effettivo 256bit e non da 192bit, e quindi questa teorica 1070 da 192bit non sarebbe una 1070 e non andrebbe quanto una 1070 e quindi tutto questo vantaggio in termini di mmq si tradurrebbe in un +15~20% circa di prestazioni/mmq, lo stesso che c'è tra la 1060 (200mmq) e la 480(230mmq) ne più ne meno utilizzando le gddr.
il gp106 non è teoria, è pratica: non è 155mmq teorici ma è 200mmq pratici perché è collegato appunto a 192bit e non ha 128bit, rispetta una geometria 2:1 e comunque la cosiddetta simmetria, anche gk110 è simmetrico almeno su un asse, tutti i chip lo sono.
Specifiche errate no.
I 3 GPC di Nvidia devono lavorare con 192bit, tanto grazie a compressione e LDS/SFU in rapporto 4:1 non perdono particolare efficienza.
Una 1070 collegata ai 256bit richiede 37mmq2 di spazio maggiore, questo si, ma una 1070 è sempre pensata per 3 GPC, visto che si sfrutta il bus, ma non le rop's/cache e di conseguenza la compressione ne risente.
La 1060 una un collegamento a 200mmq2, ma è un mezzo pacco per die, visto che non sfrutta tutto il chip.:p
va beh dai dati di amd la "modularità" a 4, quindi vuol dire che una cut avrà 3072 sp, 48 rops e 196 TMU.
A questo punto potrebbe essere davvero al scheda da piazzare per la fascia 350E.
Mentre la cut con 3584 sp potrebbe avere sempre 64 rops (non c'è il blocco totale di uno shader engine) e 224 TMU.
A questo punto la discriminante potrebbe essere il bus, premesso che la 3584 avrà sempre due stack hbm2 quindi stesso bus della full, la versione a 3072 la vedo dura per una questione di "costi" lasciargli 2 stack hbm2 potrebbe far salire il costo e assottigliare il guadagno, ma metterne uno solo dimezzando il bus non sarebbe un problema, quanto sarebbe il problema presentare la vga con solo 4gb di hmb2 contro gli 8gb di gddr5 delle polaris.
Se invece non hanno problemi con il costo delle hbm2 allora con 8gb e stesso bus delle due sorelline maggiori, potrebbe essere la felicità di molti (me compreso^^)
Per 48 rop's dovrebbero però levare un render back-end, perchè i raster sono da 16 rop's. :)
Quindi o fai due core uno da 32 e l'altro da 64.
Einhander
04-05-2017, 14:15
Leggi l'edit ho fatto modifiche.
GCN è il nome della micro architettura. Ma il nome commerciale è un'altra cosa.
Intel Core è il nome commerciale non quello dell'architettura.
Lui invece diceva questo
Il che è sbagliato, l'architettura delle CPU Intel Core di 7th Gen è Skylake, Intel Core di 7th Gen è solo il nome commerciale è come dire le GTX di 10th generazione... Tra l'altro Skylake è l'11esima generazione di architettura per Intel. Il nome commerciale è il nome dell'architettura non è la stessa cosa.
Te stai dicendo la stessa cosa che dicevo io ma hai quotato il suo post.
Ovvero
Non avevo citato le Fury ovviamente visto che ne hanno fatte 2 e non si sa se avrà seguito.
il punto e' se ha un senso..
Cioe' in base a cosa giudichiamo un architettura nuova oppure no?
Il nome? (es. GCN) oppure alle effettive modifiche che contraddistinguono una gpu dalla precedente? e se e' questo il dato fondamentale, come facciamo a stabilire un limite "minimo" che ci permetta di giudicare quell'architettura un evoluzione oppure qualcosa di completamente diverso?
Oppure e' AMD che un giorno si inventa "NPC"(Nfinite Core Powa :asd:) invece di GCN e allora tutti la vediamo come nuova anche se magari nella sostanza presenta meno cambiamenti di quelli che intercorrono tra una 390x e la prossima VEGA?
Con la storia che AMD si e' inventata questo nome GCN e che bene o male con numeretto annesso identifica TUTTE le incarnazioni a partire dalla serie 7000 (se non erro) si ha l'impressione di essere sempre li', ma a vedere le novita di VEGA (sempre GCN) mi pare assai difficile pensare che si parli di semplice evoluzione...poi oh, magari mi sbaglio ed e' una mia impressione e basta eh
Rimane il fatto che GCN a me pare un acronimo ideato per dare proprio l'idea di un evoluzione perpetua e allo stesso tempo mantenere a livello di "immagine" e/o percezione una continuita' apparente tra le GPU.
Per l'appunto una sigla che gia' nel suo nome contiene "next" e quindi concentra l'attenzione sul "divenire" o sull'evoluzione perpetua delle sue GPU.
Forse e dico forse solo in tal senso TUTTE le GCN possono essere considerate le stesse...Ripeto, prendere UNA HD7000 e confrontarla con VEGA...io credo che di cambiamenti ce ne siano veramente moltissimi :)
devil_mcry
04-05-2017, 14:25
si, ma come vedi anche Intel utilizza ancora la dicitura "Core", per identificare che da li è partita la filosofia che c'è dietro e lo mette nel nome commerciale che generalizza la release di quella generazione, Skylake è come dire Pascal o GCN"5", solo che nvidia non usa un macro nome tutto qua.
---
comunque http://www.bitsandchips.it/8-gaming/8326-come-forzare-lo-steam-survey
:asd:
No... anche questo è errato. L'architettura alla base della prima CPU Intel Core (Duo o Solo) era l'architettura Pentium M . Questa era quella di 5 o 6 generazione non ricordo. Solo l'architettura successiva fu chiamata effettivamente Core (ed erano solo quelli commercialmente chiamati Core 2 Duo o Quad). Ovviamente le vere nuove architetture che contano nella numerazione sono i Tock.
Quindi se guardiamo le generazioni abbiamo:
11 Skylake
10 Haswell
9 SB
8 Nehalem
7 Core
6 Pentium M
il punto e' se ha un senso..
Cioe' in base a cosa giudichiamo un architettura nuova oppure no?
Il nome? (es. GCN) oppure alle effettive modifiche che contraddistinguono una gpu dalla precedente? e se e' questo il dato fondamentale, come facciamo a stabilire un limite "minimo" che ci permetta di giudicare quell'architettura un evoluzione oppure qualcosa di completamente diverso?
Oppure e' AMD che un giorno si inventa "NPC"(Nfinite Core Powa :asd:) invece di GCN e allora tutti la vediamo come nuova anche se magari nella sostanza presenta meno cambiamenti di quelli che intercorrono tra una 390x e la prossima VEGA?
Con la storia che AMD si e' inventata questo nome GCN e bene o male con numeretto annesso identifica TUTTE le incarnazioni a partire dalla serie 7000 (se non erro) si ha l'impressione di essere sempre li', ma a vedere le novita di VEGA (sempre GCN) mi pare assai difficile pensare che si parli di semplice evoluzione...poi oh, magari mi sbaglio ed e' una mia impressione e basta eh
Bah non saprei. Comunque AMD non mi pare chiami VEGA GCN ma anzi NCU a riprova che è diversa. Questo stando alle sue slide.
Einhander
04-05-2017, 14:43
No... anche questo è errato. L'architettura alla base della prima CPU Intel Core (Duo o Solo) era l'architettura Pentium M . Questa era quella di 5 o 6 generazione non ricordo. Solo l'architettura successiva fu chiamata effettivamente Core (ed erano solo quelli commercialmente chiamati Core 2 Duo o Quad). Ovviamente le vere nuove architetture che contano nella numerazione sono i Tock.
Quindi se guardiamo le generazioni abbiamo:
11 Skylake
10 Haswell
9 SB
8 Nehalem
7 Core
6 Pentium M
Bah non saprei. Comunque AMD non mi pare chiami VEGA GCN ma anzi NCU a riprova che è diversa. Questo stando alle sue slide.
Mi pareva invece che dalle ultime news fosse stato ripreso il nome GCN, ho capito male? :stordita:
Tra OT su compagni animali, poesie, monitor, vegani ecc ecc ammetto di aver fatto un po' di confusione nel cercare di ordinare le ultime (poche) news su VEGA :asd:
devil_mcry
04-05-2017, 14:44
Il problema è che "architettura" non vuole dire un tubazzo.
Pascal è una nuova architettura rispetto a Maxwell tanto quanto GCN4 lo è rispetto a GCN3, dire che Nvidia fa sempre una nuova architettura è sbagliato.
Si forse un po' di più visto che hanno cambiato completamente lo scheduler ma comunque anche nVidia come Intel ha i suoi Tick e Tock
Maxwell era una nuova architettura rispetto a Kepler che invece derivava dall'architettura superscalare delle GTX460.
Quella stessa architettura formalmente era ancora "Fermi" ma di fatto non aveva molto in comune con quella del GF100 e derivati
Ma rimane il fatto che nelle 4 generazioni di GCN le differenze sono state sempre contenute. Polaris di base è una GCN, Vega no.
devil_mcry
04-05-2017, 14:45
Mi pareva invece che dalle ultime news fosse stato ripreso il nome GCN, ho capito male? :stordita:
Tra OT su compagni animali, poesie, monitor, vegani ecc ecc ammetto di aver fatto un po' di confusione nel cercare di ordinare le ultime (poche) news su VEGA :asd:
Mah sono onesto, io sono rimasto alle ultime slide ufficiali AMD dove le ha presentate come NCU... La cosa di techpowerup era una cazzata dato che GCN 1.3 sarebbe Polaris e quindi GCN 4
Tra parentesi, il problema non sono gli altri, è AMD che con ste schede ha fatto un casino della madonna.
GCN 1 = GCN 1.0
GCN 2 = GCN 1.1
GCN 3 = GCN 1.2 = Togna/Fiji = Pirates Island / Vulcan Island
GCN 4 = GCN 1.3 = Polaris...
Quanti nomi devono dare alla stessa cosa?
devil_mcry
04-05-2017, 14:51
boh... questo non lo sappiamo ancora.
Secondo le loro slide parrebbe di no, ma sarà vero o è solo marketing?
Lo scopriremo presto... forse :asd:
Beh, GCN non è che è scritto nel silicio XD è un nome che era uscito dalle Slide
L'architettura la valuti solo dal diagramma a blocchi e dal nome che gli hanno dato, che è tutto marketing perché come sono davvero fatte mica lo dicono :D
Einhander
04-05-2017, 15:04
Senti, io ho capito quello che volevi dire tu con "Polaris di base è una GCN, Vega no.", cerca di capire anche tu cosa volevo dire io.
Tu volevi dire che Vega è molto diverso da Polaris, anche se si chiama ancora GCN sulle slide.
Io volevo dire che ancora non lo sappiamo se è diverso, dai nomi dei blocchetti sulle slide sembrerebbe ma potrebbe essere solo marketing :D
Palla al centrocampo?
:sofico:
Gyammy85
04-05-2017, 15:36
http://wccftech.com/tech-secrets-nvidia-amd-tsmc-stolen/
Ok ragazzi, ora che l'architettura di Pascal è stata trafugata è tutto più chiaro:
dietro il furto c'è sicuramente AMD, Vega sarà infatti un copia-incolla di Pascal quindi avranno esattamente le stesse prestazioni. AMD le venderà a meno di nVidia ma comunque la gente, nonostante le schede siano uguali, comprerà comunque verde e finalmente AMD fallirà!
:asd:
No, fallirebbe nvidia
i fan nvidia non esistono, sono un'invenzione dei fan amd :O
Gyammy85
04-05-2017, 15:40
Senti, io ho capito quello che volevi dire tu con "Polaris di base è una GCN, Vega no.", cerca di capire anche tu cosa volevo dire io.
Tu volevi dire che Vega è molto diverso da Polaris, anche se si chiama ancora GCN sulle slide.
Io volevo dire che ancora non lo sappiamo se è diverso, dai nomi dei blocchetti sulle slide sembrerebbe ma potrebbe essere solo marketing :D
Che poi a gennaio hanno fatto vedere le migliorie ma non hanno parlato di architettura completamente nuova (ncu, maggiore ipc, hbc, ecc.)
Hynix attualmente ha a listino solo le 400MHz (in stack 4hi, quindi da 4GB). Non è detto che non abbia special bin a 500MHz per clienti specifici, ovviamente, ma le 400MHz le ha di sicuro se le mette a listino come unico SKU, e se AMD si serve da loro è anche possibile che monti le 400MHz su tutte le proprie SKU.
Possibile, anche se però la banda target delle hbm2 con trasferimento a 2 GT/s mantenendo il bus a 1024bit è di 256gb, e quella banda l'ottieni solo con 500mhz di frequenza. Stack da 400mhz avrebbero una banda da 200gb al secondo, che se messe in coppia vorrebbe dire avere una banda totale da 400gb che sarebbe più che adeguata per una vga da 350€.
Sulle top, dubito che vega full sia cosi ottimizzato da perdersi 156gb di banda mettendo memorie da 400mhz.
Vedremo all'uscita.
mikael84
04-05-2017, 16:11
i CC negli SM e quindi nei GPC sono organizzati in modo diverso e di conseguenza hanno forme geometriche diverse si vede nei die shot del gk110 vs gp102, anche perché gk110 aveva la DP come GP100 e SM è rettangolare mentre in GP102 è quadrato come GP104, ecc:
gk110 192cc/SM x3 → 576cc/GPC x5 → 2880cc 384 bit 48 rops (TB)
gm200 128cc/SM x4 → 512cc/GPC x6 → 3072cc 384 bit 96 rops (TX)
gp102 128cc/SM x5 → 640cc/GPC x6 → 3840cc 384 bit 96 rops (TXP)
ma cos'è una gara a chi ce l'ha più lungo? :sofico: non partecipo nemmeno guarda, non se assolutamente quanto te, ma io sto dicendo un'altra cosa e rigiri quello che voglio dire: ad esempio è adattato a 5 GPC per quale motivo secondo te? hai visto la forma dei GPC?
Intel a parte, che produce lei silicio, non esistono Die troppo lunghi su un lato perché questo spreca spazio sul wafer http://www.silicon-edge.co.uk/j/index.php/resources/die-per-wafer crea un die da 275mmq con rapporto 3:1 base*altezza 31*9 mm sul wafer da 300mm e ti escono 198 pezzi, creane uno sempre da 275mmq con rapporto 1:1 base*altezza 16*17 mm sul wafer da 300mm e ti escono 212 pezzi... +7% , è poco o tanto non saprei chiediamolo ad nvidia o amd :D
se vuoi fare una 1070 nativa 256bit dovresti fare il Die così, 31*9 mm perché devi affiancare i 3 GPC, e non si è mai visto, ma anche se la fai a 192bit ti cambierebbe poco a livello di spazio necessario, dovresti posizionare sempre sul lato lungo gli IMC gddr o i vari I/O (vedi GP106) e per quello il Teorico 235mmq non è corretto sia per il fatto che a 192bit non sarebbe più una 1070 ma una 1070LE o 1060Ti, chiamala come preferisci, riducendo quindi il vantaggio su P10 e sia perché non sarebbe fattibile a livello pratico di geometria.
---
non ho capito la parte in grassetto su Vega cosa intendi? :)
Ma tranquillo, figurati se ce l'ho con te.:)
Dicevo che Kepler è organizzato in maniera tale per essere scritto con 5 GPC più collegamento (la DP è integrata nel WP 2). Questo si potrebbe fare anche con la 1070.
Certamente come ben dici, perderebbe il bus, e se volessi aumentare il bus, oltre a riprogettarla dovresti fare un collegamento per i 256bit, quindi arrivi sempre a 270mmq2.:)
Tralasciamo questo cmq che siamo OT.
Su Vega, per 48 rop's dovresti disabilitare un back-end (3 back-end su 4) su 4, quindi dovresti fare un cut su stesso die (tanta spesa).
Un raster è sempre da 16 rop's.
Quindi se crei un modello cut a parte, o fai raster da 8 pixel o da 16 pixel (come Vega-fury):)
Gyammy85
04-05-2017, 17:01
ah ok capito, però secondo me voleva dire che per lui ci saranno 3 SKU basati sullo stesso Die/Core dovuto alle rese/binning e da li fai i Cut, ad esempio:
3SE 48rops 48CU alto clock ~1070
4SE 64rops 56CU medio clock ~1080
4SE 64rops 64CU alto clock ~1080ti
Secondo me più di due versioni non fanno...
dal post di Tuttodigitale nella news di oggi...
https://hardwaresfera.com/wp-content/uploads/2017/05/amd-687c1-gpu.jpg
È sbagliatissima, la 1080ti non è su Windows
Gyammy85
04-05-2017, 17:08
È sbagliatissima, la 1080ti non è su Windows
Comunque va abbastanza di più della 1080, quindi per logica almeno quanto una 1080ti se non di più
Gyammy85
04-05-2017, 17:09
cioè?
La valutazione della commissione d'inchiesta è FAKE
try again
cioè?
Ne abbiamo parlato ieri, prova a cercare indietro nelle pagine.. Non lo trovo dal Cell, troppe pagine di roba inutile lol
687f:c1 vs 1080ti
https://compubench.com/compare.jsp?benchmark=compu15d&did1=45270653&os1=Windows&api1=cl&hwtype1=dGPU&hwname1=AMD+687F%3AC1&did2=46884232&os2=Windows&api2=cl&hwtype2=dGPU&hwname2=NVIDIA+GeForce+GTX+1080+Ti
Questi
Ah boh, presumo la full.
PS: 687f:c1 vs 1080
https://compubench.com/compare.jsp?benchmark=compu15d&did1=45270653&os1=Windows&api1=cl&hwtype1=dGPU&hwname1=AMD+687F%3AC1&did2=33974771&os2=Windows&api2=cl&hwtype2=dGPU&hwname2=NVIDIA+GeForce+GTX+1080
Gyammy85
04-05-2017, 17:15
Ne abbiamo parlato ieri, prova a cercare indietro nelle pagine.. Non lo trovo dal Cell, troppe pagine di roba inutile lol
A me sembra che scala in proporzione con la 1080, non è che va il triplo su windows...
PS non hai più il logo vega? stai per capitolare anche tu? :fagiano:
Edit ho visto ora...comunque sono ottimi risultati dato che sono sempre a 1200 coi driver non ottimizzati
mikael84
04-05-2017, 17:16
ah ok capito, però secondo me voleva dire che per lui ci saranno 3 SKU basati sullo stesso Die/Core dovuto alle rese/binning e da li fai i Cut, ad esempio:
3SE 48rops 48CU alto clock ~1070
4SE 64rops 56CU medio clock ~1080
4SE 64rops 64CU alto clock ~1080ti
Disabilitare tutto un back-end è un bel casotto, devono esserci proprio chip fallati.:sofico:
Questo potrebbe portare problemi anche al sottosistema cache.
A pare mio vedremmo due chip diversi, magari simili ma con meno CU e rop's.
Le HBM possono anche settarle a meno clock in questo caso (360gb/s).
E' tutta una supposizione chiaramente.:)
Secondo me più di due versioni non fanno...
Anche secondo me.:)
dal post di Tuttodigitale nella news di oggi...
https://hardwaresfera.com/wp-content/uploads/2017/05/amd-687c1-gpu.jpg
Sono Open gl, però in alcuni test ho visto delle buone migliorie, anche se purtroppo non sono comprarabili in ambienti gaming.:)
http://images.anandtech.com/graphs/graph9390/75491.png
Disabilitare tutto un back-end è un bel casotto, devono esserci proprio chip fallati.:sofico:
Questo potrebbe portare problemi anche al sottosistema cache.
A pare mio vedremmo due chip diversi, magari simili ma con meno CU e rop's.
Le HBM possono anche settarle a meno clock in questo caso (360gb/s).
E' tutta una supposizione chiaramente.:)
Anche secondo me.:)
Sono Open gl, però in alcuni test ho visto delle buone migliorie, anche se purtroppo non sono comprarabili in ambienti gaming.:)
http://images.anandtech.com/graphs/graph9390/75491.png
In quella tabella la 1080ti è pure in Os x e non su Windows, guarda il mio link sopra
A me sembra che scala in proporzione con la 1080, non è che va il triplo su windows...
PS non hai più il logo vega? stai per capitolare anche tu? :fagiano:
Edit ho visto ora...comunque sono ottimi risultati dato che sono sempre a 1200 coi driver non ottimizzati
Compro una bella titan Xp guarda..
A parte gli scherzi, preferisco qualcosa di nuovo, quindi o vega(con prestazioni come dio comanda.. dopo un anno mi sembra il minimo) oppure mi metto l'anima in pace e aspetto pazientemente volta.
Io compro la 1080ti di Ale55andr0 quando la vende per passare a vega :asd:
La FE, chi te lo fa fare lol
La FE, chi te lo fa fare lol
Dipende dal prezzo!... :O
Dipende dal prezzo!... :O
Quello sicuro XD
Dark_Lupin
04-05-2017, 18:52
su oc.net ci sono riferimenti di un ipotetico fine NDA l'8 Maggio con conseguente lancio/presentazione il 9 Maggio
che sia la volta buona? :p
dalla slide postata (Fake?) in Doom supera anche la 1080 Ti
edit. pardon supera la Titan Xp non la 1080 Ti
su oc.net ci sono riferimenti di un ipotetico fine NDA l'8 Maggio con conseguente lancio/presentazione il 9 Maggio
che sia la volta buona? :p
dalla slide postata (Fake?) in Doom supera anche la 1080 Ti
edit. pardon supera la Titan Xp non la 1080 Ti
Quella creata da un utente di wccftech con il watermark finissimo di chiphell?
Sì, è fake.
Gyammy85
04-05-2017, 19:04
su oc.net ci sono riferimenti di un ipotetico fine NDA l'8 Maggio con conseguente lancio/presentazione il 9 Maggio
che sia la volta buona? :p
dalla slide postata (Fake?) in Doom supera anche la 1080 Ti
edit. pardon supera la Titan Xp non la 1080 Ti
Non conosci la regola aurea del thread
Se va bene, è FAKE.
Dark_Lupin
04-05-2017, 19:06
Quella creata da un utente di wccftech con il watermark finissimo di chiphell?
Sì, è fake.
proprio quella :stordita:
Non conosci la regola aurea del thread
Se va bene, è FAKE.
Se è fake che ci posso fare lol?
Mi piacerebbe fosse vera, ma è fake e va detto.
Lui intende questa:
https://uploads.tapatalk-cdn.com/20170504/755b1574d8fcf7b7866927578cbd7885.jpg
Roland74Fun
04-05-2017, 19:09
edit. pardon supera la Titan Xp non la 1080 Ti
Quindi in sostanza è un FAIL?
Meglio così la venderanno a 90 euro...
fraussantin
04-05-2017, 19:30
Quindi in sostanza è un FAIL?
Meglio così la venderanno a 90 euro...
Di certo se è vera non te la regaleranno.
Ps ma se vega andasse come una titan xp o forse meglio e sarà prezzata 800 euro quanti di voi la comprerebbero?
LurenZ87
04-05-2017, 19:46
Di certo se è vera non te la regaleranno.
Ps ma se vega andasse come una titan xp o forse meglio e sarà prezzata 800 euro quanti di voi la comprerebbero?
Presente.
Inviato dal mio SM-G930F utilizzando Tapatalk
Dark_Lupin
04-05-2017, 20:01
Quindi in sostanza è un FAIL?
Meglio così la venderanno a 90 euro...
Fail al 100% :D
cioè non arriva nemmeno a 144hz... :nonsifa:
Ultra mega Fail, di questo passo Amd fallisce prima di domani :D
Gyammy85
04-05-2017, 20:09
Fail al 100% :D
cioè non arriva nemmeno a 144hz... :nonsifa:
Ultra mega Fail, di questo passo Amd fallisce prima di domani :D
Almeno cenerentola si è divertita prima di mezzanotte...:(
ma se vega andasse come una titan xp o forse meglio e sarà prezzata 800 euro quanti di voi la comprerebbero?
http://i.imgur.com/IBax3Yf.gif
LurenZ87
04-05-2017, 20:25
http://i.imgur.com/IBax3Yf.gif
:rotfl: :rotfl: :rotfl:
Chi siamo noi????!!!!! Amd fanboyyyy!!!!! E cosa vogliamo????!!!! Vega!!!!!!!!! :asd:
Chi siamo noi????!!!!! Amd fanboyyyy!!!!! E cosa vogliamo????!!!! Vega!!!!!!!!! :asd:
La rispolvero... un sempreverde, uno dei miei lavori preferiti! :O
http://i.imgur.com/oY9FF8m.png
(è di un anno fa... quando ancora si pensava che Vega uscisse al posto di Polaris) :asd:
LurenZ87
04-05-2017, 20:38
Chi siamo noi????!!!!! Amd fanboyyyy!!!!! E cosa vogliamo????!!!! Vega!!!!!!!!! :asd:
Semmai uscirà...
Nel frattempo mi sono innamorato della EVGA GTX 1080Ti FTW3, nel caso Vega si rivelasse un fiasco, so cosa comprare :)
Inviato dal mio SM-G930F utilizzando Tapatalk
Gyammy85
04-05-2017, 20:44
Semmai uscirà...
Nel frattempo mi sono innamorato della EVGA GTX 1080Ti FTW3, nel caso Vega si rivelasse un fiasco, so cosa comprare :)
Inviato dal mio SM-G930F utilizzando Tapatalk
O vega BFE
(Biggest Fail Evarrrrr)
Semmai uscirà...
Nel frattempo mi sono innamorato della EVGA GTX 1080Ti FTW3, nel caso Vega si rivelasse un fiasco, so cosa comprare :)
Inviato dal mio SM-G930F utilizzando Tapatalk
Beh, è stupenda.. perfino a gnammy piace sebbene sia only verde
Gyammy85
04-05-2017, 20:47
Beh, è stupenda.. perfino a gnammy piace sebbene sia only verde
:eek: :banned:
C'è da dire che evga fa cose stupende.
Vero evga=vega
Vero evga=vega
C'era stato tempo fa un rumor di evga con AMD..
Smentito brutalmente RIP
Cicciogamer89 dice la sua su Vega
https://youtu.be/eTOoRxkfEIE
fraussantin
04-05-2017, 21:29
Cicciogamer89 dice la sua su Vega
https://youtu.be/eTOoRxkfEIE
Non è cicco gamer. È un tarocco.
Il vero è lui
https://uploads.tapatalk-cdn.com/20170504/440f82f75e2adf05db4bac01edc2b1ba.gif
Il lato positvo è che se ha azzeccato i bench simulati è finita l'era GTA5 :asd:
https://s26.postimg.org/ur9ra9wix/Immagine.png
Da punto di riferimento della videogiocanza mondiale verrà degradato a techdemo AMD :rotfl:
Se mai succedesse una cosa del genere, stranamente sparirebbe dai bench.. Quello sicuro.
Scandaloso comunque, gioco uscito per ps3 e Xbox 360 ANCORA testato nel 2017.. 😱
deadbeef
04-05-2017, 21:49
ricordate che c'è sempre The Witcher 3 da tirare fuori al momento del bisogno, maxxxato ultra ovviamente
ricordate che c'è sempre The Witcher 3 da tirare fuori al momento del bisogno, maxxxato ultra ovviamente
Almeno quello un minimo di senso lo ha con l'ultimo espansione di un anno fa.
Ma GTA, basta dio santo 😷
ricordate che c'è sempre The Witcher 3 da tirare fuori al momento del bisogno, maxxxato ultra ovviamente
Rigorosamente hairworks off :O
E crysis 3?
Etimologia informatica, che passione 😂
Inviato dal mio Nexus 5X utilizzando Tapatalk
Rigorosamente hairworks off :O
E crysis 3?
La crytek è fallita nel frattempo e alcuni ancora lo usano nei bench, legit, gioco del 2013 eh.
C'è da dire che scala benissimo comunque sia nei core.che con sli/CF di sorta.
Rimane un gioco di quattro anni fa però.
Roland74Fun
04-05-2017, 23:08
Il lato positvo è che se ha azzeccato i bench simulati è finita l'era GTA5 :asd:
........
Da punto di riferimento della videogiocanza mondiale verrà degradato a techdemo AMD :rotfl:
È è UNA STRUNZAT... nessun processore potentissimo con nessuna scheda video singola od in multi, nemmeno ad 800 x 480 riesce a superare il muro dei 50 FPS nella zona di sandy shores....
Se è fatta a sandy shores sicuramente era in prima persona colla faccia attaccata al muro.
Domani mi metto a spacciare slide pure io.
Finalmente prey, primo titolo per AMD dopo la partn..
Oh waithttps://uploads.tapatalk-cdn.com/20170504/87a5f3519c10a0b0ac8c7d5871b30816.jpg
https://www.techpowerup.com/reviews/Performance_Analysis/Prey/
Gyammy85
05-05-2017, 06:37
Mi sembra strano comunque, in super anteprima, neanche gamegpu ha ancora la review del gioco...aspetterei altri pareri
Mi sembra strano comunque, in super anteprima, neanche gamegpu ha ancora la review del gioco...aspetterei altri pareri
La 970 va meglio della 480.
Bella partnership 😏
Gyammy85
05-05-2017, 06:55
La 970 va meglio della 480.
Bella partnership 😏
A volte non vuol dire automaticamente che va meglio, anche re7 è Nvidia ma le amd girano meglio...poi ripeto è l'unica review per ora, ma non preoccuparti, uscirà una patch dx12-vulkan e da punta di diamante del trollaggio contro amd ritornerà texhdemoamdshitt, come doom. :)
devil_mcry
05-05-2017, 07:28
Io domani prendo Prey. Giuro che se non mi fa 190 FPS sulla 1080 senza problemi di frametime e altro in stile Dishonored 2 mando una mail di insulti lol
devil_mcry
05-05-2017, 07:29
A volte non vuol dire automaticamente che va meglio, anche re7 è Nvidia ma le amd girano meglio...poi ripeto è l'unica review per ora, ma non preoccuparti, uscirà una patch dx12-vulkan e da punta di diamante del trollaggio contro amd ritornerà texhdemoamdshitt, come doom. :)
Non credo, quel motore grafico dovrebbe essere sempre il Void basato su l'IdTech5, non il 6. Però è un miracolo che visto cosa hanno combinato con D2. Poi comunque è un motore OpenGL una patch DX12 è impossibile XD
Gyammy85
05-05-2017, 07:34
Non credo, quel motore grafico dovrebbe essere sempre il Void basato su l'IdTech5, non il 6. Però è un miracolo che visto cosa hanno combinato con D2. Poi comunque è un motore OpenGL una patch DX12 è impossibile XD
Su tpu dicono che è dx11
fraussantin
05-05-2017, 07:36
Io domani prendo Prey. Giuro che se non mi fa 190 FPS sulla 1080 senza problemi di frametime e altro in stile Dishonored 2 mando una mail di insulti lol
Lol
Gyammy85
05-05-2017, 08:05
bella sta partnership :sofico:
Vediamo che dice guru3d, ancora la rece non c'è
Gyammy85
05-05-2017, 08:12
Si ma forse vi dimenticate che è Bethesda? :asd:
A me sa tanto di periodo pre patch vulkan per doom
Comunque a me non convince il fatto che tpu lo abbia recensito così in anticipo rispetto agli altri, pure di gamegpu...
LurenZ87
05-05-2017, 08:22
Si vede che a nessuno di voi piace leggere...
Da TechPowerUp!
"Unike their previous title (Dishonored 2), which used Void engine (based on id's Rage engine), Arkane Studios has opted for Crytek's CryEngine, using a DirectX 11 render path. Reason for the two different engines seems to be that one game was developed by Arkane's Lyon division and the other by the Austin TX division."
Inviato dal mio SM-G930F utilizzando Tapatalk
Gyammy85
05-05-2017, 08:28
Da un commento su steam:
24 fps con una 1080? siete seri?
Amd damagecontrol!!11!!!!11!!!!:eek: :eek:
Gyammy85
05-05-2017, 08:30
quindi?
Quindi non è OpenGL, quindi è new technology, best graphicsevarrrr, almeno fino alla patch o recensione più ragionata, poi techdemoshitt
Free Gordon
05-05-2017, 08:30
http://wccftech.com/tech-secrets-nvidia-amd-tsmc-stolen/
Ok ragazzi, ora che l'architettura di Pascal è stata trafugata è tutto più chiaro:
dietro il furto c'è sicuramente AMD, Vega sarà infatti un copia-incolla di Pascal quindi avranno esattamente le stesse prestazioni. AMD le venderà a meno di nVidia ma comunque la gente, nonostante le schede siano uguali, comprerà comunque verde e finalmente AMD fallirà! :asd:
:rotfl:
devil_mcry
05-05-2017, 08:40
Si vede che a nessuno di voi piace leggere...
Da TechPowerUp!
"Unike their previous title (Dishonored 2), which used Void engine (based on id's Rage engine), Arkane Studios has opted for Crytek's CryEngine, using a DirectX 11 render path. Reason for the two different engines seems to be that one game was developed by Arkane's Lyon division and the other by the Austin TX division."
Inviato dal mio SM-G930F utilizzando Tapatalk
In effetti non avevo letto ma perché davo per scontato che usassero le tecnologie Id visto che se la sono comprata.
quindi?
Quindi usa il motore grafico di Crysis per dire e non i motori OpenGL di Id Software. Tra l'altro il Void era basato sul IdTech 5 e non il 6 quindi nemmeno Vulkan sarebbe stato sfruttabile e non è un gioco DX12.
Non dice quale versione sia ma il CrytekEngine 5 (DX12) è uscito solo ad Agosto 2016 questo gioco non credo lo abbia... ha la versione 4 probabilmente
Ale55andr0
05-05-2017, 09:04
quindi?
Quuindi è chiaramente ottimizzato per vega, han ben detto di prepararsi :O
A proposito, oggi according to ryddyck snoccioleranno notizie in merito (:stordita:). Cmq fortuna che non tengo il thread in ostaggio anymore...finalmente si sono potute leggere pagine e pagine perfettamente it (a parte le pagine di disamina del layout dei chip nvidia fra le altre cose) e senza più aemmedìfailate trollollose (a parte le volte in cui le han fatte). Torno nel loculo :O
devil_mcry
05-05-2017, 09:04
ah capito quindi vecchio di 4 anni... mah... però la partnership che la fai a fare? senza sarebbe andato ancora peggio magari :D
Si probabilmente è quello del 2013 per le console attuali
Per il resto io credo siano stati presi in contropiede da D2, nel senso avrebbero voluto usare una evoluzione del Void ma io D2 l'ho giocato pure con la 1080 senza esagerare con i settings dava problemi a 1080p di frametime...
A proposito, oggi according to ryddyck snoccioleranno notizie in merito (:stordita:).
Rileggi perché non ho scritto questo :asd:
majinbu7
05-05-2017, 10:44
La rispolvero... un sempreverde, uno dei miei lavori preferiti! :O
http://i.imgur.com/oY9FF8m.png
(è di un anno fa... quando ancora si pensava che Vega uscisse al posto di Polaris) :asd:
Giuro mi hai fatto ribaltare dalle risate :asd:
Edita subito, c'e' un bench in cui la Fury va come la 1070, arriva l'armata!
Se su prey che è ottimizzato AMD la fury X che ultimamente aveva le prestazioni circa come la 1070, qui sta sotto del 20% in fullHD e del 10% in 1440p e 4k , annamo bene :fagiano:
Speriamo davvero Vega sia un copia incolla di pascal allora :asd:
Gyammy85
05-05-2017, 11:51
Quuindi è chiaramente ottimizzato per vega, han ben detto di prepararsi :O
A proposito, oggi according to ryddyck snoccioleranno notizie in merito (:stordita:). Cmq fortuna che non tengo il thread in ostaggio anymore...finalmente si sono potute leggere pagine e pagine perfettamente it (a parte le pagine di disamina del layout dei chip nvidia fra le altre cose) e senza più aemmedìfailate trollollose (a parte le volte in cui le han fatte). Torno nel loculo :O
No dai, non fare come i veterani della green army, che arrivano un volta l'anno per vantarsi del loro acquisto powa, poi quando il gioco va meglio su amd vieni a dire e vabbè ma è una techdemo amd ed è pure brutta
No dai, non fare come i veterani della green army, che arrivano un volta l'anno per vantarsi del loro acquisto powa, poi quando il gioco va meglio su amd vieni a dire e vabbè ma è una techdemo amd ed è pure brutta
E poi si sa che non contano gli fps max ma il sacro fluido :O
Gyammy85
05-05-2017, 12:00
Altra review
http://gamegpu.com/action-/-fps-/-tps/prey-test-gpu
LurenZ87
05-05-2017, 12:14
Altra review
http://gamegpu.com/action-/-fps-/-tps/prey-test-gpu
Strano, in 4k la X, la 980Ti e la 1070 vanno a braccetto, mentre la 1080Ti vola (che spettacolo di vga).
Davvero ragazzi, vi aspettavate in andamento diverso???
Inviato dal mio SM-G930F utilizzando Tapatalk
Gyammy85
05-05-2017, 12:15
gamegpu non vale ti è stato già detto più e più volte! :D
che poi all'atto pratico sono quelli che fanno i test più particolari e complessi... effettivamente sono gli unici dove le amd vanno di solito meglio, c'è anche da dire che le amd se ben configurate piuttosto che lanciate nel case ed installate, rendono meglio (e passando dalla furyx alla 1080 su molti giochi mi aspettavo grosse differenze anche in fhd ed invece un pò sotto le aspettative....)
Ma scherzi?? la 1080 va il triplo e nelle techdemo amd il doppio, sei sicuro di non avere i driver della tnt2 ultra? :eek:
Io mi aspettavo girasse in vulkan a dir la verità, invece gira in dx11...mi immagino già la shitstorm se avessero fatto una ottimizzazione mirata a danneggiare le altre schede come spesso fa nvidia, tipo una review dove la furyx andava quanto la 1080...giù analisi FCAT, stutter a manetta, gente che si fionda sullo store a prendere gta5...invece così tutto a posto, non c'è bisogno di versioni nvidia approved come i vari metro e quantum break, il gioco si fa un'ottima pubblicità (guarda le amd FAIL optimized quanto vanno male, prendilo fai bella figura su youtube) e si scrolla di dosso il marchio infamante di techdemo...ovviamente fino a quando qualcuno non si azzarderà a fare qualche patch vulkan o dx12, nel qual caso...
Ale55andr0
05-05-2017, 12:18
Rileggi perché non ho scritto questo :asd:
Tsk tsk...ok non hai usato testuali parole ma hai lasciato intendere tipo "volete che non mostrino nulla il giorno del lancio di prey?" Or something like that e, dal momento che hai parlato come se sapessi certe cosucce...anzi.. non dimentichiamo la vega cut a 379 msrp okay? :O quella sul 5 maggio te la condono dai :O :D
Gyammy85
05-05-2017, 12:23
Tsk tsk...ok non hai usato testuali parole ma hai lasciato intendere tipo "volete che non mostrino nulla il giorno del lancio di prey?" Or something like that e, dal momento che hai parlato come se sapessi certe cosucce...anzi.. non dimentichiamo la vega cut a 379 msrp okay? :O quella sul 5 maggio te la condono dai :O :D
Dai su, fa il tuo dovere e giocatelo tutto al dayone, posta qui screen e grafici di FCAT, ma fallo subito, prima che esca qualche patch dx12
Legolas84
05-05-2017, 12:24
Si perché in dx12 le AMD hanno un frametime fantastico :asd:
Inviato dal mio iPhone utilizzando Tapatalk Pro
Gyammy85
05-05-2017, 12:26
Si perché in dx12 le AMD hanno un frametime fantastico :asd:
Inviato dal mio iPhone utilizzando Tapatalk Pro
Pensa che quando uscirà volta sarai costretto a giocarci in dx12 :eek:
Legolas84
05-05-2017, 12:28
Pensa che quando uscirà volta sarai costretto a giocarci in dx12 :eek:
In dx 12 già ora le NVIDIA hanno un frametime identico a quello in dx11, il problema è solo di AMD...
Inviato dal mio iPhone utilizzando Tapatalk Pro
deadbeef
05-05-2017, 12:30
sta uscendo l'equivalente FCAT fatto da AMD, il problema verrà risolto alla fonte taroccando i risultati :O
Tsk tsk...ok non hai usato testuali parole ma hai lasciato intendere tipo "volete che non mostrino nulla il giorno del lancio di prey?" Or something like that e, dal momento che hai parlato come se sapessi certe cosucce...anzi.. non dimentichiamo la vega cut a 379 msrp okay? :O quella sul 5 maggio te la condono dai :O :D
A quanto pare ti piace la libera interpretazione :ciapet:
Gyammy85
05-05-2017, 12:33
In dx 12 già ora le NVIDIA hanno un frametime identico a quello in dx11, il problema è solo di AMD...
Inviato dal mio iPhone utilizzando Tapatalk Pro
Ma guarda un po', non me lo sarei mai aspettato :asd:
Dai su, chiudiamo in bellezza fra qualche minuto con l'uomo ragno, e poi si torna a platinare :fagiano:
deadbeef
05-05-2017, 12:36
perdonate l'ignoranza, ma dove posso leggere di questi problemi che avrebbe AMD in dx12 ?
perdonate l'ignoranza, ma dove posso leggere di questi problemi che avrebbe AMD in dx12 ?
semplice
fai una riga fissa a 50ms
così hanno detto i guru :O
raaaaauuuuuuuuuulllllllllllllllllllll
p.s. titoli dx12 decenti nn ce ne sono ma se serve per spalare merda su amd allora attenti alle dx12 :asd::asd::asd::asd:
Ale55andr0
05-05-2017, 12:44
A quanto pare ti piace la libera interpretazione :ciapet:
In altre parole niente veghina a 379? :stordita:
In dx 12 già ora le NVIDIA hanno un frametime identico a quello in dx11, il problema è solo di AMD...
Inviato dal mio iPhone utilizzando Tapatalk Pro
Ma quando mai?
C'è un estesa recensione in dx12/vulkan/dx11 su techpowerup (guru3d pardon) che riguarda i frame time su 15 giochi circa fra 480 e 1060 ed entrambe avevano frametime eccellenti su tutti i titoli.
http://www.guru3d.com/articles-pages/radeon-rx-480-vs-gtx-1060-fcat-frametime-analysis-review,1.html
Quanto vi piace sparare c***ate senza fornire manco un briciolo di fonte.
Gyammy85
05-05-2017, 12:54
Ma quando mai?
C'è un estesa recensione in dx12/vulkan/dx11 su techpowerup che riguarda i frame time su 15 giochi circa fra 480 e 1060 ed entrambe avevano frametime eccellenti su tutti i titoli.
Shhh...falli sfogare...se no ce li sorbiamo per pagine e pagine...
HadesSaint
05-05-2017, 12:55
Altra review
http://gamegpu.com/action-/-fps-/-tps/prey-test-gpu
La mia 290 special edition Oc ECC asfaltata da una RX480?? Naaa non ci credo anche se li la 290 sarà modello reference e la 480 è 8Gb
Gyammy85
05-05-2017, 12:59
La mia 290 special edition Oc ECC asfaltata da una RX480?? Naaa non ci credo anche se li la 290 sarà modello reference e la 480 è 8Gb
Ma li son tutte reference, io spero di vedere la 580 nella review di guru3d
devil_mcry
05-05-2017, 13:00
Posso fare una riflessione che mi costerà la reputazione?
Invece di segarsi su chi fa 5fps in più o in meno io osserverei che su carta almeno questa volta le performance sono buone. Dishonored 2 era davvero un chiodo in culo...
HadesSaint
05-05-2017, 13:02
Ma li son tutte reference, io spero di vedere la 580 nella review di guru3d
Si sì ma vedere che una GPU di 3 anni spinge di fps fa capire molte cose!!! Bust buy :):):) onorato di averla ancora come "motore video" dentro al case!! Un po' come avere il Ferrari sotto al culo
Gyammy85
05-05-2017, 13:03
Posso fare una riflessione che mi costerà la reputazione?
Invece di segarsi su chi fa 5fps in più o in meno io osserverei che su carta almeno questa volta le performance sono buone. Dishonored 2 era davvero un chiodo in culo...
Le prestazioni sono quasi allineate, con un motore grafico che gira al meglio su nvidia tradizionalmente...ma qui si aspettava la 480 andare più della titan, per cominciare a dire amd mazzettarafail
In altre parole niente veghina a 379? :stordita:
Quindi adesso ti interessa vega a 379 pur avendo comprato la 1080ti?
Ryddyck sputa il rospo che mi sono dovuto guardare le ultime pagine di solite fregnacce :D per cercare se avessi postato qualcosa :asd:
Legolas84
05-05-2017, 13:28
Ma quando mai?
C'è un estesa recensione in dx12/vulkan/dx11 su techpowerup (guru3d pardon) che riguarda i frame time su 15 giochi circa fra 480 e 1060 ed entrambe avevano frametime eccellenti su tutti i titoli.
http://www.guru3d.com/articles-pages/radeon-rx-480-vs-gtx-1060-fcat-frametime-analysis-review,1.html
Quanto vi piace sparare c***ate senza fornire manco un briciolo di fonte.
Sisi certo dico un sacco di stupidaggini senza fonte :asd:
http://www.guru3d.com/articles_pages/msi_radeon_rx_580_gaming_x_review,28.html
:asd:
È dura, quando si deve sempre per forza giustificare AMD e cercare di convincere gli altri che questa società detiene le migliori soluzioni tecnologiche in ambito grafico :asd:
Dai vai avanti tira fuori qualcos'altro :asd:
Inviato dal mio iPhone utilizzando Tapatalk Pro
AkiraFudo
05-05-2017, 13:43
https://s4.postimg.org/eym5zzizh/387d513034f8cd60c9151565ce0dd01d.jpg
commenti sull'FCAT su guru3d sulla 580 che pero' sfuggono a hulk:
"Overall though these are minor glitches and the plot line is very steady. At the end what you see is a scene change, it is not an anomaly."
The massive spikes are scene changes amd stutters, the 4GB card has a bigger effect in the plot. Despite that looking dramatic, it's nothing worrying as this is mostly game engine related.
Huge spikes above 40 ms to 50 ms can be considered a problem like a stutter or indicate a low frame-rate. In this case these are mortar explosions in the game. So this is game engine related and it happens with ANY graphics card.
Again, the few frame-drops means nothing, it happens with any card from any brand or category. And combined, the cards both perform really well
OvErClOck82
05-05-2017, 13:53
Non distruggergli così le certezze :asd:
Inviato dal mio iPhone utilizzando Tapatalk
majinbu7
05-05-2017, 13:57
Ma scherzi?? la 1080 va il triplo e nelle techdemo amd il doppio, sei sicuro di non avere i driver della tnt2 ultra? :eek:
Io mi aspettavo girasse in vulkan a dir la verità, invece gira in dx11...mi immagino già la shitstorm se avessero fatto una ottimizzazione mirata a danneggiare le altre schede come spesso fa nvidia, tipo una review dove la furyx andava quanto la 1080...giù analisi FCAT, stutter a manetta, gente che si fionda sullo store a prendere gta5...invece così tutto a posto, non c'è bisogno di versioni nvidia approved come i vari metro e quantum break, il gioco si fa un'ottima pubblicità (guarda le amd FAIL optimized quanto vanno male, prendilo fai bella figura su youtube) e si scrolla di dosso il marchio infamante di techdemo...ovviamente fino a quando qualcuno non si azzarderà a fare qualche patch vulkan o dx12, nel qual caso...
Ma in quale recensione avresti visto la fury X andare quanto una 1080?
Sei ancora qui a sparare che la FuryX=gtx 1080?? No perchè ormai con sta favoletta hai anche un pò stufato ;)
La furyX con i progressi che ha fatto negli ultimi mesi ha raggiunto le prestazioni di una 1070 in alcuni giochi , non certo di una 1080 .
deadbeef
05-05-2017, 14:06
commenti sull'FCAT su guru3d sulla 580 che pero' sfuggono a hulk:
letto tutto grazie, mi pare l'ennesimo caso di cherry picking a convenienza
La frase in lingua inglese cherry picking indica una fallacia logica che si esplica nel selezionare le sole prove a sostegno della propria tesi ignorando le prove che la smentiscono. Il cherry picking può essere attuato sia in modo conscio che inconscio, e il più comune esempio di cherry picking è il bias di conferma
Biasi di conferma: È un processo mentale che consiste nel ricercare, selezionare e interpretare informazioni in modo da porre maggiore attenzione, e quindi attribuire maggiore credibilità, a quelle che confermano le proprie convinzioni o ipotesi, e viceversa, ignorare o sminuire informazioni che le contraddicono
Una sintesi molto accurata di come funziona il 95% del forum
Ale55andr0
05-05-2017, 14:13
Quindi adesso ti interessa vega a 379 pur avendo comprato la 1080ti?
No, volevo vedere se ritrattavi pure su quel fronte :ciapet: :D
Ale55andr0
05-05-2017, 14:17
Deve sapere se rosikare o meno :asd:
Ecco il mio rosico: ordine ancora in gestione giusto in tempo per leggere sul thread verde che per 20 euri in meno sullo stesso shop ci sta la zotac custom biventola...ora manco alla FE potete attaccarvi :asd: :p
Dai su non sono del tutto cattivo, la metà "buona" del piccì è rossa...ordinata pure la mamma per il procio...:yeah: in fin dei conti essendo gemelli devo essere ambiguo :O
Ora manca il test di tom's hw col tool proprietario per dimostrare che AMD fa peggio in dx12.
Comunque quei test fcat di guru non li avevo ancora visti. Buono a sapersi!
Ero appunto rimasto ai test fantastici di Toms novella dove hanno usato solo Hitman come esempio, che in dx12 stuttera su entrambi i colori a vedere i grafici. Ma su AMD di più, quindi ha problemi.
Inviato dal mio HTC 10 utilizzando Tapatalk
Roland74Fun
05-05-2017, 14:20
Finalmente il thread riprende ad animarsi. Non si sapeva come fare per tenerlo frizzante.
Io e Gyammy stavamo finendo le cartucce AMD Kill.
Ora potremo tirare un po' il fiato. :) :)
................
Bellissima questa. Me la stampo in A3 e me la appendo sopra il monitor.
https://s4.postimg.org/eym5zzizh/387d513034f8cd60c9151565ce0dd01d.jpg
deadbeef
05-05-2017, 14:21
Io e Gyammy stavamo finendo le cartucce AMD Kill.
vi va bene che Sniper Elite è una tech demo rosso crociata
Ale55andr0
05-05-2017, 14:29
Abbiate fede :O
http://wccftech.com/amd-launches-drivers-prey/
Nelson Muntz
05-05-2017, 14:37
CUT
Vedo che sei passato dal tuo sli di 1080 alla 1080ti singola . Scusa ma non eri tu che avevi la filosofia del "dual gpu xx104" a ogni generazione ? Ne dobbiamo dedurre che lo sli va veramente da schifo ?
Vedo che sei passato dal tuo sli di 1080 alla 1080ti singola . Scusa ma non eri tu che avevi la filosofia del "dual gpu xx104" a ogni generazione ? Ne dobbiamo dedurre che lo sli va veramente da schifo ?
il multigpu è morto, lo ha detto nvidia ma nulla, certi devono comunque riempire il vuoto del loro......case (c'è gente che si è fatta quad sli di titan xp su oc.net che ci vuoi fare, l'enthusiast è enthusiast!)
a 3dmark rulla abbestia però!
Soulbringer
05-05-2017, 14:56
il multigpu è morto, lo ha detto nvidia ma nulla, certi devono comunque riempire il vuoto del loro......case (c'è gente che si è fatta quad sli di titan xp su oc.net che ci vuoi fare, l'enthusiast è enthusiast!)
a 3dmark rulla abbestia però!
Certo che però quando vedi il punteggio del 3D mark andare in overflow dev'essere una bella soddisfazione aver speso tutti quei soldi!
Dark_Lord
05-05-2017, 15:01
io ho avuto anni fa dual gpu su singola scheda, la 3870x2 e la 4870x2, e... mi è bastato, ricordo parecchi casini con i driver, e giochi che spesso avevano glitch grafici, da allora solo single gpu.
letto tutto grazie, mi pare l'ennesimo caso di cherry picking a convenienza
La frase in lingua inglese cherry picking indica una fallacia logica che si esplica nel selezionare le sole prove a sostegno della propria tesi ignorando le prove che la smentiscono. Il cherry picking può essere attuato sia in modo conscio che inconscio, e il più comune esempio di cherry picking è il bias di conferma
Biasi di conferma: È un processo mentale che consiste nel ricercare, selezionare e interpretare informazioni in modo da porre maggiore attenzione, e quindi attribuire maggiore credibilità, a quelle che confermano le proprie convinzioni o ipotesi, e viceversa, ignorare o sminuire informazioni che le contraddicono
Una sintesi molto accurata di come funziona il 95% del forum
esattamente,
Pero' non capisco cosa si voglia dimostrare e che vantaggi ci siano. Il dover affermare e giustificare (davanti a tutti) le proprie scelte in ambito di acquisti hw? A che pro?
In effetti è figo avere due tre quattro dieci gpu in un case, l'idea è anche intrigante ma poi alla fine bisogna vedere sempre il ritorno di tanti soldi/tempo spesi....anche io ho provato un annetto il cf di tonga, a volte grosse soddisfazioni a volte imprecazioni colorite, nvidia è sempre stata meglio quanto a supporto multigpu fino ad oggi ma si sono arresi pure loro....anche se ogni scelta che fa quell'azienda è per i propri azionisti e per nuove giacche in pelle, sicuramente non per gli utenti (che infatti ringraziano facendo comunque multigpu e giocando nei bit di nvidia inspector per avere un utilizzo al 60%/70% se va bene senza stuttering di titoli che non supportano il multi, amen) e infatti i chipponi uber te li fanno pagare come due vga top di qualche anno fa (sli in hardware :asd: )
il multigpu è morto, lo ha detto nvidia ma nulla, certi devono comunque riempire il vuoto del loro......case (c'è gente che si è fatta quad sli di titan xp su oc.net che ci vuoi fare, l'enthusiast è enthusiast!)
a 3dmark rulla abbestia però!
ormai il multi gpu è efficiacie solo nei grossi data server o simulazioni altamente parallelizzate con codice scritto apposta. (oppure quelli che si so presi le 7950 per farmare cazzicoin e similari).
Ormai anche io da anni sono il single gpu dopo essermi impippato con uno sli di nvidia 6800 , un cf di hd2900 (faceva tanto freddo in stanza), e poi uno di 4850...da li ho capito:D :D :D
Gyammy85
05-05-2017, 15:30
Ma in quale recensione avresti visto la fury X andare quanto una 1080?
Sei ancora qui a sparare che la FuryX=gtx 1080?? No perchè ormai con sta favoletta hai anche un pò stufato ;)
La furyX con i progressi che ha fatto negli ultimi mesi ha raggiunto le prestazioni di una 1070 in alcuni giochi , non certo di una 1080 .
Ma hai letto bene il mio post? mi sa di no...
vi va bene che Sniper Elite è una tech demo rosso crociata
Ci sono anche questi
http://gamegpu.com/rts-/-%D1%81%D1%82%D1%80%D0%B0%D1%82%D0%B5%D0%B3%D0%B8%D0%B8/warhammer-40-000-dawn-of-war-iii-test-gpu
http://gamegpu.com/action-/-fps-/-tps/sniper-ghost-warrior-3-test-gpu
deadbeef
05-05-2017, 15:35
il multigpu è morto, lo ha detto nvidia ma nulla, certi devono comunque riempire il vuoto del loro......case (c'è gente che si è fatta quad sli di titan xp su oc.net che ci vuoi fare, l'enthusiast è enthusiast!)
a 3dmark rulla abbestia però!
secondo me nvidia sta facendo morire il multi gpu perchè ha visto che ci guadagna molto di più vendendo una scheda top piuttosto che due medie
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.