View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™
Che poi non capisco.
sembra che stiamo discutendo tra bambini, e' un'azienda, c'ha i suoi problemi, i suoi tempi, mica siamo a hogwarts con la bacchetta magica
https://s25.postimg.org/8t2e5zulb/AMD_Graphics_Roadmap_Vega_10_GPU.jpg
sgrinfia
12-10-2016, 18:29
Il buco nero, devi considerare il buco nero.
O forse prendere il calibro e misurare che il quadratino di vega è 3 decimi più a sinistra e questo vuole dire "ottobre 2016" :asd:
Poi dovremmo discutere se il 2017 comincia subito all'inzio del 2 di "2017", a metà della scritta "2017" o alla fine del 7 :rotfl:
Vega è la stella più brillante della costellazione della Lira, la quinta più luminosa del cielo notturno, nonché la seconda più luminosa nell'emisfero celeste boreale, dopo Arturo. Wikipedia
Distanza dalla Terra: 25,05 anni luce
Raggio: 1.961.000 km (2,818 R☉)
Temperatura della superficie: 9.602 K
Massa: 4,246 × 10^30 kg (2,135 M☉)
Costellazione: Lira
Classe spettrale: A0V:D
Aaah quindi l'euro salta, loro lo sanno!!! Torniamo alla liraaaaa , quello che i banchieri non vi diranno mai!!!!11!!1!1! Cliccaaaaa !!1!1!
Ma quindi Vega come si piazzerà come perf/watt rispetto a una 1070 o a una 1080 per esempio? e come performances assolute? ci sono delle speculazioni in merito? che poi Vega togliendo la e diventa proprio VGA, quindi dovrebbe essere la scheda video per eccellenza
E con una n invece ti scappa il frigo (alla ghostbusters)
Scusate non ho resistito
E con una n invece ti scappa il frigo (alla ghostbusters)
Scusate non ho resistito
Aahahhaahhahaha forse l'ho capita ahahahahahhaha :sbonk:
Condividi prima che censurino!!!!
E sarà lunga almeno 30 centimetri perchè se aggiungi una R.... :ciapet:
P.S: comunque non l'ho capita quella del frigo :stordita:
Attendiamo delucidazioni perculative :asd:
e dove c'e' scritto vega ottobre 2016?
edit: buchi neri a parte :asd:
Mi trovi un post dove ho scritto che Vega deve uscire a ottobre 2016? Io ho scritto che ad oggi ne Vega, ne Zen sono ancora in dirittura d'arrivo per quanto ne sappiamo.
Il buco nero, devi considerare il buco nero.
O forse prendere il calibro e misurare che il quadratino di vega è 3 decimi più a sinistra e questo vuole dire "ottobre 2016" :asd:
Poi dovremmo discutere se il 2017 comincia subito all'inzio del 2 di "2017", a metà della scritta "2017" o alla fine del 7 :rotfl:
Se vogliamo difendere a tutti i costi Amd, va bene, sto al gioco. Ma io da quell'immagine vedo e interpreto Polaris e Vega nel segmento 2016, con Vega in uscita dopo Polaris e comunque entro fine 2016. Se poi ci vedete altro, ok, me ne sto
Inviato dal mio XT1092 utilizzando Tapatalk
Piedone1113
12-10-2016, 22:31
Mi trovi un post dove ho scritto che Vega deve uscire a ottobre 2016? Io ho scritto che ad oggi ne Vega, ne Zen sono ancora in dirittura d'arrivo per quanto ne sappiamo.
Se vogliamo difendere a tutti i costi Amd, va bene, sto al gioco. Ma io da quell'immagine vedo e interpreto Polaris e Vega nel segmento 2016, con Vega in uscita dopo Polaris e comunque entro fine 2016. Se poi ci vedete altro, ok, me ne sto
Inviato dal mio XT1092 utilizzando Tapatalk
Nelle slide di marzo AMD dichiarava Vega nel 2017.
In quella che hai postato tu ( maggio) viene piazzata sopra il 2 di 2017 ( ma non ci sono segmenti che indicano quando inizia l'anno).
Quindi prendendo per buono inizio 2017 subito davanti al 2 il quadratino di Vega è nel periodo fino 2016 inizio 2017.
Tengo pure a ricordarti che le date delle roadmap sono quelle definite per produzione e spedizione ai produttori / oem, e che quindi possiamo ritrovarci con i prodotti spediti a saphire (esempio) a dicembre 2016 e vendita al pubblico a febbraio 2017.
Dalla slide mi sembra di vedere polarità in anticipo sul mercato ( e questo potrebbe giustificare anche il voltaggio alto sulle gpu).
Heimdallr
13-10-2016, 07:55
Quindi ora si discute se la scritta VEGA sta più sopra il 2 di 2017 o verso il 6 di 2016.
Almeno siamo d'accordo che il colore dello sfondo è oro? Non ditemi che lo vedete blu.
AceGranger
13-10-2016, 11:55
Ma quindi Vega come si piazzerà come perf/watt rispetto a una 1070 o a una 1080 per esempio? e come performances assolute? ci sono delle speculazioni in merito? che poi Vega togliendo la e diventa proprio VGA, quindi dovrebbe essere la scheda video per eccellenza
se continua cosi dovremo vedere dove si piazzera rispetto al refresh 2070 e 2080 :asd:
Skelevra
13-10-2016, 12:23
se continua cosi dovremo vedere dove si piazzera rispetto al refresh 2070 e 2080 :asd:
E sarebbe anche più opportuno forse, fare uscire adesso, o tra 6 mesi una scheda che va quanto una 1080 non sò quanto senso abbia.
Soulbringer
13-10-2016, 12:45
se continua cosi dovremo vedere dove si piazzera rispetto al refresh 2070 e 2080 :asd:
E sarebbe anche più opportuno forse, fare uscire adesso, o tra 6 mesi una scheda che va quanto una 1080 non sò quanto senso abbia.
Ma smettiamola per piacere...nVidia deve ancora lanciare la 1080ti che sarà sui 10tf quindi, per quel poco che sappiamo, Vega pare essere in linea.
Ci saranno sicuramente più declinazioni per coprire le fasce dalla 1070 alla 1080ti...
Ale55andr0
13-10-2016, 12:48
E sarebbe anche più opportuno forse, fare uscire adesso, o tra 6 mesi una scheda che va quanto una 1080 non sò quanto senso abbia.
Oggi no (lasciando idiotamente il via libera alla concorrenza su tre fasce di prezzo), fra sei mesi no, quindi facciamo direttamente per competere con volta? :)
mikael84
13-10-2016, 13:49
Ma smettiamola per piacere...nVidia deve ancora lanciare la 1080ti che sarà sui 10tf quindi, per quel poco che sappiamo, Vega pare essere in linea.
Ci saranno sicuramente più declinazioni per coprire le fasce dalla 1070 alla 1080ti...
La virgola mobile in FMA2 non centra nulla in relazione alla potenza effettiva, ci sono miriadi di aspetti da calcolare, e AMD non ha un processore scalabile geometrico, rop's diverse, cicli di pipeline in calcolo diverse e rapporto LDS/SFU totalmente differente.
I TF puri delle Nvidia sono pure sballati perchè non tengono in mente il boost effettivo ma solo il base clock.;)
Soulbringer
13-10-2016, 14:18
La virgola mobile in FMA2 non centra nulla in relazione alla potenza effettiva, ci sono miriadi di aspetti da calcolare, e AMD non ha un processore scalabile geometrico, rop's diverse, cicli di pipeline in calcolo diverse e rapporto LDS/SFU totalmente differente.
I TF puri delle Nvidia sono pure sballati perchè non tengono in mente il boost effettivo ma solo il base clock.;)
Si lo so, hai ragione, era solo per far capire che i pochi rumors che abbiamo parlano di una potenza quantomeno comparabile...onestamente dubito che AMD perda l'occasione di rimettersi in pari senza far concorrenza alla 1080ti ma solo alla "vecchia" 1080. Tutto imho, ovviamente.
AceGranger
13-10-2016, 14:19
Ma smettiamola per piacere...nVidia deve ancora lanciare la 1080ti che sarà sui 10tf quindi, per quel poco che sappiamo, Vega pare essere in linea.
Ci saranno sicuramente più declinazioni per coprire le fasce dalla 1070 alla 1080ti...
e che vuoi da me :stordita: ? io parlavo di tempistiche non di fascia di potenza.
per la questioene potenza, per quanto ne sappiamo, la 1080Ti potrebbe anche non uscire proprio, e potrebbe arrivare direttamente la 2080Ti da circa 12 TFlops o giu di li
http://videocardz.com/63764/editorial-nvidia-geforce-20-series
Soulbringer
13-10-2016, 14:25
e che vuoi da me :stordita: ? io parlavo di tempistiche non di fascia di potenza.
per la questioene potenza, per quanto ne sappiamo, la 1080Ti potrebbe anche non uscire proprio, e potrebbe arrivare direttamente la 2080Ti da circa 12 TFlops o giu di li
http://videocardz.com/63764/editorial-nvidia-geforce-20-series
Secondo me nVidia, avendo un vantaggio, aspetterà la mossa di AMD tenendosi la 1080ti/2080 pronta come "counter".
mikael84
13-10-2016, 14:43
basandoci sui TF, a spanne, tra amd e nvidia si passa da un -15 ad un -45% per pareggiare gli fps a seconda dei giochi, o ad esempio se DX11 o DX12, ecc.
per esempio: 12TF amd equivalgono a 10.4 o 8.3 TF nvidia a seconda dei casi.
Non puoi fare lo stesso rapporto in quanto AMD non ha un command processor scalabile.
La 1080 aumenta del 100% gli stadi moltiplicatori ma pecca solo nella cache che è 1,5 volte(655k ist contro 1310 ist) .
Il calcolo in virgola mobile non ha interpretazione pure in game.;)
Ricordo cmq che ancora Vega non si conosce, la potenza di 12TF è stata calcolata tramite FP16 24TF che su tale chip non è 2:1 ma 1:1. Ogni unità FP infatti può essere programmata sia in FP32 che FP16 per risparmiare spazio sui registri e sulla cache). :)
La FP64 continua ad avvalersi di 16 cicli
Free Gordon
13-10-2016, 15:06
Graphic core V9 pare sarà abbastanza diverso da V8 (cioè fino a Polaris10/11).
Vediamo che combinano... :)
Legolas84
13-10-2016, 15:15
Era impensabile rimanesse 82 vs 18 a lungo il market share....
In ogni caso anche 70 vs 30 è abbastanza devastante eh.....
considerando i conti di NVIDIA che sono sempre stati ottimi dubito che qualcuno a Santa Clara si stia preoccupando altro che calci nel culo....
AMD deve risollevarsi e deve farlo in fretta, non solo nel market share ma deve anche ricominciare a generare utili.... e non perdite disastrose....
mikael84
13-10-2016, 15:17
Graphic core V9 pare sarà abbastanza diverso da V8 (cioè fino a Polaris10/11).
Vediamo che combinano... :)
Si praticamente più simil nvidia;) Ancora però è da vedere bene. Solo lo schema dice poco per ipotizzare stime.;)
Einhander
13-10-2016, 15:19
So che non freghera' un minki@ a piu' o meno nessuno, pero' quello che mi preoccupa in termini di futuro e' l'attuale situazione di amd nella parte di ricerca e sviluppo tecnologie per motori grafici -e cristo non mi riferisco al pelo e basta :asd: - nvidia nel settore professionale e semiprofessionale domina in modo schifoso e ladra a livelli che fanno impallidire cio' che sta facendo sul fronte gaming...Amd invece e' sostanzialmente ASSENTE.
Ma la cosa che mi preoccupa e' che nvidia -astutamente- s'e' presa mental ray e con esso un tot di conoscenze per cio' che concerne voxels, raytracing, G.I. e mazzi e lazzi che parallelamente sviluppa per il mercato professionale e semi-pro.
Tali conoscenze poi finiscono per piombare sui motori grafici e non solo tramite quella merda di shitworks ma come standard per l'intera industria da chi sviluppa e fa motion-graphics a chi fa effetti speciali, cio' che non cambia e' che spesso questi esimi signori sono interscambiabili tra il mercato dei videogames e della CGI -ne conosco diversi, pure ita che sono passati agevolmente dal fare film, curando appunto i particellari e/o illuminazione- al fare videogames e viceversa...e' un mercato molto mobile di per se diciamo.
Fatto sta che molti, anzi troppi, studios stanno facendo affidamento unicamente su nvidia per sviluppare tool di creazione e produzione attraverso la gpu e questo, con buona pace di amd e il monopolio console, si riflette gia' ora sulle tecnologie impiegate nei videogames.
Non oso pensare in che cavolo di situazione si trovera' amd se non si da una mossa...temo che il monopolio console non durera' in eterno e prima o poi per fare qualcosa di fico dovra' trovare il modo di adattarsi alle condizioni lasciate da nvidia e questo, nel lungo periodo, e' male, molto male..
Scusate lo sfogo ma siccome si parla di nuove vga, spero sempre che ad esse vengano abbinati anche nuovi tool -quelli seri, non le minkiate come il pelo-...
Legolas84
13-10-2016, 15:28
Che AMD deve riprendersi è inconfutabile, ma fidati che se un'azienda perde quote di mercato come Nvidia nell'ultimo anno gli azionisti cominciano a chiedere spiegazioni.
Non che si preoccupano di fallire ma si muovono per evitare che la perdita prosegua.
Poi nel 3 quarto sono uscite le schede nuove e la situazione potrebbe essere cambiata ancora.
sisi, ma il problema è che prima il mercato era davvero troppo sbilanciato e lo sapevano.... un ritorno ad un equilibrio penso fosse atteso da entrambe le parti ;)
Einhander
13-10-2016, 15:37
Era impensabile rimanesse 82 vs 18 a lungo il market share....
In ogni caso anche 70 vs 30 è abbastanza devastante eh.....
considerando i conti di NVIDIA che sono sempre stati ottimi dubito che qualcuno a Santa Clara si stia preoccupando altro che calci nel culo....
AMD deve risollevarsi e deve farlo in fretta, non solo nel market share ma deve anche ricominciare a generare utili.... e non perdite disastrose....
Vero, pero' e' anche da notare che in un anno e mezzo ha ripreso 12 punti perncetuali piu' o meno e mancano pure i dati post 470/480...
Cmq di certo non saranno questi miglioramenti a risollevare amd, salvo durare per diverso tempo ancora.
Tra l'altro mi permetto di dire che secondo me invece nvidia non la pensa come te e quanto sta facendo nel settore delle medie 1060/1050ti e' un evidente segnale....Solo gli idioti rimarrebbero indifferenti ad una perdida di market share del 12% nel giro di un anno e, con tutto quello che le si puo' dire, in casa verde non sono idioti, magari ladri, ma idioti proprio no :asd:
Cmq continuasse con questo passo significherebbe che entro un paio d'anni ci ritroveremmo con 45% vs 55% a favore di nvidia...ci metterei la firma e non per amd, ma per la concorrenza tutta..
mikael84
13-10-2016, 15:38
Che AMD deve riprendersi è inconfutabile, ma fidati che se un'azienda perde quote di mercato come Nvidia nell'ultimo anno gli azionisti cominciano a chiedere spiegazioni.
Non che si preoccupano di fallire ma si muovono per evitare che la perdita prosegua.
Poi nel 3 quarto sono uscite le schede nuove e la situazione potrebbe essere cambiata ancora.
Per essere obbiettivi anche Nvidia ha tardato 6 mesi con la 480 ed ha debuttato con rese disastrose (diverso con la 680), anche se sul campo buone. Quello che a parer mio AMD sbaglia è la totale assenza di informazioni, anche di striscio che lasciano l'utente con un pugno di mosche in mano.
Il solo far sapere che ci sei sul mercato e che a breve cercherai di prendere a schiaffi la 1080, sarebbe un inizio.;)
Skelevra
13-10-2016, 15:40
Tutti che sbavano per questo bipartitismo e nessuno che si preoccupa per Others :(
Ale55andr0
13-10-2016, 15:55
Eh lo so che voi parlavate di 1080ti e vega ma non è quello che fa il mercato
Si, ma nvidia ha dalla sua anche 1070 e 1080. Non ha lasciato a piedi nessuno
mikael84
13-10-2016, 15:59
cioè: quando sparano minkiate stile fury X che ammazzava la 980ti, tutti a dire epic fail, adesso dici che dovrebbe fare propaganda di una ipotetica ammazza 1080... e quando poi non esce che facciamo?... :rolleyes:
Ma quello l'ha fatto anche AMD con P10 (la scheda meglio riuscita di AMD alla fine), ma a parer mio fai almeno vedere che ci sei.
l'attesa per Pascal era incessante, qua tutto tacce. A parer mio (è una opinione personale) tutto questo non fa che traghettare gli utenti su Nvidia.
Ale55andr0
13-10-2016, 16:01
Quello che a parer mio AMD sbaglia è la totale assenza di informazioni, anche di striscio che lasciano l'utente con un pugno di mosche in mano.
Il solo far sapere che ci sei sul mercato e che a breve cercherai di prendere a schiaffi la 1080, sarebbe un inizio.;)
Mi vuoi sposare? :flower:
Ale55andr0
13-10-2016, 16:03
Ma quello l'ha fatto anche AMD con P10 (la scheda meglio riuscita di AMD alla fine), ma a parer mio fai almeno vedere che ci sei.
l'attesa per Pascal era incessante, qua tutto tacce. A parer mio (è una opinione personale) tutto questo non fa che traghettare gli utenti su Nvidia.
Si ma vacci piano o di sto passo saremo gia alle pratiche di divorzio :O
Soulbringer
13-10-2016, 16:04
davvero, non ti seguo :D
Dice che l'utente che vuole investire 400/700€ in gpu pensa: "Cosa c'è sul mercato oggi?" solo 1070/1080, mmm vediamo lato AMD: guarda un po', una cippa di minchi@ :asd: e in previsione cosa c'è sulla roadmap? mmm vediamo un ipotetico Vega che manco si capisce cosa sia, figurarsi quando esce!
Risultato? Acquisto la 1070/1080 e tanti saluti.
Se invece AMD dicesse: "Guardate che stiamo preparando Vega e presto libereremo il kraken" :asd: allora magari uno ci pensa due volte prima di acquistare subito.
Su questo sono d'accordo con mikael84.
Soulbringer
13-10-2016, 16:13
Davvero?
E com'è che Ale55andro sta ancora senza vga?
La verità è che chi ha 400/700€ da investire in vga lo fa quando c'è la vga nuova e lo fa sapendo a priori cosa comprare.
Chi ha comprato una 1080 difficilmente avremmo comprato una 490 o fury 2 o come diamine la chiameranno anche se fossero uscite lo stesso giorno.
Chi attende una 490/fury 2 sta ancora aspettando... vero Ale? :asd:
Non è che una vga nuova la tiri fuori dal cilindro in un attimo e meglio un lavoro fatto bene un mese dopo che uno fatto male un mese prima... vero samsung note 7? :rotfl:
Con tutto il rispetto per Ale55andro non credo però che da solo rappresenti un campione valido per fare statistica. E fidati che due miei amici gamers avrebbero di certo almeno valutato una 490 se fosse esistita prima di acquistare le loro 1070.
Di clienti ne perdi pure così, non è che a quel 70-30 ci siamo arrivati a caso...Con Polaris ha recuperato una buona fetta, ma chi può dire, se ci fosse stato Vega a giugno, che numeri avremmo adesso?
Ale55andr0
13-10-2016, 16:15
Davvero?
E com'è che Ale55andro sta ancora senza vga?
La verità è che chi ha 400/700€ da investire in vga lo fa quando c'è la vga nuova e lo fa sapendo a priori cosa comprare.
Chi ha comprato una 1080 difficilmente avremmo comprato una 490 o fury 2 o come diamine la chiameranno anche se fossero uscite lo stesso giorno.
Chi attende una 490/fury 2 sta ancora aspettando... vero Ale? :asd:
Certo, ma cio non implica che acquisterò amd...
E sto pure aspettando il 7700k se è per quello :O
dado1979
13-10-2016, 16:15
Davvero?
E com'è che Ale55andro sta ancora senza vga?
La verità è che chi ha 400/700€ da investire in vga lo fa quando c'è la vga nuova e lo fa sapendo a priori cosa comprare.
Chi ha comprato una 1080 difficilmente avremmo comprato una 490 o fury 2 o come diamine la chiameranno anche se fossero uscite lo stesso giorno.
Chi attende una 490/fury 2 sta ancora aspettando... vero Ale? :asd:
Non è che una vga nuova la tiri fuori dal cilindro in un attimo e meglio un lavoro fatto bene un mese dopo che uno fatto male un mese prima... vero samsung note 7? :rotfl:
1. e chi dice che l'utente Ale55andro faccia le cose per bene: magari io posso vedere cosa sceglie l'utente in questione... e poi fare l'esatto contrario sapendo di fare la cosa migliore.
2. la seconda parte della frase mi ha fatto paura come quando da bambino vidi "Profondo rosso". Se un utente fa ciò che dici non merita l'appellativo: "utente".
Ale55andr0
13-10-2016, 16:17
Con tutto il rispetto per Ale55andro non credo però che da solo rappresenti un campione valido per fare statistica
Ti sei bruciato ogni possibilità con me :O
Soulbringer
13-10-2016, 16:18
Esatto, piantiamola con questa mentalità da "loser" che anche se AMD fa un buon prodotto la gente compra sempre e comunque nVidia.
Le cose cambiano, ci vogliono tempo e prodotti validi, ma cambiano.
dove l'avrei scritto?
questo comunque non vuol dire "amd è ritardo sulla roadmap" o che "non sanno dare un termine ai proprio prodotti".
poi che faccia ridere ci sta :D , ma è così... ma tanto qualche pacca sulla spalle dai finti divulgatori della concorrenza ne trovi a vagonate qua dentro :asd:
@davo se vuoi sposta la polemica sul fatto che sono in ritardo su nvidia, ma sono mesi che lo diciamo o danni su intel... non di certo sulle roadmap.
poi se vogliamo far passare 3 mesi come "ritardo mostruoso" e che sono "incompetenti" lo lascio a voi, ma tanto nessuno si ricorda che pascal doveva uscire nel Q1 2016 o prima sui 20nm... chessarà mai saltare 3 mesi dopo che salti anni...
Se è per questo anche la serie 300 AMD doveva uscire sui 20nm, ma come ben sappiamo il problema non è stto ne di Nvidia, ne di AMD, ma delle fab che li hanno tagliati.
Comunque torniamo all'inizio del discorso. Il problema non sono solo gli eventuali ritardi sulle roadmap, che sinceramente mi fanno incazzare parecchio visto che AMD dovrebbe puntare ad anticipare le mosse della concorrenza per poter riguadagnare quote e sopratutto soldini, invece pur avendo ottimi prodotti, si ritrova sempre in ritardo (Carrizo desktop lo stiamo ancora aspettando adesso dal 2015, la serie 3xx uscita 9 mesi dopo la serie 9xx Nvidia, Vega dopo 5 mesi dalle 1080 è ancora un miraggio; Zen non sono "solo" 3 mesi, sono 3 mesi uniti a 4 anni di nulla scintillante, dopo gli FX di ottobre 2012, e dopo che Intel è gia (quasi) arrivata al primo refresh dei 14nm); è l'insieme di grandi e piccoli dettagli, poca visibilità nei lanci, scarsa presenza nel mercato OEM (vedi l'esigua quantita di notebook, oltre alla difficoltà nel trovarli), prodotti lanciati acerbi (vedi driver, anche se la situazione è DECISAMENTE migliorata; e voltaggi), campagne marketing ai limiti del ridicolo, ritardi ecc ecc.
E con queste premesse, i clienti li perdi non li acquisti di certo.
Non tutti sono disposti ad aspettare i comodi di AMD, se uno ha bisogno di un certo componente prende quello che il mercato gli propone in quel momento, e all'attuale contro le 1070/1080 e le cpu intel, dagli i5 in su, è MONOPOLIO (contro Intel in quelle fasce da 4 anni). Capisci che 4 mesi, con un carrozzone di 4 anni alle spalle, non sono pochi!
AceGranger
13-10-2016, 16:28
Che AMD deve riprendersi è inconfutabile, ma fidati che se un'azienda perde quote di mercato come Nvidia nell'ultimo anno gli azionisti cominciano a chiedere spiegazioni.
Non che si preoccupano di fallire ma si muovono per evitare che la perdita prosegua.
Poi nel 3 quarto sono uscite le schede nuove e la situazione potrebbe essere cambiata ancora.
si ma dipende come le perdi le quote di mercato....
AMD ha guadagnato da fine 2015 quando ha tagliato in modo lineare tutte le GPU; nVidia ha continuato a fare le sue trimestrali record;
fino ad ora, nelle 3 trimestrali dove AMD ha guadagnato quote, nVidia è andata piu che bene sia come fatturato sia come utili, vedremo questa trimestrale come sara che sara la prima dove effettivamente entreranno in gioco Pascal e Polaris.
cioè: quando sparano minkiate stile fury X che ammazzava la 980ti, tutti a dire epic fail, adesso dici che dovrebbe fare propaganda di una ipotetica ammazza 1080... e quando poi non esce che facciamo?... :rolleyes:
Il problema è che AMD non ha scelte, deve fare propaganda e mantere cio che pubblicizza.
Non dare info concrete, come sta succedendo con Zen, alla lunga potrebbe portare l'effetto contrario. Ossia che non ti sbottoni perchè non hai nulla di buono e concreto in mano.
Quello che a parer mio AMD sbaglia è la totale assenza di informazioni, anche di striscio che lasciano l'utente con un pugno di mosche in mano.
Il solo far sapere che ci sei sul mercato e che a breve cercherai di prendere a schiaffi la 1080, sarebbe un inizio.;)
Dice che l'utente che vuole investire 400/700€ in gpu pensa: "Cosa c'è sul mercato oggi?" solo 1070/1080, mmm vediamo lato AMD: guarda un po', una cippa di minchi@ e in previsione cosa c'è sulla roadmap? mmm vediamo un ipotetico Vega che manco si capisce cosa sia, figurarsi quando esce!
Risultato? Acquisto la 1070/1080 e tanti saluti.
Se invece AMD dicesse: "Guardate che stiamo preparando Vega e presto libereremo il kraken" allora magari uno ci pensa due volte prima di acquistare subito.
Su questo sono d'accordo con mikael84.
:read:
C'è una bella differenza dal dire:"Zen e Vega usciranno nel 2017", al "Zen e Vega usciranno a Marzo del 2017 e avranno queste x prestazioni".
Soulbringer
13-10-2016, 16:51
la serie 200 doveva uscire sui 20nm, la 300 è un refresh, ma era solo per sottolineare che se amd ne fa mezza tutti a spalare letame, se lo fa nvidia si lascia passare.
4 mesi su 4 anni non sono nulla, meglio aspettare.
ok, volete la propaganda, ma almeno abbiate la correttezza di non lamentarvi dopo se il prodotto non è all'altezza delle aspettative generate ;)
Ma non vogliamo la propaganda, vogliamo che AMD batta un colpo per far sapere che c'è ancora e ha un qualcosa per fare concorrenza là dove manca.
A volte su questo thread mi sembra che difendiate a TUTTI i costi AMD, qualunque scelta faccia...anche io acquisto i loro prodotti (con le GPU sono rosso ormai dal lontano 2003 con la 9800pro) da una vita e "tifo" per loro, però che cazz, non mi pagano mica per parlar bene di loro sempre e comunque!
Ale55andr0
13-10-2016, 19:40
lo vede anche un ceco...
Ah, non sapevo che il ritardo di AMD lo notassero pure in Repubblica Ceca :O, voglio dire, con tutta la topa che gira li' magari non tanto ci pensano a Vega :oink:
sgrinfia
13-10-2016, 20:32
Ah, non sapevo che il ritardo di AMD lo notassero pure in Repubblica Ceca :O, voglio dire, con tutta la topa che gira li' magari non tanto ci pensano a Vega :oink:
SEGNALATO ,per vilipendio alla topa......:D
Free Gordon
14-10-2016, 00:16
Era impensabile rimanesse 82 vs 18 a lungo il market share....
In ogni caso anche 70 vs 30 è abbastanza devastante eh.....
Un 60 / 40 però andrebbe benissimo a tutti nel mercato gaming attuale.. ;)
E non lo vedo così impossibile, aspettiamo i dati di gennaio/febbraio per vedere cosa hanno combinato effettivamente con Polaris..
Un 60 / 40 però andrebbe benissimo a tutti nel mercato gaming attuale.. ;)
E non lo vedo così impossibile, aspettiamo i dati di gennaio/febbraio per vedere cosa hanno combinato effettivamente con Polaris..
Anche perché pre-maxwell lo share era a quei livelli circa. Mi sembra un 35/65
Inviato dal mio XT1092 utilizzando Tapatalk
walter.caorle
14-10-2016, 04:46
Beh...se si parla di statistiche, ieri, per esempio, sono andato a trovare un amico che assembla pc e aveva 5 macchine da fare. Sapete quante amd ha infilato nei case?? 0... tutte 1070 e neanche a 400e dei vari siti VATtelapesca ma a prezzo negozio..500e e oltre...
Beh...se si parla di statistiche, ieri, per esempio, sono andato a trovare un amico che assembla pc e aveva 5 macchine da fare. Sapete quante amd ha infilato nei case?? 0... tutte 1070 e neanche a 400e dei vari siti VATtelapesca ma a prezzo negozio..500e e oltre...
Si vede che volevano fare tutti una macchina per il 2k e oltre. Sui 1080p se la giocano le solite schede arcinote. Rx 470 rx 480 e gtx 1060. :)
Inviato dal mio LG-D802 utilizzando Tapatalk
http://wccftech.com/amd-polaris-revisions-performance-per-watt/
AMD Rolling Out New Polaris GPU Revisions With 50% Better Perf/Watt
AMD has reportedly started rolling out new revisions of its Polaris 10 & Polaris 11 GPUs with a 50%+ improvement in performance per watt. Polaris 10 and Polaris 11 are AMD’s latest GPUs powering the company’s midrange RX 480 & RX 470 as well as mainstream RX 460 graphics cards. The new GPU revisions will reportedly debut first in the embedded market and will deliver the same and/or slightly better performance compared to the previous revisions but at significantly lower power consumption.
Free Gordon
14-10-2016, 10:59
http://wccftech.com/amd-polaris-revisions-performance-per-watt/
AMD Rolling Out New Polaris GPU Revisions With 50% Better Perf/Watt
Sono i chip "cherry picked" per il mobile..non è una nuova revision di Polaris.
Sarà migliorato un pò il PP GF dopo le prime infornate e selezioneranno i chip mobili per reggere i 1266 (la 480) con meno tensione...ma credo che la news di WCC sia formalmente sbagliata..
No solo speculazioni, ovviamente.
Le modifiche per i chip mobile si pensa possano essere fatte anche ai desktop e lanciate in concomitanza con vega come refresh della serie 4xx.
Ma sono rumors e come tali vanno tenuti in considerazione, nessuna slide di amd sia chiaro
N3OM4TR|X
14-10-2016, 11:10
Sono i chip "cherry picked" per il mobile..non è una nuova revision di Polaris.
Sarà migliorato un pò il PP GF dopo le prime infornate e selezioneranno i chip mobili per reggere i 1266 (la 480) con meno tensione...ma credo che la news di WCC sia formalmente sbagliata..
Concordo.
Le revision ci sono a prescindere a livello di produzione e nemmeno lo si rende noto la maggior parte delle volte.
Polaris dal punto di vista dei voltaggi e' nata un pochino prematura, non come architettura e non per colpa di AMD. Ma e' evidente che per rispettare le date di uscita non hanno rispettato il famoso TDP di 150W alzando i voltaggi su tutte le schede (e non e' un caso che un sacco di gente riesca ad abbassarli, anche di molto, arrivando ad un TDP di ~135W)
Ora GloFo avra' migliorato, spero tanto perche' sono uno che all'efficienza della VGA ci ha sempre badato parecchio e prendero' Vega, e quindi si potranno anche avere delle revision con TDP da 90-100W ottimi per il mobile di fascia alta.
Poi che decidano di uscire con una serie Desktop 4X5 e' anche possibile ma, rumor su Vega 11 a parte, di sicuro non uscirebbero con TDP bassi ma con clock piu' alti.
Free Gordon
14-10-2016, 11:14
No solo speculazioni, ovviamente.
Le modifiche per i chip mobile si pensa possano essere fatte anche ai desktop e lanciate in concomitanza con vega come refresh della serie 4xx.
Ma sono rumors e come tali vanno tenuti in considerazione, nessuna slide di amd sia chiaro
Ho grossi dubbi, ma sarebbe bello vedere una 475 e una 485 a Dicembre con la serie 5xx in uscita (o Fury come la vorran chiamare).
Con un pp affinato, potrebbero far uscire chip più freschi ma i tempi non sono ancora maturi imho...troppo presto questo fine anno.
Free Gordon
14-10-2016, 11:16
Poi che decidano di uscire con una serie Desktop 4X5 e' anche possibile ma, rumor su Vega 11 a parte, di sicuro non uscirebbero con TDP bassi ma con clock piu' alti.
potendo, anche io sceglierei quella opzione.. ;)
Ho grossi dubbi, ma sarebbe bello vedere una 475 e una 485 a Dicembre con la serie 5xx in uscita (o Fury come la vorran chiamare).
Con un pp affinato, potrebbero far uscire chip più freschi ma i tempi non sono ancora maturi imho...troppo presto questo fine anno.
mah fine anno mi pare veramente ottimistico, forse faranno vedere qualche slide, penso ci voglia almeno febbraio, ma siamo sempre nell'ambito delle supposizioni
DrunknAndry
14-10-2016, 11:51
È che non avevo notato il buco nero che deforma lo spazio e porta Vega nel 2016
https://s17.postimg.org/cfs7ll6vj/fba693430ccf6afb09168e6b070ca5d2.jpg
Ma seriamente, ma ce la fate a vedere che "Vega" è scritto sopra la scritta 2017?
Poi magari uscirà a metà 2017 in ritardo rispetto a quella slide ma non mi dite che era previsto nel 2016 secondo quella slide perchè è un'offesa all'intelligenza.
non per fare il pignolo ma il quadrato vega è per 2/3 nella parte sinistra della data 2017, quindi fine 2016.. :D :D
DrunknAndry
14-10-2016, 12:00
:doh:
c'è poco da facepalmare.. tira una riga fra lo 0 e l'1 del 2017 e guarda.. :asd: :asd:
:doh:
chissa' perche' era nella mia ignore list....
DrunknAndry
14-10-2016, 14:51
hai anche ragione, ma fare della polemica così sterile su una slide che al 99% è solo grafica è ridicolo, cioè non stiamo parlando di 1 anno di ritardo come se fosse sulla scritta 2016, ma di capire se esce a novembre/dicembre 2016 o a gennaio 2017 da come sembra essere posizionata li.
ps. non ho sentito nessuno dire che il 2.5x è preso dalle gpu di fine 2014 (Radeon R9 285)...
esistono dottori bravi eh :D
pps.
ho scritto questo sotto la news 3 ore fa:
"...do too much smoke and Clickbait, stop!"
... è ancora in "pending"...
nessuna polemica, ma quando leggo "Ma seriamente, ma ce la fate a vedere che "Vega" è scritto sopra la scritta 2017?" che anche un cieco vedrebbe che non è così meglio puntualizzare..
dado1979
14-10-2016, 14:57
chissa' perche' era nella mia ignore list....
Perché ha osato dire qualcosa contro AMD?
majinbu7
14-10-2016, 15:06
Perché ha osato dire qualcosa contro AMD?
:asd:
Scusate ma non ho resistito.
Perché ha osato dire qualcosa contro AMD?
io di sicuro sono fanboy della verita'.
La gente che parla a caso solo per simpatia verso un marchio o altro sputando veleno e ridicolizzando le eventuali controparti sono casi umani che lasciano il tempo che trovano, e in generale, non solo in caso di vga, e specifico in questo caso sia verdi che rossi, fanno pena entrambi, sono due azienda che lavorano per il fatturato, prendono decisioni, sbagliano, vincono, io azioni non ne ho, non me ne frega una beneamata minchia.
Lungi da me dire che amd sia perfetta, o che le nvidia fanno schifo, nella mia vita informatica ho avuto e venduto sia una marca che l'altra...
DAi diciamo che sono allergico alle cazzate, cosi' magari si capisce.... come quello che continua a venire sul thread fiji dicendo che 4gb hmb sono pochi, nonostante ampiamente si vede il contrario :asd:
inutile discutere, sono fanboy.
E anche se fosse nella slide ad ottobre 2016, sono "slide", sono previsioni sul futuro di un'azienda complessa, nelle stesse slide c'e' scritto che i tempi sono indicativi e possono variare senza preavviso o giustificazione.
No è 3 decimi più verso il 2016 non vedete? :asd:
Autolearning? :asd:
Magari :D
No "fanboy" non centra nulla, è che basare una discussione sul fatto che un quadratino in una slide è un po' più a destra o a sinistra mi sembra una scemenza.
dissento fortemente! :ciapet:
la base e' proprio il tifo, e come tale si riflette nelle scemenze prese come pretesto per attaccare l'altro, che sia politica, sport o discussioni da bar IT
DrunknAndry
14-10-2016, 16:11
ma almeno hai letto tutto?
le uniche 2 slide UFFICIALI di roadmap 2015-2016-2017-2018 di amd sono queste:
http://images.techtimes.com/data/images/full/234571/amd-gpu-roadmap-2016-2018.jpg
http://www.extremetech.com/wp-content/uploads/2016/03/AMDGPU.jpg
il resto sono chiacchere di wccf, videocardz e compagnia bella compreso noi... trai le conclusioni.
io ho risposto a bivvoz che con fare da saccente dice "mettetevi gli occhiali e guardate che vega è sopra il 2017" quando è chiaramente FALSO..
e non credo siano nemmeno tanto campate per arie visti che si sono presi la briga di posizionare le uscite del 28nm, vega e navi un po' prima dell'anno, come potete notare.. che poi debbano rispettarla no, ma che sia fatta a caso nemmeno..
ma io sono il fanboy, con l'apu amd nel case.. :asd: :asd:
VanCleef
14-10-2016, 17:18
https://dl.dropboxusercontent.com/u/2892211/hwupgrade/2016vs2017.jpg
:D :sofico: :mc:
N3OM4TR|X
14-10-2016, 17:41
https://dl.dropboxusercontent.com/u/2892211/hwupgrade/2016vs2017.jpg
:D :sofico: :mc:
Oddio :rotfl: non c'è la posso fare! Sto morendo dalle risate! :rotfl: Sei un genio! Ahahahah :D
Einhander
14-10-2016, 18:35
Ok abbiamo la prova matematica che la slide dice 2017, discorso chiuso, pixel contati e trolloni messi a nanna :asd:
Inviato da mTalk
SIA FATTA LA VOLONTA'.
MOBBASTA PERO'.
:asd:
DrunknAndry
14-10-2016, 18:40
e che roba sarebbe..? LOOOOL
no aspetta, ne metto una anche io.. tanto visto che parliamo del nulla.. :stordita: :stordita: :stordita:
http://img.sportmediaset.mediaset.it/binary/24.$plit/C_29_articolo_1058344_lstParagrafi_paragrafo_1_upiImgParOriz.jpg
http://r32.imgfast.net/users/3213/17/60/32/smiles/968600524.gif
e che roba sarebbe..? LOOOOL
no aspetta, ne metto una anche io.. tanto visto che parliamo del nulla.. :stordita: :stordita: :stordita:
http://img.sportmediaset.mediaset.it/binary/24.$plit/C_29_articolo_1058344_lstParagrafi_paragrafo_1_upiImgParOriz.jpg
La riga disegnata è ridicola.
https://dl.dropboxusercontent.com/u/2892211/hwupgrade/2016vs2017.jpg
:D :sofico: :mc:
Corsini, possiamo chiedere il forum?
Grazie.
:p
E con questo Buon Natale e Felice Anno nuovo a tutti :D
VanCleef
15-10-2016, 10:57
http://www.mememaker.net/static/images/memes/4665866.jpg
te la sei meritata :O
magari... :sofico:
Ale55andr0
15-10-2016, 12:26
Ecco a che ci ha ridotti amd e la sua politica ZERO informazioni (e zero prodotti :asd:) anche se dall'altra parte ci hanno pure detto quante volte vanno di corpo
Ale55andr0
15-10-2016, 12:40
oh ma sta 1080 ancora non ti è arrivata? :O
Magari ora vojo la ti :O e poi devo comunque prendere 7700k +z270 :O
Ale55andr0
15-10-2016, 12:52
Qua sono diversi a essersi rotti le pelotas dei tempi biblici di amd, solo sono meno veementi :O
in compenso litigano per le slide :asd:
Qua sono diversi a essersi rotti le pelotas dei tempi biblici di amd, solo sono meno veementi :O
in compenso litigano per le slide :asd:
Io alla fine ho preso una 1070, mi sono stufato di aspettare AMD, anche se ho un monitor freesync.
sgrinfia
15-10-2016, 23:31
Qua sono diversi a essersi rotti le pelotas dei tempi biblici di amd, solo sono meno veementi :O
in compenso litigano per le slide :asd:
Amd ti fa aspettare per poi premiare i più fedeli al marchio con una Vga da sballo.;)
fraussantin
15-10-2016, 23:47
Amd ti fa aspettare per poi premiare i più fedeli al marchio con una Vga da sballo.;)
Se non si sbriga li premia con una vga già obsoleta.
Ale55andr0
16-10-2016, 08:11
Amd ti fa aspettare per poi premiare i più fedeli al marchio con una Vga da sballo.;)
Si, come ha fatto con la fury, la world NON fastest gpu che però costava come tale, con ben 4gb e AIO "o ti mangi sta minestra o ti butti dalla finestra"
Notavo che con l'assestamento dei prezzi ora una RX480/GTX 1060 si trovano a poco più di 200€, mentre la GTX 1070 è poco sotto i 400€. Si è aperta una finestra di mercato intorno i 300€, se arrivasse ora Vega e si piazza li, come prezzo, e prestazioni adeguate (diciamo a ridosso della 1070) penso che avrebbe un discreto successo.
Ale55andr0
16-10-2016, 09:00
Una scheda che arriva dopo mesi e mesi deve fare ben altro che stare a ridosso della 1070 (FAIL senza se e senza ma), e comunque con le hbm2 quei prezzi scordateli
fraussantin
16-10-2016, 09:07
Una scheda che arriva dopo mesi e mesi deve fare ben altro che stare a ridosso della 1070 (FAIL senza se e senza ma), e comunque con le hbm2 quei prezzi scordateli
Beh se escono con una 1070 a 300 euro venderebbero di sicuro.
Oppure .. La 1070 cala a 300 euro e la gente compra verde lo stesso.
Cmq non sarà così.
Avremo una vga in linea con la 1080 hbm2 a 6-700 euro.
In pratica non se la compra nessuno.
Legolas84
16-10-2016, 12:48
È una scheda che ad oggi è allineata alla 980Ti (quando è uscita era sotto, nei grafici di techpowerup che prendono uno spettro di giochi molto ampio è comunque ad oggi ancora sotto di qualche punto percentuale, ma grosso modo sono allineate...).
Però è uscita dopo, efficienza nettamente peggiore, AIO obbligatorio, 4GB di ram (veloce è vero, finchè il driver verrà scritto bene terrà botta, come il mezzo giga di ram della 970....)....
Quindi bo... Alessandro imho ha ragione...
mikael84
16-10-2016, 13:27
questi sono gli ultimi giochi usciti degni di nota, manca forza horizon 3 che va una merda un pò ovunque con drop, stuttering e così via e doom che non metto per ovvi motivi.
Praticamente hanno fatto un porting 1:1 da console, ed il gioco usa la ram di sistema ed il pci express per dati primari.
Free Gordon
16-10-2016, 13:40
È una scheda che ad oggi è allineata alla 980Ti (quando è uscita era sotto, nei grafici di techpowerup che prendono uno spettro di giochi molto ampio è comunque ad oggi ancora sotto di qualche punto percentuale, ma grosso modo sono allineate...).
Però è uscita dopo, efficienza nettamente peggiore, AIO obbligatorio, 4GB di ram (veloce è vero, finchè il driver verrà scritto bene terrà botta, come il mezzo giga di ram della 970....)....
Quindi bo... Alessandro imho ha ragione...
La FuryX ha un'efficienza nettamente peggiore della 980Ti?? :stordita:
https://tpucdn.com/reviews/AMD/R9_Nano/images/power_average.gif
35W in media in più, non mi pare un'efficienza "nettamente" peggiore...
Da Hawaii a Fiji sono migliorati abbastanza.. ;)
Forse ti confondi con Hawaii VS Maxwell..
Free Gordon
16-10-2016, 13:49
Direi che, IN REALTA', Fiji ultimamente sta dimostrando tutto il suo potenziale...
Da scheda che era sotto la 980Ti, ora la pareggia o la supera in 1440p e la supera sempre in 4K... (parlo di situazioni dove cmq si raggiungono i 30fps..).
Direi che i possessori di FuryX possono considerarsi soddisfatti del loro investimento, come quelli che hanno acquistato una 980Ti... :)
Non dimentichiamoci che è una scheda liquidata, praticamente inudibile (a parte il problema della pompa su alcune).
Legolas84
16-10-2016, 13:52
https://tpucdn.com/reviews/NVIDIA/GeForce_GTX_1060/images/perfrel_2560_1440.png
https://tpucdn.com/reviews/NVIDIA/GeForce_GTX_1060/images/perfwatt_2560_1440.png
Direi che non serve altro ;) Senza contare che forse è meglio avere una scheda che fin da subito va come deve andare no? Oppure compriamo oggi una scheda per giocare domani?
Free Gordon
16-10-2016, 13:56
Si può vedere in entrambi i modi. ;)
killeragosta90
16-10-2016, 13:57
vedi, al di la di quanto è stata pagata all'epoca (perchè comprarla oggi non ha senso, per lo meno nuova), come se le nvidia 980ti/titan le regalassero, non mi pare che noi possessori di fury siamo così a lutto sai...
quantum break dx11
questi sono gli ultimi giochi usciti degni di nota, manca forza horizon 3 che va una merda un pò ovunque con drop, stuttering e così via e doom che non metto per ovvi motivi.
Ma quantum break sono i test su steam o per UWP??
Perchè con la versione DX11 su Steam per le Nvidia c'è na differenza abissale...
P.S. (solo per curiosità/precisione)
mikael84
16-10-2016, 13:58
Direi che, IN REALTA', Fiji ultimamente sta dimostrando tutto il suo potenziale...
Da scheda che era sotto la 980Ti, ora la pareggia o la supera in 1440p e la supera sempre in 4K... (parlo di situazioni dove cmq si raggiungono i 30fps..).
Direi che i possessori di FuryX possono considerarsi soddisfatti del loro investimento, come quelli che hanno acquistato una 980Ti... :)
Non dimentichiamoci che è una scheda liquidata, praticamente inudibile (a parte il problema della pompa su alcune).
La scheda che batte è il reference che in 4k downclocka tantissimo, con una custom normale è ben diverso.;)
https://abload.de/img/qw1yst7.png
https://abload.de/img/lll51saq.png
OvErClOck82
16-10-2016, 13:59
scusate eh, ma da quei due grafici vedo una scheda che consuma leggermente di più e va praticamente uguale... considerando che praticamente il 99% dei possessori delle Ti le overcloccano, andando a sputtanare completamente il consumo minore, in che modo dovrei vedere la fury x come fail ? :stordita:
oppure le 980Ti da overcloccate consumano meno che a stock ? :rolleyes:
e poi mi volete veramente dire che chi compra schede da 600€ e overclocca pure il gatto, si preoccupa di 35watt in più ?
poi che la rossa sia stata un fail epocale a livello di immagine e di vendite son d'accordo, ma come scheda non era affatto da buttar via. Certo, restano i tempi biblici dei driver amd per farle rendere al meglio, ma non mi dite che non ci si giocava parecchio bene già un anno fa... Non siamo più nel periodo hd2900, come qualità, per fortuna...
Free Gordon
16-10-2016, 14:00
La scheda che batte è il reference che in 4k downclocka tantissimo, con una custom normale è ben diverso.;)
Non credo che abbia molto senso fare confronti tra schede occate e schede non.. ;) quando sappiamo tutti che Maxwell si occa in automatico.
mikael84
16-10-2016, 14:03
Non credo che abbia molto senso fare confronti tra schede occate e schede non.. ;) quando sappiamo tutti che Maxwell si occa in automatico.
Se le 980ti sono praticamente tutte custom, che senso ha paragonare una scheda totalmente downclockata.
Inoltre nvidia non sale in automatico è solo clockata molto bassa.;)
https://abload.de/img/lllmhhgbfsqr.png
Di nvidia a base clock in effetti se ne vedono tantissime, il boost 2.0 non interviene mai :fiufiu:
Free Gordon
16-10-2016, 14:13
Imho, il confronto sensato sarebbe 980Ti occata con FuryX occata... per vedere il performance rate (e il performance/watt rate nello specifico gioco o set di giochi..).
mikael84
16-10-2016, 14:14
Di nvidia a base clock in effetti se ne vedono tantissime, il boost 2.0 non interviene mai :fiufiu:
Quello è il boost 2,0.
1000 base-1076 boost base - 1164-1240 boost 2.
Le custom hanno tutte almeno 1300 in boost 2,0
Una reference a 1100 in boost 2 che paragone e'?
La fury 1050 ha 1050 rimane.
E' come la 290 o 780 appunto, downclockano a bestia.;)
Robydriver
16-10-2016, 14:17
Notavo che con l'assestamento dei prezzi ora una RX480/GTX 1060 si trovano a poco più di 200€, mentre la GTX 1070 è poco sotto i 400€. Si è aperta una finestra di mercato intorno i 300€, se arrivasse ora Vega e si piazza li, come prezzo, e prestazioni adeguate (diciamo a ridosso della 1070) penso che avrebbe un discreto successo.
:mbe:
Tolto il fatto che a quei prezzi si comprano dai negozi "primo nome" di trovaprezzi e sono in versione da 4 e 3Gb rispettivamente (perchè le 8/6 hanno prezzi discretamente più alti),ma qualche anima buona può siegarmi per quale arcano motivo se AMD mai facesse uscire una scheda "top" quale si vocifera (o si spera) sia Vega,dotata sopratutto della ram HBM2, dovrebbe svenderla a 300 euro? :eek:
Visti i prezzi attuali delle verdi poi... :rolleyes:
Tranquilli che se faranno una scheda che va come una verde,il prezzo le sarà allineato... :rolleyes:
Sperando anche che il prerzzo non sia l'unica cosa che le pone sullo stesso piano.
Legolas84
16-10-2016, 14:20
Secondo me a livello di performance tra fury X e 980Ti siamo li.... ora, prima era in vantaggio la 980ti ma adesso la fury ha recuperato....
Nel performance per watt come al solito invece vince NVIDIA, l'AIO può essere un plus per qualcuno o un malus per altri.... insomma sono sempre scelte...
Secondo me finchè si resta in single gpu una vale l'altra a seconda delle preferenze personali e delle valutazioni che fa ognuno.
Se si parla di overclock e consumi, la cosa vale ambo i lati....
Il problema della fury è stato il ritardo, il consumo, l'aio e le performance iniziali....
Una scheda che arriva dopo mesi e mesi deve fare ben altro che stare a ridosso della 1070 (FAIL senza se e senza ma), e comunque con le hbm2 quei prezzi scordateli
Una scheda che a 300 euro stia a ridosso della 1070 non è un fail senza se e senza ma, è l'acquisto dell'anno.
Così come 1060 e 480 sono ottimi acquisti e infatti stanno vendendo bene.
fraussantin
16-10-2016, 14:20
Imho, il confronto sensato sarebbe 980Ti occata con FuryX occata... per vedere il performance rate (e il performance/watt rate nello specifico gioco o set di giochi..).
Il confronto sarebbe da fare tra custom e custom prendendone una buona media ( asus,gigs ,msi ecc)
Senza ulteriori oc. Quello che fa l'utenza media.
Con la serie pascal il problema è risolto visto che hanno il collo già tirato.
Di nvidia a base clock in effetti se ne vedono tantissime, il boost 2.0 non interviene mai :fiufiu:
E perchè non dovrebbe intervenire?
amon.akira
16-10-2016, 15:09
se mi parli di custom e quindi di schede overcloccate dovremmo prendere i test con le furyx overcloccate, io con la mia a 1150mhz rispetto ai 1050mhz su doom prendo 10fps fissi ;)
10fps su quanti? giusto x calcolare la %
qui dal grafico vediamo che una 980ti msi gaming custom che boosta in 2.0 1392mhz ed ottiene il 20% di performance in piu, che poi al contrario del tuo overclock a 1150, questo è un oc di fabbrica che sappiamo essere sempre molto risicati, le vere 980ti overcloccate a mano arrivano tranquille a 1450-1500 e li poi prendono il largo.
killeragosta90
16-10-2016, 18:02
quelli dx11 sono steam, quelli dx12 sono uwp, li ho riportati entrambi mi pare
Che pirla! :doh: Hai ragione, mi sono lasciato trarre in inganno dalla memoria, pensando che ci fosse una versione DX11 che girasse sulla UWP :stordita: In effetti l'unica versione (logicamente) in DX11 è quella su Steam, il confronto è quello giusto con le DX12, per forza di cose della UWP.
fraussantin
17-10-2016, 08:17
ok ho salvato il post e segnato il fail di vega come avevo segnato il fail di polaris che aveva pronosticato spidermans tempo fa :D
:asd:
Sono fascie di mercato diverse.
Poi secondo l'inutile sondaggio di steam, che statisticamente fanno solo gli utenti verdi ,( forse perché che i rossi sono più timidi ), non aveva tanto sbagliato.
La 1060 è già a metà classifica. Ed è uscita dopo la.480 . ( o sbaglio?)
Sono fascie di mercato diverse.
Poi secondo l'inutile sondaggio di steam, che statisticamente fanno solo gli utenti verdi ,( forse perché che i rossi sono più timidi ), non aveva tanto sbagliato.
La 1060 è già a metà classifica. Ed è uscita dopo la.480 . ( o sbaglio?)
ancora con questo steam, aggiornatevi un po'.
Sai che esiste il mining? Sai quante schede video nvidia usano?
Sai quanti che fanno mining si fanno il sondaggio steam?
Sai come si fa' una statistica e che valore ha il campione?
La conoscenza rende liberi, soprattutto noi liberi di leggere queste cose.
AceGranger
17-10-2016, 08:59
ancora con questo steam, aggiornatevi un po'.
Sai che esiste il mining? Sai quante schede video nvidia usano?
Sai quanti che fanno mining si fanno il sondaggio steam?
Sai come si fa' una statistica e che valore ha il campione?
La conoscenza rende liberi, soprattutto noi liberi di leggere queste cose.
della serie
sai che esistono le render farm di GPU e sai quanti usano AMD per renderizzare ?
il mining rispetto al mercato gaming è uno sputo, come lo sono anche gli altri settori, aiutano a fare numeri ma sono veramente ristretti rispetto a quello Gaming.
guarda non ti devi giustificare, è una tua opinione e la rispetto e per tanto ho segnato giusto per il gusto di prendersi un po' in giro e poco sul serio :D
boh steam pare essere l'onniscienza, ma in tanto anandtech dice questo (http://www.anandtech.com/show/10613/discrete-desktop-gpu-market-trends-q2-2016-amd-grabs-market-share-but-nvidia-remains-on-top), ed il mercato è calato o è stagnante ed amd bene o male ha recuperato e non credo l'abbia fatto con le 28nm.
questo lo dico a prescindere che sia un prodotto buono oppure no secondo la nostra opinione di polaris pascal vega, ecc.
principalmente lo hanno fatto con le 28nm; poi guardando i grafici separti si vede ( e lo scrivono )
"Unlike its rival, NVIDIA was affected by seasonality in the second quarter, and likely anticipation of its Q2/Q3 product launches".
che l'aumento di market share di AMD , oltre che del taglio di prezzi che ha effettuato a fine 2015, è frutto anche del calo di vendite netto di nVidia nel periodo di annuncio delle nuove GPU.
principalmente lo hanno fatto con le 28nm; poi guardando i grafici separti si vede ( e lo scrivono )
"Unlike its rival, NVIDIA was affected by seasonality in the second quarter, and likely anticipation of its Q2/Q3 product launches".
che l'aumento di market share di AMD , oltre che del taglio di prezzi che ha effettuato a fine 2015, è frutto anche del calo di vendite netto di nVidia nel periodo di annuncio delle nuove GPU.
Infatti le 970 da giugno a agosto sono aumentate su steam :asd:
tomsw.it ha colpito forte :rotfl:
sul pc nuovo di mio fratello non ho visto comparire l'hw survey e sono sicuro che quando gli uscirà farà "cancel" :asd:
fraussantin
17-10-2016, 09:28
guarda non ti devi giustificare, è una tua opinione e la rispetto e per tanto ho segnato giusto per il gusto di prendersi un po' in giro e poco sul serio :D
boh steam pare essere l'onniscienza, ma in tanto anandtech dice questo (http://www.anandtech.com/show/10613/discrete-desktop-gpu-market-trends-q2-2016-amd-grabs-market-share-but-nvidia-remains-on-top), ed il mercato è calato o è stagnante ed amd bene o male ha recuperato e non credo l'abbia fatto con le 28nm.
questo lo dico a prescindere che sia un prodotto buono oppure no secondo la nostra opinione di polaris pascal vega, ecc.
:) beh di certo sta vendendo più della serie 300.
Sia chiaro non comparire in classifica non vuol dire non vendere niente.
ancora con questo steam, aggiornatevi un po'.
Sai che esiste il mining? Sai quante schede video nvidia usano?
Sai quanti che fanno mining si fanno il sondaggio steam?
Sai come si fa' una statistica e che valore ha il campione?
La conoscenza rende liberi, soprattutto noi liberi di leggere queste cose.
Mamma mia ... Ancora non capisco perchè invece di venderle amd non se le tiene per minare.
In vista nuovi modelli per amd
In vista nuovi modelli per amd
Li ha avvistati la sonda ESA che sta per attraccare su marte :sofico: :sofico: :sofico: :sofico:
(troooooolllll!!!!!!)
Gyammy85
17-10-2016, 11:51
ma discutere se una scheda ha venduto tanto o poco a che serve? cioè solo a me non me ne frega un caxxo di quanto ha venduto una scheda?
Che poi amd ha recuperato quote di mercato anche prima dell'uscita di polaris, la situazione può solo migliorare
:confused: ve l'avranno già chiesto mille vole, ma che miglioramenti porta il freesync rispetto al vsync?
Legolas84
17-10-2016, 12:29
Sui monitor in cui funziona al 100% elimina il tearing e riduce l'input lag e lo stuttering.... In pratica giochi come se avessi il v-sync off ma senza tearing...
Inviato dal mio ONE A2003 utilizzando Tapatalk
fraussantin
17-10-2016, 12:30
:confused: ve l'avranno già chiesto mille vole, ma che miglioramenti porta il freesync rispetto al vsync?
Fluidità e niente tearing a qualunque fps.
E niente inputlag.
fraussantin
17-10-2016, 13:12
Mah insomma, se hai 30fps la fluidità non che l'hai manco se piangi :asd:
Si chiaro ...
Ma almeno a 55 fps non stutteri. ( o almeno non dovrebbe).
O meglio risolve i lag e lo stuttering causato dal vsync . Quello causato da altre cose ti rimane. Mi pare sottointeso.
Poi a cifre decenti come alcuni freesync può meritare ( se uno resta o prevede di restare sempre sul pianeta rosso), spenderci cifre folli come per i gsync imho non ne vale la pena.
Legolas84
17-10-2016, 13:15
Si chiaro ...
Ma almeno a 55 fps non stutteri. ( o almeno non dovrebbe).
O meglio risolve i lag e lo stuttering causato dal vsync . Quello causato da altre cose ti rimane. Mi pare sottointeso.
se è come il g-sync puoi arrivare tranquillamente fino a 40... sotto si sente....
fraussantin
17-10-2016, 13:27
Sono la stessa cosa, se non lo senti fino a 40 con il g-sync non lo senti manco con il freesync.
Dipende da uno quanto è sensibile e basta.
A meno che non ha un monitor con il range basso come il mio che parte da 48hz, quindi a 40 fps hai o stuttering o tearing perchè freesync è spento.
Ma questo è un'altro discorso.
Si ma non è un problema. Insomma con me vga moderne sopra i 50 ci si stà , al limite abbassi i dettagli.
Non stiamo parlando di monitor che in genere compra uno con una vga di fascia bassa. Altrimenti sono io che vi dico pigliatevi un monitor da 100 euro e mettete 100 euro in più per la vga.
Legolas84
17-10-2016, 13:41
Sono la stessa cosa, se non lo senti fino a 40 con il g-sync non lo senti manco con il freesync.
Dipende da uno quanto è sensibile e basta.
A meno che non ha un monitor con il range basso come il mio che parte da 48hz, quindi a 40 fps hai o stuttering o tearing perchè freesync è spento.
Ma questo è un'altro discorso.
Si be ovvio che è soggettivo... il fatto è che fino a 40fps la sincronia adattiva garantisce risultati comunque migliori.... sotto diventa comunque scandaloso.
Pensa che io personalmente cerco sempre di stare sopra i 90fps per sfruttare a pieno il mio monitor.... e sento una gran differenza anche rispetto ai 60fps.
Un'altra cosa che ho notato è l'intervento del g-sync nella riduzione del ghosting... davvero un altro pianeta rispetto ai monitor che non fanno questo tipo di intervento sui pixel... ;)
Poi comunque se vai a vedere il thread del PG348Q c'è persino chi non nota differenza tra 40hz e 100hz... :asd:
Che poi amd ha recuperato quote di mercato anche prima dell'uscita di polaris, la situazione può solo migliorare
può accompagnare solo :O
AceGranger
17-10-2016, 13:46
può accompagnare solo :O
:eek: :eek: :eek:
Robydriver
17-10-2016, 16:09
può accompagnare solo :O
:sbonk: :sbonk: :sbonk: :sbonk: :sbonk: :sbonk:
IntoTrouble
17-10-2016, 17:08
Si be ovvio che è soggettivo... il fatto è che fino a 40fps la sincronia adattiva garantisce risultati comunque migliori.... sotto diventa comunque scandaloso.
Pensa che io personalmente cerco sempre di stare sopra i 90fps per sfruttare a pieno il mio monitor.... e sento una gran differenza anche rispetto ai 60fps.
Un'altra cosa che ho notato è l'intervento del g-sync nella riduzione del ghosting... davvero un altro pianeta rispetto ai monitor che non fanno questo tipo di intervento sui pixel... ;)
Poi comunque se vai a vedere il thread del PG348Q c'è persino chi non nota differenza tra 40hz e 100hz... :asd:
quoto, 100fps minimo ftw
altrimenti non mi disturbate nemmeno :asd:
sgrinfia
17-10-2016, 20:22
AMD, che bel colpo! Le GPU Radeon Pro nei server di Alibaba
Nei datacenter dei colosso cinese dell'ecommerce Alibaba ci saranno le GPU Radeon Pro. Il titolo AMD festeggia e cresce del 4%.
I datacenter di Alibaba Group, gigantesco ecommerce cinese guidato da Jack Ma, funzioneranno anche grazie alle GPU AMD Radeon Pro. Si tratta di un importante accordo, annunciato nel corso della Alibaba Computing Conference dal presidente e CEO di AMD Lisa Su e Simon Hu, presidente di Alibaba Cloud.
L'intesa non prevede solamente l'uso delle soluzioni di calcolo AMD da parte di Alibaba, ma anche un impegno congiunto per quanto riguarda la ricerca. Per l'azienda statunitense si tratta indubbiamente di un'ottima notizia, perché il sostegno di un colosso come quello cinese non può far altro che agevolare accordi simili con altre realtà.
Trovare spazio nei datacenter con le proprie GPU permetterà ad AMD non solo di fare concorrenza alle analoghe soluzioni di Nvidia e Intel (Tesla e Xeon Phi), ma anche di spianare la strada ai futuri processori server basati su architettura Zen.
Il settore del cloud computing è in costante espansione, ed è quello che traina l'industria hi-tech con investimenti complessivi di svariate decine di miliardi di dollari. Per AMD, da anni ai margini, guadagnare anche una pur piccola fetta di mercato potrebbe essere di grande beneficio.
L'azienda, al momento, è strettamente legata alle commesse di Microsoft e Sony per i chip di PS4 e Xbox One e deve trovare nuove fonti d'introito per scongiurare un futuro in cui ulteriori cambi di scenario possano metterla di nuovo in crisi.
Dopo anni di difficoltà, oltre a un'azienda più agile e propositiva, anche i prodotti sembrano all'altezza della concorrenza. Gli occhi sono ovviamente tutti puntati su Zen. Il mercato ha preso molto bene l'intesa con Alibaba, facendo schizzare del 4% il titolo di AMD nella giornata di venerdì.
"La partnership tra AMD e Alibaba Cloud offrirà ai clienti di entrambe le aziende la possibilità di accedere a soluzioni di graphic processing più diversificate e basate sul cloud. Nella nostra visione, lavorare insieme a un partner tecnologico come AMD è fondamentale per offrire ad aziende di ogni settore tecnologie e funzionalità computazionali all'avanguardia", ha dichiarato Simon Hu, presidente di Alibaba Cloud.
Non si tratta però di un accordo esclusivo: Alibaba usa anche GPU Nvidia. A gennaio l'azienda ha annunciato un'intesa analoga con la rivale di AMD. Il gigante cinese è in grande fermento: l'azienda sta cercando di diversificare il proprio business, puntando a competere con Amazon Web Services, Microsoft Azure e altre realtà nel mercato dei servizi e dell'archiviazione cloud.;)
probabili rx 470SE e rx 465 da opporre alla 1050ti
http://videocardz.com/63918/amd-to-launch-radeon-rx-470-with-1792-stream-processors
VanCleef
21-10-2016, 09:26
Ottima notizia, almeno per me...
Chi voleva avere una nuova scheda decente (si spera) a 150-170€ è accontentato...
Soulbringer
21-10-2016, 09:37
Sulla fascia bassa fanno concorrenza in tempo zero, su quella alta aspettano 8 mesi...:muro:
Vogliamo VEGA, non 'ste schedine! :asd:
Ottima notizia, almeno per me...
Chi voleva avere una nuova scheda decente (si spera) a 150-170€ è accontentato...
Spero più sui 150 che 170 visto che le 470 full si trovano le prime decenti già sui 200.
Resterebbero fuori mercato le rx 460 da 4GB, ma a mio modo di vedere lo sono sempre state
VanCleef
21-10-2016, 09:44
Spero più sui 150 che 170 visto che le 470 full si trovano le prime decenti già sui 200.
Resterebbero fuori mercato le rx 460 da 4GB, ma a mio modo di vedere lo sono sempre state
per quello ho scritto 170... non vedo come con le rx460 4gb a 140€ si possano mettere le RX470SE 4GB a 150...
Magari mi sbaglio...
probabili rx 470SE e rx 465 da opporre alla 1050ti
http://videocardz.com/63918/amd-to-launch-radeon-rx-470-with-1792-stream-processors
Nuove Radeon! :eek: Oooohhhh! :O... finalmente appare all'orizzonte Veg.... oh wait... :stordita:
136milioni di $ di utile operativo netto sulle semicustom in un trimestre: come era quella del "amd ha le console perché vende sottocosto"? :fiufiu:
136milioni di $ di utile operativo netto sulle semicustom in un trimestre: come era quella del "amd ha le console perché vende sottocosto"? :fiufiu:
dov'e' quello che continuava a ripeterlo?
AceGranger
21-10-2016, 11:14
136milioni di $ di utile operativo netto sulle semicustom in un trimestre: come era quella del "amd ha le console perché vende sottocosto"? :fiufiu:
si ma va messo a confronto con il numero esorbitante di chip che finiscono nelle 2 console principali.... in rapporto fattura meglio la divisione Tegra di nVidia, e ho detto tutto :asd:
e meno male che hanno fatto un buon lavoro con le APU, perchè la fantasmagorica divisione GPU, con le innumerevoli RX480 vendute, ha fatto segnare una bella perdita di 66 Milioni
136milioni di $ di utile operativo netto sulle semicustom in un trimestre: come era quella del "amd ha le console perché vende sottocosto"? :fiufiu:
ehh nvidia non ci investe nelle console perchè non ci guadagna niente....
oh wait Nintendo switch powerd by tegra custom + api uber putenti :asd:
Legolas84
21-10-2016, 11:24
si ma va messo a confronto con il numero esorbitante di chip che finiscono nelle 2 console principali.... in rapporto fattura meglio la divisione Tegra di nVidia, e ho detto tutto :asd:
e meno male che hanno fatto un buon lavoro con le APU, perchè la fantasmagorica divisione GPU, con le innumerevoli RX480 vendute, ha fatto segnare una bella perdita di 66 Milioni
Quoto, direi che è una cosa evidente per chi non è un fanboy...
Comunque, guardando le situazione a 360gradi sembra che la situazione generale dei conti AMD stia leggermente migliorando anche se sempre molto distante dai risultati dei competitor...
Inviato dal mio ONE A2003 utilizzando Tapatalk
si ma va messo a confronto con il numero esorbitante di chip che finiscono nelle 2 console principali.... in rapporto fattura meglio la divisione Tegra di nVidia, e ho detto tutto :asd:
e meno male che hanno fatto un buon lavoro con le APU, perchè la fantasmagorica divisione GPU, con le innumerevoli RX480 vendute, ha fatto segnare una bella perdita di 66 Milioni
come al solito solo falsita' da sentito dire....
nel q3 16 tegra ha avuto un revenue di 130 M$....
ha in pratica fatturato meno dell'income dell'embedded di amd :asd:
AceGranger
21-10-2016, 11:31
come al solito solo falsita' da sentito dire....
nel q3 16 tegra ha avuto un revenue di 130 M$....
ha in pratica fatturato meno dell'income dell'embedded di amd :asd:
è italiano è... ho scritto RAPPORTATO AL NUMERO DI CHIP.
di Tegra ne fanno 2 in croce :asd:
è italiano è... ho scritto RAPPORTATO AL NUMERO DI CHIP.
di Tegra ne fanno 2 in croce :asd:
peccato perche' si parla di risultati finanziari, l'italiano conta poco, meglio la matematica :asd:
nogaap
TOTAL revenue q2 2016:$1153
revenue
GPU $959
Tegra Processor $128
Other $66
TOTAL net icome: $190
Free Gordon
23-10-2016, 15:45
http://www.eurogamer.net/articles/digitalfoundry-2016-inside-playstation-4-pro-how-sony-made-a-4k-games-machine
Free Gordon
23-10-2016, 15:50
Intervista molto interessante a Cerny, sulle inside specs di Polaris... e su altre features che vedremo probabilmente in Vega.
La cosa più interessante, è senza dubbio l'ID buffer (questa feature cmq non sarebbe sfruttabile in dx11..ma in dx12, probabilmente... :) ) ma anche il fatto che P10 abbia la possibilità di cacolare l'fp16 a fullrate (fp32 * 2) è molto interessante in chiave futura, sopratutto su console.
PS.
GP104 non ha questa possibilità (lo può fare ma solo a 1/128esimo se non ricordo male... :rolleyes: ), GP100 invece ha il supporto nativo fullrate.
Gyammy85
23-10-2016, 18:16
Intervista molto interessante a Cerny, sulle inside specs di Polaris... e su altre features che vedremo probabilmente in Vega.
La cosa più interessante, è senza dubbio l'ID buffer (questa feature cmq non sarebbe sfruttabile in dx11..ma in dx12, probabilmente... :) ) ma anche il fatto che P10 abbia la possibilità di cacolare l'fp16 a fullrate (fp32 * 2) è molto interessante in chiave futura, sopratutto su console.
PS.
GP104 non ha questa possibilità (lo può fare ma solo a 1/128esimo se non ricordo male... :rolleyes: ), GP100 invece ha il supporto nativo fullrate.
Link?
si ma va messo a confronto con il numero esorbitante di chip che finiscono nelle 2 console principali.... in rapporto fattura meglio la divisione Tegra di nVidia, e ho detto tutto :asd:
e meno male che hanno fatto un buon lavoro con le APU, perchè la fantasmagorica divisione GPU, con le innumerevoli RX480 vendute, ha fatto segnare una bella perdita di 66 Milioni
Grosse cifre x 0 fa sempre zero
Dal dire lavorano in perdita a quei 136mln ci passa la differenza fra le chiacchere e i fatti
AceGranger
23-10-2016, 22:42
Grosse cifre x 0 fa sempre zero
Dal dire lavorano in perdita a quei 136mln ci passa la differenza fra le chiacchere e i fatti
:mbe: non ho mai scritto che lavorano in perdita.
Free Gordon
23-10-2016, 22:54
Link?
E' sopra ;)
mikael84
23-10-2016, 23:00
Intervista molto interessante a Cerny, sulle inside specs di Polaris... e su altre features che vedremo probabilmente in Vega.
La cosa più interessante, è senza dubbio l'ID buffer (questa feature cmq non sarebbe sfruttabile in dx11..ma in dx12, probabilmente... :) ) ma anche il fatto che P10 abbia la possibilità di cacolare l'fp16 a fullrate (fp32 * 2) è molto interessante in chiave futura, sopratutto su console.
PS.
GP104 non ha questa possibilità (lo può fare ma solo a 1/128esimo se non ricordo male... :rolleyes: ), GP100 invece ha il supporto nativo fullrate.
Polaris non raddoppia la FP16, non ho ben capito ciò che hai scritto.
Polaris ha la FP16 pari alla FP32.
La differenza sta che il driver può programmare nativamente sia la FP16 che la FP32 (questo anche sulla serie precedente GCN). Se alcuni calcoli possono essere effettuati in FP16 anzichè in 32, significa sfruttare meno registri, occupare meno cache registro e di conseguenza meno cache e BW totale.
Free Gordon
23-10-2016, 23:10
Polaris non raddoppia la FP16, non ho ben capito ciò che hai scritto.
Polaris ha la FP16 pari alla FP32.
La differenza sta che il driver può programmare nativamente sia la FP16 che la FP32 (questo anche sulla serie precedente GCN). Se alcuni calcoli possono essere effettuati in FP16 anzichè in 32, significa sfruttare meno registri, occupare meno cache registro e di conseguenza meno cache e BW totale.
No no, raddoppia proprio la potenza fp16, passa a 8.4tflops (su 36CU/911mhz ovviamente) (leggi l'articolo di Cerny). ;)
Free Gordon
23-10-2016, 23:17
http://www.eurogamer.net/articles/digitalfoundry-2016-inside-playstation-4-pro-how-sony-made-a-4k-games-machine
New features from AMD roadmap - the ability to run two FP16 operations concurrently instead of one FP32, plus the integration of a work scheduler for increased efficiency
E fa anche un esempio:
"One of the features appearing for the first time is the handling of 16-bit variables - it's possible to perform two 16-bit operations at a time instead of one 32-bit operation," he says, confirming what we learned during our visit to VooFoo Studios to check out Mantis Burn Racing. "In other words, at full floats, we have 4.2 teraflops. With half-floats, it's now double that, which is to say, 8.4 teraflops in 16-bit computation. This has the potential to radically increase performance."
mikael84
23-10-2016, 23:22
No no, raddoppia proprio la potenza fp16, passa a 8.4tflops (su 36CU/911mhz ovviamente) (leggi l'articolo di Cerny). ;)
P10 (chip polaris) ha le fp16 native programmabili in FP32 ed FP16. FP16 ed FP32 sono 1:1.;)
:mbe: non ho mai scritto che lavorano in perdita.
Parlo a nuora affinché suocera intenda
Free Gordon
24-10-2016, 10:54
P10 (chip polaris) ha le fp16 native programmabili in FP32 ed FP16. FP16 ed FP32 sono 1:1.;)
Boh, allora Cerny ha sparato una cazzata nell'intervista sopra?? :sofico:
Ti ho linkato i passaggi..
Gyammy85
24-10-2016, 11:42
Basterà 1 TB di hbm2 per il mercato professionale? :O
http://hardware.hdblog.it/2016/10/21/AMD-scheda-grafica-oltre-1TB-memoria-10000/
AceGranger
24-10-2016, 11:47
Basterà 1 TB di hbm2 per il mercato professionale? :O
http://hardware.hdblog.it/2016/10/21/AMD-scheda-grafica-oltre-1TB-memoria-10000/
mica metteranno 1 TB di HBM2....
la GPU fara parte della linea SSG, avra 16GB di HBM2 ai quali verra affiancato uno slot M.2 per metterci un SSD; inizialmente si trattera di un kit di sviluppo, la GPU finale uscira in un secondo tempo, probabilmente i primi del 2018 e altrettanto probabilmente ad un prezzo inferiore.
1 TB di HMB2 non ti basterebbero 100.000 dollari, altro che 10.000
Free Gordon
24-10-2016, 12:41
mica metteranno 1 TB di HBM2....
la GPU fara parte della linea SSG, avra 16GB di HBM2 ai quali verra affiancato uno slot M.2 per metterci un SSD; inizialmente si trattera di un kit di sviluppo, la GPU finale uscira in un secondo tempo, probabilmente i primi del 2018 e altrettanto probabilmente ad un prezzo inferiore.
1 TB di HMB2 non ti basterebbero 100.000 dollari, altro che 10.000
Spero che le SSG escano ben prima.. con Polaris sicuramente, con Vega non dovrebbero tardare.
Come facciamo a sapere a che scheda si riferisce l'articolo? :D
http://www.tweaktown.com/news/54553/amd-preparing-10-000-graphics-card-1tb-ram/index.html
In realtà l'articolo originale dice questo:
AMD will reportedly have over 1TB of on-board graphics memory, similar to how its high-end professional Radeon Pro SSG works, but Dracarys is "far more integrated" and a lot "closer to the metal" compared to the Radeon Pro SSG. There is 20TFLOPS+ of FP16 performance thanks to the Vega 10 GPU on Dracarys, providing twice the GPU horsepower than the Radeon Pro SSG.
Non si sa come, né quando :D ma tant'è... boh, vedremo..
Free Gordon
24-10-2016, 17:06
Intanto sembrerebbe spuntare nei driver..
http://www.bitsandchips.it/recensioni/52-english-news/7582-new-fury-card-spotted-in-the-newest-crimson-drivers
Una nuova Fury?? :D
Gyammy85
24-10-2016, 17:34
Stavo per postarla io :D
Se fanno uscire una "fury" a 16nm e con memorie DDR5 mo m'enfumo!... :O
Continuo a non capire perchè sperate nelle ddr5.
Il vantaggio portato dalle HBM è netto.
Praticamente sperate in dei chip Polaris più grandi altrimenti e nulla di più.
Free Gordon
25-10-2016, 01:50
Se fanno uscire una "fury" a 16nm e con memorie DDR5 mo m'enfumo!... :O
Il brand "Fury" è come il brand Titan.. ;) il concetto è lo stesso.
Il brand "Fury" è come il brand Titan...
sì sì... Uguale proprio! http://digilander.libero.it/arosati76/sisi.gif
http://digilander.libero.it/arosati76/usd5kj.gif :cry:
Inviato dal mio SM-N910F utilizzando Tapatalk
fraussantin
25-10-2016, 06:40
Il brand "Fury" è come il brand Titan.. ;) il concetto è lo stesso.
Questa me la segno, per trollate future.
:asd:
Ps: ho capito cosa intendi cmq ed ha senso, ma è troppo bella! :asd:
Ale55andr0
25-10-2016, 07:36
Continuo a non capire perchè sperate nelle ddr5.
Il vantaggio portato dalle HBM è netto.
Assolutamente, partendo dai costi altissimi e continuando con uno scatafascio di banda che non ha dato ALCUN vantaggio rispetto i rivali con ddr5
Praticamente sperate in dei chip Polaris più grandi altrimenti e nulla di più.
No, speriamo che caghino fuori qualcosa che performi più di una scheda di due anni fa prima che i ghiacci di sciolgano
Gyammy85
25-10-2016, 08:03
Qualsiasi cosa attinente al titolo del thread postata scatena uragani :asd: era meglio tenerlo chiuso
Gyammy85
25-10-2016, 15:07
i pratica avete ragione tutti e due!
http://gaming.hwupgrade.it/news/videogames/architettura-ps4-pro-cerny-con-polaris-piu-potenza-alla-gpu-in-form-factor-piccolo_65297.html
"Abbiamo anche ottenuto un paio di caratteristiche peculiari che non ci sono ancora in nessuna scheda video discreta".
"La prima di queste caratteristiche riguarda la gestione delle variabili a 16 bit, come ho detto prima. In altre parole, a pieno carico, se normalmente avremmo 4,2 teraflop di potenza massima, con le nuove ottimizzazioni nell'elaborazione a 16 bit arriviamo a 8,4 teraflop" :eek:
Qui si parla di questa tecnologia anche per la ps4 pro
https://www.tomshw.it/ps4-pro-raddoppia-la-potenza-con-la-tecnologia-di-amd-vega-81009
AceGranger
25-10-2016, 15:15
i pratica avete ragione tutti e due!
http://gaming.hwupgrade.it/news/videogames/architettura-ps4-pro-cerny-con-polaris-piu-potenza-alla-gpu-in-form-factor-piccolo_65297.html
"Abbiamo anche ottenuto un paio di caratteristiche peculiari che non ci sono ancora in nessuna scheda video discreta".
"La prima di queste caratteristiche riguarda la gestione delle variabili a 16 bit, come ho detto prima. In altre parole, a pieno carico, se normalmente avremmo 4,2 teraflop di potenza massima, con le nuove ottimizzazioni nell'elaborazione a 16 bit arriviamo a 8,4 teraflop" :eek:
viene detto che hanno ottimizzato i registri e che riescono a infilarci 2 varaibili da 16 bit invece che una sola, ma da li come fa a dire che raddoppiano i TFlops :confused: :confused:
o mi sono perso qualche cosa ?
killeragosta90
25-10-2016, 15:16
.
Ricordate quando nvidia forzava gli fp16 nelle sue 6800 per spuntarla in farcry (qualità peggiore) ? :asd:
cmq usare fp16 nei pixel shader è prassi nei giochini per smartphone. Non sempre possono essere usati senza introdurre artefatti.
magari è solo marketing di sony che inizia a fare guerra mediatica a microsoft per chi ce l'ha più lungo sui TF essendo dietro sotto questo aspetta rispetto la Scorpio :asd:
Sony sta truccando il suo 4K più di un put**none antico...:asd:
Usa il 1920x2160 con interpolazione dei pixel mancanti ed ha un buffer temporale per i filtri. Con le immagini in movimento si perde risoluzione per loro stessa ammissione.
Fp16 "credo" gli serva proprio per interpolare tutti i pixel del frame precedente quasi for free...
Curioso di vedere la resa su TV con sistemi per aumentare la motion resolution. Non bastava il televisore che perde risoluzione per i tempi di risposta indegni del LCD...:rolleyes:
in pratica Sony ha fatto l'errore con il UHD uguale a quello fatto da M$oft per il FHD, sottodimensionare l'hardware...
non che ci volesse una laurea a capire che per il 4k nativo ci voglia ben altro che una P10.
Considerando che molti guardano le TV 4K da più di 3m (55pollici) forse la spuntano per manifesta ignoranza dei propri clienti...:sofico:
Il loro 4K dovrebbe rendere come un 1500p (forse)...
http://www.webnews.it/wp-content/uploads/2014/04/Grafico_4K_VS_1080p.png
Soulbringer
25-10-2016, 15:46
Solo a me sembra patetico sentir parlare di 4K sulle console? Ma c'è qualcuno che ci crede sul serio? Già con le schifezze che ci sono oggi, dopo diverse "evoluzioni" non si riesce a renderizzare nativamente il 1080p, a che serve sbandierare il 4k? Non era meglio un più conservativo 1080p high detail con fps, non dico 60, ma qualcosa di più decente dei 30 di oggi?
Vabbé, comunque spero esca presto qualche news seria su Vega, piuttosto che questi rumors sterili su versioni di Polaris per console...
fraussantin
25-10-2016, 16:07
Considerando che molti guardano le TV 4K da più di 3m (55pollici) forse la spuntano per manifesta ignoranza dei propri clienti...:sofico:
Il loro 4K dovrebbe rendere come un 1500p (forse)...
http://www.webnews.it/wp-content/uploads/2014/04/Grafico_4K_VS_1080p.png
Riferito alla tabella...
Per quanto riguarda i filmati.
Per quanto riguarda il rendering dei giochi cambia e molto già in un 22" ma anche di meno.
Ti sparisce l'aliasing senza perdere nitidezza.
Ma ovviamente loro il rendering 4k... Co'u'cazzz...
mikael84
25-10-2016, 17:25
i pratica avete ragione tutti e due!
http://gaming.hwupgrade.it/news/videogames/architettura-ps4-pro-cerny-con-polaris-piu-potenza-alla-gpu-in-form-factor-piccolo_65297.html
"Abbiamo anche ottenuto un paio di caratteristiche peculiari che non ci sono ancora in nessuna scheda video discreta".
"La prima di queste caratteristiche riguarda la gestione delle variabili a 16 bit, come ho detto prima. In altre parole, a pieno carico, se normalmente avremmo 4,2 teraflop di potenza massima, con le nuove ottimizzazioni nell'elaborazione a 16 bit arriviamo a 8,4 teraflop" :eek:
Qui si parla di questa tecnologia anche per la ps4 pro
https://www.tomshw.it/ps4-pro-raddoppia-la-potenza-con-la-tecnologia-di-amd-vega-81009
Ah ecco nuova implementazione che vedremmo con Vega.....ma in FP16 che ci fai oggi... E'più marketing che altro.
Inutile parlare di TF doppi.
No, speriamo che caghino fuori qualcosa che performi più di una scheda di due anni fa prima che i ghiacci di sciolgano
A me frega niente quanto performa se costa più di 500 euro onestamente.
Non mi interessa avere la scheda più veloce ma quella che va meglio in prestazioni/prezzo nella fascia dei 300-350.
A me frega niente quanto performa se costa più di 500 euro onestamente.
Non mi interessa avere la scheda più veloce ma quella che va meglio in prestazioni/prezzo nella fascia dei 300-350.
Stesso mio pensiero.
Free Gordon
26-10-2016, 00:02
sì sì... Uguale proprio! http://digilander.libero.it/arosati76/sisi.gif
http://digilander.libero.it/arosati76/usd5kj.gif :cry:
Inviato dal mio SM-N910F utilizzando Tapatalk
Perché?? :stordita:
Hai capito cosa intendo?
AMD con il brand Fury si contrappone a Titan, schede enthusiast di livello elevato con caratteristiche premium. Quindi possibile che abbiano tutte il liquido, o supporto driver ad hoc (presente sulle Fury per i 4GB) o anche altro (ecc ecc).
Free Gordon
26-10-2016, 00:03
i pratica avete ragione tutti e due!
http://gaming.hwupgrade.it/news/videogames/architettura-ps4-pro-cerny-con-polaris-piu-potenza-alla-gpu-in-form-factor-piccolo_65297.html
"Abbiamo anche ottenuto un paio di caratteristiche peculiari che non ci sono ancora in nessuna scheda video discreta".
"La prima di queste caratteristiche riguarda la gestione delle variabili a 16 bit, come ho detto prima. In altre parole, a pieno carico, se normalmente avremmo 4,2 teraflop di potenza massima, con le nuove ottimizzazioni nell'elaborazione a 16 bit arriviamo a 8,4 teraflop" :eek:
Mi pare di no, Mikael ha detto che sono 1:1, in realtà sono 2:1. ;) Come valore teorico.. :)
Free Gordon
26-10-2016, 00:06
viene detto che hanno ottimizzato i registri e che riescono a infilarci 2 varaibili da 16 bit invece che una sola, ma da li come fa a dire che raddoppiano i TFlops :confused: :confused:
o mi sono perso qualche cosa ?
E' ovvio... i Tflops TEORICAMENTE raddoppiano perché sono 2 operazioni in fp16 a ciclo di clock per ALU.. (*2) *64*911* 36CU = 8,4Tflops.
Free Gordon
26-10-2016, 00:08
Curioso di vedere la resa su TV con sistemi per aumentare la motion resolution. Non bastava il televisore che perde risoluzione per i tempi di risposta indegni del LCD...:rolleyes:
Chi ha visto Horizon Zero Down in 4K col checkerboard (1920x2160), dice sia strabiliante..
Boh, vedremo.. :D
Free Gordon
26-10-2016, 00:12
E'più marketing che altro.
Inutile parlare di TF doppi.
Beh, questo mi pare ovvio.. :asd:
E' Sony-marketing, anche per ribattere alla Scorpio e i suoi 6tflops...
Ma c'è da dire che GP104 non ha cmq questa possibilità con la precisione a 16bit.
mikael84
26-10-2016, 01:05
Mi pare di no, Mikael ha detto che sono 1:1, in realtà sono 2:1. ;) Come valore teorico.. :)
No aspetta non fraintendere.
Il chip Polaris è 1:1 e lo rimane.
Le FP32 possono essere utilizzate anche per FP16, risparmiando spazio su registro e chiaramente cache/ banda.
Con Vega sembra riescano ad utilizzare anche due FP16 per registro.
Pascal GP100 tesla funziona via vec2, ovvero una FP32 con 1024 registri, può essere programmata in 2x FP16 sempre su 1024 registri. Totalmente diverso su GP104.
E' uno specchietto per le allodole, Tesla lo implementa per risparmiare registri ed accedere meno in cache.
Su un chip gaming le usavi su titoli del 2003, non a caso GP104 è 1/128.
Preciso però che Polaris ha un rapporto unico e fisso 1:1.;)
Perché?? :stordita:
Hai capito cosa intendo?
AMD con il brand Fury si contrappone a Titan, schede enthusiast di livello elevato con caratteristiche premium. Quindi possibile che abbiano tutte il liquido, o supporto driver ad hoc (presente sulle Fury per i 4GB) o anche altro (ecc ecc).
Ma certo che avevo capito... e a livello di concetto ci sta!... ;)
... è a livello di risultato finale, che sono giusto un po' """diverse""" (sia in termnini di performance che di successo) :p
AceGranger
26-10-2016, 09:33
in pratica Sony ha fatto l'errore con il UHD uguale a quello fatto da M$oft per il FHD, sottodimensionare l'hardware...
secondo me sono 2 cose molto diverse e il fatto che il 4K non sara vero credo si vedra molto poco;
la maggior parte degli utenti console gioca sulle TV, gia normalmente è difficile trovare gente che tiene alla giusta distanza una TV FHD, contando che poi il grosso degli utenti 4K acquistera 50 o 55 pollici, non se ne accorgera quasi nessuno che non sara un 4K nativo.
Gyammy85
26-10-2016, 11:55
si ma questo è un altro discorso, io intendo dire che quell'hardware non regge nativamente i 4k nemmeno a 30fps (così come la one non regge i 1080 nativi a 30fps), cosa che farà la scorpio con il rotto della cuffia perché anche 6TF gcn sono pochi per il 4k nativo a 30fps.
solo che tira di più un 4k a 30fps che un 1080 a 60fps granitici a livello di marketing, come vedi si parla poco di quanto se ne benificerà il gaming sui 1080, perché attiri più clienti così evidentemente.
sony però venderà perché per un anno di fila avrà la console più potente dato che gli sveglioni di M$oft la fanno uscire in holiday 2017, ovvero a dicembre! :doh:
per quello dico che al 99% sony monterà una polaris, mentre Msoft una vega custom con gddr5 dato che non credo monteranno le hbm su una console.
Le console comunque sono molto più ottimizzate usando api di basso livello, la potenza di calcolo viene usata meglio e i 6 tf rendono all'atto pratico di più rispetto ad una scheda discreta da 6 tf...
Soulbringer
26-10-2016, 12:12
Le console comunque sono molto più ottimizzate usando api di basso livello, la potenza di calcolo viene usata meglio e i 6 tf rendono all'atto pratico di più rispetto ad una scheda discreta da 6 tf...
Per forza, finché si sviluppa per console e poi si converte per PC, che tanto "se la cava sempre" il discorso è valido. Ma se si sviluppasse per PC non ci sarebbe differenza...
AceGranger
26-10-2016, 13:02
si ma questo è un altro discorso, io intendo dire che quell'hardware non regge nativamente i 4k nemmeno a 30fps (così come la one non regge i 1080 nativi a 30fps), cosa che farà la scorpio con il rotto della cuffia perché anche 6TF gcn sono pochi per il 4k nativo a 30fps.
solo che tira di più un 4k a 30fps che un 1080 a 60fps granitici a livello di marketing, come vedi si parla poco di quanto se ne benificerà il gaming sui 1080, perché attiri più clienti così evidentemente.
sony però venderà perché per un anno di fila avrà la console più potente dato che gli sveglioni di M$oft la fanno uscire in holiday 2017, ovvero a dicembre! :doh:
per quello dico che al 99% sony monterà una polaris, mentre Msoft una vega custom con gddr5 dato che non credo monteranno le hbm su una console.
e no, invece il discorso è proprio quello; non fregava nulla a Sony di fare una console nativa 4K, tanto praticamente nessuno vedrebbe la differenza, perchè è quasi impossibile avere una TV 4K a distanze corrette.
ed è una ben diverso dal non arrivare FHD.
killeragosta90
26-10-2016, 14:35
Beh, questo mi pare ovvio.. :asd:
E' Sony-marketing, anche per ribattere alla Scorpio e i suoi 6tflops...
Ma c'è da dire che GP104 non ha cmq questa possibilità con la precisione a 16bit.
Chi ha visto Horizon Zero Down in 4K col checkerboard (1920x2160), dice sia strabiliante..
Boh, vedremo.. :D
E' ovvio... i Tflops TEORICAMENTE raddoppiano perché sono 2 operazioni in fp16 a ciclo di clock per ALU.. (*2) *64*911* 36CU = 8,4Tflops.
Mi pare di no, Mikael ha detto che sono 1:1, in realtà sono 2:1. ;) Come valore teorico.. :)
Perché?? :stordita:
Hai capito cosa intendo?
AMD con il brand Fury si contrappone a Titan, schede enthusiast di livello elevato con caratteristiche premium. Quindi possibile che abbiano tutte il liquido, o supporto driver ad hoc (presente sulle Fury per i 4GB) o anche altro (ecc ecc).
Ma è possibile che sei iscritto su questo forum da più di 10 anni e non sei in grado di usare il "quote multiplo"??
Non siamo su una chat, non è possibile leggere 5 post uno dietro l'altro dello stesso utente, dai....
Free Gordon
26-10-2016, 20:58
ti manca un altro x2 :D
Hmm.. no? :stordita:
A me esce 8,4tflps con quel calcolo..
No aspetta non fraintendere.
Il chip Polaris è 1:1 e lo rimane.
Le FP32 possono essere utilizzate anche per FP16, risparmiando spazio su registro e chiaramente cache/ banda.
Con Vega sembra riescano ad utilizzare anche due FP16 per registro.
Pascal GP100 tesla funziona via vec2, ovvero una FP32 con 1024 registri, può essere programmata in 2x FP16 sempre su 1024 registri. Totalmente diverso su GP104.
E' uno specchietto per le allodole, Tesla lo implementa per risparmiare registri ed accedere meno in cache.
Su un chip gaming le usavi su titoli del 2003, non a caso GP104 è 1/128.
Preciso però che Polaris ha un rapporto unico e fisso 1:1.;)
Stando a ciò che dichiara Cerny nell'intervista, è lo stesso per Polaris10 (numero di registri a parte). ;)
Ma certo che avevo capito... e a livello di concetto ci sta!... ;)
... è a livello di risultato finale, che sono giusto un po' """diverse""" (sia in termini di performance che di successo) :p
Ah ok. ;)
Per forza, finché si sviluppa per console e poi si converte per PC, che tanto "se la cava sempre" il discorso è valido. Ma se si sviluppasse per PC non ci sarebbe differenza...
Questa cosa continuate a ripeterla ogni volta, ma non è così che funziona lo sviluppo di un videogioco multipiattaforma.
O volete dirmi che Crysis 3 su PC era simile a quello console? O altri mille esempi. Esclusi GTA 4 e Dark Souls di giochi pensati e tunati per console e poi convertiti più tardi ne ricordo molti pochi (boh, arkham coso).
Soulbringer
27-10-2016, 08:26
Questa cosa continuate a ripeterla ogni volta, ma non è così che funziona lo sviluppo di un videogioco multipiattaforma.
O volete dirmi che Crysis 3 su PC era simile a quello console? O altri mille esempi. Esclusi GTA 4 e Dark Souls di giochi pensati e tunati per console e poi convertiti più tardi ne ricordo molti pochi (boh, arkham coso).
Su console c'è molta più rifinitura in genere, perché le risorse sono scarse e quindi se non ottimizzi al max, il gioco gira da schifo.
Su PC dimmi chi è che fa una cosa del genere al day one...
AceGranger
27-10-2016, 09:11
intendi dire che è studiato a tavolino per risparmiare sull'hardware e vendere in attivo subito che tanto nessuno noterebbe la differenza?...
così si, ci sta come ragionamento.
Si credo proprio che abbiano fatto questo ragionamento; alla fine hanno visto che a 60 Milioni di persone vanno benissimo 30 fps e che addirittura a 20 Milioni di queste vanno benissimo pure i 900p...
con queste premesse credo abbiano fatto una scelta azzeccatissima, contenendo i costi e senza vendere in perdita, hanno commissionato ad AMD un'APU minima indispensabile per ottenere una risoluzione di circa 1800p@30fps per poter fare un upscaling decente a 4K e cosi arrivano sul mercato ben un anno prima.
un 50" FHD ha la sua distanza aurea a 1,9 Metri, e gia è difficile trovare gente che lo tiene correttamente a questa distanza ora, figuriamoci con il 4K dove tutte le e distanze di visione dovrebbero essere dimezzate....
1800p andranno piu che bene per l'utenza consumer.
Riferito alla tabella...
Per quanto riguarda i filmati.
Per quanto riguarda il rendering dei giochi cambia e molto già in un 22" ma anche di meno.
Ti sparisce l'aliasing senza perdere nitidezza.
Ma ovviamente loro il rendering 4k... Co'u'cazzz...
si ma.... hanno venduto 60 Milioni di baracchini.... credi veramente realistico che gli stessi che hanno acquistato quei bagagli si faranno i problemi sull'aliasing di un 1800p ???? è tutto grasso che cola....
Free Gordon
27-10-2016, 12:41
il calcolo dei TF è così nelle gpu moderne:
2(32bit)*sp(US)*clock = 2*2304*911= 4.2TF
ora siccome il capo markettaro sony dice che lo spazio occupato dalla mezza precisione non è lo stesso usato dalla singola precisione si aggiunge un 2x
4(16bit)*sp(US)*clock = 4*2304*911= 8.4TF
quando amd usava il rapporto 1:2 tra singola e doppia infatti i TF 64bit erano la metà della singola precisione. ora usa il rapporto 1:16 tra singola e doppia, mentre nvidia 1:32.
E quindi non ho capito cosa volevi dirmi. :D
Sono 4,2 in FP32 e 8,4 in FP16, come ho scritto...
Che sia marketing non c'è alcun dubbio; stando a vari sviluppatori non è così utile la FP16, come Cerny vorrebbe far pensare..
Free Gordon
27-10-2016, 13:04
http://i.imgur.com/KCt4AQT.jpg
http://i.imgur.com/rKCBdws.jpg
Alcune riflessioni sulle piccole di casa AMD ed Nvidia..
P11 e GP107 sono abbastanza simili...
Mi stupisce il fatto che GP107 abbia un 10% di transistor e mmq in più rispetto a Polaris11. Consuma qualche watt in meno di Polaris11 nella sua incarnazione "cut" (P11 in realtà avrebbe 1024sp, nella versione desktop ha 2CU disabilitate).
Il confronto può essere fatto perché sono sullo stesso "identico" nodo. Samsung14.
Se si guardano le prestazioni, la 1050 (non Ti) è circa il 10% più veloce della RX460. Consumando 10W in meno. Ma l'efficienza di Pascal su queste piccole, non spicca come sui chip più grandi...
La cosa interessate è che GP107 ha il 10% di transistor in più rispetto a P11. P11 ha 1024sp mentre GP107 solamente 768.
Pensavo fossero più cicciotti gli sp di AMD, invece a quanto pare sono decisamente piccini... (oppure pesano molto nel transistor count le rops in più di GP107?).
In realtà gli US gcn sono più "grandi" dei CC superscalari, ma il punto è che per ogni CC nvidia ci sono unità specializzate che su amd non ci sono e che occupano spazio, come LD/LS le SFU. cosa facciano le SFU non lo so, mikael o ren te lo sanno spiegare meglio :D
poi incidono altre componenti come, i registri, la cache, le rop's, i raster, ecc. (le warps che non ricordo cosa siano :D)
Le SFU eseguono calcoli come ad esempio l'interpolazione.
Nel GCN l'interpolazione viene eseguita in emulazione ad 1/4 del rate.
I warp sono dei gruppi di thread che condividono la stessa istruzione. AMD li chiama wavefront.
mikael84
27-10-2016, 15:41
In realtà gli US gcn sono più "grandi" dei CC superscalari, ma il punto è che per ogni CC nvidia ci sono unità specializzate che su amd non ci sono e che occupano spazio, come LD/LS le SFU. cosa facciano le SFU non lo so, mikael o ren te lo sanno spiegare meglio :D
quindi a parità di numero US/CC, i CC sembrano che occupano più spazio.
poi la pipeline nvidia è più lunga di quella amd, quindi meno complessa a livello di transistors e che viaggia a frequenza più alta, per cui sono più "cicciotti" gli US gcn per quello, perché sono più "general purpose" e devono fare compiti che su nvidia sono demandati ad altre componenti.
poi incidono altre componenti come, i registri, la cache, le rop's, i raster, ecc. (le warps che non ricordo cosa siano :D)
gp107 è più grande di quello che sarebbe dovuto essere, ad esempio, perché nvidia invece di fare un GPC grosso con 1RE, ha fatto 2 GPC più piccoli con quindi 2 RE
comunque sul discorso silicio, da come si è visto gp107 perde in OC massimo circa 200mhz (ma anche base clock) e utilizza qualche mv in più per la stessa frequenza rispetto ai chip tsmc.
pensa a P10 con +200mhz e gli stadi moltiplicatori che ha, stava a cavallo della 390x e la Fury liscia, con -100watt :asd:
La storia delle pipeline è una mezza balla ma è difficile da spiegare così su due piedi, sopratutto se non si conosce la microarchitettura interna complessa.
Nvidia è composta da SMM da 128 elementi (cuda core) suddivisi in 4 warp che organizzano il lavoro.
Ogni warp da 32 cuda è affiancato da 2 dispacht unit.
Un warp da 32 cuda, viene completato tramite 8 cicli di clock, ed il secondo dispacht si occupa di affiancargli i LDS e SFU (le LSD si occupano principalmente di memorizzare e inviare i dati ai registri.
Ogni cuda accede a 512 registri contemporanei.
Quindi un SMM viene elaborato con 8 cicli su 4 warp ed 8 D.U che si occupano delle LSD/SFU.
Warp sheduler
D.U-----D.U
32------8/8
AMD GCN ordina l'esecuzione dell'istruzione (tramite scheduler) ai 4 vettori.
Quindi 128 ALU possono essere eseguiti con 11 cicli.
Vet 1 vet 5
vet 2 vet 6
vet 3 vet 7
vet 4 vet 8
8 cicli + 3 di attesa.
Vliw è più adatta a gestire più gruppi di ALU contemporaneamente, ogni simd un'istruzione.
256 ALU in 16 cicli ma ci sono le dipendenze da gestire.
mikael84
27-10-2016, 16:10
Alcune riflessioni sulle piccole di casa AMD ed Nvidia..
P11 e GP107 sono abbastanza simili...
Mi stupisce il fatto che GP107 abbia un 10% di transistor e mmq in più rispetto a Polaris11. Consuma qualche watt in meno di Polaris11 nella sua incarnazione "cut" (P11 in realtà avrebbe 1024sp, nella versione desktop ha 2CU disabilitate).
Il confronto può essere fatto perché sono sullo stesso "identico" nodo. Samsung14.
Se si guardano le prestazioni, la 1050 (non Ti) è circa il 10% più veloce della RX460. Consumando 10W in meno. Ma l'efficienza di Pascal su queste piccole, non spicca come sui chip più grandi...
La cosa interessate è che GP107 ha il 10% di transistor in più rispetto a P11. P11 ha 1024sp mentre GP107 solamente 768.
Pensavo fossero più cicciotti gli sp di AMD, invece a quanto pare sono decisamente piccini... (oppure pesano molto nel transistor count le rops in più di GP107?).
Non sbagli, gp107 è "cicciotto" perchè praticamente progettato su base GP106.
GP106 ha 43mmq2 di collegamento in più (32 rop's e 512kb l2).
GP106 a 128 bit usciva con 157mm2 e 32 rop's effettive (ora sono 16 a vuoto), quindi parte dei transistor deve essere utilizzata così (anzi buona parte).
GP107 perde alcuni SMM.
GP107 poteva essere disegnato, utilizzando delle ddr5x con soli 78mmq2, perchè il bus sarebbe stato da 64bit.:)
Free Gordon
27-10-2016, 16:37
Non sbagli, gp107 è "cicciotto" perchè praticamente progettato su base GP106.
GP106 ha 43mmq2 di collegamento in più (32 rop's e 512kb l2).
GP106 a 128 bit usciva con 157mm2 e 32 rop's effettive (ora sono 16 a vuoto), quindi parte dei transistor deve essere utilizzata così (anzi buona parte).
GP107 perde alcuni SMM.
GP107 poteva essere disegnato, utilizzando delle ddr5x con soli 78mmq2, perchè il bus sarebbe stato da 64bit.:)
78 invece degli attuali 135? La metà solo scalando il bus a 64bit??? :eek:
mikael84
27-10-2016, 16:46
78 invece degli attuali 135? La metà solo scalando il bus a 64bit??? :eek:
Si perchè come GP106 devi sprecare circa 43mmq2 di spazio per collegare 16 rop's e 512kbl2 (praticamente 8 rop's e 256kb l2 a canale da 32bit).
A questo aggiungi un SMM aggiuntivo da 7,5mmq2.
Tirando le somme potevi creare una 1050 con 78,5mmq2.
Considera che su 32 rop's, solo 20 sono accessibili (5 SMMx4=20).
Ti servivano però le ddr5x, per pareggiare il 128bit.:D
Sai che risparmi così, e stesse prestazioni:)
P10 e 11 perdono in parte per la cache enorme.:)
Free Gordon
27-10-2016, 23:26
Non siamo su una chat, non è possibile leggere 5 post uno dietro l'altro dello stesso utente, dai....
Ogni tanto mi scappa la mano. :D
Free Gordon
27-10-2016, 23:38
Si perchè come GP106 devi sprecare circa 43mmq2 di spazio per collegare 16 rop's e 512kbl2 (praticamente 8 rop's e 256kb l2 a canale da 32bit).
A questo aggiungi un SMM aggiuntivo da 7,5mmq2.
Tirando le somme potevi creare una 1050 con 78,5mmq2.
Considera che su 32 rop's, solo 20 sono accessibili (5 SMMx4=20).
Ti servivano però le ddr5x, per pareggiare il 128bit.:D
Sai che risparmi così, e stesse prestazioni:)
Interesting! :)
P10 e 11 perdono in parte per la cache enorme. :)
In rapporto, soprattutto P11 immagino..
Thricome82
28-10-2016, 08:49
Ieri è stato presentato il nuovo Mac Book Pro di casa Apple e monta 3 versioni della AMD Radeon PRO:
https://i.imgur.com/jXuoC25.jpg
Tutte e tre sono di derivazione Polaris 11.
Qui un paio di link, il secondo arriva dal gruppo "Creators Radeon.com":
http://techreport.com/news/30881/radeon-pro-specs-hint-at-a-full-fat-polaris-11-gpu-in-macbook-pros
http://creators.radeon.com/radeon-pro/
Free Gordon
28-10-2016, 14:11
http://www.hwupgrade.it/news/skvideo/alcuni-dettagli-sulle-schede-amd-radeon-pro-integrate-nei-nuovi-macbook-pro_65392.html
Chissà come va' la Radeon Pro 460 da 35W? :)
Credo che, a dispetto dell'opinione espressa sulla news di hwup, il TDP sia stato limitato essenzialmente dal clock.. e non dai 30GB/s in meno di questa versione mobile.
Sicuramente con 35W è un'opzione interessante per dei notebook giocherecci e magari... con uno Zen 2+2 sopra. :)
Chissà se si svegliano e ce lo buttano fuori? :asd:
Credo sarebbe una soluzione decisamente più performante di una APU BR da 512sp... e con consumi paragonabili... :rolleyes:
da quanto ho letto qualche giorno fà su un sito straniero, amd avrebbe fra le mani la possibilità di far uscire un polaris refresh, ma secondo me vogliono prima tirare con questo step produttivo e poi sfruttare l'altro, questo perchè sembra che le rese dal nuovo processo produttivo sono ottime e i continui affinamenti e miglioramenti hanno portato a variazioni molto marcate in diversi punti che si può proprio parlare di polaris refresh, anche senza toccare nulla sull'architettura, la risposta la dovremmo trovare proprio sui nuovi MAC o nei prossimi mesi amd ci farà qualche sorpresa inaspettata.
Free Gordon
28-10-2016, 15:43
l'anno prossimo ci saranno le apu BR in fascia entry-level 2m/4c +512sp (Q1 2017) e apu mainstream Zen 4c/8t +768~1024sp (Q3 2017)
parlo del mobile, su nb.
Le BR mobili con 512sp dovrebbero essere già fuori da un pò...ma i nb che le montano latitano assai purtroppo (come sempre...... :mad: ).
Io preferirei invece una soluzione tipo i3/i5 + Nvidia dedicata, ma by AMD.
Un bel Zen 2+2 o eventualmente 4+4 con una Radeon PRO 460 da 4GB, mi basterebbe per altri 5 anni (ora ho un i3 2310M con GT 540M 1GB che ha appena compiuto 5 anni...) e avresti un portatile leggero e abbastanza fresco.
Un bell'ibrido con prestazioni da desktop di fascia bassa, a un prezzo onesto.
Lo so, non lo vedremo mai. :cry:
parlo del mobile, su nb.
Le BR mobili con 512sp dovrebbero essere già fuori da un pò...ma i nb che le montano latitano assai purtroppo (come sempre...... :mad: ).
Io preferirei invece una soluzione tipo i3/i5 + Nvidia dedicata, ma by AMD.
Un bel Zen 2+2 o eventualmente 4+4 con una Radeon PRO 460 da 4GB, mi basterebbe per altri 5 anni (ora ho un i3 2310M con GT 540M 1GB che ha appena compiuto 5 anni...) e avresti un portatile leggero e abbastanza fresco.
Un bell'ibrido con prestazioni da desktop di fascia bassa, a un prezzo onesto.
Lo so, non lo vedremo mai. :cry:
ma anche si, se le premesse sono queste lato vga, bisogna solo aspettare che esca zen e le sue versioni mobile, un'accoppiata zen+polaris potrebbero essere il best-buy da qui a 6 mesi se vogliono
Free Gordon
28-10-2016, 16:23
ma anche si, se le premesse sono queste lato vga, bisogna solo aspettare che esca zen e le sue versioni mobile, un'accoppiata zen+polaris potrebbero essere il best-buy da qui a 6 mesi se vogliono
Non lo faranno mai......mai.... :cry:
Hanno ste stupidissime APU in testa come progetto primario da 10 anni a questa parte. Non mi chiedere perché tra l'altro.
Ci hanno sempre e solo perso in pratica.
L'idea è buona ma come al solito il lato cpu debole è troppo penalizzante
Inviato dal mio VIE-L09 utilizzando Tapatalk
Gyammy85
31-10-2016, 08:40
Notizia interessante :)
http://www.tweaktown.com/news/54721/amds-next-gen-apu-zen-cpu-cores-vega-gpu-hbm2/index.html
Molto. Un bel muletto con cui giocare solo con l'apu non sarebbe affatto male.
Gyammy85
31-10-2016, 10:48
Sembra confermato il fatto che vega abbia un'architettura diversa rispetto a polaris a parte le hbm2
Ale55andr0
31-10-2016, 13:48
tempo fa era stato postato il brevetto sugli SP diversi da Polaris, bisogna però capire cosa porterà nella pratica.
Mesi di attesa?
Ale55andr0
31-10-2016, 14:03
Ehm...hai frainteso la mia domanda...che era di fatto una risposta alla parte finale del post che ho quotato :asd:
Lo dico da mesi...
Sent from my HTC One M9 using Tapatalk
http://img3.cache.netease.com/game/2016/5/26/20160526161855b0ebb.gif
federico985
31-10-2016, 18:15
ma qualcuno ha idea di quando possa uscire laq 490/490x?
ma qualcuno ha idea di quando possa uscire laq 490/490x?
https://anellidifum0.files.wordpress.com/2010/01/sfera1.jpg
:asd:
non è che sembra, è così.
tempo fa era stato postato il brevetto sugli SP diversi da Polaris, bisogna però capire cosa porterà nella pratica.
E' una nuova architettura che cerca di massimizzare l'uso delle ALU (SP) senza lasciare risorse inutilizzate. Usano Warp/wavefront variabili in base al tipo di lavoro.
In teoria si hanno migliori prestazioni per SP, ma presuppone un nuovo compilatore\ottimizzazioni. (attenti al legacy :sofico: )
Ho dei dubbi che già con Vega avverrà un salto del genere...
La roadmap AMD fa presupporre l'ennesimo miglioramento di GCN+HBM2.
Il brevetto pubblicato dai soliti siti, "sembra" mera speculazione.
Se poi cambiano tutta l'architettura di certo non mi lamento... :)
fraussantin
01-11-2016, 15:07
ma qualcuno ha idea di quando possa uscire laq 490/490x?
Natale...
... 2017.
Free Gordon
01-11-2016, 16:45
E' una nuova architettura che cerca di massimizzare l'uso delle ALU (SP) senza lasciare risorse inutilizzate. Usano Warp/wavefront variabili in base al tipo di lavoro.
In teoria si hanno migliori prestazioni per SP, ma presuppone un nuovo compilatore\ottimizzazioni. (attenti al legacy :sofico: )
Era ciò che mi immaginavo.
Se esce con Vega, prevedo un trimestre di assestamento coi driver perché dovranno scriverne due: uno per GCN1.x e un'altro per questa nuova archi...
Saranno cazz.i già lo immagino..
Ho dei dubbi che già con Vega avverrà un salto del genere...
La roadmap AMD fa presupporre l'ennesimo miglioramento di GCN+HBM2.
Il brevetto pubblicato dai soliti siti, "sembra" mera speculazione.
Se poi cambiano tutta l'architettura di certo non mi lamento... :)
Ma speriamo proprio di sì!!!
Cacchio, dopo 5 anni è ora che cambino le cose alla base daii!!! :oink:
Era ciò che mi immaginavo.
Se esce con Vega, prevedo un trimestre di assestamento coi driver perché dovranno scriverne due: uno per GCN1.x e un'altro per questa nuova archi...
Saranno cazz.i già lo immagino..
Mettici pure che attualmente le console apportano un ottimizzazione gratuita per AMD sul comparto Shader.
Ma speriamo proprio di sì!!!
Cacchio, dopo 5 anni è ora che cambino le cose alla base daii!!!
Non dirlo a me. :cry:
Da feticista delle GPU trovo più interessante la nuova bifrost di ARM(vliw2 con unità specializzate) che il trito/ritrito ed inefficiente GCN.:(
sgrinfia
01-11-2016, 20:18
Ehm...hai frainteso la mia domanda...che era di fatto una risposta alla parte finale del post che ho quotato :asd:
Ale55andr0 ,ultimamente sei più .......rilassato, che sia dovuto ha una nuova fiducia in Amd?:)
Ale55andr0
01-11-2016, 20:20
Ma chi era quel tizio che entro il 31 pigliava la 1080?
Io comunque aspetto il 5 gennaio, che ormai ho deciso di prendere il 7700k :O
fraussantin
01-11-2016, 20:25
Ma chi era quel tizio che entro il 31 pigliava la 1080?
Io comunque aspetto il 5 gennaio, che ormai ho deciso di prendete il 7700k :O
Ammettilo : in verità ti sei appassionato a candy crash..
Ale55andr0
01-11-2016, 20:35
Ale55andr0 ,ultimamente sei più .......rilassato, che sia dovuto ha una nuova fiducia in Amd?:)
Se te lo dico non mi crederai, ma te lo dico uguale: depressione. Nonostante non manchi di fare il cazzone o di fare battute da forum condite da faccine varie, sto attraversando un momento difficile assai emotivamente, quindi sto postando anche meno perché il pc e tutte quelle "fondamentali" futilità della vita non contano un cazzo di fronte a cio che conta DAVVERO nella vita di una persona, o quantomeno, per me. Di conseguenza non mi è un problema aspettare il duemilacredici, ne mi altero più per idiozie assolute ( per esempio vedasi la porcata subita dalla ferrari all'ultimo gp...) preso da ben altre e VERE frustrazioni. Posto tanto per ultimamente. Anzi quando monterò il pc lo accenderò giusto per vedere se funge e lo userò poco e niente.
Comunque a pari potenza gcn di quarta generazione va circa il 10-15 % più veloce di gcn di terza generazione e anche del 40 rispetto a gcn di seconda generazione.
Parlate come se miglioramenti lato architettura non ce ne siano.
Il collo di bottiglia lato amd sembrano essere la banda della memoria, e le frequenze.
Comunque a pari potenza gcn di quarta generazione va circa il 10-15 % più veloce di gcn di terza generazione e anche del 40 rispetto a gcn di seconda generazione.
Parlate come se miglioramenti lato architettura non ce ne siano.
Il collo di bottiglia lato amd sembrano essere la banda della memoria, e le frequenze.
magari... :(
I miglioramenti sono modesti se escludiamo i nuovi processi produttivi(ram e gpu), inoltre tahiti ha solo 2 geometry engine. Se togliamo anche il delta color compression (che usa anche ARM), Ciaone...:rolleyes:
https://translate.googleusercontent.com/translate_c?depth=1&hl=it&ie=UTF8&prev=_t&rurl=translate.google.it&sl=de&tl=en&u=https://www.computerbase.de/2016-08/amd-radeon-polaris-architektur-performance/2/&usg=ALkJrhgYBcoQpfgiFPlpmOXkH5T_-fZxmg
Fesso io che sogno i tempi d'oro AMD/ATI...:doh:
ps. non dimenticarti i consumi. La 1070 consuma come una RX480 (stessa banda passante).
Free Gordon
02-11-2016, 00:46
Non dirlo a me. :cry:
Da feticista delle GPU trovo più interessante la nuova bifrost di ARM(vliw2 con unità specializzate) che il trito/ritrito ed inefficiente GCN.:(
E' interessante questa nuova architettura VLIW... Su che SoC sarà montata? Per i consumi sarebbe una manna :D
Free Gordon
02-11-2016, 00:53
ps. non dimenticarti i consumi. La 1070 consuma come una RX480 (stessa banda passante).
Ma quello è anche un problema un po' sopravvalutato...nel senso che è molto legato ai vcore stellari delle prime infornate di questo 14nm in alpha by GF :asd:
Con Vega già vedremo un processo più maturo e una migliore gestione delle tensioni, con consumi decisamente più bassi imho. ;)
Vedremo dai... :)
Certo GCN non consumerà mai come Maxwell/Pascal...è impossibile.
MrBrillio
02-11-2016, 06:17
Sbagliato
E' interessante questa nuova architettura VLIW... Su che SoC sarà montata? Per i consumi sarebbe una manna :D
Il prossimo SOC huawei Kirin 960.
Sulla carta è interessante perché fonde l'approccio nvidia delle unità specializzate (riducono i consumi) ad un vliw con sole due istruzioni (FMA+ADD/SFU).
PConly92
02-11-2016, 20:56
Ormai gcn è arrivato al capolinea!! Architettura che non tiene più il passo...
imho l'espressione massima di gcn è avvenuta con tahiti!
Ormai gcn è arrivato al capolinea!! Architettura che non tiene più il passo...
imho l'espressione massima di gcn è avvenuta con tahiti!
eh dai, avevo paura dicessi cayman :asd:
Ho smesso di seguire il thread. Novità per Vega?
Inviato dal mio LG-D802 utilizzando Tapatalk
Gyammy85
03-11-2016, 10:21
Ho smesso di seguire il thread. Novità per Vega?
Inviato dal mio LG-D802 utilizzando Tapatalk
Diversi siti hanno riportato che dovrebbe uscire qualcosa per fine anno (per il mercato professionale). Avrà un'architettura in parte rinnovata chiamata v9 per aumentare l'efficienza e monterà probabilmente 16 giga di hbm2 con una potenza di calcolo superiore a gp100...
Diversi siti hanno riportato che dovrebbe uscire qualcosa per fine anno (per il mercato professionale). Avrà un'architettura in parte rinnovata chiamata v9 per aumentare l'efficienza e monterà probabilmente 16 giga di hbm2 con una potenza di calcolo superiore a gp100...
Thx
Inviato dal mio LG-D802 utilizzando Tapatalk
Einhander
03-11-2016, 13:43
gcn è così obsoleta che le 7970 insidiano le titan primo modello, 290x le mirabolanti maxwell gtx 980 e le fury le 1070 ed è stata inoltre scelta per le console attuali e le prossime. Oh ma se lo dite voi che non tiene il passo ci credo, saranno quei 50w in più a fare la differenza evidentemente.
no ma vabbeh ho una 7970 oc NON GHZ EDITION che su battlefield 1 -ai tempi della beta- stava con tutto a palla tra i 38 e i 50 fps al secondo (fullhd)...senza le dx 12 all'epoca...pero' gcn e' un architettura brutta :°D.
Comincio a pensare che a forza di sentirlo dire dagli nvidiari abbiano iniziato a pensarlo anche quelli che preferivano amd..
Se poi la dobbiamo buttare sui consumi ok, ma per carita' non facciamone un mantra come in passato fu per il gpgpu e altre minchiate che poi sappiamo come e' andata a finire :°D
L'unica cosa che devono migliorare e' l'efficienza architetturale credo, cioe' come si comportano le varie unita' in merito alle geometrie e shaders vari, dei consumi non mi frega nulla sinceramente...
Ormai gcn è arrivato al capolinea!! Architettura che non tiene più il passo...
imho l'espressione massima di gcn è avvenuta con tahiti!
http://www.guru3d.com/articles_pages/call_of_duty_infinite_warfare_pc_graphics_benchmark_review,6.html
Assolutamente. Architettura al capolinea! :rolleyes:
Einhander
04-11-2016, 13:50
beh quella poi sarebbe una conseguenza: se migliori l'efficienza, migliori i consumi, a parità di watt fai più fps.
Ma per carita' non volevo dire che sono contro l'efficienza eh, semplicemente credo che gcn sia un architettura spesso troppo sbilanciata verso certi tipi calcoli e meno "equilibrata" di quella nvidia al momento -e questo non so quanto possa riguardare i consumi-..
fraussantin
04-11-2016, 14:18
Chiedo qui perchè non trovo il topic adatto. Devo formattare un pc di un amico ( w10 64)che ha la 260x, che driver ci deve mettere?
Sono al cellulare e girando per il sito amd mi trova solo uno di marzo? Non è possibile perché su w7 mi ha detto che lo ha aggiornato da poco.
Sicuro che non sia il 3 novembre (3-11 o 11-3 in base al sistema europeo o americano). A me ha trovato questo dopo una rapida ricerca:
http://support.amd.com/it-it/download/desktop?os=Windows%2010%20-%2064
ver. 16.11.1
fraussantin
04-11-2016, 17:01
Sicuro che non sia il 3 novembre (3-11 o 11-3 in base al sistema europeo o americano). A me ha trovato questo dopo una rapida ricerca:
http://support.amd.com/it-it/download/desktop?os=Windows%2010%20-%2064
ver. 16.11.1
:doh: .maledetti americani
Ma scarico il primo file vero?
Gli altri no.
OvErClOck82
04-11-2016, 18:36
avrei potuto tenermi la mia 380 per perculare un po' quelli che "no ma le 970 mica vanno in legacy" :asd:
https://www.computerbase.de/2016-11/call-of-duty-infinite-warfare-benchmark/2/#diagramm-cod-infinite-warfare-1920-1080
Recensione molto particolare.:confused:
Ogni recensione spara frame molto diversi anche con la stessa release driver.:boh:
Sembrano numeri al lotto.:asd:
http://gamegpu.com/images/stories/Test_GPU/Action/Call_of_Duty_Infinite_Warfare/%D1%81od_1920.png
https://tpucdn.com/reviews/Performance_Analysis/Call_of_Duty_Infinite_Warfare/images/1080.png
cmq Techpowerup ha rilevato un consumo di vram bizzarro....:sofico:
Forse i numeri al lotto di alcune recensioni sono dovuti proprio al consumo anomalo di vram.
https://tpucdn.com/reviews/Performance_Analysis/Call_of_Duty_Infinite_Warfare/images/vram.png
Mi riferivo proprio al 1080p di computebase.
18 frame di scarto con techpower su una Rx480.
Per non parlare della 1060 che passa da 68 a 92.
Per gamegpu sono quasi alla pari in 1080p.:boh:
18 frames di differenza sono tanti, ma in linea di massima in proporzione le schede mi pare rendano in modo simile l'una correlata all'altra o comunque con differenze risibili (in una magari la 980 sta sopra la 1060 di 3fps, nell'altra il contrario, ma il succo non cambia)
Beh in 1080p la forchetta tra 480/1060 passa da un quasi pareggio di gamegpu ad un +20% computerbase. Passare dal 3.5% al 20% di differenza è anomalo..
cmq ricapitolando le percentuali :
gamegpu +3.5%
techpower +9.5%
guru3d +15%
computerbase +20%
va bene il marketing e tutto il resto, ma chiamare la 460 come 460 e non come 450 "è una cagata pazzesca!" cit. :O
adesso pare esca questa 470D solo in cina, ma è comunque posizionata strana sono sempre troppi 28cu rispetto i 30cu della 470, ci balleranno si e no un 5~10% di prestazioni :rolleyes:
il die full P11 è 16cu, la 460 desktop ne ha 14 la 16 è per apple, ma caspio fare un P11 con un die leggermente più grande e ficcarci 22cu, solo per apple, fare la versione desktop castrata a 20cu (1280sp sempre con 16rops e 2raster) sarebbe stata molto più bilanciata, così è sottodimensionata e non di poco...
stavi vicino alla 1050ti, uscita dopo, e ti giocavi la carta 450 castrata a 16cu per segare la 1050...bah
Magari hanno rilevato che il collo di bottiglia della banda passante rendeva poco utile un aumento dei CU.
mikael84
04-11-2016, 22:32
ripeto, magari a seconda della piattaforma di test e dello scenario le differenze si possono assottigliare, il dato è che su 4 recensioni l'andazzo sembra che la 480 faccia mediamente il 10% in più della 1060, all'atto pratico sono comunque pochi fps di differenza, giochi con una e giochi con l'altra.. comunque anche il vecchio cod aw andava bene con le amd, nonostante l'engine dx11.
Cod sembra preferire AMD
https://tpucdn.com/reviews/Gigabyte/GTX_1070_Xtreme_Gaming/images/codbo3_2560_1440.png
Sulla 980ti con il vecchio COD ho raggiunto vette di ram impensabili, tipo 13gb allocati. I 60fissi sono una passeggiata malgrado quel test.
Sulle ddr5, quando un gioco necessità di molta più vram, i frame buffer ram aumentano a dismisura.
La fury invece gestisce meglio.
COD è molto rognoso via vram. L'ultimo allocava sino a 10gb in poco tempo.
Ribadisco: state confrontando un 8c/16t@4.6+32GB con un 4c/8c@4.5+16GB. In pratica mele con pere.
Sent from my HTC One M9 using Tapatalk
Techpower usa un il medesimo 6700@4.5 di computerbase, eppure ottiene 92 frame contro 68 sulla 1060. I crucchi sono incappati in qualche problema (driver,bug o chissà cos'altro)...;)
Anche la 970(vs960) perde un +10-20% di troppo nella recensione tetesca.
https://www.techpowerup.com/reviews/AMD/Radeon_Crimson_Edition_Drivers/4.html
Novità degli 11.2
Si c'è da quando ci sono i crimson
magari... :(
I miglioramenti sono modesti se escludiamo i nuovi processi produttivi(ram e gpu), inoltre tahiti ha solo 2 geometry engine. Se togliamo anche il delta color compression (che usa anche ARM), Ciaone...:rolleyes:
https://translate.googleusercontent.com/translate_c?depth=1&hl=it&ie=UTF8&prev=_t&rurl=translate.google.it&sl=de&tl=en&u=https://www.computerbase.de/2016-08/amd-radeon-polaris-architektur-performance/2/&usg=ALkJrhgYBcoQpfgiFPlpmOXkH5T_-fZxmg
Fesso io che sogno i tempi d'oro AMD/ATI...:doh:
ps. non dimenticarti i consumi. La 1070 consuma come una RX480 (stessa banda passante).
Il confronto si fa mettendo le schede a pari flop.
Il miglioramento c'è ed è netto, non è "magari".
https://www.computerbase.de/2016-08/amd-radeon-polaris-architektur-performance/
Se fai lo stesso identico confronto fra Pascal e Maxwell 2 trovi che il miglioramento è inesistente (ma si sapeva che pascal è solo uno shrink di maxwell).
Il confronto si fa mettendo le schede a pari flop.
Il miglioramento c'è ed è netto, non è "magari".
https://www.computerbase.de/2016-08/amd-radeon-polaris-architektur-performance/
Se fai lo stesso identico confronto fra Pascal e Maxwell 2 trovi che il miglioramento è inesistente (ma si sapeva che pascal è solo uno shrink di maxwell).
Ti accontenti di poco :fagiano: . Il confronto bisogna farlo anche in funzione del bilanciamento dell'architettura.
I geo engine non sono una novità architetturale ma una scelta di bilanciamento per GCN. Polaris su Tonga(stesse condizioni) migliora del 6%.
Non mi sembra nulla di eclatante. Sono solo miglioramenti minori, ottenuti "per lo più" con tecniche di compressione che usano persino le GPU mobile (ARM,PVR).
Per me, Kepler(colabrodo) vs maxwell è un miglioramento "netto".
Su Pascal concordo, è una minestra riscaldata focalizzata esclusivamente sul clock.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.