View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™
Free Gordon
09-08-2016, 14:07
Questo credo sia insindacabile.
Ma infatti, il vero e reale motivo per cui AMD è e sarà dentro a 2 gen di console da sola, è perché è l'unica azienda sul mercato a poter proporre in certi tempi e costi, delle soluzioni complete, flessibili e adattabili alle varie esigenze dei clienti, mettendoli nelle condizioni di produrre e vendere a profitto già dal dayone. Avendo nel contempo prestazioni accettabili.
Il resto è dietrologia fanboyistica... :D
Nè Intel (che avrebbe avuto "APU" paragonabili a livello di performance -nel 2012..- ma non nei costi sicuramente...) né tantomeno Nvidia che non ha le licenze x86 e cmq non aveva una cpu ARM valida a livello di Jaguar da proporre. ;)
PS: ricordo a tutti che M$ sta ancora pagando debiti ora per la minchi@ata che ha fatto con la prima Xbox e l'accordo con Nvidia... :asd:
fraussantin
09-08-2016, 14:10
A parte che adesso Nvidia esce con TegraX1 su NX...e se c'è un'azienda che va' al risparmio lato hw DA ANNI è proprio Nintendo.. :asd:
Quindi credo che anche Nvidia (proseguendo il ragionamento di AceGranger) si sia venduta per un piatto di lenticchie... :D
Nintendo non ha mai puntato sulla grafica.
Loro puntano su quei 2 3 brand famosi e qualche dispositivo di dubbia utilità , ma di moda.
Free Gordon
09-08-2016, 14:16
Invece sbagli, se tu hai un server dedicato è facile avere anche un software su misura.
Più difficile è su un pc casalingo o workstation dove gira il software che c'è
E' proprio ciò che ho detto Bivvoz.... ;)
Il problema è che non puoi condizionare tutta una filiera produttiva da -ormai 7/8 anni a questa parte?? :D - perché FORSE nel 2017 riuscirai ad uscire con una proposta che sul mercato server (ma solo in una parte di esso oltretutto)..avrà buone perf/watt. :D
A me sembra più che altro che finalmente FORSE (si spera Iddio padre onnipotente :sofico: ) abbiano trovato un modo sensato per impiegare quel carrozzone che hanno messo su quasi 10 anni fa' e che li ha portati praticamente al collasso finanziario, facendogli perdere quote in ogni settore del loro business.... :mad: purtroppo per noi...
Free Gordon
09-08-2016, 14:25
Quanti analisti pressapochisti in questo thread.
http://www.forbes.com/sites/patrickmoorhead/2013/06/26/the-real-reasons-microsoft-and-sony-chose-amd-for-consoles/#4bbcc54f9559
Ecco:
"Then it came down to ARM versus X86 architecture. I am told there was a technical “bake-off”, where prototype silicon was tested against each other across a myriad of application-based and synthetic benchmarks. At the end of the bake-off, ARM was deemed as not having the right kind of horsepower and that its 64-bit architecture wasn’t ready soon enough. 64-bit was important as it maximized memory addressability, and the next gen console needed to run multiple apps, operating systems and hypervisors. ARM-based architectures will soon get as powerful as AMD’s Jaguar cores, but not when Sony or Microsoft needed them for their new consoles."
;)
A parte che adesso Nvidia esce con TegraX1 su NX...e se c'è un'azienda che va' al risparmio lato hw DA ANNI è proprio Nintendo.. :asd:
Quindi credo che anche Nvidia (proseguendo il ragionamento di AceGranger) si sia venduta per un piatto di lenticchie... :D
In un dispositivo portatile(ibrido) servono le prestazioni/watt ed nvidia con Pascal ha il miglior prodotto. (forse anche imgtec)
ps. hotchips presenteranno il nuovo Tegra 16nm...
AceGranger
09-08-2016, 14:40
A parte che adesso Nvidia esce con TegraX1 su NX...e se c'è un'azienda che va' al risparmio lato hw DA ANNI è proprio Nintendo.. :asd:
Quindi credo che anche Nvidia (proseguendo il ragionamento di AceGranger) si sia venduta per un piatto di lenticchie... :D
credo anche meno di un piatto di lenticchie in quel caso; Tegra non ha mai avuto successo e in questi anni nVidia ha tagliato tutti i rami secchi come quello che si occupava della parte Modem, e il progetto Tegra è stato riciclato nell'automotive... l'X1 credo sia montanto solo sui prodotti shield nVidia.
Si ma il Tegra X1 è maxwell :)
Ho aggiunto sopra, ma riporto anche qui.
Nvidia presenterà il nuovo Tegra 16nm al Hotchips.;)
Probabilmente con nuovi core ARM e Pascal...
ps. Tegra x1 ha un maxwell 20nm.
AceGranger
09-08-2016, 14:53
Ho aggiunto sopra, ma riporto anche qui.
Nvidia presenterà il nuovo Tegra 16nm al Hotchips.;)
Probabilmente con nuovi core ARM e Pascal...
ps. Tegra x1 ha un maxwell 20nm.
spero vivamente che Nintendo adotti quello, ma se lo presentano ora o è stato dato a Nintendo molto prima o per ragioni tempistiche di progettazione adottera l'X1 Maxwell.
spero vivamente che Nintendo adotti quello, ma se lo presentano ora o è stato dato a Nintendo molto prima o per ragioni tempistiche di progettazione adottera l'X1 Maxwell.
Nintendo è un terno al lotto. Spesso vanno controcorrente con porcherie immonde. (ARM11 e DMP PICA:p )
La migliore soluzione è un Tegra 16nm Finfet se devono piazzarlo su un portatile. Rinunciare al Finfet in un chip con frequenze/volt bassi è un suicidio.
Free Gordon
09-08-2016, 15:12
ps. hotchips presenteranno il nuovo Tegra 16nm...
Spero anch'io ci piazzino il nuovo chip sull'NX...ma come tempi come siamo messi?
NX dovrebbe uscire a gennaio/Febbraio da quanto ho letto..
fraussantin
09-08-2016, 15:14
Spero anch'io ci piazzino il nuovo chip sull'NX...ma come tempi come siamo messi?
NX dovrebbe uscire a gennaio/Febbraio da quanto ho letto..
ma seriamente pensi che l'utenza nintendo sappia che chip c'è dentro e gliene importi qualcosa..?
ci metteranno quello che costa di meno
Spero anch'io ci piazzino il nuovo chip sull'NX...ma come tempi come siamo messi?
NX dovrebbe uscire a gennaio/Febbraio da quanto ho letto..
Le tempistiche sono in regola. Dipende dalla volontà di Nintendo.:sofico:
ma seriamente pensi che l'utenza nintendo sappia che chip c'è dentro e gliene importi qualcosa..?
ci metteranno quello che costa di meno
Mi aspetto di tutto...:asd:
La soluzione più economica (non esotica) è un SOC tutto ARM, Mali compreso...
Free Gordon
09-08-2016, 15:31
eh ma sai le console, nvidia le snobba, si fa pagare, e bla e bla e bla... :asd:
:asd:
AceGranger
09-08-2016, 15:50
ma seriamente pensi che l'utenza nintendo sappia che chip c'è dentro e gliene importi qualcosa..?
ci metteranno quello che costa di meno
ah bè perchè all'utenza PS4/One sanno/importa ?
Sony e Microsoft hanno esattamente fatto la stessa cosa, messo quello che costava meno, e ora si ritrovano a cambiare una console dopo solo 3 anni :asd: :sofico:.
ah bè perchè all'utenza PS4/One sanno/importa ?
Sony e Microsoft hanno esattamente fatto la stessa cosa, messo quello che costava meno, e ora si ritrovano a cambiare una console dopo solo 3 anni :asd: :sofico:.
hanno messo l'unica possibilita' presente, non avevano scelte, e adesso la cambiano perche' le esigenze cambiano o pensavi che queste console durassero 10 anni?
tv 4k e visori vr hanno cambiato i piani..... o si vuole far credere che una gpu nvidia avrebbe dato più longevità al prodotto? :asd: cosa opposta a quanto visto nel mercato gpu discrete da anni a questa parte? :doh:
tv 4k e visori vr hanno cambiato i piani..... o si vuole far credere che una gpu nvidia avrebbe dato più longevità al prodotto? :asd: cosa opposta a quanto visto nel mercato gpu discrete da anni a questa parte? :doh:
bhe se c'e' di mezzo gente piu' verde di hulk puo' capitare di leggere di tutto :D
Ale55andr0
09-08-2016, 16:10
ah bè perchè all'utenza PS4/One sanno/importa ?
Sony e Microsoft hanno esattamente fatto la stessa cosa, messo quello che costava meno, e ora si ritrovano a cambiare una console dopo solo 3 anni :asd: :sofico:.
beh, sono loro ad aver scelto di avere come cuore delle macchine delle apu "giuste giuste e arrotondiamo in difetto" al lancio, non è che non potessero scegliere di piazzare una architettura più performante con cpu+discreta come negli anni precedenti. AMD ha fatto quel che gli han chiesto, mica ha imposto lei una apu, tanto per cominciare, ne una 7770 con la esram (inesistente nelle discrete di amd) che ciulla spazio nel chip per nulla e una 7850 versione decurtata e spompa rispettivamente a microsoft e sony..
AceGranger
09-08-2016, 16:13
hanno messo l'unica possibilita' presente, non avevano scelte, e adesso la cambiano perche' le esigenze cambiano o pensavi che queste console durassero 10 anni?
dai su, non raccontiamoci altre storie.... fino a ieri le console le avevano SEMPRE fatte con CPU e GPU separate e di produttori diversi, e vendendo inizialmente in perdita in modo tale da dare hadrware superiore e far durare di piu la console....
di possibilita di fare combinazioni fra CPU/GPU di Intel,AMD e nvidia ce ne erano un'infinita ( rimanendo in ambito X86 e immaginando di fare sempre una console PC ); sono andati in cerca solo e soltanto della soluzione piu economica e basta, perchè al tempo con CPU Intel e GPU nvidia, pur non essendo un unico soc, avrsti senza ombra di dubbio ottenuto una console migliore in prestazioni pure e in perf/watt, ma ovvimente piu costosa.
hanno scelto la via piu economica, va bene, non c'è nulla di male, ma non raccontiamoci la storia che hanno scelto l'unica via a e la migliore :rolleyes: .
beh, sono loro ad aver scelto di avere come cuore delle macchine delle apu "giuste giuste e arrotondiamo in difetto" al lancio, non è che non potessero scegliere di piazzare una architettura più performante con cpu+discreta come negli anni precedenti. AMD ha fatto quel che gli han chiesto, mica ha imposto lei una apu, tanto per cominciare, ne una 7770 con la esram (fissazione di microsoft inesistente nelle discrete di amd) che ciulla spazio nel chip per nulla e una 7850 versione decurtata e spompa rispettivamente a microsoft e sony..
in realta avrebbero potuto farlo tranquillamente, e poi non ho mai detto nulla sul fatto che AMD non abbia fatto quello che hanno chiesto.
fraussantin
09-08-2016, 16:16
ah bè perchè all'utenza PS4/One sanno/importa ?
Sony e Microsoft hanno esattamente fatto la stessa cosa, messo quello che costava meno, e ora si ritrovano a cambiare una console dopo solo 3 anni :asd: :sofico:.
Calma l'utenza ps4 xbox sono li a scannarsi all'ultimo fps.
Li le prestazioni sono fondamentali .
Ale55andr0
09-08-2016, 16:17
hanno scelto la via piu economica, va bene, non c'è nulla di male, ma non raccontiamoci la storia che hanno scelto l'unica via a e la migliore :rolleyes: .
la via per avere una apu era assolutamente unica, economica o meno, e comunque non vedo come cio delegittimi minimamente quel che ha fatto AMD con la storia de "eh ma amd ha le pezze al culo percio ha svenduto" quando ha fatto cio che gli han chiesto i clienti ed era l'unica a poterlo offrire anzitutto TECNICAMENTE :read:
Intel fa apu con grafica che fa ca-ga-re, nvidia non fa cpu x86 che eran una prerogativa voluta sia da sony che da microsoft per semplificare la vita agli sviluppatori che prima dovevano barcamenarsi con i medesimi multipiatta su architetture completamente diverse (power pc e cell), i prezzi di amd, che non li hanno detti ne a te ne a me, c'entrano una pippa già di fronte queste due evidenze
dai su, non raccontiamoci altre storie.... fino a ieri le console le avevano SEMPRE fatte con CPU e GPU separate e di produttori diversi, e vendendo inizialmente in perdita in modo tale da dare hadrware superiore e far durare di piu la console....
di possibilita di fare combinazioni fra CPU/GPU di Intel,AMD e nvidia ce ne erano un'infinita ( rimanendo in ambito X86 e immaginando di fare sempre una console PC ); sono andati in cerca solo e soltanto della soluzione piu economica e basta, perchè al tempo con CPU Intel e GPU nvidia, pur non essendo un unico soc, avrsti senza ombra di dubbio ottenuto una console migliore in prestazioni pure e in perf/watt, ma ovvimente piu costosa.
hanno scelto la via piu economica, va bene, non c'è nulla di male, ma non raccontiamoci la storia che hanno scelto l'unica via a e la migliore :rolleyes: .
SCusami ma ragioni distantemente dalle politiche aziendali.
Che significa migliore? Che intendi tu per migliore?
Ms e sony avevano un budget per il SOC/system (che integra tutto non solo gpu e cpu), qual'era la soluzione migliore per il budget? AMD.
O pensi che avrebbero dovuto vendere la ps4 a 1000?
Mi spiace ma sono ragionamenti molto poveri, realta' e scelte aziendali sono molto differenti, mi spiace smontarti i tuoi castelli in aria.
Ale55andr0
09-08-2016, 17:02
in realta avrebbero potuto farlo tranquillamente, e poi non ho mai detto nulla sul fatto che AMD non abbia fatto quello che hanno chiesto.
no, ma hai lasciato intendere che hanno svenduto il progetto quando sony e microsoft ad essersi rivolte a lei perchè, semplicemente, quella soluzione non poteva dargliela nessun'altro e questo a prescindere dai costi, ma della soluzione in se, e AMD appunto ha appronato quanto chiestogli dai clienti. La apu è una soluzione (relativamente) economica, nessuno le mette in dubbio, ma lo è intrinsecamente e soprattuto, un conto è quello, un'altro dire che amd abbia svenduto: ognuna delle aziende citata ha il proprio di interesse, e i dettagli degli accordi di certo non li hanno detti a te o a me
Forza amd spero esco vega presto x##D
Inviato dal mio LG-D802 utilizzando Tapatalk
aled1974
09-08-2016, 20:23
lo speriamo tutti, vediamo dal 17 agosto se ci dicono qualcosa di certo :sperem:
ciao ciao
aled1974
09-08-2016, 21:46
gamescom 2016 http://www.gamescom-cologne.com/gamescom/index-9.php ;)
magari poi non dicono niente di Vega eh, nessuno sa niente, sono solo speranze :boh: http://www.htita.it/images/smilies/praying.gif
ciao ciao
fraussantin
09-08-2016, 22:13
gamescom 2016 http://www.gamescom-cologne.com/gamescom/index-9.php ;)
magari poi non dicono niente di Vega eh, nessuno sa niente, sono solo speranze :boh: http://www.htita.it/images/smilies/praying.gif
ciao ciao
http://www.gamescom-cologne.com/gamescom/exhibitor-search/index.php?fw_goto=aussteller/details&&kid=0015362381&values=%7B"stichwort"%3A"Amd"%2C"start"%3A0%7D
Ad esserci ci sono , qualche cosa racconteranno .
Free Gordon
10-08-2016, 00:05
ah bè perchè all'utenza PS4/One sanno/importa ?
Sony e Microsoft hanno esattamente fatto la stessa cosa, messo quello che costava meno, e ora si ritrovano a cambiare una console dopo solo 3 anni :asd: :sofico:.
Quella di Sony/M$, non è la strategia di un tempo a livello console.
Immettono console sul mercato, vendendole dayone a guadagno...e poi upgradano mantenendo il vecchio software funzionante. ;)
Le console sono diventate sostanzialmente dei PC user-friendly e i due colossi guadagnano più di prima (cioè spendono meno) sia a livello di sviluppo che a livello di guadagno hw. ;)
dai su, non raccontiamoci altre storie.... fino a ieri le console le avevano SEMPRE fatte con CPU e GPU separate e di produttori diversi, e vendendo inizialmente in perdita in modo tale da dare hadrware superiore e far durare di piu la console....
Sì... :D e generando debiti che sono ancora lì a pagare.. :asd:
Una furbata! :D
non si chiamerà Precompatibilità, ma più semplicemente Windows Store OS! con buona pace di zio Gabe :Prrr:
Foglia Morta
15-08-2016, 11:49
AMD VEGA (Radeon RX 490) Launch Imminent ?
(http://www.guru3d.com/news-story/amd-vega-launch-imminent.html)
AMD was supposed to launch their high-end class VEGA (codename) product in early 2017, the latest rumor was that the launch was being moved forward towards October. However today on Facebook Chris Hook, Sr. Director, Global Marketing and Public Relations, Radeon Technologies Group at AMD posted a photo with the comment "This is the Vega launch venue. Shh, don't tell the press". Considering half the worlds tech press is on his facebook, that obviously was a rather subtle joke slash hint.
aled1974
15-08-2016, 11:54
penso sia una gran trollata, o per meglio dire una sorta di gavettone (gelato) ferragostano
prova a guardare bene la "foto" postata, sembra una fabbrica di Dresda nell'immediato dopoguerra :asd:
no, beh, in realtà c'è poco da ridere :cry:
humor? mah, mi sa che rideranno in pochi
ciao ciao
Ale55andr0
15-08-2016, 12:28
no, beh, in realtà c'è poco da ridere :cry:
humor? mah, mi sa che rideranno in pochi
ciao ciao
infatti :rolleyes:
..però a pensarci bene che senso avrebbe fare una autrollota (perchè questo è letteralmente prendersi per il culo da soli) del genere da parte di un responsabile AMD? magari le voci che volevano vega a ottobre sono vere, sia mai, in fin dei conti ci potrebbe ancora stare come tempistiche, anche se in modo piuttosto rushato (paper launch?) :sperem:
Ora non resta che attendere eventuali smentite
aled1974
15-08-2016, 13:41
ben venga, ma allora che senso ha mostrare una foto del genere e prendere in giro la stampa?
perchè a me pare un qualcosa rivolto alla stampa: humor, critica, trollata o quel che è
:boh:
ciao ciao
Ale55andr0
15-08-2016, 14:00
humor/critica/trollata da parte di un direttore marketing AMD? beh, se vuole essere licenziato, sicuramente! La foto di per se effettivamente è strana :stordita:, ma significa tutto o niente: a me fa pensare alla materia grezza necessaria ai chip e dalla quale parte tutto, ovvero il silicio, ma effettivamente è un po' una forzatura mia volerci vedere a tutti i costi il lato positivo e plausibile :mc: Piuttosto, ma siamo sicuri sicuri sicuri che l'account facebook del tizio in questione sia vero e non un fake? io non l'ho trovato :fagiano: se fake è credo sia doverosa la smentita di AMD, per il loro stesso tornaconto
humor/critica/trollata da parte di un direttore marketing AMD? beh, se vuole essere licenziato, sicuramente! La foto di per se effettivamente è strana :stordita:, ma significa tutto o niente: a me fa pensare alla materia grezza necessaria ai chip e dalla quale parte tutto, ovvero il silicio, ma effettivamente è un po' una forzatura mia volerci vedere a tutti i costi il lato positivo e plausibile :mc: Piuttosto, ma siamo sicuri sicuri sicuri che l'account facebook del tizio in questione sia vero e non un fake? io non l'ho trovato :fagiano: se fake è credo sia doverosa la smentita di AMD, per il loro stesso tornaconto
Dopo certe uscite del reparto markette di Amd, questa sarebbe una delle meno peggio. Però ho letto male, o loro stessi lo hanno etichettato come "joke"?
Inviato dal mio XT1092 utilizzando Tapatalk
Ale55andr0
15-08-2016, 21:50
Dopo certe uscite del reparto markette di Amd, questa sarebbe una delle meno peggio. Però ho letto male, o loro stessi lo hanno etichettato come "joke"?
Inviato dal mio XT1092 utilizzando Tapatalk
hai letto semi-male :D
la parte riferita al "joke" è quella dell'articolista riferendosi alla frase in cui il responsabile amd dice "shh, ma non ditelo alla stampa", ben sapendo che invece avrebbero proprio letto cani e porci...è quello"il joke", il far finta di fare una confidenza che passerà inosservata ben sapendo che sarà l'opposto, un po' come quando in un programma tv seguito da milioni di spettatori il presentatore chiede al suo ospite di fargli una confidenza che tanto "resta fra noi due e non lo diciamo a nessuno" :D
Se la facessero uscire in contemporanea con Battlefield 1 sarebbe perfetto. Speriamo bene
boh... ma pensano pure di essere simpatici?! :rolleyes:
No perché AMD non è esattamente nella posizione di potersi permettere battutine, occhiolini e scherzoni, eh!...
Ale55andr0
15-08-2016, 23:20
speriamo siano simpaticamente seri :fagiano:
Free Gordon
16-08-2016, 02:10
In realtà ricordo bene nel 2014 le battutine di Roy Taylor all'uscita di Maxwell... con frasi ammiccanti su razzi e cos'altro..
Nessuno capì come prendere quelle battutine, sembravano commenti fatti da fanboy Nvidia che perculavano AMD, piuttosto che post di un marketing manager rosso!
Non c'era nulla da ridere...eppure, anche a quel tempo, se la ridevano di gusto...
Imho se esce qualcosa a ridosso di B1, sarà la dual RX480 X2.
Magari si spera con un sistema di memoria in grado di condividere lo spazio (8GB) almeno in dx12, senza quindi la necessità di metterci 16GB effettivi sopra...
mirkonorroz
16-08-2016, 08:44
Era gia' stato postato questo video (https://www.youtube.com/watch?v=vyKgT5QUU2Q) del SIGGRAPH?
Ci sono arrivato guardando i due progetti sponsorizzati da AMD per Blender dei quali parlano qui (https://community.amd.com/thread/203153)
:old: ?
Ale55andr0
16-08-2016, 09:02
Imho se esce qualcosa a ridosso di B1, sarà la dual RX480 X2.
.
oh ma piantatela co sta dual della ceppa, che il signore oscuro vi sente e la fa uscire davvero quella schifezza la' :mad:
Ale55andr0
16-08-2016, 09:09
Te l'ho già detto più volte: se hanno trovato il modo di unificare la memoria di due gpu e rendere il CF trasparente per la cpu saresti facile come una volte in pollaio :D
il dual gpu è IL MALE, secondo solo alle scatolette, memoria unificata o meno :O
mirkonorroz
16-08-2016, 09:13
[cut]
Scusa tu credevi davvero alle bimbominkiate secondo cui AMD non esiste nel professionale, non lavora con le sh di sw professionali e altre leggende metropolitante verdi? :D
AMD probabilmente non è a livelli di Intel e Nvidia su certe cose ok, ma non è che stanno proprio lia girarsi i pollici tutto il giorno altrimenti non sarebbero in difficoltà ma sotto i ponti a coprirsi con dei cartoni.
AMD sta facendo belle cose e sopratutto le sta facendo open.
No, io lo so da sempre. La grafica 3D la seguo dal Juggler di Eric Graham, visto allo Smau.
Chiedevo solo se il video era gia' stato postato o se lo avevate gia' visto.
mirkonorroz
16-08-2016, 10:39
@Bivvoz non preoccuparti, comunque non la seguo piu' assiduamente come una volta ed il video intero e' anche vero che e' stato postato un po' di tempo fa :)
Il video imho e' interessante perche' e' un po' la fonte di diverse notizie apparse anche qui su HWU, solo che ad esempio riguardo la scheda con la memoria di massa integrata SSG non si era postato l'effettivo guadagno in prestazioni.
Nel video c'e' l'esempio che su un video a 8k (raw) si passa da 17 FPS a 90 FPS.
:)
Free Gordon
16-08-2016, 15:22
oh ma piantatela co sta dual della ceppa, che il signore oscuro vi sente e la fa uscire davvero quella schifezza la' :mad:
:asd: mettete er core 'n pace Alessa' :D
Free Gordon
16-08-2016, 15:38
Era gia' stato postato
https://youtu.be/vyKgT5QUU2Q?t=43m47s
Questo..in realtime su FuryX con Unity... è davvero impressive! :oink: :oink: :oink:
:asd: mettete er core 'n pace Alessa' :D
Di sto passo, fra poco, in pace ci mettiamo proprio AMD, altro che Alessandro...:muro:
Ale55andr0
16-08-2016, 15:53
Ma in quel caso avrebbero estirpato il male dal dual gpu :O
no no, l'idea di usare due chippetti per fare il lavoro di uno grande è IL MALE in se :read:
dado1979
16-08-2016, 16:00
no no, l'idea di usare due chippetti per fare il lavoro di uno grande è IL MALE in se :read:
Io credo l'esatto contrario... se supportata in software, è la migliore scelta che si possa fare sotto praticamente tutti i punti di vista.
Free Gordon
16-08-2016, 16:02
Io credo l'esatto contrario... se supportata in software, è la migliore scelta che si possa fare sotto praticamente tutti i punti di vista.
Se ben supportato forse nì..perché a livello di consumi sarebbe sempre svantaggiato rispetto ad una soluzione più grossa di pari velocità.
Ovvio che questo non interessi a noi..ma all'industria interessa. ;)
mirkonorroz
16-08-2016, 16:03
no no, l'idea di usare due chippetti per fare il lavoro di uno grande è IL MALE in se
Ma infatti ce ne vogliono almeno 4 di chi(a)ppetti :ciapet:
dado1979
16-08-2016, 16:04
Se ben supportato forse nì..perché a livello di consumi sarebbe sempre svantaggiato rispetto ad una soluzione più grossa di pari velocità.
Ovvio che questo non interessi a noi..ma all'industria interessa. ;)
Ma il costo di due chip diciamo medi è inferiore (sui grandi volumi) di quello di un chip grande... e questo è quello che realmente interessa a noi.
Ale55andr0
16-08-2016, 16:05
Ma infatti ce ne vogliono almeno 4 di chi(a)ppetti :ciapet:
yep, per poi ridurli in spaghetti e usarli come legacci per la monnezza :O
mirkonorroz
16-08-2016, 16:11
yep, per poi ridurli in spaghetti e usarli come legacci per la monnezza :O
Comunque mi ha detto Lisa che quando butteranno fuori una scheda fenomenale a poco prezzo, ne vieteranno l'uso ad un certo Ale55andr0 :sofico:
AceGranger
16-08-2016, 16:12
Scusa tu credevi davvero alle bimbominkiate secondo cui AMD non esiste nel professionale, non lavora con le sh di sw professionali e altre leggende metropolitante verdi? :D
quello che investe AMD nel professionale è direttamente proporzionale al suo Market Share; il 20% da piu di un lustro a questa parte.
AMD sta facendo belle cose e sopratutto le sta facendo open.
con un 80% di Market Share da recuperare, e CUDA nettamente piu diffuso e supportato, non hanno molte altre alternative.
Free Gordon
16-08-2016, 16:16
Ma il costo di due chip diciamo medi è inferiore (sui grandi volumi) di quello di un chip grande... e questo è quello che realmente interessa a noi.
Come costi sicuramente...in prospettiva futura perf/watt non so se è una politica che può andar lontano.
APU è da anni che vorrebbe andare in quella direzione, ma i tempi non sono...e mi sa che nn saranno ancora per molto, maturi.
AceGranger
16-08-2016, 16:21
https://youtu.be/vyKgT5QUU2Q?t=43m47s
Questo..in realtime su FuryX con Unity... è davvero impressive! :oink: :oink: :oink:
:asd:
ora, spero bene che almeno il video lo abbiano registrato dopo averlo fatto rigirare sulle loro GPU..... perchè il video originale ufficiale di ADAM di Unity3D è stato fatto con una GTX980 :fagiano:
e singolare anche che dopo mostrino Octane e Vray come partner delle Radeon Pro, visto che Octane è nato come CUDA e si sta affacciando solo ora ad OpenCL e mentre la versione di Vray CUDA è avanti anni luce alla variante OpenCL....
sara che faceva piu figo mettere quelli invece che Luxrender :asd:
mirkonorroz
16-08-2016, 16:27
:asd:
ora, spero bene che almeno il video lo abbiano registrato dopo averlo fatto rigirare sulle loro GPU..... perchè il video originale ufficiale di ADAM di Unity3D è stato fatto con una GTX980 :fagiano:
e singolare anche che dopo mostrino Octane e Vray come partner delle Radeon Pro, visto che Octane è nato come CUDA e si sta affacciando solo ora ad OpenCL e mentre la versione di Vray CUDA è avanti anni luce alla variante OpenCL....
sara che faceva piu figo mettere quelli invece che Luxrender :asd:
Tu se non volgi le cose al male non sei contento :asd:
Dici cose anche vere, ma chissa' come mai devi trovarci sempre qualcosa che non va...
Se hanno fatto accordi con Octane da poco fanno bene a dirlo: che poi cuda sia stato il pioniere e che sia diffuso non ci piove.
Pensa che quando c'era solo gelato uno mi ha detto che che non bastava a dimostrare che il rendering via gpu si potesse fare e sviluppare...
Se c'e' qualche buon'anima che si diverte con Luxrender, sia a programmarlo che ad usarlo che male c'e'?
AceGranger
16-08-2016, 16:43
Tu se non volgi le cose al male non sei contento :asd:
Dici cose anche vere, ma chissa' come mai devi trovarci sempre qualcosa che non va...
:mbe: se una cosa è vera, non c'è qualcosa che non va, è cosi e basta....
Se hanno fatto accordi con Octane da poco fanno bene a dirlo: che poi cuda sia stato il pioniere e che sia diffuso non ci piove.
Pensa che quando c'era solo gelato uno mi ha detto che che non bastava a dimostrare che il rendering via gpu si potesse fare e sviluppare...
poca lungimiranza dentro di lui!
Se c'e' qualche buon'anima che si diverte con Luxrender, sia a programmarlo che ad usarlo che male c'e'?
ma infatti nessuna, trovo solo abbastanza simpatico che si mettano a pubblicizzare cose dove vanno peggio della concorrenza, giusto per mettere li 2 nomi famosi a caso...
dado1979
16-08-2016, 16:44
Tu se non volgi le cose al male non sei contento :asd:
Dici cose anche vere, ma chissa' come mai devi trovarci sempre qualcosa che non va...
Se hanno fatto accordi con Octane da poco fanno bene a dirlo: che poi cuda sia stato il pioniere e che sia diffuso non ci piove.
Pensa che quando c'era solo gelato uno mi ha detto che che non bastava a dimostrare che il rendering via gpu si potesse fare e sviluppare...
Se c'e' qualche buon'anima che si diverte con Luxrender, sia a programmarlo che ad usarlo che male c'e'?
Il Lato Oscuro è potente in questo utente:
https://www.youtube.com/watch?v=OvsJk6Dve3A
siluro85
16-08-2016, 16:52
Mi sono venuti i brividi! :D
ninja750
16-08-2016, 17:10
Io credo l'esatto contrario... se supportata in software, è la migliore scelta che si possa fare sotto praticamente tutti i punti di vista.
ma infatti.. qui ci sono molti giovani ( :D ) che non ricordano le prime schede cazzute di 3dfx ovvero le voodoo2 che avevano non so quanti chip in parallelo e memoria condivisa e funzionavano alla grande
ora non so quanto incida la sola gpu come costo totale in una scheda ma immagino che se una totale singola costi 200 una ipotetica tri-gpu potrebbe stare comodamente sotto i 300, resta il problema dei consumi ma più che altro perchè attualmente siamo abituati a chipponi grossi che scaldano e consumano tanto
devil_mcry
16-08-2016, 17:17
Io credo l'esatto contrario... se supportata in software, è la migliore scelta che si possa fare sotto praticamente tutti i punti di vista.
Qualcuno però è fallita perseguendo quella strada...
fraussantin
16-08-2016, 17:25
AMD sta facendo belle cose e sopratutto le sta facendo open.
Ci sono 2 produttori di vga ( intel non conta un caxxo)
Se nvidia sviluppa bene solo per se , e amd sviluppa open ( che peró non funziona bene con nvidia) cosa cambia?
Qualcuno però è fallita perseguendo quella strada...
I problemi di 3dfx furono ben altri... Il multigpu era praticamente l'unica cosa che funzionava bene sulle ultime voodoo
Free Gordon
16-08-2016, 18:51
( che peró non funziona bene con nvidia)
Non funziona bene su Nvidia? :confused:
Free Gordon
16-08-2016, 19:02
:asd:
ora, spero bene che almeno il video lo abbiano registrato dopo averlo fatto rigirare sulle loro GPU..... perchè il video originale ufficiale di ADAM di Unity3D è stato fatto con una GTX980 :fagiano:
https://www.youtube.com/watch?v=GXI0l3yqBrA
Il video è solo del 20 di Giugno...
Quello di AMD https://www.youtube.com/watch?v=vyKgT5QUU2Q di un mese dopo...Sono praticamente contemporanei..
devil_mcry
16-08-2016, 19:17
I problemi di 3dfx furono ben altri... Il multigpu era praticamente l'unica cosa che funzionava bene sulle ultime voodoo
Beh le 6000 non sono mai riuscite a farle uscire dalla fase prototipale e con le Rampage erano single GPU... Sicuramente la mancanza del T&L non ha giocato a favore ma non riuscire nemmeno a mettere sul mercato l'ammiraglia è stato per problemi tecnici
Inoltre già allora non sempre le SLI faceva favillelink (http://www.anandtech.com/show/272/31)
Ale55andr0
16-08-2016, 21:41
Comunque mi ha detto Lisa che quando butteranno fuori una scheda fenomenale a poco prezzo, ne vieteranno l'uso ad un certo Ale55andr0 :sofico:
magna tranquillo allora :asd:
Sembra che amd finalmente abbia racimolato i soldi per fare vega :asd:
http://www.overclock3d.net/news/misc_hardware/amd_sees_huge_improvements_in_their_q2_2016_financial_results/1
+23% fatturato q2 2016 su q1
Vuoi dire nel quadrimestre in cui hanno venduto la prima partita di polaris? :asd:
No quelle non se li incxxxa nessuno :O
fraussantin
18-08-2016, 19:27
Il 23% di quasi niente quanto fa?
TheDarkAngel
18-08-2016, 19:45
Il 23% di 803 miliardi di dollari veramente :muro:
milioni? :p
OvErClOck82
18-08-2016, 20:17
Il 23% di quasi niente quanto fa?
ma ti pagano per trollare ? :D
Lunar Wolf
18-08-2016, 20:17
Sembra che amd finalmente abbia racimolato i soldi per fare vega :asd:
http://www.overclock3d.net/news/misc_hardware/amd_sees_huge_improvements_in_their_q2_2016_financial_results/1
+23% fatturato q2 2016 su q1
Strano... A leggere certi ingegneri ed economisti qui dentro pensavo - 28%
AceGranger
18-08-2016, 20:19
Certo negli store sono disponibili 3 ore e poi finiscono. :asd:
ne arriveranno 4 nei negozi :asd: ? no perchè sembrerebbe vendere di piu nVidia con tutti i suoi problemoni di produzione :asd:
AceGranger
18-08-2016, 20:27
No quelle sono le 1080 e le 1070 :sofico:
La classifica di Luglio di Steam per ora ci dice ben altro :asd:
1080 in vendita dal 27 Maggio - 0.56%
1070 in vendita dal 10 Giugno - 0.64%
480 in vendita dal 29 Giugno - 0.12%
1060 in vendita da 19 Luglio - 0.06%
grandissssssime vendite è, proprio grandi :asd:
vedremo se migliorera nei prossimi mesi
AceGranger
18-08-2016, 20:32
Scusa ma dove li vedi sti dati?
Steam, sopra nella tendina seleziona Item Name e vedi l'elenco completo per nomi e divise fra AMD e nVidia e Intel
http://store.steampowered.com/hwsurvey/directx/?sort=name
devil_mcry
18-08-2016, 20:36
Scusa ma dove li vedi sti dati?
Sono i survery di Steam... Comunque la 1070 via di sto passo ci mette poco a sostituirsi alla 970, sempre se ne producono abbastanza lol, non pensavo fosse già così diffusa si vede che all'estero ne hanno di più
devil_mcry
18-08-2016, 20:47
NVIDIA GeForce GTX 1070---0.10%0.64%+0.54%
AMD Radeon RX 480---0.00%0.12%+0.12%
NVIDIA GeForce GTX 1080-0.00%0.00%0.20%0.56%+0.36%
NVIDIA GeForce GTX 1060----0.06%+0.06%
I dati sono presi sul cluster con OS compatibile con Vulkan direi, in ogni caso quello più di fascia alta. Tu probabilmente stai guardando i dati sul cluster dx11 ma li ti spariscono per via delle integrate di amd e intel
fraussantin
18-08-2016, 20:48
ma ti pagano per trollare ? :D
Non trollo sono serio.
Qua si esulta per un 23% .
Con tutte le vagonate di 480 che hanno venduto paragonate alle invisibili ( su steam) 3xx e fury .. Mi aspettavo un 230%....
devil_mcry
18-08-2016, 20:50
Comunque io sti dati non li vedo, ho capito che sono quelli di steam ma vedo le 1080 e le 1070 a 0.30% e 0.33% ma le 480 e le 1060 non el vedo.
P.S: ok adesso visti dal link di AceGranger, non so cosa cambia da dove andavo io.
Comunque state guardando le farfalle perchè è la pagina dell'hw in base all'os e mi avete dato i valori di linux :asd:
Sopra c'è la divisione anche per OS, non è la pagina di Linux.
Questa scritta "VULKAN SYSTEMS (LINUX OR POST-XP WINDOWS WITH VULKAN GPU)" vuol dire che stai guardando il Cluster con OS recenti compatibili con Vulkan e con GPU supportanti Vulkan (quindi le più nuove) non che sono solo Linux. Tra l'altro lo stesso link è filtrato per directX in realtà (leggi l'url) quindi linux non è presente
Tu prima probabilmente guardavi il cluster dx11 dove la 480 e 1060 affogano tra le integrate intel e amd
Non trollo sono serio.
Qua si esulta per un 23% .
Con tutte le vagonate di 480 che hanno venduto paragonate alle invisibili ( su steam) 3xx e fury .. Mi aspettavo un 230%....
Steam non è la sacra bibbia essendo un check skippabile
AceGranger
18-08-2016, 21:05
Comunque io sti dati non li vedo, ho capito che sono quelli di steam ma vedo le 1080 e le 1070 a 0.30% e 0.33% ma le 480 e le 1060 non el vedo.
P.S: ok adesso visti dal link di AceGranger, non so cosa cambia da dove andavo io.
Comunque state guardando le farfalle perchè è la pagina dell'hw in base all'os e mi avete dato i valori di linux no di vulkan :asd:
ma no, il primo elenco dovrebbe essere quello generale perchè riporta:
VULKAN SYSTEMS (LINUX OR POST-XP WINDOWS WITH VULKAN GPU)
quindi tutti gli OS che supportano Vulcan
coumque se vuoi c'è anche al classifica dei sitemi W10 che racconta la stessa storia
1080 - 0.26%
1070 - 0.28%
480 - 0.05%
1060 - 0.02%
Steam non è la sacra bibbia essendo un check skippabile
e stranamente lo skippano tutti quelli con la 480 o le AMD in generale :asd:
saranno invece la sacra bibbia i post a vanvera di gente a caso in giro per altri forum o gli articoli del "sitarello" che in ogni news di Intel o nVidia deve metterci dentro la frase di terrore e tragggedia :asd:
di sicuro è piu affidabile Steam
Se il trend continua anche con vega faccio una deroga all'anticapitalismo e prendo una carriola di azioni amd
AceGranger
18-08-2016, 21:19
Si AceGranger ma adesso non è che devi fare "terrore e tragggedia" tu.
La storia che viene raccontata da steam per ora è solo che le 1080 e le 1070 nel resto del mondo si trovavano più facilmente che in Italia.
Delle 480 è abbastanza inutile guardarle, io vorrei comprarla e non la trovo per esempio.
.
visto che continuate a scrivere che una stravende e l'altra ha problemi di distribuzione, ho solo riportato i dati , visto che finalmente sono usciti:p
Da quei dati si vede che la 1070 al primo mese ha fatto pure peggio della 480.
la 480 si è fatta il suo primo mese pieno, e in 30 giorni ha totalizzato 0.12%
la 1070 hanno iniziato a venderla dal 10, e in 20 giorni ha totalizzato lo 0.10%....
la 1060 hanno iniziato a vendera il 19, e in soli 10 giorni ha totalizzato 0,06%, la meta delle 480.
e pensa se non ci fosse stata la penuria iniziale :sofico:
questi sono i dati di vendita iniziali, vedremo come andranno i prossimi mesi e come si evolvera la situazione
OvErClOck82
18-08-2016, 21:37
dite quello che volete ma almeno DEATHROMA era azionista :rolleyes:
visto che continuate a scrivere che una stravende e l'altra ha problemi di distribuzione, ho solo riportato i dati , visto che finalmente sono usciti:p
la 480 si è fatta il suo primo mese pieno, e in 30 giorni ha totalizzato 0.12%
la 1070 hanno iniziato a venderla dal 10, e in 20 giorni ha totalizzato lo 0.10%....
la 1060 hanno iniziato a vendera il 19, e in soli 10 giorni ha totalizzato 0,06%, la meta delle 480.
e pensa se non ci fosse stata la penuria iniziale :sofico:
questi sono i dati di vendita iniziali, vedremo come andranno i prossimi mesi e come si evolvera la situazione
Prima o poi bisogna svegliarsi dal sogno...:sofico:
Ale55andr0
18-08-2016, 22:13
qui si parla delle nuove gpu AMD, non rompete i maroni con i dati di steam e parlatemi di vega, che sono annoiato :O
qui si parla delle nuove gpu AMD, non rompete i maroni con i dati di steam e parlatemi di vega, che sono annoiato :O
A meno di annunci shock, ti annoierai per parecchio...:p
dite quello che volete ma almeno DEATHROMA era azionista :rolleyes:
:D :D :D
Ale55andr0
18-08-2016, 22:22
A meno di annunci shock, ti annoierai per parecchio...:p
se va bene solo fino a ottobre
se va bene solo fino a ottobre
Se va bene...;)
La vecchia roadmap non indicava Q1 2017 per Vega ?
http://m.memegen.com/u3lcbs.jpg
:sofico:
Ale55andr0
18-08-2016, 22:47
il direttore del marketing amd ha detto diversamente parlando di lancio imminente (letto le ultime pagine?), quindi o vuole essere licenziato (può essere eh :asd: )o sono vere le voci che circolavano tempo addietro e che parlano di una anticipazione dell'uscita di vega 10 a ottobre, in concomitanza con BF1
mircocatta
18-08-2016, 22:50
Se così fosse e Vega va quanto una 1080 io mi sparo sulle palle, detta come va detta
Inviato dal mio HTC One M9 utilizzando Tapatalk
Ale55andr0
18-08-2016, 23:07
Se così fosse e Vega va quanto una 1080 io mi sparo sulle palle, detta come va detta
spero che le tue palle finiscano male allora, niente di personale eh :asd:
..comunque dovresti gia averlo fatto da un pezzo pensando a quanto presto hanno messo le 980ti in legacy e a quanto presto si sta parlando di volta con molti utenti che considerano pascal una meteora dopo che hanno speso quanto per la 1080? 700 o giu di li? :asd:
...comunque da nessuna parte è stato detto che va come una 1080, puoi star sereno :D. Personalmente parto dal presupposto che gcn 4 con meno bandwidth, cu, tmu e la metà della rop con una aggiustatina in alto al clock va come le 2560sp/512bit/64rop, quindi se a vega 4096sp ci aggiungo questi miglioramenti "dell'ipc" e i 14 nm che dovrebbero consentire grazie anche ad hbm 2 e relativo mc 150-200mhz in più sul core senza fondere la testata, la vedo piazzata abbastanza bene per mettersi dietro la 1070 e mettere a 90 la 1080 in asyc compute. L'altra speranza è che visto che si sono fossilizzati con gcn e che pure l'altra infornata di console sarà gcn si avrà un supporto assicurato per altri 4-5 anni almeno :sofico:
Legolas84
19-08-2016, 00:32
A leggere alcuni di voi sembra davvero che le cose in AMD vadano a gonfie vele... speriamo dai ;)
Lunar Wolf
19-08-2016, 07:17
A leggere alcuni di voi sembra davvero che le cose in AMD vadano a gonfie vele... speriamo dai ;)
In uk vendono come il pane, Zen sembra competere (finalmente) con i5-i7 sembra che il 2017 sia l'anno di AMD....aspettando Vega ovviamente e sperando nelle giuste prestazioni.
fraussantin
19-08-2016, 07:46
In uk vendono come il pane, Zen sembra competere (finalmente) con i5-i7 sembra che il 2017 sia l'anno di AMD....aspettando Vega ovviamente e sperando nelle giuste prestazioni.
E prezzi. :sperem:
E prezzi. :sperem:
Amd non è una onlus (cit.)
A leggere alcuni di voi sembra davvero che le cose in AMD vadano a gonfie vele... speriamo dai ;)
:asd:
Suona vero come la famosa banconota da 300€
:asd:
Suona vero come la famosa banconota da 300
Anche io con la 750
Ale55andr0
19-08-2016, 08:25
Amd non è una onlus (cit.)
ma non devono nemmeno alienarsi dalla realtà: necessitano di vendere partendo da uno svantaggio tecnico e di mercato. Se piazzano vega al costo della 1080 uscendo mesi dopo failano e di brutto, e lo sanno pure loro, fury-x docet :read:, a meno che vadano nettamente più forte, ma ne dubito...
N3OM4TR|X
19-08-2016, 13:09
Non so se e' stato gia' postato:
https://www.computerbase.de/2016-08/amd-radeon-polaris-architektur-performance/2/
L'articolo e' in tedesco, ma in breve, ha fatto un confronto con driver 16.8.1 fra le architetture GCN1/3/4 a parita' di tutto il resto (SP, clock, bandwidth, etc).
Viene calcolato un miglioramento GCN4 vs GCN3 di ~7% in media con casi dove e' piu risicato ed altri in cui arriva ben oltre.
Trovo l'articolo molto interessante in previsione di Vega per scremare almeno una variabile e capire un po' cosa aspettarsi.
Parto dal presupposto che Vega10, come da rumors, sia effettivamente bilanciata come Fury X (4096:256:64) e, come dissi in un altro post, trovo ragionevole pensare che la bandwidth resti la stessa (2 stack x 4GB x 2Gbps HBM2).
A livello di architettura fra Polaris e Vega credo che, realisticamente, le differenze saranno minime, quanto basta per passare da GDDR5 a HBM2. Restano entrambe GCN4.
Direi, dunque, che quel +7% di differenza si dovrebbe riproporre ed essere leggermente incrementato dalla presenza di 8GB nelle alte risoluzioni.
Tutto il resto direi che AMD lo deve ricavare dal clock, dal quale non mi aspetto miracoli soprattutto visto che il 14nm utilizzato sara' solo qualche mese piu' maturo rispetto a quello visto su Polaris.
Per farla breve, mi unisco a coloro che vedono Vega 10 Full piazzata poco sotto la GTX 1080 (~10%) ad un MSRP che mi auguro sia di 499$ e spero non arrivi a 549$ (oltre non ci saremmo proprio).
A 499$ sarebbe una scheda interessante.
Incrocio le dita, anche perche' il monitor 4K mi e' arrivato e la mia GTX 970 ha minacciato di svitarsi, sganciarsi dal PCI-E e scioperare (giustamente).
Pero' che avrei dovuto fare? Se nel trasloco mi si rompe il FullHD, e' ovvio che mi ritrovi costretto a passare ante tempo al 4K :sofico:
Speriamo escano presto le vega. Vendendo le mie 970 mi son fatto un bel gruzzoletto. Dai che il mio fhd 144hz freesync scalpita.
Inviato dal mio LG-D802 utilizzando Tapatalk
Ale55andr0
19-08-2016, 13:45
Non so se e' stato gia' postato:
https://www.computerbase.de/2016-08/amd-radeon-polaris-architektur-performance/2/
L'articolo e' in tedesco, ma in breve, ha fatto un confronto con driver 16.8.1 fra le architetture GCN1/3/4 a parita' di tutto il resto (SP, clock, bandwidth, etc).
Viene calcolato un miglioramento GCN4 vs GCN3 di ~7% in media con casi dove e' piu risicato ed altri in cui arriva ben oltre.
Trovo l'articolo molto interessante in previsione di Vega per scremare almeno una variabile e capire un po' cosa aspettarsi.
Parto dal presupposto che Vega10, come da rumors, sia effettivamente bilanciata come Fury X (4096:256:64) e, come dissi in un altro post, trovo ragionevole pensare che la bandwidth resti la stessa (2 stack x 4GB x 2Gbps HBM2).
A livello di architettura fra Polaris e Vega credo che, realisticamente, le differenze saranno minime, quanto basta per passare da GDDR5 a HBM2. Restano entrambe GCN4.
Direi, dunque, che quel +7% di differenza si dovrebbe riproporre ed essere leggermente incrementato dalla presenza di 8GB nelle alte risoluzioni.
Tutto il resto direi che AMD lo deve ricavare dal clock, dal quale non mi aspetto miracoli soprattutto visto che il 14nm utilizzato sara' solo qualche mese piu' maturo rispetto a quello visto su Polaris.
Per farla breve, mi unisco a coloro che vedono Vega 10 Full piazzata poco sotto la GTX 1080 (~10%) ad un MSRP che mi auguro sia di 499$ e spero non arrivi a 549$ (oltre non ci saremmo proprio).
A 499$ sarebbe una scheda interessante.
Incrocio le dita, anche perche' il monitor 4K mi e' arrivato e la mia GTX 970 ha minacciato di svitarsi, sganciarsi dal PCI-E e scioperare (giustamente).
Pero' che avrei dovuto fare? Se nel trasloco mi si rompe il FullHD, e' ovvio che mi ritrovi costretto a passare ante tempo al 4K :sofico:
io sinceramente non ho ancora capito se usano glofo o samsung per vega, e se magari optano per la seconda magari il pp migliore perchè oggettivamente, anche se è peculiarità di gcn non salire molto in se, sti 14nm densi mi paiono una fetenzia lato clock, con degli incrementi def vs def francamente deludenti rispetto i mattonazzi a 28nm. Con la fury x partivano da 1050 con AIO, c'è da sperare che coi 14nm reggano almeno 150mhz in più ad aria :rolleyes:
Mi accodo totalmente al neretto: performance fra 1070 e 1080 che passano la 1080 con vulkan/async e street price inferiore ai 600 :sperem:
siluro85
19-08-2016, 15:47
Le prestazioni saranno quelle, prezzo non lo so ma spero intorno ad un msrp intorno ai 500 in modo da averla qua tra 550 e 600
mirkonorroz
19-08-2016, 16:28
[cut]
Se nel trasloco mi si rompe il FullHD, e' ovvio che mi ritrovi costretto a passare ante tempo al 4K :sofico:
C'e' l'FBI che ha iniziato le indagini :sofico:
Free Gordon
19-08-2016, 17:03
Se va bene...;)
La vecchia roadmap non indicava Q1 2017 per Vega ?
Hai letto della dimostrazione di Zennuccio nostro? :D
Hai letto della dimostrazione di Zennuccio nostro? :D
Yes. :)
Tutto come previsto.;)
Ottimo IPC, Clock contenuti per mille ragioni (niente pentium4 :sofico:) ed un buon consumo.
Voglio proprio vedere che si inventeranno in intel per competere contro il 32core...:sofico:
Speriamo non comincino con i soliti ritardi...:rolleyes:
Free Gordon
19-08-2016, 17:20
Non so se e' stato gia' postato:
https://www.computerbase.de/2016-08/amd-radeon-polaris-architektur-performance/2/
L'articolo e' in tedesco, ma in breve, ha fatto un confronto con driver 16.8.1 fra le architetture GCN1/3/4 a parita' di tutto il resto (SP, clock, bandwidth, etc).
Viene calcolato un miglioramento GCN4 vs GCN3 di ~7% in media con casi dove e' piu risicato ed altri in cui arriva ben oltre.
Veramente molto interessante.
E' l'articolo che attendevo..
Ora c'è da capire se i futuri giochi, aumenteranno il gap su GCN3 o resterà stabile.
Parto dal presupposto che Vega10, come da rumors, sia effettivamente bilanciata come Fury X (4096:256:64) e, come dissi in un altro post, trovo ragionevole pensare che la bandwidth resti la stessa (2 stack x 4GB x 2Gbps HBM2).
A livello di architettura fra Polaris e Vega credo che, realisticamente, le differenze saranno minime, quanto basta per passare da GDDR5 a HBM2. Restano entrambe GCN4.
Direi, dunque, che quel +7% di differenza si dovrebbe riproporre ed essere leggermente incrementato dalla presenza di 8GB nelle alte risoluzioni.
Tutto il resto direi che AMD lo deve ricavare dal clock, dal quale non mi aspetto miracoli soprattutto visto che il 14nm utilizzato sara' solo qualche mese piu' maturo rispetto a quello visto su Polaris.
Per farla breve, mi unisco a coloro che vedono Vega 10 Full piazzata poco sotto la GTX 1080 (~10%) ad un MSRP che mi auguro sia di 499$ e spero non arrivi a 549$ (oltre non ci saremmo proprio).
A 499$ sarebbe una scheda interessante.
Incrocio le dita, anche perche' il monitor 4K mi e' arrivato e la mia GTX 970 ha minacciato di svitarsi, sganciarsi dal PCI-E e scioperare (giustamente).
Pero' che avrei dovuto fare? Se nel trasloco mi si rompe il FullHD, e' ovvio che mi ritrovi costretto a passare ante tempo al 4K :sofico:
Se con le HBM2 possono ridurre le dimensioni del bus, aumentando nel contempo i GB (penso 8) a disposizione e la banda (rispetto a Fiji), le prestazioni da 1070+ ci dovrebbero essere. :)
Perché 4600SP e 64ROPs a 1200mhz (perché non duplicare P10 paro paro? ;) ) dovrebbero consentire prestazioni del 15% rispetto a FuryX.
https://tpucdn.com/reviews/Zotac/GeForce_GTX_1080_Amp/images/perfrel_2560_1440.png
La 1070 la prendi sicuro sul 1440p e la superi sul 4K. ;)
Il problema è che le 1070 ora si trovano a 450€...e se Vega esce a 499$+ tasse...hmmm...la vedo grigia.
Devono uscire con un prezzo più aggressivo, quindi sarà di nuovo GF14 solo con dissi custom. Da subito..
Certo, avere una scheda (1 anno e mezzo dopo..) su un nuovo nodo...che ti fa il 15% in più della vecchia top a 28nm, non è proprio il massimo come biglietto da visita di GCN4.
Se con Zen cambiano marcia, il prossimo cambio vero sarà pensionate GCN...e tornare al gaming puro!!!
Free Gordon
19-08-2016, 17:26
Yes. :)
Tutto come previsto.;)
Ottimo IPC, Clock contenuti per mille ragioni (niente pentium4 :sofico:) ed un buon consumo.
Voglio proprio vedere che si inventeranno in intel per competere contro il 32core...:sofico:
Speriamo non comincino con i soliti ritardi...:rolleyes:
:sperem:
Veramente molto interessante.
E' l'articolo che attendevo..
Ora c'è da capire se i futuri giochi, aumenteranno il gap su GCN3 o resterà stabile.
Rimarrà più o meno stabile.;)
Hanno fatto miglioramenti minimi che non impattano sulle ottimizzazioni.
Tanti paroloni nelle slide ed hanno ottenuto solo il 7% :rolleyes: di IPC. (+wavefront,prefetch e compressione migliorata)
Free Gordon
19-08-2016, 17:31
Rimarrà più o meno stabile.;)
Hanno fatto miglioramenti minimi che non impattano sulle ottimizzazioni.
Vista la 480..era quello che mi aspettavo.
Ma prima dell'uscita, pensavo avrebbero migliorato ALMENO del 10% GCN1.2...
Mi sa che hanno le mani legate, più di tanto con GCN così come sarà stata concepita più di 6 anni fà.. non riescono a fare. :(
Vista la 480..era quello che mi aspettavo.
Ma prima dell'uscita, pensavo avrebbero migliorato ALMENO del 10% GCN1.2...
Mi sa che hanno le mani legate, più di tanto con GCN così come sarà stata concepita più di 6 anni fà.. non riescono a fare. :(
Speriamo non si portino dietro il carrozzone per tutta la durata delle console...:rolleyes:
Rimane l'impressione che del mercato discrete PC gli importi poco. (non hanno tutti i torti)
Legolas84
19-08-2016, 17:44
Speriamo non si portino dietro il carrozzone per tutta la durata delle console...:rolleyes:
Rimane l'impressione che del mercato discrete PC gli importi poco. (non hanno tutti i torti)
Se la loro strategia è quella che abbiamo ipotizzato non credo la cambieranno...
siluro85
19-08-2016, 17:46
È votata parecchio alla parallelizzazione ed alla esecuzione di 3d generici, non solo grafici e così facendo perdi un po' di specializzazione anche delle unità stesse..
Se la loro strategia è quella che abbiamo ipotizzato non credo la cambieranno...
Infatti era uno "speriamo". :sofico:
Finché le console vendono non cambieranno un fico secco.
Fatturano più di due miliardi l'anno. (anche se i margini sono bassi)
Legolas84
19-08-2016, 17:48
Infatti era uno "speriamo". :sofico:
Finché le console vendono non cambieranno un fico secco.
Fatturano più di due miliardi l'anno. (anche se i margini sono bassi)
Non c'è possibilità che i conti si pareggino con le console vero?
Bisogna sperare in zen come dicevo di la....
Non c'è possibilità che i conti si pareggino con le console vero?
Bisogna sperare in zen come dicevo di la....
Hanno mantenuto in piedi la baracca con le console.
Sono in rosso da anni ed hanno venduto diversi rami d'azienda, quindi ad oggi non sono bastati.
Zen va a doppio filo con la joint venture con i cinesi.
In teoria sono usciti dal baratro. Speriamo...;)
cmq nvidia ha in mano il mercato GPU, ma fattura solo 5 miliardi. Certo i suoi margini sono belli alti, ma stiamo parlando di quasi un monopolio.
Legolas84
19-08-2016, 18:07
NVIDIA non è un'azienda enorme, ma ha sempre saputo tenere in ordine i sui conti con ottimi guadagni...
Comunque confido in Zen come erede dell'Athlon64.... ;)
N3OM4TR|X
19-08-2016, 18:07
C'e' l'FBI che ha iniziato le indagini :sofico:
Le hanno già concluse e chi doveva pagare ha pagato (ho risparmiato un centone sul 4K che è meglio di niente!)
[...]non ho ancora capito se usano glofo o samsung per vega, e se magari optano per la seconda magari il pp migliore[...]
Beh... cito:
AMD has strong foundry partnerships and our primary manufacturing partners are GLOBALFOUNDRIES and TSMC. We have run some product at Samsung and we have the option of enabling production with Samsung if needed as part of the strategic collaboration agreement they have with GLOBALFOUNDRIES to deliver 14nm FinFET process technology capacity.
GloFo e Samsung hanno lo stesso PP (il 14LPP se non ricordo male) che GloFfo ha preso in licenza proprio da Samsung.
Da quello che ho capito hanno un accordo secondo il quale, se GloFo non riesce a star dietro alle richieste, delegano un po' del lavoro a Samsung (e credo lo faccia GloFo stessa, non AMD).
Certo, è possibile che Samsung le cose le faccia un attimino meglio, ma non mi aspetterei tutta sta differenza francamente.
Un'altra possibilità, e per certi versi opposta a quanto ho appena detto, è che Samsung riesca a produrre chip con TDP maggiore di GloFo a parità di PP. Il ché avvantaggerebbe Vega permettendogli di spuntare qualche Mhz in più.
Ma di ufficiale non c'è un bel niente, se non quanto ho riportato sopra.
[...]Se con le HBM2 possono ridurre le dimensioni del bus, aumentando nel contempo i GB (penso 8) a disposizione e la banda (rispetto a Fiji), le prestazioni da 1070+ ci dovrebbero essere. :)
Perché 4600SP e 64ROPs a 1200mhz (perché non duplicare P10 paro paro? ;) ) dovrebbero consentire prestazioni del 15% rispetto a FuryX.[...]
Per quanto riguarda il particolare l'utilizzo delle HBM2, possono farlo e lo faranno al 99.9%. Anche se non ci sono dichiarazioni ufficiali in merito, è l'unica soluzione logica (cit. Spock, Tuvok, etc):
Hynix produce solo due tipi di stack HBM, entrambi da 4GB di capienza l'uno, che differiscono solo per la bandwidth (i.e. 2 Gbps vs 1.6 Gbps). Va da se che, a meno che AMD non impazzisca, Vega destinata al mercato consumer non sarà da 16GB ma da 8GB. Ci risparmia un sacco lei, ci guadagna Xynix che, da quanto sappiamo e per ora, come unico cliente ha AMD (nVidia usa Samsung) e, si spera, ci risparmiamo un pochino anche noi utenti finali.
Poi su Vega per HPC è ovvio che ci butti sopra i 16GB inizialmente o aspetti e parti direttamente da 32GB quando Xynix produrrà stack da 8GB l'uno.
Per quanto riguarda la previsione prestazionale, non credo che fare MUL(RX480, 2) sia esattamente un buon calcolo :stordita:
Qualche piccola miglioria a livello architetturale Vega dovrebbe comunque averla rispetto a Polaris (IP v9 vs IP v8 qualcosa, seppur minima, dovranno cambiarla!), credo sia più auspicabile un +20% rispetto a Fury X in media.
Inoltre mi pare di aver letto, ma non ricordo dove quindi non lo prendo in considerazione nel discorso generale, che la RX480 ha un piccolo collo di bottiglia nella bandwidth della memoria, quindi ci sta che 4096SP, unito al raddoppio di bandwidth via HBM2, portino ad una scheda ben bilanciata. 4608SP potrebbe essere rischioso/superfluo.
Ale55andr0
19-08-2016, 18:16
Tanti paroloni nelle slide ed hanno ottenuto solo il 7% :rolleyes: di IPC. (+wavefront,prefetch e compressione migliorata)
vatti a vedere cosa fa pascal a livello di ipicì rispetto a maxwell :O ...
N3OM4TR|X
19-08-2016, 18:19
vatti a vedere cosa fa pascal a livello di ipicì rispetto a maxwell :O ...
Posso riassumerlo in: mi sono tenuto Maxwell e il 4K che ho preso è FreeSync.
vatti a vedere cosa fa pascal a livello di ipicì rispetto a maxwell :O ...
Guarda che è identico (copia carbone) come architettura...:sofico: (pascal Geforce)
L'unica cosa che ha fatto nvidia è ottimizzare la compressione per evitare un bus più ampio.
Dimenticavo, in teoria hanno peggiorato di un nulla l'ipc con il quinto TPC...
Ale55andr0
19-08-2016, 18:24
perchè allora maxwell con la stessa architettura fa cacare in dx 12? :D
Legolas84
19-08-2016, 18:25
perchè allora maxwell con la stessa architettura fa cacare in dx 12? :D
Ancora con questa storia? :asd:
Mamma mia quanta disinformazione.....
perchè allora maxwell con la stessa architettura fa cacare in dx 12? :D
Ti riferisci agli async ? :confused:
Legolas84
19-08-2016, 18:27
Ti riferisci agli async ? :confused:
Non penso abbia ancora chiaro come funziona la storia DX12 e Async.... e quindi è ancora convinto che sia NVIDIA che ha problemi in DX12...
Ancora con questa storia? :asd:
Mamma mia quanta disinformazione.....
Non penso abbia ancora chiaro come funziona la storia DX12 e Async.... e quindi è ancora convinto che sia NVIDIA che ha problemi in DX12...
Ok, allora evito di perdere tempo in spiegazioni. ;)
Ale55andr0
19-08-2016, 18:40
Ancora con questa storia? :asd:
Mamma mia quanta disinformazione.....
quale disinformazione? nei bench che ho visto maxwell non solo non guadagna, ma va più piano che in dx 11, e non ho tirato i ballo ne async ne ace, parlo di dx 12 lissie
Ale55andr0
19-08-2016, 18:57
credo che ti volessero dire che "nvidia è così uber in dx11 che dei benefit delle dx12 se ne sbatte" il che è una considerazione secondo me un po sui generis e che forse vale adess.
eh no, perchè allora non dovresti andare meno, ma almeno uguale, invece si perde qualcosa. Quantomeno nei bench che ho visto (il primo che mi viene in mente è tomb raider). Non ho tirato in ballo il discorso ace e async compute che mi sa che è la prima cosa che hanno pensato :asd: ma solo la perdita prestazionale in dx12, che a sto punto ce la spiegano loro visto che pure sul thread verde in diversi dicono che pascal fa meglio di maxwell in dx12, quindi o con quelle librerie va maluccio l'architettura o i driver, non vedo altri motivi :boh: direi almeno per ora ma...dubito che le cose migliorino con la 900 in legacy :fagiano:
fraussantin
19-08-2016, 19:16
l'opinione comune che sto notando è che lato nvidia almeno per il momento si tende più ad esaltare magari un physx qualsiasi ed a snobbare le dx12 del tipo "non ci servono". E tra poco si parlerà di dx11.3... invece che migliorare si va indietro lol.
Tira l'acqua al suo mulino.
Quando dissi che microsoft si era fatto gli alleati sbagliati e i nemici più pericolosi .... Tutti a darmi di troll
Cmq prima o poi ci si dovrà arrivare , a meno che non si salti alle 13.. Con w11 ...
( ricordo vista)
Pd chissà se le dx12 fossero state pro nvidia , e esclusiva microsoft store , se quello store oggi sarebbe "partito"..
perchè allora maxwell con la stessa architettura fa cacare in dx 12? :D
Diciamo che nvidia compensa con la potenza, ma AMD é palese che sia piú a suo agio in dx12.
Dovessi prendere oggi una scheda video edclusivamente per il dx12, andrei di AMD con ben pochi dubbi.
siluro85
19-08-2016, 19:32
Premettendo che nelle dx12 è presente la funzione async compute che amd sfrutta tramite gli ace (async compute engine) e che nvidia se mai un giorno decidesse di adottare una soluzione hw simile li può chiamare anche "sbirulino engine", amd con gli AC guadagna perché va a sfruttare quelle unità che rimangono inutilizzate.. nvidia questo problema non lo ha quindi in dx12 non ha gli stessi guadagni.. poi sul fatto che vada peggio essendo la stessa architettura non mi voglio esprimere... e le dx11.3 mi puzzano di verde..
Ale55andr0
19-08-2016, 20:07
Diciamo che nvidia compensa con la potenza, ma AMD é palese che sia piú a suo agio in dx12.
non era quello il mio punto ;)
maxwell non compensa nulla, va peggio che in dx11, pascal migliora, come AMD, quello era il punto in questione :)
non è questione di agio in fin dei conti, AMD ha delle unità di calcolo hardware dedicate ed un'architettura volta al parallelismo, quindi ovvio che spinge, mettici pure che in dx11 soffre di problemi di overhead tutto si traduce in un agio si fa per dire.
Nvidia non è scalabile per virtù dello spirito santo. Il chip è infarcito di TPC proprio per evitare stalli delle unità funzionali, inoltre la pletore di fixed function abbassa i consumi.
AMD cerca di limitare gli stalli con gli ACE che vengono utilizzati per lo più per fare post processing senza passare per la pipeline grafica.
Ale55andr0
19-08-2016, 20:13
Nvidia non è scalabile per virtù dello spirito santo. Il chip è infarcito di TPC proprio per evitare stalli delle unità funzionali, inoltre la pletore di fixed function abbassa i consumi.
AMD cerca di limitare gli stalli con gli ACE che vengono utilizzati per lo più per fare post processing senza passare per la pipeline grafica.
sto ancora spettando il perchè maxwell vada più piano in dx 12 che 11 e pascal no :fiufiu:
Tira l'acqua al suo mulino.
Quando dissi che microsoft si era fatto gli alleati sbagliati e i nemici più pericolosi .... Tutti a darmi di troll
Cmq prima o poi ci si dovrà arrivare , a meno che non si salti alle 13.. Con w11 ...
( ricordo vista)
Pd chissà se le dx12 fossero state pro nvidia , e esclusiva microsoft store , se quello store oggi sarebbe "partito"..
Più che da troll è proprio una cazzata
Più che da troll è proprio una cazzata
http://pad.mymovies.it/filmclub/attori/144568.jpg
siluro85
19-08-2016, 20:51
Secondo me non sono bestie masochiste, hanno pensato una architettura molto votata al parallelismo per il progetto fusion/hsa ed ora per me erano sotto con zen e non avevano le risorse per rifare da zero...
Lunar Wolf
19-08-2016, 20:54
sto ancora spettando il perchè maxwell vada più piano in dx 12 che 11 e pascal no :fiufiu:
se non erro in pascal ci sarebbe una piccola parte del hardware per eseguire certe funzioni (ace :stordita: ) delle dx12.
ho scritto se non erro non fucilatemi perchè seguo poco il thread delle verdi.
poi vai a capire se mamma nvidia ha sbagliato una virgola nel driver voce-> maxwell ;)
Che in amd a volte non brillino in intelligenza non é un segreto, ma resto spiazzato di fronte all'ovvietà che volete fare passare con certe affermazioni. Io leggo "é ovvio che le Nvidia non hanno problemi" seguito da una supercazzola tecnica. O in amd sono bestie masochiste o qualcuno di voi potrebbe proporsi per progettare le prossime gpu amd da solo con matita e foglio di carta scrivendo alla fine del progetto "ovviamente".
Se non capisci adesso è colpa mia...:asd:
Intendi un pò quel che ti pare ;) . Tanto dai fanatici del silicio mi aspetto di tutto. :p
Bene l'hai presa sul personale, capisci una cifra di architetture ma non hai capito un ciufolo sul mio discorso. Fa nulla, del resto son un fanatico del silicio, di pure fanboy non mi offendo.
Perchè dovresti offenderti. Lo sei :sofico:
Sembrate una setta religiosa...:asd:
Ale55andr0
19-08-2016, 21:15
Che in amd a volte non brillino in intelligenza non é un segreto, ma resto spiazzato di fronte all'ovvietà che volete fare passare con certe affermazioni. Io leggo "é ovvio che le Nvidia non hanno problemi" seguito da una supercazzola tecnica. O in amd sono bestie masochiste o qualcuno di voi potrebbe proporsi per progettare le prossime gpu amd da solo con matita e foglio di carta scrivendo alla fine del progetto "ovviamente".
:asd:
Ale55andr0
19-08-2016, 21:17
se non erro in pascal ci sarebbe una piccola parte del hardware per eseguire certe funzioni (ace :stordita: ) delle dx12.
quello dovrebbe farla andare più forte, non più piano, ma ren ovviamente ci illuminerà tutti perchè ancora s'è ben guardato dal dirci perchè maxwel in dx 12 non va manco a spinta e perde rispetto a dx11 mentre pascal no
É tutto cosi ovvio che hai gia le prossime due generazioni di gcn in tasca che puoi perdere tempo con me.
Scendi dal piedistallo, ti avevo solo chiesto come mai tutto fosse cosi ovvio a voi utenti del forum e non agli ingegneri amd, ma la tua spocchia precede la tua intelligenza.
Hai un modo curioso di chiedere le cose.
Prima dai del ciarlatano. Dopo vuoi spiegazioni...:sofico:
Stai sereno e non roderti il fegato per i tuoi pezzi di silicio...;)
Non entri a fare R&D in queste aziende senza un immensa preparazione.
Non entri a fare R&D in queste aziende senza un immensa preparazione.
Infatti solo loro credono che è per stupidità... :p
quello dovrebbe farla andare più forte, non più piano, ma ren ovviamente ci illuminerà tutti perchè ancora s'è ben guardato dal dirci perchè maxwel in dx 12 non va manco a spinta e perde rispetto a dx11 mentre pascal no
Vedo che non capisci nemmeno le spiegazioni di Lunar Wolf... ;)
Ale55andr0
19-08-2016, 21:31
Hai un modo curioso di chiedere le cose.
Prima dai del ciarlatano. Dopo vuoi spiegazioni...:sofico:
Stai sereno e non roderti il fegato per i tuoi pezzi di silicio...;)
stai continuando a sparare a salve gettando fumo negli occhi :mc:
e le spiegazioni le si vuole per un motivo ben preciso..."ovviamente" :Prrr:
Ale55andr0
19-08-2016, 21:37
Vedo che non capisci nemmeno le spiegazioni di Lunar Wolf... ;)
lunar wolf non ha spiegato proprio nulla, se pascal sostanzialmente =maxwell (dicon gli altri eh) e viceversa che abbia o meno funzioni in hardware in merito all'async compute non spiega perchè razzo in dx 12 perda, async o meno. Nel frattempo stai continuando a glissare e a lanciare bombe fumogene. Dai che pendiamo dalle tue labbra :)
lunar wolf non ha spiegato proprio nulla, se pascal sostanzialmente =maxwell (dicon gli altri eh) e viceversa che abbia o meno funzioni in hardware in merito all'async compute non spiega perchè razzo in dx 12 perda, async o meno. Nel frattempo stai continuando a glissare e a lanciare bombe fumogene. Dai che pendiamo dalle tue labbra :)
Invece ti ha dato una delle possibili spiegazioni il "Preemption".
Ale55andr0
19-08-2016, 21:45
Bene l'hai presa sul personale, capisci una cifra di architetture ma non hai capito un ciufolo sul mio discorso. Fa nulla, del resto son un fanatico del silicio, di pure fanboy non mi offendo.
e chi lo dice? io ad esempio sono discretamente scafato nel settore dell'autocostruzione audio, dall'ottimizzazione del sistema di caricamento di un woofer (dalla sospensione penumatica al reflex in varie configurazioni) alla progettazione del circuito di crossover, tutto su basi reali (parametri thiele&small, risposta i frequenza e impedenza effettive del trasduttore caricato nel suo box comprensivo di diffrazioni a pannello ecc)e non sulle formulette che trovi su internet che servono a UN CAZZO . In certi forum di appassionati alcuni utenti mi considerano una sorta di profeta quando parte a me la supercazzola e non capiscono una mazza di quello che dico perchè il loro livello è terra terra (con tutto il rispetto) ma cio non fa di me uno che dovrebbe lavorare alla B&W e spiegargli come si progetta un buon sistema di altoparlanti :asd: non valgo il dito mignolo di un ingegnere laureato con un calcio in culo. E' proprio vero il detto che dice: chi sa fa, non non sa, parla...
Free Gordon
19-08-2016, 21:46
Secondo me non sono bestie masochiste, hanno pensato una architettura molto votata al parallelismo per il progetto fusion/hsa ed ora per me erano sotto con zen e non avevano le risorse per rifare da zero...
Possibilissimo...
Il fatto è che il progetto HSA è andato dal culo (si dice dalle mie parti :asd: ), quindi sarebbe ora che decidessero di pensionare GCN, dato che in 6 anni...è andata sempre peggio a livello di perf/watt.
Probabilmente GCN avrebbe avuto molto più senso con delle APU ben sfruttate (e nn solo per "inutile" gaming...).
Ma così purtroppo non è stato...
Sinceramente non credo che HSA prenderà mai piede tra i devs...non vedremo tutti i principali software in commercio programmati ad hoc per sfruttare appieno le CU delle APU (parlo di programmi di grafica, audio, sviluppo ecc ecc..).
Almeno, di anni ne abbiamo attesi...ma per ora all'orizzonte PURTROPPO non si vede nulla.
Ale55andr0
19-08-2016, 21:46
In tre post ha dato
- del coglione agli ingegneri amd che non sanno fare cose ovvie
- dello scemo ad Alessandro che non capisce spiegazioni banali
- del pippa a lunarwolf (quello che da spiegazioni banali)
- fanboy a me (alla fine mi é finita meglio di tutti)
e non ha spiegato un piffero di suo :asd:
F1 2016 maxato a 1080P con la mia 290 arranca un po'...
Forza AMD svegliaaaa.
Mi serve una 490!
Inviato dal mio GT-I9505 utilizzando Tapatalk
Invece ti ha dato una delle possibili spiegazioni il "Preemption".
Comunque del perchè pascal si comporta meglio in DX12 è spiegato abbastanza semplicemente qui alla voce "Asynchronous Compute" http://www.tomshw.it/articoli/recensione-geforce-gtx-1080-8gb-gddr5x-77025-p5
Certo questo è più una preemption migliorata che dei veri ace, infatti per quanto si comporti meglio di Maxwell non ha vantaggi importanti come GCN.
Dai che tra un pò ci arrivava da solo...;)
Ale55andr0
19-08-2016, 21:51
F1 2016 maxato a 1080P con la mia 290 arranca un po'...
Forza AMD svegliaaaa.
Mi serve una 490!
Inviato dal mio GT-I9505 utilizzando Tapatalk
ma pijati na 1070 e smettila di fare il piangina come quel coglione di Ale55andro che caga il cazzo da mane a sera co sta vega che non esce, gne gneee, non posso giocare, nvidia costa assai, m'annoio, AMD mi hai stufato ecc ecc :O
...Oh ma quando razzo esce vega? mi sono ROTTO :mad:
ma pijati na 1070 e smettila di fare il piangina come quel coglione di Ale55andro che caga il cazzo da mane a sera co sta vega che non esce, gne gneee, non posso giocare, nvidia ocsta assai, m'annoio, AMD mi hai stufato ecc ecc :O
...Oh ma quando razzo esce vega? mi sono ROTTO :mad:
In effetti sto Alessandro ha un po' rotto 😅😅😅
Una 480 in percentuale, quanto andrebbe piú di una 290 WindForce 3 (OC di fabbrica)?
Potrei prendere una 480 ora, e poi appena passo al 1440P, prenderne un'altra in Cross.
Anche se preferirei singola GPU.
Le fury-x si trovano intorno ai 500 e poco piú Euro...
Ma una 485 x2 no? 😅
Ale55andr0
19-08-2016, 22:02
In effetti sto Alessandro ha un po' rotto ������
è quel che dico anch'io. Guarda, spero solo che AMD l'accontenti presto così si toglie dalle pelotas rinchiudendosi nel suo loculo a giocare liberandoci dalle sue isteriche crisi d'astinenza
Una 480 in percentuale, quanto andrebbe piú di una 290 WindForce 3 (OC di fabbrica)?
stai chiedendo che differenza fa avere un'auto da 1 tonnellata per cento cavalli rispetto ad una da cento cavalli per una tonnellata :D (ora mi aspetto n'altra supercazzola da parte di un utente x che comincia a sproloquiare su cx, rapportatura del cambio, gommatura e bilanciamento pesi :asd:)
Potrei prendere una 480 ora, e poi appena passo al 1440P, prenderne un'altra in Cross.
basta basta, esci da questo corpo!
Anche se preferirei singola GPU.
ecco, gia meglio
Le fury-x si trovano intorno ai 500 e poco piú Euro...
50 sfumature di "oggi non so come gettare soldi nella monnezza"
Ma una 485 x2 no? ��
noooooo, il maligno sta tentando di nuovo di possederti!!!!! :muro: :muro:
Voglio un grafico in percentuali 480 (con ultimi driver) VS 290!!!
Magari un 15% in piú va 😅😅😅
Inviato dal mio GT-I9505 utilizzando Tapatalk
Ale55andr0
19-08-2016, 22:10
Voglio un grafico in percentuali 480 (con ultimi driver) VS 290!!!
Magari un 15% in piú va 😅😅😅
Inviato dal mio GT-I9505 utilizzando Tapatalk
vedi se questo ti schiarisce le idee, così, googlando a caso
https://www.youtube.com/watch?v=IT1Dd8S69jM
Sono su cell se no googlavo. Qua mi tiro scemo 😅
Inviato dal mio GT-I9505 utilizzando Tapatalk
Lunar Wolf
19-08-2016, 22:18
Credimi la mia ironia non voleva essere un attacco personale.
Ho detto solo che leggo ovvio di qua ovvio di la e disamine tecniche da far impallidire Apu.
Quindi o in amd hanno degli ingegneri che sono degli emeriti coglioni o nel forum abbiamo degli ingegneri con i controcazzi. O forse le cose non sono cosi ovvie come le si vogliono far passare magari non conoscendo i motivi per cui certe scelte progettuali sono state perpetrate nonostante l'apparente o palese sconvenienza nel farlo.
Ingegneri con i controcaxxi li abbiamo sul forum eccome... Per non far nomi posti solo un immagine :
http://uploads.tapatalk-cdn.com/20160819/20e795eecc5f0ad477c968df209a3ddf.jpg
Lunar Wolf
19-08-2016, 22:19
Non entri a fare R&D in queste aziende senza un immensa preparazione.
Appunto... Ma sai loro sono in rosso quindi prendono i primi cinesi che sappiano usare un tester... Lool
Ale55andr0
19-08-2016, 22:20
Ingegneri con i controcaxxi li abbiamo sul forum eccome...
scherzi a parte, qua l'unico VERO esperto che abbia mai visto è un certo yossarian che a mio avviso zitto zitto ci lavorava davvero in AMD/nvidia/quel che è :asd:
sparito da anni :cry:
Questo é bello chiaro Ale:
http://hwbench.com/vgas/radeon-rx-480-vs-radeon-r9-290
Circa un 10% in piú...
Quindi NO.
sto provando ad illudermi...
Inviato dal mio GT-I9505 utilizzando Tapatalk
Lunar Wolf
19-08-2016, 22:21
In tre post ha dato
- del coglione agli ingegneri amd che non sanno fare cose ovvie
- dello scemo ad Alessandro che non capisce spiegazioni banali
- del pippa a lunarwolf (quello che da spiegazioni banali)
- fanboy a me (alla fine mi é finita meglio di tutti)
Spiegazioni banali le dovrebbero capire anche i più ignoranti di materia come me eppure farei l'area dedicata agli ingegneri qui dentro! Almeno nella sezione cpu e una goduria leggere certe cose(anche se non capisco niente) ma qui andiamo oltre l'immaginazione!
Ale55andr0
19-08-2016, 22:22
Appunto... Ma sai loro sono in rosso quindi prendono i primi cinesi che sappiano usare un tester... Lool
c'hanno pure i cinesi che fungono da ponte LCR applicando i reofori dei componenti sulle loro estremita che...:O
Lunar Wolf
19-08-2016, 22:22
scherzi a parte, qua l'unico VERO esperto che abbia mai visto è un certo yossarian che a mio avviso zitto zitto ci lavorava davvero in AMD/nvidia/quel che è :asd:
sparito da anni :cry:
Per una volta ti posso dare ragione ;)
Quel utente era un mostro...
Ale55andr0
19-08-2016, 22:24
Questo é bello chiaro Ale:
http://hwbench.com/vgas/radeon-rx-480-vs-radeon-r9-290
Circa un 10% in piú...
Quindi NO.
sto provando ad illudermi...
Inviato dal mio GT-I9505 utilizzando Tapatalk
ma pijati na bella 1070 custom (decurtata pure rispetto la versione mobile: 1980sp/120tmu vs 2048/128) e vivi in pace per almeno 6barra12 mesi, il tempo che esce volta e via verso nuove mirabolanti avventure :O
Free Gordon
19-08-2016, 22:25
scherzi a parte, qua l'unico VERO esperto che abbia mai visto è un certo yossarian che a mio avviso zitto zitto ci lavorava davvero in AMD/nvidia/quel che è :asd:
sparito da anni :cry:
Yoss lavorava in ATI ma ha cambiato lavoro molti anni fà, prima dell'uscita di R600.
Ci sono stati anche altre persone del settore sul forum, uno era nAo che ora credo programmi ancora per DICE (se non ha cambiato) e l'italianissimo Fek (direttore tecnico in Crytek fino a qualche anno fa').
Ale55andr0
19-08-2016, 22:28
Yoss lavorava in ATI ma ha cambiato lavoro molti anni fà, prima dell'uscita di R600.
Ci sono stati anche altre persone del settore sul forum, uno era nAo che ora credo programmi ancora per DICE (se non ha cambiato) e l'italianissimo Fek (direttore tecnico in Crytek fino a qualche anno fa').
vallo a sapere :eek:
chissà cosa ne pensa di tuta sta diatriba e delle fette di silicio attuali :asd:
ma pijati na bella 1070 custom (decurtata pure rispetto la versione mobile: 1980sp/120tmu vs 2048/128) e vivi in pace per almeno 6barra12 mesi, il tempo che esce volta e vie verso nuove mirabolanti avventure :O
Non mi fido...
Tolto che nvidia sta facendo giá ora bei casini coi driver...
Poi anno prossimo mi ritrovo con scheda che magari manco é piú supportata/aggiornata.
Se scende a 350Euro ci faccio un mezzo pensiero...
Ma poi passerei al 1440P, quindi sarebbe meglio una 1080 (dalla padella alla brace...).
Non mi va di regalare soldi a chi spenna noi appassionati...
Ma possibile AMD non abbia a breve termine in uscita qualcosa di piú potente della 480? Anche un 20/30% in piú mi andrebbe bene...
Lunar Wolf
19-08-2016, 22:47
Yoss lavorava in ATI ma ha cambiato lavoro molti anni fà, prima dell'uscita di R600.
Ci sono stati anche altre persone del settore sul forum, uno era nAo che ora credo programmi ancora per DICE (se non ha cambiato) e l'italianissimo Fek (direttore tecnico in Crytek fino a qualche anno fa').
Peccato che abbia abbandonato il forum... Sicuramente avrà le sue ragioni. Ormai tra tempo libero e altri progetti, famiglia, morosa ecc ci toccherà che in futuro dobbiamo lavorare per comprare il "tempo".
Dai comunque al di la di tutto la 1070 a 400 netti male non é, parola di fanboy amd!
No non é male hai ragione.
Ma resto dell'idea che dovrebbe stare sui 350, cosí come la 480 sui 250.
Della 1070 non mi fido del supporto nel tempo, e di certe cose che leggo nella discussione ufficiale.
Voglio una degna erede della mia 290!
Che se poi fosse un po'piú fresca e non ci fossero casini vari, un bel CF di 290 non sarebbe malvagio. Pensa che risparmio...
Free Gordon
19-08-2016, 23:13
Dai comunque al di la di tutto la 1070 a 400€ netti male non é, parola di fanboy amd!
Non è disponibile.. :asd: come sempre.
No cmq ormai hanno prezzi vicinissimi ai 400, buono così.
La FuryX a questo punto dovrebbe calare un bel pò, imho..
soulsore
19-08-2016, 23:45
Non so se avete visto i benchmark dell'ultimo Deus Ex ma se fossero veri spero caldamente che AMD si dia una mossa a presentare vega :cry:
http://gamegpu.com/images/stories/Test_GPU/Action/Deus_Ex_Mankind_Divided_/test/dem_1920_11_2.png
Non so se avete visto i benchmark dell'ultimo Deus Ex ma se fossero veri spero caldamente che AMD si dia una mossa a presentare vega :cry:
http://gamegpu.com/images/stories/Test_GPU/Action/Deus_Ex_Mankind_Divided_/test/dem_1920_11_2.png
Che caz di gioco é? Come direbbe qualche noto personaggio. Ottimizzato da macachi che sbattono sulla tastiera.
Inviato dal mio LG-D802 utilizzando Tapatalk
Non so se avete visto i benchmark dell'ultimo Deus Ex ma se fossero veri spero caldamente che AMD si dia una mossa a presentare vega :cry:
Volevo prendere una 480 proprio per questo gioco, dato che è sponsorizzato AMD.:( (un bel mattone)
http://gamegpu.com/images/stories/Test_GPU/Action/Deus_Ex_Mankind_Divided_/test/dem_1920_11_2.pnghttp://gamegpu.com/images/stories/Test_GPU/Action/Deus_Ex_Mankind_Divided_/test/dem_1920_12.png
mikael84
20-08-2016, 00:20
Volevo prendere una 480 proprio per questo gioco, dato che è sponsorizzato AMD.:( (un bel mattone)
Ecco che nascono i primi casotti con la coda statica di Maxwell, i tempi di latenza la penalizzano e basta.
Notevole Pascal in dx12 a basse latenze. Però non ci siamo troppo pesante. Già a 1440p è ingiocabile da tutte le soluzioni.:doh:
Scherzi o trolli? Io dai bench che hai postato vedo che sul confronto singola scheda la furyx va più di una 1070 e la 480 meglio di una 980... Boh
Forse intendeva dire che di questa gen - polaris - non ce n'è una che lo mandi a 60. Bho
Ecco che nascono i primi casotti con la coda statica di Maxwell, i tempi di latenza la penalizzano e basta.
Notevole Pascal in dx12 a basse latenze. Però non ci siamo troppo pesante. Già a 1440p è ingiocabile da tutte le soluzioni.:doh:
Hanno rimandato la patch dx12 per un motivo. Pare azzoppi di tutto...:doh:
Hai visto anche il lato CPU ?
http://gamegpu.com/images/stories/Test_GPU/Action/Deus_Ex_Mankind_Divided_/test/proz_11_nv.png
Forse intendeva dire che di questa gen - polaris - non ce n'è una che lo mandi a 60. Bho
Anche io ho capito così...;)
Ale55andr0
20-08-2016, 00:25
Notevole Pascal in dx12 a basse latenze. Però non ci siamo troppo pesante. Già a 1440p è ingiocabile da tutte le soluzioni.:doh:
tsk, che fermacarte ste 1080 :O
:D
Intendeva che se si muovono con la 490 fanno il culo a strisce alla 1070 e in casi limite come questo anche alla 1080 :D
ahhhhh ma nel senso che farà le vecchie schermate a strisce e quadretti delle 79xx :asd: :ciapet:
Ebeh lì saranno trecentogliardi di effepiesse :stordita:
Che bei ricordi le striped screens con le 7950
Quando mi usciva la scacchiera grigia mi chiedevo "ma è skyrim che ha failato per via di qualche mod, o forse ho perso la memoria per qualche istante e non ricordavo di stare a giocare a chess" :stordita:
mikael84
20-08-2016, 00:38
Hanno rimandato la patch dx12 per un motivo. Pare azzoppi di tutto...:doh:
Hai visto anche il lato CPU ?
Anche io ho capito così...;)
Visto, vediamo che ne uscirà fuori. E' però abbastanza normale a quella risoluzione:)
tsk, che fermacarte ste 1080 :O
:D
Tutte qua sono fermacarte. Maxwell non ne parliamo, anche AMD non brilla però in dx12.
Tutte su 1440p fanno penna. Spero che i russi non ci abbiano preso.:)
ahhhhh ma nel senso che farà le vecchie schermate a strisce e quadretti delle 79xx :asd: :ciapet:
Ebeh lì saranno trecentogliardi di effepiesse :stordita:
Che bei ricordi le striped screens con le 7950
Quando mi usciva la scacchiera grigia mi chiedevo "ma è skyrim che ha failato per via di qualche mod, o forse ho perso la memoria per qualche istante e non ricordavo di stare a giocare a chess" :stordita:
Non avvicinarti troppo in dx12 con la 1060 perchè overclocko a morte e ti ribalto :D
Visto, vediamo che ne uscirà fuori. E' però abbastanza normale a quella risoluzione:)
Tutte qua sono fermacarte. Maxwell non ne parliamo, anche AMD non brilla però in dx12.
Tutte su 1440p fanno penna. Spero che i russi non ci abbiano preso.:)
Speriamo non sia un altro batman\quantum...:mad:
Visto, vediamo che ne uscirà fuori. E' però abbastanza normale a quella risoluzione:)
Tutte qua sono fermacarte. Maxwell non ne parliamo, anche AMD non brilla però in dx12.
Tutte su 1440p fanno penna. Spero che i russi non ci abbiano preso.:)
Non avvicinarti troppo in dx12 con la 1060 perchè overclocko a morte e ti ribalto :D
Dopo la "gatta" dipartita del sistema con le 780, co sta 1060 spacco tutto!!! Ma va, credo che finirò di nuovo a giocare su bad company 2, dove già la 750 ti era un mostro :asd:
Free Gordon
20-08-2016, 03:59
Volevo prendere una 480 proprio per questo gioco, dato che è sponsorizzato AMD.:( (un bel mattone)
http://gamegpu.com/images/stories/Test_GPU/Action/Deus_Ex_Mankind_Divided_/test/dem_1920_11_2.png[/IMG][IMG]http://gamegpu.com/images/stories/Test_GPU/Action/Deus_Ex_Mankind_Divided_/test/dem_1920_12.png
beh, mi pare che la 480 in dx11 vada bene no? ;)
La versione dx12 per ora è prematura, stanno ancora sistemando il codice...
Che poi lol la prima titan le busca dalla 280x... Mentre lato multigpu amd ha gia il profilo Nvidia non sembra.
ehhh... l'invecchiamento in botti di rovere di AMD! (cit.) :O
mirkonorroz
20-08-2016, 08:07
Ma poi tutte quelle risorse richieste per fare un gioco color giallo?
A parte gli scherzi la grafica non mi pare tale da giustificare una tale pesantezza.
Cioé fanno le schede nuove medie AMD 480 e le top 1070 e 1080, ed un nuovo gioco quasi le stronca giá a 1080P 😅😅😅
Inviato dal mio GT-I9505 utilizzando Tapatalk
N3OM4TR|X
20-08-2016, 08:42
A sembra il classico caso in cui si fraintende il vero problema.
Personalmente non credo proprio che il problema con DeusEx siano Pascal o Polaris, punterei più su un codice che doveva essere ottimizzato da quel ragazzo nuovo, come si chiama? Quello che appena arrivato si è messo in malattia per i prossimi 4 anni!?
Legolas84
20-08-2016, 09:13
Deus EX andrà sicuramente meglio su AMD (come frame medio per lo meno) visto che è sponsorizzato. Il problema però è che mi pare sia un pochino mal programmato se quei test sono reali.
La grafica è carina, ok, ma non giustifica delle prestazioni del genere.... anzi....
e le DX12 paiono deleterie per tutti....
Sicuramente lo giocherò ma molto in la dopo 5 o 6 patch :asd:
soulsore
20-08-2016, 10:07
Scherzi o trolli? Io dai bench che hai postato vedo che sul confronto singola scheda la furyx va più di una 1070 e la 480 meglio di una 980... Boh ↓ Forse intendeva dire che di questa gen - polaris - non ce n'è una che lo mandi a 60. BhoIntendeva che se si muovono con la 490 fanno il culo a strisce alla 1070 e in casi limite come questo anche alla 1080 :DEsattamente questo, se quei bench fossero veritieri la attuale RX480 (e neppure la 1060 probabilmente vista la posizione della 980) non riuscirebbero neppure a gestire un titolo del genere fluidamente a 60fps 1080p, va detto che dovrebbe uscire l'oramai immancabile e classica patch del d1 nonché i driver video aggiornati quindi si spera in quelli, poi c'è da dire che AMD generalmente si comporta meglio delle controparti Nvidia in DX11 (DX12 non le ho prese neppure in considerazione dato che giorni fa avevano detto non essere pronte prima del 5 settembre) quindi con Vega le cose dovrebbero farsi molto interessanti.. quindi, AMD, datti una mossa a presentarla!!! :asd:
P.S. in questo video (https://www.youtube.com/watch?v=02uxM3vyClY) fanno vedere le differenze grafiche tra basso, medio, alto e ultra..
fraussantin
20-08-2016, 12:08
Deus EX andrà sicuramente meglio su AMD (come frame medio per lo meno) visto che è sponsorizzato. Il problema però è che mi pare sia un pochino mal programmato se quei test sono reali.
La grafica è carina, ok, ma non giustifica delle prestazioni del genere.... anzi....
e le DX12 paiono deleterie per tutti....
Sicuramente lo giocherò ma molto in la dopo 5 o 6 patch :asd:
Speriamo almeno sia bello il gioco.
Quello vecchio non era malaccio. (lontano 1000miglia dal vero deus cmq)
Anche per un ritorno economico ad amd e square. ( hitman fa veramente cagare...)
Legolas84
20-08-2016, 12:18
Si diciamo che le scelte dei giochi sponsorizzati di AMD di solito sono buchi nell'acqua... ma Deus EX Human Revolution a me è piaciuto quindi ci spero ;)
Dirt Rally mi pare sia sponsorizzato AMD.
Ed é super 😉
Inviato dal mio GT-I9505 utilizzando Tapatalk
Lunar Wolf
20-08-2016, 12:26
E come dicevo ecco il nuovo AAA e non maxi più con nessuna scheda, nemmeno quella pagata 800 sacchi a maggio. QED.
Sent from Tapatalk
Per me è stato scritto coi piedi oppure le due case dovranno rilasciare un driver aggiornato.
Scritto punzecchiando sulla tastiera con le chiappe.
Inviato dal mio LG-D802 utilizzando Tapatalk
Legolas84
20-08-2016, 13:21
Puo' essere, nel frattempo non lo maxi con nessuna scheda sul mercato a meno di non aver speso 1300EUR nella vga per giocare in 1080P...
Va be ma scusa che significa? Non è mica una bella cosa che i programmatori si mettano a fare schifezze simili... Comunque ho visto i grafici in 1440p e sembra che con lo SLI di 1080 sia giocabile anche così (i frame non variano molto dal 1080p).
La mia speranza è che ci sia una qualche opzione del cavolo ammazza frame che una volta disabilitata renda il gioco utilizzabile su tutte le configurazioni...
Inviato dal mio ONE A2003 utilizzando Tapatalk
Legolas84
20-08-2016, 14:01
Era un discorso iniziato su un altro thread riguardo al maxare. Non sono un fanatico sull'argomento (tutt'altro, guarda la firma) ma volevo sottolineare come l'acquisto sia sempre un salto nel buio, soprattutto per chi ha la fissa del maxare.
Sicuramente c'è qualcosa che spezza le prestazioni oltremodo, ma "maxo tutto escluso X" non è maxare, è scendere a compromessi
Sent from Tapatalk
Maxare inteso in questo senso è più una malattia che una fissa :D
Poi ovvio che si giochi molto meglio con una 1080 in 1440p che in 1080p su una 1060.... ;)
Ale55andr0
20-08-2016, 15:46
al momento le dx12 non sono neanche veramente funzionali, hanno detto che deve uscire una patch dedicata a settembre
mirkonorroz
20-08-2016, 17:18
nel frattempo buone notizie, forse!
http://www.tweaktown.com/news/53506/directx-12-vulkan-support-way-cryengine/index.html
C'e' scritto che supporta anche PhysX. Pero' mi sembrava che gia' il primo motore non se la cavasse affatto male con la fisica (almeno quella rigid-body)
Legolas84
20-08-2016, 17:20
Epic mi pare punti sempre a supportare più cose possibili a 360°.....
dado1979
20-08-2016, 17:26
Non so se avete visto i benchmark dell'ultimo Deus Ex ma se fossero veri spero caldamente che AMD si dia una mossa a presentare vega :cry:
http://gamegpu.com/images/stories/Test_GPU/Action/Deus_Ex_Mankind_Divided_/test/dem_1920_11_2.png
Perfettamente... il contrario di quello che hai affermato... l'esatto contrario.
dado1979
20-08-2016, 17:27
Deus EX andrà sicuramente meglio su AMD (come frame medio per lo meno) visto che è sponsorizzato. Il problema però è che mi pare sia un pochino mal programmato se quei test sono reali.
La grafica è carina, ok, ma non giustifica delle prestazioni del genere.... anzi....
e le DX12 paiono deleterie per tutti....
Sicuramente lo giocherò ma molto in la dopo 5 o 6 patch :asd:
Anche io lo compro a Natale a 20 euro.
mirkonorroz
20-08-2016, 17:33
Epic mi pare punti sempre a supportare più cose possibili a 360°.....
Non capisco, il cryengine e' diventato di epic?
in questo video (https://www.youtube.com/watch?v=02uxM3vyClY) fanno vedere le differenze grafiche tra basso, medio, alto e ultra..
La modalità "ultra" dimezza spesso il framerate su una 980ti.
La solita modalità ultra fatta con i piedi.
Allarme rientrato...:)
fraussantin
20-08-2016, 18:21
Ma c'è un effetto ammazza frame ( del tipo xxxworks:asd:) oppure anche a grafica modesta cala a quel modo?
Ale55andr0
20-08-2016, 18:30
nel frattempo buone notizie, forse!
http://www.tweaktown.com/news/53506/directx-12-vulkan-support-way-cryengine/index.html
era ovvio che lo supportassero, all'epoca hanno stretto una partnership con amd per mantle, il punto è quanti game useranno quell'engine
Ale55andr0
20-08-2016, 19:00
che poi sta partnership con mantle non si è mai vista nei fatti... amd ci è arrivata ugualmente con vulkan senza dover più (presumibilmente) pagare per la partnership..
come no? secondo te perchè hanno deciso di supportare DX12 E vulkan? :asd:
Free Gordon
20-08-2016, 22:46
P.S. in questo video (https://www.youtube.com/watch?v=02uxM3vyClY) fanno vedere le differenze grafiche tra basso, medio, alto e ultra..
Praticamente l'high è indistinguibile dall'Ultra... e raddoppia il frame rate.... :asd:
Cmq la grafica è decisamente bella..
Ale55andr0
20-08-2016, 22:57
da ultra ad high cambia quasi niente, da medium in giu le texture perdono dettaglio. Bisognerebbe vedere a livello di effettistica che cambia
fraussantin
21-08-2016, 08:02
http://i.imgur.com/IIWAtRb.jpg
queste cose mi fanno incazzare. spero sincerament eche si possa adottare un antialiasing meno invasivo e più efficace. altrimenti lo tengo senza.
per l'ultra inutile , non lo posso giudicare.. non avendo uno schermo 4k di grandi dimensioni ( e soprattutto essendo il video in 1080p:asd:) non posso vedere se ci sono reali differenze.
dovremo aspettare qualcuno più attrezzato
Ultra é fatto per far cambiare le schede o per farne aggiungere un'altra in CF! 😅
Serve a poco/niente come resa visiva.
Non cascateci! 😀
Buondí ragazzi 😉
Inviato dal mio GT-I9505 utilizzando Tapatalk
mirkonorroz
21-08-2016, 08:06
Se la texture di partenza o quelle del MIP map e' fatta male anche il miglior antialiasing non puo' indovinare lo shape originale e quindi addolcira' uno shape irregolare che rimarra' irregolare.
Idem per le ombre. Se le ombre sono campionate con pixel enormi e pochi, hai voglia ad abbatterne le scalette (mantenendo il contrasto)
Ale55andr0
21-08-2016, 08:46
tutto tace, tutto è quieto, un piccolo fulmine a ciel sereno e ripiomba tutto nel silenzio :O
Legolas84
21-08-2016, 08:49
Non capisco, il cryengine e' diventato di epic?
Nono cavolo... ho letto male, mi pareva fosse Unreal Engine invece è CryEngine....
Comunque speriamo venga adottato maggiormente rispetto al passato...
tutto tace, tutto è quieto, un piccolo fulmine a ciel sereno e ripiomba tutto nel silenzio :O
poeta!... :O
N3OM4TR|X
21-08-2016, 09:13
Nono cavolo... ho letto male, mi pareva fosse Unreal Engine invece è CryEngine....
Comunque speriamo venga adottato maggiormente rispetto al passato...
UE4(.12) già lo supporta Vulkan. Ovviamente è un work in progress, ma lo supporta.
EDIT: Meglio specificare, attualmente supporta la mobile path dell'SDK
Ale55andr0
21-08-2016, 09:18
poeta!... :O
lo so, ero ispirato :O
Ale55andr0
21-08-2016, 09:20
....raga ma ce lo danno half life 3 in bundle con vega vero? il due era sponsorizzato AMD :read:
Lunar Wolf
21-08-2016, 09:34
Se aspetti half life 3 con Vega allora stai al fresco per tanti anni mi sa XD
Free Gordon
21-08-2016, 10:32
per l'Ultra inutile , non lo posso giudicare..
Ma certo che si può giudicare... :)
La stra-grande maggioranza dei giochi è nella stessa situazione.
Le impostazioni Ultra sono quasi sempre "ammazza-frame-rate-inutili" e sono fatte ad hoc nel passaggio console ---> pc per giustificare la spesa di centinaia (migliaia) di € su configurazioni altrettanto inutili.. :asd:
Questo gioco non fa' eccezione anzi, pare essere uno dei peggiori (frame rate dimezzati..) :D
Ale55andr0
21-08-2016, 10:33
Se aspetti half life 3 con Vega allora stai al fresco per tanti anni mi sa XD
dici? :O
Free Gordon
21-08-2016, 10:36
....raga ma ce lo danno half life 3 in bundle con vega vero? il due era sponsorizzato AMD :read:
Io ho letto che HL3 uscirà in bundle col refresh di Polaris, a Luglio 2017.. ;)
devil_mcry
21-08-2016, 10:52
Io onestamente non credo che uscirà mai un HL3, sono passati troppi anni... Inoltre che fine ha fatto HL2 Episode 3? Perché Valve nel 2006 aveva annunciato l'uscita di quello che non è mai arrivato... Figuriamoci con il 3 mai annunciato ufficialmente
Di certo la trollata del gamescom è stata bellissima ma...
Ale55andr0
21-08-2016, 11:37
Io onestamente non credo che uscirà mai un HL3, sono passati troppi anni...
ma l'ironia è stata colta o credevi che stessi davvero ipotizzando il bundle con half life 3? :sofico:
Legolas84
21-08-2016, 12:45
Hl3 uscirà in bundle con la 3dfx Rampage (o Voodoo 6 che dir si voglia)....
Inviato dal mio ONE A2003 utilizzando Tapatalk
Free Gordon
21-08-2016, 12:58
ma l'ironia è stata colta o credevi che stessi davvero ipotizzando il bundle con half life 3? :sofico:
:asd:
Valve fa un pacco di soldi con Steam... chi glielo fa fare di sviluppare un gioco??
Cmq...imho HL3 arriverà solo QUANDO e SE HTC vive prenderà piede... Oppure faranno una versione per tutti i visori principali, ma ci vorrà ancora più tempo..
fraussantin
21-08-2016, 13:00
ma l'ironia è stata colta o credevi che stessi davvero ipotizzando il bundle con half life 3? :sofico:
:asd:
Ero già andato a comprare le azioni da dethroma
Lunar Wolf
21-08-2016, 13:23
dici? :O
Ce caso che esce hl3 piuttosto che Vega ;)
Lunar Wolf
22-08-2016, 10:52
AMD Announces New Silicon Valley Headquarters Location (http://www.amd.com/en-us/press-releases/Pages/amd-announces-new-2016aug19.aspx)
:asd:
Valve fa un pacco di soldi con Steam... chi glielo fa fare di sviluppare un gioco??
Cmq...imho HL3 arriverà solo QUANDO e SE HTC vive prenderà piede... Oppure faranno una versione per tutti i visori principali, ma ci vorrà ancora più tempo..mi domando perchè non faccia entrambe le cose, EA mi pare ci riesca bene...
dado1979
22-08-2016, 12:05
mi domando perchè non faccia entrambe le cose, EA mi pare ci riesca bene...
EA riesce a fare i soldi molto bene... fare dei bei giochi non mi pare.
Ale55andr0
22-08-2016, 12:10
AMD Announces New Silicon Valley Headquarters Location (http://www.amd.com/en-us/press-releases/Pages/amd-announces-new-2016aug19.aspx)
interessante :)
..quindi vega esce il? :oink:
EA riesce a fare i soldi molto bene... fare dei bei giochi non mi pare.
hanno i dice mi basta quello :)
Lunar Wolf
22-08-2016, 12:24
interessante :)
..quindi vega esce il? :oink:
No lì i dipendenti giocono col kinect e hanno l'area caffè.
PConly92
22-08-2016, 12:27
:asd:
Valve fa un pacco di soldi con Steam... chi glielo fa fare di sviluppare un gioco??
Cmq...imho HL3 arriverà solo QUANDO e SE HTC vive prenderà piede... Oppure faranno una versione per tutti i visori principali, ma ci vorrà ancora più tempo..
HL 3 non uscirà mai secondo me.. anche perché se esce deve portare con se delle belle innovazioni!! e non sto parlando di realtà virtuale bensì fisica\interazione e intelligenza artificiale ai massimi livelli :sofico:
valve non può fare un passo falso con HL!!!
Forum Rift
22-08-2016, 13:08
HL 3 non uscirà mai secondo me.. anche perché se esce deve portare con se delle belle innovazioni!! e non sto parlando di realtà virtuale bensì fisica\interazione e intelligenza artificiale ai massimi livelli :sofico:
valve non può fare un passo falso con HL!!!
esatto!
ormai l'aspettativa è troppo alta.
mircocatta
22-08-2016, 13:20
Ma da quand'è che deus ex et un fps?
dado1979
22-08-2016, 13:34
Ma da quand'è che deus ex et un fps?
Mmmhh... Da quando è stato creato?
HL 3 non uscirà mai secondo me.. anche perché se esce deve portare con se delle belle innovazioni!! e non sto parlando di realtà virtuale bensì fisica\interazione e intelligenza artificiale ai massimi livelli :sofico:
valve non può fare un passo falso con HL!!!
Però lasciarci con un cliffhanger del genere dopo ep. 2 è da sadici! :cry:
fraussantin
22-08-2016, 18:16
L'AA non genera blur... cioè l'AA vero non le fesserie che usano adesso :D
L'unico aa che non blurra è il supersampling o come si chiama.
Ma è pesantissimo.
Gli altri un po più o un po meno blurrano tutti.
Certo le porcherie nvidia-temporali sono inguardabili . E anche questo non scherza.
fraussantin
22-08-2016, 18:36
Scusa ma MSAA non dovrebbe blurrare o sbaglio?
Alla fine è come il supersampling ma solo dove serve.
Le cose vecchie sono le migliori :O
Non sono sicuro sia il supersampling quello pulito perché con queste sigle e nomi non ci ho mai capito niente , intendo quello che alza la risoluzione di rendering.
ma quello vecchio 2x 4x 8x ecc se calcavi troppo la mano i contorni perdevano di nitidezza.
Poi dipende molto dalla dimensione del monitor \ risoluzione.
Per dire sul vecchio portatile 1080p 15" era molto meglio non attivare nessun AA.
Sul 22" sempre full hd almeno un 4x va messo. Ma la senzazione di sfumatura c'è sempre . ( anche se minore)
Poi l'effetto" ho lasciato gli occhiali a casa" di altri è assurdo.
Ale55andr0
22-08-2016, 19:08
Non sono sicuro sia il supersampling quello pulito perché con queste sigle e nomi non ci ho mai capito niente , intendo quello che alza la risoluzione di rendering.
è proprio quello, l'SSAA lo ha metro 2033/last light, se lo metti a 2x a 1080p sparisce ogni minima scalettatura
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.