View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™
su tonga xt nonostante il memory controller "efficiente" parrebbero esser rimasti comunque a ben 384bit, non credo che lato AMD vedremo una supertop che torni ai 256 anche ipotizzando le hbm, già solo solo a livello di marketing a me suonerebbe malissimo un bus a 256bit su una scheda ubertop (e per la cronaca le 980 le considero le nuove 680, ovvero chip"medi" sovraprezzati perchè comunque competitivi, ma mi gioco la qualunque che il full maxwell avrà un bus superiore ai 256bit, lo stesso per la 390x, hbm o meno, poi certo magari non si tornerà mai più ai 512, ma sotto i 384 imho la fascia alta non scenderà)
Tutta sta fregola di farsi intortare dal numeretto non la vedrei. Ati propose i 512bit sulle 2900 all'epoca, capi che il ringbus a 512 bit era un casino da implementare e gestire (sopratutto a livello dvr) e tornarono ai 256 con nuovo mc. Nvidia quando sparò i primi 320bit o 384bit sulle 8800 si inventò un crossbar distribuito.
Insomma il "bit" è strettamente legato all'archidettura che usi...tonga xt va visto, io dalle dimensioni di tonga presumo che ci sia questa possibilità.
Alla fine mentre il controller di tahiti aveva gli mc slegati dalle tmu, si è visto come in hawaii so tornato a rimettere l'1 a 1 con 8mc, su tonga hanno tolto 1128sp e hanno dimezzato gli mc, ma hanno alzato l'efficienza (un 256bit di tonga è più o meno il 384bit di tahiti, nei confronti la 285 perde alle alte risoluzioni rispetto alla 280x per via del framebuffer da 1gb maggiore, le 970 e le 980 si salvano per i 4gb, quindi ad un tratto il framebuffer fisico inizia ad essere più importante dei bit del bus). Probabilmente un tonga con 6mc e bus da 384bit potrebbe avere un'efficienza prossima a quella di hawaii con 8mc e 512bit e a quel punto la differenza starebbe nelle 800sp in più e solo nel framebuffer fisico di 3gb vs 4gb.
Il fatto è che ance un tonga xt con 2048sp e 384bit di bus non riesce ad avvicinare una 970 di nvidia, quindi ha senso solo per rinfrescare la fascia di mercato dei 250€ (spostando le 285 liscia sui 200€)
Ale55andr0
01-10-2014, 13:19
Il bus si dimensiona in base all'architettura, inoltre salendo di risoluzione e con texture HD o presunte tali meglio avere banda e vram in abbondanza.
sempre in relazione alla banda che il chip può usare effettivamente e non al valore teorico calcolato fine a se stesso: un po' come nei cavalli alla RUOTA e non all'albero, nei motori. Le 980/970 con "soli" 224gb/s non hanno problemi di poca bandwidth ad alte risoluzioni (persino 4k) rispetto ad una AMD con 320gb/s di banda, e lo stessa tonga di AMD in certi scenari va uguale/meglio meglio della 280 384bit/2048sp che ha più banda e più unità elaboratve, questo perchè il nuovo mc è realmente migliore nonostante i soli 256bit ed evidentemente per mette di sfruttare meglio la bandwidth a disposizione. Poi certo in generale meglio avere più di tutto :sofico:
Ale55andr0
01-10-2014, 13:21
Tutta sta fregola di farsi intortare dal numeretto non la vedrei
non lo nego, anzi vedi cosa ho appena commentato ma...non posso farci nulla, una supertop col 256 mi suona veramente da schifo, non posso farci nulla :asd: è psicologica la cosa :p
non lo nego, anzi vedi cosa ho appena commentato ma...non posso farci nulla, una supertop col 256 mi suona veramente da schifo, non posso farci nulla :asd: è psicologica la cosa :p
non è psicologica, è solo stupida come cosa;) ;) ;)
le vecchie HD2900 anni fa, le 290 ora. Nvidia non mi pare lo abbia mai usatoLe gtx 280 lo usavano :)
http://www.nexthardware.com/news/amd-sk-hynix-memorie-hbm-6418/
Memorie HBM
Taglio di prezzi per 280x/290/290x in arrivo.
Ale55andr0
06-10-2014, 16:22
http://www.nexthardware.com/news/amd-sk-hynix-memorie-hbm-6418/
Memorie HBM
alcune considerazioni:
-quello scatafascio di banda disponibile sarà un reale vantaggio per AMD visto che sia AMD con tonga che Nvidia con maxwell hanno mostrato che con memory controller "efficienti" non serve chissà quale bandwidth per non avere colli di bottiglia sul traffico dati? va però sottolineato che restano i vantaggi sulla latenza, che mi par di capire più bassa, e l'accesso alla memoria "a sigolo banco" in modo indipendente che suppongo velocizzerà certi processi...
-consumi: saranno più contenuti che con le GDDR5 MA già allo stato attuale passando ad esempio da 3 a 6gb su uno stesso modello di vga il consumo varia di poco, segno che non sono certo le memorie a far consumare una vga e che AMD dovrà lavorare molto sull'architettura per renderla più efficiente non tanto per i consumi di per loro (per quanto abbassarli schifo non fa eh) ma soprattutto per una questione di temperature
-ma AMD ha collaborato attivamente nello sviluppo di tale tecnologia? se si le vale qualchè "vantaggio/diritto" rispetto nvidia? chessò utilizzo in "anteprima esclusiva"? anche perchè non avrebbe senso per hynix fornire un solo produttore..ne ad AMD far beneficienza collaborando nella realizzazine di una tecnologia che "aiuterà" anche i rivali :fagiano:
-considerando tali memorie, l'avvento dei 16nm e l'evoluzione del memory controller di GCN non posso fare a meno di pensare ad una cosa forse fuori tema, ma che avrebbe indirettamente giovato al mondo PC: le nuove console sarebbero state molto migliori se non avessero avuto la dannata fretta di farle uscire lo scorso anno :rolleyes:
°Phenom°
06-10-2014, 16:30
Guarda AMD avendo collaborato con Hynix è infatti la prima ad uscire con i 20nm + HBM, nvidia sul full Maxwell non dovrebbe adottarle oltre che rimanere a 28nm. Penso che nvidia le userà su Pascal.
Ale55andr0
06-10-2014, 16:32
si ma non capisco/capivo se per una mera questione di tempistiche (suppongo bisogni riprogettare ex novo il mc...) o per accordi con hynix da parte di AMD...
suonerà strano da par mio, ma con tutte queste tecnologie entro un paio di anni avremo dei dispositivi mobile che manderanno a nascondersi le console "next gen" :asd: in ambito PC AMD potrebbe anche pensare a delle APU davvero performanti se potesse sdoganare tali memorie come ram di sistema unificata! sto volando troppo in alto? :sofico:
°Phenom°
06-10-2014, 16:39
Con precisione non saprei dirti, suppongo che amd è giá da molto che ci sta lavorando a Bermuda e Fiji, quindi anche al relativo mc adatto a gestire queste nuove memorie. Ovviamente avendo collaborato con hynix in prima linea per le hbm, diciamo che giá da un bel pezzo ha in cantiere il progetto di una vga con queste mem, mentre nvidia è impreparata ora come ora.
Credo appunto sia solo una questione di tempistiche per certi versi
appleroof
06-10-2014, 16:57
alcune considerazioni:
-quello scatafascio di banda disponibile sarà un reale vantaggio per AMD visto che sia AMD con tonga che Nvidia con maxwell hanno mostrato che con memory controller "efficienti" non serve chissà quale bandwidth per non avere colli di bottiglia sul traffico dati? va però sottolineato che restano i vantaggi sulla latenza, che mi par di capire più bassa, e l'accesso alla memoria "a sigolo banco" in modo indipendente che suppongo velocizzerà certi processi...
-consumi: saranno più contenuti che con le GDDR5 MA già allo stato attuale passando ad esempio da 3 a 6gb su uno stesso modello di vga il consumo varia di poco, segno che non sono certo le memorie a far consumare una vga e che AMD dovrà lavorare molto sull'architettura per renderla più efficiente non tanto per i consumi di per loro (per quanto abbassarli schifo non fa eh) ma soprattutto per una questione di temperature
-ma AMD ha collaborato attivamente nello sviluppo di tale tecnologia? se si le vale qualchè "vantaggio/diritto" rispetto nvidia? chessò utilizzo in "anteprima esclusiva"? anche perchè non avrebbe senso per hynix fornire un solo produttore..ne ad AMD far beneficienza collaborando nella realizzazine di una tecnologia che "aiuterà" anche i rivali :fagiano:
-considerando tali memorie, l'avvento dei 16nm e l'evoluzione del memory controller di GCN non posso fare a meno di pensare ad una cosa forse fuori tema, ma che avrebbe indirettamente giovato al mondo PC: le nuove console sarebbero state molto migliori se non avessero avuto la dannata fretta di farle uscire lo scorso anno :rolleyes:
secondo me la ricerca di maggiore banda e minori consumi è comunque un obiettivo importante (pensiamo pure ai 4k ed in prospettiva 8k), evidentemente alla base c'è l'idea che era più agevole e vantaggiosa questa cosa rispetto che ricercare algoritmi di compressione (che se non dico castronerie devono comunque essere implementati a livello giochi) ed efficienza dei bus...certo bisognava aspettare che la tecnologia HBM fosse pronta, nel frattempo si sono concentrati su come rendere efficiente un bus 256bit su vga dotate comunque di buona potenza di elaborazione
nvidia aveva avviato lo sviluppo con altri (non ricordo il nome adesso) ma è stata sfigata perchè in buona sostanza hanno fallito, da qui l'adozione della tecnologia a partire da Pascal nel 2016.*
C'è da dire che se non sbaglio nella primissima versione le memorie HBM daranno vantaggi già molto interessanti (512Gb/s correggetemi se sbaglio) ma è solo per la seconda versione (che dovrebbero arrivare entro un anno/anno e mezzo) che promettono numeri in termini di banda complessiva che solo fino a pochi mesi fà sembravano non dico fantascienza ma quasi :D
*edit ecco: AMD bet on HBM early on, while Nvidia bet on the competing HMC standard. It seems AMD bet on the right technology and they stand to gain an entire year’s worth of exclusive access to the technology. Nvidia will simply have to make due with GDDR5 for 2015.
http://wccftech.com/amd-20nm-r9-390x-feautres-20nm-hbm-9x-faster-than-gddr5/
Ale55andr0
06-10-2014, 19:29
capito :)
appleroof
06-10-2014, 20:06
Aggiungo pure che forse le hbm come prima implementazione forse troveranno spazio solo sulle GPU top, se così fosse sulle altre fasce la ricerca di un bus più efficiente avrebbe ancora senso, ma sono solo mie idee :D
Nvidia sta investendo nelle memorie HMC
ghiltanas
08-10-2014, 23:12
http://hothardware.com/News/Breaking-AMDs-Rory-Read-Steps-Down-As-CEO-Dr-Lisa-Su-Appointed-President-And-CEO/
cambio al vertice per AMD
mircocatta
13-10-2014, 08:08
forse incomincio a capire il perchè AMD non si fa fretta a far uscire qualcosa per controbattere le nuove vga nvidia..
praticamente ogni gioco nuovo che esce sta uscendo nettamente ottimizzato per le AMD GCN.. quasi rimpiango di passare alle gtx970, la mia 7950 in overclock praticamente sta recuperando sulla GTX titan..
Ale55andr0
13-10-2014, 08:34
praticamente ogni gioco nuovo che esce sta uscendo nettamente ottimizzato per le AMD GCN.. ..
mah
per me non ha fretta perchè...non ha un accidenti di niente di valido per contrastarle
°Phenom°
13-10-2014, 09:10
Sicuramente, ma in ogni caso, quando sulla gran parte dei nuovi giochi una 7970 va come una 780, con una 290x si asfaltano tutte le vga tranquillamente. Una ipotetica 390x con i giochi ottimizzati gcn sará una bestia
mircocatta
13-10-2014, 09:30
mah
per me non ha fretta perchè...non ha un accidenti di niente di valido per contrastarle
questo è sicuro, ma è anche vero che ora come ora, una 7970 ghz consuma come una gtx titan e va uguale, negli ultimi titoli..
quindi il divario di efficenza cambia di nuovo, perchè è inutile prendere in esame titoli vecchi come farcry3 o crysis3, tecnicamente validi ma non li gioca quasi più nessuno, i titoli nuovi, d'oggi, dicono che la serie 7xxx ha ripreso decisamente VITA... oppure semplicemente sono da subito ottimizzate e per nvidia serviranno delle release di driver apposite come è sempre accaduto fin'ora.. boh, vedremo tra un paio di settimane o al prossimo driver
certo che è un bel vantaggio aver i giochi già ottimizzati senza dover sfornare driver appositi..
Diciamo che sono decenni ormai che i motori grafici vengono fatti su Hw Nvidia .E sono da molti anni che prima Ati , ora Amd , cercano di adeguarsi agli engine grafici . Magari venivano ottimizzati direttamente dalla software house , ma molto spesso sono comunque motori derivati da altri più vecchi sempre sviluppati su hw Nvidia. Probabilmente ora la storia un po cambierà. E non sia mai che l hw Amd non sia effettivamente molto meglio di quello che invece i benchmark ci hanno sempre detto, e visto al contrario il discorso è valido anche per Nvidia . E alcuni ultimi test sembrerebbero confermare questa mia tesi . Tutto IMHO naturalmente
Inviato dal mio GT-N7100 utilizzando Tapatalk
si sa nulla poi riguardo le specifiche della 285x ?!:confused:
stream , bus , ecc...
Lumen_sage
13-10-2014, 12:57
si sa nulla poi riguardo le specifiche della 285x ?!:confused:
stream , bus , ecc...
Mi accodo chiedendo se ci sono novità su una possibile data d'uscita. Immagino non debba essere troppo in là nel tempo, se veramente hanno intenzione di presentare la serie 3xx nel Q1 del 2015.
°Phenom°
13-10-2014, 14:19
si sa nulla poi riguardo le specifiche della 285x ?!:confused:
stream , bus , ecc...
Non si sa se uscirà, comunque dovrebbe essere identica alla 7970 come caratteristiche se non per le ottimizzazioni all'mc, bus, consumi ecc
Ale55andr0
13-10-2014, 16:22
identica alla 7970 come caratteristiche se non per le ottimizzazioni all'mc, bus, consumi ecc
...e ai 48rops e al tessellator potenziato (quest'ultimo sicuro, rispetto la 7970)
Ma solo io penso che le vere schede nuove arriveranno sui 20nm e i 28nm amd non li caga semplicemente più? Pure nvidia se non cambia il pp le nuove gk non usciranno....ste 9xx maxwell le vedo una mezza inculata a breve :stordita: 980 a 500 cucuzze, le 970 invece sono piazzate meglio in caso di manovra senza burro...
°Phenom°
13-10-2014, 16:34
No, la penso proprio come te, le vere vga next gen saranno a 20/16nm, le gtx 900 sono tutto fumo e niente arrosto, bene i consumi, ma su vga top di gamma servono le prestazioni, che sono pressocchè identiche alle ex top di gamma
mikael84
13-10-2014, 16:48
No, la penso proprio come te, le vere vga next gen saranno a 20/16nm, le gtx 900 sono tutto fumo e niente arrosto, bene i consumi, ma su vga top di gamma servono le prestazioni, che sono pressocchè identiche alle ex top di gamma
Nvidia almeno sui 28nm ha una grossa arma da tirare fuori, AMD sui 28nm è ferma pero' la situazione pro GCN delle nuove console quasi vanificherebbe gran parte del potenziale.
In questi mesi fortunatamente debuttano tanti giochi e sarà un bel banco di prova in vista dei futuri chip.
appleroof
13-10-2014, 17:10
No, la penso proprio come te, le vere vga next gen saranno a 20/16nm, le gtx 900 sono tutto fumo e niente arrosto, bene i consumi, ma su vga top di gamma servono le prestazioni, che sono pressocchè identiche alle ex top di gamma
non essere così severo :D per chi ha vga da 280x/770 in giù sono molto arrosto e ben poco fumo visto quanto consumano (vabbè questa è pessima :ops2: )
certo piuttosto che i prezzi delle 200 ultimamente sono molto succosi ho visto una 290x Matrix a 440 euro, o una 290 royalace a 300 spedita :oink:
°Phenom°
13-10-2014, 17:22
Nvidia almeno sui 28nm ha una grossa arma da tirare fuori, AMD sui 28nm è ferma pero' la situazione pro GCN delle nuove console quasi vanificherebbe gran parte del potenziale.
In questi mesi fortunatamente debuttano tanti giochi e sarà un bel banco di prova in vista dei futuri chip.
Sisi, ovviamente nvidia dovrebbe tirare fuori anche il chippone a 28nm, staremo a vedere ;)
non essere così severo :D per chi ha vga da 280x/770 in giù sono molto arrosto e ben poco fumo visto quanto consumano (vabbè questa è pessima :ops2: )
Siamo d'accordo, diciamo che ho generalizzato :asd: sono stato il primo a dirlo che per chi proviene da vga precedenti alle r9 290 e gtx 780, o comunque per chi vuole fare sli, sono delle ottime schede, ma per noi, come la maggior parte di utenti qui sul forum, che acquistiamo quasi sempre una vga ogni nuova top di gamma, queste gtx 900 oltre ai bassi consumi, a livello di performance sono lì con le vga della serie precedente.
appleroof
13-10-2014, 17:49
Sisi, ovviamente nvidia dovrebbe tirare fuori anche il chippone a 28nm, staremo a vedere ;)
Siamo d'accordo, diciamo che ho generalizzato :asd: sono stato il primo a dirlo che per chi proviene da vga precedenti alle r9 290 e gtx 780, o comunque per chi vuole fare sli, sono delle ottime schede, ma per noi, come la maggior parte di utenti qui sul forum, che acquistiamo quasi sempre una vga ogni nuova top di gamma, queste gtx 900 oltre ai bassi consumi, a livello di performance sono lì con le vga della serie precedente.
:mano: tu poi con la bestia in firma stai proprio a posto :D
Ale55andr0
13-10-2014, 17:50
quantomeno nvidia ha proposto un cambio radicale di architettura, con una che ha più "ipc" e minori consumi. AMD, mi gioco la QUALUNQUE, sicuramente riproporrà GCN con più sp tmu ecc. ecc.
La novità di maggior rilievo saranno le HBM, ma abbiamo già visto che la bandwidth della memoria oggi come oggi è lo stra-ultimissimo dei problemi
appleroof
13-10-2014, 17:54
quantomeno nvidia ha proposto un cambio radicale di architettura, con una che ha più "ipc" e minori consumi. AMD, mi gioco la QUALUNQUE, sicuramente riproporrà GCN con più sp tmu ecc. ecc.
La novità di maggior rilievo saranno le HBM, ma abbiamo già visto che la bandwidth della memoria oggi come oggi è lo stra-ultimissimo dei problemi
magari pure i 20nm....
Ale55andr0
13-10-2014, 17:59
magari pure i 20nm....
si ma quelli (che consideravo implicitamente) non è che cambiano l'architettura, ne saranno un merito particolare degli ingegneri AMD. A pari pp resterà sempre superiore maxwell a GCN.
Poi sinceramente (senza polemica eh) vorrei ben vedere quali sono questi fantomatici titoli next-gen che mostrano tutta questa ottimizzazione pro-AMD, insomma una bella lista dettagliata ed esaustiva
°Phenom°
13-10-2014, 18:32
Oh, l'importante che la vga sia potente, poi che sotto abbia gcn 1,2,3,4,5 imho poco importa. Quando la 390x uscirà si vedrà che potenzialità avrà, fino ad allora sono solo speculazioni, stessa cosa per quanto riguarda gm210.
Per i giochi futuri ottimizzati gcn, nessuno ha la palla di cristallo, fatto sta che la maggior parte delle nuove uscite scritte per console next gen, hanno fatto notare una tendenza a favore di gcn, ed infatti se noti, le vga come 6970 e precedenti, basate su arch diversa, ma sempre amd, non la spuntano contro le pari fascia nvidia. Solo coincidenze? A me non sembra, vedremo.
mikael84
13-10-2014, 18:43
quantomeno nvidia ha proposto un cambio radicale di architettura, con una che ha più "ipc" e minori consumi. AMD, mi gioco la QUALUNQUE, sicuramente riproporrà GCN con più sp tmu ecc. ecc.
La novità di maggior rilievo saranno le HBM, ma abbiamo già visto che la bandwidth della memoria oggi come oggi è lo stra-ultimissimo dei problemi
Questo è stato proprio il vero punto di forza di Maxwell insieme alla possibilità di operare a clock relativamente molto alti.
La cache l2 di 2mb permette di sgravare la banda e di ottenere latenze molto migliori rispetto a GK110 ed i ben 64 rops oltre a svolgere le varie funzioni sulle pixel e vertex pipeline permettono di effettuare dei buffer compressi in lettura e scrittura(simil tonga)
Non dimentichiamoci che le rops grazie ai clock permettono di calcolare sino a 83Gpixel a default, questi dati a conti fatti quasi raddoppiano le prestazioni di GK110 ma queste ultime non hanno l'ottimizzazione di Maxwell.
Con un bus da 256bit riesce ad avere anche il 30/40% di vantaggio rispetto a kepler sulla banda ma il fattore sbalorditivo e che il BUS load di kepler raramente sfora il 40% di traffico, mentre Maxweel arriva anche a picchi sopra l'80%.
Quando sul chippone Maxwell adotterà 96 rops e 384bit di banda la differenza rispetto a GK110 sarà decisamente elevata, tanto che potrà avere prestazioni da 512bit ed un traffico dati di gran lunga migliore.;)
Riguardo AMD secondo me con un cambio di PP(quindi piu' CU/ST) ed utilizzando le rops come con tonga non la vedo poi tanto male. AMD l'architettura ce l'ha bella tosta, purtroppo anche il silicio è troppo tirato è dovrà obbligatoriamente passare ad un nuovo PP
Ragazzi ma secondo voi con 350€ in mano in questo momento e visti i cali dei prezzi delle r9 290x, conviene lanciarsi sulle attuali top gamma AMD oppure su una nuova 970?
Certo dai discorsi che ho visto negli ultimi post mi sembra di aver capito che AMD sta ottimizzando il supporto software per i videogiochi, con una probabile inversione dell'attuale situazione Nvidia (vedesi Watch Dogs), e se ora come ora c'è gente che con una 7970 raggiunge le prestazioni di una Titan... sarebbe da dire AMD tutta la vita, sbaglio?
Meglio ancora ti pigli una 290 custom liscia e con 50€ che ti avanzano ti fai qualche gioco...mi dicono dalla regia con le 290 hai pure dei giochi inclusi! Bho allora puoi sempre bruciarli :asd:
7970 che va come una 780 e titan? :confused:
Nhirlathothep
13-10-2014, 20:54
Quanto dovrò attendere per trovare una nvidia 8gb senza che costi un enormità?
Posso aspettare 1 annetto, la prossima serie nvidia si sa quanta vram avrà?
Ale55andr0
13-10-2014, 20:57
Quanto dovrò attendere per trovare una nvidia 8gb senza che costi un enormità?
Posso aspettare 1 annetto, la prossima serie nvidia si sa quanta vram avrà?
hai cannato completamente thread per chiederlo...
appleroof
13-10-2014, 20:57
Quanto dovrò attendere per trovare una nvidia 8gb senza che costi un enormità?
Posso aspettare 1 annetto, la prossima serie nvidia si sa quanta vram avrà?
Hai sbagliato thread? :asd:
Cmq sono previste delle 980 8gb (non so 970) per fine novembre/dicembre, non so quanto costeranno ma molto probabilmente oltre la 980 attuale
Per f3d387, mi riferisco ai seguenti prec post:
forse incomincio a capire il perchè AMD non si fa fretta a far uscire qualcosa per controbattere le nuove vga nvidia..
praticamente ogni gioco nuovo che esce sta uscendo nettamente ottimizzato per le AMD GCN.. quasi rimpiango di passare alle gtx970, la mia 7950 in overclock praticamente sta recuperando sulla GTX titan..
Sicuramente, ma in ogni caso, quando sulla gran parte dei nuovi giochi una 7970 va come una 780, con una 290x si asfaltano tutte le vga tranquillamente. Una ipotetica 390x con i giochi ottimizzati gcn sará una bestia
questo è sicuro, ma è anche vero che ora come ora, una 7970 ghz consuma come una gtx titan e va uguale, negli ultimi titoli..
quindi il divario di efficenza cambia di nuovo, perchè è inutile prendere in esame titoli vecchi come farcry3 o crysis3, tecnicamente validi ma non li gioca quasi più nessuno, i titoli nuovi, d'oggi, dicono che la serie 7xxx ha ripreso decisamente VITA... oppure semplicemente sono da subito ottimizzate e per nvidia serviranno delle release di driver apposite come è sempre accaduto fin'ora.. boh, vedremo tra un paio di settimane o al prossimo driver
certo che è un bel vantaggio aver i giochi già ottimizzati senza dover sfornare driver appositi..
Se gli utenti sopra citati volessero allegare benchmark chiarirebbero a molti di noi l'attuale situazione, perchè letta così è semplicemente: WOW.
Meglio ancora ti pigli una 290 custom liscia e con 50€ che ti avanzano ti fai qualche gioco...mi dicono dalla regia con le 290 hai pure dei giochi inclusi! Bho allora puoi sempre bruciarli
Secondo te per utilizzo rendering 3d (creazione mondi realistici tridimensionali) quale GPU è la più indicata fra 290, 290x e 970 in pura forza bruta di calcolo?
°Phenom°
13-10-2014, 21:26
Basta che vai a gurdarti i test sugli ultimi giochi usciti, ad esempio su gamegpu.ru, comunque ancora, come detto anche da Mikeal, dobbiamo attendere la prossima carrellata di giochi per farci un idea.
Riguardo ai giochi ubisoft, sono pro nvidia da sempre, per cui probabilmente continueranno ad andare meglio sulle verdi.
In gpgpu, dipende dal software che utilizzerai. Come potenza bruta 290 e 290x sono superiori alla 970, ma se ad esempio usi programmi che sfruttano cuda, ti serve una nvidia.
Nhirlathothep
13-10-2014, 22:22
hai cannato completamente thread per chiederlo...
Hai sbagliato thread? :asd:
Cmq sono previste delle 980 8gb (non so 970) per fine novembre/dicembre, non so quanto costeranno ma molto probabilmente oltre la 980 attuale
si, 100% sbagliato sorry!
tnx, credevo di dover attendere la prossima gen , invece una 980 8gb me la prenderei volentieri, ha una longevita' infinita.
-------------------------------------
cmq e' vero, molti giochi sono pro AMD, io ho delle vecchissime 7970 ghz e quando prendero' la 980 dovro' pagare piu' di 500e per un calo di prestazioni.
e pensare che sto rimandando l' upgrade da piu' di un anno e mezzo
si, 100% sbagliato sorry!
tnx, credevo di dover attendere la prossima gen , invece una 980 8gb me la prenderei volentieri, ha una longevita' infinita.O fai 2x/3x SLI o servono a ben poco...
Appena devi gestire tutta la roba per saturare 8GB di vRAM, pieghi la scheda.
bene bene signori, ieri il rad del banchetto ha deciso di bucarsi, ora invece di ricomprare un rad, stavo pensando che era un segno divino per passare all'ITX gaming, ora con un bel cuoricino 860k che dite, rimetto il dissi originale alla 290@290x e la schiaffo nel cm elite 130? A parte le menate del cpu limited, che dite sto un pò sovradimensionato e rischio di fonderla?:stordita:
Nhirlathothep
14-10-2014, 23:22
O fai 2x/3x SLI o servono a ben poco...
Appena devi gestire tutta la roba per saturare 8GB di vRAM, pieghi la scheda.
lo dicevano anche quando i giochi sfruttavano massimo 1gb (ma massimo) e le AMD avevano 3gb. ma ora sono schede che vengono sfruttate al 100%
si e' capito l' andazzo di questa gen : poca potenza lato gpu , pochissima lato cpu, pochissima ram di sistema e un sacco di vram.
io anche se sto qui a spammare e informarmi ad ogni nuova uscita sono uno che cambia pochissimo i pezzi e apena sostituite le gpu le lascero' nel case per anni.
cmq uno sli e' probabile in seguito!
lo dicevano anche quando i giochi sfruttavano massimo 1gb (ma massimo) e le AMD avevano 3gb. ma ora sono schede che vengono sfruttate al 100%Il problema in sè non é la quantità di vRAM.
È la quantità di vRAM in rapporto alla potenza che hai...
Faccio un esempio:
6970 - 2GB
7970 - 3GB
290x - 4GB
Se metti 4GB su una 6970 non servono a niente, perchè se metti tutti i dettagli al massimo e usi algoritmi di filtro non fai neanche 20fps.
Se scendi con i settaggi, 2GB avanzano.
si e' capito l' andazzo di questa gen : poca potenza lato gpu , pochissima lato cpu, pochissima ram di sistema e un sacco di vram.A dire la verità la RAM e la vRAM nelle console sono la stessa cosa, e sono limitate a 8GB (mi pare 5GB per i giochi, ma non ricordo bene). Quindi sono limitatissime.
Su PC, se vuoi, riesci tranquillamente a saturare una scheda...ma devi avere la potenza necessaria.
io anche se sto qui a spammare e informarmi ad ogni nuova uscita sono uno che cambia pochissimo i pezzi e apena sostituite le gpu le lascero' nel case per anni.
cmq uno sli e' probabile in seguito!Ecco, in caso di SLI la vRAM extra può avere senso. Un monitor 3k/4k pure.
bene bene signori, ieri il rad del banchetto ha deciso di bucarsi, ora invece di ricomprare un rad, stavo pensando che era un segno divino per passare all'ITX gaming, ora con un bel cuoricino 860k che dite, rimetto il dissi originale alla 290@290x e la schiaffo nel cm elite 130? A parte le menate del cpu limited, che dite sto un pò sovradimensionato e rischio di fonderla?:stordita:
ITX game... è la stessa cosa che voglio fare io. Io intendo usare il mio 3570K con liquido pre confezionato :stordita:
Il tutto nello stesso case che hai scelto anche tu, capiente e adatto a PSU idonee, il tutto attaccato al FullHD in sala, una vera figata :)
Nhirlathothep
15-10-2014, 11:19
A dire la verità la RAM e la vRAM nelle console sono la stessa cosa, e sono limitate a 8GB (mi pare 5GB per i giochi, ma non ricordo bene). Quindi sono limitatissime.
si, come dici sono unificate e pochi come totale, ma la ram di sistema usata e' pochissima rispetto a quella di un normale pc (io pagai 50euro 16 gb corsair 1600 cl9 anni fa ) mentre la vram usata e' l' unica vera limitazione per un pc fatto a modo: utilizzano per le texture 4gb ora, se aumentano negli anni vorrei stare tranquillo tanto oltre i 5 6 non potranno proprio andare.
E' vero che la potenza dela gpu se e' poca ti limita piu' della vram, ma spero di avere ragione credendo che cmq una o due 980 non scenderanno mai sotto i 40 50 fps per tutta la gen a 1080p, mentre avere la vram saturata per cattiva programmazione purtroppo ti fa scattare di brutto il gioco (come si sta vedendo ora) cioe' anche se gli fps medi restano altri , con la vram saturata si hanno degli istanti in cui gli fps minimi crollano.
Diciamo che sara' l' unico limite che ti fa scattare il gioco la vram nel futuro
ti spiego io gioco e giochero' sempre a "MISERI" 1080p e il pc vorrei lasciarlo sulla scrivania inalterato per anni.
- la cpu e' 3970x che regge 5ghz ----------> regge di sicuro tutta la gen, ora lo tengo a default
- la ram sono 16 gb in quad channel (e ne ho altri nell' altro pc che in caso posso metterci ) -----------------> regge di sicuro tutta la gen
- l' unico pezzo non all' altezza sono le gpu, che voglo camabiare una volta sola con qualcosa che duri anni, una gpu da 4gb non mi covince, una da 6 gia' va bene, e una da 8 sono sicuro che durera' quanto gli altri pezzi
sorry per la lunghezza
si, come dici sono unificate e pochi come totale, ma la ram di sistema usata e' pochissima rispetto a quella di un normale pc (io pagai 50euro 16 gb corsair 1600 cl9 anni fa ) mentre la vram usata e' l' unica vera limitazione per un pc fatto a modo: utilizzano per le texture 4gb ora, se aumentano negli anni vorrei stare tranquillo tanto oltre i 5 6 non potranno proprio andare.
E' vero che la potenza dela gpu se e' poca ti limita piu' della vram, ma spero di avere ragione credendo che cmq una o due 980 non scenderanno mai sotto i 40 50 fps per tutta la gen a 1080p, mentre avere la vram saturata per cattiva programmazione purtroppo ti fa scattare di brutto il gioco (come si sta vedendo ora) cioe' anche se gli fps medi restano altri , con la vram saturata si hanno degli istanti in cui gli fps minimi crollano.
Diciamo che sara' l' unico limite che ti fa scattare il gioco la vram nel futuro
ti spiego io gioco e giochero' sempre a "MISERI" 1080p e il pc vorrei lasciarlo sulla scrivania inalterato per anni.
- la cpu e' 3970x che regge 5ghz ----------> regge di sicuro tutta la gen, ora lo tengo a default
- la ram sono 16 gb in quad channel (e ne ho altri nell' altro pc che in caso posso metterci ) -----------------> regge di sicuro tutta la gen
- l' unico pezzo non all' altezza sono le gpu, che voglo camabiare una volta sola con qualcosa che duri anni, una gpu da 4gb non mi covince, una da 6 gia' va bene, e una da 8 sono sicuro che durera' quanto gli altri pezzi
sorry per la lunghezza
La falla del tuo ragionamento è una sola, mentre la cpu è x86 e le istruzioni x86 so sempre quelle dai primi proci, le ram bene o male a seconda della velocità, ma il funzionaento è sempre quello...le gpu invece evolvono, nuovi set di istruzioni o di effetti sono supportati da motori nuovi e non è detto che una gpu sia compliant con quelli. Sicuramente prima era cosi, adesso dall'epoca degli shader unificati, si è assistito ad un certo freno, ma un rinnovamento in media ogni 3 anni in ambito gpu c'è sempre.
Se la gpu non ti supporta determinati effetti, o non è compliant con le api del applicazione (gioco o programma eh) o non ti gira o ti riga male, indipentenente se hai 1 mb o 8gb di buffer fisico sulla mobo.
Una cpu oggettivamente può reggerti 5 anni, una gpu ha un tempo di vita di 3 anni, realmente dovresti fare 1 cambio tra 3 anni. Con 2 vga ti porti alla morte tutta la piattaforma con 1 cpu e 16gb di ram. E' cosi, hai poco da fare, è insito nella gpu e nella sua natura.
Il pc resta inalterato per anni, (3 anni), se poi per te "alterarlo" è aprire un case e cambiare una vga, abbiamo davvero concetto differenti di alterazione di una macchina. O al massimo resta inalterato al 80%.
Sulla risuluzione, non farei questo gioco, anche qui i monitor evolvono, se ti esplode un monitor tra 3 anni e gli 1080p non li fanno più (perchè ci saranno i 2k come standard e i 4k come top), che fai? Avere 8gb di framebuffer e una gpu che ormai arranca non ti salva da prestazioni mediocri.
Guarda con esperienza, il tuo discorso sugli 8gb di v-ram è quasi una "masturbazione mentale", ad esperienza una gpu ha una aspettativa di vita minore ad una cpu da sempre, una cpu 3 anni al top te li fà, 2 anni cosi cosi anche...una gpu prima era già tanto che ti facesse 2 anni al top, adesso con el scatolette da salotto questa aspettativa di vita è salita a 3 anni, forse 4, non di più e sopratutto 4 o 8gb di ram non gli cambiano, se tra 3 anni una gpu affoga, affoga con 8gb o 4gb senza problemi.
Poi oh, se dici "a me piace con 8gb" come si dice, non è bello cio' che è bello è bello cio' che piace;)
ITX game... è la stessa cosa che voglio fare io. Io intendo usare il mio 3570K con liquido pre confezionato :stordita:
Il tutto nello stesso case che hai scelto anche tu, capiente e adatto a PSU idonee, il tutto attaccato al FullHD in sala, una vera figata :)
il fatto è che una 290 già scaldicchia di suo, con il dissi stock è anche peggio, nonostante il case si presti...diciamo che ultimamente gioco molto poco e volevo metterci una vga abbastanza prestata cmq a farmi girare le cose senza affanno...avevo identificato il tutto in una 285, però tra il costo del nuovo e quanto potrei rifare con la 290 usata sul mercatino, ci vado si e no a pari con i soldi e perdo prestazioni e basta. Da li l'idea di metterla nel mini itx e via. Se no metterci una 270x e amen.
Nhirlathothep
15-10-2014, 12:51
La falla del tuo ragionamento è una sola, mentre la cpu è x86 e le istruzioni x86 so sempre quelle dai primi proci, le ram bene o male a seconda della velocità, ma il funzionaento è sempre quello...le gpu invece evolvono, nuovi set di istruzioni o di effetti sono supportati da motori nuovi e non è detto che una gpu sia compliant con quelli. Sicuramente prima era cosi, adesso dall'epoca degli shader unificati, si è assistito ad un certo freno, ma un rinnovamento in media ogni 3 anni in ambito gpu c'è sempre.
Se la gpu non ti supporta determinati effetti, o non è compliant con le api del applicazione (gioco o programma eh) o non ti gira o ti riga male, indipentenente se hai 1 mb o 8gb di buffer fisico sulla mobo.
Una cpu oggettivamente può reggerti 5 anni, una gpu ha un tempo di vita di 3 anni, realmente dovresti fare 1 cambio tra 3 anni. Con 2 vga ti porti alla morte tutta la piattaforma con 1 cpu e 16gb di ram. E' cosi, hai poco da fare, è insito nella gpu e nella sua natura.
Il pc resta inalterato per anni, (3 anni), se poi per te "alterarlo" è aprire un case e cambiare una vga, abbiamo davvero concetto differenti di alterazione di una macchina. O al massimo resta inalterato al 80%.
Sulla risuluzione, non farei questo gioco, anche qui i monitor evolvono, se ti esplode un monitor tra 3 anni e gli 1080p non li fanno più (perchè ci saranno i 2k come standard e i 4k come top), che fai? Avere 8gb di framebuffer e una gpu che ormai arranca non ti salva da prestazioni mediocri.
Guarda con esperienza, il tuo discorso sugli 8gb di v-ram è quasi una "masturbazione mentale", ad esperienza una gpu ha una aspettativa di vita minore ad una cpu da sempre, una cpu 3 anni al top te li fà, 2 anni cosi cosi anche...una gpu prima era già tanto che ti facesse 2 anni al top, adesso con el scatolette da salotto questa aspettativa di vita è salita a 3 anni, forse 4, non di più e sopratutto 4 o 8gb di ram non gli cambiano, se tra 3 anni una gpu affoga, affoga con 8gb o 4gb senza problemi.
Poi oh, se dici "a me piace con 8gb" come si dice, non è bello cio' che è bello è bello cio' che piace;)
se ci saranno problemi di prestazioni lato gpu, certo, cambiero' solo quella, non cambio tutto il sistema, ma forse sono troppo ottimista e hai ragione tu sulla vita delle gpu.
le 7970 sono uscite a giugno 2012 (vedo la recensione di tom s, non ricordo di preciso), sono passati 2 anni e 4 mesi e ancora si maxa tutto con il crossfire che ho ora a 1080p. l' unico problema e' legato ai 3 gb di vram.
magari e' un caso e il futuro mandera' in pensione gpu prima come dici tu, con il migliore sfruttamento dell' hw delle console
edit:
il mio pc attuale restera' collegato a schermo 1080p per sempre (ne ho 7), quando uscira' il monitor 4k che voglio (tra 2 anni minimo) lo prendero' insieme al pc che dovra' supportarlo
Free Gordon
15-10-2014, 12:53
Sicuramente, ma in ogni caso, quando sulla gran parte dei nuovi giochi una 7970 va come una 780, con una 290x si asfaltano tutte le vga tranquillamente. Una ipotetica 390x con i giochi ottimizzati gcn sará una bestia
Questa cosa non accadrà mai... :D
può succedere una cosa vagamente simile in Ryse perchè è un gioco programmato su ONE... (ma considera che già le esclusive Sony non finiscono su PC ;) ).
Il 90% dei giochi ora sono multiplatform e vengono/verranno sviluppati su PC multicore come lead-platform (per semplicità, dato che le console sono x86). E sta tranquillo che lì arriverà Nvidia a farsi "sentire" :D come è sempre stato. :)
Dal punto di vista della resa, in futuro vedo andare meglio (relativamente, è ovvio :D ), le CPU FX dal 6xxx in sù, piuttosto che le VGA di AMD..
Perché il trend del futuro sarà sfruttare appieno 6thread (quelli messi a disposizione delle console, che ne riservano 2 per l'OS o parte non-gaming) e quindi tutti i quad, o 2+2 saranno un pò penalizzati.
Lato VGA son sicuro che non succederà ciò che è successo con Ryse...ci scommetto una birra. ;)
Free Gordon
15-10-2014, 12:55
Diciamo che sono decenni ormai che i motori grafici vengono fatti su Hw Nvidia .E sono da molti anni che prima Ati , ora Amd , cercano di adeguarsi agli engine grafici . Magari venivano ottimizzati direttamente dalla software house , ma molto spesso sono comunque motori derivati da altri più vecchi sempre sviluppati su hw Nvidia. Probabilmente ora la storia un po cambierà. E non sia mai che l hw Amd non sia effettivamente molto meglio di quello che invece i benchmark ci hanno sempre detto, e visto al contrario il discorso è valido anche per Nvidia . E alcuni ultimi test sembrerebbero confermare questa mia tesi . Tutto IMHO naturalmente
Concordo. :)
Ma sta tranquillo che Nvidia questa cosa non la lascerà mai accadere... giochi esclusivi per console a parte (sono pochissimi..)
Free Gordon
15-10-2014, 13:02
A pari pp resterà sempre superiore maxwell a GCN.
Maxwell consumerà sempre meno di GCN.. se non fosse stato per il computing (parole di Demer), AMD avrebbe prodotto ancora generazioni di chip VLIW con consumi ancora più bassi di Maxwell.
Ora è da vedere se AMD riuscirà a produrre un chip, possente nel computing e nel contempo parco di consumi. Forse son 2 cose che non vanno d'accordo e quindi dovrà cercare una strada intermedia (Maxwell è un buon esempio), o forse in futuro la capacità matematica e la sua efficienza sarà sempre più importante, anche nei giochi, quindi vedremo archi che andranno sempre più in quella direzione..
boh, chi vivrà vedrà. :)
le 7970 sono uscite a giugno 2012 (vedo la recensione di tom s, non ricordo di preciso), sono passati 2 anni e 4 mesi e ancora si maxa tutto con il crossfire che ho ora a 1080p. l' unico problema e' legato ai 3 gb di vram.Ma a 1080p cosa ti usa più di 3GB di vRAM?
Ale55andr0
15-10-2014, 13:27
Maxwell consumerà sempre meno di GCN.. se non fosse stato per il computing (parole di Demer), AMD avrebbe prodotto ancora generazioni di chip VLIW con consumi ancora più bassi di Maxwell.
scelta ancora più illogica di AMD: se è stato detto molte volte che nel pro AMD non se la fila nessuno, perchè incaponirsi con il compunting? :muro:
ricordo che lo stesso yossarian diceva che in un certo senso vliw aveva pure un maggiore "ipc" di gcn..insomma nvidia sta facendo grossomodo quel che faceva AMD, con successo, mentre AMD ha preso una strada che imho non ha via di uscita ne motivi per esser portata avanti, se non per il fatto che gcn ce lo sciroppiamo in mille salse almeno fino a quando esisteranno queste nuove console...ammesso dia davvero un vantaggio con tutti i titoli next gen e che ryse & co siano solo titoli dichiaratamente rossi per accordi commerciali...
scelta ancora più illogica di AMD: se è stato detto molte volte che nel pro AMD non se la fila nessuno, perchè incaponirsi con il compunting? :muro:
Probabilmente AMD non ha le capacità per tenere "distinte" le due produzioni gamer vs professional e con gnc le ha "riunite". C'è da dire che in OpenCL le schede pro di AMD vanno al pari, se non meglio, delle Nvidia. Quel che manca in questo settore ad Amd non sono tanto le capacità tecniche, quanto una seria politica commerciale. IMHO, ovviamente.[/QUOTE]
scelta ancora più illogica di AMD: se è stato detto molte volte che nel pro AMD non se la fila nessuno, perchè incaponirsi con il compunting? :muro:
Ah, ovviamente per chi come me è appassionato di calcolo distribuito è tutto grasso che cola :ciapet:
siluro85
15-10-2014, 18:05
Secondo me tecnicamente amd non ha nulla da invidiare ad nvidia... lato marketing e politiche commerciali, non è amd che è indietro... è nvidia che è avanti anni luce.. anche con pratiche poco corrette.. perchè ora tutti a strapparsi i capelli perchè c'è qualche gioco in cui amd va meglio e tutti "è merito delle ottimizzazioni" mentre quando succedeva a partì inverse "cazzo come vanno forte le nvidia sono troppo forti"... un altro esempio? Nvidia forti nel computing ma consumano di più? Sono troppo potenti e chissene del consumo!! Lo ha fatto amd (perchè si nvidia adesso la parte computing la taglia) ( e vorrei discutere di quanto in full load, ma va beh...) tutti "eh ma consumano troppo non è sostenibile...." SE un giorno si arrivasse il monopolio la colpa è ESCLUSIVAMENTE degli utenti.. non sono un fanboy... ma i fanboysmi e la mancanza di obiettività mi fanno girare troppo i coglioni. IMHO.
Free Gordon
15-10-2014, 18:20
scelta ancora più illogica di AMD: se è stato detto molte volte che nel pro AMD non se la fila nessuno, perchè incaponirsi con il compunting? :muro:
ricordo che lo stesso yossarian diceva che in un certo senso vliw aveva pure un maggiore "ipc" di gcn..insomma nvidia sta facendo grossomodo quel che faceva AMD, con successo, mentre AMD ha preso una strada che imho non ha via di uscita ne motivi per esser portata avanti, se non per il fatto che gcn ce lo sciroppiamo in mille salse almeno fino a quando esisteranno queste nuove console...ammesso dia davvero un vantaggio con tutti i titoli next gen e che ryse & co siano solo titoli dichiaratamente rossi per accordi commerciali...
non credo amd si sia incapponita...il fatto è che gcn è stato fatto per entrare nelle cpu. :)
Forse il problema i AMD in questi ultimi anni è stato di puntare troppo su "fusion". Quindi andare sul CMT...quindi andare su GCN (anche se GCN è cmq un'ottima archi a 360°...cosa che non è x BD e successori..)
Penso che con GCN cmq abbia un'ottima architettura che probabilmente verrà tweakata assai nel corso del tempo e probabilmente con risultati anche dal pdv dei consumi/calore (vero problema di GCN).
Free Gordon
15-10-2014, 18:23
ammesso dia davvero un vantaggio con tutti i titoli next gen e che ryse & co siano solo titoli dichiaratamente rossi per accordi commerciali...
Non è un fatto di accordi commerciali, è logico che se un gioco come Ryse, viene sviluppato su ONE, ci sarà più facilità a portarlo su PC-gcn che su altre archi.
Ma quanti sono i titoli ONE, ESCLUSIVI, che arriveranno su pc, migliorati? :)
1 all'anno se và bene...
Le esclusive Sony (anch'esse ottimizzatissime per GCN...) non arriveranno mai per pc.
Il resto sarà roba sviluppata su PC (leggasi hw nVidia nella maggior parte dei casi) e portata su console. O cmq sviluppata in parallelo. :)
Nhirlathothep
15-10-2014, 19:28
Ma a 1080p cosa ti usa più di 3GB di vRAM?
piu' di 3 nessuno, ma 3 completi mi e' successo spesso.
scusa se non ti scrivo i titoli, il pc con le amd non lo ho qui!
Non è un fatto di accordi commerciali, è logico che se un gioco come Ryse, viene sviluppato su ONE, ci sarà più facilità a portarlo su PC-gcn che su altre archi.
Ma quanti sono i titoli ONE, ESCLUSIVI, che arriveranno su pc, migliorati? :)
1 all'anno se và bene...
Le esclusive Sony (anch'esse ottimizzatissime per GCN...) non arriveranno mai per pc.
Il resto sarà roba sviluppata su PC (leggasi hw nVidia nella maggior parte dei casi) e portata su console. O cmq sviluppata in parallelo. :)
Quali sono stati gli ultimi titoli sviluppati su PC e portati su console? Nessuno?
L unica speranza è che non vedremo più casi alla assassin creed o wd in cui le schede AMD non vengono prese neanche in considerazione dalla software House poi magari il gioco girerà anche meglio su nvidia ma non avrà problemi sulle amd.
Nhirlathothep
15-10-2014, 21:55
e' la prima volta che le cose sono bilanciate, non stiamo a farci problemi almeno ora, tanto non e' possibile fare previsioni.
io ho scelto proprio un momentaccio per passare a nvidia
Free Gordon
16-10-2014, 00:20
e' la prima volta che le cose sono bilanciate,
beh no dai.. :p
Ormai è fisiologico, i giochi futuri verranno sviluppati con in mente le console, il Pc beccherà le conversioni. Attualmente i motori sono cross gen, quando i motori saranno pensati esclusivamente in chiave nextgen GCN sarà il cuore su cui il team lavorerà, già ora si vede come diversi giochi hanno fatto rinascere le schede AMD.
Man mano che i programmatori raggiungeranno il "metallo" su console le conversioni per nVidia saranno sempre più a bassa ottimizzazione.
Einhander
16-10-2014, 10:41
Secondo me tecnicamente amd non ha nulla da invidiare ad nvidia... lato marketing e politiche commerciali, non è amd che è indietro... è nvidia che è avanti anni luce.. anche con pratiche poco corrette.. perchè ora tutti a strapparsi i capelli perchè c'è qualche gioco in cui amd va meglio e tutti "è merito delle ottimizzazioni" mentre quando succedeva a partì inverse "cazzo come vanno forte le nvidia sono troppo forti"... un altro esempio? Nvidia forti nel computing ma consumano di più? Sono troppo potenti e chissene del consumo!! Lo ha fatto amd (perchè si nvidia adesso la parte computing la taglia) ( e vorrei discutere di quanto in full load, ma va beh...) tutti "eh ma consumano troppo non è sostenibile...." SE un giorno si arrivasse il monopolio la colpa è ESCLUSIVAMENTE degli utenti.. non sono un fanboy... ma i fanboysmi e la mancanza di obiettività mi fanno girare troppo i coglioni. IMHO.
Sono tipo due anni che lo dico AMEN.
Free Gordon
16-10-2014, 11:27
Quali sono stati gli ultimi titoli sviluppati su PC e portati su console? Nessuno?
L unica speranza è che non vedremo più casi alla assassin creed o wd in cui le schede AMD non vengono prese neanche in considerazione dalla software House poi magari il gioco girerà anche meglio su nvidia ma non avrà problemi sulle amd.
Tutti i titoli Epic (e relativi motori), tutti i titoli Ubi (e relativi motori), tutti i titoli iD (e relativi motori) e ovviamente tutti i titoli Activision, saranno sviluppati perlomeno in parallelo su pc con base Nvidia. :)
Come è sempre stato... (Ubi è solalmente la sorellina minore in questo caso :D )
Per ora resta fuori Destiny che è uscito solo su console, quindi è probabile abbia qualche ottimizzazione GCN...anche se è uscito pure su oldgen e quindi presumo sia un port di roba oldgen, sulla nextgen (e si vede pure...).
GTA5 è uscito solo oldgen, quindi alla base non avrà particolari ottim. gcn
Sarà da vedere GTA6 se sarà solo per nextgen o uscirà in contemporanea anche su PC...
Cmq si conteranno sulle dita della mano, non abbiate timore. :D Nvidia non si fa fott.ere tanto facilmente proprio nel settore in cui è più forte, quello del marketing e del legame con le softhouse...
Sò ammericheni regà...la mano lunga ce l'han su tutto, non vi preoccupate. :D
Tutti i titoli Epic (e relativi motori), tutti i titoli Ubi (e relativi motori), tutti i titoli iD (e relativi motori) e ovviamente tutti i titoli Activision, saranno sviluppati perlomeno in parallelo su pc con base Nvidia. :)
Come è sempre stato... (Ubi è solalmente la sorellina minore in questo caso :D )
Per ora resta fuori Destiny che è uscito solo su console, quindi è probabile abbia qualche ottimizzazione GCN...anche se è uscito pure su oldgen e quindi presumo sia un port di roba oldgen, sulla nextgen (e si vede pure...).
GTA5 è uscito solo oldgen, quindi alla base non avrà particolari ottim. gcn
Sarà da vedere GTA6 se sarà solo per nextgen o uscirà in contemporanea anche su PC...
Cmq si conteranno sulle dita della mano, non abbiate timore. :D Nvidia non si fa fott.ere tanto facilmente proprio nel settore in cui è più forte, quello del marketing e del legame con le softhouse...
Sò ammericheni regà...la mano lunga ce l'han su tutto, non vi preoccupate. :D
Se lo dici tu, fino ad ora non è stato cosi anzi. Sempre giochi sviluppati su console e portati su pc dalle software house che hai citato. Che poi non vuol dire che i giochi andranno megli su AMD sia chiaro. Ma che i giochi multipiattaforma vengano sviluppati per PC e poi portati su console è una cosa che non avviene da 10 anni ormai.
Free Gordon
16-10-2014, 12:04
Se lo dici tu, fino ad ora non è stato cosi anzi. Sempre giochi sviluppati su console e portati su pc dalle software house che hai citato*. Che poi non vuol dire che i giochi andranno megli su AMD sia chiaro. Ma che i giochi multipiattaforma vengano sviluppati per PC e poi portati su console è una cosa che non avviene da 10 anni ormai.
Dipende da che architettura hanno le console. ;) Parlo di architettura cpu, non gpu ovviamente.
Nella attuale gen (ONE PS4), è molto più facile portare un gioco da pc a console e viceversa perchè sono tutte architetture x86. Inoltre in questa gen, le esclusive saranno ancora meno che nella passata. Il 90% dei giochi sarà multi. Purtroppo imho. ;)
Ale55andr0
16-10-2014, 12:06
GTA5 è uscito solo oldgen, quindi alla base non avrà particolari ottim. gcn
occhio che però rockstar sta partecipando alla beta di mantle... ergo mi sa che una strizzatina d'occhio ad AMD ci sarà anche senza il supporto effettivo a quest'ultimo. Che io sappia il 5 è stato sviluppato partendo da PC e non viceversa nonostante sia uscito prima per le vecchie console, insomma uno sviluppo diversificato per sfruttare anche le next gen console (insomma nulla a che vedere con lo schifo fatto con gta 4), decisamente più affini al pc a livello di programmazione. Dalla sua AMD ha altrettanto supporto su motori ( e relativi titoli) mica da ridere, vedasi il frostbyte e le future implementazioni del cry engine che su licenza utilizz(er)anno altri game
...PS: a me di nvidia non frega proprio una mazza e non mi preoccupo minimamente del fatto che si faccia fregare o meno :asd: in questo thread in particolare non credo nessuno si strapperebbe le vesti in caso :D a te urterebbe con la 290? :p
che poi voglio dire.... i giochi ubisoft giran da schifo anche sui loro partner e si compongono principalmente di AC "n" e FC "n" :asd: e i relativi motori...sono relativi..non utilizzati da terzi
ID? ma quale quella di quake e doom? :stordita: :ciapet: idem
Epic si che è un signor partner :)
Mi stavo leggendo qualche recensione di Tonga con un po' di ritardo... E come al solito la realtà è ben diversa rispetto alla cornacchie da forum...tonga è un bel prodottino, usciti un po' in ritardo forse, ma i miglioramenti nell efficienza ci sono tutti avendo grossomodo le performance delle vecchie 7970 ma con 40 w in meno di consumo... A leggere su sto forum sembrava fosse un altra 480 :asd:
Free Gordon
16-10-2014, 12:59
occhio che però rockstar sta partecipando alla beta di mantle... ergo mi sa che una strizzatina d'occhio ad AMD ci sarà anche senza il supporto effettivo a quest'ultimo.
Sinceramente tutta sta fiducia non so da dove ti sgorga. :D
Che io sappia il 5 è stato sviluppato partendo da PC e non viceversa nonostante sia uscito prima per le vecchie console, insomma uno sviluppo diversificato per sfruttare anche le next gen console (insomma nulla a che vedere con lo schifo fatto con gta 4), decisamente più affini al pc a livello di programmazione.
Ottimo se son partiti dal pc, forse in previsione di uscire su nextgen x86 e pc.. cmq il problema non è su Rockstar. :)
Dalla sua AMD ha altrettanto supporto su motori ( e relativi titoli) mica da ridere, vedasi il frostbyte e le future implementazioni del cry engine che su licenza utilizz(er)anno altri game
Questa storia di Mantle potrebbe non andare avanti ancora molto eh..le dx12 sono lì a dimostrarcelo. :p
La vedo dura per AMD, vincere una battaglia contro il duetto M$-Nvidia :sofico:
...PS: a me di nvidia non frega proprio una mazza e non mi preoccupo minimamente del fatto che si faccia fregare o meno :asd: in questo thread in particolare non credo nessuno si strapperebbe le vesti in caso :D a te urterebbe con la 290? :p
Io sono affezionato ATIista da quando comprò ArtX, nel lontano 2000 :D ma non mi piacciono per niente i monopoli... :) da nessuna parte.
E ho avuto anche molte nVidia nel corso degli anni, sia prima che dopo la mitica 9500/9700 :) (anche se prima devo ammetterlo ero un powerVR fan ^_^ ).
che poi voglio dire.... i giochi ubisoft giran da schifo anche sui loro partner e si compongono principalmente di AC "n" e FC "n" :asd: e i relativi motori...sono relativi..non utilizzati da terzi
AC ormai è una telenovela, FC3 invece mi è parso un buon gioco..
ID? ma quale quella di quake e doom? :stordita: :ciapet: idem
vedremo doom4... la vedo difficile che sia ottimizzato gcn. Ma molto difficile.. :D
Epic si che è un signor partner :)
e la scorsa gen, un gioco su 3 aveva il loro motore grafico.......... (pro-nVidia ovviamente).
Free Gordon
16-10-2014, 13:02
Mi stavo leggendo qualche recensione di Tonga con un po' di ritardo... E come al solito la realtà è ben diversa rispetto alla cornacchie da forum...tonga è un bel prodottino, usciti un po' in ritardo forse, ma i miglioramenti nell efficienza ci sono tutti avendo grossomodo le performance delle vecchie 7970 ma con 40 w in meno di consumo... A leggere su sto forum sembrava fosse un altra 480 :asd:
I problema di Tonga è che dovrebbe consumarne 80 in meno...per stare al passo con Maxwell... ;)
Novità ancora nessuna? :muro:
Ale55andr0
16-10-2014, 13:15
Sinceramente tutta sta fiducia non so da dove ti sgorga. :D
lo ho scritto...beta testing per mantle...ergo le mani su programmi volti all'ottimizzazione per hw amd, quantomeno giusto per prender confidenza, le stan mettendo.
Poi non si tratta di ottimismo, ma di semplice non dar per scontato nulla ;)
Questa storia di Mantle potrebbe non andare avanti ancora molto eh..le dx12 sono lì a dimostrarcelo. :p
le dx12 non hanno mostrato ancor nulla a livello di game usciti (se ne parla a fine 2015 per veder qualcosa) e restano api generiche, non potranno mai arrivare ai livello di una ottimizzazione specifica. I giochi mantle esistono già, nel bene o nel male...altri sono annunciati, compresi titoli tripla A non l'ultimo degli indie. Personalmente in thief mi va una bomba :cool:. Altro non so perchè non ho provato :stordita:
Ma il vero vantaggio, se vogliamo, non sarebbe mantle ma proprio l'aver monopolizato le nuove piattaforme...indirettamente già sai che non potranno andar peggio di prima se ci devon programmar sopra comunque :asd:
La vedo dura per AMD, vincere una battaglia contro il duetto M$-Nvidia :sofico:
beh, microsoft non fa gli interessi di nvidia, ma i suoi, e da sempre anche in dx esistono titoli rossi e verdi ergo da quel punto di vista cambia nulla a favore di nessuno...MA...con la differenza però che tutti i prossimi multipiatta nasceranno per spremere nella AMD nella maggioranza dei casi, cosa mai avvenuta prima
AC ormai è una telenovela, FC3 invece mi è parso un buon gioco..
fc 3 mi ha totalmente deluso. Come anche tomb raider 2013, bada bene... (è un gioco "AMD")
vedremo doom4... la vedo difficile che sia ottimizzato gcn. Ma molto difficile.. :D
me ne farò un ragione :O
e la scorsa gen, un gioco su 3 aveva il loro motore grafico.......... (pro-nVidia ovviamente).
boh, non ho visto ne liste ne stats al riguardo :boh:. E cmq, appunto ,ora non siamo nella "scorsa gen" ma all'alba della next gen interamente con hw AMD (il che vuol dir tutto e niente :fagiano: )
Nhirlathothep
16-10-2014, 13:15
Novità ancora nessuna? :muro:
non credo , ti faccio i complimenti per la config che hai in firma, pc stupendo da vero esperto!
Ale55andr0
16-10-2014, 13:31
Novità ancora nessuna? :muro:
manco a piangere in cinese :rolleyes:
La situazione sta diventando alquanto ridicola, manco mezzo annuncio per contrastare "mediaticamente" nvidia...certo fossero sulla linea di quelli della presentazione indiana allora si, meglio non fiatino :asd:
I problema di Tonga è che dovrebbe consumarne 80 in meno...per stare al passo con Maxwell... ;)
Bhe, maxwell se la dovra vedere con le nuove amd a 20nm con memorie hbm, tonga é solo una scheda tappabuchi... Non a caso escono adesso le 9xx ;)
Ale55andr0
16-10-2014, 13:50
Bhe, maxwell se la dovra vedere con le nuove amd a 20nm con memorie hbm, tonga é solo una scheda tappabuchi... Non a caso escono adesso le 9xx ;)
-ma i 20/16nm non saranno mica una esclusiva AMD :mbe:
-le memorie già oggi in quanto a consumo influiscono da far ridere sul totale (vedasi versioni di vga con ram raddoppiata che consumano solo pochi w in più delle standard)
-e la banda passante resta l'ultimo dei problemi (vedasi 980 con soli 224gb che non sono penalizzanti manco in 4k rispetto la concorrenza)
queste HBM sono certamente interessanti come evoluzione tecnologica, ma all'atto pratico non cambieranno il mondo ne daranno chissà quale boost ad AMD. Certo meglio avercele anzichèno
non credo , ti faccio i complimenti per la config che hai in firma, pc stupendo da vero esperto!
Forse a breve abdicherà! :O
manco a piangere in cinese :rolleyes:
La situazione sta diventando alquanto ridicola, manco mezzo annuncio per contrastare "mediaticamente" nvidia...certo fossero sulla linea di quelli della presentazione indiana allora si, meglio non fiatino :asd:
:asd:
Però devi ammettere che sanno essere uno spasso! :D
Ale55andr0
16-10-2014, 13:53
:asd:
Però devi ammettere che sanno essere uno spasso! :D
loro malgrado :asd:
Io ero rimasto che amd fosse in vantaggio sul nuovo pp e che di conseguenza ha tarato l uscita della nuova serie per quel pp, infatti esce dopo nvidia che invece vuole giocare le sue carte subito sui 28nm... Una titan maxwell a 28nm non uscira mai comunque, arriveranno sul nuovo pp... Le hbm le devi vedere unite al mc ottimizzato, tonga é li a dimostrarlo che intervenendo sul contorno si possono fare delle buone cose...il 20nm farà il resto...
Ale55andr0
16-10-2014, 15:43
Io ero rimasto che amd fosse in vantaggio sul nuovo pp
si, lo era ai tempi della 7970 :asd: oggi le cose sono un pelo diverse, è lei a non avere una architettura bella e pronta come nvidia e il pp dipende dalle fonderie, non da loro. Ergo non vedo vantaggi/svantaggi per nessuna delle 2, quando saran disponibili i nuovi pp lo saranno per entrambe, con un maxwell che a 20nm farebbe semplicemente sfaceli...
Le hbm le devi vedere unite al mc ottimizzato, tonga é li a dimostrarlo che intervenendo sul contorno si possono fare delle buone cose...il 20nm farà il resto...
l'mc ottimizzato di tonga, come anche quello di maxwell, mostrano proprio che NON serve avere uno scatafascio di banda per performare...ergo le hbm, il cui vantaggio è proprio quello di avere molta più banda, cambieranno ben poco lato prestazioni perchè oltre un certo limite il collo di bottiglia, semplicemente, non esiste...hai voja aggiunger banda, non cambia niente, è come aggiungere acqua a una bottiglia già piena...
Il vantaggio più concreto sarebbero i consumi...ma si parla davvero di una manciata di watt in meno visto che già le gddr5 consumano molto poco in relazione alla gpu, ed ho già spiegato il perchè: schede col doppio della ram =10/15w in più nei consumi... ergo se le hbm consumano il -40% come promesso rispetto le ggddr 5 cosa vuoi che cambi in termini di numeri reali? 10w in meno in totale? :mc:
appleroof
16-10-2014, 16:20
cut
l'mc ottimizzato di tonga, come anche quello di maxwell, mostrano proprio che NON serve avere uno scatafascio di banda per performare...ergo le hbm, il cui vantaggio è proprio quello di avere molta più banda, cambieranno ben poco lato prestazioni perchè oltre un certo limite il collo di bottiglia, semplicemente, non esiste...hai voja aggiunger banda, non cambia niente, è come aggiungere acqua a una bottiglia già piena...
Il vantaggio più concreto sarebbero i consumi...ma si parla davvero di una manciata di watt in meno visto che già le gddr5 consumano molto poco in relazione alla gpu, ed ho già spiegato il perchè: schede col doppio della ram =10/15w in più nei consumi... ergo se le hbm consumano il -40% come promesso rispetto le ggddr 5 cosa vuoi che cambi in termini di numeri reali? 10w in meno in totale? :mc:
non la vedrei come te per un semplice motivo: le hbm verranno implementate molto probabilmente sulle vga top, con chip molto più performanti di Hawaii Xt e che dunque avranno molta potenza di elaborazione: avere molta banda in questo caso è importante per non creare un collo di bottiglia nel sistema in generale, tutto questo come sappiamo a consumi irrisori rispetto alle gddr5, quindi anche l'efficienza è salva
inoltre in prospettiva la potenza computazionale crescerà e quindi di pari passo la banda offerta dalle hbm sarà sempre utile (nella prima implementazione pare offriranno un bel vantaggio rispetto alle gddr5 anche accoppiate ad un bus 512bit come quello di Hawaii, ma nella seconda versione parliamo di numeri impressionanti che nessuna vram attuale può offrire, se non forse abbinata a bus mostruosi e quindi improponibili)
infine le hbm dall'ottica Amd sono importanti anche per le apu, forse ancora più che nelle vga discrete
Ale55andr0
16-10-2014, 17:30
si, so che al crescere della potenza la banda dovrà "foraggiare" adeguatamente la gpu ;), il punto è che oggi a mio avviso la banda raggiunta dalle 290 è finanche sovrabbondante per le attuali gpu tanto che con gli attuali bus probabilmente si riuscirebbe a non avere un collo di bottiglia anche con le nuove gpu... ecco perchè non credo che hbm sarà LA mossa decisiva per AMD, non è certo la banda passante il punto focale su cui concentrarsi. Idem per i consumi: l'efficenza è salva solo relativamente se risparmi 10w totali sul sottostistema ram (perchè questi sono i numeri +/-) mentre laddove hai la massima richiesta di energia (gpu) continui a non avere adeguata efficienza...con hbm compensi solo in parte.
Si, le hbm le vedrei bene sulle apu (se solo avessero fatto uscire le console più avanti...), ma non credo vedremo a breve banchi di ram hbm come memoria di sistema :D a meno di non proporle in sistemi integrati (tablet, smartphone ecc.)
si, so che al crescere della potenza la banda dovrà "foraggiare" adeguatamente la gpu ;), il punto è che oggi a mio avviso la banda raggiunta dalle 290 è finanche sovrabbondante per le attuali gpu tanto che con gli attuali bus probabilmente si riuscirebbe a non avere un collo di bottiglia anche con le nuove gpu... ecco perchè non credo che hbm sarà LA mossa decisiva per AMD, non è certo la banda passante il punto focale su cui concentrarsi. Idem per i consumi: l'efficenza è salva solo relativamente se risparmi 10w totali sul sottostistema ram (perchè questi sono i numeri +/-) mentre laddove hai la massima richiesta di energia (gpu) continui a non avere adeguata efficienza...con hbm compensi solo in parte.
Si, le hbm le vedrei bene sulle apu (se solo avessero fatto uscire le console più avanti...), ma non credo vedremo a breve banchi di ram hbm come memoria di sistema :D a meno di non proporle in sistemi integrati (tablet, smartphone ecc.)
vero, ma si puo sfruttare questa enorme banda rimpicciolendo il bus, quinsi meno transistor e meno consumi che sommati a quelli delle nuove ram....
Einhander
16-10-2014, 21:18
I problema di Tonga è che dovrebbe consumarne 80 in meno...per stare al passo con Maxwell... ;)
NO.
Devono solo abbinarla ad una revisione dell'architettura.
Maxwell non consuma poco, comprime bene per ora, ma quando le cose si faranno un pochino meno leggere sara' diversa la musica, basta guardare quello che succede quando la gpu si sforza davvero, ovvero 100 watt in piu' sul consumo cosi' come se nulla fosse..
Caterpillar_WRT
16-10-2014, 21:51
Infatti io mi chiedo come si fa a determinare il tipo di alimentatore richiesto basandosi su un consumo medio ... :(
Athlon 64 3000+
16-10-2014, 22:41
Nella caratteristiche del nuovi iMac è apparta la GPU R9 M295X con 4gb gddr5 e 3,5 Teraflops di potenza.
Non si sa se è un Tonga sempre con 1792SP e bus a 256 bit,oppure è la versione a 2048SP e bus a 256 bit per via dei 4 gb di Vram.
mikael84
16-10-2014, 23:11
Nella caratteristiche del nuovi iMac è apparta la GPU R9 M295X con 4gb gddr5 e 3,5 Teraflops di potenza.
Non si sa se è un Tonga sempre con 1792SP e bus a 256 bit,oppure è la versione a 2048SP e bus a 256 bit per via dei 4 gb di Vram.
2048 per 850mhz circa(3,5TF)
4gb con un bus da 256bit
Nhirlathothep
17-10-2014, 00:33
Nella caratteristiche del nuovi iMac è apparta la GPU R9 M295X con 4gb gddr5 e 3,5 Teraflops di potenza.
Non si sa se è un Tonga sempre con 1792SP e bus a 256 bit,oppure è la versione a 2048SP e bus a 256 bit per via dei 4 gb di Vram.
2048 per 850mhz circa(3,5TF)
4gb con un bus da 256bit
vorrei prendere il nuovo imac 5k anche io e mi interessa la potenza in rapporto alla risoluzione.
ora ho l' ultimo imac 27 quindi ultrahd, con la 775m.
in corrispettivo il nuovo 5k con la m290x andra peggio a 5k ?
non ci ho mai giocato nè usato altre applicazioni tranne safari chrome e iBooks (ma tante finestre e schede aperte contemporaneamente, proprio tante), ma vorrei che tutto restasse ultraveloce come ora, non voglio animazioni della gui che scattano anche con tante tante finestre
francisco9751
17-10-2014, 07:54
beh,se l'hanno messo in commercio,non penso abbiano dei problemi..sopratutto per il tipo di utilizzo che hai scritto,ce la farebbe anche una 750ti,per quel tipo di uso
tapatalked with LG G2
NO.
Devono solo abbinarla ad una revisione dell'architettura.
Maxwell non consuma poco, comprime bene per ora, ma quando le cose si faranno un pochino meno leggere sara' diversa la musica, basta guardare quello che succede quando la gpu si sforza davvero, ovvero 100 watt in piu' sul consumo cosi' come se nulla fosse..
Scusa, ma che intendi dire con "comprime bene"?
Intendi dire che comprime i consumi forse? :mbe:
Free Gordon
17-10-2014, 14:44
NO.
Devono solo abbinarla ad una revisione dell'architettura.
Maxwell non consuma poco, comprime bene per ora, ma quando le cose si faranno un pochino meno leggere sara' diversa la musica, basta guardare quello che succede quando la gpu si sforza davvero, ovvero 100 watt in piu' sul consumo cosi' come se nulla fosse..
Eh, parli facile :D se Nvidia nei giochi riesce a consumare molto meno di AMD è sicuramente un pò merito del software...ma molto più probabilmente merito dell'hw che è molto ottimizzato per consumare meno in quel tipo di applicazioni. Unità che si disabilitano? Boh, cmq qualcosa c'è...
Sia Tonga che Maxwell hanno bus a 256bit, ma a parità di prestazioni hanno consumi decisamente differenti...e le prestazioni NON divergono certamente per la mancanza di banda di Tonga o efficienza nel suo sfruttamento.. ;)
Athlon 64 3000+
17-10-2014, 17:52
http://www.bitsandchips.it/9-hardware/4880-amd-tonga-tra-le-gpu-di-punta-del-nuovo-imac-con-display-retina-5k
Secondo me l'eventuale R9 285X alias full tonga da 2048SP dovrebbe il bus da 256 bit magari con gddr5 da 7 ghz cosi da avere lo stesso oltre 200gb/s di banda passante.
Einhander
17-10-2014, 19:11
Scusa, ma che intendi dire con "comprime bene"?
Intendi dire che comprime i consumi forse? :mbe:
Intendo che l'abbinamento del boost a frequenze molto alte in abbinamento al memory controller che appunto comprimendo molto bene i dati tra le varie parti hardware ne riduce -e di molto- il consumo energetico.
Tuttavia quando si presentano dati non interamente comprimibili, come nel caso di applicazioni gpgpu, o nel caso in cui si dovesse gestire fisica ed altri elementi simili tramite gpu e non cpu, in quel caso il memory controller non puo' comprimere con la stessa efficienza la mole di dati necessaria e quindi il resto dell'hardware deve lavorare a pieno regime per periodi mediamenti molto piu' lunghi e generare quei consumi che si sono visti laddove la 970 o 980 erano impegnate in calcoli prettamente gpgpu, ovvero una media di 100 watt in piu'rispetto all'uso in gaming normale.
Chiaramente con questo non voglio dire che nvidia non abbia svolto bene il proprio lavoro, ma solo che e' brava nel marketing e si guarda bene dal dire quali siano REALMENTE i potenziali consumi della scheda anche per applicazioni con le quali, per altro, questa nuova architettura dimostra di essere assai piu' competitiva prestazionalmente.
Infondo bastano sessione da 60 secondi per raggiungere quei consumi la'.
Ora anche diversi motori qualora decidessero di implementare alcune caratteristiche fisiche che qui molti definiscono next-gen (R.I.P. HALF LIFE 2) potrebbero far incappare le schede in quella situazione e quindi portarle a consumare molto di piu'.
E' un'ipotesi non una certezza. La certezza e' che quell'architettura NON e' efficiente a 360° e anzi quando usata per altri scopi -per cui la stessa nvidia rimarca di aver recuperato terreno- diventa assai meno efficiente.
Ma il reparto marketing nvidia lo sa bene e si guarda dal dirlo : )
Einhander
17-10-2014, 19:14
Eh, parli facile :D se Nvidia nei giochi riesce a consumare molto meno di AMD è sicuramente un pò merito del software...ma molto più probabilmente merito dell'hw che è molto ottimizzato per consumare meno in quel tipo di applicazioni. Unità che si disabilitano? Boh, cmq qualcosa c'è...
Sia Tonga che Maxwell hanno bus a 256bit, ma a parità di prestazioni hanno consumi decisamente differenti...e le prestazioni NON divergono certamente per la mancanza di banda di Tonga o efficienza nel suo sfruttamento.. ;)
Ma appunto dico che il memory controller di tonga non basta, deve anche esserci un aggiornamento dell'hardware alias una nuova, o parzialmente nuova, architettura in accordo al MC.
L'altra cosa che non riesco a capire e' se il boost prestazionale del MC e' piu' o meno fisso -8 - 15%di range- oppure e' in qualche modo proporzionale all'ampiezza del bus e alla potenza bruta della gpu.
Non ci dimentichiamo che nvidia ha aggiornato MC e Architettura.
appleroof
18-10-2014, 21:54
Intendo che l'abbinamento del boost a frequenze molto alte in abbinamento al memory controller che appunto comprimendo molto bene i dati tra le varie parti hardware ne riduce -e di molto- il consumo energetico.
Tuttavia quando si presentano dati non interamente comprimibili, come nel caso di applicazioni gpgpu, o nel caso in cui si dovesse gestire fisica ed altri elementi simili tramite gpu e non cpu, in quel caso il memory controller non puo' comprimere con la stessa efficienza la mole di dati necessaria e quindi il resto dell'hardware deve lavorare a pieno regime per periodi mediamenti molto piu' lunghi e generare quei consumi che si sono visti laddove la 970 o 980 erano impegnate in calcoli prettamente gpgpu, ovvero una media di 100 watt in piu'rispetto all'uso in gaming normale.
Chiaramente con questo non voglio dire che nvidia non abbia svolto bene il proprio lavoro, ma solo che e' brava nel marketing e si guarda bene dal dire quali siano REALMENTE i potenziali consumi della scheda anche per applicazioni con le quali, per altro, questa nuova architettura dimostra di essere assai piu' competitiva prestazionalmente.
Infondo bastano sessione da 60 secondi per raggiungere quei consumi la'.
Ora anche diversi motori qualora decidessero di implementare alcune caratteristiche fisiche che qui molti definiscono next-gen (R.I.P. HALF LIFE 2) potrebbero far incappare le schede in quella situazione e quindi portarle a consumare molto di piu'.
E' un'ipotesi non una certezza. La certezza e' che quell'architettura NON e' efficiente a 360° e anzi quando usata per altri scopi -per cui la stessa nvidia rimarca di aver recuperato terreno- diventa assai meno efficiente.
Ma il reparto marketing nvidia lo sa bene e si guarda dal dirlo : )
www.hwupgrade.it/articoli/skvideo/4158/asus-geforce-gtx-970-strix-maxwell-alla-seconda-prova_15.html
www.hwupgrade.it/articoli/skvideo/4158/asus-geforce-gtx-970-strix-maxwell-alla-seconda-prova_15.html
Quei test non sono rilevanti. manca un confronto diretto.
Prova a guardare questi:
http://www.anandtech.com/show/8526/nvidia-geforce-gtx-980-review/20
Soprattutto quelli che riguardano la potenza a doppia precisione.
P.s. la ricerca l'ho fatta in 2 minuti. se ci si impegna si possono trovare molti più dati e/o opinioni.
Snickers
19-10-2014, 11:58
Quei test non sono rilevanti. manca un confronto diretto.
Prova a guardare questi:
http://www.anandtech.com/show/8526/nvidia-geforce-gtx-980-review/20
Soprattutto quelli che riguardano la potenza a doppia precisione.
P.s. la ricerca l'ho fatta in 2 minuti. se ci si impegna si possono trovare molti più dati e/o opinioni.
Beh, ma mica ci voleva il tuo link di anandtech, si sapeva benissimo, sin dalla presentazione delle 750/750ti che maxwell azzoppava ancora di più il double precision, che, onestamente, al 95% dei potenziali acquirenti non gliene frega assolutamente niente (e del restante 5% la maggioranza a cui interessano davvero per questioni economiche le performance in DP x motivi di lavoro non si fanno problemi di budget ad andare su schede professionali). :read:
appleroof
19-10-2014, 12:19
Quei test non sono rilevanti. manca un confronto diretto.
Prova a guardare questi:
http://www.anandtech.com/show/8526/nvidia-geforce-gtx-980-review/20
Soprattutto quelli che riguardano la potenza a doppia precisione.
P.s. la ricerca l'ho fatta in 2 minuti. se ci si impegna si possono trovare molti più dati e/o opinioni.
Quelli di anand li conosco bene, tanto che li ho messi in prima nel thread ufficiale delle 900 :asd:
Il link che ho postato era per il discorso consumi, pur rispettando l'opinione di tutti non credo sia come dice enhander, del cui discorso poi non colgo il riferimento all'uso della fisica etc nei giochi :mbe:
Einhander
19-10-2014, 13:52
Quelli di anand li conosco bene, tanto che li ho messi in prima nel thread ufficiale delle 900 :asd:
Il link che ho postato era per il discorso consumi, pur rispettando l'opinione di tutti non credo sia come dice enhander, del cui discorso poi non colgo il riferimento all'uso della fisica etc nei giochi :mbe:
mah guarda basta che leggi le reviews di tomshw o altre o persino quella di anandtech quando si parla di furmark...laddove ci sono dati non comprimibili in modo efficiente dal MC e si necessita continuamente della massima potenza possibile allora il consumo delle 970 e 980 arriva anche a superare i 280 watt..
la radeon 290x ne consuma a 40 in piu'..
Dove il memory controller non puo' comprimere bene e non puo' permettersi di fare su e giu con le frequenze tramite boost, allora si vedono i consumi reali della scheda...che sono un po' diversi da quanto dichiarato.
appleroof
19-10-2014, 14:17
mah guarda basta che leggi le reviews di tomshw o altre o persino quella di anandtech quando si parla di furmark...laddove ci sono dati non comprimibili in modo efficiente dal MC e si necessita continuamente della massima potenza possibile allora il consumo delle 970 e 980 arriva anche a superare i 280 watt..
la radeon 290x ne consuma a 40 in piu'..
Dove il memory controller non puo' comprimere bene e non puo' permettersi di fare su e giu con le frequenze tramite boost, allora si vedono i consumi reali della scheda...che sono un po' diversi da quanto dichiarato.
Per furmark non ne parliamo, sappiamo bene che non è uno scenario ripetibile praticamente mai, tra l'altro consuma meno di tutte pure li www.anandtech.com/show/8526/nvidia-geforce-gtx-980-review/21 quindi....
Per il resto mi pare che solo la rece di toms abbia messo in luce quanto sottolinei, perlatro (vado a memoria) senza specificare in che modo sono fatti i test e quindi se è uno scenario ripetibile nella realtà, il dato poi contrasta con la rece di hwupgrade che ti ho postato (perchè la ricordavo, non sono andato a cercarne altre) per cui da qui a trarre le tue conclusioni ce ne vuole, di contro tutte le rece del mondo riconoscono i grandi effetti in termini di efficienza che ha Maxwell , sopratutto ricordando che è sempre a 28nm che non è un particolare secondario anzi è forse il dato principale per misurare l'efficienza dell'architettura
Sempre su anand c'e un altro articolo più breve che riassume le performance e l'efficienza in maniera più immediata www.anandtech.com/show/8549/short-bytes-nvidia-geforce-gtx-980-in-1000-words
Il fatto della compressione del MC è solo una tua speculazione, perdonami, e così le conseguenze che trai
Tutto questo non per difendere, ma per evitare che si trasmettano certezze che secondo me non lo sono ....poi mi fermo qui perchè non c'entra nulla con le nuove amd
mah guarda basta che leggi le reviews di tomshw o altre o persino quella di anandtech quando si parla di furmark...laddove ci sono dati non comprimibili in modo efficiente dal MC e si necessita continuamente della massima potenza possibile allora il consumo delle 970 e 980 arriva anche a superare i 280 watt..
la radeon 290x ne consuma a 40 in piu'..
Dove il memory controller non puo' comprimere bene e non puo' permettersi di fare su e giu con le frequenze tramite boost, allora si vedono i consumi reali della scheda...che sono un po' diversi da quanto dichiarato.
Furmark lo puoi considerare "consumo di picco" non "consumo massimo" intendendo "consumo massimo" con l'accezione di consumo massimo normalmente riscontrabile!
Einhander
20-10-2014, 05:08
Per furmark non ne parliamo, sappiamo bene che non è uno scenario ripetibile praticamente mai, tra l'altro consuma meno di tutte pure li www.anandtech.com/show/8526/nvidia-geforce-gtx-980-review/21 quindi....
Per il resto mi pare che solo la rece di toms abbia messo in luce quanto sottolinei, perlatro (vado a memoria) senza specificare in che modo sono fatti i test e quindi se è uno scenario ripetibile nella realtà, il dato poi contrasta con la rece di hwupgrade che ti ho postato (perchè la ricordavo, non sono andato a cercarne altre) per cui da qui a trarre le tue conclusioni ce ne vuole, di contro tutte le rece del mondo riconoscono i grandi effetti in termini di efficienza che ha Maxwell , sopratutto ricordando che è sempre a 28nm che non è un particolare secondario anzi è forse il dato principale per misurare l'efficienza dell'architettura
Sempre su anand c'e un altro articolo più breve che riassume le performance e l'efficienza in maniera più immediata www.anandtech.com/show/8549/short-bytes-nvidia-geforce-gtx-980-in-1000-words
Il fatto della compressione del MC è solo una tua speculazione, perdonami, e così le conseguenze che trai
Tutto questo non per difendere, ma per evitare che si trasmettano certezze che secondo me non lo sono ....poi mi fermo qui perchè non c'entra nulla con le nuove amd
Mah guarda che non le traggo io eh, e' sempre preso dalla recensione di tomshw nella quale si asseriva quello che ho detto sulla compressione dei dati da parte del memory controller.
E cmq anche li si trattava di consumi di picco per brevissimi istanti ma molto frequenti, ergo la mia considerazione sull'impossibilita' di vedere queste "punte" su test che riportano solo il consumo minimo, massimo e medio o che non tengono conto, tramite grafico, dei consumi in ogni istante del test effettuato.
Di certo non me lo sono andato ad inventare io eh, figurati : D.
In ogni caso non dico che l'architettura nvidia non sia efficiente, sarei un imbecille se non lo riconoscessi xD
Quello che intendevo dire e' che nvidia ha unito ad un aggiornamento dell'architettura anche la nuova capacita' del memory controller..ora vedremo se amd dopo l'efficienza raggiunta dal MC di tonga -perche' c'e'- garantisca un ulteriore risparmio tramite aggiornamento del suo GCN.
Fermo restando che se i consumi non calassero e rimanessero questi, ma aumentasse la potenza di calcolo in maniera sensibile, o notevole, per me andrebbe bene lo stesso, soprattutto dalla fascia media in su : )
Ale55andr0
21-10-2014, 12:52
ma è mai possibile che ogni volta che vedo uppato il thread non c'è un volta che si parli delle nuove vga AMD? :asd: (ecco, l'ho appena fatto pure io :asd: )
ma è mai possibile che ogni volta che vedo uppato il thread non c'è un volta che si parli delle nuove vga AMD? :asd: (ecco, l'ho appena fatto pure io :asd: )
Hahahahahahahaha é stato il primo pensiero appena l'ho visto uppato col tuo post, "ci saranno novità?" Come sempre "noooooo"!!! :asd:
Foglia Morta
24-10-2014, 07:31
Intanto però oltre ai soliti vantaggi sui frames minimi ( http://www.anandtech.com/show/8640/benchmarked-civilization-beyond-earth/3 ) si iniziano a vedere anche altri vantaggi di Mantle ( per migliorare la grafica ) : http://www.tomshw.it/cont/news/civilization-beyond-earth-migliorato-con-mantle-ecco-come/60111/1.html
nel tempo penso proprio che gli sviluppatori ne faranno sempre più uso
Purtroppo non credo proprio :(, con le dx12 dovrebbe ridimensionarsi molto, ma non so, solo mie supposizioni...
Ale55andr0
24-10-2014, 14:06
Purtroppo non credo proprio :(, con le dx12 dovrebbe ridimensionarsi molto, ma non so, solo mie supposizioni...
le dx 12 sono e restano una api generica (fatta peraltro da chi non progetta le gpu per....coloro che le progettano con architetture eterogenee...)
Comunque se la poni così, a questo punto sarebbe lecito chiedersi che senso avrebbe per certe software house aderire alla beta di mantle con le dx 12 annunciate, voglio dire: nemmeno a perderci sto tempo visto che si tratta di una cosa "senza impegno" :stordita:
Per me mantle continuerà a esistere, lo farà semplicemente come tecnologia proprietaria adottata in maniera simile a physx, con i "suoi" titoli. Mai e poi mai l'ho vista come cambio radicale per tutto e per tutti.
Peraltro chechè se ne dica quando mantle fa guadagnare nei minimi con settaggi ultra è chiaro che sfrutta meglio la stessa gpu, e questo dx non può farlo con basi hardware tanto diverse (io in thief ho il 20% in più nei minimi a 1080p con tutto al max, titolo che peraltro a differenza di uno strategico non ha una miriade di oggetti contemporaneamente su schermo con ia "mossa" dalla cpu)
...Oh comunque ancora una volta si parla di tutto tranne che delle nuove vga :asd: :sbonk:
...Oh comunque ancora una volta si parla di tutto tranne che delle nuove vga :asd: :sbonk:
Comincio a pensare che la triplice modifica ovvero il nuovo processo produttivo, la nuova ram (con il relativo controller) e nuova architettura (GCN 1.3? GCN 2.0??) stiano mettendo "sotto stress" gli ingegneri AMD, con conseguente allungamento dei tempi.
Spero di sbagliarmi.
Ale55andr0
24-10-2014, 16:25
il cambio di pp è un problema delle fonderie non di AMD (ne di nvidia) che si limitano a "disegnare" i chip. Mentre il "nuovo" mc, le memorie hbm ecc le avranno già pronte allo stato di prototipi funzionanti da eoni, mica si improvvisa, già loro sanno come funziona e che prestazioni avranno...i chip che escono "oggi" sono frutto del lavoro di svariati mesi addietro e ad oggi l'unica ragione verosimile del ritardo di AMD è che la sua architettura GCN, con gli attuali pp, non può essere potenziata utleriormente perchè già a limite su consumi e calore, ergo devono per forza aspettare che sia pronto il nuovo pp. Fosse già stato pronto sicuro che uscivano con hbm e tutto il resto appena dopo le 900 di nvidia...
C'è una cosa che mi sono sempre chiesto però: passi AMD che sta un po' con le pezze al fondoschiena, ma possibile che una società come nvidia non abbia le potenzialità economiche per aprirsi una fonderia in proprio per produrre sti benedetti chip?
Pezzio ancora, mi chiedo perchè anche Apple che vanta fatturati mirabolanti (mi pare sia l'azienda con il più alto fatturato del Pianeta) non ci abbia ancora pensato... :mbe:
Ale55andr0
24-10-2014, 17:20
io più che chiedermi quello mi chiedo perchè AMD abbia rinunciato alla sua a Dresda...prima i chip se li faceva pure da se, ora (si fa per dire, si parla del 2009) è diventata cliente e di certo la cosa è economicamente più sconveniente. Peraltro aeventuali vantaggi sui pp li avrebbe pure monopolizzati se lavoran bene visto che col cavolo che avrebbe prodotto chip per nvidia e col cavolo che nvidia si sarebbe rivolta ad AMD :asd:
Apple è di gran lunga l'azienda col fatturato più alto, ma non fanno tutti, non a caso Apple fa lavorare tante altre aziende quali per esempio Foxconn o LG. Anche lo zaffiro per fare un esempio non l'hanno fatto loro. Evidentemente hanno sempre valutato che il rischio industriale era elevato ed evitato quindi di buttarsi in situazioni che potrebbero anche finire male, scaricando in gran parte il rischio su terzi. Mi stupisce anche perché apple non si sia ancora buttate nel mondo del gaming in modo serio e nel mondo dei data center e supercomputers. Evidentemente il motivo è sempre lo stesso, si tratta di campi ancora abbastanza lontani da quella che è sempre stata la mission di apple ed il target dell'azienda,abbinati evidentemente anche a rischi elevati
Apple è di gran lunga l'azienda col fatturato più alto, ma non fanno tutti, non a caso Apple fa lavorare tante altre aziende quali per esempio Foxconn o LG. Anche lo zaffiro per fare un esempio non l'hanno fatto loro. Evidentemente hanno sempre valutato che il rischio industriale era elevato ed evitato quindi di buttarsi in situazioni che potrebbero anche finire male, scaricando in gran parte il rischio su terzi. Mi stupisce anche perché apple non si sia ancora buttate nel mondo del gaming in modo serio e nel mondo dei data center e supercomputers. Evidentemente il motivo è sempre lo stesso, si tratta di campi ancora abbastanza lontani da quella che è sempre stata la mission di apple ed il target dell'azienda,abbinati evidentemente anche a rischi elevati
Premesso che non conosco minimamente i costi e i rischi di una simile impresa (ovviamente), resta però il fatto che se non può permetterseli l'azienda con il più alto utile al mondo, allora nessuno se lo potrebbe permettere, credo ...:mbe:
Solo una parola: costi.
Ma possibile che sul forum non ho ancora visto una 285? :stordita:
Free Gordon
25-10-2014, 10:34
il cambio di pp è un problema delle fonderie non di AMD (ne di nvidia) che si limitano a "disegnare" i chip. Mentre il "nuovo" mc, le memorie hbm ecc le avranno già pronte allo stato di prototipi funzionanti da eoni, mica si improvvisa, già loro sanno come funziona e che prestazioni avranno...i chip che escono "oggi" sono frutto del lavoro di svariati mesi addietro e ad oggi l'unica ragione verosimile del ritardo di AMD è che la sua architettura GCN, con gli attuali pp, non può essere potenziata utleriormente perchè già a limite su consumi e calore, ergo devono per forza aspettare che sia pronto il nuovo pp. Fosse già stato pronto sicuro che uscivano con hbm e tutto il resto appena dopo le 900 di nvidia...
Hmm beh, puù o meno... :p
Anzi direi proprio di no, considerando ciò che diceva Yoss, parlando del rapporto con le fonderie e il lavoro che necessariamente facevano in sinergia per realizzare al meglio sopratutto le architetture nuove.
Oppure hanno reputato inutile insistere su 28nm ormai al tramonto...dicasi strategia, che a volte subisce ritardi tarandosi sui pp sviluppati da terzi diciamo...
Ale55andr0
25-10-2014, 11:34
Oppure hanno reputato inutile insistere su 28nm ormai al tramonto...dicasi strategia, che a volte subisce ritardi tarandosi sui pp sviluppati da terzi diciamo...
fisicamente gcn non può andare oltre prestazionalmente con tale pp, pena una centrale termonucleare nel case. Non è una strategia ma una scelta praticamente obbligata
Premesso che non conosco minimamente i costi e i rischi di una simile impresa (ovviamente), resta però il fatto che se non può permetterseli l'azienda con il più alto utile al mondo, allora nessuno se lo potrebbe permettere, credo ...:mbe:
Certo che se lo potrebbero permettere, ma evidentemente hanno valutato che il rischio non è così basso di fare un buco nell'acqua (o di aprire un settore che poi potrebbe portare a delle perdite) e quindi probabilmente al momento preferiscono lasciare i rischi sulle spalle di altri (che comunque già hanno il know how disponibile). Altrimenti apple avrebbe potuto fare tutto e di più per i propri prodotti oltre che produrre tutto in USA (dalla produzione dell'energia, alla ricerca dei materiali, alla fabbricazione di ogni componente) senza affidarsi ad altre aziende esterne, appure al momento si affidano pesantemente ad aziende esterne. Secondo me se Apple avesse deciso questa via comunque avrebbe potuto garantire prodotti di qualità ancora più elevata (anche se probabilmente a costi ancora più alti) e data la sempre maggiore "spinta" dell'azienda sulla qualità e cura dei dettagli dei loro prodotti non è detto che non vadano in questa direzione nel futuro. Al momento se non l'hanno fatto il motivo credo sia di prudenza negli investimenti.
Per AMD spero che la novità sia dietro l'angolo perché semplicemente non può solo abbassare i prezzi ed abbassarli per sempre, in più mi sembra che ad AMD manchi un serio sviluppo nel settore tablet/smartphone, cosa sulla quale nvidia e intel sono già abbastanza avanti
Sono scelte commerciali, 3dfx è "fallita" perchè aveva speso un gozzilione di soldi per equipaggiare la fabbrica nuova aperta in messico per la produzione in proprio dei chip rage e sage...appena nvidia se la è comprata ha subito venduto la fabbrica e si è tenuto il know-how 3dfx. ATI aveva la sua fabbrica in canada, sfornava solo schede per il mercato nord americano (le BBA build by ati, che avevano overclock pazzeschi), anche loro dopo le x1800 vendettero la fabbrica per i costi. ( Le fabbriche devi sempre aggiornarle con i macchina nuovi è una spesa immane, anzi devi tenere 2 line produttive se non vuoi rischiare di star fermo, una con i macchinari per la produzione attuale e una in allestimento per la nuova produzione, quando hai finito la nuova, devi sbaraccare la vecchia e sperare di rivendere i macchinari o al più se ti va bene sperare che si possano aggiornare per adattarli alla nuova).
IBM si sta vendendo le fabbriche, AMD quando ha comprato ati, un pò per la spesa folle un pò per la contrazione del mercato, ha deciso che la strada più redditizia era quella di diventare di fatto "ATI" cioè una società che disegna solo, poi si rivolge a ditte terze con le fabbriche che fanno solo quello.
( quindi di fatto TSMC, GF devono solo spendere in aggiornamenti e macchinari, non in divisione divisione nuovi prodotti, nvidia, amd, ibm spendere solo in disegno nuovi prodotti, l'estremo uno lo ha con ARM che disegna solo cose, manco sistemi completi e poi vende la licenza ai vari che vogliono disegnare un prodotto con quelle specifiche, che poi verra prodotto fisicamente ad uno che ha solo fabbriche).
Diciamo quando i costi sono cosi elevati è meglio la segmentazione e la settorializzazione...attualmente l'unica che regge cosi è intel...
Non è necessariamente un male togliersi parte delle problematiche dovute alla produzione. Come dal punto di vista di TSMC non è un male dover disegnare "prodotti" da vendere per mantenere le fabbriche...
La fabbrica rischia di essere un buco nero, visto che uno deve disegnare e vendere un prodotto con l'idea che i ricavi andranno anche spesi per aggiornare la fabbrica per il prodotto successivo, che succede se il prodotto non vende o vende meno? Semplice, la fabbrica non l'aggiorni o l'aggiorni in perdita, quindi di fatto in caso di vendite non eccelse la fabbrica un peso. In caso di stra vendite la fabbrica può essere un vantaggio.
Dal punto di vista di TSMC o GF, per loro non è un problema se un prodotto vende o meno, tanto il loro guadagno sulla produzione fatta per conto terzi lo fanno. Certo è loro interesse dare quanti più chip possono, perchè il loro guadagno sale, se sale il guadagno ci sono le liquidità per aggiornare le fabbriche al nuovo pp e si marca tutti.
Solo una parola: costi.
Ma possibile che sul forum non ho ancora visto una 285? :stordita:
beh se il loro prezzo è rimasto sulle 220€, mentre le 280 lisce stanno andando in offerta a 160€-170€ (anche a 150€ sull'amazonia) continuano a non avere mercato...senza contare che ste 280 stanno ammazzando anche le 270x che non schiodano dai 150€...infatti per il mini-itx gaming volevo prendere una 270x, ma quando mi so trovato una 280 a 150€, c'è poco da pensare..
Le 280 sono fuori listino ormai, stanno svuotando i magazzini...si bhe aspetterò, al massimo la testero io fra un mesetto :stordita:
francisco9751
25-10-2014, 14:15
allora intel doveva comprarsi ATI anni fa,così stavamo apposto :stordita:
il cambio di pp è un problema delle fonderie non di AMD (ne di nvidia) che si limitano a "disegnare" i chip.
Vero, ma se poi si ritrovano un problema (bug) come recentemente Intel, son dolori.
Mentre il "nuovo" mc, le memorie hbm ecc le avranno già pronte allo stato di prototipi funzionanti da eoni, mica si improvvisa, già loro sanno come funziona e che prestazioni avranno...
Una cosa è avere prototipi, una cosa la produzione di massa. Vogliamo poi aprire il capitolo "driver che sfruttano l'hw" o stendiamo un velo pietoso?? :rolleyes:
Fosse già stato pronto sicuro che uscivano con hbm e tutto il resto appena dopo le 900 di nvidia...
+1
Sono scelte commerciali, 3dfx è "fallita" perchè aveva speso un gozzilione di soldi per equipaggiare la fabbrica nuova aperta in messico per la produzione in proprio dei chip rage e sage...appena nvidia se la è comprata ha subito venduto la fabbrica e si è tenuto il know-how 3dfx. ATI aveva la sua fabbrica in canada, sfornava solo schede per il mercato nord americano (le BBA build by ati, che avevano overclock pazzeschi), anche loro dopo le x1800 vendettero la fabbrica per i costi. ( Le fabbriche devi sempre aggiornarle con i macchina nuovi è una spesa immane, anzi devi tenere 2 line produttive se non vuoi rischiare di star fermo, una con i macchinari per la produzione attuale e una in allestimento per la nuova produzione, quando hai finito la nuova, devi sbaraccare la vecchia e sperare di rivendere i macchinari o al più se ti va bene sperare che si possano aggiornare per adattarli alla nuova).
IBM si sta vendendo le fabbriche, AMD quando ha comprato ati, un pò per la spesa folle un pò per la contrazione del mercato, ha deciso che la strada più redditizia era quella di diventare di fatto "ATI" cioè una società che disegna solo, poi si rivolge a ditte terze con le fabbriche che fanno solo quello.
( quindi di fatto TSMC, GF devono solo spendere in aggiornamenti e macchinari, non in divisione divisione nuovi prodotti, nvidia, amd, ibm spendere solo in disegno nuovi prodotti, l'estremo uno lo ha con ARM che disegna solo cose, manco sistemi completi e poi vende la licenza ai vari che vogliono disegnare un prodotto con quelle specifiche, che poi verra prodotto fisicamente ad uno che ha solo fabbriche).
Diciamo quando i costi sono cosi elevati è meglio la segmentazione e la settorializzazione...attualmente l'unica che regge cosi è intel...
Non è necessariamente un male togliersi parte delle problematiche dovute alla produzione. Come dal punto di vista di TSMC non è un male dover disegnare "prodotti" da vendere per mantenere le fabbriche...
La fabbrica rischia di essere un buco nero, visto che uno deve disegnare e vendere un prodotto con l'idea che i ricavi andranno anche spesi per aggiornare la fabbrica per il prodotto successivo, che succede se il prodotto non vende o vende meno? Semplice, la fabbrica non l'aggiorni o l'aggiorni in perdita, quindi di fatto in caso di vendite non eccelse la fabbrica un peso. In caso di stra vendite la fabbrica può essere un vantaggio.
Dal punto di vista di TSMC o GF, per loro non è un problema se un prodotto vende o meno, tanto il loro guadagno sulla produzione fatta per conto terzi lo fanno. Certo è loro interesse dare quanti più chip possono, perchè il loro guadagno sale, se sale il guadagno ci sono le liquidità per aggiornare le fabbriche al nuovo pp e si marca tutti.
post interessante.. ecco il perché di questa tendenza all'esternalizzazione
Duke.N.4ever
25-10-2014, 19:34
non so se è gia stato chiesto ma le nuove ati saranno dx 12 ?
Si, ma teoricamente da taihiti in su sono tutte compatibili dx12 , correggetemi se sbaglio...
francisco9751
26-10-2014, 11:13
sono compatibili,ma non al 100%, nel senso che alcune funzioni non saranno presenti
post interessante.. ecco il perché di questa tendenza all'esternalizzazione
Si sono cambiate molto le esigente di mercato, ora una piccola statistica, seguo le vga da quando avevo 15 anni e adesso so arrivato a 30...in 15 anni siamo passati dalle geforce2 a 250nm agli attuali 28nm se non 20 tra poco.
Prima vi ricordate che i processi produttivi sia per cpu che per gpu in genere erano a due velocità, processo vecchio per i processori o gpu "low end" ed il nuovo per gli high, di fatto tutte le fonderie, amd, intel, tsmc, umc o chartered avevano 2 line produttive una nuova e una vecchia.
Negli ultimi anni c'è stato l'impennata che tutti i prodotti nuovi devono avere il processo produttivo nuovo, di fatto lasciando i vecchi macchinari (che cmq hanno un costo) a fare cose barbone tipo chipset o poco altro. Prima si poteva aggiornare i macchinari cambiando solo la testa del laser, adesso è una cosa quasi impossibile (vi ricordate i 65nm erano un semplice upgrade del processo a 90nm).
Attualmente siamo in un mercato dove è richiesto il processo produttivo più evoluto su tutto di fatto rendendo quasi impossibile disegnare un prodotto con i corsti di r&d e avere la fabbrica che lo realizza, con i costi di r&d per migliorare il pp.
Ecco qui che si stanno iniziando a settorializzare, abbiamo aziende che disegnano solo archidetture come ARM, aziende che disegnano solo chip come amd, nvidia, IBM e tutti quelli che fanno i soc arm come qualcomm, mediatek, apple e chi produce solo chip senza disegnarli, tsmc, umc o gf.
L'unico che ancora regge su due fronti è intel, ma quello lo fà per una situazione "pregressa" di monopolio iniziata dagli anni 70 e consolidata nel tempo.
L'unica altra che ha fabbriche e fa r&d di disegno chip su grande scala è samsung, ma di fatto anche loro, non partono da 0, comprano sempre licenze arm e poi decidono come infilare i core comprati su carta su un soc disegnato da loro.
Si sono cambiate molto le esigente di mercato, ora una piccola statistica, seguo le vga da quando avevo 15 anni e adesso so arrivato a 30...in 15 anni siamo passati dalle geforce2 a 250nm agli attuali 28nm se non 20 tra poco.
Prima vi ricordate che i processi produttivi sia per cpu che per gpu in genere erano a due velocità, processo vecchio per i processori o gpu "low end" ed il nuovo per gli high, di fatto tutte le fonderie, amd, intel, tsmc, umc o chartered avevano 2 line produttive una nuova e una vecchia.
Negli ultimi anni c'è stato l'impennata che tutti i prodotti nuovi devono avere il processo produttivo nuovo, di fatto lasciando i vecchi macchinari (che cmq hanno un costo) a fare cose barbone tipo chipset o poco altro. Prima si poteva aggiornare i macchinari cambiando solo la testa del laser, adesso è una cosa quasi impossibile (vi ricordate i 65nm erano un semplice upgrade del processo a 90nm).
Attualmente siamo in un mercato dove è richiesto il processo produttivo più evoluto su tutto di fatto rendendo quasi impossibile disegnare un prodotto con i corsti di r&d e avere la fabbrica che lo realizza, con i costi di r&d per migliorare il pp.
Ecco qui che si stanno iniziando a settorializzare, abbiamo aziende che disegnano solo archidetture come ARM, aziende che disegnano solo chip come amd, nvidia, IBM e tutti quelli che fanno i soc arm come qualcomm, mediatek, apple e chi produce solo chip senza disegnarli, tsmc, umc o gf.
L'unico che ancora regge su due fronti è intel, ma quello lo fà per una situazione "pregressa" di monopolio iniziata dagli anni 70 e consolidata nel tempo.
L'unica altra che ha fabbriche e fa r&d di disegno chip su grande scala è samsung, ma di fatto anche loro, non partono da 0, comprano sempre licenze arm e poi decidono come infilare i core comprati su carta su un soc disegnato da loro.
E sono gli unici ad avere una vastissima gamma di prodotti, che consente loro di riutilizzare i macchinari non più usati per la produzione dei "top chip" nella produzione di altri chip meno sofisticati.
Duke.N.4ever
28-10-2014, 10:14
Quindi se ho ben capito le nuove (taihiti) saranno compatibili con le dx 12 ma non in modo completo giusto ?
°Phenom°
28-10-2014, 10:29
Le nuove tahiti non esistono, comunque tahiti ed il resto dovrebbero essere parzialmente compatibili
Ma le dx12 non sono solo "software"? Imho saranno pienamente compatibili.... Sempre che servano a qualcosa ovviamente...
La 7870 è davvero ottima ;)
Mister D
11-11-2014, 18:14
Finalmente un'ottima notizia:
http://www.bitsandchips.it/9-hardware/4964-hbm-di-hynix-in-produzione-nel-1q15-si-attendono-i-primi-prodotti
Chissà che amd non aspettava proprio questo per le future gpu R9 3xx unitamente ai 16nm finfet by TSMC o i 20 nm planari di GF. Dovrebbe mancare poco per entrambi ormai;)
Finalmente un'ottima notizia:
http://www.bitsandchips.it/9-hardware/4964-hbm-di-hynix-in-produzione-nel-1q15-si-attendono-i-primi-prodotti
Chissà che amd non aspettava proprio questo per le future gpu R9 3xx unitamente ai 16nm finfet by TSMC o i 20 nm planari di GF. Dovrebbe mancare poco per entrambi ormai;)
Mhhh penso di no. Come al solito di Amd non si capisce nulla, si decidessero a dare qualche informazione, una foxxxxta roadmap, NIENTE. Pareva che tutta la linea 3xx dovesse essere a 20nm (immagino TSMC, le gpu le producono loro) e con HBM (avevo letto su wccftech), ma a quanto pare saranno solo la fascia media/bassa, http://www.bitsandchips.it/9-hardware/4965-nessuna-gpu-sotto-i-28nm-almeno-fino-la-fine-del-1q-o-l-inizio-del-2q-2015, anche se qui parrebbe essere anche la 390X a 20nm
http://wccftech.com/amd-fiji-r9-390x-specs-leak/
Io non so piu che pensare di Amd, com'è possibile che non diano nessuna notizia, eng sample, di cpu, apu o gpu da mesi??
http://www.hwupgrade.it/news/skvideo/le-prime-indiscrezioni-anche-sulle-gpu-amd-post-hawaii_54846.html
Free Gordon
12-11-2014, 11:08
I 4096 sp sono una tavanata, a meno che non escano per davvero a 20nm... pp che a quanto pare non si realizzerà nel breve termine dato i problemi che hanno tutti (TSMC e non solo) nel produrre a prezzi ragionevoli.... :rolleyes:
Ale55andr0
12-11-2014, 13:06
sarebbe da notare se, assieme alle hbm, utilizzeranno comunque un bus a 512bit
sarebbe da notare se, assieme alle hbm, utilizzeranno comunque un bus a 512bit
Vedendo le 285 appena uscite direi di no, si riduce la complessità del chip ed il costo produttivo (12 chip costano meno di 16.... e si overcloccano pure meglio :stordita: ) e dato l'utilizzo delle hbm con tonnellate di bandwith non avrebbe alcun senso insistere sul 512bit....
Ale55andr0
12-11-2014, 19:39
12 chip non fanno il quantitativo di ram di 16 però: 12chip attualmente = 3gb (7970/280x 384bit) ma son troppo pochi per una top che deve averne almeno 4 di gb.
Comunque i "leak" pubblicati indicano 512bit e parrebbe proprio così, e ti spiego il perchè:
con "soli" 5ghz (clock teorico delle memorie riportato nelle tabelle), nemmeno le hbm possono arrivare a 533gb/s (bandwidth della 390x) con un bus inferiore a 512bit, visto che le hbm non è che vanno il doppio delle gddr5 ma circa il 65% in più. Rispetto ai 320gb/s attuali delle 290 (5ghz/512bit gddr5) si evince che 320gb/s + 65% fanno poco meno di 530gb/s...questo a parità di bus però...ergo si, parrebbe proprio a 512 bit :fagiano:
killeragosta90
17-11-2014, 13:57
http://videocardz.com/54065/amd-preparing-faster-hawaii-gpu
°Phenom°
17-11-2014, 15:24
Specifiche tecniche di alcune vga secondo videcardz:
http://www.hwlegendshack.com/out.php/i10941_2014-11-17-161508.png
http://www.hwlegendshack.com/out.php/i10942_2014-11-17-161341.png
http://www.hwlegendshack.com/out.php/i10943_2014-11-17-161427.png
Quelle della 390x e 390 mi sembrano strane, a partire dal fatto che come memorie hanno indicato ancora gddr5
ma cosa cambia tra la 290x e la 295x?
Interessanti di TDP della 390X, per rimanendo sui 28nm, dovrebbe essere un 40W più basso rispetto a quello della 290x
appleroof
17-11-2014, 16:17
Specifiche tecniche di alcune vga secondo videcardz:
Cut
Quelle della 390x e 390 mi sembrano strane, a partire dal fatto che come memorie hanno indicato ancora gddr5
E che non ci sia traccia dei 20nm, per cui si avrebbe una VGA ben più pompata sia come specifiche che come frequenze di hawaii XT ma sempre a 28nm e nei 250w di tdp....o hanno rivisto profondamente l'architettura o non saprei
mikael84
17-11-2014, 16:23
Specifiche tecniche di alcune vga secondo videcardz:
Quelle della 390x e 390 mi sembrano strane, a partire dal fatto che come memorie hanno indicato ancora gddr5
2944 ST per la 390 o hanno cambiato rapporto o sono partizionati stile Maxwell da 128(23x128)
Ale55andr0
17-11-2014, 16:31
non mi torna praticamente nulla di quelle spec
Poi ovviamente posso esser io a cannare eh, ma niente hbm, clock assurdo della ram sulla 390x nonostante il bus a 512bit e il memory controller più "efficiente", partizionamento "strano" delle unità interne...mah, boh...
Free Gordon
17-11-2014, 17:53
Su queste ci stiamo già più dentro. Sono abb realistiche.
Resta da vedere i consumi.. :)
La 390x potrebbe superare tranquillamente la 980....con un clock di 1200mhz.... e 3200sp.... sarà una bella bestia.
Ma sempre contro GM204 andranno a combattere......
Il nabbo di turno
17-11-2014, 18:20
Amd potrebbe veramente colpire a morte nvidia se la 390x esce con un bus a 512 bit+le memorie hbm, il tutto su un pp di 20/16 nm.
°Phenom°
17-11-2014, 18:43
Su queste ci stiamo già più dentro. Sono abb realistiche.
Resta da vedere i consumi.. :)
La 390x potrebbe superare tranquillamente la 980....con un clock di 1200mhz.... e 3200sp.... sarà una bella bestia.
Ma sempre contro GM204 andranno a combattere......
Si, la 980 anche abbondantemente, ma ovviamente dovrà battersela con le full maxwell ;)
Comunque a me le specifiche sembrano molto strane, si era parlato fino ad ora di 20nm e di HBM, ma soprattutto riguardo queste ultime le info sembravano quasi sicure.
Ovviamente potrebbe anche essere che le hbm non ci saranno su fiji ma su bermuda, visto che in realtà prima del cambio, bermuda xt doveva essere la 390x e fiji xt la 380x.
Ale55andr0
17-11-2014, 22:01
Amd potrebbe veramente colpire a morte nvidia se la 390x esce con un bus a 512 bit+le memorie hbm, il tutto su un pp di 20/16 nm.
non credo proprio visto che ad aumentare la bandwidth non cambia molto se non hai l'architettura che pompa...nvidia con la 980 va fortissimo pur con "appena" 224gb/s rispetto i 320 di una 290x...al giorno d'oggi il problema della banda non si pone, è la gpu che deve essere davvero potente
Littlesnitch
17-11-2014, 22:25
Si, la 980 anche abbondantemente, ma ovviamente dovrà battersela con le full maxwell ;)
Comunque a me le specifiche sembrano molto strane, si era parlato fino ad ora di 20nm e di HBM, ma soprattutto riguardo queste ultime le info sembravano quasi sicure.
Ovviamente potrebbe anche essere che le hbm non ci saranno su fiji ma su bermuda, visto che in realtà prima del cambio, bermuda xt doveva essere la 390x e fiji xt la 380x.
Le full Maxwell arriveranno tra un bel po! Visto che oggi nVidia ha lanciato la nuova Tesla è palese che non hanno Maxwell in dirittura d'arrivo, a meno che non vogliano prendere per il :ciapet: che spende 30-40000€ per un rack con 4 di quelle dentro, anche perché prendere in giro i fanboy nutellosi è un discorso, ma quelle clientela è di ben altro livello.
http://www.tomshw.it/cont/news/amd-una-nuova-scheda-video-hawaii-prima-di-fiji/60701/1.html
Il nabbo di turno
18-11-2014, 13:33
non credo proprio visto che ad aumentare la bandwidth non cambia molto se non hai l'architettura che pompa...nvidia con la 980 va fortissimo pur con "appena" 224gb/s rispetto i 320 di una 290x...al giorno d'oggi il problema della banda non si pone, è la gpu che deve essere davvero potente
Va fortissimo è un parolone, visto che la 780 ti non dico neanche a parità di frequenza, ma diciamo a 1150 mhz, va in maniera simile alla 980 a 1350 mhz.
http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_980/images/perf_oc.gif
http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_780_Ti/images/perf_oc.gif
Poi non è detto che non aiuti, si inizierà veramente a vedere i 4k con la singola scheda nella prossima generazione, e avere un bus ampio con una banda grossa aiuterà molto.
Il nabbo di turno
18-11-2014, 13:35
Le full Maxwell arriveranno tra un bel po! Visto che oggi nVidia ha lanciato la nuova Tesla è palese che non hanno Maxwell in dirittura d'arrivo, a meno che non vogliano prendere per il :ciapet: che spende 30-40000€ per un rack con 4 di quelle dentro, anche perché prendere in giro i fanboy nutellosi è un discorso, ma quelle clientela è di ben altro livello.
Fidati che se voglio la fanno, anche senza il nuovo pp la potrebbero fare.
Il problema sorge se la faranno prima del nuovo pp, amd potrebbe qualche mesetto dopo avere una scheda con nuovo pp delle stesse dimensioni, quindi nvidia si troverebbe indietro.
Dimitri-
18-11-2014, 13:38
Va fortissimo è un parolone, visto che la 780 ti non dico neanche a parità di frequenza, ma diciamo a 1150 mhz, va in maniera simile alla 980 a 1350 mhz.
http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_980/images/perf_oc.gif
http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_780_Ti/images/perf_oc.gif
Poi non è detto che non aiuti, si inizierà veramente a vedere i 4k con la singola scheda nella prossima generazione, e avere un bus ampio con una banda grossa aiuterà molto.
Hai preso due test con 1 anno di differenza tra i benchmark..che tra l'altro vengono effettuati maniera abbastanza random su bf3. Guarda qui:
https://www.youtube.com/watch?v=fDW2Wlr7llY&list=UU5f-ChLiA0WiFnyx78miTOw
una 980 stock vince contro una 780Ti a 1200+ mhz :).
Inoltre amd è proprio in una situazione negativa, facendo uscire la 390x nvidia potrebbe benissimo rispondere con il full maxwell..in poche parole, è nvidia oggi che comanda.
Poi ci siamo scordati che nvidia è da settembre che ha campo libero con le nuove gpu? e questo fino a marzo-aprile minimo.
Il nabbo di turno
18-11-2014, 13:53
Hai preso due test con 1 anno di differenza tra i benchmark..che tra l'altro vengono effettuati maniera abbastanza random su bf3. Guarda qui:
https://www.youtube.com/watch?v=fDW2Wlr7llY&list=UU5f-ChLiA0WiFnyx78miTOw
una 980 stock vince contro una 780Ti a 1200+ mhz :).
Inoltre amd è proprio in una situazione negativa, facendo uscire la 390x nvidia potrebbe benissimo rispondere con il full maxwell..in poche parole, è nvidia oggi che comanda.
Poi ci siamo scordati che nvidia è da settembre che ha campo libero con le nuove gpu? e questo fino a marzo-aprile minimo.
In effetti qua si notano quei 4-5 fps di differenza, non una differenza mostruosa, ma contando che la 780 ti consuma in media quei 100w in più rispetto alla 980 è un risultato che fa onore a nvidia.
Beh proprio negativa non credo, in generale per adesso ha la 290x che se la gioca con la 970, che va come la 780 ti stock.
http://tpucdn.com/reviews/Palit/GeForce_GTX_970_JetStream/images/perfrel_2560.gif
Qui amd perde molto lato consumi, anche qui sono quei 100w a pieno carico che si fanno sentire, però la 290x tra costare già quei 40 euro in meno e l'offrire 3 giochi bundle, può comunque dire di avere una valida alternativa.
Poi beh, dipende tutto da nvidia per la nuova gen, far uscire una titan 2 ora a 28 nm significa tardare l'arrivo di una nuova top di gamma a 20 nm, e adesso come adesso non quanto convenga.
Idem amd, visto che la nuova gpu non si sa se sarà a 20 nm o 28.
Littlesnitch
18-11-2014, 14:12
Fidati che se voglio la fanno, anche senza il nuovo pp la potrebbero fare.
Il problema sorge se la faranno prima del nuovo pp, amd potrebbe qualche mesetto dopo avere una scheda con nuovo pp delle stesse dimensioni, quindi nvidia si troverebbe indietro.
Beh che discorso. Se vogliono certo che la fanno, ma un'azienda non ragiona con il se vogliamo lo facciamo. La situazione oggi dice che vendono un chip piccolo a 550-600€, perché dovrebbero venderne uno più grande e difficile da produrre a 700€? Che senso avrebbe? Per questo Maxwell passerà al prossimo PP.
Foglia Morta
20-11-2014, 14:53
http://www.hwupgrade.it/news/multimedia/amd-annuncia-partnership-con-samsung-e-capcom-all-evento-future-of-compute_54987.html
Interessante il fatto che tutti i futuri monitor UHD di Samsung adotteranno adaptive-sync , è abbastanza scontato che sarà lo standard del settore. E si aggiunge un altro motore per Mantle... per quei geni che lo davano per morto :D , questo è il 5° ( cryengine , asura , nitrous , frostbite e ora panta-rhei )
nvidia deve solo tagliarsi i coglioni bloccando il freesync da driver per obbligare a usare il gsync :sofico: e qualcosa mi dice che lo farà....
cire92cry
20-11-2014, 17:26
nvidia deve solo tagliarsi i coglioni bloccando il freesync da driver per obbligare a usare il gsync :sofico: e qualcosa mi dice che lo farà....
Bisogna sempre vedere come sarà questo free sync . Per ora sappiamo che il G-SYNC funziona perchè ovviamente è stato creato da nvidia per vga nvidia.
Dobbiamo vedere come farà il free synch a sincronizzarsi con il frame generato dalla vga. :D La speranza è che il risultato sia il medesimo del G-SYNC !
Ale55andr0
20-11-2014, 17:31
Va fortissimo è un parolone, visto che la 780 ti non dico neanche a parità di frequenza, ma diciamo a 1150 mhz, va in maniera simile alla 980 a 1350 mhz.
http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_980/images/perf_oc.gif
http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_780_Ti/images/perf_oc.gif
Poi non è detto che non aiuti, si inizierà veramente a vedere i 4k con la singola scheda nella prossima generazione, e avere un bus ampio con una banda grossa aiuterà molto.
dai un'occhiata ai test più recenti ;) e a prescindere dalla cosa resta il fatto che se pompi la banda se non hai i muscoli lato gpu non cambia nulla uguale, ci si sta facendo troppe pippe sulle hbm e sui valori teorici di banda quando amd non ha in mano una architettura davvero in grado di impensierie maxwell al momento, e l'assordante silenzio della stessa non fa certo pensar bene...non so se ci si rende VERAMENTE conto che con un chip piccolo e a 28 nani nvidia ha fatto un balzo considerevole e in prestazioni e in consumi e con un "misero" bus a 256bit...facessero un chip "full", faebbero cadere le mascelle in terra, e se lo si aggiungesse al prossimo pp (che permetterebbe di potenziare ulteriormente l'architettura) amd potrebbe solo che piangere se il rapporto potenza/consumi delle sue prossime vga in relazione alle future maxwell resteranno quelli di GCN, perchè anche a pari pp resterebbe invariato il gap...e lo dico da proprietario di una 290 trix oc
killeragosta90
20-11-2014, 17:32
nvidia deve solo tagliarsi i coglioni bloccando il freesync da driver per obbligare a usare il gsync :sofico: e qualcosa mi dice che lo farà....
Ma il freesync sarà una tecnologia "libera" (quindi compatibile anche con hardware nvidia) o proprietaria come il G-sync?? :confused:
Ale55andr0
20-11-2014, 18:29
Ma il freesync sarà una tecnologia "libera" (quindi compatibile anche con hardware nvidia) o proprietaria come il G-sync?? :confused:
bella domanda
da quel che ho capito io è per amd con la differenza che non richiederà hardware specifico extra per funzionare ma solo una compatibilità col firmware del monitor
Foglia Morta
20-11-2014, 19:01
Ma il freesync sarà una tecnologia "libera" (quindi compatibile anche con hardware nvidia) o proprietaria come il G-sync?? :confused:
adaptive-sync è uno standard vesa e amd la sua implementazione la chiama freesync ma è a stessa cosa. penso si adeguerà anche intel.
Intanto: http://forums.overclockers.co.uk/showpost.php?p=27210099&postcount=86
2 monitor IPS compatibili con freesync da LG a inizio 2015
Foglia Morta
21-11-2014, 07:34
anche il 3dmark con mantle... http://www.sweclockers.com/nyhet/19661-futuremark-3dmark-far-prestandatester-for-mantle-och-directx-12
Ale55andr0
22-11-2014, 00:22
a proposito di mantle
http://www.spaziogames.it/notizie_videogiochi/console_pc/208255/l-engine-panta-rhei-di-capcom-supportera-mantle.aspx
a proposito di mantle
http://www.spaziogames.it/notizie_videogiochi/console_pc/208255/l-engine-panta-rhei-di-capcom-supportera-mantle.aspx
ma chi se ne frega di mantle.
l'unica utilità di mantle è ridurre il carico della cpu e difatti i vantaggi di mantle si vedono solo con cpu datate, che non è il caso di nessuna delle persone su questo forum
Athlon 64 3000+
22-11-2014, 09:12
ma chi se ne frega di mantle.
l'unica utilità di mantle è ridurre il carico della cpu e difatti i vantaggi di mantle si vedono solo con cpu datate, che non è il caso di nessuna delle persone su questo forum
E arrivo io per smentirti perchè posseggo un 7850k con 270x e ho 3 giochi con Mantle dove ho avuto benefici enormi.
IN BF4 a 1920x1080 con tutto su high ho avuto un raddoppio del frame rate,mentre su Thief ho avuto un aumento di almeno il 60 & negli fps minimi e medi,mentre nel nuovo civilization lo devo quantificare.
Forse terrò Kaveri fino all'uscita di Zen(perchè forse Carrizo non verrà rilasciato per desktop)e quindi per me il supporto a Mantle rimane importante cosi da avere sempre la mia APU competitiva.
Il freesync è la versione open del gsync, non centra una mazza con l adaptive vsync....verra adottato nello standard vesa a cui tutti i monitor fanno riferimento....secondo amd costeranno mediamente 100$ in meno alle controparti nvidia....probabilmente sono le roialties che devono pagare i produttori a nvidia bho...
ma chi se ne frega di mantle.
l'unica utilità di mantle è ridurre il carico della cpu e difatti i vantaggi di mantle si vedono solo con cpu datate, che non è il caso di nessuna delle persone su questo forum
Non capisco perche mantle è una cagata mentre physix una feature :mbe:
°Phenom°
22-11-2014, 10:34
Mantle é utilissimo, a 64 player su bf4 ad esempio, con Mantle ho un bel boost di fps, ma soprattutto restano inchiodati, senza fastidiosi cali dati da diverse situazioni in diversi punti della mappa.
Foglia Morta
22-11-2014, 12:18
adaptive-sync è uno standard vesa e amd la sua implementazione la chiama freesync ma è a stessa cosa. penso si adeguerà anche intel.
Intanto: http://forums.overclockers.co.uk/showpost.php?p=27210099&postcount=86
2 monitor IPS compatibili con freesync da LG a inizio 2015
Il freesync è la versione open del gsync, non centra una mazza con l adaptive vsync....verra adottato nello standard vesa a cui tutti i monitor fanno riferimento....secondo amd costeranno mediamente 100$ in meno alle controparti nvidia....probabilmente sono le roialties che devono pagare i produttori a nvidia bho...
Rispondevi a me ? Qui mi pare che nessuno abbia parlato di adaptive vsync , ma solamente adaptive-sync... ed è esattamente ciò che ho detto: http://www.anandtech.com/show/8008/vesa-adds-adaptivesync-to-displayport-12a-standard-variable-refresh-monitors-move-forward
costerà meno perchè richiede solo uno scaler aggiornato ( che tutti i principali produttori intendono adottare ) , le royalties a nVidia ci sono o meno non si sa... potrebbe essere anche pura fantasia , quel che è certo è che necessita di moduli ram e un processore fpga e questi sono costi certi.
Ale55andr0
22-11-2014, 14:12
ma chi se ne frega di mantle.
l'unica utilità di mantle è ridurre il carico della cpu e difatti i vantaggi di mantle si vedono solo con cpu datate, che non è il caso di nessuna delle persone su questo forum
parla per te :D:
io sto con un i7 3770 @4ghz e in thief faccio il 20% e passa in più nei minimi col gioco maxato in 1080p, compreso l'AA al max, situazione dove non è certo la cpu a porre freni...e in altri titoli ho visto incrementi addirittura anche in 1440p, sempre nei minimi, tutte situazioni in cui è la vga ad essere sotto torchio...credo quindi dipenda molto anche dal tipo di gioco in cui si trova ad operare e da com'è programmato. In quelle situazioni in cui vi saranno molti oggetti a schermo "comandati" dalla cpu potrebbe dare un buon boost visto che la tendenza è quella vedasi ac unity...infatti mi chiedo sinceramente, al netto della solita programmazione a membro di segugio, se un gioco come quello ne avrebbe giovato visto che in ubi hanno detto che proprio l'elevata mole di png pesa parecchio sulla cpu (anche se sicuramente di rimando anche sulla gpu visto che sono oggetti 3d in più da renderizzare)
Free Gordon
25-11-2014, 13:00
http://wccftech.com/sk-hynix-begins-hbm-production-q1-2015-feature-amd-r9-390x380x-fiji-gpu/
Ce la faranno per il q1?
Questo significa intorno ai primi di aprile con volumi di vendita buoni, suppongo..
Rispondevi a me ? Qui mi pare che nessuno abbia parlato di adaptive vsync , ma solamente adaptive-sync... ed è esattamente ciò che ho detto: http://www.anandtech.com/show/8008/vesa-adds-adaptivesync-to-displayport-12a-standard-variable-refresh-monitors-move-forward
costerà meno perchè richiede solo uno scaler aggiornato ( che tutti i principali produttori intendono adottare ) , le royalties a nVidia ci sono o meno non si sa... potrebbe essere anche pura fantasia , quel che è certo è che necessita di moduli ram e un processore fpga e questi sono costi certi.f
Mi scuso! I fullhd in 5.2" e le pippe giovanili non aiutano...
Foglia Morta
25-11-2014, 17:36
http://wccftech.com/sk-hynix-begins-hbm-production-q1-2015-feature-amd-r9-390x380x-fiji-gpu/
Ce la faranno per il q1?
Questo significa intorno ai primi di aprile con volumi di vendita buoni, suppongo..
azz... è un sito di fenomeni quello :D , a Luglio avevo segnalato che quelle memorie Hynix le aveva già rese disponibili: http://hwupgrade.it/forum/showpost.php?p=41309259&postcount=8366
Foglia Morta
26-11-2014, 04:30
Da un cinese... da quel che dice sarebbe un engineering sample:
http://www.chiphell.com/thread-1182382-1-1.html
http://s3.postimg.org/hsavpfafz/011503yjegz86eyes86w8e.jpg (http://postimg.org/image/hsavpfafz/)
http://s3.postimg.org/tvg7czli7/011518p1h2dduhz6xuo9j9.jpg (http://postimg.org/image/tvg7czli7/)
Snickers
26-11-2014, 10:04
Da un cinese... da quel che dice sarebbe un engineering sample:
http://www.chiphell.com/thread-1182382-1-1.html
http://s3.postimg.org/hsavpfafz/011503yjegz86eyes86w8e.jpg (http://postimg.org/image/hsavpfafz/)
http://s3.postimg.org/tvg7czli7/011518p1h2dduhz6xuo9j9.jpg (http://postimg.org/image/tvg7czli7/)
Beh, cavolo, circa 15-16% più veloce della 980 consumando il 7-8% in più non è affatto male se aggiungiamo che probabilmente ulteriori affinamenti di drivers potrebbero alzare l'asticella.
Ovviamente tutto ciò SE non trattasi di fake. :rolleyes: :mc: :help: :fagiano: :stordita:
°Phenom°
26-11-2014, 13:03
Bisogna contare anche che è un eng sample, quindi poco ottimizzato lato driver e in genere a frequenze minori rispetto alle versioni che poi verranno immesse nel mercato.
Comunque le aspettative sono buone se non si tratta di un fake.
Ricordo che questo sito ci aveva preso con le 290/290x e con le Titan/780Ti.
Beh, cavolo, circa 15-16% più veloce della 980 consumando il 7-8% in più non è affatto male se aggiungiamo che probabilmente ulteriori affinamenti di drivers potrebbero alzare l'asticella.
Ovviamente tutto ciò SE non trattasi di fake. :rolleyes: :mc: :help: :fagiano: :stordita:
Non ci credo manco se lo vedo. Na specie di mezzo miracolo da parte di AMD fosse vero. :sofico:
°Phenom°
26-11-2014, 15:35
Beh le amd/ati hanno sempre consumato mnolto meno delle nvidia fino alla gtx 580/6970, mentre attualmente le 290/290x consumano più o meno come le loro rispettivi concorrenti, 780 e Titan, per cui credo non sia poi così impossibile la riduzione dei consumi delle nuove radeon.
Come ho già detto nel post precedente, questo sito ci aveva già preso per schede come 780, titan, 290 e 290x, per cui non è da escludere non siano bench veritieri anche questi, essendo sempre dello stesso sito.
Ale55andr0
26-11-2014, 15:46
Non ci credo manco se lo vedo. Na specie di mezzo miracolo da parte di AMD fosse vero. :sofico:
quoto, non per mozione di sfiducia ma perchè tecnicamente mi parebbe davvero un miracolo, come se il prossimo anno la ferrari f1 recuperasse tutto il gap dalla mercedes con un colpo di spugna :sofico:
oh poi sperare non costa nulla
Poi succedono cose che ti lasciano stupito, come il fatto che le schede video AMD entrino di prepotenza al primo posto della TOP500 Green...
http://www.green500.org/news/green500-list-november-2014
mircocatta
26-11-2014, 16:31
stiamo parlando di ancora 28nm? in tal caso è un miracolo vero:eek:
altrimenti non vedo cosa ci sia di miracoloso se è a 20nm o inferiore :mbe:
quoto, non per mozione di sfiducia ma perchè tecnicamente mi parebbe davvero un miracolo, come se il prossimo anno la ferrari f1 recuperasse tutto il gap dalla mercedes con un colpo di spugna :sofico:
oh poi sperare non costa nulla
tecnicamente non sarebbe un miracolo perche' stiamo parlando di 28nm nvidia contro 20nm amd.
tecnicamente non sarebbe un miracolo perche' stiamo parlando di 28nm nvidia contro 20nm amd.
E dove direbbero che sono 20nm?
davvero strepitosa sta nuova radeon, chissa se è a 20 nani o a 28nm, non ci resta che aspettare
Ale55andr0
26-11-2014, 17:24
tecnicamente non sarebbe un miracolo perche' stiamo parlando di 28nm nvidia contro 20nm amd.
non sapevo si trattasse dei 20nm
a dire il vero credevo pure che i 20nm non andassero bene per le gpu essendo pensati per altri settori e che bisognasse attendere i 16nm.
Ad ogni modo, il tutto per me resta ancora poco credibile, 28 o 20nm che sia
francisco9751
26-11-2014, 18:04
Si sa da un po che saranno a 20nm, comunque i miracoli non li fa,nessuno ne amd ,ne nvidia...se le 970/980 vanno forte i gaming è perché forse non hanno la parte gpgpu,non è che hanno fatto il miracolo o cosa,è normale evoluzione tecnologica,solo che quando nvidia vendeva la 480/580 tutti volevano la gpu completa,poi le cose son cambiate,ed ora tutti vogliono la vga solo per gaming,idem con i consumi,prima se ne fregavano,ora è diventato la cosa più importante,vedo molta incoerenza,ma chissene..a ognuno il suo..
Sono molto curioso di queste 390/390x
Ma non capisco se le 380/380x saranno le 290/290x rimarchiate (come 280x per le 7970) o se avremo una nuova gpu pure là,e come ultima cosa speriamo che abbiano migliorato il dissi
tapatalked by LG GPAD 8.3
siluro85
26-11-2014, 18:16
Però sul sito non dicono se è 380 o 390.. è manco se è 20 o 28.. dipende tanto da ciò anche perchè quando amd fa uscire questa nvidia molto probabilmente butterà fuori il chippone. ..
°Phenom°
26-11-2014, 18:26
Però sul sito non dicono se è 380 o 390.. è manco se è 20 o 28.. dipende tanto da ciò anche perchè quando amd fa uscire questa nvidia molto probabilmente butterà fuori il chippone. ..
Ovviamente poco dopo se non contemporaneamente uscirà anche il chippone nvidia ;)
amon.akira
26-11-2014, 23:28
sicuramente saranno 20nm, so che nvidia probabilmente andrà direttamente con i 16nm nel 2016 e al max tamponerà quel che può con il chippone 28nm.
ma se sono 20nm quel 15-16% è anche poco secondo me, probabile che con frequenze giuste e driver giusti si attesti sul 20-25%.
il miracolo sarebbe di nvidia mantenere il gap vs le amd a 20nm.
Non è detto, sono 2 anni a sta parte che entrambe stanno cercando di non pestarsi troppo i piedi, rilasciando cose sempre a 5-6 mesi di distanza l'una dall'altra (ed in genere 12 mesi per ogni archidettura/refresh propri, anche se in più interviste entrambe hanno sempre detto che con l'aumento dei costi di sviluppo la vita di una archidettura potrebbe durare anche 18 mesi).
Non mi aspetto un'immediato chippone nvidia subito dopo le ati nuovi, al massimo una dual gpu e non prima di 3 mesi dalla presentazione delle nuova gpu amd.
Non ci credo manco se lo vedo. Na specie di mezzo miracolo da parte di AMD fosse vero. :sofico:
E perchè non dovresti crederci?
Negli ultimi 12 anni l'unica cosa che ho visto è che ogni 6 mesi una fra amd e nvidia fa una scheda che va il 20 % in più della concorrente.
Comunque la voce che circola è che questa sia la 380x e non la punta di diamante la 390x.
E inoltre considerando siano 20 nanometri al 99 % non ci vedo nulla di strano nell'andare più forte e consumare molto meno.
siluro85
27-11-2014, 02:07
Se è la 380x ed i bench sono veri, gg. E ci sta, così chippone nvidia ed amd sarebbero sullo stesso livello.
°Phenom°
27-11-2014, 05:31
Quindi forse la 380x non sará un semplice rebrand della 290x
francisco9751
27-11-2014, 05:52
speriamo, dato che per me le 290X sono troppo costose,preferisco tenermi sulle 280X o 290...spero sopratutto in un prezzo competitivo come per la serie 290,dove la 290 era un best buy, dissipatore a parte
tapatalked with LG G2
Se il benchmark è autentico dovete considerare che se amd si comportasse come con l'uscita di gcn in particolare le 7970, dove tra driver ed overclock nel giro di 4 o 5 mesi dalla presentazione si è avuto un boost del 40-50% sulle prestazioni farebbe quel passo che gli consentirebbe di dare seri problemi a nvidia, considerando poi mantle e pieno supporto alle dx12 oltre a quella che considero l'asso nella manica che potrà giocare per il prossimo anno, cioè il Freesync insieme al passaggio verso i 4k se ne vedranno davvero delle belle...
ma il bench indica le prestazioni di un ipotetica 380x o 390x?
siluro85
27-11-2014, 11:50
Qui dicono che sia la 380x, sul 3d delle 290 dicono sia la 390... boh!
Obrigado
27-11-2014, 12:59
Se il benchmark è autentico dovete considerare che se amd si comportasse come con l'uscita di gcn in particolare le 7970, dove tra driver ed overclock nel giro di 4 o 5 mesi dalla presentazione si è avuto un boost del 40-50% sulle prestazioni farebbe quel passo che gli consentirebbe di dare seri problemi a nvidia, considerando poi mantle e pieno supporto alle dx12 oltre a quella che considero l'asso nella manica che potrà giocare per il prossimo anno, cioè il Freesync insieme al passaggio verso i 4k se ne vedranno davvero delle belle...
ma il bench indica le prestazioni di un ipotetica 380x o 390x?
non esageriamo... ho avuto la 7970, ma i driver hanno dato al max +20% in alcuni giochi....
non esageriamo... ho avuto la 7970, ma i driver hanno dato al max +20% in alcuni giochi....
mah...sarai stato sfortunato...l'ho avuta dal day one...e diciamo che ho visto passo passo l'aumento di prestazioni... come d'altronde anche il resto delle persone qui sol forum...
Dimitri-
27-11-2014, 14:28
Se il benchmark è autentico dovete considerare che se amd si comportasse come con l'uscita di gcn in particolare le 7970, dove tra driver ed overclock nel giro di 4 o 5 mesi dalla presentazione si è avuto un boost del 40-50% sulle prestazioni farebbe quel passo che gli consentirebbe di dare seri problemi a nvidia, considerando poi mantle e pieno supporto alle dx12 oltre a quella che considero l'asso nella manica che potrà giocare per il prossimo anno, cioè il Freesync insieme al passaggio verso i 4k se ne vedranno davvero delle belle...
ma il bench indica le prestazioni di un ipotetica 380x o 390x?
questo vale anche per le gpu maxwell di nvidia,anzi in teoria le schede video amd dovrebbero avere un boost prestazionale minore visto che al 99% useranno sempre gcn..i driver per questa architettura sono ormai maturi, quelli di maxwell assolutamente no. Inoltre nvidia con il gm200 anche a 28nm imho riuscirebbe a battere queste nuove top di gamma con il minimo sforzo :asd:.
cioè, il 15-20% in più rispetto alla 980 è assolutamente deludente se fosse una 390x. Un eventuale Titan 2 sarebbe tipo il 40-50% più prestante.
questo vale anche per le gpu maxwell di nvidia,anzi in teoria le schede video amd dovrebbero avere un boost prestazionale minore visto che al 99% useranno sempre gcn..i driver per questa architettura sono ormai maturi, quelli di maxwell assolutamente no. Inoltre nvidia con il gm200 anche a 28nm imho riuscirebbe a battere queste nuove top di gamma con il minimo sforzo :asd:.
cioè, il 15-20% in più rispetto alla 980 è assolutamente deludente se fosse una 390x. Un eventuale Titan 2 sarebbe tipo il 40-50% più prestante.
vero per questo penso sia la 380x e che anche essendo un sample ecc... al massimo quanto potrà andare di più? un altro 5/10%? considerando che verranno presentate 6 mesi dopo la controparte...dall'utilizzo dei 20nm e le nuove memorie mi sarei aspettato qualcosa in più...resta il fatto che è presto per parlare non sappiamo di che scheda si tratto... potrebbe essere benissimo una 380 liscia come invece potrebbe essere una 390x oc millamila mhz...
Le basi amd le ha per fare bene... ora vediamo come implementa quanto ha sviluppato in questi anni... imho da gcn in poi non mi ha deluso anzi...
Lionking-Cyan
27-11-2014, 14:41
Piacevole notizia. Non che non mi piacciano le nvidia, ma non mi piace il loro prezzo.
Do ragione ad obrigado....mediamente le gcn hanno preso l 11% , analisi di ocaholic di un anno fa al primo compleanno delle 7970 e 680, le verdi il 4......poi se in alcuni titoli al day one che andavano da schifo e sistemate in corsa si puó anche vedere un 50% certo, ma sono casi limite...ho seguito il thread dal day one, purtroppo la mia ex 7950 non è durata moltissimi ed era già bella matura lato driver....
speriamo sia vero!
data di uscita? q1 o h1 2015?
Se sono a 28 nm mi aspetto gennaio febbraio, altrimenti marzo aprile....
francisco9751
27-11-2014, 19:29
dovrebbero essere a 20nm
tapatalked with LG G2
Athlon 64 3000+
27-11-2014, 19:35
Se i dati di chiphell fossero davvero confermati verrebbe fuori un ottimo prodotto da parte di AMD facendo cosi una bella concorrenza alle 970 e 980.
Francamente dubito fortemente che siano a 20 nm e quindi saranno GPU a 28 nm basate sull'architettura di Tonga(se non addirittura più avanzata).
secondo me sono ancora a 28nm, comunque sta 380x è mostruosa.....comunque io aspetto i 20nani va
se sono a 28nm allora AMD ha fatto il salto dell'efficienza (finalmente). Se sono a 20nm forse poteva fare anche meglio
se sono a 28nm allora AMD ha fatto il salto dell'efficienza (finalmente). Se sono a 20nm forse poteva fare anche meglio
per un engineering sample, senza driver ottimizzati e scheda non uscita dalla fase di progettazione sono comunque dati interessanti.
Ale55andr0
28-11-2014, 01:39
380 mostruosa, se a 20nani non un granchè, finalmente salto d'efficenza, driver non ancora ottimizzati, supermegachp nvidia +50%...si vede proprio che siamo in astinenza da nuove gpu, e ci aggrappiamo all'aria fritta con tutte le nostre forze :asd:
...mentre che ci siete pubblicate pure una data di uscita, che completiamo il quadro :sofico:
380 mostruosa, se a 20nani non un granchè, finalmente salto d'efficenza, driver non ancora ottimizzati, supermegachp nvidia +50%...si vede proprio che siamo in astinenza da nuove gpu, e ci aggrappiamo all'aria fritta con tutte le nostre forze :asd:
...mentre che ci siete pubblicate pure una data di uscita, che completiamo il quadro :sofico:
Beh astinenza da nuove GPU.
Ormai parliamo di schede che corrono sui 60 fps a 1440p tutto maxato su praticamente tutto.
E a 1440p l'AA è molto poco rilevante.
Lionking-Cyan
28-11-2014, 11:54
Piuttosto spero in un'alternativa mobile, più economica, rispetto alla gtx 970M.
mircocatta
28-11-2014, 13:44
380 mostruosa, se a 20nani non un granchè, finalmente salto d'efficenza, driver non ancora ottimizzati, supermegachp nvidia +50%...si vede proprio che siamo in astinenza da nuove gpu, e ci aggrappiamo all'aria fritta con tutte le nostre forze :asd:
...mentre che ci siete pubblicate pure una data di uscita, che completiamo il quadro :sofico:
stavo pensando la stessa cosa :asd:
sto leggendo di tutto in queste due ultime pagine!
Dimitri-
28-11-2014, 13:50
Parliamo di schede che usciranno (se tutto va bene) minimo a febbraio-marzo :asd:, cioè se questo non è un fail per amd..intanto nvidia è da settembre che vende 970 e 980 a volontà..mi immagino gia il chippone a 700€ che asfalta l'eventuale 390x venduta a 500€ :asd:, grazie per la concorrenza amd :D
Parliamo di schede che usciranno (se tutto va bene) minimo a febbraio-marzo :asd:, cioè se questo non è un fail per amd..
Fail?
Nvidia si è fatta aspettare un anno per rispondere alla serie 290 di amd.
L'unica cosa che ha fatto è stata abbassare il prezzo delle 780 (che comunque costavano 70-80 euro in più delle 290 pur andando il 7-8 % in meno).
Almeno AMD ha abbassato il prezzo delle 290 a prezzi altamente concorrenziali.
La 290 tri-x sfida tranquillamente una 970, sta poco dietro (2-3 %?) e costa 60 euro in meno di una 970 di una marca decente
Raumizio
28-11-2014, 15:29
Anche qualcosa in più di 60 euro...anche un centinaio. Le TriX si trovano a 240, una 970 al medesimo livello, tipo la MSI Twin Frozr costa non meno di 340 euro.
mircocatta
28-11-2014, 15:50
Fail?
Nvidia si è fatta aspettare un anno per rispondere alla serie 290 di amd.
L'unica cosa che ha fatto è stata abbassare il prezzo delle 780 (che comunque costavano 70-80 euro in più delle 290 pur andando il 7-8 % in meno).
Almeno AMD ha abbassato il prezzo delle 290 a prezzi altamente concorrenziali.
La 290 tri-x sfida tranquillamente una 970, sta poco dietro (2-3 %?) e costa 60 euro in meno di una 970 di una marca decente
perdonami ma tutte ste cose insieme fanno salire il nervoso anche al più pacato
in primis, è stata amd ad arrivare in ritardo con la serie r9 290, rispondendo dopo mesi e mesi alle 780
secondo: cosavano meno andando poco di più di una 780 è vero.....però consumano di più, mooolto di più e fanno più rumore a causa di dissipatori stock scarsi...ci mancava solo che le vendessero a pari prezzo delle 780/780ghz!
poi, nvidia ha subito (non aspettando mesi) risposto con la 780ti, riportandosi al top con la singola più veloce (titan a parte)
poi sono arrivate le maxwell e scusami se consumano quasi la metà di una 290x.. io con poco superiore ad una 290x overcloccata ci ho fatto uno sli di 970 andando il 70% in più, scusa se è poco, i soldi spesi in più li vale tutti
Cosa? guarda che è il contrario, amd ci ha messo non so quanti mesi per rispondere alla serie 780/780ghz, tanto che una volta uscite le 290/x nvidia se ne è uscita con la 780ti sorpassando di nuovo le amd
già le 290 avevano un rapporto inferiore (prestazioni/watt) rispetto alle 780, perchè mai nvidia doveva svenderle? tantopiù ora con le 970, ok costano 100€ in più, ma quanto in meno consumano? 60 watt e più, mi son fatto uno sli di 970 con il consumo di una singola 290x overcloccata..
ps: non sono un fanboy, allo stesso tempo sto bestemmiando per i driver penosi nvidia, quelli che dovrebbero essere "il punto di forza delle verdi"...si come no
quando la scimmia ti sovrasta :asd: perchè mai ti sei fatto lo sli???????
siluro85
28-11-2014, 16:36
perdonami ma tutte ste cose insieme fanno salire il nervoso anche al più pacato
in primis, è stata amd ad arrivare in ritardo con la serie r9 290, rispondendo dopo mesi e mesi alle 780
secondo: cosavano meno andando poco di più di una 780 è vero.....però consumano di più, mooolto di più e fanno più rumore a causa di dissipatori stock scarsi...ci mancava solo che le vendessero a pari prezzo delle 780/780ghz!
poi, nvidia ha subito (non aspettando mesi) risposto con la 780ti, riportandosi al top con la singola più veloce (titan a parte)
poi sono arrivate le maxwell e scusami se consumano quasi la metà di una 290x.. io con poco superiore ad una 290x overcloccata ci ho fatto uno sli di 970 andando il 70% in più, scusa se è poco, i soldi spesi in più li vale tutti
Scusa ma fammi vedere dove una 780 consuma mooooooooolto meno di una 290... per me mooooooolto meno è il consumo di una 970, non i 20w di una 780..
°Phenom°
28-11-2014, 17:13
Riguardo al consumo la 290 è quasi li con la 780 e la 290x con la 780Ti, anzi in alcune review consuma anche meno di quest'ultima.
Poi dipende anche tutto dal modello di vga ;)
siluro85
28-11-2014, 17:53
Non capisco sta leggenda che le 290 consumino molto più delle 780... eh su che basta leggere...
francisco9751
28-11-2014, 18:02
è la stessa che narra che i driver nvidia siano meglio...
tapatalked with LG G2
perdonami ma tutte ste cose insieme fanno salire il nervoso anche al più pacato
in primis, è stata amd ad arrivare in ritardo con la serie r9 290, rispondendo dopo mesi e mesi alle 780
secondo: cosavano meno andando poco di più di una 780 è vero.....però consumano di più, mooolto di più e fanno più rumore a causa di dissipatori stock scarsi...ci mancava solo che le vendessero a pari prezzo delle 780/780ghz!
poi, nvidia ha subito (non aspettando mesi) risposto con la 780ti, riportandosi al top con la singola più veloce (titan a parte)
poi sono arrivate le maxwell e scusami se consumano quasi la metà di una 290x.. io con poco superiore ad una 290x overcloccata ci ho fatto uno sli di 970 andando il 70% in più, scusa se è poco, i soldi spesi in più li vale tutti
Bla, bla, bla.
Anche se giocaste 3 ore al giorno la differenza in bolletta alla fine dell'anno sarebbe quanto? 15 euro?
Parliamo di 60 watt di differenza nei picchi
Poi non so a casa tua ma se per un anno mi ritrovo una 290 a 340 circa che va più veloce delle 780 a 400 e rotti chi insegue è nvidia, non certo amd. E amd aveva un sacco di giochi in più.
Sono d'accordo sul dissi stock, ma non scordiamoci che esistono i modelli custom. Da quando sono uscite le Sapphire Tri-X (a gennaio 2014, 11 mesi fa) le temperature nei picchi delle 290 sono di 74 gradi, una 770 peakava 82.
E una 290 trix va più veloce di una titan, che solo 12 mesi fa costava 800 euro. E ora 250.
AMD fail?
Chi ha inseguito è stata decisamente nvidia per un anno e se voi avete l'approccio verso nvidia degli applefan e vi fate gran
Nvidia ha rilasciato la 780ti?
E chi se ne frega del mercato da 800 euro? Pura pubblicità.
Io non ti giuro che comprerei una 290 anzichè una 970.
Ma le chiacchiere stanno a zero.
Tra una sapphire trix oc 290 e una 970 gigabyte ci passano 60 euro e un misero 4 % in termini di performance a favore della 970 (ma dipende dal gioco e dalla risoluzione, salendo la differenza diminuisce e sono schede che hanno poco senso a 1080p ormai), 11 gradi di differenza nei picchi (74, contro contro 63, niente da dire sull'efficienza nvidia), ma la 290 trix è più silenziosa in load della corrispettiva nvidia.
Ora se secondo voi spendere il 20 % in più per avere 4 % di performance in più (hey ciao, faccio 31,8 fps quando tu ne fai 30, e quasi 64 quando tu nei fai 60!!), consumare 60-80 watt in meno (realisticamente molto meno in media), e avere meno calore è un buon acquisto io non discuto come spendete i vostri soldi ma non chiamiamo fail amd che ha portato schede che permettono di giocare ad ultra-high a 1440p (rinunciando al max a un poco di aa , cosa che anche nvidia deve ancora fare, ma l'aa a 1440p inizia ad avere poco senso), prestazioni da titan a 250 e ha letteralmente dominato il mercato per un anno è un fail buon per voi.
Il mercato delle schede video è molto semplice nvidia e amd ciclicamente si riprendono il trono della scheda con migliore performance prezzo in fascia media e alta ogni 6-9-12 mesi.
Se poi voi siete ciecati dal chippone da 800 euro è un vostro problema.
E a farvi questo discorso è uno fissato (immotivatamente) con consumi e temperature e che forse fra 970 e 290 probabilmente prenderebbe la prima nonostante la differenza di prezzo, ma non per questo mai mi azzarderei a chiamare amd fail quando gira e rigira in ogni fascia di prezzo ha il trono delle migliori performance/prezzo.
E in tutto questo non ho considerato Mantle che porta in un bel pò di giochi miglioramenti ben visibili equivalenti a volte a comprare una scheda di fascia generazione superiore.
amon.akira
28-11-2014, 23:58
Beh astinenza da nuove GPU.
Ormai parliamo di schede che corrono sui 60 fps a 1440p tutto maxato su praticamente tutto.
E a 1440p l'AA è molto poco rilevante.
allora io sono un fissato e pretendo i 60fps minimi maxato!!! a 1080p con la mia configurazione evil within non se ne parla (colpa del motore), crysis 3 non se ne parla neanche con un misero fxaa, watchdog non se ne parla per colpa di ubilol, far cry4 non se ne parla anche se va benone, lords of the fallen scende anche lui su i 45, quindi direi che almeno per me serve piu potenza per i soli "1080p" però giocando a 60fissi.
non oso immaginare a 1440 o 4k XD
solo ryse con supersampling 1440p mantiene, ma vale come un 2 di coppe con la briscola a bastoni.
appleroof
29-11-2014, 08:21
Bla, bla, bla.
Anche se giocaste 3 ore al giorno la differenza in bolletta alla fine dell'anno sarebbe quanto? 15 euro?
Parliamo di 60 watt di differenza nei picchi
Poi non so a casa tua ma se per un anno mi ritrovo una 290 a 340 circa che va più veloce delle 780 a 400 e rotti chi insegue è nvidia, non certo amd. E amd aveva un sacco di giochi in più.
Sono d'accordo sul dissi stock, ma non scordiamoci che esistono i modelli custom. Da quando sono uscite le Sapphire Tri-X (a gennaio 2014, 11 mesi fa) le temperature nei picchi delle 290 sono di 74 gradi, una 770 peakava 82.
E una 290 trix va più veloce di una titan, che solo 12 mesi fa costava 800 euro. E ora 250.
AMD fail?
Chi ha inseguito è stata decisamente nvidia per un anno e se voi avete l'approccio verso nvidia degli applefan e vi fate gran
Nvidia ha rilasciato la 780ti?
E chi se ne frega del mercato da 800 euro? Pura pubblicità.
Io non ti giuro che comprerei una 290 anzichè una 970.
Ma le chiacchiere stanno a zero.
Tra una sapphire trix oc 290 e una 970 gigabyte ci passano 60 euro e un misero 4 % in termini di performance a favore della 970 (ma dipende dal gioco e dalla risoluzione, salendo la differenza diminuisce e sono schede che hanno poco senso a 1080p ormai), 11 gradi di differenza nei picchi (74, contro contro 63, niente da dire sull'efficienza nvidia), ma la 290 trix è più silenziosa in load della corrispettiva nvidia.
Ora se secondo voi spendere il 20 % in più per avere 4 % di performance in più (hey ciao, faccio 31,8 fps quando tu ne fai 30, e quasi 64 quando tu nei fai 60!!), consumare 60-80 watt in meno (realisticamente molto meno in media), e avere meno calore è un buon acquisto io non discuto come spendete i vostri soldi ma non chiamiamo fail amd che ha portato schede che permettono di giocare ad ultra-high a 1440p (rinunciando al max a un poco di aa , cosa che anche nvidia deve ancora fare, ma l'aa a 1440p inizia ad avere poco senso), prestazioni da titan a 250 e ha letteralmente dominato il mercato per un anno è un fail buon per voi.
Il mercato delle schede video è molto semplice nvidia e amd ciclicamente si riprendono il trono della scheda con migliore performance prezzo in fascia media e alta ogni 6-9-12 mesi.
Se poi voi siete ciecati dal chippone da 800 euro è un vostro problema.
E a farvi questo discorso è uno fissato (immotivatamente) con consumi e temperature e che forse fra 970 e 290 probabilmente prenderebbe la prima nonostante la differenza di prezzo, ma non per questo mai mi azzarderei a chiamare amd fail quando gira e rigira in ogni fascia di prezzo ha il trono delle migliori performance/prezzo.
E in tutto questo non ho considerato Mantle che porta in un bel pò di giochi miglioramenti ben visibili equivalenti a volte a comprare una scheda di fascia generazione superiore.
Non vedo fail di AMD ma bisogna pure evitare di dire cose a casaccio, qui intanto gli ultimi dati di market share riferiti al q3 2014 (mancano quindi le 900 nVidia):
JPR found that AIB shipments during 2014 3Q behaved according to past years with regard to seasonality, but the increase was less than the 10-year average. AIB shipments increased 7.8% from the last quarter (the 10-year average is 12.6%).
Total AIB shipments increased this quarter to 12.4 million units from last quarter.
AMD’s quarter-to-quarter total desktop AIB unit shipments decreased 9.5%.
Nvidia’s quarter-to-quarter unit shipments increased 24%.
Nvidia continues to hold a dominant market share position at 72%.
Figures for the other suppliers were flat to declining.
jonpeddie.com/publications/add-in-board-report/
Questo per il discorso "ha dominato letteralmente il mercato per un anno"
Quanto alla tempistica, ricordo che le 780/780ti sono uscite prima delle 290/290x quindi chi inseguiva era AMD e quando ha raggiunto lo ha fatto con un prodotto non del tutto convincente quanto a consumo/temperature, e che al lancio non aveva un prezzo molto diverso dalla concorrenza (giustamente, visto che offriva performance simili)
Poi tempo qualche mese (quindi sempre 2014) ed è uscito Maxwell con un rapporto performance/watt che obiettivamente supera di gran lunga quello delle AMD e un rapporto performance/ prezzo pure migliore, infatti AMD ha potuto rispondere come fa spesso, tagliando il prezzo (una delle volte che ricordo il contrario fu all'uscita delle 4800 dove nvidia fu costretta a tagliare i prezzi delle 200) e quindi ricominciando ad inseguire (non mi verrai a dire che una società taglia i prezzi dei propri prodotti per beneficienza)
Qui non si tratta di chiacchere da bar o opinioni soggettive, si tratta di affermare dati oggettivi e negarli onestamente sta a zero, è molto tempo che evito di affrontare discorsi perché si finisce sempre a tifo da stadio, ma davanti a tante inesattezze non ho resistito :p
capitan_crasy
29-11-2014, 11:01
Ma state ancora discutendo di quanto una scheda video alimentata ad un volt scarso (fra l'altro in continua) possa influire su una bolletta di un utenza elettrica a 220V?:asd:
Se proprio volete parlare tanto per farlo, parliamo di figa...:D
Ma state ancora discutendo di quanto una scheda video alimentata ad un volt scarso (fra l'altro in continua) possa influire su una bolletta di un utenza elettrica a 220V?:asd:
Se proprio volete parlare tanto per farlo, parliamo di figa...:D
:cincin: :cincin: :cincin: :cincin: :cincin:
Ma state ancora discutendo di quanto una scheda video alimentata ad un volt scarso (fra l'altro in continua) possa influire su una bolletta di un utenza elettrica a 220V?:asd:
Se proprio volete parlare tanto per farlo, parliamo di figa...:D
Grande :D
appleroof
29-11-2014, 12:13
Ma state ancora discutendo di quanto una scheda video alimentata ad un volt scarso (fra l'altro in continua) possa influire su una bolletta di un utenza elettrica a 220V?:asd:
Se proprio volete parlare tanto per farlo, parliamo di figa...:D
già Cap, tralasciando che la scheda video alimentata con un volt scarso etc consuma da sola più di tutte le lampadine che ho in casa accese contemporaneamente :D (anche la 980 che ho adesso), lo dicevo anche io negli anni in cui la vliw non consumava nulla rispetto alle prestazioni (almeno da rv770 in poi) mentre la superscalare nvidia era un fornetto....
oggettivamente il rapporto performance/watt è uno degli aspetti importanti nella valutazione complessiva di un chip, ricordo che negli anni di Fermi criticavo il fatto che nvidia facesse piastrelle consumose (chissà se trovo i post) e auspicavo che cambiasse architettura oppure dividesse la linea gaming da quella pro (cosa in parte successa poi)
d'altra parte tutte le review del mondo sottolineano il rapporto performance/watt tanto per dirne una, poi chiaro ci sono altri aspetti altrettanto importanti come le prestazioni assolute, il rapporto performance/die, quello performance/price etc etc tutto rientra nella valutazione oggettiva di un chip...è per questo che il citato rv770 secondo me surclassava gt200 ad esempio (ed infatti presi una 4870 e poi una 5850 saltando le 200 nvidia)
poi da un punto di vista soggettivo le cose cambiano, per esempio non critico chi compra oggi una 290x a meno di una 980 (attualmente custom vs. custom ho visto addirittura 290x costare meno di 970 custom) fregandosene dei consumi perchè dal punto di vista secco del performance/prezzo dopo il taglio dei prezzi Amd è più conveniente delle verdi e se questo aspetto è l'unico aspetto determinante nella scelta a scapito di altri allora è ovvio scegliere quella vga piuttosto che la verde.
Tornando in topic, non ho ancora commentato qui (l'ho fatto brevemente nel thread delle 900) i presunti test della nuova vga Amd, da qualche parte ho letto che si tratterebbe della 380x, direi che sarebbe ottima sia che fosse a 28nm sia che fosse a 20nm, nel primo caso perchè avrebbero fatto un miracolo di ottimizzazione (sempre che l'architettura non sia stata profondamente rivista, e cmq visti i 28nm sarebbe un risultato eccellente) nel secondo perchè non sarebbe la scheda top che dovrebbe essere la 390x ma sta cmq sopra l'attuale top nvidia...vediamo.
Einhander
29-11-2014, 12:18
Non vedo fail di AMD ma bisogna pure evitare di dire cose a casaccio, qui intanto gli ultimi dati di market share riferiti al q3 2014 (mancano quindi le 900 nVidia):
JPR found that AIB shipments during 2014 3Q behaved according to past years with regard to seasonality, but the increase was less than the 10-year average. AIB shipments increased 7.8% from the last quarter (the 10-year average is 12.6%).
Total AIB shipments increased this quarter to 12.4 million units from last quarter.
AMD’s quarter-to-quarter total desktop AIB unit shipments decreased 9.5%.
Nvidia’s quarter-to-quarter unit shipments increased 24%.
Nvidia continues to hold a dominant market share position at 72%.
Figures for the other suppliers were flat to declining.
jonpeddie.com/publications/add-in-board-report/
Questo per il discorso "ha dominato letteralmente il mercato per un anno"
Quanto alla tempistica, ricordo che le 780/780ti sono uscite prima delle 290/290x quindi chi inseguiva era AMD e quando ha raggiunto lo ha fatto con un prodotto non del tutto convincente quanto a consumo/temperature, e che al lancio non aveva un prezzo molto diverso dalla concorrenza (giustamente, visto che offriva performance simili)
Poi tempo qualche mese (quindi sempre 2014) ed è uscito Maxwell con un rapporto performance/watt che obiettivamente supera di gran lunga quello delle AMD e un rapporto performance/ prezzo pure migliore, infatti AMD ha potuto rispondere come fa spesso, tagliando il prezzo (una delle volte che ricordo il contrario fu all'uscita delle 4800 dove nvidia fu costretta a tagliare i prezzi delle 200) e quindi ricominciando ad inseguire (non mi verrai a dire che una società taglia i prezzi dei propri prodotti per beneficienza)
Qui non si tratta di chiacchere da bar o opinioni soggettive, si tratta di affermare dati oggettivi e negarli onestamente sta a zero, è molto tempo che evito di affrontare discorsi perché si finisce sempre a tifo da stadio, ma davanti a tante inesattezze non ho resistito :p
Mi pareva di ricordare che la 780ti fosse uscita dopo le le 290x, anche perche' al tempo la presa in giro era che una scheda per allocchi come la titan fosse raggiunta in termini di prestazioni da una che costava la meta' quasi e quindi il suo valore commerciale a prescindere dagli apple-like-fan-nvidia fosse drasticamente calato di colpo..mi pare che la 780ti non usci' na roba tipo 3 mesi dopo le 290x?
Quindi attenzione che anche tu commetti inesattezze se cosi' fosse e questa vale come risposta di nvidia.
Cmq la situazione delle schede video e' un po' come quella dei processori, non e' facile per amd o ati che fosse intaccare chi ha un'azienda molto piu' ampia e da piu' tempo sul mercato, non lo e' per niente e in piu' nvidia e' molto brava lato marketing e a promuovere tecnologie proprietarie chiuse, un po' come fa apple, anche se alla fine apple rispetto ad android nel mondo al di la' degli ottenebrati del marchio a breve sara' superata persino da windows come base installata eppure nel mondo il marchio apple tira da paura e solo ed esclusivamente causa marketing e gestione dell'immagine.
In piu' va detto che molti giochi che tirano il mercato per motivi inspiegabili come quelle ciofeche immonde di assassin's creed, sono spesso e volentieri castrati da ubilol per le amd causa accordi con nvidia, ma come tutti sappiamo in modi che non si limitano solo all'ottimizzazione -che quei giochi per allocchi non hanno, punto- ma con vere e proprie limitazioni.
o9ra non voglio essere qui a ribadire l'ovvio, ma nvidia ha fatto un buon lavoro con le 970, ma solo a livello di consumi perche' prestazionalmente l'incremento e' proprio scarso e al di la' che si tiri dietro il discorso del consumo che impatta zero come spesa se non giochi almeno na roba come 3000 ore l'anno -e intendo 3000 in full load- direi che stiamo la' poi se un giorno verra' presentato, il full maxwell il titan 2-3-4 non importa a nessuno, per il momento ha la scheda migliore, punto.
Non ci sono problemi ad ammetterlo ed e' obiettivamente vero, senza tanti se e tanti ma, ma osannare un marchio qualsiasi cosa faccia, come piazzare quelle oscene schede video a 1000 euro -titan- mi pare proprio lo specchio di cio' che sarebbe senza amd, quindi il tifo per nvidia a 60° qualsiasi cosa faccia non lo capisco, non lo capiro' mai e a dirla tutta mi sa' pure da cre...i.
Immaginatevi un mondo dove nvidia ha il 90% del market share e poi ci facciamo due risate.
Detto questo io credo che si vada anche un po' a generazioni e che nvidia sia molto abile a cambiare le carte in tavola quando fa comodo a lei proprio per via della posizione dominante che ha, e questo e' chiaro e non pretendo che la gente comune se ne accorga, ma che anche gli appassionati non ci facciano caso mi fa girare le pa..e.
Quando i consumi non erano un granche' importanti -e non se ne capisce il perche'- nvidia se ne fregava e faceva chip potenti nel gpgpu -da lei lanciato in ambito gaming- mentre amd faceva chip piccoli con un efficienza inarrivabile persino dalla prossima release di maxwell, ed era l'epoca dei megachipponi, poi quando amd ha cambiato approccio e si e' avvicinata molto alle loro prestazioni -sbaragliandole persino nel gpgpu- loro hanno deciso che non era piu' il caso di pomparlo in ambito gaming e che a questo punto la cosa piu' importante erano i consumi -cioe' seriamente? nella fascia enthusiast?? ma chi ci crede???!- e allora via gpgpu che fino a ieri sbandieravano come la revolution e via di chippetti fatti praticamente con la stessa ottica delle ati 5800 per dire...e tutti a dire brava brava consumi meno e vai forte poi fotte sega se nel gpgpu fai schifo, gpgpu che tu hai annunciato come l'evoluzione del gaming ecc ecc..
SI CERTO COME NO solo fino a quando la concorrenza non arriva a fare cose migliori, a quel punto surprise: cambio di ottica e con me tutto il mercato perche' io ho piu' influenza su quest'ultimo spesso tramite politiche anche poco lecite..
Ora cerchiamo di essere onesti ogni volta che amd o ati e' arrivata a migliorarsi al punto da raggiungere nvidia o superarla e improvvisamente cambiato il campo di gioco secondo quello che faceva piu' comodo ad nvidia, mica ati o amd, ma questo avviene anche per colpa, merito, causa della posizione dominante che nvidia ha sempre avuto fin da quando ati e' comparsa sul mercato, e non parliamo di un paio di punti percentuale eh.
Quindi sempre due pesi due misure, in base a quello che conviene di piu' alle verdi..avranno visto come fa intel nel mercato dei processori con amd e hanno deciso che e' una tattica che paga :asd:
appleroof
29-11-2014, 12:31
Mi pareva di ricordare che la 780ti fosse uscita dopo le le 290x, anche perche' al tempo la presa in giro era che una scheda per allocchi come la titan fosse raggiunta in termini di prestazioni da una che costava la meta' quasi e quindi il suo valore commerciale a prescindere dagli apple-like-fan-nvidia fosse drasticamente calato di colpo..mi pare che la 780ti non usci' na roba tipo 3 mesi dopo le 290x?
Quindi attenzione che anche tu commetti inesattezze se cosi' fosse e questa vale come risposta di nvidia.
si hai ragione, refuso...certo dire che Amd ha "letteralmente dominato per un anno" è un altro tipo di refuso dai :p
Cmq la situazione delle schede video e' un po' come quella dei processori, non e' facile per amd o ati che fosse intaccare chi ha un'azienda molto piu' ampia e da piu' tempo sul mercato, non lo e' per niente e in piu' nvidia e' molto brava lato marketing e a promuovere tecnologie proprietarie chiuse, un po' come fa apple, anche se alla fine apple rispetto ad android nel mondo al di la' degli ottenebrati del marchio a breve sara' superata persino da windows come base installata eppure nel mondo il marchio apple tira da paura e solo ed esclusivamente causa marketing e gestione dell'immagine.
In piu' va detto che molti giochi che tirano il mercato per motivi inspiegabili come quelle ciofeche immonde di assassin's creed, sono spesso e volentieri castrati da ubilol per le amd causa accordi con nvidia, ma come tutti sappiamo in modi che non si limitano solo all'ottimizzazione -che quei giochi per allocchi non hanno, punto- ma con vere e proprie limitazioni.
o9ra non voglio essere qui a ribadire l'ovvio, ma nvidia ha fatto un buon lavoro con le 970, ma solo a livello di consumi perche' prestazionalmente l'incremento e' proprio scarso e al di la' che si tiri dietro il discorso del consumo che impatta zero come spesa se non giochi almeno na roba come 3000 ore l'anno -e intendo 3000 in full load- direi che stiamo la' poi se un giorno verra' presentato, il full maxwell il titan 2-3-4 non importa a nessuno, per il momento ha la scheda migliore, punto.
Non ci sono problemi ad ammetterlo ed e' obiettivamente vero, senza tanti se e tanti ma, ma osannare un marchio qualsiasi cosa faccia, come piazzare quelle oscene schede video a 1000 euro -titan- mi pare proprio lo specchio di cio' che sarebbe senza amd, quindi il tifo per nvidia a 60° qualsiasi cosa faccia non lo capisco, non lo capiro' mai e a dirla tutta mi sa' pure da cre...i.
Immaginatevi un mondo dove nvidia ha il 90% del market share e poi ci facciamo due risate.
Detto questo io credo che si vada anche un po' a generazioni e che nvidia sia molto abile a cambiare le carte in tavola quando fa comodo a lei proprio per via della posizione dominante che ha, e questo e' chiaro e non pretendo che la gente comune se ne accorga, ma che anche gli appassionati non ci facciano caso mi fa girare le pa..e.
Quando i consumi non erano un granche' importanti -e non se ne capisce il perche'- nvidia se ne fregava e faceva chip potenti nel gpgpu -da lei lanciato in ambito gaming- mentre amd faceva chip piccoli con un efficienza inarrivabile persino dalla prossima release di maxwell, ed era l'epoca dei megachipponi, poi quando amd ha cambiato approccio e si e' avvicinata molto alle loro prestazioni -sbaragliandole persino nel gpgpu- loro hanno deciso che non era piu' il caso di pomparlo in ambito gaming e che a questo punto la cosa piu' importante erano i consumi -cioe' seriamente? nella fascia enthusiast?? ma chi ci crede???!- e allora via gpgpu che fino a ieri sbandieravano come la revolution e via di chippetti fatti praticamente con la stessa ottica delle ati 5800 per dire...e tutti a dire brava brava consumi meno e vai forte poi fotte sega se nel gpgpu fai schifo, gpgpu che tu hai annunciato come l'evoluzione del gaming ecc ecc..
SI CERTO COME NO solo fino a quando la concorrenza non arriva a fare cose migliori, a quel punto surprise: cambio di ottica e con me tutto il mercato perche' io ho piu' influenza su quest'ultimo spesso tramite politiche anche poco lecite..
Ora cerchiamo di essere onesti ogni volta che amd o ati e' arrivata a migliorarsi al punto da raggiungere nvidia o superarla e improvvisamente cambiato il campo di gioco secondo quello che faceva piu' comodo ad nvidia, mica ati o amd, ma questo avviene anche per colpa, merito, causa della posizione dominante che nvidia ha sempre avuto fin da quando ati e' comparsa sul mercato, e non parliamo di un paio di punti percentuale eh.
Quindi sempre due pesi due misure, in base a quello che conviene di piu' alle verdi..avranno visto come fa intel nel mercato dei processori con amd e hanno deciso che e' una tattica che paga :asd:
non sono d'accordo con il cambiare campo etc e anzi per dire meglio non è che non sono d'accordo ma non capisco proprio il senso di queste affermazioni, scusami...le società progettano i chip anni prima che escano sul mercato e con vari target in mente, per esempio in generale dopo Fermi nvidia è passata ad un approccio più "power driven" per parlare come quelli bravi, al contrario Amd ha scelto un'architettura, la GCN, che consuma più della precedente perchè "dice" fosse più facilmente integrabile nelle Apu per via della maggiore programmabilità etc.....non voglio mica dire che entrambe non guardino alla concorrenza, sarebbe assurdo sostenerlo, ma mica vale solo quello anzi....
francisco9751
29-11-2014, 12:32
ci vorrebbe solo.un po.piu di coerenza nel.mondo.
gente che fino a ieri aveva uno sli di gtx 580 e del consumo se ne sbatteva..poi oggi il consumo è diventato quasi la cosa piu importante. tenendo tra l altro alimentatoro da 1000w e più, per star larghi :asd:
oppure quando l anno scorso, 3gb erano piu che sufficienti, mentre ora 4gb addirittra son pochi e si aspetta il full chip,da 6 GB..
meglio non continuare
tapatalked with LG G2
Ale55andr0
29-11-2014, 12:56
io continuo a pensare che l'assordante silenzio di amd nei confronti della serie 900 non mi a pensar bene...nemmeno un "hey aspettate ci siamo anche noi" (come fece nvidia ai tempi della 7970 quando la 680 non era ancora pronta)
...a meno che in AMD non abbiano certezze e sicurezze su cose che noi non sappiamo...ma è una visione un "pelo" fanboystica e ottimistica della cosa :sofico:
appleroof
29-11-2014, 13:00
io continuo a pensare che l'assordante silenzio di amd nei confronti della serie 900 non mi a pensar bene...nemmeno un "hey aspettate ci siamo anche noi" (come fece nvidia ai tempi della 7970 quando la 680 non era ancora pronta)
...a meno che in AMD non abbiano certezze e sicurezze su cose che noi non sappiamo...ma è una visione un "pelo" fanboystica e ottimistica della cosa :sofico:
a parte appunto che non è detto che il silenzio sia negativo, secondo te quei test di chiphell non valgono nulla? Tanto non è mai successo che nvidia o amd (per esempio ricordo quando nvidia prima della 680 se la doveva vedere con la 580 contro una certa 7970) dicessero prima che uscisse il prodotto ufficialmente "hey aspettate" :D
francisco9751
29-11-2014, 13:07
fa silenzio perche non c è bisogno, la 970 cosa porta di nuovo???null,e una vga che va quanto lw vecchie,consumando meno,ma del consumo un enthusiast se nw frega,la 980 cosa va in piu??10%..non è un abisso,quindi..
io la vedo cosi
tapatalked with LG G2
capitan_crasy
29-11-2014, 13:19
già Cap, tralasciando che la scheda video alimentata con un volt scarso etc consuma da sola più di tutte le lampadine che ho in casa accese contemporaneamente :D (anche la 980 che ho adesso), lo dicevo anche io negli anni in cui la vliw non consumava nulla rispetto alle prestazioni (almeno da rv770 in poi) mentre la superscalare nvidia era un fornetto....
Carissimo apple ma assolutamente no!;)
Non puoi paragonare i Watt di una scheda video/CPU o qualunque altro componente dentro un case, tranne ovviamente all'alimentatore ma solo su quanto consuma in entrata (e non il valore nominale), con i Watt di una classica lampadina da 220v...
Poi per me che Nvidia consumi meno oppure AMD faccia schifo sono argomenti che lasciano il tempo che trovano, ma se vogliamo risparmiare sulla bolletta non stiamo a discutere su i watt di un componente come una scheda video ma in questo caso potremo partire dalla prima cosa che si attacca alla rete elettrica cioè l'alimentatore e la sua efficienza.
Gli stessi monitor, dove quelli classici LCD consumano anche il triplo di un monitor a led, oppure il fatto che all'alba del 2015 dobbiamo caricare tutti i santi giorni il nostro casso di smartphone/Tablet...
Insomma cerchiamo di essere pratici, leggere quanto i nostri elettrodomestici consumano a 220v, cercare quando compriamo oltre all'estetica anche l'effettivo consumo (che di solito è scritto sul retro), per magari risparmiare pochi euro all'anno oppure anche un tesoretto...
Ale55andr0
29-11-2014, 13:25
a parte appunto che non è detto che il silenzio sia negativo, secondo te quei test di chiphell non valgono nulla?
non do mai peso a test non ufficiali e li prendo per quel che sono: aria fritta
Pensa che ho persino rimostranze nei confronti di quelli ufficiali, quando ogni review spesso mostra anche risultati discretamente discordanti, figurati se potrei prender per buono del materiale come quello :stordita:
Tanto non è mai successo che nvidia o amd (per esempio ricordo quando nvidia prima della 680 se la doveva vedere con la 580 contro una certa 7970) dicessero prima che uscisse il prodotto ufficialmente "hey aspettate" :D
come no? nvidia per la 680 fece qualcosa di simile, commentando le prestazioni della 7970 tipo "eh credevo meglio" e invitando ad aspettare come a dire "noi faremo di più, vedrete", o almeno così ricordo io... che abbia sognato? :p
Ale55andr0
29-11-2014, 13:29
fa silenzio perche non c è bisogno, la 970 cosa porta di nuovo???null,e una vga che va quanto lw vecchie,consumando meno,ma del consumo un enthusiast se nw frega,la 980 cosa va in piu??10%..non è un abisso,quindi..
io la vedo cosi
tapatalked with LG G2
porta di nuovo prestazioni interessanti con un ribasso mostruoso in consumo, che se relazionato al fatto che è un chip economico e piccolo, pure a 28nm, conduce a considerazioni un filino interessanti in merito al potenziale delle future gpu top di gamma nvdia, che non potranno che essere mostruose con queste premesse. Dovessi fare lo stesso discorso con l'attuale architettura di amd il discorso sarebbe ben diverso...
appleroof
29-11-2014, 13:34
Carissimo apple ma assolutamente no!;)
Non puoi paragonare i Watt di una scheda video/CPU o qualunque altro componente dentro un case, tranne ovviamente all'alimentatore ma solo su quanto consuma in entrata (e non il valore nominale), con i Watt di una classica lampadina da 220v...
Poi per me che Nvidia consumi meno oppure AMD faccia schifo sono argomenti che lasciano il tempo che trovano, ma se vogliamo risparmiare sulla bolletta non stiamo a discutere su i watt di un componente come una scheda video ma in questo caso potremo partire dalla prima cosa che si attacca alla rete elettrica cioè l'alimentatore e la sua efficienza.
Gli stessi monitor, dove quelli classici LCD consumano anche il triplo di un monitor a led, oppure il fatto che all'alba del 2015 dobbiamo caricare tutti i santi giorni il nostro casso di smartphone/Tablet...
Insomma cerchiamo di essere pratici, leggere quanto i nostri elettrodomestici consumano a 220v, cercare quando compriamo oltre all'estetica anche l'effettivo consumo (che di solito è scritto sul retro), per magari risparmiare pochi euro all'anno oppure anche un tesoretto...
Buh io sapevo che 250w sono 250w, non credevo ci fossero varie tipologie di watt, di qualità diversa :p
per il resto siamo lì appunto, tu dici me ne frego del consumo e ci può stare benissimo, questo non si può sindacare (infatti ho preso un 5820k fregandomene che consuma un botto, le mie esigenze erano diverse che risparmiare sul wattaggio in questo caso) ma un chip si giudica oggettivamente attraverso vari parametri tra cui il consumo etc (per rimanere nell'esempio, giudichi oggettivamente migliore un 5820k a 140W di tpd o un ipotetico 6820k a uguali o addirittura migliori prestazioni ma con 70w di tdp?)...tocca distinguere soggettivo da oggettivo mi spiego? ;)
non do mai peso a test non ufficiali e li prendo per quel che sono: aria fritta
Pensa che ho persino rimostranze nei confronti di quelli ufficiali, quando ogni review spesso mostra anche risultati discretamente discordanti, figurati se potrei prender per buono del materiale come quello :stordita:
eppure molto speso ci beccano perchè alcuni siti hanno ES a disposizione, basta vedere a ritroso le prestazioni al lancio con quelle fatte vedere in alcuni rumors, certo in questi ultimi c'è il marasma per cui i rumors vanno presi sempre con le pinze ma qualche indicazione la danno e come detto spesso su chiphell (mai sentito cmq il tipo che ha postato i test a dire la verità, prima faceva fede un tale Napoleon) ci beccano
come no? nvidia per la 680 fece qualcosa di simile, commentando le prestazioni della 7970 tipo "eh credevo meglio" e invitando ad aspettare come a dire "noi faremo di più, vedrete", o almeno così ricordo io... che abbia sognato? :p
azz hai ragione, fecero gli sboroni :stordita:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.