PDA

View Full Version : C'è Samsung, ma non solo, dietro le future GPU di AMD


Redazione di Hardware Upg
22-12-2015, 10:58
Link alla notizia: http://www.businessmagazine.it/news/c-e-samsung-ma-non-solo-dietro-le-future-gpu-di-amd_60025.html

Nel corso del 2016 vedremo al debutto le GPU AMD basate su architettura di nuova generazione, molto attese per il rilancio dell'azienda nel settore delle schede video. Tecnologia produttiva a 14 nanometri, con produzione concessa a Samsung

Click sul link per visualizzare la notizia.

Nhirlathothep
22-12-2015, 11:23
Sarebbe un sogno un' acquisizione da parte di Samsung di AMD, ma questo non c'entra nulla con la news :)

aald213
22-12-2015, 11:38
Sarebbe un sogno un' acquisizione da parte di Samsung di AMD, ma questo non c'entra nulla con la news :)

Beh, non è detto ;)

Non è raro che una grande azienda acquisisca una piú piccola per avere un'integrazione verticale; produrre i chip potrebbe essere il primo passo, in questo caso.

In linea teorica, Samsung potrebbe acquisire AMD o il ramo GPU di questa.

In generale, si deve esaminare il management. AMD sta precipitando perché a un certo punto dello sviluppo non è stata più gestita bene (ci sono post interessanti in giro con i dettagli sulla storia); non è detto però che un'azienda come Samsung migliori necessariamente la situazione, considerando che nel mercato dove ha piú successo, il marketing è di gran lunga più importante di quanto lo sia in quello delle GPU.

Poi, per carità, magari un'iniezione di capitale potrebbe cambiare radicalmente la situazione dall'oggi al domani. Se per esempio da domani tutti i modelli di fascia media/bassa diventassero magicamente Fiji XT, il mercato verrebbe stravolto, dato che quest'architettura ha consumi concorrenziali con Maxwell (vale a dire, *non* quelli di una stufa elettrica ;)).

AlexSwitch
22-12-2015, 12:10
Sicuramente una buona notizia per AMD vista l'ottima reputazione di Samsung come fonderia.... Se poi AMD riuscisse a strappare un accordo per produrre anche le CPU e le APU Zen sarebbe il top... GF ha dimostrato spesso di non essere all'altezza delle aspettative....

CrapaDiLegno
22-12-2015, 12:12
Se per esempio da domani tutti i modelli di fascia media/bassa diventassero magicamente Fiji XT, il mercato verrebbe stravolto, dato che quest'architettura ha consumi concorrenziali con Maxwell
Direi di no.
Fiji compete con Maxwell solo perché adotta le HBM che fanno risparmiare molti W. Insieme all'uso di un dissipatore a liquido che mantiene le temperature basse, i consumi vengono contenuti di molto. Ma l'architettura Fiji, intesa come la GCN1.3 là implementata è ben lungi dall'essere efficiente quanto lo è Maxwell.
Il lato negativo per AMD nel voler fare una scheda (non la sola GPU) che consuma quanto una scheda nvidia di pari prestazioni è nei costi. L'HBM non è regalata, e il dissipatore nemmeno, per cui non vedrai mai l'architettura completa usata con Fiji nella fascia medio/bassa.
La sola architettura del core della GPU usata in Fiji nel mercato medio basso già esiste da molto tempo: Tonga. GPU usata per la 380 e 380X.
Direi che ha poco di efficiente quando la compari a una GPU come il GM206 montato nella 960.

E' più facile, visti i costi, che sia nvidia ad adottare una GPU tipo il GM204 come mainstream (come faceva un tempo) piuttosto che AMD con una GPU analoga in dimensioni (e costi di produzione). Quella sarebbe la svolta, ovvero la morte istantanea di AMD.

Totix92
22-12-2015, 12:32
Sarebbe un sogno un' acquisizione da parte di Samsung di AMD, ma questo non c'entra nulla con la news :)

spero di no, AMD si riprenderà, non ha bisogno di essere acquisita da nessuno.

Direi di no.
Fiji compete con Maxwell solo perché adotta le HBM che fanno risparmiare molti W. Insieme all'uso di un dissipatore a liquido che mantiene le temperature basse, i consumi vengono contenuti di molto. Ma l'architettura Fiji, intesa come la GCN1.3 là implementata è ben lungi dall'essere efficiente quanto lo è Maxwell.
Il lato negativo per AMD nel voler fare una scheda (non la sola GPU) che consuma quanto una scheda nvidia di pari prestazioni è nei costi. L'HBM non è regalata, e il dissipatore nemmeno, per cui non vedrai mai l'architettura completa usata con Fiji nella fascia medio/bassa.
La sola architettura del core della GPU usata in Fiji nel mercato medio basso già esiste da molto tempo: Tonga. GPU usata per la 380 e 380X.
Direi che ha poco di efficiente quando la compari a una GPU come il GM206 montato nella 960.

E' più facile, visti i costi, che sia nvidia ad adottare una GPU tipo il GM204 come mainstream (come faceva un tempo) piuttosto che AMD con una GPU analoga in dimensioni (e costi di produzione). Quella sarebbe la svolta, ovvero la morte istantanea di AMD.

non sono molto d'accordo, AMD di recente ha aumentato non di poco il rapporto consumi/prestazioni delle sue gpu, le nuove R7/R9 serie 300 consumano meno rispetto alle prececedenti, vedi la r7 370 che non è altro che una r7 265 però la prima ha un tdp un po' inferiore e consuma un po' meno, stessa cosa la r9 285 in confronto alla r9 380 e quest'ultima in game consuma non più di 30/40W in più alla gtx960 ma è anche più veloce, non mi sembra che sia una tragedia, e questo è dovuto all'affinamento del processo produttivo 28nm da parte di TSMC

P.S.
non esiste nessuna GCN 1.3
l'ultima revisione di GCN è 1.2 la stessa che usa Tonga e Fiji

AlexSwitch
22-12-2015, 13:00
spero di no, AMD si riprenderà, non ha bisogno di essere acquisita da nessuno.



non sono molto d'accordo, AMD di recente ha aumentato non di poco il rapporto consumi/prestazioni delle sue gpu, le nuove R7/R9 serie 300 consumano meno rispetto alle prececedenti, vedi la r7 370 che non è altro che una r7 265 però la prima ha un tdp un po' inferiore e consuma un po' meno, stessa cosa la r9 285 in confronto alla r9 380 e quest'ultima in game consuma non più di 30/40W in più alla gtx960 ma è anche più veloce, non mi sembra che sia una tragedia, e questo è dovuto all'affinamento del processo produttivo 28nm da parte di TSMC

Speriamo di no per motivi di concorrenza con Intel e nVidia ( meno ).... Però l'attuale situazione economica di AMD la rende vulnerabile a scenari di questo tipo. Più volte è stata vociferata l'intenzione di MS di acquisire la divisione CPU e APU per sviluppare da cima a fondo i suoi prodotti Surface e le sue future console xBox...

Se la nuova architettura Zen si dimostrerà valida e AMD avrà fiato fino a metà del 2017 ( periodo in cui si prevede una lineup completa tra CPU e APU ), quasi sicuramente ci sarà una svolta positiva. Altrimenti saranno grossi dolori...

CrapaDiLegno
22-12-2015, 13:35
Che la GCN 1.3 sia migliore in efficienza della GCN1.0 e GCN1.2 non vi sono dubbi. Che l'affinamento del processo produttivo abbia ulteriormente migliorato le cose (anche per la GCN1.2) è altrettanto vero.
Ma se consideri un passo quello che AMD ha fatto dalla presentazione di Tahiti a Fiji, la concorrenza ne ha fatti 3 tra Kepler e Maxwell. E già con Kepler era mezzo passo avanti.

Affermare che AMD si riprenderà e non ha bisogno di essere acquistata è un bell'azzardo. Io oggi, se avessi 10.000 euro in mano, non andrei a comprarne le azioni. Magari tra 3 anni mi pentirò della cosa (come successe con Apple ai tempi in cui le sue azioni valevano meno di un rotolo di carta igienica), ma OGGI con i dati che abbiamo, non ispira molta fiducia la posizione sul mercato e finanziaria di AMD, con market share in continua diminuzione e margini in costante diminuzione in tutti i campi in cui opera e sopratutto, con prodotti che da una parte non hanno convinto (GPU) e dall'altra arriveranno tra diversi mesi (CPU e nuove GPU).

E' all'ultima spiaggia. Ultima possibilità. DEVE fare GPU ottime con il prossimo PP e DEVE sfornare un'architettura ZEN al passo con la concorrenza. Scommettere oggi che si riprenderà è un azzardo come puntare su un numero della roulette russa tutto il proprio futuro. Se vinci sei a posto. Altrimenti...

Titanox2
22-12-2015, 13:35
hype per la copiatura delle schede nvidia

CrapaDiLegno
22-12-2015, 13:40
Correggo, scusate.
GCN1.3 non esiste. L'ultima è la GCN 1.2. Fiji è GCN 1.2, come Tonga. Hawaii GCN 1.1 e Tahiti GCN 1.0.
Scusate per la confusione.

CrapaDiLegno
22-12-2015, 13:47
Non sono sul forum, per cui non posso editare i messaggi precedenti, ma Bivvoz, non puoi guardare i consumi di FurMark per capire quanto una scheda sia migliore di un'altra.
FurMark è un bench che non fa lavoro vero misurabile, serve solo per stressare la GPU al suo massimo e TUTTI i produttori hanno un limite SW imposto sui consumi con quel benchmark. Dato il benchmark non sai se con 260W la 960 fa il triplo o 1/3 del lavoro della 380 che consuma 280W.
Guarda i consumi durante un lavoro misurabile:
http://images.anandtech.com/graphs/graph9784/78761.png
Non mi sembra che l'efficienza di Tonga sia così grande. Consuma quanto una 970, una fascia di prestazioni sopra.
Poi confronta le prestazoni della 660 con la 960 che consumano esattamente uguali e vedi quale progresso è stato fatto da Kepler a Maxwell comparandole con quello realizzato da AMD tra Tahiti e Tonga (suo successore).

Totix92
22-12-2015, 14:00
state dimenticando che le 380 consumano più delle gtx960 sia perché hanno più potenza bruta sia perché le nvidia a differenza delle amd hanno le prestazioni nei calcoli professionali castrate, infatti nel gpgpu le nvidia a parità di fascia di prezzo vanno 1/4 rispetto ad amd, se anche amd tagliasse le prestazioni nel gpgpu allora anche le loro schede consumerebbero quanto le nvidia se non meno.

Kommodore64
22-12-2015, 14:08
Infatti la cosa sorprendente (ormai non più di tanto) è che la R9 380 consumi quanto una GTX 970.
Anzi in realtà in situazione di FULL STRESS (che comunque non andranno mai) consuma anche più della GTX 980:
http://www.guru3d.com/articles_pages/asus_radeon_r9_380_strix_review,5.html
Da questo punto di vista la serie 900 di NVIDIA è eccezionale e non ha rivali.
Poi quel che ha detto Totix92 è anche vero, ma attualmente ai fini del gaming non ha rilevanza, quindi sono d'accordo più con la direttiva NVIDIA da questo punto di vista.
EDIT: meglio ottimizzare i consumi per quanto riguarda l'ambito videoludico, in ambito professionale invece è un altro discorso.

CrapaDiLegno
22-12-2015, 14:14
La solita questione (e leggenda metropolitana) dei "calcoli professionali".
A parte che nessun gioco usa i "calcoli professionali", per cui averli o meno non serve a nulla. Poi, con GCN 1.2 anche AMD ha ridotto all'osso la sua capacità di calcoli DP (64bit). Passata da 1/4 rispetto ai calcoli FP con GCN1.0 è arrivata a 1/24 (HW, non limitato dal SW) con GCN 1.2. Quindi non tanto diversa dall'1/32 usati da nvidia. Ovvero, nessuna di queste GPU è utile per fare nulla con i "calcoli professionali".

Il GPGPU non è solo calcolo con valori a 64bit. C'è molto altro dietro. E infatti nvidia vende diverse schede Tesla (sì, quelle per il "calcolo professionale") che sono basate su GPU senza capacità 64bit (ovvero con capacità 64bit ridotta all'osso e quindi non utilizzabile). E nessuna GPU nvidia va 1/4 rispetto alla relativa della concorrenza. Altrimenti il mercato professionale sarebbe invertito e le Titan non venderebbero, non ti sembra?

rockroll
22-12-2015, 14:18
Sarebbe un sogno un' acquisizione da parte di Samsung di AMD, ma questo non c'entra nulla con la news :)

Per me è un sogno possibile, e lo preconizzai in tempi non sospetti.
La news per me c'entra almeno un po', fa comunque ben sperare.

Ma più che un sogno lo definirei un'opportunità per ambedue i soggetti, quindi più che un'acquisizione vedrei una partnership. Sono troppo ottimista?
La verità è che non vedo l'ora che qualcuno dia del filo da torcere ad Intel o meglio a Wintel (e magari una lezioncina anche a WINidia).
Combutta per combutta, non è vietato pensare a SAMDung+Linux, questo si sarebbe un sogno, e sognare non costa... forza LINSAMDUNG...

Kommodore64
22-12-2015, 14:22
Comunque guardano parecchie recensioni mi pare che in molti casi la 380x ha prestazioni superiori alla 960 e consuma proporzionalmente di più.
In altri casi invece no la 960 va uguale consumando meno.
Bisogna vedere in linea generale: la 380X è mediamente superiore alla 960, poi è normale che in qualche gioco può andare meglio la 960, ma è il solito discorso che in alcuni và meglio AMD e in altri NVIDIA.
In realtà anche la 380 và meglio della 960 ma sono più vicine, è proprio la 960 che non mi piace molto come scheda perchè è più distante dalla concorrenza.
Anche per i consumi bisogna vedere a livello generale e qui invece la 960 è più contenuta nei consumi:
http://www.guru3d.com/articles_pages/gigabyte_geforce_gtx_960_g1_gaming_4gb_review,7.html
http://www.guru3d.com/articles_pages/asus_radeon_r9_380_strix_review,5.html
Secondo me la situazione è esattamente come fury x vs 980ti e il recupero di efficienza non è dato dalle HBM.
Secondo me invece le HBM possono dare un grosso aiuto da questo punto di vista in ottica futura.
Comunque anche tra queste due schede video c'è differenza:
http://www.guru3d.com/articles_pages/nvidia_geforce_gtx_980_ti_review,8.html
http://www.guru3d.com/articles_pages/amd_radeon_r9_fury_x_review,10.html

CrapaDiLegno
22-12-2015, 14:25
Secondo me la situazione è esattamente come fury x vs 980ti e il recupero di efficienza non è dato dalle HBM.
A me non sembra proprio. Le schede Fury (perché parlare di sola GPU quando hai le HBM integrate non ha senso) consumano solo marginalmente di più rispetto alle GTX980Ti. Le schede basate su Tonga assolutamente no. Consumano di più e tanto di più. Stiamo parlando dai 60 agli 70W in più su un TDP che è di 120W per la scheda nvidia. Ovvero il 50% in più. E non è poco se si vuole fare un confronto tra architetture. Se poi uno dice che 60W non sono nulla in senso assoluto, allora non ha senso stare qui a chiedersi perché AMD ha perso la metà del suo mercato da quando ha introdotto GCN.

come possa essere affidabile un test di consumo dove la 980gtx consuma meno della 970gtx
I consumi delle schede non sono oro colato. Dipende molto dalla qualità della GPU montata (chi si ricorda dello scandalo delle 290X date alle redazioni che erano diverse da quelle in vendita nel negozi?) e quindi, visto che si parla di GPU uguali con una leggermente castrata rispetto alla seconda, è possibilissimo che i consumi siano sovrapponibili, anche perché si castrano le GPU meno riuscite, quindi che possono avere problemi anche lato consumi, non necessariamente nelle unità di calcolo o funzionali in genere. Se vedi spesso le sorelle maggiori hanno TDP che sono uguali alle sorelle castrate mica per niente. Quella GPU montata sulla 970 se messa nelle condizioni di lavorare come una 980 probabilmente consumerebbe molto di più della 980 che è recensita.

Kommodore64
22-12-2015, 14:33
Imho è un modo imbecille di calcolare il consumo di una gpu quello. :)
Secondo me invece è un ottimo modo per vedere a livello generale (e non particolare quindi andando a vedere ogni singolo gioco, altrimenti bisognerebbe fare una media apporissimativa di tutti i giochi nello stesso test, quindi un pò troppo elaboriosa) come si comporta effettivamente una scheda video a livello di consumi.
Poi stiamo pur parlando di Guru3D :).

calabar
22-12-2015, 14:43
Ma piuttosto... com'è che ora una commessa di stamperia è diventata una "collaborazione"?
O mi sono perso qualcosa e l'intervento di Samsung è di diverso tipo?

Piedone1113
22-12-2015, 14:51
Ma piuttosto... com'è che ora una commessa di stamperia è diventata una "collaborazione"?
O mi sono perso qualcosa e l'intervento di Samsung è di diverso tipo?
Perchè AMD, Samsung, STM, Ibm collaborano da molto tempo sui processi HP.

Riguardo Efficenza e Consumo di un'architettura rispetto ad un'altra bisognerebbe considerare non solo il consumo della vga, ma di tutto il sistema:
Se Vga A consuma 100 per fare un lavora non per forza è più efficente della vga B che consuma 110 per fare lo stesso lavoro.
Perchè se il resto del sistema della Vga A consuma 110, mentre quello della VGA B consuma 100 l'efficenza sarebbe simile

bonzoxxx
22-12-2015, 14:58
beh direi che samsung come fonderia sforni roba di ottima fattura, quindi in teoria AMD dovrebbe tirar fuori prodotti che, almeno sulla carta, saranno buoni.

Staremo a vedere :)

Kommodore64
22-12-2015, 15:01
Riguardo Efficenza e Consumo di un'architettura rispetto ad un'altra bisognerebbe considerare non solo il consumo della vga, ma di tutto il sistema:
Praticamente come fà Guru3D: ecco perchè si prende in considerazione test fatti con gli stessi settaggi e con lo stesso sistema tranne appunto la VGA che viene cambiata di volta in volta, dove viene calcolata appunto il consumo di tutta la configurazione in un determinato momento (che può essere di idle, load o di stress).

aald213
22-12-2015, 15:24
Secondo me invece è un ottimo modo per vedere a livello generale (e non particolare quindi andando a vedere ogni singolo gioco, altrimenti bisognerebbe fare una media apporissimativa di tutti i giochi nello stesso test, quindi un pò troppo elaboriosa) come si comporta effettivamente una scheda video a livello di consumi.
Poi stiamo pur parlando di Guru3D :).

Non hai le idee molto chiare.

Furmark misura il consumo massimo, che non ha nulla a che vedere con l'efficienza di una scheda.

Se una scheda, diciamo Pizza XT, ha lo stesso TDP di Pizza SL, ma è efficiente il doppio, per Furmark avranno gli stessi consumi... che ti puoi stampare sulla carta igienica.

CrapaDiLegno
22-12-2015, 15:40
Praticamente come fà Guru3D
Ni, perché Guru3D cerca di estrapolare il consumo della sola VGA dal consumo dell'intero sistema usando per altro uno stress test che non ha alcun significato (ed è controllato nei consumi via SW dai vari driver e BIOS).
Anandtech per esempio dà il consumo dell'intero sistema, usando sempre lo stesso test (Crysis 3), che è un test a caso tra i mille possibili e dà indicazione di quello che è il consumo della scheda quando fa qualcosa "di utile" e misurabile, non un test che attiva tutto e serve (o serviva) solo a mostrare qual è il limite massimo che la scheda può raggiungere con i consumi. Dico serviva perché come ho già detto più volte i driver insieme al BIOS regolano il livello di consumo di questo test secondo come vuole il produttore della scheda. Può benissimo fargli consumare 100W che tanto nessuno si accorgerebbe di nulla, visto che non c'è misura di prestazioni associate.

Poi se Crysis 3 non è il meglio per questa o per quella architettura non fa assolutamente niente. Non è la differenza del 5% di performance di un sistema ottimizzato che conta qui. Conta capire quanto realmente consuma la GPU mentre fa il lavoro per cui è pensata. 10W in più o in meno, non sono quelli il problema (visto anche la variabilità dei consumi tra GPU uguali). Se invece di Crysis usavano, chessò, Tomb Raider non è che la 380 consumava di meno della 960. Consumava uguale. Solo che magari faceva qualche FPS in più e quindi l'efficienza risultava leggermente diversa.
Non capisco come si faccia a prendere questi benchmark e analizzarli con la virgola quando ci sono mille mila variabili in gioco. Sono una misura di massima dei consumi delle schede in particolari condizioni (pure su banchetti in ambienti a temperatura controllata e non in case chiusi nelle vostre camere) che dicono più o meno come funziona questa o quella scheda. Senza stare a prendere il caso estremo (e specifico) dove si fanno 5 frame e si consumano 300W o si fanno 200 frame e si consumano 30W, con un test "normale" si misurano le prestazioni "normali" di una scheda, con qualche variabilità aggiunta che nessuno mai considera (Guarda c'è il virgola 1 che la rende più veloce/più efficiente!).

In nessun test che ho visto le architetture AMD hanno raggiunto in efficienza quelle nvidia, neanche considerando i casi migliori. La situazione è migliorata ma solo rispetto alla architettura GCN 1.0, perché se AMD ha fatto 1 passo avanti, Maxwell ne ha fatti 3 e AMD è indietro ancora un pezzo, sebbene abbia tentato la mossa HBM per cercare di pareggiare i conti.
GCN 1.2 non è alcun miracolo e gode proprio di quel "vantaggio" che si accusa nvidia di avere, cioè la riduzione del "calcolo professionale". Se poi ci si abbina la HBM che permette di risparmiare parecchi W in confronto a 6GB@7GHz allora sembra che sia un capolavoro (rispetto a quanto fatto precedentemente).
Ma non è così. E' solo poco più efficiente. Troppo poco però per impensierire nvidia che pareggia le prestazioni con GPU più piccole e meno affamate di corrente.
nvidia in questo giro ha fatto la tripletta come in F1:
migliori prestazioni a parità di area
migliori consumi a parità di prestazioni
da cui minori costi a parità di prestazioni (che definiscono la fascia di appartenenza di una GPU) e quindi maggiori guadagni.

Quindi si spera che AMD il prossimo giro, Samsung sì, Samsung no, si dia una svegliata e sforni qualcosa che vale la pena essere pagato per quel che vale e non lo si prende in considerazione solo perché è svenduto. Lo dico per evitare che il buco di bilancio di AMD diventi ancora più grande di quanto è oggi. E faccia smettere nvidia di vendere chippetti da fascia mainstream in fascia alta.

Kommodore64
22-12-2015, 15:41
Non hai le idee molto chiare.
Probabile che tu non le hai oppure non leggi quello che uno posta.
Ho messo dei test fatti da Guru3D che fanno vedere quanto consumano le schede in Full Stress, da li si può vedere facilmente quali sono le schede che consumano di meno e quelle che consumano di più.
Ovviamente le schede che consumano di meno ma con medesime performance delle altre che consumano di più sono quelle più efficienti, cioè schede che lavorano meglio con il minor consumo.
Per cui da questo test e non solo si evince che la serie 900 NVIDIA sono le più efficienti in circolazione.

Kommodore64
22-12-2015, 15:49
Ni
Si ma vedere un test fatto su un solo gioco non può essere cosiderato a livello generale, bisognerebbe prendere molti più giochi e fare una media complessiva.
Quello di Guru3D evidenzia il massimo consumo che può fare un sistema in Full Stress (che poi tale caso non avverrà mai siamo tutti d'accordo), però è un modo per vedere la cosa più a livello generale, altrimenti come dicevo bisognerebbe fare una media di molti giochi per generalizzare la cosa e non è molto praitca.

Mparlav
22-12-2015, 16:15
Una situazione inedita: avremmo una competizione anche dal punto di vista del processo produttivo e Samsung ha tutto l'interesse nel battere TSMC.

Il 2016 potrebbe essere un'anno davvero interessante per le gpu.

Kommodore64
22-12-2015, 16:17
Il 2016 potrebbe essere un'anno davvero interessante per le gpu.
Concordo, anche per via delle HBM (HBMv2).

Kommodore64
22-12-2015, 17:23
Dove l'hai presa questa informazione?
Credevo che le rendevano disponibili per tutte le fasce o almeno dalla media in sù.

serbring
22-12-2015, 17:26
Beh, non è detto ;)

Non è raro che una grande azienda acquisisca una piú piccola per avere un'integrazione verticale; produrre i chip potrebbe essere il primo passo, in questo caso.

In linea teorica, Samsung potrebbe acquisire AMD o il ramo GPU di questa.

In generale, si deve esaminare il management. AMD sta precipitando perché a un certo punto dello sviluppo non è stata più gestita bene (ci sono post interessanti in giro con i dettagli sulla storia); non è detto però che un'azienda come Samsung migliori necessariamente la situazione, considerando che nel mercato dove ha piú successo, il marketing è di gran lunga più importante di quanto lo sia in quello delle GPU.

Poi, per carità, magari un'iniezione di capitale potrebbe cambiare radicalmente la situazione dall'oggi al domani. Se per esempio da domani tutti i modelli di fascia media/bassa diventassero magicamente Fiji XT, il mercato verrebbe stravolto, dato che quest'architettura ha consumi concorrenziali con Maxwell (vale a dire, *non* quelli di una stufa elettrica ;)).

sapresti linkarmene uno al volo? grazie

Kommodore64
22-12-2015, 18:12
Si potrebbe essere media e alta con hbm e bassa con gddr, che poi la fasce sono più di tre.
OK. Si ci sono medio-alta, medio-bassa, oppure molto alto o molto basso ... insomma poi si generalizza.
Edit: Gddr5x non 6
http://www.hwupgrade.it/news/skvideo/lo-standard-gddr5x-accanto-a-quello-hbm-nel-futuro-delle-schede-video_59368.html
Thx mi era sfuggita.

brunposta
23-12-2015, 01:12
Ma quando arrivano queste benedette GPU a 14 nm???
Sui cellulari e proci e' un anno che ci sono...
Ho deciso di non cambiare GPU fino a che non arrivino quelle a 14nm (magari con le memorie HBM...), ma che attesa!
Spero solo che ci siano in contemporanea con il FOVE per la realta virtuale