PDA

View Full Version : Specifiche tecnche, non ufficiali, per le schede AMD Radeon con GPU Fiji


Redazione di Hardware Upg
11-06-2015, 09:01
Link alla notizia: http://www.hwupgrade.it/news/skvideo/specifiche-tecnche-non-ufficiali-per-le-schede-amd-radeon-con-gpu-fiji_57623.html

Stream processors che toccano quota 4.096, per prestazioni velocistiche sempre più elevate ma con una certa attenzione all'efficienza energetica: questi i dati d sintesi delle nuove GPU top di gamma che AMD si appresta a introdurre sul mercato

Click sul link per visualizzare la notizia.

cignox1
11-06-2015, 09:17
Nostalgia mode ON: dal 1996 circa ho seguito con grandissimo interesse lo sviluppo delle schede video: le mitiche 3dfx, le TNT, le geForce (!), la nascita del HW T&L, del vertex e poi pixel shader, del passaggio all'illuminazione unificata e il per pixel lighting etc etc.

Devo dire che peró l'ultima generazione alla quale mi sono davvero interessato é stata la HD4xxx, per via dello straordinario rapporto prezzo/prestazioni che avea la HD4870 (e anche la HD4850 non era male). Di recente mi pare molto stagnante il mercato, non si capiscono piú quali sono le nuove schede e quali i rebrand, il miglioramento prestazionale nei confronti della generazione precedente é sempre piú basso e l'uso da parte dei giochi sempre meno attento (merito delle console, ma anche dei motori grafici diventati assurdamente complessi).

Aspetto da tempo qualche vera rivoluzione, come lo furono i vertex/pixel shader, ad esempio tramite l'introduzione di specifiche componenti per il raytracing, ma per adesso nisba. Peccato.

Fine rant :-(

demon77
11-06-2015, 09:35
Nostalgia mode ON: dal 1996 circa ho seguito con grandissimo interesse lo sviluppo delle schede video: le mitiche 3dfx, le TNT, le geForce (!), la nascita del HW T&L, del vertex e poi pixel shader, del passaggio all'illuminazione unificata e il per pixel lighting etc etc.

Devo dire che peró l'ultima generazione alla quale mi sono davvero interessato é stata la HD4xxx, per via dello straordinario rapporto prezzo/prestazioni che avea la HD4870 (e anche la HD4850 non era male). Di recente mi pare molto stagnante il mercato, non si capiscono piú quali sono le nuove schede e quali i rebrand, il miglioramento prestazionale nei confronti della generazione precedente é sempre piú basso e l'uso da parte dei giochi sempre meno attento (merito delle console, ma anche dei motori grafici diventati assurdamente complessi).

Aspetto da tempo qualche vera rivoluzione, come lo furono i vertex/pixel shader, ad esempio tramite l'introduzione di specifiche componenti per il raytracing, ma per adesso nisba. Peccato.

Fine rant :-(

Probabilmente abbiamo circa la stessa età perchè anche io come te ho visto nascere ed evolversi la tecnologia 3d delle gpu e negli anni ho avuto 3dfx, Matrox, Nvidia e Radeon..
E hai ragione, ultimamente non si vedono le importanti rivoluzioni che si sono viste in passato ma bisogna anche mettere in conto che non è più "semplice" come lo è stato prima.. di strada ne hanno fatta tantissima e le attuali GPU con le tecnologie disponibili hanno già una efficienza davvero notevole.

Per i "rebrand" me ne frego pesantemente, de devo scegliere una GPU mi cerco una bella comparativa e parlano i grafici, i nomi neanche li guardo.

Sflao
11-06-2015, 09:42
ipotizzo

FURY X raffreddata a liquido per 800-850dollari un concorrente per la Titan X
FURY X hair cooled per 650-700dollarie questa va contro la 980Ti
FURY per 500 - 550 e questa contro la 980 liscia


Peccato per i 4GB perchè vedo molti commenti negativi (su OC.NET), solite paranoie che non ce la farà in futuro, sarà limitata dalla vram ecc ecc

Sflao
11-06-2015, 09:45
mi sbilancio anche per le prestazioni...

la FURY XT liquidata è fatta per battere la TITAN X , il modello X ad aria per battere o far pari con la 980 TI, mentre il FURY liscio per battere la 980 liscia.

Alekos Panagulis
11-06-2015, 10:00
ipotizzo

FURY X raffreddata a liquido per 800-850dollari un concorrente per la Titan X
FURY X hair cooled per 650-700dollarie questa va contro la 980Ti
FURY per 500 - 550 e questa contro la 980 liscia


Peccato per i 4GB perchè vedo molti commenti negativi (su OC.NET), solite paranoie che non ce la farà in futuro, sarà limitata dalla vram ecc ecc

Ma LOL :sbonk:

Ale55andr0
11-06-2015, 10:00
la 980ti, va praticamente uguale alla titan x per via del boost, avolte anche emglio, ergo se la versione ad <ria è fatta per scontrarsi con la 980ti automaticamente se la giocherebbe con la titan x, per forza

Noir79
11-06-2015, 10:05
Nostalgia mode ON: dal 1996 circa ho seguito con grandissimo interesse lo sviluppo delle schede video: le mitiche 3dfx, le TNT, le geForce (!), la nascita del HW T&L, del vertex e poi pixel shader, del passaggio all'illuminazione unificata e il per pixel lighting etc etc.

Devo dire che peró l'ultima generazione alla quale mi sono davvero interessato é stata la HD4xxx, per via dello straordinario rapporto prezzo/prestazioni che avea la HD4870 (e anche la HD4850 non era male). Di recente mi pare molto stagnante il mercato, non si capiscono piú quali sono le nuove schede e quali i rebrand, il miglioramento prestazionale nei confronti della generazione precedente é sempre piú basso e l'uso da parte dei giochi sempre meno attento (merito delle console, ma anche dei motori grafici diventati assurdamente complessi).

Aspetto da tempo qualche vera rivoluzione, come lo furono i vertex/pixel shader, ad esempio tramite l'introduzione di specifiche componenti per il raytracing, ma per adesso nisba. Peccato.

Fine rant :-(

Non dimenticheró mai la prima volta che ho giocato a Wipeout 2097 e MechWarrior II sulla mia Matrox Mystique 4Mb.

Ah, MechWarrior II... é tempo di ascoltare di nuovo la colonna sonora (https://www.youtube.com/watch?v=GM3MwpkVYKQ&list=PL4D181744DE1094BA&ab_channel=Trappe1983)!

gd350turbo
11-06-2015, 10:05
In teoria..

Ma c'è da vedere nella realtà dei fatti...
tanto ormai i giochi sono fatti, mancano 5 giorni alla presentazione ufficiale, quindi come si dice "le balle stanno in poco posto !"

Sflao
11-06-2015, 10:11
la 980ti, va praticamente uguale alla titan x per via del boost, avolte anche emglio, ergo se la versione ad <ria è fatta per scontrarsi con la 980ti automaticamente se la giocherebbe con la titan x, per forza

ma infatti la versione ad aria è proibabile che arriva alla titan X.
e mentre la versione liquidata con clock più spinto la batterà.
d'altronde amd ha visto come vanno le Nvidia, e di conseguenza ha avuto tutto il tempo per regolare le frequenze delle sue FURY per farle andare un poco più... deve essere così anche perchè se la versione pompata con tanto di raffreddamento a liquido non battesse la Titan X sarebbe deludente.

La mia ipotesi è che andranno un filo di più magari consumando di più e con il punto debole della poca VRAM.
la FURY liscia per le potenzialità che ha (è quasi uguale alla FURY X) se davvero avesse un prezzo leggermente più alto della 980 liscia sarebbe la miglior scelta come prezzo prestazioni.

_Zood_
11-06-2015, 10:16
Vedo che tutti si lamentano dei "soli" 4Gb di memoria HBM, che per il 4k non bastano.. Ma ditemi un attimo ma quanti di noi giocano davvero in 4k? Il 10%? O anche molto meno? Senza contare quanti di quelli si lamentano del down scaling che va male e a parte in game non ne vale la pena? Credo di affermare con certezza che almeno il 60% dei giocatori sta ancora con i 1080, quindi take it easy e vediamo prima di giudicare come saranno queste Fury. Senza contare che chi prende schede di fascia alta le cambia regolarmente almeno ogni due anni, se non alcuni mesi dopo il loro rilascio..quindi prima che il 4k prenda effettivamente piede passerà ancora qualche annetto :)

gd350turbo
11-06-2015, 10:20
a 1080, anche con 3 gb, si vive bene !

Sflao
11-06-2015, 10:20
Ma LOL :sbonk:
eh c hai da ride te
http://abload.de/img/bhairava_alt_e9psja.jpg (http://abload.de/image.php?img=bhairava_alt_e9psja.jpg)
lolololoololllllllll :rotfl: :sbonk:

Alekos Panagulis
11-06-2015, 10:21
Vedo che tutti si lamentano dei "soli" 4Gb di memoria HBM, che per il 4k non bastano.. Ma ditemi un attimo ma quanti di noi giocano davvero in 4k? Il 10%? O anche molto meno? Senza contare quanti di quelli si lamentano del down scaling che va male e a parte in game non ne vale la pena? Credo di affermare con certezza che almeno il 60% dei giocatori sta ancora con i 1080, quindi take it easy e vediamo prima di giudicare come saranno queste Fury. Senza contare che chi prende schede di fascia alta le cambia regolarmente almeno ogni due anni, se non alcuni mesi dopo il loro rilascio..quindi prima che il 4k prenda effettivamente piede passerà ancora qualche annetto :)

Che il 90% dei giocatori sia ancora a 1080p non significa nulla.
Una scheda che esce ora come flagship con 4gb di ram non è sicuramente future proof. Non basterà per i canonici 2 o 3 anni, durata minima per una scheda da 500-800.

Sflao
11-06-2015, 10:27
In teoria..

Ma c'è da vedere nella realtà dei fatti...
tanto ormai i giochi sono fatti, mancano 5 giorni alla presentazione ufficiale, quindi come si dice "le balle stanno in poco posto !"

intanto c'è questo risultato:

http://abload.de/img/500x1000px-ll-44a0f2qnjc4.jpeg (http://abload.de/image.php?img=500x1000px-ll-44a0f2qnjc4.jpeg)

poi vedremo;)

_Zood_
11-06-2015, 10:29
Che il 90% dei giocatori sia ancora a 1080p non significa nulla.
Una scheda che esce ora come flagship con 4gb di ram non è sicuramente future proof. Non basterà per i canonici 2 o 3 anni, durata minima per una scheda da 500-800.E ci basiamo solo sui "rumors", almeno facciamo uscire ste benedette schede prima di mettere da subito le mani avanti! Anche perchè chi ci dice che le top series non saranno affiancate anche da 4gb gddr5 oltre ai 4 di HBM? Visto che lo spazio sulla scheda c'è per farlo.. O che non esca una sorella maggiore della 295x2 con 8Gb HBM (4+4)? :sofico: E non parlo da fan boy (ho un SLI di 970)...

gd350turbo
11-06-2015, 10:32
Visto..

Qui: http://videocardz.com/56225/amd-radeon-fury-x-3dmark-performance

Sempre da prendere con le "pinze".

Sflao
11-06-2015, 10:35
E ci basiamo solo sui "rumors", almeno facciamo uscire ste benedette schede prima di mettere da subito le mani avanti! Anche perchè chi ci dice che le top series non saranno affiancate anche da 4gb gddr5 oltre ai 4 di HBM?
siiiii dai mettiamoci anche le GDDR4 della 3870 e le GDDR5 , facciamo un bel mischione...

O che non esca una sorella maggiore della 295x2 con 8Gb HBM (4+4)? :sofico: E non parlo da fan boy (ho un SLI di 970)...
quella esce , si chiama FURY VR, ma è una 2x4GB e non 2x8GB....quindi il problema rimane.
dicono che cmq più avanti forse potrebbe uscire una FURY con 8GB HBM...vedremo..

CrapaDiLegno
11-06-2015, 10:40
intanto c'è questo risultato:

http://abload.de/img/500x1000px-ll-44a0f2qnjc4.jpeg (http://abload.de/image.php?img=500x1000px-ll-44a0f2qnjc4.jpeg)

poi vedremo;)
Se quel grafico è vero allora siamo messi maluccio.. le Titan X e le GTX980Ti reference sono evidentemente sotto cloccate rispetto al potenziale che hanno. Infatti sono già state annunciate le custom con frequenze anche del 30% in più. Infatti dal grafico la 980Ti OC già è un pezzo avanti.

E ci basiamo solo sui "rumors", almeno facciamo uscire ste benedette schede prima di mettere da subito le mani avanti! Anche perchè chi ci dice che le top series non saranno affiancate anche da 4gb gddr5 oltre ai 4 di HBM? Visto che lo spazio sulla scheda c'è per farlo.. O che non esca una sorella maggiore della 295x2 con 8Gb HBM (4+4)? :sofico: E non parlo da fan boy (ho un SLI di 970)...
Una eventuale dual con 4+4 HBM non cambierebbe nulla. Sempre 4GB per GPU hai e quindi hai sempre quel limite. Metti 2 Fiji nel case e hai la stessa identica configurazione . 'sta cosa di credere che le dual su scheda singola siano delle meraviglie con caratteristiche aliene, davvero, deve passare.
Poi 4GB HBM + 4G GDDR5? E per far cosa? Con quale scopo scusa? Le HBM sono nate per permettere un aumento di densità + minor consumi + minore dimensione del die x evitare bus da 512/bit verso l'esterno e tu vorresti buttare tutti i vantaggi al macero aggiungendo GDDR5 sulla scheda? Fuuurbo... ma non credo proprio che gli ingegneri di AMD siano stati così stupidi da mettere un bus da 4096 bit per l'HBM in aggiunta al canonico bus da 512 bit per le GDDR5. Altrimenti altro che incremento del die del 25% rispetto a Hawaii.

_Zood_
11-06-2015, 10:41
Va beh tanto è inutile parlare con chi ragiona al "chi c'è la più grosso vince", viene da ridere sentire che la 980ti con i suoi 6gb basti per il 4k, mentre 8gb (misti hbm/gddr5) invece no.. Senza contare che appena uscita la Titan X tutti a definirla inutile e poco sensata con i suoi 12gb, che invece adesso dovrebbero essere lo standard... E si, quella brutta cosa chiamata "coerenza" :D

gd350turbo
11-06-2015, 10:47
La coerenza viene sovrastata da marketing, tutto viene deciso da esso !

bagnino89
11-06-2015, 10:50
Bus a 4096 bit, non MHz...

Sflao
11-06-2015, 10:52
Va beh tanto è inutile parlare con chi ragiona al "chi c'è la più grosso vince", viene da ridere sentire che la 980ti con i suoi 6gb basti per il 4k
è già un quantitativo ragionevole. migliora di ben 2GB + rispetto una 980 che già in generale in ultra hd va bene... però per una questione di longevità sarebbe bene avercene di più...ed ecco che casca a pennello la 980Ti da 6GB.


, mentre 8gb (misti hbm/gddr5) invece no..

ma non si possono fare i mischioni lol

Senza contare che appena uscita la Titan X tutti a definirla inutile e poco sensata con i suoi 12gb, che invece adesso dovrebbero essere lo standard... E si, quella brutta cosa chiamata "coerenza" :D

se te vai a cercare la coerenza qui... stai fresco :asd: :asd: perchè ho l impressione ne troverai poca poca poca :asd:
ps: x me la Titan X rimane una boiata.

*aLe
11-06-2015, 11:03
ma non si possono fare i mischioni lolMa comeee?
Io avevo qua giusto giusto 2GB di memoria DDR2 che volevo aggiungere alla mia R9 270X... :cry:

Vash_85
11-06-2015, 11:03
intanto c'è questo risultato:

http://abload.de/img/500x1000px-ll-44a0f2qnjc4.jpeg (http://abload.de/image.php?img=500x1000px-ll-44a0f2qnjc4.jpeg)

poi vedremo;)

Se così fosse sarebbe veramente notevole..

_Zood_
11-06-2015, 11:04
Premetto che non sono cosi ferrato in materia, ma avevo letto un articolo sul "mischione" di 4gb HBM + 4gb GDDR5. Dicevano che solo in caso di saturazione delle memorie HBM venivano utilizzati i gb GDDR5, non ricordo il come e il perchè.. (se solo ritrovassi l'articolo vi darei il link). A parer vostro è davvero una cosa fattibile/sensata o solo fantasie/boiate da rumors?

angie
11-06-2015, 11:08
Se così fosse sarebbe veramente notevole..

francamente non direi....qui si parla di nuova generazione di schede da parte di amd (addirittura di rivoluzione per citarne una delle HBM) che "competono" con schede nvidia il cui chip ha più di un anno...senza poi contare i consumi (cosa a mio parere assai importante per l'avanzamento tecnologico delle stesse)

Jones D. Daemon
11-06-2015, 11:14
Premetto che non sono cosi ferrato in materia, ma avevo letto un articolo sul "mischione" di 4gb HBM + 4gb GDDR5. Dicevano che solo in caso di saturazione delle memorie HBM venivano utilizzati i gb GDDR5, non ricordo il come e il perchè.. (se solo ritrovassi l'articolo vi darei il link). A parer vostro è davvero una cosa fattibile/sensata o solo fantasie/boiate da rumors?

Cosa insensata e boiata atomica...

gd350turbo
11-06-2015, 11:17
Se così fosse sarebbe veramente notevole..

Non vedo dove...
O meglio, se calcoliamo come è messa amd, aver fatto schede che più o meno eguagliano le corripondenti nvidia, è un buon risultato...
Non lo è per l'evoluzione tecnologica, aver fatto un prodotto che va come quelli già presenti in commercio, significa correre dietro, non innovare !

Kumalo
11-06-2015, 11:30
Probabilmente abbiamo circa la stessa età perchè anche io come te ho visto nascere ed evolversi la tecnologia 3d delle gpu e negli anni ho avuto 3dfx, Matrox, Nvidia e Radeon..
E hai ragione, ultimamente non si vedono le importanti rivoluzioni che si sono viste in passato ma bisogna anche mettere in conto che non è più "semplice" come lo è stato prima.. di strada ne hanno fatta tantissima e le attuali GPU con le tecnologie disponibili hanno già una efficienza davvero notevole.

Per i "rebrand" me ne frego pesantemente, de devo scegliere una GPU mi cerco una bella comparativa e parlano i grafici, i nomi neanche li guardo.

Dico la mia, tutta la tecnologia e' ben radicata su prestazioni/watt il che per mantenere un rapporto decente piu' diminuisco i watt e piu' posso aumentare le prestazioni. Attualmente l'unico modo per diminuire i watt e' il processo produttivo da anni troppo fermo alla fatidica soglia dei 22nm (introdotti nel 2011), il che non consente di avere decrementi nei consumi e quidni incrementi prestazionali.

Lato software purtroppo NVIDIA ha la fetta piu' grande e finche si comportera' come si comportava 3DFX con le Glide non ci sara' una reale evoluzione, le GamesWork sono un bel lavoro scopiazzato ma un bel lavoro, il fatto di renderlo legato solo alle schede NVIDIA e' l'esempio di un altro flop come lo e' stato il PhysX, ottimo progetto ma chiuso e circoscritto, le idee che rivoluzionano il mondo sono idee a buon mercato e libere, la storia lo insegna.

Lato programmazione ormai c'e' la dittatura directX, finche le OpenGL erano al passo e innovavano le DirectX si miglioravano, nel momento in cui M$ ha superato in tutto e le OpenGL sono scomparse chissa come mai $$$ e' finita la giostra.....ringraziate le Mantle di AMD se le DirectX 12 sono quello che sono, e' stato necessario dare una scossa altrimenti non si sarebbe smosso niente, e le DirectX 11 sono del 2009 nel 2009 le schede in commercio erano HD6xxx e le GTX 4xx parliamo di preistoria :D :D

Serve una scossa che attualmente il monopolio non sta dando per niente, anzi stanno ovattando tutto e il monopolio lo gestiamo noi utenti questo e' da sottolineare!

Byez

CrapaDiLegno
11-06-2015, 11:34
Premetto che non sono cosi ferrato in materia, ma avevo letto un articolo sul "mischione" di 4gb HBM + 4gb GDDR5. Dicevano che solo in caso di saturazione delle memorie HBM venivano utilizzati i gb GDDR5, non ricordo il come e il perchè.. (se solo ritrovassi l'articolo vi darei il link). A parer vostro è davvero una cosa fattibile/sensata o solo fantasie/boiate da rumors?
Allora, tecnicamente la cosa è possibile. Il problema sono le risorse per farla.
Il bus delle HBM (4096 bit) è già abbastanza grande anche senza dover portare i pin sul socket. Se ci aggiungiamo i 512 bit (o fossero anche 384) per la GDDR5, metà del die (e dei Watt) se lo papperebbero i memory controller.
Quindi tecnicamente fattibile sì, vantaggioso in termini economici no.
Quindi non è una soluzione che sarà usata.

AMD ha voluto usare l'HBM v1 con una mossa dell'ultimo minuto, quando nvidia aveva già annunciato qualche anno fa che Pascal avrebbe usato le HBM v2.
Ovvio che nvidia ha chiare le idee della sua roadmap con i vantaggi e gli svantaggi che ogni nuova tecnologia porta con sé e quindi i compromessi che vanno fatti.
AMD, sinceramente, mi sembra in preda al delirio. Usare HBM che a questo livello di maturità costano un botto e non portano alcun vero vantaggio (non è certo passare da 336GB/s a 512GB/s che farà la differenza con nvidia, neanche a 4K che per ora si gioca a frame rate ridicoli) ma uno svantaggio non trascurabile come la quantità massima da 4GB installabile (a prezzo ancora accettabile), per me non ha alcun senso.
Sopratutto perché sono usate su GPU che dovrebbero essere vendute sopratutto in campo professinale, dove AMD semplicemente non c'è.
Farà colpo sugli stessi bbmkia che acquistano le Titan al day one solo perché permettono loro di fare 10FPS in più, ma per il resto mi sa che il mercato non premierà questa cosa. E AMD perderà ancora più soldi per (s)vendere il suo prodotto di punta (che costa e parechio questa volta, non sono più i minuscoli chip della serie 3xxx).

Tutto questo tempo, hype e costi per arrivare esattamente dove nvidia è già arrivata da tempo, con tecnologia "old style" o anche mainstram, mi sembra davvero una cosa che non fa assolutamente gridare ad alcun miracolo. Anzi.

Giusto per dire quanto le HBM v1 sono inutili: se AMD usasse le stesse memorie di nvidia, con il bus a 512 bit usato in Hawaii potrebbe avere qualcosa come 450GB/s di banda.

Kumalo
11-06-2015, 11:34
Non vedo dove...
O meglio, se calcoliamo come è messa amd, aver fatto schede che più o meno eguagliano le corripondenti nvidia, è un buon risultato...
Non lo è per l'evoluzione tecnologica, aver fatto un prodotto che va come quelli già presenti in commercio, significa correre dietro, non innovare !

Significa che stanno a tappo, che finche non si fanno schede 16nm finfet ne AMD ne NVIDIA riescono a fare di meglio se non con i soliti trucchetti da 4 soldi.

L' hardware e' basilare sempre 0/1 e' :D :D :D

La mossa di AMD e' di poter testare le memorie HBM in un momento morto del mercato, finche non si aprono catene produttive decenti e in volumi la Fury e' per testare/capire/ottimizzare un nuovo chip. Non mi farebbe strano se NVIDIA facesse una stessa scheda 980ti con le HBM con le stesse prestazioni della vecchia.


Ciau

Max_R
11-06-2015, 11:35
Non vedo dove...
O meglio, se calcoliamo come è messa amd, aver fatto schede che più o meno eguagliano le corripondenti nvidia, è un buon risultato...
Non lo è per l'evoluzione tecnologica, aver fatto un prodotto che va come quelli già presenti in commercio, significa correre dietro, non innovare !

Questo lo fanno in un modo o nell'altro sia AMD che NVidia (anche "in casa").

Max_R
11-06-2015, 11:41
Dico la mia, tutta la tecnologia e' ben radicata su prestazioni/watt il che per mantenere un rapporto decente piu' diminuisco i watt e piu' posso aumentare le prestazioni. Attualmente l'unico modo per diminuire i watt e' il processo produttivo da anni troppo fermo alla fatidica soglia dei 22nm (introdotti nel 2011), il che non consente di avere decrementi nei consumi e quidni incrementi prestazionali.

Lato software purtroppo NVIDIA ha la fetta piu' grande e finche si comportera' come si comportava 3DFX con le Glide non ci sara' una reale evoluzione, le GamesWork sono un bel lavoro scopiazzato ma un bel lavoro, il fatto di renderlo legato solo alle schede NVIDIA e' l'esempio di un altro flop come lo e' stato il PhysX, ottimo progetto ma chiuso e circoscritto, le idee che rivoluzionano il mondo sono idee a buon mercato e libere, la storia lo insegna.

Lato programmazione ormai c'e' la dittatura directX, finche le OpenGL erano al passo e innovavano le DirectX si miglioravano, nel momento in cui M$ ha superato in tutto e le OpenGL sono scomparse chissa come mai $$$ e' finita la giostra.....ringraziate le Mantle di AMD se le DirectX 12 sono quello che sono, e' stato necessario dare una scossa altrimenti non si sarebbe smosso niente, e le DirectX 11 sono del 2009 nel 2009 le schede in commercio erano HD6xxx e le GTX 4xx parliamo di preistoria :D :D

Serve una scossa che attualmente il monopolio non sta dando per niente, anzi stanno ovattando tutto e il monopolio lo gestiamo noi utenti questo e' da sottolineare!

Byez

Ora con lo sviluppo su Linux le cose sono destinate a cambiare :)

gd350turbo
11-06-2015, 11:42
Tutto questo tempo, hype e costi per arrivare esattamente dove nvidia è già arrivata da tempo, con tecnologia "old style" o anche mainstram, mi sembra davvero una cosa che non fa assolutamente gridare ad alcun miracolo. Anzi.

Quoto, confermo & sottoscrivo il tutto !

Madcrix
11-06-2015, 11:45
Limitare la flagship a 4Gb VRAM sembra una boiata, già adesso si saturano a 1440p su certi giochi, figuriamoci a 4K... chi spende 800-1000 e passa euro di gpu per giocare a queste risoluzioni vuole decisamente almeno 6 o 8 Gb, anche solo per reggere un minimo di tempo.

Per chi gioca a 1080 si trova tranquillamente abbastanza potenza spendendo 350-500 euro

Paradossalmente il rebrand della 290X con 8Gb VRAM potrebbe essere un affare migliore.

gd350turbo
11-06-2015, 11:47
Fury, sarà anche un banco di prova per le HBM, ma è un banco di prova costoso, e non so se amd se lo possa permettere di mettere fuori un prodotto per testarlo.

Kumalo
11-06-2015, 12:04
Ora con lo sviluppo su Linux le cose sono destinate a cambiare :)

Ci speravo, seguivo da vicino alcuni sviluppi nati poi dal cuore PS4 (FreeBSD 9 + OpenGL) ma e' tutto morto li' nessun finanziamento, poche idee, niente di concreto si limitano da anni a scopiazzare e niente piu'. SteamOS e' un grosso flop al momento, e il multi piatta te lo puoi aspettare solo se Mac fa il grande salto (che penso non fara' mai visto il loro corebusiness), quindi per me in concreto, o dietro c'e' qualcuno con i dindi sonanti che vuole fare concorrenza seria e intraprendere la strada prima con i vari publisher che purtroppo con questa crisi sono appecoronati ai soldi che gli danno per finanziare i vari progetti oppure e' tutto morto e sepolto cosi'!

Peccato perche' negli ultimi 3 anni c'era ampio margine di miglioramento e di crescita, ovviamente non sfruttata, non a caso le nuove DirectX 12 promettono un aumento del 40% delle prestazioni, io in primis ho giocato Thief e BF4 con le Mantle e avevo un degno +20/25% sulle prestazioni, segno che ste schede potenziale ce l'hanno e' la benza che gli manca :D :D

Kumalo
11-06-2015, 12:07
Fury, sarà anche un banco di prova per le HBM, ma è un banco di prova costoso, e non so se amd se lo possa permettere di mettere fuori un prodotto per testarlo.

Secondo me la Fury sara' come la 295X2, un banco di prova un modo per dire siamo anche noi li'. Ne venderanno quel migliaio che serviranno a capire dove migliorare, cosa ottimizzare e dove correggere. Le vere schede HBM consumer arriveranno con i 16 finfet che consentiranno consumi decenti e costi decenti.

CrapaDiLegno
11-06-2015, 12:11
Significa che stanno a tappo, che finche non si fanno schede 16nm finfet ne AMD ne NVIDIA riescono a fare di meglio se non con i soliti trucchetti da 4 soldi.

L' hardware e' basilare sempre 0/1 e' :D :D :D

La mossa di AMD e' di poter testare le memorie HBM in un momento morto del mercato, finche non si aprono catene produttive decenti e in volumi la Fury e' per testare/capire/ottimizzare un nuovo chip. Non mi farebbe strano se NVIDIA facesse una stessa scheda 980ti con le HBM con le stesse prestazioni della vecchia.


Ciau
L'HW sarà sempre quello, ma nvidia con Maxwell ha dimostrato che si può sempre fare di meglio, se si vuole. E ha realizzato una architettura nuova,pari a 4 nuove GPU.
Nello stesso tempo AMD ha aggiunto le HBM alla sua "normale" architettura.

Dubito fortemente che nvidia abbia mai pensato di usare le HBM per Maxwell. Non danno alcun vantaggio reale rispetto all'uso delle GDRR5 ad alta frequenza. Anni fa parlava di usarle per Volta, architettura ora sostituita da Pascal. Pascal che credo stia solo aspettando la disponibilità del nuovo PP per entrare in produzione. nvidia ha bisogno di Pascal il prima possibile per il mercato professionale e HPC. Non "gioca" solo nel mercato video ludico.

Per nvidia è un risultato notevole essere alla pari con la concorrenza che si è sbattuta a fare una GPU con HBM che ha costi spropositati (per ora, con questo PP). Vuol dire che, come nel 2012 con Kepler, riuscirà a mantenere il suo margine di guadagno anche con soluzioni immense come il GM200 da 600mm^2.

Sflao
11-06-2015, 12:17
Ma comeee?
Io avevo qua giusto giusto 2GB di memoria DDR2 che volevo aggiungere alla mia R9 270X... :cry:

:D

Max_R
11-06-2015, 12:27
Quindi sommando un po' le informazioni, sempre da prendere con le molle eh.

Abbiamo una scheda che va più o meno come la 980ti, ma consuma 50W in più (forse perchè è un TDP e non il consumo e blablabla... ci siamo capiti).

Mah comunque mi sembra un buon risultato anche se a prima vista non sembra comunque pareggiare la 980ti ma restare un po' indietro.
Da verificare poi in tutti i campi, perchè 1 test non vuole dire tutto.

La grossa pecca sono le schede di fascia più bassa che sono rebrand e probabilmente resteranno inferiori alla concorrenza.

Consideriamo però anche la maturità dei drivers ed il margine che spesso ha avuto AMD :)

Ci speravo, seguivo da vicino alcuni sviluppi nati poi dal cuore PS4 (FreeBSD 9 + OpenGL) ma e' tutto morto li' nessun finanziamento, poche idee, niente di concreto si limitano da anni a scopiazzare e niente piu'. SteamOS e' un grosso flop al momento, e il multi piatta te lo puoi aspettare solo se Mac fa il grande salto (che penso non fara' mai visto il loro corebusiness), quindi per me in concreto, o dietro c'e' qualcuno con i dindi sonanti che vuole fare concorrenza seria e intraprendere la strada prima con i vari publisher che purtroppo con questa crisi sono appecoronati ai soldi che gli danno per finanziare i vari progetti oppure e' tutto morto e sepolto cosi'!

Peccato perche' negli ultimi 3 anni c'era ampio margine di miglioramento e di crescita, ovviamente non sfruttata, non a caso le nuove DirectX 12 promettono un aumento del 40% delle prestazioni, io in primis ho giocato Thief e BF4 con le Mantle e avevo un degno +20/25% sulle prestazioni, segno che ste schede potenziale ce l'hanno e' la benza che gli manca :D :D

SteamOS non è ancora concluso, sui drivers ci stanno lavorando, le premesse di OpenGL/Vulkan sono ottime. Ma il punto è: gli sviluppatori stanno lavorando anche su questa piattaforma, cosa che prima 99 su cento non avveniva. Da qui cambieranno le cose.

deidara80
11-06-2015, 12:38
Non seguo da tanto l'evoluzione delle schede video. ci sara pure un nuovo processo produttivo per le nuove radeon?

Dark_Lord
11-06-2015, 12:47
Ho un monitor 4k e sono mesi che sto zoppicando con una Radeon 6970, in attesa di queste nuove vga AMD...
Sinceramente, 4gb di memoria mi sembrano pochi e insensati per una vga di questo tipo. Dopo decenni di Radeon mi sa che a 'sto giro passo a Nvidia.
Oppure alla 290 refresh con 8gb, che mi sembra più appetibile... Abbastanza deluso insomma.

Ares17
11-06-2015, 14:47
Tutti geni ed esperti, ma guarda caso una 970 non cappa con i suoi 3,5 gb di ram perché dovrebbe farlo una vga AMD.
Tutti poi a considerare la memoria video allocata uguale a quella utilizzata (chi ha una titan x potrebbe controllare l'uso ram a 4k e chiedersi come mai è li con la 980ti)
A quelli invece che credono che HBM sia stato buttato li per limitare i danni:
Informativi, il primo prototipo di chip con HBM Ati lo ha mostrato nel lontano 2009.
Detta in altre parole vorrei sapere anche se qualcuno ha conoscenza di come funziona il memory controller di fiji e se può accedere direttamente alla ram di sistema (con le dx12 è possibile, come è possibile utilizzare la somma della ram di ogni singola gpu, quindi 2 fiji da 4 gb hanno 8 gb di ram utilizzabile e non 4 in dx12, parlando in ottica futura, o forse volete giocare in 8k a doom o quake 1 versione).
tutto il resto senza test da confronto sono solo parole al vento.
Ps di titanx in Italia ne hanno venduto una marea: 120 pezzi.
Si vede che tutti gli hardcore gamer sono in fullhd oppure una specie in via di estinzione.
Per quanto riguarda la logevità vi rammento che per altri 3 anni gnc nei giochi sarà il riferimento nel 90% dei game in uscita dato che saranno multipiattaforma e che gia oggi si iniza a vedere questa tendenza con vga gnc che non mostrano il fianco alle nuove uscite, quindi la longevità è un non problema, a meno che non si voglia giocare ad un titolo only nvidia, ed allora anche con 120 gb di ram fiji andrebbe da schifo.

Max_R
11-06-2015, 14:54
Basti vedere la 295x2 che risultati con 4GB di ram a disposizione. Non credo che per Fury saranno un problema. Mi viene in mente quando di 3870 venivano vendute anche con 1GB ma le Toxic rimanevano dotate di 512MB e lo stesso è valso per le 4870/90 con "solo" 1GB.

Kumalo
11-06-2015, 15:05
Tutti geni ed esperti, ma guarda caso una 970 non cappa con i suoi 3,5 gb di ram perché dovrebbe farlo una vga AMD.
Tutti poi a considerare la memoria video allocata uguale a quella utilizzata (chi ha una titan x potrebbe controllare l'uso ram a 4k e chiedersi come mai è li con la 980ti)
A quelli invece che credono che HBM sia stato buttato li per limitare i danni:
Informativi, il primo prototipo di chip con HBM Ati lo ha mostrato nel lontano 2009.
Detta in altre parole vorrei sapere anche se qualcuno ha conoscenza di come funziona il memory controller di fiji e se può accedere direttamente alla ram di sistema (con le dx12 è possibile, come è possibile utilizzare la somma della ram di ogni singola gpu, quindi 2 fiji da 4 gb hanno 8 gb di ram utilizzabile e non 4 in dx12, parlando in ottica futura, o forse volete giocare in 8k a doom o quake 1 versione).
tutto il resto senza test da confronto sono solo parole al vento.
Ps di titanx in Italia ne hanno venduto una marea: 120 pezzi.
Si vede che tutti gli hardcore gamer sono in fullhd oppure una specie in via di estinzione.
Per quanto riguarda la logevità vi rammento che per altri 3 anni gnc nei giochi sarà il riferimento nel 90% dei game in uscita dato che saranno multipiattaforma e che gia oggi si iniza a vedere questa tendenza con vga gnc che non mostrano il fianco alle nuove uscite, quindi la longevità è un non problema, a meno che non si voglia giocare ad un titolo only nvidia, ed allora anche con 120 gb di ram fiji andrebbe da schifo.

Un po' irruento ma quoto infatti con il mio sistema sono in trepidante attesa di queste DirectX 12 fosse la volta buona che utilizziamo un multitasking come Dio comanda :D :D

gioiafilippo
11-06-2015, 15:31
4GB cominciano a essere pochi anche a 1080p, GTA 5 con effetti ultra, ombre e msaa 8x si frega 4.7GB, Mordor con l'HD texture pack si prende 6GB e se riduci ombre e AA al minimo sindacale se ne prende 3.8 sempre in HD pack. AC Unity tutto ad Ultra piu ombre al max arriva a 4.2GB a meno di non ridurre la msaa al minimo. The Witcher 3 si comporta meglio ma temo per Batman il 23 giugno...ormai sarebbe ora di produrre sk video a partire da 6GB in su...4GB arrancano a 1080p, figuriamoci in 4K :rolleyes:

Ares17
11-06-2015, 15:40
4GB cominciano a essere pochi anche a 1080p, GTA 5 con effetti ultra, ombre e msaa 8x si frega 4.7GB, Mordor con l'HD texture pack si prende 6GB e se riduci ombre e AA al minimo sindacale se ne prende 3.8 sempre in HD pack. AC Unity tutto ad Ultra piu ombre al max arriva a 4.2GB a meno di non ridurre la msaa al minimo. The Witcher 3 si comporta meglio ma temo per Batman il 23 giugno...ormai sarebbe ora di produrre sk video a partire da 6GB in su...4GB arrancano a 1080p, figuriamoci in 4K :rolleyes:

Vedo che hai speso i tuoi soldi coerentemente con quello che scrivi:
Scommetto che stai pensando di passare a 980Ti.

Max_R
11-06-2015, 15:41
4GB cominciano a essere pochi anche a 1080p, GTA 5 con effetti ultra, ombre e msaa 8x si frega 4.7GB, Mordor con l'HD texture pack si prende 6GB e se riduci ombre e AA al minimo sindacale se ne prende 3.8 sempre in HD pack. AC Unity tutto ad Ultra piu ombre al max arriva a 4.2GB a meno di non ridurre la msaa al minimo. The Witcher 3 si comporta meglio ma temo per Batman il 23 giugno...ormai sarebbe ora di produrre sk video a partire da 6GB in su...4GB arrancano a 1080p, figuriamoci in 4K :rolleyes:

Quindi una 295x2 dovrebbe essere svantaggiata rispetto ad una scheda da 8/12GB immagino, in questi ambiti, secondo le tue affermazioni

Mparlav
11-06-2015, 15:44
Non penso che uno prenda un scheda di fascia alta per giocare in fullHD.
Per quello basta la GTX970 o la R9 390 e se non bastasse per i 144Hz, guarderei prima alla cpu e poi penserei ad abbassare i dettagli.

Piuttosto usa il multimonitor, o il QHD o il 4K, ed a seconda del refresh, potrebbe comunque dover scendere a compromessi con i dettagli.

Sembra quasi una "novità del momento", ma voglio ricordare coloro che si sono comprati una seconda Voodoo II (a 6-700.000 lire) solo per poter giocare ad Unreal Tournament a 1024x768 piuttosto che 800x600 (io mi sono accontentato di una sola :D

Figuriamoci se non c'è gente che farà altrettanto per il 4K :)

Non penso proprio che Amd possa mettere in commercio una scheda top senza aver pensato alla resa prestazionale in 4K.
Ne sapremo di più tra pochi giorni :)

gioiafilippo
11-06-2015, 15:47
Quindi una 295x2 dovrebbe essere svantaggiata rispetto ad una scheda da 8/12GB immagino, in questi ambiti, secondo le tue affermazioni

No, affatto. La 295x2 ha un quantitativo di Vram giusto, andare oltre 6-8 GB a 1080p oggi non serve a nulla. Ma 4GB cominciano a essere pochi. Testate con Afterburner e vedete

Ares17
11-06-2015, 15:55
No, affatto. La 295x2 ha un quantitativo di Vram giusto, andare oltre 6-8 GB a 1080p oggi non serve a nulla. Ma 4GB cominciano a essere pochi. Testate con Afterburner e vedete
Ma quanta ram credi che abbia una r9 295 ?

gioiafilippo
11-06-2015, 16:10
Ma quanta ram credi che abbia una r9 295 ?

non saprei, non uso sk video Amd ma leggo che ne ha 8 GB...se poi sono 4GBx2 in parallelo allora ok è un altro discorso

comunque 4GB cominciano a essere pochini anche a 1080p, ovviamente non con tutti i giochi, finora sono 3-4 giochi però sono giochi da 90 (Mordor, GTA 5, AC Unity, Watchdogs, vedremo Batman). Fortunatamente the Witcher 3 non arriva nemmeno a 2GB di Vram e sono rimasto molto sorpreso avendo ripetuto più volte il test con MSI Afterburner. Ma è una notizia buona

Max_R
11-06-2015, 16:10
Sembra quasi una "novità del momento", ma voglio ricordare coloro che si sono comprati una seconda Voodoo II (a 6-700.000 lire) solo per poter giocare ad Unreal Tournament a 1024x768 piuttosto che 800x600 (io mi sono accontentato di una sola :D

Il discorso li è diverso: la limitazione era del frame buffer non del quantitativo di memoria in se. Diciamo più una scelta architetturale, come per i "soli" 16bit di sfumature di colore, altrimenti non si spiegherebbe come faceva l'M3D a renderizzare risoluzioni ben maggiori con lo stesso quantitativo ;)

non saprei, non uso sk video Amd ma leggo che ne ha 8 GB...se poi sono 4GBx2 in parallelo allora ok è un altro discorso

comunque 4GB cominciano a essere pochini anche a 1080p, ovviamente non con tutti i giochi, finora sono 3-4 giochi però sono giochi da 90 (Mordor, GTA 5, AC Unity, Watchdogs, vedremo Batman). Fortunatamente the Witcher 3 non arriva nemmeno a 2GB di Vram e sono rimasto molto sorpreso avendo ripetuto più volte il test con MSI Afterburner. Ma è una notizia buona

4x2 appunto, ma di fatto 4 utilizzabili e sta sopra ogni altra scheda singola, il che dimostra che anche se viene sfiorato il limite, se la gpu (o le gpu) sono veloci, fanno il loro lavoro.

Ares17
11-06-2015, 16:14
non saprei, non uso sk video Amd ma leggo che ne ha 8 GB...se poi sono 4GBx2 in parallelo allora ok è un altro discorso

comunque 4GB cominciano a essere pochini anche a 1080p, ovviamente non con tutti i giochi, finora sono 3-4 giochi però sono giochi da 90 (Mordor, GTA 5, AC Unity, Watchdogs, vedremo Batman). Fortunatamente the Witcher 3 non arriva nemmeno a 2GB di Vram e sono rimasto molto sorpreso avendo ripetuto più volte il test con MSI Afterburner. Ma è una notizia buona
Controlla le misurazioni e lascia stare le tue impressioni o la ram allocata ma non utilizzata:
http://www.hwupgrade.it/articoli/skvideo/4378/nvidia-geforce-gtx-980ti-l-anti-titan-x_10.html
Trovami dove sarebbero pochi 4 gb di ram in full-hd

gioiafilippo
11-06-2015, 16:30
Controlla le misurazioni e lascia stare le tue impressioni o la ram allocata ma non utilizzata:
http://www.hwupgrade.it/articoli/skvideo/4378/nvidia-geforce-gtx-980ti-l-anti-titan-x_10.html
Trovami dove sarebbero pochi 4 gb di ram in full-hd

Fai i test nei giochi che ho scritto sopra a 1080p con tutte le impostazioni ad Ultra e poi mi fai sapere. Usa MSI Afterburner. Basta che provi GTA V, Mordor con HD pack e AC 4 Unity. Vedrai come andrai abbondantemente sopra i 4GB :)

Max_R
11-06-2015, 16:33
Fai i test nei giochi che ho scritto sopra a 1080p con tutte le impostazioni ad Ultra e poi mi fai sapere. Usa MSI Afterburner. Basta che provi GTA V, Mordor con HD pack e AC 4 Unity. Vedrai come andrai abbondantemente sopra i 4GB :)

Si ma il punto è, con una 295x2 girerebbero male? E' davvero il quantitativo di memoria ram il problema? Quanto incide?

Mparlav
11-06-2015, 16:43
Il discorso li è diverso: la limitazione era del frame buffer non del quantitativo di memoria in se. Diciamo più una scelta architetturale, come per i "soli" 16bit di sfumature di colore, altrimenti non si spiegherebbe come faceva l'M3D a renderizzare risoluzioni ben maggiori con lo stesso quantitativo ;)

Il mio discorso voleva essere: gli "entusiast" hanno sempre speso tanto sull'hw per il loro gioco preferito :)

I monitor 4K o QHD 144Hz non sono un'eccezione, sono nel target di un certo tipo d'utenza (tra l'altro molto meno cari di quanto costasse un CRT 19" al tempo).

La Fury è una scheda da diverse centinaia di euro (o più di una), che deve essere all'altezza per il 4K, altrimenti è sostanzialmente inutile, imho.

Max_R
11-06-2015, 16:53
Il mio discorso voleva essere: gli "entusiast" hanno sempre speso tanto sull'hw per il loro gioco preferito :)

I monitor 4K o QHD 144Hz non sono un'eccezione, sono nel target di un certo tipo d'utenza (tra l'altro molto meno cari di quanto costasse un CRT 19" al tempo).

La Fury è una scheda da diverse centinaia di euro (o più di una), che deve essere all'altezza per il 4K, altrimenti è sostanzialmente inutile, imho.

La 2900 XT/XTX aveva un suo perchè con il suo bus @512bit ad altissime (per il periodo) risoluzioni, però gli utenti di norma preferiscono prodotti più equilibrati. Speriamo che Fury (anche pro) non ricalchi le orme e non deluda chi intende adoperarla anche a risoluzioni inferiori.
ps
Il prezzo di lancio per un Voodoo2 era 300$ e farsi uno SLI rispetto ai prezzi che vediamo oggi era parecchio più conveniente.

Mparlav
11-06-2015, 17:06
La 2900 XT/XTX aveva un suo perchè con il suo bus @512bit ad altissime (per il periodo) risoluzioni, però gli utenti di norma preferiscono prodotti più equilibrati. Speriamo che Fury (anche pro) non ricalchi le orme e non deluda chi intende adoperarla anche a risoluzioni inferiori.
ps
Il prezzo di lancio per un Voodoo2 era 300$ e farsi uno SLI rispetto ai prezzi che vediamo oggi era parecchio più conveniente.

Decisamente non era più conveniente.

Max_R
11-06-2015, 17:18
Decisamente non era più conveniente.

Avresti avuto lo SLI dei migliori acceleratori del momento, non dico che fosse più conveniente rispetto al prenderne una singola (figurarsi che io sono andato avanti con un Voodoo prima generazione, con 8mb dalle frequenze superiori ai canonici 45MHz di clock, fino al 2003), bensì rispetto alla situazione ed i costi attuali che sono andati veramente fuori scala. Uno SLI di Voodoo2 rispetto ad uno SLI di Titan X?

bobafetthotmail
11-06-2015, 17:24
Aspetto da tempo qualche vera rivoluzione, come lo furono i vertex/pixel shader, ad esempio tramite l'introduzione di specifiche componenti per il raytracing, ma per adesso nisba. Peccato.Hanno giocato finchè potevano a risolvere problemi di software a colpi di hardware (comune in ambiente windows), ora si rendono conto che o mettono mano ai driver merdacchiosi e ai framework di controllo dei driver (come risultato abbiamo directX12 per win o Vulkan per linux) o non c'è modo di andare avanti.

La grossa rivoluzione per ora sta sui driver e il controllo più vicino all'hardware di quanto fosse prima. Ovvio che questo avvantaggia paurosamente quelli che usano i game engine di terze parti rispetto a quelli che se li fanno da soli, ma almeno significa che anche un giochino indie potrà avere una grafica buona o stellare.

Basta che provi GTA V, Mordor con HD pack e AC 4 Unity. Vedrai come andrai abbondantemente sopra i 4GB
http://www.guru3d.com/articles-pages/gta-v-pc-graphics-performance-review,9.html
Afterburner aggiunge sempre un buon 5-800 mb di vram.

I driver AMD riportano l'utilizzo di vram a pazzo http://www.techpowerup.com/forums/threads/incorrect-vram-usage-displayed-in-msi-afterburner.206347/

Ma guardare i fps come fanno tutti no?

Darth Sidious
11-06-2015, 21:24
Probabilmente abbiamo circa la stessa età perchè anche io come te ho visto nascere ed evolversi la tecnologia 3d delle gpu e negli anni ho avuto 3dfx, Matrox, Nvidia e Radeon..
E hai ragione, ultimamente non si vedono le importanti rivoluzioni che si sono viste in passato ma bisogna anche mettere in conto che non è più "semplice" come lo è stato prima.. di strada ne hanno fatta tantissima e le attuali GPU con le tecnologie disponibili hanno già una efficienza davvero notevole.

Per i "rebrand" me ne frego pesantemente, de devo scegliere una GPU mi cerco una bella comparativa e parlano i grafici, i nomi neanche li guardo.

Allora sei della mia età: sono affezionato alla HD5700. Faccio male?:D :asd: :mano:
Ma quanto vanno più veloci?
serve tanta ram?
ma i moderni software poi le usano 4gb o le dx12 o la situazione è come chi si compra una Ferrari cercando di farla andare a 300 sull'Aspromonte?.