PDA

View Full Version : Radeon 300: da nuovi driver la conferma dei rebrand


Redazione di Hardware Upg
27-05-2015, 09:25
Link alla notizia: http://www.hwupgrade.it/news/skvideo/radeon-300-da-nuovi-driver-la-conferma-dei-rebrand_57405.html

Le informazioni contenute in driver beta apparsi online confermano come la prossima generazione di GPU AMD per sistemi desktop sarà caratterizzata dall'utilizzo di molti chip video già presenti sul mercato

Click sul link per visualizzare la notizia.

AceGranger
27-05-2015, 09:47
Bè, con il market share in picchiata mi sembra un'ottima mossa rimarchiare tutto :asd:

hermanss
27-05-2015, 09:54
Senza scatenare flame...nvidia insegna :D

maximagno
27-05-2015, 09:54
Quando è che potranno apparire le prime recensioni? Diciamo anche solo parziali.

nardustyle
27-05-2015, 09:54
in pratica tutti i gng conpatibili con le dx 12 :D

ottimo vedo nella 290x lo stesso lungo supporto dato alla 7970 , che dopo anni e generazioni va come un treno ( mentre qualcun altro si dimentica di supportare schede top dell'anno prima ... qcn ha detto kepler :D )

AceGranger
27-05-2015, 10:00
"Senza scatenare flame...nvidia insegna :D

bè qui l'allieva ha sorpassato di gran lunga la maestra, tutta la serie con minestra riscaldata...

in pratica tutti i gng conpatibili con le dx 12 :D

ottimo vedo nella 290x lo stesso lungo supporto dato alla 7970 , che dopo anni e generazioni va come un treno ( mentre qualcun altro si dimentica di supportare schede top dell'anno prima ... qcn ha detto kepler :D )

contando che se continua cosi andra in rosso anche la divisione GPU "l'ottimo" lo vedi solo tu...

per la questione Kepler hanno gia detto che arriveranno driver nuovi per correggere il bug delle Kepler con TW3.

iorfader
27-05-2015, 10:08
ora lo capite il vantaggio di aver monopolizzato l'hw console con un'architettura che nonostante sia vecchia è ancora performante e compatibile dx12? una 7870ghz edition va ancora fortissimo, una 7970ghz va quasi quanto una 780, una 290x va come una 970.... eppure dite che AMD non ha vga concorrenziali... e vedrete sotto win10e dx12 le vecchie gcn recuperare ancora..

si ma una 970 è fascia medio alta la 290x è la top amd...io al posto loro darei fuoco a tutto per l'assicurazione e andrei ai caraibi :D

bobby10
27-05-2015, 10:31
quindi una r9 370x è un rebrand della r9 270x che a sua volta è un rebrand della 7870

roba nuova :asd:

Raven
27-05-2015, 10:32
Quando è che potranno apparire le prime recensioni? Diciamo anche solo parziali.

:stordita:

- Prendi la recensione della 290x
- Rinomina 290x in 390x
- ?????????
- Profit! :O

Raven
27-05-2015, 10:34
ora lo capite il vantaggio di aver monopolizzato l'hw console con un'architettura che nonostante sia vecchia è ancora performante e compatibile dx12? una 7870ghz edition va ancora fortissimo, una 7970ghz va quasi quanto una 780, una 290x va come una 970.... eppure dite che AMD non ha vga concorrenziali... e vedrete sotto win10e dx12 le vecchie gcn recuperare ancora..

Non è una strategia che paga, eh... il consumatore vuole "qualcosa di nuovo" ogni anno!... non un rebrand (pur se rimangono ottime schede, eh!) ;)

(vedi news sul 76% di percentuale a nvidia, sulle schede discrete)

Epoc_MDM
27-05-2015, 10:37
ora lo capite il vantaggio di aver monopolizzato l'hw console con un'architettura che nonostante sia vecchia è ancora performante e compatibile dx12? una 7870ghz edition va ancora fortissimo, una 7970ghz va quasi quanto una 780, una 290x va come una 970.... eppure dite che AMD non ha vga concorrenziali... e vedrete sotto win10e dx12 le vecchie gcn recuperare ancora..

E come la 980 cosa va? E come la Titan X cosa va? :)

AceGranger
27-05-2015, 10:40
ora lo capite il vantaggio di aver monopolizzato l'hw console con un'architettura che nonostante sia vecchia è ancora performante e compatibile dx12? una 7870ghz edition va ancora fortissimo, una 7970ghz va quasi quanto una 780, una 290x va come una 970.... eppure dite che AMD non ha vga concorrenziali... e vedrete sotto win10e dx12 le vecchie gcn recuperare ancora..

la 7970 GHz è sempre andata quasi quanto una 780 sin dall'uscita delle 780, non è cambiato nulla da allora.

idem per la 290X, è sempre andata come una 970, visto che nVidia ha fatto uscire la 970 proprio per contrastare la 290X ma a prezzo inferiore ( poi per ovvi motivi le 290X hanno subito un taglio di prezzo ); vanno uguali si, pero la 290X lo fa consumando 1/3 in piu e visto che il prezzo è simile le 970 stanno vendendo una vagonata, mentre le 290X stanno li a prendere la polvere.

secondo me dovevano fare un'architettura di passaggio in stile Maxwell, prestazioni simili alle attuali ma piu efficiente; sono in ritardo, con queste GPU ci dovranno campare un anno e sono in picchiata come market share, non mi pare sta gran mossa commerciale....

ora, non ho la palla di cristallo, ma se sono rebranding e i chip son sempre quelli con frequenze un po piu alte, se non hanno fatto qualche modifica particolare non ancora annunciata avranno consumi ed efficienza uguali alle attuali, il che non mi sembra una gran cosa per stimolare le vendite.

maximagno
27-05-2015, 10:47
:stordita:

- Prendi la recensione della 290x
- Rinomina 290x in 390x
- ?????????
- Profit! :O

Ahahahah in effetti!!:D :D

è per decidere che fare della mia r9 280. Per vedere se comunque sono migliorate lato prestazioni/Watt, sopratutto Tonga.

Max_R
27-05-2015, 11:00
Il problema è che se metteranno una 290X su di una fascia medio alta, i consumi rimangono top di gamma. AMD ha cannato già una volta trascurando questi delicati equilibri con la 2900 XT/XTX e purtroppo anche ora NVidia ha dalla sua la 970 che a parte specifiche farlocche è ben bilanciata.

AceGranger
27-05-2015, 11:05
non è cosi come dici tu. AMD fece uscire la 7970ghz per controbattere la 680, la 780 stava un 30% in più da quello che ricordo.

ma anche no; techpuwerup

all'uscita le GTX 780 andavano il 17% in piu della 7970GHz

https://tpucdn.com/reviews/NVIDIA/GeForce_GTX_780/images/perfrel_1920.gif

questi sono gli ultimi bench fatti per la 960, fra la 780 e la 7970 GHz edidtion la situazione non mi sembra diversa

https://tpucdn.com/reviews/Gigabyte/GTX_960_OC/images/perfrel_1920.gif


e la 970 dall'uscita stava un 10/15 & medio in più della 299x, ora no..

no.

http://tpucdn.com/reviews/MSI/GTX_970_Gaming/images/perfrel_1920.gif


http://www.techpowerup.com/reviews/MSI/GTX_970_Gaming/27.html


le GPU vanno come andavano all'uscita

gd350turbo
27-05-2015, 11:14
Il mondo non inizia e non finisce con TW3...
Osservalo a 360° !

Epoc_MDM
27-05-2015, 11:16
la titan x va a1000€ e la 980 costa molto di più e non ti permette sostanziali vantaggi.

Ah beh nessuna GPU ha dei sostanziali vantaggi se non in termini di una decina di FPS, quindi pixel, quindi roba inutile, che però muove un mercato da miliardi di dollari.

Epoc_MDM
27-05-2015, 11:20
e allora se ricordo male (appena arrivo a casa cero pure io) questo non fa altro che darmi ragione. AMD ha schede competitive in tutto e per tutto con nVidia, 980 e titanx a parte (che non fanno mercato), i maggiori consumi sono ripagati da un prezzo inferiore non dimenticandosi quanto siano ormai vecchie le 290c rispetto ad una 970 che in full fa 80w in meno (mentre tra una 780ti ed una 290x custom passano 30/40w cioè niente)

Tu hai le idee leggermente confuse.

Un giorno mi spiegherai come Apple, che ha solo il 15% del mercato degli smartphone, faccia più utili di tutti gli altri messi insieme.

nardustyle
27-05-2015, 11:21
"


contando che se continua cosi andra in rosso anche la divisione GPU "l'ottimo" lo vedi solo tu...


lo è già da un botto , è che ci mettono apu e console nel computo ;)

parliamoci chiaro AMD è stata spolpata e tra poco sarà smenbrata e venduta

ma almeno per un po' ci sarà supporto

gd350turbo
27-05-2015, 11:25
...tra una 780ti ed una 290x custom passano 30/40w cioè niente...

Interessante come 30/40 watt diventino niente...

Sullo stesso principio potrei dirti che 100 euro in più non sono niente !

AceGranger
27-05-2015, 11:36
hai la memoria corta, la 480 ha venduto un sacco consumando quasi 100w in più della 5870 ma nessuno si scandalizzava, erano "esigenze". cmq parlare con te è inutile, dimostri ad ogni news il tuo lato fanboy inequivocabile. aspettiamo guru e capra a darti manforte

un cesso è un cesso, in quel caso era un cesso verde :asd:, l'unica "consolazione" era che almeno andava di piu, qui non hai nemmeno quello.

e allora se ricordo male (appena arrivo a casa cero pure io) questo non fa altro che darmi ragione. AMD ha schede competitive in tutto e per tutto con nVidia, 980 e titanx a parte (che non fanno mercato), i maggiori consumi sono ripagati da un prezzo inferiore non dimenticandosi quanto siano ormai vecchie le 290c rispetto ad una 970 che in full fa 80w in meno (mentre tra una 780ti ed una 290x custom passano 30/40w cioè niente)

non mi pare di aver scritto che non sono competitive :mbe:

il problema è che le stesse prestazioni una le ottiene a 200W e l'altra 300W e non è un bel biglietto da visita quando uno deve scegliere cosa acquistare, visto che vanno uguale e costano simili.
non è questione di bolletta, ma del fatto che hai sempre 100 W in piu dentro al case e sull'alimentatore, e molti ( direi quasi tutti visto le % di Steaam ) preferiscono prendere le 970.


cosa buona e giusta sarebbe stata quella di arrivare con nuovi chip stile Maxwell, ovvero prestazioni simili alle attuali ma con un'efficienza migliore; qui invece faranno uscire solo la super top gamma

gd350turbo
27-05-2015, 11:43
hai la memoria corta, la 480 ha venduto un sacco consumando quasi 100w in più della 5870 ma nessuno si scandalizzava, erano "esigenze". cmq parlare con te è inutile, dimostri ad ogni news il tuo lato fanboy inequivocabile. aspettiamo guru e capra a darti manforte

Ancora con questo "nessuno"?

Io al tempo mi rifiutai di acquistarla, appunto per questo problema, così come mi rifiuto di prendere amd per il medesimo problema !

Se qui c'è un fanboy per scoprire chi è guardati allo specchio !

OEidolon
27-05-2015, 12:03
Interessante come 30/40 watt diventino niente...

Sullo stesso principio potrei dirti che 100 euro in più non sono niente !

interessante come si parli/scriva in termini assoluti :O

qual è il problema dei 30/40/100 W in più?

sono le temp complessive? ok, di quanti gradi ti alza la temperatura (media) all'interno del case? Questo innalzamento quali componenti va a influenzare? In che modo li influenza?

sono i consumi alla presa? ok, allora iniziamo: questi Watt assorbiti dalla vga quanti Watt diventano alla presa? Che coefficiente di utilizzo applichiamo a questi W? In termini economici quanto spendiamo in più al mese/anno?

giusto perchè poi si scopre gente che va in panico per 5°C medi in più, con la cpu liquidata (o no) che in full ha la stessa temp, e che nella bolletta gli costa meno di 10euro all'anno :asd:

iorfader
27-05-2015, 12:07
ma perchè continuate con ste cavolate? non dovete giustificare a noi l'acquisto delle vostre vga. amd che vi piaccia o meno è dietro al momento, e a meno di un miracolo, non vivrà ancora a lungo come azienda. è indietro in ogni settore e le vendite delle console, non la salvano di certo.

Sflao
27-05-2015, 12:08
da quello che ricordo la 480 fu una scheda presa parecchio per il culo nei vari forum quando uscì, con tanto di immagini di questa scheda con un uovo cucinato sopra il dissipatore
la 480 consumava di più, scaldava, e faceva casino... ma andava anche di più di una 5870, specialmente con gli engine dx11 che facevano uso di tessellation dove invidia era superiore come architettura.


la 290x quando è uscita consumava di più , ma non con una differenza come ci fu tra una 480 vs 5870, faceva casino ed era un forno ,ma andava leggermente meno o al massimo uguale ad una 780 Ti.

è una situazione simile.

iorfader
27-05-2015, 12:09
da quello che ricordo la 480 fu una scheda presa parecchio per il culo nei vari forum quando uscì, con tanto di immagini di questa scheda con un uovo cucinato sopra il dissipatore
la 480 consumava di più, scaldava, e faceva casino... ma andava anche di più di una 5870, specialmente con gli engine dx11 che facevano uso di tessellation dove invidia era superiore come architettura.


la 290x quando è uscita consumava di più , ma non con una differenza come ci fu tra una 480 vs 5870, faceva casino ed era un forno ,ma andava leggermente meno o al massimo uguale ad una 780 Ti.

è una situazione simile.

NO

Sflao
27-05-2015, 12:10
NO

cosa no?

Sflao
27-05-2015, 12:30
Ancora con questo "nessuno"?

Io al tempo mi rifiutai di acquistarla, appunto per questo problema, così come mi rifiuto di prendere amd per il medesimo problema !

Se qui c'è un fanboy per scoprire chi è guardati allo specchio !

idem.
optai per una 5870 e per un ritorno ad NV dovetti attendere la GTX 580.

Goofy Goober
27-05-2015, 12:47
ogni volta che si finisce a parlare di consumi delle vga consumer mi spiscio dal ridere.

credo che nemmeno lo 0,0000001% di chi sceglie una vga che consuma meno rispetto ad una simile/uguale a prezzo simile/uguale avesse poi davvero problemi nel comprare quella leggermente più esosa in termini di watt.

è un po' come lo spot della golf che gira adesso in tv.
cioè, la si sarebbe comprata comunque.
i watt consumati si mettono nella lista dei "pro" giusto per far numero (dato che la persona che compra, si sente più sicura a comprare con un motivo in più, anche se sostanzialmente a livello pratico, ma anche economico, è un motivo inesistente).

gd350turbo
27-05-2015, 12:51
tu non sei il mercato, il tuo rifiuto conta quanto il 2 di coppe con briscola a mazze. la 480 vendette nonostante avesse problemi ben più seri della 290x che in versione custom consuma quasi quanto una 780ti (30w su una vga enthusiast a chi cambiano....) scaldando fondamentalmente uguale
Appunto, io non sono responsabile di quello che fa la gente, se la gente vuole spendere per dei fornetti, fatti loro...
Io fornetti non li prendevo allora e non li prendo tutt'oggi, fedele alla linea !
meno consumo = meno calore = meno rumore e/o possibilità di ottenere overclock più alti !
Se per te questo non è niente, puoi continuare con amd !

Sflao
27-05-2015, 12:53
non è cosi come dici tu. AMD fece uscire la 7970ghz per controbattere la 680, la 780 stava un 30% in più da quello che ricordo. e la 970 dall'uscita stava un 10/15 & medio in più della 299x, ora no..

7970Ghz (7970 overclockata) è una scheda che compete contro la GTX 770 (GTX 680 overclockata).
GTX 780 è sempre stato un gradino sopra, con una diffferenza sul 30% che era contro una GTX 680, mentre con la 7970 Ghz era più sul 15-20%.e per avere un distacco vicino ad un 30% contro di questa, con schede a default, ci voleva una titan (quasi un 10% più veloce di una 780) che costava il triplo ( :sbonk: ) .
Un 780 comunque poteva diventare notevole in OC, aumentando la performance di più, comparandola a schede come la GTX 770 e 7970GHz in OC, e facendo una bella differenza a risoluzioni sopra la full hd..

per quanto riguarda la GTX 970 era meglio di una 290 mentre mi pare che era + o - ai livelli di una 290X, con la GTX 980 che andava più di tutte le altre schede di fascia alta.

gd350turbo
27-05-2015, 13:01
qual è il problema dei 30/40/100 W in più?
Esattamente lo stesso che c'è tra una vga da 100 euro e una da 1000 euro, se per te gli euro sono ininfluenti non c'è nessuna differenza !

iorfader
27-05-2015, 13:01
ogni volta che si finisce a parlare di consumi delle vga consumer mi spiscio dal ridere.

credo che nemmeno lo 0,0000001% di chi sceglie una vga che consuma meno rispetto ad una simile/uguale a prezzo simile/uguale avesse poi davvero problemi nel comprare quella leggermente più esosa in termini di watt.

è un po' come lo spot della golf che gira adesso in tv.
cioè, la si sarebbe comprata comunque.
i watt consumati si mettono nella lista dei "pro" giusto per far numero (dato che la persona che compra, si sente più sicura a comprare con un motivo in più, anche se sostanzialmente a livello pratico, ma anche economico, è un motivo inesistente).

io ho venduto la 290x per 970 x i consumi, che cavolo dici? tutti scelgono la vga se a pari potenza in base ai consumi...poi la 970 và anche d+

OEidolon
27-05-2015, 13:05
ma perchè continuate con ste cavolate? non dovete giustificare a noi l'acquisto delle vostre vga. amd che vi piaccia o meno è dietro al momento, e a meno di un miracolo, non vivrà ancora a lungo come azienda. è indietro in ogni settore e le vendite delle console, non la salvano di certo.

:sbonk:

si capisce perchè non hai mansioni dirigenziali :asd:

Esattamente lo stesso che c'è tra una vga da 100 euro e una da 1000 euro, se per te gli euro sono ininfluenti non c'è nessuna differenza !

perchè non hai letto anche quello dopo il tuo quote?

lo sai che sul forum non c'è la stellina del "top commentator" vero?

gd350turbo
27-05-2015, 13:14
Sono qui da più tempo di te...

God of Volt
27-05-2015, 13:15
La questione "Consumi" sinceramente non la capisco...
Capirei la questione temperature se si parlasse della 290X reference, che ho avuto ed era un forno crematorio, ma sul fronte dei consumi una 780Ti ed una 290X, entrambe custom (curioso di sapere quanti di voi abbiano una VGA reference nel case) avevano una decina di Watt al massimo di differenza (http://www.techpowerup.com/reviews/?category=Video+Cards&manufacturer=ASUS&pp=25&order=date per riferimento, non sparo cavolate). La 970 consuma sì meno della 290X, ma quel mezzo giga in più della 290X (ricordate? 3.5+0.5) aiuta, e non poco, quando si gioca alla risoluzione per cui una scheda del genere è fatta (e non parlo certo del 1080p).
AMD è indietro, tecnologicamente e a livello di marketing/vendite, vero, e il rebrand non aiuta l'immagine, aiuta soltanto le tasche dell'azienda. Ormai i chip hanno più di 2 anni (tutte le schede che non siano 290x, 290, 285 e 260x che sono GCN 1.1, 1.1, 1.2 e 1.2) e quindi la yield (resa) è elevatissima per chip del genere. Inoltre, con un rebrand, di solito coincide un retargeting, ovvero un ridimensionamento dei prezzi verso il basso.
Insomma, la 290X potrebbe occupare, nel nome di 380X, o 390, o anche 390X, visto che la top di gamma con Fiji avrà un nome nello stile della Titan, la fascia di prezzo sub 300€. A quel punto[consumi a parte che comunque possono essere aggiustati anche con un sistema di raffreddamento custom (solo cambiando la pasta termica sulla reference della 290X ho guadagnato 20W sui consumi, sì, è possibile, si chiama efficienza dei semiconduttori e dipende dalla temperatura) e con un'ulteriore revisione] 300€ per una VGA che permette di giochicchiare in 4K abbassando qualche dettaglio non mi pare affatto una brutta mossa da parte di AMD.
Certo è che NVIDIA con la 980, la 980Ti (che dovrebbe costare 699€) e la Titan (1250€ più o meno) non è che va a favore dell'utente. Va a favore suo, e suo soltanto.

Kimmy
27-05-2015, 13:18
in pratica tutti i gng conpatibili con le dx 12 :D

ottimo vedo nella 290x lo stesso lungo supporto dato alla 7970 , che dopo anni e generazioni va come un treno ( mentre qualcun altro si dimentica di supportare schede top dell'anno prima ... qcn ha detto kepler :D )

Nvidia ha annunciato di essere al lavoro per risolvere il problema delle scarse performance delle Kepler su Witcher3. Nel frattempo basta ridurre di brutta l'AA sull'Hairworks e anche le Kepler viaggiano


Per il resto, AMD praticamente rebrandizza tutta la gamma, altro che un paio di gpu...
A questo punto potevano rebrandizzare subito e non perdere 9 mesi lasciando tutto il mercato alle Maxwell, arrivando adesso con nulla di nuovo si stanno suicidando.

Sflao
27-05-2015, 13:21
"con un'ulteriore revisione] 300€ per una VGA che permette di giochicchiare in 4K abbassando qualche dettaglio non mi pare affatto una brutta mossa da parte di AMD"

ma questa non è una scheda adatta per la 4K.
per la 4K , ed accontentandosi in alcuni casi, ci vuole minimo una GTX 980 Ti , Titan X, 390X.
e per giocarci al massimo ce ne vogliono 2.

davo30
27-05-2015, 13:23
La questione "Consumi" sinceramente non la capisco...
Capirei la questione temperature se si parlasse della 290X reference, che ho avuto ed era un forno crematorio, ma sul fronte dei consumi una 780Ti ed una 290X, entrambe custom (curioso di sapere quanti di voi abbiano una VGA reference nel case) avevano una decina di Watt al massimo di differenza (http://www.techpowerup.com/reviews/?category=Video+Cards&manufacturer=ASUS&pp=25&order=date per riferimento, non sparo cavolate). La 970 consuma sì meno della 290X, ma quel mezzo giga in più della 290X (ricordate? 3.5+0.5) aiuta, e non poco, quando si gioca alla risoluzione per cui una scheda del genere è fatta (e non parlo certo del 1080p).
AMD è indietro, tecnologicamente e a livello di marketing/vendite, vero, e il rebrand non aiuta l'immagine, aiuta soltanto le tasche dell'azienda. Ormai i chip hanno più di 2 anni (tutte le schede che non siano 290x, 290, 285 e 260x che sono GCN 1.1, 1.1, 1.2 e 1.2) e quindi la yield (resa) è elevatissima per chip del genere. Inoltre, con un rebrand, di solito coincide un retargeting, ovvero un ridimensionamento dei prezzi verso il basso.
Insomma, la 290X potrebbe occupare, nel nome di 380X, o 390, o anche 390X, visto che la top di gamma con Fiji avrà un nome nello stile della Titan, la fascia di prezzo sub 300€. A quel punto[consumi a parte che comunque possono essere aggiustati anche con un sistema di raffreddamento custom (solo cambiando la pasta termica sulla reference della 290X ho guadagnato 20W sui consumi, sì, è possibile, si chiama efficienza dei semiconduttori e dipende dalla temperatura) e con un'ulteriore revisione] 300€ per una VGA che permette di giochicchiare in 4K abbassando qualche dettaglio non mi pare affatto una brutta mossa da parte di AMD.
Certo è che NVIDIA con la 980, la 980Ti (che dovrebbe costare 699€) e la Titan (1250€ più o meno) non è che va a favore dell'utente. Va a favore suo, e suo soltanto.

Quoto pienamente, ma la moda del momento sono i consumi. Se poi in realtà questi si traducono in una manciata di centesimi di differenza all'anno, poco importa, l'importante è "eh ma consuma di meno"
Detto questo, da fan AMD mi chiedo se sono fuori di testa. 1 anno e mezzo dall'uscita della serie 200, per decidere di rinominarla? E lasciare Nvidia ciucciarti il 13% del market share? GG AMD, ottima mossa....

God of Volt
27-05-2015, 13:25
"con un'ulteriore revisione] 300€ per una VGA che permette di giochicchiare in 4K abbassando qualche dettaglio non mi pare affatto una brutta mossa da parte di AMD"

ma questa non è una scheda adatta per la 4K.
per la 4K , ed accontentandosi in alcuni casi, ci vuole minimo una GTX 980 Ti , Titan X, 390X.
e per giocarci al massimo ce ne vogliono 2.

GIOCHICCHIARE, ABBASSANDO QUALCHE DETTAGLIO non è giocare in 4K con tutto su ubermaxiultraAAx64. Già solo rinunciando all'AA (inutile in 4K) si gioca bene anche con una 280X a giochi come WoW, BF4 (Mantle, grazie :) ), COD:AW, GRID Autosport, e ho GTA V e TW3 da mettere in download con Steam ed Origin non appena Infostrada mi attiva il contratto...ho alcuni colleghi di lavoro che a GTA V ci stan giocando in 4K con 280X/290 (non X), insomma non è che ci dobbiamo far girare Crysis :)

Epoc_MDM
27-05-2015, 13:27
La questione "Consumi" sinceramente non la capisco...
Capirei la questione temperature se si parlasse della 290X reference, che ho avuto ed era un forno crematorio, ma sul fronte dei consumi una 780Ti ed una 290X, entrambe custom (curioso di sapere quanti di voi abbiano una VGA reference nel case) avevano una decina di Watt al massimo di differenza (http://www.techpowerup.com/reviews/?category=Video+Cards&manufacturer=ASUS&pp=25&order=date per riferimento, non sparo cavolate). La 970 consuma sì meno della 290X, ma quel mezzo giga in più della 290X (ricordate? 3.5+0.5) aiuta, e non poco, quando si gioca alla risoluzione per cui una scheda del genere è fatta (e non parlo certo del 1080p).
AMD è indietro, tecnologicamente e a livello di marketing/vendite, vero, e il rebrand non aiuta l'immagine, aiuta soltanto le tasche dell'azienda. Ormai i chip hanno più di 2 anni (tutte le schede che non siano 290x, 290, 285 e 260x che sono GCN 1.1, 1.1, 1.2 e 1.2) e quindi la yield (resa) è elevatissima per chip del genere. Inoltre, con un rebrand, di solito coincide un retargeting, ovvero un ridimensionamento dei prezzi verso il basso.
Insomma, la 290X potrebbe occupare, nel nome di 380X, o 390, o anche 390X, visto che la top di gamma con Fiji avrà un nome nello stile della Titan, la fascia di prezzo sub 300€. A quel punto[consumi a parte che comunque possono essere aggiustati anche con un sistema di raffreddamento custom (solo cambiando la pasta termica sulla reference della 290X ho guadagnato 20W sui consumi, sì, è possibile, si chiama efficienza dei semiconduttori e dipende dalla temperatura) e con un'ulteriore revisione] 300€ per una VGA che permette di giochicchiare in 4K abbassando qualche dettaglio non mi pare affatto una brutta mossa da parte di AMD.
Certo è che NVIDIA con la 980, la 980Ti (che dovrebbe costare 699€) e la Titan (1250€ più o meno) non è che va a favore dell'utente. Va a favore suo, e suo soltanto.

Nessuno va a favore dell'utente, ne Nvidia ne AMD.
La 970 non è pensata per giocare a 4k, punto.
Che abbiano fatto una figura del menga? Nessuno lo nega, ma non puoi contestare la bontà della scheda.

Ma la 295x2 quanto costava quando uscì? non certo 500€. E' anche questo che guarda la gente "Nvidia ha le due schede single GPU più potenti del mercato, quindi è meglio di AMD".

Per quanto possa ciò essere sbagliato a livello di valutazione, è innegabile che AMD AL MOMENTO non abbia una scheda che possa competere con le due attuali top gamma Nvidia, costino 30 € o 3000€ e non credo che a Nvidia costi poi così tanto produrre una 970 piuttosto che una Titan X, quindi poco margine di spesa per loro, infinito guadagno (considerando costi il quadruplo, pensa che margine che prendono anche vendendone solo una)

GIOCHICCHIARE, ABBASSANDO QUALCHE DETTAGLIO non è giocare in 4K con tutto su ubermaxiultraAAx64. Già solo rinunciando all'AA (inutile in 4K) si gioca bene anche con una 280X a giochi come WoW, BF4 (Mantle, grazie :) ), COD:AW, GRID Autosport, e ho GTA V e TW3 da mettere in download con Steam ed Origin non appena Infostrada mi attiva il contratto...ho alcuni colleghi di lavoro che a GTA V ci stan giocando in 4K con 280X/290 (non X), insomma non è che ci dobbiamo far girare Crysis :)

4k TW3 mi sa che dovrai abbassare più di qualche dettaglio, anche per avere solo i 30 fps con quelle schede :)
Se poi per giochicchia bene intendi "il personaggio si muove", allora si giochicchia bene anche con una HD4600.

God of Volt
27-05-2015, 13:29
Quoto pienamente, ma la moda del momento sono i consumi. Se poi in realtà questi si traducono in una manciata di centesimi di differenza all'anno, poco importa, l'importante è "eh ma consuma di meno"
Detto questo, da fan AMD mi chiedo se sono fuori di testa. 1 anno e mezzo dall'uscita della serie 200, per decidere di rinominarla? E lasciare Nvidia ciucciarti il 13% del market share? GG AMD, ottima mossa....

Io ho smesso di simpatizzare per una o per l'altra proprio perché ogni tanto se ne escono con queste stupidaggini...
IMHO, e voglio definirmi un ignorantissimo dell'argomento, se il rebrand avesse visto le 290X diventare le 380X, con conseguente introduzione di 390, 390X, Fiji XT e Fiji XT WCE, allora AMD avrebbe guadagnato tantissimo e agli occhi degli utenti e economicamente parlando...
Con i se e con i ma, però, non si va da nessuna parte.
C'è da vedere il lancio delle nuove VGA al Computex, di W10, delle DX12, degli aggiornamenti dei vari Unreal Engine, Frostbite etc. in modo da supportare tali DirectX. Fino ad allora stiamo solo speculando al 100%.

Sflao
27-05-2015, 13:31
il fatto è che anche con schede più potenti di quella c'è da abbassare qualche dettaglio con i giochi + recenti... figuriamoci con una 290x... in qualche caso ci sarà da mettersi le mani sui capelli.

una 290x la userei al massimo per una 2560x1440.quella è la sua risoluzione ideale.

Goofy Goober
27-05-2015, 13:32
io ho venduto la 290x per 970 x i consumi, che cavolo dici? tutti scelgono la vga se a pari potenza in base ai consumi...poi la 970 và anche d+

che cavolo dici? :asd:
che cavolo dici tu scusami tanto :D

cosa ci hai guadagnato in termini pratici da aver venduto una gpu ed esser passato all'altra? ipotizzando che fossero schede identiche?

passare da una AMD 290X ad una Nvidia 970 per me ha senso se ci sono motivi accessori VINCOLANTI per esempio:

- voglio il gsync, devo passare a nvidia
- voglio il freesync, devo passare ad amd
- voglio il physx, devo passare ad nvidia
- voglio mettere un fullcover liquido e la mia gpu non è compatibile, la cambio

e così via.
sempre nel caso si parli di passaggio tra gpu con prestazioni simili/uguali. altrimenti c'è appunto la motivazione di cambio per migliorare le prestazioni ottenibili.

cambiare in riguardo ai soli consumi di watt perchè lo fai?
adesso tu stai tenendo conto delle spese di bolletta energetica in relazione ai consumi maggiori/minori relativi al tuo computer e alla sua componetistica?

se si, hai anche cambiato e aggiornato CPU ogni qual volta ne era disponibile una a consumi inferiori e prestazioni simili?
se si, hai valutato i consumi relativi ai chip extra installati sulla scheda madre confrontando quando tale scheda (e chipset) consuma sotto carico, a riposo, e durante l'overlock?
hai valutato i consumi in IDLE della componentistica, tenendo presente il tuo utilizzo del computer e i tempi a riposo dei componenti in relazione a quelli a pieno carico?
ritengo saprai che in passato, più di una volta, gpu in IDLE consumavano di più di altre che in FULL avevano invece consumi maggiori?

se hai tenuto conto di questi aspetti e di, tanti, altri, sui quali si può pensare di andare a discutere parlando di contenimento dei consumi ASSOLUTI (teorici) di un computer, allora va bene, cambia pure scheda video ogni qual volta ne trovi una simile che ha un risparmio in pochi watt. :D

ma renditi conto che "tutti" (chi?) scelgono le vga in base ai consumi è una follia totale qui, su marte, saturno e satelliti annessi e via dicendo.
equivale ad affermare che "tutti" scelgono le auto che consumano meno, gli scooter che consumano meno, e tutto quello che consuma meno (lavatrici, tv, telefoni, rasoi) in un continuo vendi e ricompra appena c'è qualcosa che consuma 1 watt in meno.

vabbè, credici :D

Sflao
27-05-2015, 13:32
4k TW3 mi sa che dovrai abbassare più di qualche dettaglio, anche per avere solo i 30 fps con quelle schede :)
Se poi per giochicchia bene intendi "il personaggio si muove", allora si giochicchia bene anche con una HD4600.

con un project cars , un The witcher III , un far cry 4, un Assassin's creed (anche quello precedente ) ecc ecc ecc ci sarà da piange altro che....

davo30
27-05-2015, 13:35
io ho venduto la 290x per 970 x i consumi, che cavolo dici? tutti scelgono la vga se a pari potenza in base ai consumi...poi la 970 và anche d+

Ottima idea. Ipotizzo, hai venduto la 290x a 200€ per prendere la 970 a 300€ (quindi rimettendoci 100€, ma anche fossero 50€), per poi risparmiarne 5/6€ all'anno di elettricità (e ci sono andato largo)? Ottima scelta....

50/5=10 anni di ammortamento dell'investimento

God of Volt
27-05-2015, 13:36
Nessuno va a favore dell'utente, ne Nvidia ne AMD.
La 970 non è pensata per giocare a 4k, punto.

Ma la 295x2 quanto costava quando uscì? non certo 500€. E' anche questo che guarda la gente "Nvidia ha le due schede single GPU più potenti del mercato, quindi è meglio di AMD".

Per quanto possa ciò essere sbagliato a livello di valutazione, è innegabile che AMD AL MOMENTO non abbia una scheda che possa competere con le due attuali top gamma Nvidia, costino 30 € o 3000€ e non credo che a Nvidia costi poi così tanto produrre una 970 piuttosto che una Titan X, quindi poco margine di spesa per loro, infinito guadagno (considerando costi il quadruplo, pensa che margine che prendono anche vendendone solo una)



4k TW3 mi sa che dovrai abbassare più di qualche dettaglio, anche per avere solo i 30 fps con quelle schede :)
Se poi per giochicchia bene intendi "il personaggio si muove", allora si giochicchia bene anche con una HD4600.

Sì e no.
La 970 non è fatta per il 4K, tantomento la 290X, ma se proprio uno ci vuole stare la 290X va un pelo meglio della 970.

Sul fronte "costi" di NVIDIA, produrre un chip GM200 full, da 3072 CUDA, non è una cosa da poco. Considera che, nella teorica possibilità (aka impossibilità) che il costo di produzione fosse linearmente proporzionale al numero di transistors e/o CUDA, un GM200 costa il 50% in più di un GM207, visto che quest'ultimo (la 980, insomma) presenta 2048 CUDA mentre il cuore della Titan-X 3072. È uno dei motivi per cui la 980Ti non avrà il GM200 sbloccato ma avrà un GM200-310 o qualcosa del genere, con 2816/2880 CUDA.
Insomma, ad NVIDIA magari produrre un chip di 980 costa 100€, ma per produrre uno di una Titan-X probabile che costi ad essa anche 300, o 400€.

Si parla a grandi linee, eh. Non fate conti sui numeri che sparo, che faccio solo esempi numerici per cercare di spiegarmi meglio :)

Per TW3 in 4K, hai ragionissima, ma ho una bad news:
http://tpucdn.com/reviews/Performance_Analysis/The_Witcher_3/images/3840_2160.gif
Nemmeno la Titan-X permette di giocarci a 60FPS... Certo, AMD è lontana, ma intanto la 290X sta sopra alla 970 del 5% e sotto alla 980 dell'8%...
VGA di due anni fa, e giudicate "schifobleah" dai fanboy o dagli utonti :)

gd350turbo
27-05-2015, 13:38
Non credo che l'abbia fatto per quello...

God of Volt
27-05-2015, 13:40
il fatto è che anche con schede più potenti di quella c'è da abbassare qualche dettaglio con i giochi + recenti... figuriamoci con una 290x... in qualche caso ci sarà da mettersi le mani sui capelli.

una 290x la userei al massimo per una 2560x1440.quella è la sua risoluzione ideale.
Ah senza dubbio, prima di passare al 4K avevo un 27" 1440p e diamine, la 290X rullava di brutto :)
che cavolo dici? :asd:
che cavolo dici tu scusami tanto :D

cosa ci hai guadagnato in termini pratici da aver venduto una gpu ed esser passato all'altra? ipotizzando che fossero schede identiche?

passare da una AMD 290X ad una Nvidia 970 per me ha senso se ci sono motivi accessori VINCOLANTI per esempio:

- voglio il gsync, devo passare a nvidia
- voglio il freesync, devo passare ad amd
- voglio il physx, devo passare ad nvidia
- voglio mettere un fullcover liquido e la mia gpu non è compatibile, la cambio

e così via.
sempre nel caso si parli di passaggio tra gpu con prestazioni simili/uguali. altrimenti c'è appunto la motivazione di cambio per migliorare le prestazioni ottenibili.

cambiare in riguardo ai soli consumi di watt perchè lo fai?
adesso tu stai tenendo conto delle spese di bolletta energetica in relazione ai consumi maggiori/minori relativi al tuo computer e alla sua componetistica?

se si, hai anche cambiato e aggiornato CPU ogni qual volta ne era disponibile una a consumi inferiori e prestazioni simili?
se si, hai valutato i consumi relativi ai chip extra installati sulla scheda madre confrontando quando tale scheda (e chipset) consuma sotto carico, a riposo, e durante l'overlock?
hai valutato i consumi in IDLE della componentistica, tenendo presente il tuo utilizzo del computer e i tempi a riposo dei componenti in relazione a quelli a pieno carico?
ritengo saprai che in passato, più di una volta, gpu in IDLE consumavano di più di altre che in FULL avevano invece consumi maggiori?

se hai tenuto conto di questi aspetti e di, tanti, altri, sui quali si può pensare di andare a discutere parlando di contenimento dei consumi ASSOLUTI (teorici) di un computer, allora va bene, cambia pure scheda video ogni qual volta ne trovi una simile che ha un risparmio in pochi watt. :D

ma renditi conto che "tutti" (chi?) scelgono le vga in base ai consumi è una follia totale qui, su marte, saturno e satelliti annessi e via dicendo.
equivale ad affermare che "tutti" scelgono le auto che consumano meno, gli scooter che consumano meno, e tutto quello che consuma meno (lavatrici, tv, telefoni, rasoi) in un continuo vendi e ricompra appena c'è qualcosa che consuma 1 watt in meno.

vabbè, credici :D
Quotone infinito e stima per il S.E.I.T.E.N. :D
con un project cars , un The witcher III , un far cry 4, un Assassin's creed (anche quello precedente ) ecc ecc ecc ci sarà da piange altro che....
Guarda caso tutti giochi NVIDIA TWIMTBP (The way it's meant to be played, aka GameWorks).
Project Cars, TW3 e AC hanno tutti avuto critiche sulla scarsa ottimizzazione del gioco su AMD, non per colpa di quest'ultima.
FC4 è FC3 con una mappa diversa e quello in 4K mi gira che è una bellezza, quasi tutto sparato al massimo con la mia 280x, figurati una 290X :asd:

Sflao
27-05-2015, 13:40
Nvidia ha annunciato di essere al lavoro per risolvere il problema delle scarse performance delle Kepler su Witcher3. Nel frattempo basta ridurre di brutta l'AA sull'Hairworks e anche le Kepler viaggiano


penso che l'hairworks non è un miglioramento notevole per la grafica quindi non vale la pena visto il costo prestazionale.

Epoc_MDM
27-05-2015, 13:43
Sì e no.
La 970 non è fatta per il 4K, tantomento la 290X, ma se proprio uno ci vuole stare la 290X va un pelo meglio della 970.


La 970 consuma sì meno della 290X, ma quel mezzo giga in più della 290X (ricordate? 3.5+0.5) aiuta, e non poco, quando si gioca alla risoluzione per cui una scheda del genere è fatta (e non parlo certo del 1080p).


Intendevi a 1440p? Non mi risulta la 970 abbia problemi di Vram a 1440p :)


Sul fronte "costi" di NVIDIA, produrre un chip GM200 full, da 3072 CUDA, non è una cosa da poco. Considera che, nella teorica possibilità (aka impossibilità) che il costo di produzione fosse linearmente proporzionale al numero di transistors e/o CUDA, un GM200 costa il 50% in più di un GM207, visto che quest'ultimo (la 980, insomma) presenta 2048 CUDA mentre il cuore della Titan-X 3072. È uno dei motivi per cui la 980Ti non avrà il GM200 sbloccato ma avrà un GM200-310 o qualcosa del genere, con 2816/2880 CUDA.
Insomma, ad NVIDIA magari produrre un chip di 980 costa 100€, ma per produrre uno di una Titan-X probabile che costi ad essa anche 300, o 400€.

Si parla a grandi linee, eh. Non fate conti sui numeri che sparo, che faccio solo esempi numerici per cercare di spiegarmi meglio :)


Si ovvio, nemmeno io conosco l'effettivo costo di produzione :p
Basandomi su quello che hai scritto:

980 = 100€ -> 600€ -> 500€ guadagno
Titan X = 350 (facciamo media :D) -> 1200€ -> 850€ guadagno

Non credo costi il triplo, magari il doppio, ma il margine è di almeno il 50% più alto. Non devono venderne milioni, devono vendere il giusto per aumentare i profitti, ovvio che la compreranno in pochi.

Per TW3 in 4K, hai ragionissima, ma ho una bad news:
http://tpucdn.com/reviews/Performance_Analysis/The_Witcher_3/images/3840_2160.gif
Nemmeno la Titan-X permette di giocarci a 60FPS... Certo, AMD è lontana, ma intanto la 290X sta sopra alla 970 del 5% e sotto alla 980 dell'8%...
VGA di due anni fa, e giudicate "schifobleah" dai fanboy o dagli utonti :)

Si hai ragione, ma VGA che 2 anni fa (DUE ANNI FA) erano top gamma :)
E' questo che io contesto ad AMD (e che mi piacerebbe facesse), la mancanza di una vera top gamma che mi faccia dire "uhm, ho 3000€ da spendere, prendo Nvidia o AMD?"

teox85
27-05-2015, 13:46
Hanno deciso di applicare la già ottima strategia di marketing che hanno sulle cpu alle vga, mille anni con sempre gli stessi modelli :muro:

calabar
27-05-2015, 13:50
Ma sono io che ricordo male, o in qualche articolo passato si era già parlato di uso di versioni revisionate dei vecchi chip?

Ora bisognerebbe capire cosa si intende per versioni revisionate. Magari è stato fatto un buon lavoro sul silicio, integrate le nuove tecnologie e modificato qualche parte del chip per ottimizzare consumi o prestazioni. Magari si è lavorato anche sul PCB.
Alla fine il risultato potrebbe non essere così malvagio, e ottenere un vantaggio sulle schede di generazione precedente tale da tragare AMD senza troppi problemi verso le prossime schede su cui hanno preferito concentrare le risorse.
Nessuno immagino crede nei miracoli, però se quanto si era detto si dimostrasse vero, potrebbero rimanere schede interessanti, al giusto prezzo.

Ma la 295x2 quanto costava quando uscì? non certo 500€. E' anche questo che guarda la gente "Nvidia ha le due schede single GPU più potenti del mercato, quindi è meglio di AMD".
Questo non lo vedo come un problema.
AMD ha da tempo abbandonato la corsa al chi ce l'ha più lungo, ciò nonostante ha venduto bene in diverse occasioni.
Il punto è che progettare e produrre chip "grossi" ha un costo elevato, e se non hai un mercato sufficientemente grande in cui venderli non puoi permetterteli.
AMD quindi si accontenta spesso di coprire la maggior parte delle fasce di mercato rinunciando alla fascia altissima, che comunque ha numeri di vendita molto bassi (sebbene possa avere margini alti, ma ricordiamo anche alti costi se si arriva a progettare appositamente i chipponi).

Alla fine il vero problema è che AMD dovrebbe dare una bella rinnovata all'intera gamma, ma ha deciso di concentrare altrove le risorse, probabilmente in attesa di un processo produttivo migliore.
Credo che dovremmo aspettare i 16nm per capire realmente quale sia il livello competitivo di AMD in questo momento.

God of Volt
27-05-2015, 13:52
Intendevi a 1440p? Non mi risulta la 970 abbia problemi di Vram a 1440p :)



Si ovvio, nemmeno io conosco l'effettivo costo di produzione :p
Basandomi su quello che hai scritto:

980 = 100€ -> 600€ -> 500€ guadagno
Titan X = 350 (facciamo media :D) -> 1200€ -> 850€ guadagno

Non credo costi il triplo, magari il doppio, ma il margine è di almeno il 50% più alto. Non devono venderne milioni, devono vendere il giusto per aumentare i profitti, ovvio che la compreranno in pochi.



Si hai ragione, ma VGA che 2 anni fa (DUE ANNI FA) erano top gamma :)
E' questo che io contesto ad AMD (e che mi piacerebbe facesse), la mancanza di una vera top gamma che mi faccia dire "uhm, ho 3000€ da spendere, prendo Nvidia o AMD?"

Intendevo 1440p e 2160p, sì, e con Shadow of Mordor (titolo patrocinato da NVIDIA) la 970 le prende proprio per la questione VRAM, ad esempio...
Comunque c'è anche la yield, ovvero la % di wafer che diventa GPU a tutti gli effetti. Più è grande il chip, più costa e più è probabile che escano chip difettati ovvero con una parte degli shaders non funzionanti (980Ti :D ) quindi il discorso è un po' più ampio... Mettici poi quelli che hanno tutti gli shaders funzionanti ma che operano ad una frequenza minore e non reggono i 1000 MHz della Titan-X, quelli che presentano "sbavature" e invece di X Watt (chip-only) consumano X+2 Watt e allora vengono "Bocciati" o declassati o altro...
Creare una GPU non è facile, che tu sia verde o rosso, insomma XD

Comunque sì, anche io sento la mancanza di una punta di diamante rossa, anche per una questione di mercato. Le posizioni monopoliste (vedasi Microsoft con gli OS, Intel con le CPU, NVIDIA con le GPU) non hanno mai fatto bene al mercato e agli utenti...
C'è bisogno di una smossa, e credo che AMD si rifarà solo al prossimo nodo produttivo, quello dei 14/16nm...

Sflao
27-05-2015, 13:52
Guarda caso tutti giochi NVIDIA TWIMTBP (The way it's meant to be played, aka GameWorks).
Project Cars, TW3 e AC hanno tutti avuto critiche sulla scarsa ottimizzazione del gioco su AMD, non per colpa di quest'ultima.
FC4 è FC3 con una mappa diversa e quello in 4K mi gira che è una bellezza, quasi tutto sparato al massimo con la mia 280x, figurati una 290X :asd:

eh o nini d'altronde i giochi so questi... e se nvidia stringe più accordi con gli sviluppatori che ci posso fare io....

poi nel caso di the witcher non mi sembra amd sia penalizzata:


http://abload.de/img/http--www.gamegpu.ru-74j4e.jpg (http://abload.de/image.php?img=http--www.gamegpu.ru-74j4e.jpg)


alla lista ti ci posso aggiungere un Dyin light e Dragon Age ed anche li c hai da faticare con una gpu del genere.

gd350turbo
27-05-2015, 13:55
Hanno deciso di applicare la già ottima strategia di marketing che hanno sulle cpu alle vga, mille anni con sempre gli stessi modelli
Come si dice ?
Squadra che PERDE, non si cambia ?

Epoc_MDM
27-05-2015, 13:56
Questo non lo vedo come un problema.
AMD ha da tempo abbandonato la corsa al chi ce l'ha più lungo, ciò nonostante ha venduto bene in diverse occasioni.
Il punto è che progettare e produrre chip "grossi" ha un costo elevato, e se non hai un mercato sufficientemente grande in cui venderli non puoi permetterteli.
AMD quindi si accontenta spesso di coprire la maggior parte delle fasce di mercato rinunciando alla fascia altissima, che comunque ha numeri di vendita molto bassi (sebbene possa avere margini alti, ma ricordiamo anche alti costi se si arriva a progettare appositamente i chipponi).

Alla fine il vero problema è che AMD dovrebbe dare una bella rinnovata all'intera gamma, ma ha deciso di concentrare altrove le risorse, probabilmente in attesa di un processo produttivo migliore.
Credo che dovremmo aspettare i 16nm per capire realmente quale sia il livello competitivo di AMD in questo momento.

Beh sarebbe come dire che Audi domani si svegliasse dicendo "da oggi niente più versioni S e RS".

E non credo si vedano in giro più Audi che Fiat :D
(fatturato fiat 2014 - 17 MLD, fatturato Audi 2014 - 53 MLD, fa un po te considerando il market share :D)

Ma lo vedi anche nel confronto Apple vs tutto il resto. L'avercelo più lungo serve agli utenti per dire "io ce l'ho più lungo di te" e quindi acquistare (che poi è come funziona il mondo :D)

God of Volt
27-05-2015, 13:57
eh o nini d'altronde i giochi so questi... e se nvidia stringe più accordi con gli sviluppatori che ci posso fare io....

poi nel caso di the witcher non mi sembra amd sia penalizzata:


http://abload.de/img/http--www.gamegpu.ru-74j4e.jpg (http://abload.de/image.php?img=http--www.gamegpu.ru-74j4e.jpg)


alla lista ti ci posso aggiungere un Dyin light e Dragon Age ed anche li c hai da faticare con una gpu del genere.

Risultati identici a quello che ho postato io, solo che nel tuo grafico ci sono anche gli SLI che confondono :) A me pare tenga testa degnamente ad NVIDIA, la 290X, nonostante il peso degli anni che porta... Tra l'altro è visibilissimo come TW3 sia pesante anche per 1200€ di VGA... Quindi un po' come Crysis nel 2007, forse non fa testo al 100%...

teox85
27-05-2015, 13:58
Come si dice ?
Squadra che PERDE, non si cambia ?
Qualcosa di simile, si :D

God of Volt
27-05-2015, 14:01
Beh sarebbe come dire che Audi domani si svegliasse dicendo "da oggi niente più versioni S e RS".

E non credo si vedano in giro più Audi che Fiat :D
(fatturato fiat 2014 - 17 MLD, fatturato Audi 2014 - 53 MLD, fa un po te considerando il market share :D)

Ma lo vedi anche nel confronto Apple vs tutto il resto. L'avercelo più lungo serve agli utenti per dire "io ce l'ho più lungo di te" e quindi acquistare (che poi è come funziona il mondo :D)

Permettimi di smentirti, l'avercelo più lungo serve a noi affamati di potenza (che poi magari ci giochiamo a Candy Crush Saga con i QuadSLI di Titan-X X°D), ma il mercato è mosso dai banchi da 2GB di DDR2, dalle GT210 e dalle HD5670....
Senza dimenticare i Cesseron e i Lentium, oppure le APU superschifoK...
Qui n'altro po' tiriamo in mezzo i nanotubi in carbonio come sostituti delle strutture in silicio, quando il 90% del mondo sta ancora cercando di capire se conviene passare dalle DDR2 alle DDR3 XD

Sflao
27-05-2015, 14:06
A me pare tenga testa degnamente ad NVIDIA, la 290X, nonostante il peso degli anni che porta...
Certo, come regge anche Kepler , in generale , che è una serie anche più vecchia delle R9.


Tra l'altro è visibilissimo come TW3 sia pesante anche per 1200€ di VGA... Quindi un po' come Crysis nel 2007, forse non fa testo al 100%...
ce ne sono altri a questi livelli, ma anche di peggio come pesantezza

God of Volt
27-05-2015, 14:10
Certo, come regge anche Kepler , in generale , che è una serie anche più vecchia delle R9.



ce ne sono altri a questi livelli, ma anche di peggio come pesantezza

Kepler (se intendi la 780Ti) è poco più vecchia della 290X, ma va anche più lentamente...

E più che pesantezza, io parlerei di scarsezza nell'ottimizzazione... Le VGA in commercio oggi sono dei mostri da più di 5TFlops di potenza, sono i giochi che sono:
fatti coi piedi
porting del piffero
sviluppati in "closed source" con un brand o un altro...

Epoc_MDM
27-05-2015, 14:17
Permettimi di smentirti, l'avercelo più lungo serve a noi affamati di potenza (che poi magari ci giochiamo a Candy Crush Saga con i QuadSLI di Titan-X X°D), ma il mercato è mosso dai banchi da 2GB di DDR2, dalle GT210 e dalle HD5670....
Senza dimenticare i Cesseron e i Lentium, oppure le APU superschifoK...
Qui n'altro po' tiriamo in mezzo i nanotubi in carbonio come sostituti delle strutture in silicio, quando il 90% del mondo sta ancora cercando di capire se conviene passare dalle DDR2 alle DDR3 XD

E ti ripeto (ancora :D) vatti a vedere il fatturato Apple del 2014 e le sue % di mercato, e poi dimmi, anche se il mercato è mosso da Android, chi fattura e chi guadagna di più :)

Sflao
27-05-2015, 14:19
Kepler (se intendi la 780Ti) è poco più vecchia della 290X,

con kepler intendo tutta la serie 700 di fascia alta, che è uscita 6 mesi prima della serie R9

ma va anche più lentamente...

ma per questo specifico caso hanno incontrato un paio di problemini con Kepler, che nvidia ha detto risolverà nei prossimi driver, aumentando le prestazioni.

God of Volt
27-05-2015, 14:25
E ti ripeto (ancora :D) vatti a vedere il fatturato Apple del 2014 e le sue % di mercato, e poi dimmi, anche se il mercato è mosso da Android, chi fattura e chi guadagna di più :)

Ma Apple è ladra :D [/flameoff] Apple non credo faccia testo perché risaputamente rappresenta uno status symbol, con un costo/telefono di 200$ quindi oltre 600$ di guadagno per unità.
Questo, per i soli telefoni.
Mettiamoci gli iPad.
Gli iMac.
I Mac Pro.
Macbook (liscio, retina, Pro, Air, tutti 'nsomma).
Mettici anche iTunes.
Il Q2 '15 fiscale (finito il 28 marzo) ha dato come risultato 58 mld di fatturato con un utile di 13.6mld...
Mettici poi che, per quanto Google con i Nexus abbia una linea "ufficiale" di smartphone Android, non esiste un marchio che è ANDROID. C'è frammentazione.
Se prendi solo Huawei che ha venduto 75 milioni di smartphone l'ultimo trimestre con 10mld di utile e 30 di fatturato, allora capisci che se android fosse una realtà unica, allora Apple sarebbe seppellita a livello di soldi, ma così non è...
Comunque sia tagliamo l'off topic, sennò ci bruciano vivi :asd:

God of Volt
27-05-2015, 14:28
con kepler intendo tutta la serie 700 di fascia alta, che è uscita 6 mesi prima della serie R9

Hawaii Pro e XT, Tonga e 260X (non ricordo il nome della GPU) a parte tutte le VGA della serie R (5, 7, 9) sono schede che hanno 4 anni circa. HD7970, 7950 e così via :)

ma per questo specifico caso hanno incontrato un paio di problemini con Kepler, che nvidia ha detto risolverà nei prossimi driver, aumentando le prestazioni.
Mi ci gioco il testicolo inutile che nei prossimi driver ci saranno bit di controllo che disattiveranno a prescindere l'Hairworks oppure lo castreranno in modo da non penalizzare le Kepler... Se presenta problemi per via dell'architettura, non aspettarti miracoli sul fronte driver..

Sflao
27-05-2015, 14:30
E' questo che io contesto ad AMD (e che mi piacerebbe facesse), la mancanza di una vera top gamma che mi faccia dire "uhm, ho 3000€ da spendere, prendo Nvidia o AMD?"
ad amd la top di gamma non gli è mai mancata....

lasciando perdere cessi più vecchi tipo 3870 ed il flop della 2900xt...ma cosa credi che siano state le , per esempio, schede come la 4870, 4890, 5870, 6970, 7970, 7970GHz , R9 290x , e la prossima 390x? schede di fascia bassa?

arch.dani85
27-05-2015, 14:32
ancora a fare la guerra tra amd e nvidia? ma non vi rendete conto che ci prendono solo per i fondelli e basta?

Nvidia ha fatto uscire un ottima serie 7 un anno fa, presentando la top di gamma con 3gb di memoria video 780 e 780Ti.. soprattutto quest'ultima una bestiolina... bene.. su gta 5 un mio amico non può mettere gli stessi settaggi che ho io con una 290 vapor-x perché non regge per colpa dei 3gb di vram. Solo dopo pochi mesi son usciti con la serie 9 con effettivamente la 970 che frulla divinamente, peccato però che abbiano spezzato le gambe a coloro che avevano la serie 7 e che avevano sborsato una marea di quattrini perché non solo si trovano con 1gb di memoria video in meno, ma devono svalutare enormemente le loro schede perché il costo della 970 fa si che la serie 7 anche in ambito usato vada a farsi friggere...
ma Nvidia non era quella che collabora con le software house a stretto contatto per far uscire i driver ottimizzati? aaaa come mai non sapevano di dover fare una serie 7 con 4 gb di vram? chissà chissà

dall'altra parte AMD ha presentato la serie 200 con una sola scheda video che vale la pena comprare anche tutt'ora che è la 290, perché la 290x è una sola soprattutto nel rapporto prezzo/prestazioni.. per il resto odio AMD per il rebrand... la 280x rinominata 285 è un rebrand della vecchissima e pur sempre ottima (best buy) 7970 ghz edition... come cacchio si fa a fare una serie nuova e riproporre una scheda con le stesse o quasi prestazioni di una vga di fine 2011? oppure come cacchio si fa a non sfornare driver per 6 mesi di fila? infatti dopo i driver 14.12 (omega) il nulla, se non i driver beta. E' ovvio che ci ha visto più lungo di Nvidia almeno per le 290 con 4 gb di ram che adesso si sfruttano a pieno con titoli come the witcher 3, gta 5 e star citizen, ma sentire parlare ancora di rebrand in una serie nuova come la serie 300, mi cascano sinceramente le palle a terra.

questo mio discorso sta a significare che dobbiamo toglierci di dosso la maglietta, rossa o verde che sia, e incazzarci come le bestie perché non fanno altro che prenderci per i fondelli, quando sanno che il mercato delle vga, dal punto di vista delle prestazioni, rimarrà fermo fino alle prossime console, perché il mercato lo comandano loro... c'è poco da fare

God of Volt
27-05-2015, 14:33
ad amd la top di gamma non gli è mai mancata....

lasciando perdere cessi più vecchi tipo 3870 ed il flop della 2900xt...ma cosa credi che siano state le , per esempio, schede come la 4870, 4890, 5870, 6970, 7970, 7970GHz , R9 290x , e la prossima 390x? schede di fascia bassa?

Credo che Epoc intenda dire una top di gamma all'altezza della concorrenza...
Tutte le schede che hai citato tu sono il modello di punta del brand, non sul mercato... è dai tempi della X1950XTX che ATI/AMD non ha una scheda TOP DI GAMMA sul mercato...
Ah, e la 390X non sarà una Fiji XT, quindi tecnicamente è fascia medio-alta :D Sopra alla 390X ci sarà un'ulteriore coppia di schede ;)

iorfader
27-05-2015, 14:39
che cavolo dici? :asd:
che cavolo dici tu scusami tanto :D

cosa ci hai guadagnato in termini pratici da aver venduto una gpu ed esser passato all'altra? ipotizzando che fossero schede identiche?

passare da una AMD 290X ad una Nvidia 970 per me ha senso se ci sono motivi accessori VINCOLANTI per esempio:

- voglio il gsync, devo passare a nvidia
- voglio il freesync, devo passare ad amd
- voglio il physx, devo passare ad nvidia
- voglio mettere un fullcover liquido e la mia gpu non è compatibile, la cambio

e così via.
sempre nel caso si parli di passaggio tra gpu con prestazioni simili/uguali. altrimenti c'è appunto la motivazione di cambio per migliorare le prestazioni ottenibili.

cambiare in riguardo ai soli consumi di watt perchè lo fai?
adesso tu stai tenendo conto delle spese di bolletta energetica in relazione ai consumi maggiori/minori relativi al tuo computer e alla sua componetistica?

se si, hai anche cambiato e aggiornato CPU ogni qual volta ne era disponibile una a consumi inferiori e prestazioni simili?
se si, hai valutato i consumi relativi ai chip extra installati sulla scheda madre confrontando quando tale scheda (e chipset) consuma sotto carico, a riposo, e durante l'overlock?
hai valutato i consumi in IDLE della componentistica, tenendo presente il tuo utilizzo del computer e i tempi a riposo dei componenti in relazione a quelli a pieno carico?
ritengo saprai che in passato, più di una volta, gpu in IDLE consumavano di più di altre che in FULL avevano invece consumi maggiori?

se hai tenuto conto di questi aspetti e di, tanti, altri, sui quali si può pensare di andare a discutere parlando di contenimento dei consumi ASSOLUTI (teorici) di un computer, allora va bene, cambia pure scheda video ogni qual volta ne trovi una simile che ha un risparmio in pochi watt. :D

ma renditi conto che "tutti" (chi?) scelgono le vga in base ai consumi è una follia totale qui, su marte, saturno e satelliti annessi e via dicendo.
equivale ad affermare che "tutti" scelgono le auto che consumano meno, gli scooter che consumano meno, e tutto quello che consuma meno (lavatrici, tv, telefoni, rasoi) in un continuo vendi e ricompra appena c'è qualcosa che consuma 1 watt in meno.

vabbè, credici :DOttima idea. Ipotizzo, hai venduto la 290x a 200€ per prendere la 970 a 300€ (quindi rimettendoci 100€, ma anche fossero 50€), per poi risparmiarne 5/6€ all'anno di elettricità (e ci sono andato largo)? Ottima scelta....

50/5=10 anni di ammortamento dell'investimento

ipotizzi male ho venduto la 290x a 390 euro se ricordo bene dato che non l'ho venduta oggi ma molti mesi fà e mi ci sono preso la 970, ho risparmiato un sacco di soldi in bolletta, quasi 100 watt di differenza non sono 5-6 all'anno. ma continua tranquillamente con lo sfottò, tanto ho venduto anche il pc qualche giorno fà :sofico: ora mi sono dato al retrogaming, ma sono quì giusti per dire la mia. i soldi dell'elettricità non crescono sugli alberi, specialmente se il pc lo usi molto

God of Volt
27-05-2015, 14:39
ancora a fare la guerra tra amd e nvidia? ma non vi rendete conto che ci prendono solo per i fondelli e basta?

Nvidia ha fatto uscire un ottima serie 7 un anno fa, presentando la top di gamma con 3gb di memoria video 780 e 780Ti.. soprattutto quest'ultima una bestiolina... bene.. su gta 5 un mio amico non può mettere gli stessi settaggi che ho io con una 290 vapor-x perché non regge per colpa dei 3gb di vram. Solo dopo pochi mesi son usciti con la serie 9 con effettivamente la 970 che frulla divinamente, peccato però che abbiano spezzato le gambe a coloro che avevano la serie 7 e che avevano sborsato una marea di quattrini perché non solo si trovano con 1gb di memoria video in meno, ma devono svalutare enormemente le loro schede perché il costo della 970 fa si che la serie 7 anche in ambito usato vada a farsi friggere...
ma Nvidia non era quella che collabora con le software house a stretto contatto per far uscire i driver ottimizzati? aaaa come mai non sapevano di dover fare una serie 7 con 4 gb di vram? chissà chissà

dall'altra parte AMD ha presentato la serie 200 con una sola scheda video che vale la pena comprare anche tutt'ora che è la 290, perché la 290x è una sola soprattutto nel rapporto prezzo/prestazioni.. per il resto odio AMD per il rebrand... la 280x rinominata 285 è un rebrand della vecchissima e pur sempre ottima (best buy) 7970 ghz edition... come cacchio si fa a fare una serie nuova e riproporre una scheda con le stesse o quasi prestazioni di una vga di fine 2011? oppure come cacchio si fa a non sfornare driver per 6 mesi di fila? infatti dopo i driver 14.12 (omega) il nulla, se non i driver beta. E' ovvio che ci ha visto più lungo di Nvidia almeno per le 290 con 4 gb di ram che adesso si sfruttano a pieno con titoli come the witcher 3, gta 5 e star citizen, ma sentire parlare ancora di rebrand in una serie nuova come la serie 300, mi cascano sinceramente le palle a terra.

questo mio discorso sta a significare che dobbiamo toglierci di dosso la maglietta, rossa o verde che sia, e incazzarci come le bestie perché non fanno altro che prenderci per i fondelli, quando sanno che il mercato delle vga, dal punto di vista delle prestazioni, rimarrà fermo fino alle prossime console, perché il mercato lo comandano loro... c'è poco da fare

Ti correggo su un po' di punti: la 780ti e la 980 vanno quasi allo stesso livello, si parla di un 3-5% reference to reference, la differenza è nei consumi.
Una serie 7 con 4GB di RAM è infattibile per via del bus dati tra GPU e RAM: se il bus è 384 bit, i tagli sono solo 3, 6 o 12 GB. Per avere 4GB ci vuole un bus da 128, 256 o 512 bit per via dell'architettura utilizzata.
Tale "problema" lo si ha con la 970: hanno lasciato il bus invariato rispetto alla 980 ma tutta l'infrastruttura dietro di esso fa sì che solo 3.5GB siano utilizzabili alla velocità massima, con l'altro mezzo giga di tipo XOR...

La R9 285 non è una 280X rinominata, è tutta un'altra GPU, con un bus diverso, ram diversa, architettura diversa e consumi inferiori del 30% rispetto alla R9 280, che va a sostituire... La 7970GHz edition è la 280X.

Per i driver beta: sai che differenza passa tra WHQL e Beta? La mazzetta a Microsoft che mette la firma digitale sui driver. Tutto qui. Se ti fai spaventare dalla parola beta allora fai parte della fetta di utenza retrograda e spaventata da termini che non sono convenzionalmente utilizzati per rassicurare le masse :)

D'accordo, invece, sul mettere da parte i fanboysmi e ribellarci: è proprio ciò che intendevo qualche messaggio fa, nel mio PC ci va quello che conviene a me, non che conviene a mamma nvidia o mamma AMD :)

iorfader
27-05-2015, 14:41
:sbonk:

si capisce perchè non hai mansioni dirigenziali :asd:



perchè non hai letto anche quello dopo il tuo quote?

lo sai che sul forum non c'è la stellina del "top commentator" vero?

oh beh si immagino tu invece ne sia degno:rolleyes: cos'è dovevo dirti che le vendite di milioni di unità di console fanno fatturato per amd, e che quindi può prendere per il culo azionisti e borsa? ma perfavore

Sflao
27-05-2015, 14:41
tra quelle un semi flop inizialmente è stata la 290x perchè ha debuttato malissimo, essendo un forno crematorio, e con moltissimi modelli affetti da problemi di memoria e schermate nere a non finire... (ci sono thread kilometrici sui forum come overcloc.net... )
e queste cose l'hanno un po rovinata....

Hawaii Pro e XT, Tonga e 260X (non ricordo il nome della GPU) a parte tutte le VGA della serie R (5, 7, 9) sono schede che hanno 4 anni circa. HD7970, 7950 e così via :)
idem le kepler , più o meno siamo li, se ci mettiamo anche la fascia media e bassa,visto che nvidia debuttò due mesi dopo, quindi non ci fu un ritardo pesante come è successo con la serie R9.
io comunque parlavo esclusivamente di kepler di fascia alta serie 700, perchè è giusto confrontare queste schede contro la serie R9 290 - 290x

Se presenta problemi per via dell'architettura, non aspettarti miracoli sul fronte driver..
oppure miglioreranno le rpestazioni senza magheggi, e
non sarebbe la prima volta che grazie ad un driver si riescono a migliorare le prestazioni..
mi ricordo i famosi driver nvidia per la serie 700 (che erano un po la risposta a mantle di amd) e che migliorarono le performance in molti giochi, e con hitman absolution di oltre un 30% ;)

Goofy Goober
27-05-2015, 14:42
Risultati identici a quello che ho postato io, solo che nel tuo grafico ci sono anche gli SLI che confondono :) A me pare tenga testa degnamente ad NVIDIA, la 290X, nonostante il peso degli anni che porta... Tra l'altro è visibilissimo come TW3 sia pesante anche per 1200€ di VGA... Quindi un po' come Crysis nel 2007, forse non fa testo al 100%...

effettivamente TW3 (ma anche PCars direi) sono quei classici giochi da rimandare per gli anni a venire, quando gpu di fascia media saranno in grado di gestirli al meglio.

tra l'altro sarò io, ma TW3 non ha nessun miracolo visivo tale da giustificare una pesantezza simile.
era molto più da "wow" la prima visione di TW2... o di Crysis all'epoca del lancio.

Non vorrei fosse un caso tipo Crysis 2 nel 2011 con la patch DX11 che inseriva i Jersey per strada UBERtessellati senza ragione alcuna, giusto per appesantire al massimo l'elaborazione sulle schede meno capaci sulla tesselation.

iorfader
27-05-2015, 14:44
effettivamente TW3 (ma anche PCars direi) sono quei classici giochi da rimandare per gli anni a venire, quando gpu di fascia media saranno in grado di gestirli al meglio.

tra l'altro sarò io, ma TW3 non ha nessun miracolo visivo tale da giustificare una pesantezza simile.
era molto più da "wow" la prima visione di TW2... o di Crysis all'epoca del lancio.

Non vorrei fosse un caso tipo Crysis 2 nel 2011 con la patch DX11 che inseriva i Jersey per strada UBERtessellati senza ragione alcuna, giusto per appesantire al massimo l'elaborazione sulle schede meno capaci sulla tesselation.

il problema di tw3 è i mille mila effetti particolari, se li attivi tutti, devi chiamare la nasa

God of Volt
27-05-2015, 14:44
ipotizzi male ho venduto la 290x a 390 euro se ricordo bene dato che non l'ho venduta oggi ma molti mesi fà e mi ci sono preso la 970, ho risparmiato un sacco di soldi in bolletta, quasi 100 watt di differenza non sono 5-6 all'anno. ma continua tranquillamente con lo sfottò, tanto ho venduto anche il pc qualche giorno fà :sofico: ora mi sono dato al retrogaming, ma sono quì giusti per dire la mia. i soldi dell'elettricità non crescono sugli alberi, specialmente se il pc lo usi molto

Rapido calcolo
0.15€ per kWh (prezzo medio italiano) per 3 ore al giorno (media nazionale di gioco al giorno) x(100W/1000W)(la differenza in Watt diviso il kilowatt, per avere il rapporto) significa 0.045€ al giorno. Si parla di 14€ all'anno di differenza, o arrotondando 15.
Ora, per favore, non dirmi che lo hai fatto per la corrente che ti stai rendendo ridicolo :sofico:

iorfader
27-05-2015, 14:48
Rapido calcolo
0.15€ per kWh (prezzo medio italiano) per 3 ore al giorno (media nazionale di gioco al giorno) x(100W/1000W)(la differenza in Watt diviso il kilowatt, per avere il rapporto) significa 0.045€ al giorno. Si parla di 14€ all'anno di differenza, o arrotondando 15.
Ora, per favore, non dirmi che lo hai fatto per la corrente che ti stai rendendo ridicolo :sofico:

si media nazionale fatta da chi? io ci gioco anche 10 ore o meglio, giocavo :D in un annoero a quasi 3000-3500ore (solo di world of warcraft) a 850w di alimentatore, ma credo che col procio a 4.7ghz consumassi 600w costanti :sofico:

p.s. prima di sparare cazzate, conosci le persone, se ti dico che è così, è così! :D

God of Volt
27-05-2015, 14:54
si media nazionale fatta da chi? io ci gioco anche 10 ore o meglio, giocavo :D in un annoero a quasi 3000-3500ore a 850w di alimentatore, ma credo che col procio a 4.7ghz consumassi 600w costanti :sofico:

p.s. prima di sparare cazzate, conosci le persone, se ti dico che è così, è così! :D

Media nazionale sui sondaggi fatti in Italia, lol.
A quel punto ti rendi ancora più ridicolo, perché se vuoi risparmiare 100W abbassi il clock del processore, particolarmente inutile se giochi dal FullHD in su.
Io cavolate non ne sparo, applico il ragionamento logico a ciò che dici, e ciò che ne risulta è un'enorme incongruenza :eyeroll:

Sflao
27-05-2015, 14:56
effettivamente TW3 (ma anche PCars direi) sono quei classici giochi da rimandare per gli anni a venire, quando gpu di fascia media saranno in grado di gestirli al meglio.
:sbonk:
ma se gira al massimo anche con una gtx 970m occata, che sarà paragonabile ad una 7970. basta disattivare hairwork.

poi se pretendete di giocarci in 4K è logico che diventa pesante.. ma come tanti altri giochi recenti....lascia fa non è il nuovo crysis.




tra l'altro sarò io, ma TW3 non ha nessun miracolo visivo tale da giustificare una pesantezza simile.

per me la performance è proporzionato per quello che offre visivamente, ed è molto più spettacolare di the witcher 2...essendo un mondo vastissimo.
mi piace il livello di dettaglio che si è raggiunto.


Non vorrei fosse un caso tipo Crysis 2 nel 2011 con la patch DX11 che inseriva i Jersey per strada UBERtessellati senza ragione alcuna, giusto per appesantire al massimo l'elaborazione sulle schede meno capaci sulla tesselation.
e che quando lo provai con una amd agendo tramite pannello di controllo ed impostando al minimo il tessellation guadagnavo giusto un 1.5fps.... :asd:

iorfader
27-05-2015, 14:58
Media nazionale sui sondaggi fatti in Italia, lol.
A quel punto ti rendi ancora più ridicolo, perché se vuoi risparmiare 100W abbassi il clock del processore, particolarmente inutile se giochi dal FullHD in su.
Io cavolate non ne sparo, applico il ragionamento logico a ciò che dici, e ciò che ne risulta è un'enorme incongruenza :eyeroll:

infatti avevo creato dei batch per il down e overclock del processore e messi sul desktop. su wow la cpu è vitale, quindi mi serviva spinta in quel modo, ed avere la vga che mi faceva risparmiare 100w rispetto ad una che andava anche meno e consumava di +...io mi ritengo soddisfatto delle mie scelte :D tu continua con la 290x che ti devo dì

God of Volt
27-05-2015, 15:06
infatti avevo creato dei batch per il down e overclock del processore e messi sul desktop. su wow la cpu è vitale, quindi mi serviva spinta in quel modo, ed avere la vga che mi faceva risparmiare 100w rispetto ad una che andava anche meno e consumava di +...io mi ritengo soddisfatto delle mie scelte :D tu continua con la 290x che ti devo dì

Rimane comunque il discorso che 100W in più, se parli di WOW, non li consumavi perché è un giochino idiota (e ci gioco anche io xD parlo solo di motore grafico) che una GPU in full non la spinge...

Poi rimane anche il discorso che se giochi più di 10h al giorno il problema non è la corrente che consumi, ma i neuroni che consumi XD

Io non ho la 290X da tempo, cambio VGA ogni volta che mi gira sia per monetizzare che per attendere nuove soluzioni :) Ah, e ho avuto anche qualche 980, 780ti, 970, 290, 780...le migliori sono queste ultime due, imho :)

God of Volt
27-05-2015, 15:07
:sbonk:
ma se gira al massimo anche con una gtx 970m occata, che sarà paragonabile ad una 7970. basta disattivare hairwork.

poi se pretendete di giocarci in 4K è logico che diventa pesante.. ma come tanti altri giochi recenti....lascia fa non è il nuovo crysis.






per me la performance è proporzionato per quello che offre visivamente, ed è molto più spettacolare di the witcher 2...essendo un mondo vastissimo.
mi piace il livello di dettaglio che si è raggiunto.



e che quando lo provai con una amd agendo tramite pannello di controllo ed impostando al minimo il tessellation guadagnavo giusto un 1.5fps.... :asd:

Il problema è proprio l'Hairworks che penalizza AMD ed NVIDIA pre-Maxwell, ovvio che su una 970m giri abbastanza bene, è fatto su misura per quell'architettura XD

Sflao
27-05-2015, 15:11
Il problema è proprio l'Hairworks che penalizza AMD ed NVIDIA pre-Maxwell, ovvio che su una 970m giri abbastanza bene, è fatto su misura per quell'architettura XD

penalizza anche maxwell visto che è una mattonata anche su queste schede. si perdono molti frames rispetto al setting estremo senza hairwork.
è il classico effetto tanto per ammazzare le prestazioni... mi ircordo con il 2 si inventarono uber sampling, per far crollare i frames.. :sbonk:

Raven
27-05-2015, 15:13
effettivamente TW3 (ma anche PCars direi) sono quei classici giochi da rimandare per gli anni a venire, quando gpu di fascia media saranno in grado di gestirli al meglio.


Disabilitando Hairshit e mettendo self-shadow su medio (e tutto il resto su alto/ultra), TW3 viaggia alla grande su una 7970Ghz, te l'assicuro! :D (certo non a 120 frame, ma anche intorno a 40/60 resta giocabilissimo, per il tipo di gioco che è... ;))

Goofy Goober
27-05-2015, 15:29
:sbonk:
ma se gira al massimo anche con una gtx 970m occata, che sarà paragonabile ad una 7970. basta disattivare hairwork.

poi se pretendete di giocarci in 4K è logico che diventa pesante.. ma come tanti altri giochi recenti....lascia fa non è il nuovo crysis.

eh vabbè, ridiamocela!!!! :asd:

http://www.techspot.com/review/1006-the-witcher-3-benchmarks/page4.html

già 1080p una media di 40 fps per me non è accettabile su pc, allora me lo gioco su console e vivo più felice (anche con le mie tasche :D )

cmq ho un monitor 1440p, niente 4K che è assurdo su schermi così piccoli per me, e li la 970 cala ulteriormente a 16fps minimi e poco più di 30 di media.

non ci siamo.

e nemmeno ad High

http://www.techspot.com/review/1006-the-witcher-3-benchmarks/page3.html


a 1080p siamo giocabili solo a dettagli medi:

http://www.techspot.com/review/1006-the-witcher-3-benchmarks/page2.html

e a 1440p nemmeno a dettagli medi per me è accettabile (sempre guardando solo la 970).


ma tutti le altre gpu sulla carta leggermente inferiori? :stordita:

anche nel 2007 Crysis lo giocavi con gpu non top di gamma, calando sui dettagli e filtri.

era un gioco che scalava bene.
ma non tutti vogliono scendere a compromessi.
lo stesso hairworks, lo "paghi" col gioco, non poterlo usare è un po' una presa in giro.

per me la performance è proporzionato per quello che offre visivamente, ed è molto più spettacolare di the witcher 2...essendo un mondo vastissimo.
mi piace il livello di dettaglio che si è raggiunto.


dicevo che con TW2 ho avuto un effetto "wow" la prima partita, rispetto a quanto visto prima/a quel tempo.
con TW3 no.
non ho detto che è brutto graficamente o mal riuscito. ma di certo non dico "ah beh si è talmente stupefacente a video che ci sta sia così mattone"

e che quando lo provai con una amd agendo tramite pannello di controllo ed impostando al minimo il tessellation guadagnavo giusto un 1.5fps.... :asd:

sulle 580 avevo una grossa differenza.
il "jersey gate" cmq era una storia risaputa all'epoca.

Disabilitando Hairshit e mettendo self-shadow su medio (e tutto il resto su alto/ultra), TW3 viaggia alla grande su una 7970Ghz, te l'assicuro! :D (certo non a 120 frame, ma anche intorno a 40/60 resta giocabilissimo, per il tipo di gioco che è... ;))

A me ormai urta troppo giocare sotto i 60 su pc, perchè allora prendo e mi butto sul divano a giocare con una console.

Da quanto ho Gsync tra l'altro tento di rimanere il più lontano possibile dalla soglia dei 30fps, ove il Gsync si disattiva rimostrandomi fantasmi del passato....

iorfader
27-05-2015, 15:43
Rimane comunque il discorso che 100W in più, se parli di WOW, non li consumavi perché è un giochino idiota (e ci gioco anche io xD parlo solo di motore grafico) che una GPU in full non la spinge...

Poi rimane anche il discorso che se giochi più di 10h al giorno il problema non è la corrente che consumi, ma i neuroni che consumi XD

Io non ho la 290X da tempo, cambio VGA ogni volta che mi gira sia per monetizzare che per attendere nuove soluzioni :) Ah, e ho avuto anche qualche 980, 780ti, 970, 290, 780...le migliori sono queste ultime due, imho :)
credo che abbiamo giocato 2 giochi diversi :asd: e assolutamente in modo diverso
non per farmi i cavoli tuoi ma 10 ore al giorno di gioco...che lavoro fai?

ma saranno pure fatti miei :ciapet:

nardustyle
27-05-2015, 15:47
ancora a fare la guerra tra amd e nvidia? ma non vi rendete conto che ci prendono solo per i fondelli e basta?

Nvidia ha fatto uscire un ottima serie 7 un anno fa, presentando la top di gamma con 3gb di memoria video 780 e 780Ti.. soprattutto quest'ultima una bestiolina... bene.. su gta 5 un mio amico non può mettere gli stessi settaggi che ho io con una 290 vapor-x perché non regge per colpa dei 3gb di vram. Solo dopo pochi mesi son usciti con la serie 9 con effettivamente la 970 che frulla divinamente, peccato però che abbiano spezzato le gambe a coloro che avevano la serie 7 e che avevano sborsato una marea di quattrini perché non solo si trovano con 1gb di memoria video in meno, ma devono svalutare enormemente le loro schede perché il costo della 970 fa si che la serie 7 anche in ambito usato vada a farsi friggere...
ma Nvidia non era quella che collabora con le software house a stretto contatto per far uscire i driver ottimizzati? aaaa come mai non sapevano di dover fare una serie 7 con 4 gb di vram? chissà chissà

dall'altra parte AMD ha presentato la serie 200 con una sola scheda video che vale la pena comprare anche tutt'ora che è la 290, perché la 290x è una sola soprattutto nel rapporto prezzo/prestazioni.. per il resto odio AMD per il rebrand... la 280x rinominata 285 è un rebrand della vecchissima e pur sempre ottima (best buy) 7970 ghz edition... come cacchio si fa a fare una serie nuova e riproporre una scheda con le stesse o quasi prestazioni di una vga di fine 2011? oppure come cacchio si fa a non sfornare driver per 6 mesi di fila? infatti dopo i driver 14.12 (omega) il nulla, se non i driver beta. E' ovvio che ci ha visto più lungo di Nvidia almeno per le 290 con 4 gb di ram che adesso si sfruttano a pieno con titoli come the witcher 3, gta 5 e star citizen, ma sentire parlare ancora di rebrand in una serie nuova come la serie 300, mi cascano sinceramente le palle a terra.

questo mio discorso sta a significare che dobbiamo toglierci di dosso la maglietta, rossa o verde che sia, e incazzarci come le bestie perché non fanno altro che prenderci per i fondelli, quando sanno che il mercato delle vga, dal punto di vista delle prestazioni, rimarrà fermo fino alle prossime console, perché il mercato lo comandano loro... c'è poco da fare

solo due appunti , 280x e 285 non sono la stessa gpu , la tonga ha compatibilità dx12
i driver si chiamano beta SOLO perchè la certificazione microsoft costa soldi , nvidia li vuole spendere, amd no

ma i driver in se sono tutti uguali, beta o approvati che siano ;)

iorfader
27-05-2015, 15:49
solo due appunti , 280x e 285 non sono la stessa gpu , la tonga ha compatibilità dx12
i driver si chiamano beta SOLO perchè la certificazione microsoft costa soldi , nvidia li vuole spendere, amd no

ma i driver in se sono tutti uguali, beta o approvati che siano ;)

solo 2 appunti:
questo lo credi tu
mad non può spendere...è diverso purtroppo

nardustyle
27-05-2015, 15:56
eh vabbè, ridiamocela!!!! :asd:

già 1080p una media di 40 fps per me non è accettabile su pc


A me ormai urta troppo giocare sotto i 60 su pc, perchè allora prendo e mi butto sul divano a giocare con una console.


ha ha ha ha ha ha ha ha io me la rido

640x480 a 24 fps pure scarsi .... e ci ho giocato per anni con qualche centinaio di milioni di persone

a volte rimpiango la psx almeno le cavolate erano rilegate alla rubrica dei giornalini con le demo

:D :D :D :D

Sflao
27-05-2015, 15:59
eh vabbè, ridiamocela!!!! :asd:


certo che me la rido, perchè da come ne parli sembra che stai a parlare del nuovo Crysis ma non è così, visto che in full hd, che è ancora oggi la risoluzione più diffusa, con schede di 2- 3 anni fa occate ce lo puoi maxare (tranne l'effettino hairwork) facendo una media di frames giocabile.
mentre con le serie di fascia alta di oggi, puoi fare lo stesso a 2560x1440.
un po querllo che succede con tanti altri giochi...

già 1080p una media di 40 fps per me non è accettabile su pc, allora me lo gioco su console e vivo più felice (anche con le mie tasche :D )
ma su ps4 ci fai 30fps di media e ti crolla anche a 20fps, con una grafica inferiore a quella pc. preferirei giocarlo su un pc già a partire da una 7970 o simili.




anche nel 2007 Crysis lo giocavi con gpu non top di gamma, calando sui dettagli e filtri.
nel 2007 con Crysis a 1280x1024 ci giocavi a dettagli medi con la fascia media, andando spesso sotto i 20fps.
la fascia media di oggi ti manda al massimo the witcher III stando il 95% del tempo sopra i 30fps facendo una media di circa 40fps.
mentre la fascia alta te lo manda al massimo a 2560x1440.
la fascia ultra te lo fa girare anche in ultra (titan X) HD
ai tempi la 8800ultra in molti punti in full hd faceva cacare con Crysis anche senza settarlo ad ultra, e senza filtri ovviamente.




lo stesso hairworks, lo "paghi" col gioco, non poterlo usare è un po' una presa in giro.
puoi anche usarlo ma ti devi accontentare di una media di frames più bassa , e ci vuole una gpu di fascia alta. e per me non vale la pena.
ma non è un anovità succede spesso che in questi giochi ci mettono sempre un effetto che ti deve ammazzare i frames..


dicevo che con TW2 ho avuto un effetto "wow" la prima partita, rispetto a quanto visto prima/a quel tempo.
con TW3 no.
non ho detto che è brutto graficamente o mal riuscito. ma di certo non dico "ah beh si è talmente stupefacente a video che ci sta sia così mattone"
avevo compreso la tua opinione, ed io ci ho voluto aggiungere la mia.



sulle 580 avevo una grossa differenza.
il "jersey gate" cmq era una storia risaputa all'epoca.
rispetto a cosa? con nv il trucco di abbassare i livelli di tess non c'è...e se inece stai facendo un confronto con una amd di pari fascia di quei tempi be è normale che ci fosse una grossa differenza perchè la 580 era la gpu più veloce di tutte , e non solo con Crysis 2.

God of Volt
27-05-2015, 16:03
solo 2 appunti:
questo lo credi tu
mad non può spendere...è diverso purtroppo


Veramente lo credi tu, che siano la stessa GPU. Si parla addirittura di iterazioni diverse del GCN, con consumi del 30% più bassi tra 285 e 280 (la ex 7950). La 280x ha 2048 shaders e un bus a 384, r9 285 1792 shaders e bus a 256 bit, oltretutto anche le dimensioni dei chip sono diverse: r9 280x ha un chip da 4314 mil. di transistors e un die di 352mm2, mentre tonga ha una riorganizzazione diversa e con circa 5000mil di transistors occupa 359 mm2.

Ad AMD non SERVE spendere, è diverso. Se poi l'utente si fa spaventare da BETA e si lascia abbindolare da WHQL, basta parlare dei WHQL 275 e 320 di NVIDIA che hanno fritto/cotto/incenerito le 285 e le 9800gtx+ di molte persone, se ben ricordo.
Fai un po' te ;)

God of Volt
27-05-2015, 16:10
certo che me la rido, perchè da come ne parli sembra che stai a parlare del nuovo Crysis ma non è così, visto che in full hd, che è ancora oggi la risoluzione più diffusa, con schede di 2- 3 anni fa occate ce lo puoi maxare (tranne l'effettino hairwork) facendo una media di frames giocabile.
mentre con le serie di fascia alta di oggi, puoi fare lo stesso a 2560x1440.
un po querllo che succede con tanti altri giochi...

ma su ps4 ci fai 30fps di media e ti crolla anche a 20fps, con una grafica inferiore a quella pc. preferirei giocarlo su un pc già a partire da una 7970 o simili.

nel 2007 con Crysis a 1280x1024 ci giocavi a dettagli medi con la fascia media, andando spesso sotto i 20fps.
la fascia media di oggi ti manda al massimo the witcher III stando il 95% del tempo sopra i 30fps facendo una media di circa 40fps.
mentre la fascia alta te lo manda al massimo a 2560x1440.
la fascia ultra te lo fa girare anche in ultra (titan X) HD
ai tempi la 8800ultra in molti punti in full hd faceva cacare con Crysis anche senza settarlo ad ultra, e senza filtri ovviamente.

puoi anche usarlo ma ti devi accontentare di una media di frames più bassa , e ci vuole una gpu di fascia alta. e per me non vale la pena.
ma non è un anovità succede spesso che in questi giochi ci mettono sempre un effetto che ti deve ammazzare i frames..

avevo compreso la tua opinione, ed io ci ho voluto aggiungere la mia.

rispetto a cosa? con nv il trucco di abbassare i livelli di tess non c'è...e se inece stai facendo un confronto con una amd di pari fascia di quei tempi be è normale che ci fosse una grossa differenza perchè la 580 era la gpu più veloce di tutte , e non solo con Crysis 2.

Non puoi fare il discorso "Sembra che stai a parlare del nuovo crysis ma non è così" perché sembra proprio che il paragone tenga, anche se forse è presto dirlo più che altro perché i driver sono acerbi da entrambi i lati. Con la fascia "Ultra" ovvero la TitanX che dici te, non ci giochi fluido in 4K, ci fai meno di 40 FPS, e per me quella non è fluidità, è presa per i fondelli...

Sflao
27-05-2015, 16:14
Non puoi fare il discorso "Sembra che stai a parlare del nuovo crysis ma non è così" perché sembra proprio che il paragone tenga,
non regge per niente il paragone,perchè Crysis è stato di gran lunga più pesante per il livello di potenza che c'era a quei tempi nelle varie fasce.

Con la fascia "Ultra" ovvero la TitanX che dici te, non ci giochi fluido in 4K, ci fai meno di 40 FPS, e per me quella non è fluidità, è presa per i fondelli...

Si con una Titan X fai 40 su estremo


http://abload.de/img/http--www.gamegpu.ru-ztumg.jpg (http://abload.de/image.php?img=http--www.gamegpu.ru-ztumg.jpg)


e ci farai anche una 50ina di fps di media , occandola
ed è accettabile considerando la popò di risoluzione che deve sostenere.




con un Crysis ed una 8800Ultra in full hd andavi sotto i 20fps anche con un misto high ultra e qualcosa su medio:

alcuni benchmark:

http://abload.de/img/crysis_oc9vult.jpg (http://abload.de/image.php?img=crysis_oc9vult.jpg)

su very high fanno pena anche schede di una generazione dopo :asd:

qui una 8800Ultra su HIGH , non VERY HIGH:

http://abload.de/img/immagine..hisu8.jpg (http://abload.de/image.php?img=immagine..hisu8.jpg)

su very high avrebbe fatto 15fps :asd:



ps: ho editato il post perchè avevo messo il bench della titan x sbagliato

davo30
27-05-2015, 17:44
credo che abbiamo giocato 2 giochi diversi :asd: e assolutamente in modo diverso


Gia, mi sa che tu hai giocato a WOW2, quello in sviluppo. Dire che un gioco di 10 anni fa ti tiene il pc odierno in full load è pazzesco!!!
Poi scusa, si parlava di differenza di watt di gpu, che centra il tuo alimentatore? se vuoi attaccare un reattore nucleare per far girare un atom sono fatti tuoi. Pero fa piu fico dire che hai la scheda video "green", e sotto un alimentatore sovradimensionato LOL :muro:

Epoc_MDM
28-05-2015, 07:38
Gia, mi sa che tu hai giocato a WOW2, quello in sviluppo. Dire che un gioco di 10 anni fa ti tiene il pc odierno in full load è pazzesco!!!
Poi scusa, si parlava di differenza di watt di gpu, che centra il tuo alimentatore? se vuoi attaccare un reattore nucleare per far girare un atom sono fatti tuoi. Pero fa piu fico dire che hai la scheda video "green", e sotto un alimentatore sovradimensionato LOL :muro:

Spezzo una lancia a favore dell'amico, WoD è VERAMENTE pesante.
Io con la 970M devo abbassare qualche dettaglio per tenere i 60 FPS a 1080p, quindi vediamo di non dire eresie dettate dal fatto "è un gioco di 10 anni fa".

tra l'altro non per entrare nel merito... ma 10 ore di gioco giornaliero credo che non le fa neanche una persona che non lavora (senza finire all'ospedale dopo 3 giorni), figuriamoci uno che lavora.... poco credibile, senza offesa..

Anche qui da ridire. Le facevo tranquillamente con Ultima Online, FFVII-FFVIII e i primi periodi di WoW.
Adesso non c'ho più tempo/fisico/voglia, ma non è impossibile :)

nardustyle
28-05-2015, 07:51
ma credo che col procio a 4.7ghz consumassi 600w costanti :sofico:

p.s. prima di sparare cazzate, conosci le persone, se ti dico che è così, è così! :D

certe minchiate è meglio non dirle :cry:

ilario3
28-05-2015, 08:23
A volte non vi capisco, ma chi siamo noi per dire ad altri utenti cosa é meglio comprare e cosa é peggio , un conto é se qualcuno chiede un consiglio, ma qui vedo lotte "spesso molto stupide" tra persone che hanno AMD e sono soddisfate e chi ha un Nvidia è uno dice all'altro cosa é meglio, ma alla fine cosa ci guadagnate??? Io sono rimasto per molti anni con una 5870 ed ero stra contento finché é venuto il momento di cambiarlo, e l'ho rivenduto, e l'hanno presa al volo a 120 euro, ho preso una 280X di cui non ero assolutamente soddisfatto , é uscita la 970 , l'ho presa e personalmente sono contento della mia scelta,
Punto. Perché devo andare a dire ad uno che ha la 290X che la mia é più bella, più figa ecc.... Ma che gliene frega, se lui é contento lo sono anch'io. Se parliamo in termini oggettivi allora é un conto, che Amd sia indietro vs la concorrenza é un dato di fatto, lo era anche in passato Nvidia , per il discorso rebrand, se porta dei benefici in termini prezzo/prestazioni/consumi può andar bene, ma allo status dei fatti il mercato o gli utenti chiedono un prodotto nuovo e competitivo come e quanto se non maggiore della 980.

Spaccamondi
28-05-2015, 08:47
Chi scrive gli articoli è incredibile XD.

Se un driver NVIDIA supporta vecchie GPU => sta fornendo retrocompatibilità

Se un driver ATI supporta vecchie GPU => sta facendo rebranding..


XD

God of Volt
28-05-2015, 12:41
A volte non vi capisco, ma chi siamo noi per dire ad altri utenti cosa é meglio comprare e cosa é peggio , un conto é se qualcuno chiede un consiglio, ma qui vedo lotte "spesso molto stupide" tra persone che hanno AMD e sono soddisfate e chi ha un Nvidia è uno dice all'altro cosa é meglio, ma alla fine cosa ci guadagnate??? Io sono rimasto per molti anni con una 5870 ed ero stra contento finché é venuto il momento di cambiarlo, e l'ho rivenduto, e l'hanno presa al volo a 120 euro, ho preso una 280X di cui non ero assolutamente soddisfatto , é uscita la 970 , l'ho presa e personalmente sono contento della mia scelta,
Punto. Perché devo andare a dire ad uno che ha la 290X che la mia é più bella, più figa ecc.... Ma che gliene frega, se lui é contento lo sono anch'io. Se parliamo in termini oggettivi allora é un conto, che Amd sia indietro vs la concorrenza é un dato di fatto, lo era anche in passato Nvidia , per il discorso rebrand, se porta dei benefici in termini prezzo/prestazioni/consumi può andar bene, ma allo status dei fatti il mercato o gli utenti chiedono un prodotto nuovo e competitivo come e quanto se non maggiore della 980.
Quotone, al momento non c'è un "meglio di".

Chi scrive gli articoli è incredibile XD.

Se un driver NVIDIA supporta vecchie GPU => sta fornendo retrocompatibilità

Se un driver ATI supporta vecchie GPU => sta facendo rebranding..


XD

Spezzo una lancia a favore dell'autore dell'articolo: nei .dat dei driver si parla di schede caratterizzate da stesso product number e nomenclature diverse...
Insomma il driver supporta le nuove schede solo perché sono schede vecchie col nome nuovo...

Epoc_MDM
28-05-2015, 12:45
Quotone, al momento non c'è un "meglio di".



Dipende cosa intendi per "meglio di".
Prezzo/Prestazioni? Allora posso essere d'accordo.
Pura potenza e prestazioni (da 30 a 36 FPS è sempre un 20% in più, per farti un esempio), vince Nvidia.

Attendiamo le nuove proposte di AMD e speriamo siano competitive in tutto e per tutto, così che alla fine siamo noi consumatori a trarne vantaggio.

I monopoli non portano mai nulla di buono.

God of Volt
28-05-2015, 13:01
Dipende cosa intendi per "meglio di".
Prezzo/Prestazioni? Allora posso essere d'accordo.
Pura potenza e prestazioni (da 30 a 36 FPS è sempre un 20% in più, per farti un esempio), vince Nvidia.

Attendiamo le nuove proposte di AMD e speriamo siano competitive in tutto e per tutto, così che alla fine siamo noi consumatori a trarne vantaggio.

I monopoli non portano mai nulla di buono.

Si, proprio prezzo/prestazioni, per questo intendevo non ci fosse un "chi meglio di chi". Fronte prestazioni per il momento NVIDIA è sopra e di molto...
Speriamo in AMD, per la concorrenza, i prezzi e tutto il resto..

Max_R
28-05-2015, 13:23
Si, proprio prezzo/prestazioni, per questo intendevo non ci fosse un "chi meglio di chi". Fronte prestazioni per il momento NVIDIA è sopra e di molto...
Speriamo in AMD, per la concorrenza, i prezzi e tutto il resto..

Non direi.

God of Volt
28-05-2015, 14:24
Non direi.

"Non direi.", cosa?