Entra

View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 [47] 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348

°Phenom°
23-04-2015, 12:45
Sbaglio o tsmc la stanno abbandonando in molti ultimemente ?

traider
23-04-2015, 13:02
LOLLO perchè di R390 nemmeno si vede l'ombra , e gia pensano alle R400 .

Secondo me la roadmap corretta è R300 2020 ,

R400 2050 .

CiccoMan
23-04-2015, 13:10
LOLLO perchè di R390 nemmeno si vede l'ombra , e gia pensano alle R400 .

Secondo me la roadmap corretta è R300 2020 ,

R400 2050 .


OT: quella del tuo avatar è una fx 5900 ultra vero?

°Phenom°
23-04-2015, 13:13
Le 390 sono previste per essere presentate al computer di inizio giugno

Ale55andr0
23-04-2015, 13:43
LOLLO perchè di R390 nemmeno si vede l'ombra , e gia pensano alle R400 .

Secondo me la roadmap corretta è R300 2020 ,

R400 2050 .

le aziende sanno regolarmente quel che viene dopo di due o tre generazioni avanti rispetto a quello che effettivamente vedi sul mercato, a prescindere da ritardi o meno del periodo, inoltre la nuova architettura è in realtà molto più vicina di quanto si creda in relazione all'uscita della 390 perchè i nuovi pp arriveranno l'anno prossimo, ergo è solo che normale che se ne parli

davo30
23-04-2015, 16:00
credo che usciranno entro la fine del 2016, ma non prima, Ottobre/Dicembre...
quello che mi sono chiesto più che altro è se davvero AMD voglia utilizzare i 14nm GF/SS invece dei 16nm TSMC :eek:
sarebbe un bello smacco per GF dopo anni di fallimenti...

Da quello che leggo in giro ci sono notizie moooolto discordanti. Su B&C sono abbastanza sicuri che GPU e CPU saranno affidate ai 16nm FF++ di TSMC, mentre qualche giorno fa leggevo/discutevo (mi pare con Grizlod) che AMD ha stretto recentemente un nuovo accordo di fornitura con GF (e quindi immagino per i 14nm).
Sinceramente io sarei piu propenso a pensare (sperare) vera la prima, ossia tutto affidato a TSMC, siccome all'attuale i 14nm GF che conosciamo sono LP (infatti si chiamano Low Power Early e Low Power Plus, praticamente quelli su cui Samsung produce gli Exynos degli S6), mentre i 16nm FF++ sono adatti ad high performance; secondariamente perchè almeno si tolgono dalle balle quei paracarri di GF.
Pero (come al solito) è tutto moooolto nebuloso

Grizlod®
23-04-2015, 16:08
Da quello che leggo in giro ci sono notizie moooolto discordanti. Su B&C sono abbastanza sicuri che GPU e CPU saranno affidate ai 16nm FF++ di TSMC, mentre qualche giorno fa leggevo/discutevo (mi pare con Grizlod) che AMD ha stretto recentemente un nuovo accordo di fornitura con GF (e quindi immagino per i 14nm).
Sinceramente io sarei piu propenso a pensare (sperare) vera la prima, ossia tutto affidato a TSMC, siccome all'attuale i 14nm GF che conosciamo sono LP (infatti si chiamano Low Power Early e Low Power Plus, praticamente quelli su cui Samsung produce gli Exynos degli S6), mentre i 16nm FF++ sono adatti ad high performance; secondariamente perchè almeno si tolgono dalle balle quei paracarri di GF.
Pero (come al solito) è tutto moooolto nebulosoIn realtà, ho detto che in pratica "non è mai cessato" e che AMD tenderà, in futuro, a spostare (quasi) tutta la propria produzione su GloFo...ma è un mio sentore, nient'altro. Ciò IMO è dato dal fatto che molto probabilmente avrà prezzi concorrenziali.

davo30
23-04-2015, 16:12
In realtà, ho detto che in pratica "non è mai cessato" e che AMD tenderà, in futuro, a spostare (quasi) tutta la propria produzione su GloFo...ma è un mio sentore, nient'altro. Ciò IMO è dato dal fatto che molto probabilmente avrà prezzi concorrenziali.

Ho citato te perche ne parlavamo recentemente, ma basta fare una googlata e si trovano molti articoli che affermano che Zen (tanto per fare un esempio) sarà sui 14 GF.

PS. Speriamo, nel caso, che i prezzi siano dovuti a un buon accordo e non al solito silicio pattume made in GF

OEidolon
23-04-2015, 16:55
LOLLO perchè di R390 nemmeno si vede l'ombra , e gia pensano alle R400 .

Secondo me la roadmap corretta è R300 2020 ,

R400 2050 .

breaking news: un progetto inizia anni prima della release del prodotto.

Vul
23-04-2015, 18:00
Allora, visti i tempi di AMD nel rilasciare le 300, direi che si potrebbero avere le 400 nel 2018 :D


Inviato dal mio iPhone utilizzando Tapatalk

ma basta con sta storia.

le 900 sono uscite un anno dopo le 290. 300 possono anche uscire dopo 10 mesi delle 900.

OEidolon
23-04-2015, 19:18
eh vabbè, dai regà, si capisce perchè certa gente non sarà mai un project manager :asd:

nessuno29
23-04-2015, 20:11
Peccato che Nvidia abbia già fatto uscire full Maxwell, Titan X adesso, e 980 ti a breve, quindi direi che AMD avrebbe dovuto far uscire le 3xx con le 900 per stare al passo, secondo me...

Quindi i conti non tornano, adesso sono più di 10 mesi :D

Oltretutto deve sperare di andare più della 980ti, altrimenti sarebbe una batosta, perché come consumi e calore non riuscirà al momento ad eguagliare Maxwell, ed i prezzi saranno quasi allineati, visto il maggior costo delle nuove memorie...

Poi le mie sono supposizioni (e la prima era una battuta se no si era capito), ma se voi avete contatti diretti con i manager, e avete la certezza di ciò che dite, allora mi scuso, però mi pare che queste 3xx siano un po' sopravvalutate...

Quando usciranno, allora se ne riparlerà ;)

Che Mafia LOL!

AMD ceccassa ddi fare uscire una Gpu ddecente che vada più di una 980ti a 4 piccioli però sia chiaro ;) aAah ci siamo capiti

Vul
23-04-2015, 21:46
Peccato che Nvidia abbia già fatto uscire full Maxwell, Titan X adesso, e 980 ti a breve, quindi direi che AMD avrebbe dovuto far uscire le 3xx con le 900 per stare al passo, secondo me...

E certo, invece nvidia andava benissimo che per un anno ci rifilava le 780 lisce a 100 euro più delle 290 vero? Ah no, c'erano le 780 ti anche a 200 euro più delle 290x. grande mercato.

[/quote]
Oltretutto deve sperare di andare più della 980ti, altrimenti sarebbe una batosta, perché come consumi e calore non riuscirà al momento ad eguagliare Maxwell, ed i prezzi saranno quasi allineati, visto il maggior costo delle nuove memorie...

Poi le mie sono supposizioni (e la prima era una battuta se no si era capito), ma se voi avete contatti diretti con i manager, e avete la certezza di ciò che dite, allora mi scuso, però mi pare che queste 3xx siano un po' sopravvalutate...

Quando usciranno, allora se ne riparlerà ;)[/QUOTE]

Ma chi se ne frega delle schede da 1300 euro.

A me della stupida lotta su schede a quel prezzo non importa una mazza.

Io guardo il mercato entro i 350 euro. Posso ancora capire guardare la 980 ma poi stop.

AMD se vuole sopravvivere deve rispondere alla 960 e 970, quello è il mercato che la può tenere in vita.

Una 390x che vada come una titan x o poco più o poco meno a 600 euro se la tira in faccia, quelle schede non fanno volumi. Se le comprano pochi enthusiast, la gente normale aspetta 6-9 mesi e si compra prestazioni simili a molto meno.

Voi siete ossessionati con st'idea della flagship e vi lamentate che fanno i chip grossi e costosi che vanno si e no il 15 % in più della vostra vecchia. Grazie, ci siete voi che le comprate.

Catan
24-04-2015, 06:23
bah tanto poi diciamo le stesse cose... normalmente una archidettura nuova esce ogni 12-18 mesi...senza andare troppo indietro nel tempo

per nvidia

580 9 novembre 2010, 680 22 marzo 2012, 780 23 maggio 2013, 980 13 settembre 2014....( 17 mesi, 15 mesi e 17 mesi)

Per ati

6970 10 dicembre 2010, 7970, 9 gennaio 2012, R9 290, 5 novembre 2013
(14 mesi, 22 mesi)
per la r9 300 i 18 mesi circa canonici sarebbero scaduti ad aprile...se esce a giugno vuol cire che so 20 mesi...non mi pare con cosi grosso ritardo...

Se guardiamo la media dal 2010 in poi, nvidia tira fuori vga ogni 16 mesi ed ati ogni 20...

Mi, mantengono semplicemente quello che sia nvidia, sia amd hanno sempre detto, archidetture nuove ogni 12-18 mesi.

Se uno mi chiede quando escono le r9 400, la risposta è semplice , 12-18 mesi dopo la serie 300...

Poi seriamente non capisco che vuol dire "stare al passo"...continuo a dirlo, chi ha i soldi cambia top level come un paio di mutande, se le 390 fanno meglio delle 980 che hanno adesso nel case, se le vendono e se le prendono.

Chi in genere porta a morire una vga...beh ci sta gente che ha ancora nel case una 680 o un 7970 che fanno ancora bene il loro sporco lavoro e aspettare quei 3-6 mesi per vedere entrambe le vga della concorrenza non è un peso.

valentinorendina
24-04-2015, 07:28
bah tanto poi diciamo le stesse cose... normalmente una archidettura nuova esce ogni 12-18 mesi...senza andare troppo indietro nel tempo

per nvidia

580 9 novembre 2010, 680 22 marzo 2012, 780 23 maggio 2013, 980 13 settembre 2014....( 17 mesi, 15 mesi e 17 mesi)

Per ati

6970 10 dicembre 2010, 7970, 9 gennaio 2012, R9 290, 5 novembre 2013
(14 mesi, 22 mesi)
per la r9 300 i 18 mesi circa canonici sarebbero scaduti ad aprile...se esce a giugno vuol cire che so 20 mesi...non mi pare con cosi grosso ritardo...

Se guardiamo la media dal 2010 in poi, nvidia tira fuori vga ogni 16 mesi ed ati ogni 20...

Mi, mantengono semplicemente quello che sia nvidia, sia amd hanno sempre detto, archidetture nuove ogni 12-18 mesi.

Se uno mi chiede quando escono le r9 400, la risposta è semplice , 12-18 mesi dopo la serie 300...

Poi seriamente non capisco che vuol dire "stare al passo"...continuo a dirlo, chi ha i soldi cambia top level come un paio di mutande, se le 390 fanno meglio delle 980 che hanno adesso nel case, se le vendono e se le prendono.

Chi in genere porta a morire una vga...beh ci sta gente che ha ancora nel case una 680 o un 7970 che fanno ancora bene il loro sporco lavoro e aspettare quei 3-6 mesi per vedere entrambe le vga della concorrenza non è un peso.
Quoto in toto :o non sono fan ne di nVidia ne di AMD, ma mi piace videogiocare a un buon livello, però se oggi (nel senso che sia uscita oggi) comprerei una scheda fascia 970/290 non certo vorrei che diverrebbe obsoleta in meno di un anno :mad: quindi il passaggio da un architettura all'altra in 18/24 mesi ci sta tutta, in un anno e l'altro si affina l'architettura già in commercio almeno per non prendere per i fondelli i consumatori perché non credo che si sviluppa in 1 anno un architettura, ma ci voglia un po di più, facendoti intendere già l'avevamo ma per spennarti abbiamo rilasciato prima una meno potente e poi questa più potente per fartela cambiare di nuovo.

Ubro92
24-04-2015, 07:51
Quoto in toto :o non sono fan ne di nVidia ne di AMD, ma mi piace videogiocare a un buon livello, però se oggi (nel senso che sia uscita oggi) comprerei una scheda fascia 970/290 non certo vorrei che diverrebbe obsoleta in meno di un anno :mad: quindi il passaggio da un architettura all'altra in 18/24 mesi ci sta tutta, in un anno e l'altro si affina l'architettura già in commercio almeno per non prendere per i fondelli i consumatori perché non credo che si sviluppa in 1 anno un architettura, ma ci voglia un po di più, facendoti intendere già l'avevamo ma per spennarti abbiamo rilasciato prima una meno potente e poi questa più potente per fartela cambiare di nuovo.

Sono d'accordo io di solito cambio solo quando ci sono titoli che mi piacerebbe giocare al massimo e l'hardware mi limita infatti in questi anni sono passato da:

9600gt >> GTX 260 >> 5870 >> GTX 970

La prossima penso se ne parla tra 2-3 anni dove a rigor di logica mi aspetto 3-3.5x la potenza in piu di 970 e consumi simili.

Poi ovviamente ci sono comunque appassionati che sono passati da 780ti a 980 che comunque non mi sento di giudicare in quanto anche il mercato dell'hadrware è passione e chi oltre al gaming si diverte anche ad overcloccare e spremere l'hardware o a testare le nuove architetture oltre al fattore funzionale riguardo le semplici prestazioni e la durabilità...

Io ammetto che se avessi disponibilità economiche (che non ho), farei lo stesso.

mircocatta
24-04-2015, 08:34
dite che ha senso smembrare lo sli di 970 (vendendone una al prezzo che l'ho acquistata praticamente, visto che i prezzi si sono alzati) nell'attesa della 390x ?


finché ero in full HD non ci avrei pensato 3 volte nel farlo, ma ora sono a 3440x1440 e rimanere con singola 970 alcuni giochi ne risentono un pochetto :fagiano: (dying light, pcars, gtaV che però fa a botte con lo sli già di suo per ora)

hrossi
24-04-2015, 09:44
Per me no, rimani in sli fino almeno alla presentazione della 390x, giusto per vedere quanto va. Poi anche in base al prezzo proposto decidi come muoverti. Tanto le 970 sono comunque buone schede e non credo si deprezzeranno molto. ;)

Hermes

FroZen
24-04-2015, 09:47
Se l euretto continua a svalutarsi me ne fregherei...

mircocatta
24-04-2015, 10:00
Se l euretto continua a svalutarsi me ne fregherei...

te ne fregheresti di...? non sei stato chiarissimo :asd:
intendi dire che più si svaluta l'euro e più la gtx970 si alza di costo-> anzichè perderci ci guadagnerò a rivendere più avanti le gtx 970? :asd: ammetto che ci stavo pensando :asd: già ora se le rivendo a 280€ riuscirei a venderle, anche perchè sul mercatino c'è una penuria di 780/780ti/970/290/290x.. tutte schede da 250/350 euro

Ubro92
24-04-2015, 10:28
Se vogliamo parlare di questo sono stato tentato di vendere la mia e prendere una 970 msi 4g a 300e nuova con tw3 in omaggio ma un po' per pigrizia un po perché mi sembrava la classica furbata all'italiana ho preferito tenermi la mia anche per evitare eventuali rogne con coil whine...

Poi mi so affezionato è da ottobre li nel case e senza mai dare problemi :)

Free Gordon
24-04-2015, 10:32
Terascale 1
HD2900XT 05/2007
HD3870 11/2007
HD4870 06/2008 ----> 13 mesi


Terascale 2
HD5870 09/2009 ----> 13 mesi e 28 mesi da TS1 (primo cambio vero e proprio)

HD6870 10/2010


Terascale 3
HD6970 12/2010 ----> 15 mesi (In 3 anni e mezzo, 1 cambio architetturale fondamentale: da Vliw5 a Vliw4)


GCN
HD7970 01/2012 (1.0) --> 13 mesi (cambio completo di architettura) (4 anni e mezzo dopo TS1)

HD7790 03/2013 (1.1) --> 14 mesi (affinamento)

(R9 290X 10/2013 (1.1) --> 21 mesi)

R9 285 09/2014 (1.2) --> 18 mesi (affinamento)

R9 390X 06/2015 (1.3)? --> 9 mesi (affinamento)



Nuova architettura
R9 400 series 06-12/2016? --> 12-18 mesi? (4 anni e mezzo dopo GCN)?


A me pare che i tempi siano sempre stati un pò differenti...in base a cosa può/poteva fare TSMC e alle esigenze del mercato...ma i grossi cambi pare li faccia ogni 4 anni e mezzo.. :)

Ora con GCN hanno tirato un pò troppo avanti imho, perché Maxwell ha introdotto un nuovo livello di perf/watt.
Ma prima di questo "saltone" di Nvidia, le cose non erano state molto più graduali.

Vedremo se queste 390 seguono la strada del lieve affinamento fatto dalla 1.0 alla 1.2 oppure introducono (si spera) un bel passo in avanti.

Free Gordon
24-04-2015, 10:42
Da 1.1 a 1.2 ci sono 18 mesi...che è il periodo di tempo più lungo trascorso negli ultimi anni...ma pare che le 1.3 arrivino dopo "soli" :D 9 mesi, quindi la media alla fine è sempre la stessa. :)

Nemmeno Nvidia ha accelerato, la percezione della gente è completamente sballata solo perché Maxwell ha introdotto un nuovo livello di perf/watt, cosa che non era mai accaduta in questa % negli ultimi 7-8 anni...

Free Gordon
24-04-2015, 10:44
dite che ha senso smembrare lo sli di 970 (vendendone una al prezzo che l'ho acquistata praticamente, visto che i prezzi si sono alzati) nell'attesa della 390x ?
finché ero in full HD non ci avrei pensato 3 volte nel farlo, ma ora sono a 3440x1440 e rimanere con singola 970 alcuni giochi ne risentono un pochetto :fagiano: (dying light, pcars, gtaV che però fa a botte con lo sli già di suo per ora)

Una 390x non andrà mai come 2 970 ;) credo sia proprio impossibile...

mircocatta
24-04-2015, 10:50
Una 390x non andrà mai come 2 970 ;) credo sia proprio impossibile...

la titan x ci va vicino, se la 390x è superiore alla titan x perchè no?


senza considerare che lo sli di 970 mi sta facendo un po di rogne e mi tocca disabilitarlo su alcuni titoli a cui gioco

oculus rift: non funziona, o meglio, funziona ma stuttera
gta5 non è sfruttato e stuttera
pcars: problema con alcuni setting (erba dettagliata) quindi mi tocca disattivarla in sli

sono solo 3 cosette sia chiaro, 3 cosette che però rappresentano il 98% dell'uitilizzo del mio pc

Free Gordon
24-04-2015, 11:03
la titan x ci va vicino, se la 390x è superiore alla titan x perchè no?


senza considerare che lo sli di 970 mi sta facendo un po di rogne e mi tocca disabilitarlo su alcuni titoli a cui gioco

oculus rift: non funziona, o meglio, funziona ma stuttera
gta5 non è sfruttato e stuttera
pcars: problema con alcuni setting (erba dettagliata) quindi mi tocca disattivarla in sli

sono solo 3 cosette sia chiaro, 3 cosette che però rappresentano il 98% dell'uitilizzo del mio pc


La TitanX và vicina 2 970? Forse quando il collo di bottiglia è la cpu... :)

Personalmente.. uno sli cross non lo farei mai per i costi/casini :p ma cmq sia problemi come quelli che hai enunciato tu non li chiamerei veri problemi :D credo che difficilmente troverai dei setting che non ti danno in alcun modo almeno qualcuno dei problemi di cui sopra. Quando porti tutto al limite, difficile che funga SEMPRE tutto liscio come l'olio...

Free Gordon
24-04-2015, 11:07
Dato che Nvidia vuole anticipare a metà Maggio l'uscita della 980ti, la 300 andrà confrontata con quest'ultima, così almeno si avrà un confronto con le tecnologie disponibili al momento spremute per bene ;)
Dubito che la 390x vada più della Titan X, se si guardano le percentuali di differenza tra Titan X e 980, e con la 290x...
E anche fosse, consumerebbe 400w una scheda? Contando che una Titan sta sui 250w a default,e AMD non è mai stata parca nei consumi ;)


Se la 980ti sarà clockata più in alto, consumerà un pò di più. Se escono prima con la ti, rischiano che AMD faccia uscire delle schede clockate ad hoc per stargli davanti. :D

I consumi nella fascia enthusiast non sono mai stati un problema. ;)

Semmai bisogna vedere se stavolta se ne escono con un dissipatore decente o lasciano fare di nuovo tutto ai partners...cosa che spero sinceramente non accada mai più... :)

Se le temp saranno buone (non sopra gli 80° sulla reference), le performance sopra la 980ti, a nessuno dei quelli che spendono 500 euro gliene fregherà nulla dei consumi.

Ubro92
24-04-2015, 11:10
la titan x ci va vicino, se la 390x è superiore alla titan x perchè no?


senza considerare che lo sli di 970 mi sta facendo un po di rogne e mi tocca disabilitarlo su alcuni titoli a cui gioco

oculus rift: non funziona, o meglio, funziona ma stuttera
gta5 non è sfruttato e stuttera
pcars: problema con alcuni setting (erba dettagliata) quindi mi tocca disattivarla in sli

sono solo 3 cosette sia chiaro, 3 cosette che però rappresentano il 98% dell'uitilizzo del mio pc

Però guarda GTA 5 stuttera anche con la titan x, vabbè che lo sli di per se amplifica i problemi però in questo caso quel titolo urge di patch perchè indipendentemente dalla potenza di calcolo ci sono cali di frame inspiegabili in cui passi da 100 a 20 in frazioni di secondo...

Se la 980ti sarà clockata più in alto, consumerà un pò di più. Se escono prima con la ti, rischiano che AMD faccia uscire delle schede clockate ad hoc per stargli davanti. :D

I consumi nella fascia enthusiast non sono mai stati un problema. ;)

Semmai bisogna vedere se stavolta se ne escono con un dissipatore decente o lasciano fare di nuovo tutto ai partners...cosa che spero sinceramente non accada mai più... :)

Se le temp saranno buone (non sopra gli 80° sulla reference), le performance sopra la 980ti, a nessuno dei quelli che spendono 500 euro gliene fregherà nulla dei consumi.

Ma infatti tra titan x e 980 ci sono anche 150mhz di differenza a default, a parità di clock il distacco è ben maggiore del canonico 35% di cui si parla... parliamo sempre di 3072 core contro 2048...

Comunque uno sli di 970 rimane leggermente superiore anche se bisogna tenere a mente che è uno sli quindi con tutti i problemi che porta anche se allo stato attuale è scelta piu azzeccata come prestazioni/prezzo vedremo poi con l'uscita di 980ti come si piazzerà il mercato...

Ma si spera in una risposta pronta di AMD anche se all'atto pratico la vera battaglia ci sarà nel 2016 con affinamenti delle attuali architetture e nuovo pp...

Ubro92
24-04-2015, 11:23
Infatti AMD deve lavorare molto sull'efficienza delle schede ;)

Sono davvero curioso di vedere le 300 all'opera, perché dai rumors che si leggono in giro, dovrebbe essere la scheda definitiva fino al prossimo pp, superiore ad Nvidia in tutto...

Vedremo se sarà solo marketing ;)

Bhè insomma io prima di dire superiore, alzo le mani e aspetto i bench... Mi sembra che dietro queste schede ci sia troppa sopravvalutazione ma vedremo alla loro uscità cio che sono davvero in grado di fare e sopratutto se le nuove memorie diano reali vantaggi e spero che AMD non limiti i produttori nel fare proposte custom come visto con 290 e 290x che con dissi reference potevi farti il caffe con la moka poggiandola sopra...

Devourer88
24-04-2015, 11:27
Infatti AMD deve lavorare molto sull'efficienza delle schede ;)

Sono davvero curioso di vedere le 300 all'opera, perché dai rumors che si leggono in giro, dovrebbe essere la scheda definitiva fino al prossimo pp, superiore ad Nvidia in tutto...

Vedremo se sarà solo marketing ;)

Dovrebbe essere superiore anche nel prezzo, se hanno ragione quei rumors

mircocatta
24-04-2015, 11:30
La TitanX và vicina 2 970? Forse quando il collo di bottiglia è la cpu... :)
Personalmente.. uno sli cross non lo farei mai per i costi/casini ma cmq sia problemi come quelli che hai enunciato tu non li chiamerei veri problemi credo che difficilmente troverai dei setting che non ti danno in alcun modo almeno qualcuno dei problemi di cui sopra. Quando porti tutto al limite, difficile che funga SEMPRE tutto liscio come l'olio...

guarda che quei 3 problemi li risolvo in un secondo, basta che disattivo lo sli: oculus va da dio, pcars posso mettere l'erba dettagliata senza un drastico calo di fps e gta 5 perdo il 10% di performance ma zero stuttering tanto da non avvertire cali di frame quando passo da 60 a 40

La TitanX và vicina 2 970? Forse quando il collo di bottiglia è la cpu... :)
dici? :)
test con 4770k a 4.2ghz
questa è la situazione quando lo sli di 970 funziona a dovere:

https://tpucdn.com/reviews/NVIDIA/GeForce_GTX_Titan_X/images/perfrel_2560.gif

contando che in max overclock qualcosina la titan la recupera arrivando anch'essa oltre i 1440mhz (le mie due 970 sono ferme a 1450 in sli)

quindi ripeto: una 390X che supera una titanX potrebbe vedersela con lo sli di 970

nessuno29
24-04-2015, 11:45
Dato che Nvidia vuole anticipare a metà Maggio l'uscita della 980ti, la 300 andrà confrontata con quest'ultima, così almeno si avrà un confronto con le tecnologie disponibili al momento spremute per bene ;)

Dubito che la 390x vada più della Titan X, se si guardano le percentuali di differenza tra Titan X e 980, e con la 290x...

E anche fosse, consumerebbe 400w una scheda? Contando che una Titan sta sui 250w a default,e AMD non è mai stata parca nei consumi ;)

A parità di prezzo?

Ubro92
24-04-2015, 11:47
A parità di prezzo?

Sul prezzo si scontrerà con 980ti presumo, che tra l'altro avrà frequenze superiori a default e potrà contare su versioni custom...

FroZen
24-04-2015, 11:48
Come detto mille volte le ref le vedi a 95c solo con il bios silent con la ventola quasi ferma....

°Phenom°
24-04-2015, 12:14
Come detto mille volte le ref le vedi a 95c solo con il bios silent con la ventola quasi ferma....

Si ma amd così facendo ha perso una bella fetta di utenza, in quanto il 90% di chi acquista una scheda, al max vede solo i primi bench usciti, appunto sulle reference, e tra l'altro non avrebbe nemmeno idea di come creare un profilo delle fan custom. Poi mettici che a prescindere il dissi ref delle 290 è una ciofeca e che le custom sono uscite mesi dopo e trai tu le conslusioni.

Ubro92
24-04-2015, 12:30
Si ma amd così facendo ha perso una bella fetta di utenza, in quanto il 90% di chi acquista una scheda, al max vede solo i primi bench usciti, appunto sulle reference, e tra l'altro non avrebbe nemmeno idea di come creare un profilo delle fan custom. Poi mettici che a prescindere il dissi ref delle 290 è una ciofeca e che le custom sono uscite mesi dopo e trai tu le conslusioni.


Ma piu che altro il discorso è anche dato dalla rumorosità, senza contare che è una scocciatura dover fare un profilo ad hoc su una scheda a default senza manco un po di oc...

Infatti la maggior parte delle persone che conosco in quel periodo optarono per 780 che anche con dissi reference si occavano tranquillamente e anche il prezzo non era distante, a memoria erano quei 50-100€ di differenza...

Vul
24-04-2015, 12:45
Ma piu che altro il discorso è anche dato dalla rumorosità, senza contare che è una scocciatura dover fare un profilo ad hoc su una scheda a default senza manco un po di oc...

Infatti la maggior parte delle persone che conosco in quel periodo optarono per 780 che anche con dissi reference si occavano tranquillamente e anche il prezzo non era distante, a memoria erano quei 50-100€ di differenza...

e ti pare poco spendere 50-100 euro in più per una scheda più lenta?

Ubro92
24-04-2015, 13:05
E dove sarebbe più lenta? Forse ha maggior consumi, calore e rumore :D


http://gpuboss.com/gpus/Radeon-R9-290-vs-GeForce-GTX-780

Senza contare che una reference 780 la si occava a 1150 rispetto agli 863 stock tranquillamente restando bella fresca... Una 290 reference se la occavi è probabile che si illuminava di rosso acceso con tanto di fumo, altro che physx e led :sofico:

Il discorso cambiò radicalmente quando uscirono le prime custom come la Tri-X dove la maggiore spesa per la 780 dava pochi risultati se si guardava il rapporto prezzo/prestazioni senza contare il bundle di AMD che all'epoca era corposo...

Il nabbo di turno
24-04-2015, 13:16
Dato che Nvidia vuole anticipare a metà Maggio l'uscita della 980ti, la 300 andrà confrontata con quest'ultima, così almeno si avrà un confronto con le tecnologie disponibili al momento spremute per bene ;)

Dubito che la 390x vada più della Titan X, se si guardano le percentuali di differenza tra Titan X e 980, e con la 290x...

E anche fosse, consumerebbe 400w una scheda? Contando che una Titan sta sui 250w a default,e AMD non è mai stata parca nei consumi ;)

Dai piantatela che prima di maxwell neppure nvidia era così ecologica.
http://tpucdn.com/reviews/MSI/R9_290X_Gaming/images/power_peak.gif

http://tpucdn.com/reviews/MSI/R9_290X_Gaming/images/power_average.gif

Che poi due tre annetti fa, quando uscì la 650 ti boost e la 7790, la prima consumava 120w e l'altra 80w, ma nessuno aveva detto nulla di un 50% in più di watt a parità di performance, oppure di quando uscì la 7750 che andava come la 550 ti, che consumava praticamente il doppio.

Il nabbo di turno
24-04-2015, 13:22
Senza contare che una reference 780 la si occava a 1150 rispetto agli 863 stock tranquillamente restando bella fresca... Una 290 reference se la occavi è probabile che si illuminava di rosso acceso con tanto di fumo, altro che physx e led :sofico:

Il discorso cambiò radicalmente quando uscirono le prime custom come la Tri-X dove la maggiore spesa per la 780 dava pochi risultati se si guardava il rapporto prezzo/prestazioni senza contare il bundle di AMD che all'epoca era corposo...

La 780 ti aveva anche un dissi serio già di base, mentre quell'altro era proprio scadente, plastica rozza contro copertura metallica, ti piace vincere facile?

Ubro92
24-04-2015, 13:22
Dai piantatela che prima di maxwell neppure nvidia era così ecologica.
http://tpucdn.com/reviews/MSI/R9_290X_Gaming/images/power_peak.gif

http://tpucdn.com/reviews/MSI/R9_290X_Gaming/images/power_average.gif

Su questo non c'è dubbio, pero le schede nvidia salivano parecchio c'è gente che ha portato la 780 a 1300mhz e la titan a 1400mhz a liquido... Certo i consumi di picco sforavano i 500w però prestazionalmente e come temperature anche con kepler nvidia ha fatto un ottimo lavoro e rimanendo ad aria 780/780ti con bios ref prendevano i 1150-1200 ad occhi chiusi...

Poi con maxwell ha colmato anche il problema dei consumi, dimezzandoli a parità di prestazioni.

nessuno29
24-04-2015, 13:24
Dai piantatela che prima di maxwell neppure nvidia era così ecologica.
http://tpucdn.com/reviews/MSI/R9_290X_Gaming/images/power_peak.gif

http://tpucdn.com/reviews/MSI/R9_290X_Gaming/images/power_average.gif

Che poi due tre annetti fa, quando uscì la 650 ti boost e la 7790, la prima consumava 120w e l'altra 80w, ma nessuno aveva detto nulla di un 50% in più di watt a parità di performance, oppure di quando uscì la 7750 che andava come la 550 ti, che consumava praticamente il doppio.

Per non parlare del periodo HD 5870 gtx 480 dove nella fascia High end guardare i consumi era da idioti.Come si cambiaaaa per non....

Il nabbo di turno
24-04-2015, 13:24
Su questo non c'è dubbio, pero le schede nvidia salivano parecchio c'è gente che ha portato la 780 a 1300mhz e la titan a 1400mhz a liquido... Certo i consumi di picco sforavano i 500w però prestazionalmente e come temperature anche con kepler nvidia ha fatto un ottimo lavoro...

Poi con maxwell ha colmato anche il problema dei consumi, dimezzandoli a parità di prestazioni.

Beh, 1300 mhz sul core con la revisione gk110b(settembre 2013), ma le prime non toccavano tale frequenza.
Poi sono casi abbastanza estremi, penso che una 290x veda i 1200 mhz senza problemi sotto liquido, e considera uno scaling migliore rispetto a nvidia.

MrBrillio
24-04-2015, 13:25
Sarò strano io, ma in una VGA i consumi sono proprio gli ultimi dei miei pensieri...se va di più e lo fa consumando il doppio...chissene :asd:
Passi la storia del calore, ma sicuramente non sacrifico le prestazioni a favore dei 2€ in meno all'anno che mi farebbe risparmiare quella delle 2 che consuma meno e va peggio.

J9AnGe
24-04-2015, 13:25
Ok ma per curiosita' su una scheda che assorbe ipoteticamente 300w se ci gioco 2 ore al giorno che differenza di soldi ho in bolletta con una scheda che ne assorbe 200w ? giusto per capire perche se la differenza in 1 anno sono 30 - 40 euro e' piu' che accettabile la cosa per uno che spende 500 euro in una vga . sbaglio ? :)

Il nabbo di turno
24-04-2015, 13:25
Per non parlare del periodo HD 5870 gtx 480 dove nella fascia High end guardare i consumi era da idioti.Come si cambiaaaa per non....

La gente ha la memoria un po' corta, oppure vuole ricordare solo quello che vuole, chi lo sa...:D

J9AnGe
24-04-2015, 13:27
La gente ha la memoria un po' corta, oppure vuole ricordare solo quello che vuole, chi lo sa...:D

Gtx 480 ? parli di quel forno a legna ? :D

Il nabbo di turno
24-04-2015, 13:28
Sarò strano io, ma in una VGA i consumi sono proprio gli ultimi dei miei pensieri...se va di più e lo fa consumando il doppio...chissene :asd:
Passi la storia del calore, ma sicuramente non sacrifico le prestazioni a favore dei 2€ in meno all'anno che mi farebbe risparmiare quella delle 2 che consuma meno e va peggio.

Quando hai un ali gold da 600/700w, cambia poco se la vga ti consuma 200 o 300w a pieno carico, tanto mica mentre giochi guardi ai consumi...
Con questo non voglio dire che i consumi non siano importanti, ma gli si sta dando un peso esagerato, com'è uscito maxwell, sembra che i forum di hardware siano invasi da fan di greenpeace.

Ubro92
24-04-2015, 13:31
Ok ma per curiosita' su una scheda che assurbe ipoteticamente 300w se ci gioco 2 ore al giorno che differenza di soldi ho in bolletta con una scheda che ne assorbe 200w ? giusto per capire perche se la differenza in 1 anno sono 30 - 40 euro e' piu' che accettabile la cosa per uno che spende 500 euro in una vga . sbaglio ? :)

Cambia poco e nulla, pero è ovvio che i risultati ottenuti con maxwell rispetto a kepler che a parità di consumi si ha avuto un raddoppio di certo schifo non fa senza contare che fare uno sli di 780 o 780ti richiedeva ali con le @@ sopratutto se in oc con 970 e 980 invece dati i consumi piu bassi è molto piu gestibile la cosa...

Ma una cosa è guardare i miglioramenti architetturali che tra l'altro tengono conto dei consumi, e un altra è che mi venite a dire che una 290 reference è meglio di una 780 ugualmente reference... visto che in oc la 780 sale tranquillamente e senza problemi di temperature che possano tagliare freq ecc...

Il nabbo di turno
24-04-2015, 13:33
Gtx 480 ? parli di quel forno a legna ? :D

Ma non è il solo caso, 480 e 290x reference sono state abbastanza tartassate, ma ci sono anche altri casi minori.

Ubro92
24-04-2015, 13:35
Ma non è il solo caso, 480 e 290x reference sono state abbastanza tartassate, ma ci sono anche altri casi minori.

Bhè si pero sia la 480 che 290x sono state epiche, tanto da scaldare anche i cuori :sofico:

Il nabbo di turno
24-04-2015, 13:35
Cambia poco e nulla, pero è ovvio che i risultati ottenuti con maxwell rispetto a kepler che a parità di consumi si ha avuto un raddoppio di certo schifo non fa senza contare che fare uno sli di 780 o 780ti richiedeva ali con le @@ sopratutto se in oc con 970 e 980 invece dati i consumi piu bassi è molto piu gestibile la cosa...

Ma una cosa è guardare i miglioramenti architetturali che tra l'altro tengono conto dei consumi, e un altra è che mi venite a dire che una 290 reference è meglio di una 780 ugualmente reference... visto che in oc la 780 sale tranquillamente e senza problemi di temperature che possano tagliare freq ecc...

Il rapporto performance/consumi è decisamente buono, ma lato performance pure, passare da una 780 a una 980 non è tutto sto gran salto, oppure da una 760 a una 960.

Il nabbo di turno
24-04-2015, 13:36
Bhè si pero sia la 480 che 290x sono state epiche, tanto da scaldare anche i cuori :sofico:

Quegli anni il riscaldamento per alcuni era rimasto spento d'inverno.:O

J9AnGe
24-04-2015, 13:36
Cambia poco e nulla, pero è ovvio che i risultati ottenuti con maxwell rispetto a kepler che a parità di consumi si ha avuto un raddoppio di certo schifo non fa senza contare che fare uno sli di 780 o 780ti richiedeva ali con le @@ sopratutto se in oc con 970 e 980 invece dati i consumi piu bassi è molto piu gestibile la cosa...

Ma una cosa è guardare i miglioramenti architetturali che tra l'altro tengono conto dei consumi, e un altra è che mi venite a dire che una 290 reference è meglio di una 780 ugualmente reference... visto che in oc la 780 sale tranquillamente e senza problemi di temperature che possano tagliare freq ecc...

Be' sicuramente avere una vga piu' fresca e' una cosa a cui guardo molto , infatti le 290 - 290x reference non le ho prese neanche in considerazione , ma scherziamo temp vicino a 90° in game , anche fosse che li sopporta bene non mi piace affatto , fin che si parla di 70° puo andare ma da 80° in su nel mio case non ce la voglio :)

nessuno29
24-04-2015, 13:39
Ok ma per curiosita' su una scheda che assorbe ipoteticamente 300w se ci gioco 2 ore al giorno che differenza di soldi ho in bolletta con una scheda che ne assorbe 200w ? giusto per capire perche se la differenza in 1 anno sono 30 - 40 euro e' piu' che accettabile la cosa per uno che spende 500 euro in una vga . sbaglio ? :)

Nel mio caso ad esempio:

Io gioco 2 ore al giorno in media.(spesso non gioco ogni tanto nerdo di più)
Gioco di sera visto che il giorno sono in ospedale la corrente la pago 0,23c a Kw.(Calabria)

In un anno la sola GPU da 300 watt consumerà 49 euro e 60 centesimi
In un anno la sola GPU da 200 watt consumerà 33 euro e 10 centesimi

Quindi con la scheda da 200 watt consumerei 16 euro in meno all'anno di bolletta,ossia 1 euro e 30 in meno al mese :D :D :D

mircocatta
24-04-2015, 13:42
Quegli anni il riscaldamento per alcuni era rimasto spento d'inverno.:O

:|
mi hai messo in mente un'ideona, mannaggia a te :asd:

potrei trasferire la postazione pc con volante, 5.1, ecc ecc nella stanza degli stendini (che è mezza vuota) invece che continuare a stare nel buco di camera mia :asd:
farei contenta mammà :asd: gli asciugo i panni :asd:

MrBrillio
24-04-2015, 13:44
Quindi con la scheda da 200 watt consumerei 16 euro in meno all'anno di bolletta,ossia 1 euro e 30 in meno al mese :D :D :D

Sosssssoldi eh :stordita:
Capisco il discorso che sia bello vedere passi in avanti dai produttori anche in quel senso eh, però fondamentalmente a noi utenti finali che una VGA consumi più dell'altra frega poco o niente..cioè penso che uno guardi solo alle prestazioni in game quando decida di cambiare..non vi vedo proprio lì con la calcolatrice a far calcoli di quanti centesimi risparmiate prendendo una o l'altra :asd:

J9AnGe
24-04-2015, 13:45
Nel mio caso ad esempio:

Io gioco 2 ore al giorno in media.(spesso non gioco ogni tanto nerdo di più)
Gioco di sera visto che il giorno sono in ospedale la corrente la pago 0,23c a Kw.(Calabria)

In un anno la sola GPU da 300 watt consumerà 49 euro e 60 centesimi
In un anno la sola GPU da 200 watt consumerà 33 euro e 10 centesimi

Quindi con la scheda da 200 watt consumerei 16 euro in meno all'anno di bolletta,ossia 1 euro e 30 in meno al mese :D :D :D

Beh ma scusate allora parlare di consumi e' assolutamente scandaloso .... se ne parla come se ci fosse un abisso e invece .... cioe' dai 1,30 euro al mese o giu' di li di differenza su schede da 300 euro in su' sarebbe neanche da parlarne . invece sul fatto del calore trovo molto importante che una scheda sia "FRESCA" avere una fornace nel case mi da fastidio :)

Il nabbo di turno
24-04-2015, 13:46
:|
mi hai messo in mente un'ideona, mannaggia a te :asd:

potrei trasferire la postazione pc con volante, 5.1, ecc ecc nella stanza degli stendini invece che continuare a stare nel buco di camera mia :asd:
farei contenta mammà :asd: gli asciugo i panni :asd:

:eek:

mircocatta
24-04-2015, 13:47
Beh ma scusate allora parlare di consumi e' assolutamente scandaloso .... se ne parla come se ci fosse un abisso e invece .... cioe' dai 1,30 euro al mese o giu' di li di differenza su schede da 300 euro in su' sarebbe neanche da parlarne . invece sul fatto del calore trovo molto importante che una scheda sia "FRESCA" avere una fornace nel case mi da fastidio :)
bah io invece ai consumi ci guardo eccome, o meglio diciamo che guardo l'efficenza di un chip

J9AnGe
24-04-2015, 13:51
bah io invece ai consumi ci guardo eccome
perchè una scheda da 240watt non ci penso a fare uno sli (gtx 780)

una scheda da 180watt invece si, e l'ho fatto (gtx 970)

ma non per questioni di consumi, ma perchè l'ali da 850 preferisco non caricarlo troppo, e assieme sono comunque tanti watt che scaldano e limitano le possibilità di overclock

Certo da quel punto di vista sono d'accordo con te :) , ma per me che vado sempre di scheda singola se uscisse una 390 - 390x che assorbe 300w ma che stia sui 70° sotto carico ad un prezzo ragionevole la prenderei senza pensarci un'attimo .

Il nabbo di turno
24-04-2015, 13:52
bah io invece ai consumi ci guardo eccome
perchè una scheda da 240watt non ci penso a fare uno sli (gtx 780)

una scheda da 180watt invece si, e l'ho fatto (gtx 970)

ma non per questioni di costi energetici, ma perchè l'ali da 850 preferisco non caricarlo troppo, e assieme sono comunque tanti watt che scaldano e limitano le possibilità di overclock e dissipazione del pc
però ovvio, se una scheda è da 300 watt ma è anche tra le più efficenti sul mercato...se non costa uno stipendio la compro al volo!

Beh oddio, non ci fai oc, ma 120w in più a pieno carico il tuo ax860 li reggeva tutti.

mircocatta
24-04-2015, 13:56
Beh oddio, non ci fai oc, ma 120w in più a pieno carico il tuo ax860 li reggeva tutti.

esatto, due 780 default le reggeva, come regge due 970 in max overclock (più di 1450mhz fanno fatica a reggere) che sono decisamente più performanti :)
un conto se fossi voluto rimanere a singola vga, in quel caso avrei preso una bella 780ti usata o 290x usata in attesa dei 20/14nm :)

ma...non capisco perchè mi son messo a parlare di queste cose :asd: :confused:

Il nabbo di turno
24-04-2015, 13:59
esatto, con le 780 default li reggeva
ma quei 120watt lì, ho preferito usarli per tirare le gtx 970 a 1450mhz e l'i7 a 4800mhz, e a parità di consumi credo di aver un bel po più di performance rispetto a due 780 a default, no? :)

780 e 970 si passano 1.5 anni, quindi logico che sia stato meglio optare per la 970, anche per le performance leggermente superiori, ma se avessi dovuto scegliere 2 anni prima non ci sarebbero stati comunque problemi.

Einhander
24-04-2015, 14:06
Dai piantatela che prima di maxwell neppure nvidia era così ecologica.
http://tpucdn.com/reviews/MSI/R9_290X_Gaming/images/power_peak.gif

http://tpucdn.com/reviews/MSI/R9_290X_Gaming/images/power_average.gif

Che poi due tre annetti fa, quando uscì la 650 ti boost e la 7790, la prima consumava 120w e l'altra 80w, ma nessuno aveva detto nulla di un 50% in più di watt a parità di performance, oppure di quando uscì la 7750 che andava come la 550 ti, che consumava praticamente il doppio.

Vabbeh ma e' sempre la stessa storia, due pesi due misure in base a cio' che fa piu' comodo, quando nvidia faceva certrali termo nucleari e chip immensi oltre che assetatissimi di corrente, il calore e i consumi sulla fascia enthusiast non contavano, e intanto amd faceva chip piccoli e modulari con le 58xx, che consumavano e scaldavano meno, poi quando sembrava che la strada del gpgpu fosse il mantra da seguire ci furono cambiamenti architetturali per potenziare questo aspetto e non c'e' voluto molto per fare in modo che sotto quel punto di vista la potenza bruta delle amd annullasse completamente l'avversaria, ma poi MAGICAMENTE il nuovo mantra e' divenuto fare chip parchi nei consumi e con unita' di calcolo segate di netto per contenere i consumi e fare chip piu' piccoli...e di nuovo a dire che MAGICAMENTE i consumi ora sulla fascia enthusiast erano il nuovo mantra e il gp gpu non contava piu' una mazza nelle schede video for gaming...eh si guarda ci credo proprio a queste mode, perche' sono proprio obiettive e non per nulla dettate, in base alle proprie necessita', da nvidia con meta' delle riviste e siti a fare da coro dietro e con una non indifferente velocita' nel dimenticarsi certi concetti sparati al vento da nvidia pochi anni prima..
No caro mio, non c'e' senso in questi discorsi nella fascia enthusiast, l'unica cosa che conta e' il rapporto prezzo prestazioni e non di certo quello consumi visto che con la differenza di costo tra le verdi e le rosse dovresti giocare anni prima di equilibrare la spesa sostenuta all'acquisto.

L'unica differenza vera e propria e' il reparto marketing, dove nvidia e' molto piu' brava, ma poi non sarebbe manco troppo piu' brava, solo che ci sono eserciti di markettari tra gli utenti convinti che sia sempre necessariamente meglio nvidia e che augurano la morte di ati per poter pagare una scheda entry level 500 euro :rolleyes: :rolleyes:

Il nabbo di turno
24-04-2015, 14:10
Vabbeh ma e' sempre la stessa storia, due pesi due misure in base a cio' che fa piu' comodo, quando nvidia faceva certrali termo nucleari e chip immensi oltre che assetatissimi di corrente, il calore e i consumi sulla fascia enthusiast non contavano, e intanto amd faceva chip piccoli e modulari con le 58xx, che consumavano e scaldavano meno, poi quando sembrava che la strada del gpgpu fosse il mantra da seguire ci furono cambiamenti architetturali per potenziare questo aspetto e non c'e' voluto molto per fare in modo che sotto quel punto di vista la potenza bruta delle amd annullasse completamente l'avversaria, ma poi MAGICAMENTE il nuovo mantra e' divenuto fare chip parchi nei consumi e con unita' di calcolo segate di netto per contenere i consumi e fare chip piu' piccoli...e di nuovo a dire che MAGICAMENTE i consumi ora sulla fascia enthusiast erano il nuovo mantra e il gp gpu non contava piu' una mazza nelle schede video for gaming...eh si guarda ci credo proprio a queste mode, perche' sono proprio obiettive e non per nulla dettate, in base alle proprie necessita', da nvidia con meta' delle riviste e siti a fare da coro dietro e con una non indifferente velocita' nel dimenticarsi certi concetti sparati al vento da nvidia pochi anni prima..
No caro mio, non c'e' senso in questi discorsi nella fascia enthusiast, l'unica cosa che conta e' il rapporto prezzo prestazioni e non di certo quello consumi visto che con la differenza di costo tra le verdi e le rosse dovresti giocare anni prima di equilibrare la spesa sostenuta all'acquisto.

L'unica differenza vera e propria e' il reparto marketing, dove nvidia e' molto piu' brava, ma poi non sarebbe manco troppo piu' brava, solo che ci sono eserciti di markettari tra gli utenti convinti che sia sempre necessariamente meglio nvidia e che augurano la morte di ati per poter pagare una scheda entry level 500 euro :rolleyes: :rolleyes:
Ma più che altro, dove mi giro leggo solo il fatto dei consumi, è diventata una cosa imbarazzante, sembra che conti solo quello.

Einhander
24-04-2015, 14:14
Ma più che altro, dove mi giro leggo solo il fatto dei consumi, è diventata una cosa imbarazzante, sembra che conti solo quello.

Se torni indietro a leggere all'epoca di kepler e soci contava solo il gpgpu :°D
Vabbhe ma che dobbiamo farci e' difficile essere obiettivi e' molto piu' facile non avere una mente e farsi scegliere i pensieri dai reparti marketing di qualche multinazionale...
Poi dove era superiore la 780 alla r9 290 non si sa' forse su un paio di recensioni, visto che sia su tomshw che su molti altri siti la 290 gli stava sopra gia' dal fullhd per non parlare delle risoluzioni piu' alte dove e' noto le architetture amd scalano meglio :rolleyes:

Il nabbo di turno
24-04-2015, 14:16
Se torni indietro a leggere all'epoca di kepler e soci contava solo il gpgpu :°D
Vabbhe ma che dobbiamo farci e' difficile essere obiettivi e' molto piu' facile non avere una mente e farsi scegliere i pensieri dai reparti marketing di qualche multinazionale...
Poi dove era superiore la 780 alla r9 290 non si sa' forse su un paio di recensioni, visto che sia su tomshw che su molti altri siti la 290 gli stava sopra gia' dal fullhd per non parlare delle risoluzioni piu' alte dove e' noto le architetture amd scalano meglio :rolleyes:

La 290 se la giocava con la prima titan, altro che 780, la 780 per giocarsela con la 290 l'hanno dovuta portare a 1ghz di base.

davo30
24-04-2015, 14:16
Quando hai un ali gold da 600/700w, cambia poco se la vga ti consuma 200 o 300w a pieno carico, tanto mica mentre giochi guardi ai consumi...
Con questo non voglio dire che i consumi non siano importanti, ma gli si sta dando un peso esagerato, com'è uscito maxwell, sembra che i forum di hardware siano invasi da fan di greenpeace.

Ahahah straquotone.

Inviato dal mio GT-I9505 usando Tapatalk 4

MrBrillio
24-04-2015, 14:22
L'unica differenza vera e propria e' il reparto marketing, dove nvidia e' molto piu' brava, ma poi non sarebbe manco troppo piu' brava, solo che ci sono eserciti di markettari tra gli utenti convinti che sia sempre necessariamente meglio nvidia e che augurano la morte di ati per poter pagare una scheda entry level 500 euro :rolleyes: :rolleyes:

Io ho avuto un'esperienza negativa con l'ultima serie di AMD dove ne ho provate varie modelli, ma ho sempre trovato qualcosa che mi faceva storcere il naso...nonostante questo avrei in ogni caso provato la 390x se fosse uscita con le giuste tempistiche e fosse stata realmente più conveniente rispetto alla Titan X.....aggiungici al tutto anche driver non sempre ottimizzati (sia a causa degli sviluppatori che prediligono Nvidia, che per "colpa" di AMD)..insomma lasciando stare i consumi ci sono ben altri motivi per prediligere le verdi, e quindi se i prezzi sono più gonfiati è forse anche per quel valore in più che offrono...ma la verità è che AMD riesce ad essere competitiva dopo mesi in cui NVidia ha fatto mambassa di tutti gli scimmiati come il sottoscritto :fagiano:

Ma lasciando da parte i soliti discorsi..di ste benedette 390x si sà una data certa di uscita? Cioè sembra strano che Nvidia anticipi l'uscita delle 980Ti...io spero vivamente (anche a mie spese) di vedere una 390x che voli in prestazioni, perchè altrimenti tutta sta attesa per proporre prodotti in linea con quanto c'è in giro da mesi, sarebbe una grossa presa per i fondelli per tutti.

J9AnGe
24-04-2015, 14:23
Ma più che altro, dove mi giro leggo solo il fatto dei consumi, è diventata una cosa imbarazzante, sembra che conti solo quello.

Si con 1 euro e mezzo di differenza in bolleta in un mese :asd: , MA VA LA' ! che assurdita' , il bello e' che ci sono cascato anchio comprando gtx 970 "ottima scheda x carita'" per poi ritrovarmi incazzato nero quando e' uscita la storia dei GIGA - BUS e ROPS (per non dimenticare) fortunatamente l'ho rivenduta a 300 euro e ci ho perso poco , non che non andasse gtx 970 anzi , ma sentirmi preso in giro per non dire altro non e' che faccia tanto piacere .... la prossima volta mi informo meglio ed aspetto un po' prima di comprare :)

FroZen
24-04-2015, 14:51
A dire la verita i titoli twimtbp sono sempre meno, cosi come i titoli nativi x pc, è il mondo console che tira e sappiamo tutti che hardware hanno.... Mi puacerebbe capire da brillio x es che cosa ha trovato un anno fa di non soddisfacente su amd visto che altri citano esperienze di cinque anni fa e di passi avanti ne sono stati fatti tanti dal 2011 ad oggi...

FroZen
24-04-2015, 14:58
Le maxwell appena gli dai un micro volt in piu i consumi esplodono.... Overvoltare diventa sempre piu controproducente imho.... Prendi una maxwell ref e una suoercustom da sedicimila fasi.... Fra la prima a vdef e la seconda a 1,23 se non erro, passano 50mhz.... E i tdp esplodono e bisogna andare di bios mod.... E mi verrebbe da chiedere: e i consumi?! E soprattutto.... ne vale la pena? Se guardi il valley forse si, ma poi in game...

L overvolt è pure da gestire bene su amd ovviamente e se trovi la gpu sfigata non si va da nessuna parte...

Gundam1973
24-04-2015, 15:08
Ma più che altro, dove mi giro leggo solo il fatto dei consumi, è diventata una cosa imbarazzante, sembra che conti solo quello.

A me i consumi di schede video o processori che siano non mi sono mai interessati....anzi la prima cosa che faccio con il nuovo HW generalmente è disattivare tutti i risparmi energetici ed OC subito tutto abbestia!! :D :D :D

:D :D :D

°Phenom°
24-04-2015, 15:09
Ragazzi, a me sinceramente frega poco di ciò che acquistano gli altri o se si chiama amd o nvidia, quando nvidia faceva gpu che valevano quello che costavano ed erano nel complesso migliori delle ati al tempo, io le acquistavo, però da quando sono iniziate le prese per il culo dalla serie 600 in poi con la 680 straprezzate che andava meno di 7970, con la 690 inutile e super limitata dai 2gb, con le varie titan straprezzate come anche tutte le altre vga di fascia alta, personalmente l'ho scartate a prescindere proprio per un fatto di principio, come farei lo stesso con amd se fosse il contrario.
Alla fine la cosa è personale, certo anche a me danno fastidio i fanboy, però il mondo è bello perchè è vario :)

°Phenom°
24-04-2015, 15:09
A me i consumi di schede video o processori che siano non mi sono mai interessati....anzi la prima cosa che faccio con il nuovo HW generalmente è disattivare tutti i risparmi energetici ed OC subito tutto abbestia!! :D :D :D

:D :D :D

Anche io ahaha :asd:

nessuno29
24-04-2015, 16:17
Anche io ahaha :asd:

Idem

Ho avuto una HD4870x2 (un asciugacapelli sia per rumore che per consumi)
Upgrade a 2 GTX 570 in sli :D
Poi ritorno in AMD(che mi ha deluso per i black screen,mai risolti almeno per me)

OEidolon
24-04-2015, 16:51
ma...non capisco perchè mi son messo a parlare di queste cose :asd: :confused:

te lo dico io il perchè :O

perchè mannaggialaputtanacciavacca ste maledette 370 dovevano già essere fuori e noi dovevamo essere qua a scrivere tutte le ipotesi più assurde sulle schede di fascia superiore :cry:

ok tutti aspettano le big, ma devo capire quanto dovrò spendere per giocare a gta5 senza patemi :stordita:

MrBrillio
24-04-2015, 17:01
Mi puacerebbe capire da brillio x es che cosa ha trovato un anno fa di non soddisfacente su amd visto che altri citano esperienze di cinque anni fa e di passi avanti ne sono stati fatti tanti dal 2011 ad oggi...


Ciao Froz, allora..con la prima 290x (reference) temperature a parte e profilo delle ventole aggressivi, mi ha dato parecchi problemi con schermate nere che saltavano fuori in parecchie situazioni...ripeto...temperature e rumore non mi davano fastidio perché gioco con le cuffie e del caldo che si crea nel case fregava poco perché ne ho uno belo areato. Ho preso la Tri-x oc e purtroppo si ripresentavano alla grande nonostante fosse un po più performante e fresca...il problema lo hanno risolto dopo una cosa come 2/3 mesi con dei driver decenti. La 290x Lighting invece era una gran bestiola, ma purtroppo mi era stata mandata un esemplare fallato e quindi ho deciso di chiudere li il capitolo amd (per quella generazione eh). Non mi reputo un fanboy ne di una ne dell altra marca...anzi ho creduto un sacco anche in mantle dando via lo sli di 780 in favore delle 290x, però almeno personalmente mi sono trovato meglio con nvidia come supporto ai giochi e al multigpu. Ma non per questo chiudo la porta ad Amd, però devono iniziare ad essere competitivi anche sotto altri aspetti, che vuoi o non vuoi sono da mettere in conto quando si spendono cifre così alte.

Ubro92
24-04-2015, 17:02
te lo dico io il perchè :O

perchè mannaggialaputtanacciavacca ste maledette 370 dovevano già essere fuori e noi dovevamo essere qua a scrivere tutte le ipotesi più assurde sulle schede di fascia superiore :cry:

ok tutti aspettano le big, ma devo capire quanto dovrò spendere per giocare a gta5 senza patemi :stordita:

Tutto sta a che risoluzione giocherai

OEidolon
24-04-2015, 17:12
Tutto sta a che risoluzione giocherai

si si, ovviamente!

bah, tanto ormai aspetto di fare gli acquisti dopo la sessione d'esami e per quella volta dovrebbe esserci tutta la nuova lineup amd :)

FroZen
24-04-2015, 17:44
Ah si ricordo.... Black screen e tre vga sfigate farebbero saltare la pazienza a gandhi, che sfiga

Mister D
24-04-2015, 20:21
bah io invece ai consumi ci guardo eccome, o meglio diciamo che guardo l'efficenza di un chip

Ciao,
scusami non è per darti contro o criticarti ma il tuo discorso cozza con portare a 1450 MHz due 970 in sli. Lo sai vero che la curva di efficienza in oc oltre certe soglie scende paurosamente perché i transistor sono progettati per rimanere entro un certo range di frequenze/tensioni rispetto al pp utilizzato? No perché vieni a dire che guardi l'efficienza e poi fai overclock? Non ti sembra un tantino incoerente?
E' come uno che si compra la prius perché guarda all'efficienza e poi modifichi il motore per avere 50 cv in più oppure ancora chi compra la porsche e gli mette il gpl.:D
Quello che uno dovrebbe tenere in mente per dare le giuste priorità nelle considerazioni da fare è il target di utilizzo, non l'efficienza fine a se stessa. Sei un videogiocatore incallito che cerchi le massime performance, beh dovresti proprio non guardarci ai consumi. Sei un utente che con il pc ci gioca sporadicamente e la maggior parte del tempo vede film o pagine web, beh lì oltre che essere sprecata una scheda video top è anche un spreco di energia e sì che bisognerebbe guardare l'efficienza di una scheda. Non si può avere tutto, sarebbe bello ma tutto è un compromesso. Prius vado a lavoro spendendo poco e andando piano, porsche vado forte, in pista e mi diverto spendendo quello che c'è da spendere. :sofico:
Non te la prendere ho preso il tuo post per un discorso generale;)

Gundam1973
24-04-2015, 20:31
Ciao,
scusami non è per darti contro o criticarti ma il tuo discorso cozza con portare a 1450 MHz due 970 in sli. Lo sai vero che la curva di efficienza in oc oltre certe soglie scende paurosamente perché i transistor sono progettati per rimanere entro un certo range di frequenze/tensioni rispetto al pp utilizzato? No perché vieni a dire che guardi l'efficienza e poi fai overclock? Non ti sembra un tantino incoerente?
E' come uno che si compra la prius perché guarda all'efficienza e poi modifichi il motore per avere 50 cv in più oppure ancora chi compra la porsche e gli mette il gpl.:D
Quello che uno dovrebbe tenere in mente per dare le giuste priorità nelle considerazioni da fare è il target di utilizzo, non l'efficienza fine a se stessa. Sei un videogiocatore incallito che cerchi le massime performance, beh dovresti proprio non guardarci ai consumi. Sei un utente che con il pc ci gioca sporadicamente e la maggior parte del tempo vede film o pagine web, beh lì oltre che essere sprecata una scheda video top è anche un spreco di energia e sì che bisognerebbe guardare l'efficienza di una scheda. Non si può avere tutto, sarebbe bello ma tutto è un compromesso. Prius vado a lavoro spendendo poco e andando piano, porsche vado forte, in pista e mi diverto spendendo quello che c'è da spendere. :sofico:
Non te la prendere ho preso il tuo post per un discorso generale;)

questo è verbo! :D

Ubro92
25-04-2015, 04:32
Ciao,
scusami non è per darti contro o criticarti ma il tuo discorso cozza con portare a 1450 MHz due 970 in sli. Lo sai vero che la curva di efficienza in oc oltre certe soglie scende paurosamente perché i transistor sono progettati per rimanere entro un certo range di frequenze/tensioni rispetto al pp utilizzato? No perché vieni a dire che guardi l'efficienza e poi fai overclock? Non ti sembra un tantino incoerente?
E' come uno che si compra la prius perché guarda all'efficienza e poi modifichi il motore per avere 50 cv in più oppure ancora chi compra la porsche e gli mette il gpl.:D
Quello che uno dovrebbe tenere in mente per dare le giuste priorità nelle considerazioni da fare è il target di utilizzo, non l'efficienza fine a se stessa. Sei un videogiocatore incallito che cerchi le massime performance, beh dovresti proprio non guardarci ai consumi. Sei un utente che con il pc ci gioca sporadicamente e la maggior parte del tempo vede film o pagine web, beh lì oltre che essere sprecata una scheda video top è anche un spreco di energia e sì che bisognerebbe guardare l'efficienza di una scheda. Non si può avere tutto, sarebbe bello ma tutto è un compromesso. Prius vado a lavoro spendendo poco e andando piano, porsche vado forte, in pista e mi diverto spendendo quello che c'è da spendere. :sofico:
Non te la prendere ho preso il tuo post per un discorso generale;)

Sono d'accordo ma in parte, nel senso che la riduzione dei consumi è importante sopratutto per la questione alimentatore, perchè fare uno sli di 970 in OC e fare uno sli di 780/780ti in oc richiede due alimentatori completamente diversi a parità di prestazioni, nel primo caso te la cavi con poco probabilmente anche un ali di 5-600w è piu che sufficiente, nel secondo caso serve minimo minimo 6-800w di ali a seconda di quanto si occa (stesso discorso per 290/290x)...

Comunque per quanto riguarda maxwell si è ampiamente visto che la massima efficienza si ha alla max frequenza raggiungibile con vcore stock che in media è intorno ai 1500mhz, qualunque aumento di vcore da pochi vantaggi visto che i consumi crescono esponenzialmente, pero bisogna dire che queste schede salgono veramente tanto a vcore stock e 1500mhz sono un oc piu che dignitoso che ti fanno guadagnare quei 10-12 frame in piu in game...

Catan
25-04-2015, 10:31
Scusa ma dopo il discorso che ti hanno fatto sopra, non regge manco il discorso degli alimentatori...a priori se hai i soldi per prendere 2 980 da mettere in sli, do per scontato che ti avanzano quei 50-60€ in più per prendere un 850W invece che un 650W.
Se vuoi fare il top prezzo/prestazioni/consumi, ti prendi una sola 980 o quello che sia e un buon 650...

nessuno è cosi "scemo" da fare uno sli con i watt tirati ed in caso uno lo facesse....sta sempre con il patema che basta 1 minimo aumento di carico rispetto alla media e ti si inchioppa tutto.

Torna il discorso mi faccio la lamborghini e ci metto il gpl con il serbatoio "più piccolo" perchè tanto non supererò mai quei tot km al giorno...

Andiamo su, il discorso dell'efficienza è una storiella che ci raccontiamo per impaginare il forum.
Ad un'enthusiast se gli fai vedere 12 fps in più e 60W di consumo in più non gli frega na mazza, perchè sicuro che già avrà un ali anche "super dotato" per quello che fa.

Certo diventa una discriminante se a parità di fps, consuma anche meno ed allora uno ci pensa...

Se non hai la parità di prestazioni e sei nella fascia top level, i 50-60W di differenza non importano a quel fruitore di quella categoria.

qboy
25-04-2015, 10:49
Scusa ma dopo il discorso che ti hanno fatto sopra, non regge manco il discorso degli alimentatori...a priori se hai i soldi per prendere 2 980 da mettere in sli, do per scontato che ti avanzano quei 50-60€ in più per prendere un 850€ invece che un 650€.
Se vuoi fare il top prezzo/prestazioni/consumi, ti prendi una sola 980 o quello che sia e un buon 650...

nessuno è cosi "scemo" da fare uno sli con i watt tirati ed in caso uno lo facesse....sta sempre con il patema che basta 1 minimo aumento di carico rispetto alla media e ti si inchioppa tutto.

Torna il discorso mi faccio la lamborghini e ci metto il gpl con il serbatoio "più piccolo" perchè tanto non supererò mai quei tot km al giorno...

Andiamo su, il discorso dell'efficienza è una storiella che ci raccontiamo per impaginare il forum.
Ad un'enthusiast se gli fai vedere 12 fps in più e 60W di consumo in più non gli frega na mazza, perchè sicuro che già avrà un ali anche "super dotato" per quello che fa.

Certo diventa una discriminante se a parità di fps, consuma anche meno ed allora uno ci pensa...

Se non hai la parità di prestazioni e sei nella fascia top level, i 50-60W di differenza non importano a quel fruitore di quella categoria.

quoto qui, e il fattore alimentatore interviene solo in caso di sistemi nuovi, chi aggiorna la componente grafica, già da prima quindi con schede meno efficienti era dotato di un buon psu, non vedo il problema

Albi80
25-04-2015, 14:40
Il mio ali da 1200 watt lavora nel mio PC da un bel po' di anni. Ed è disponibile per qualsiasi evenienza. 😊

Inviato dal mio SM-N910F

qboy
25-04-2015, 18:31
pure il mio coolermaster v1200 :D

Catan
26-04-2015, 07:08
Beh io ho un corsair HX650...sapendo che non sarò mai uno sli, è proprozionato a qualsiasi single vga hi-end, single chip che esca...dipende tutto da quello che uno pensa di farci;) (considerando poi che non prendo mai la top level ma in genere quella poco sotto^^)

J9AnGe
26-04-2015, 07:22
Io ho un Sapphire da 950W e faccio tranquillamente crossfire neanche se ne accorge , l'ho pagato caretto ma ne valeva la pena :)

floop
26-04-2015, 08:04
io mi son pentito di aver preso solo un XFX da 650w con 55Ampere... magari regge due 970 ma non credo oltre come 980 o le 390.

Mister D
26-04-2015, 11:57
Sono d'accordo ma in parte, nel senso che la riduzione dei consumi è importante sopratutto per la questione alimentatore, perchè fare uno sli di 970 in OC e fare uno sli di 780/780ti in oc richiede due alimentatori completamente diversi a parità di prestazioni, nel primo caso te la cavi con poco probabilmente anche un ali di 5-600w è piu che sufficiente, nel secondo caso serve minimo minimo 6-800w di ali a seconda di quanto si occa (stesso discorso per 290/290x)...

Comunque per quanto riguarda maxwell si è ampiamente visto che la massima efficienza si ha alla max frequenza raggiungibile con vcore stock che in media è intorno ai 1500mhz, qualunque aumento di vcore da pochi vantaggi visto che i consumi crescono esponenzialmente, pero bisogna dire che queste schede salgono veramente tanto a vcore stock e 1500mhz sono un oc piu che dignitoso che ti fanno guadagnare quei 10-12 frame in piu in game...

Ciao,
per il discorso alimentatore ti hanno già risposto e sono d'accordo, se prendi una scheda top e anzi uno sli vuol dire che hai un buon budget per dimensionare bene l'alimentatore. Es: non è che su una ferrari dimensionano male i freni o l'impianto di raffreddamento per risparmiare sul peso. Un progetto, e così quando si configura un computer, deve essere il più equilibrato possibile e quindi se uno decide per un sli/crossfire non risparmierà di certo sull'erogazione della corrente.

Per il discorso efficienza quello che dici va contro la fisica dei transistor stessi e cioè che il consumo elettrico di un transistor aumenta (non mi ricordo con che proporzionalità, quadratica, cubica, ecc) con la frequenza e la tensione applicata. Per cui che tu aumenti la frequenza a parità di tensione o viceversa l'aumento di consumo ci sarà sempre. Non sarà uguale perché la proporzionalità di aumento è diversa e mi ricordo che quello che conti di più sia proprio la tensione ma non è possibile che un transistor non aumenti il proprio consumo quando si aumenta la frequenza e cioè il periodo di commutazione del transistor stesso. Compie più lavoro e visto che non è un lavoro meccanico può essere solo calorifico ergo produce più calore/consuma di più.
Scusami ma non è come dici.;)

Aggiungo un test che dimostra quello che dico, ma non poteva essere diversamente visto che maxwell, seppur straordinario chip, non può andare contro le leggi della fisica:
http://www.tomshw.it/articoli/geforce-gtx-960-overclock-contro-efficienza-64951-p2
"...Le due barre rosse rappresentano i nostri test. La prima è l'impostazione è la GTX 960 standard "simulata" (1133 MHz di base, 1284 MHz in GPU Boost), mentre la seconda il test in overclock (1610 MHz).

Confrontando l'incremento di frequenza del 25,4 percento con l'incremento prestazionale del 17,9%, tutto sembra in ordine a un primo sguardo. Però la differenza prestazionale tra Gigabyte GTX 960 Gaming G1 overcloccata di fabbrica (1455 MHz in GPU Boost) e risultato in OC a 1610 MHz è abbastanza contenuto. L'incremento di frequenza è del 10,7% rispetto all'incremento prestazionale del 4,9%, un rapporto non certo buono. ..."
http://www.tomshw.it/articoli/geforce-gtx-960-overclock-contro-efficienza-64951-p3
"...L'energia assorbita non aumenta linearmente con l'incremento di frequenza, ma di più! Questo impatta sull'efficienza come vediamo in questo grafico:..."

Vul
26-04-2015, 11:59
E dove sarebbe più lenta? Forse ha maggior consumi, calore e rumore :D


http://gpuboss.com/gpus/Radeon-R9-290-vs-GeForce-GTX-780

era più lenta, stop.

http://www.anandtech.com/bench/product/1068?vs=1036

Vul
26-04-2015, 12:01
Beh ma scusate allora parlare di consumi e' assolutamente scandaloso .... se ne parla come se ci fosse un abisso e invece .... cioe' dai 1,30 euro al mese o giu' di li di differenza su schede da 300 euro in su' sarebbe neanche da parlarne . invece sul fatto del calore trovo molto importante che una scheda sia "FRESCA" avere una fornace nel case mi da fastidio :)

beh, ma uno che una scheda la vuole tenere 3-4 anni due conti li fa.

Gundam1973
26-04-2015, 12:42
Ciao,
per il discorso alimentatore ti hanno già risposto e sono d'accordo, se prendi una scheda top e anzi uno sli vuol dire che hai un buon budget per dimensionare bene l'alimentatore. Es: non è che su una ferrari dimensionano male i freni o l'impianto di raffreddamento per risparmiare sul peso. Un progetto, e così quando si configura un computer, deve essere il più equilibrato possibile e quindi se uno decide per un sli/crossfire non risparmierà di certo sull'erogazione della corrente.

Per il discorso efficienza quello che dici va contro la fisica dei transistor stessi e cioè che il consumo elettrico di un transistor aumenta (non mi ricordo con che proporzionalità, quadratica, cubica, ecc) con la frequenza e la tensione applicata. Per cui che tu aumenti la frequenza a parità di tensione o viceversa l'aumento di consumo ci sarà sempre. Non sarà uguale perché la proporzionalità di aumento è diversa e mi ricordo che quello che conti di più sia proprio la tensione ma non è possibile che un transistor non aumenti il proprio consumo quando si aumenta la frequenza e cioè il periodo di commutazione del transistor stesso. Compie più lavoro e visto che non è un lavoro meccanico può essere solo calorifico ergo produce più calore/consuma di più.
Scusami ma non è come dici.;)

Aggiungo un test che dimostra quello che dico, ma non poteva essere diversamente visto che maxwell, seppur straordinario chip, non può andare contro le leggi della fisica:
http://www.tomshw.it/articoli/geforce-gtx-960-overclock-contro-efficienza-64951-p2
"...Le due barre rosse rappresentano i nostri test. La prima è l'impostazione è la GTX 960 standard "simulata" (1133 MHz di base, 1284 MHz in GPU Boost), mentre la seconda il test in overclock (1610 MHz).

Confrontando l'incremento di frequenza del 25,4 percento con l'incremento prestazionale del 17,9%, tutto sembra in ordine a un primo sguardo. Però la differenza prestazionale tra Gigabyte GTX 960 Gaming G1 overcloccata di fabbrica (1455 MHz in GPU Boost) e risultato in OC a 1610 MHz è abbastanza contenuto. L'incremento di frequenza è del 10,7% rispetto all'incremento prestazionale del 4,9%, un rapporto non certo buono. ..."
http://www.tomshw.it/articoli/geforce-gtx-960-overclock-contro-efficienza-64951-p3
"...L'energia assorbita non aumenta linearmente con l'incremento di frequenza, ma di più! Questo impatta sull'efficienza come vediamo in questo grafico:..."

aristraquoto!
diffondete il verbo! :D

Mister D
26-04-2015, 12:48
aristraquoto!
diffondete il verbo! :D

Grazie mille;) Semplicemente cerco di far vedere come molti concetti siano poi alla portata di tutti e che in rete come da nella vita reale molte volte siamo circondati da luoghi comuni / falsi miti / dicerie che possono essere combattuti solamente cercando di combattere la nostra pigrizia nel voler vedere oltre il nostro naso. La rete ha il grosso pregio ma anche grosso difetto di aver tutto a portata di mano per cui sta a noi "studiare" e cercare di ampliare le nostre conoscenze, nel limite del possibile e nel limite delle nostre passioni. Questo proprio per non farci fregare dal marketing, vero "anticristo" della conoscenza:sofico:

killeragosta90
26-04-2015, 12:51
A me i consumi di schede video o processori che siano non mi sono mai interessati....anzi la prima cosa che faccio con il nuovo HW generalmente è disattivare tutti i risparmi energetici ed OC subito tutto abbestia!! :D :D :D

:D :D :D

Aggiungerei anche un "ecchecc@zzo!" :asd: Quoto!! Vale anche per me :p

Gundam1973
26-04-2015, 12:58
beh, ma uno che una scheda la vuole tenere 3-4 anni due conti li fa.

e che conti vuoi fare?:D
Nella peggiore delle ipotesi che saranno...10 euro l'anno giocando come nn ci fosse un domani! :D Ma ne spendi almeno 60 in più sull'acquisto della verde...quindi boh!
:D

Einhander
26-04-2015, 13:10
era più lenta, stop.

http://www.anandtech.com/bench/product/1068?vs=1036

Eccolo il potere di nvidia e del reparto marketing...cambia i ricordi delle persone adattandoli a cio' che piu' le conviene...non mi sorprenderei se di notte quando le persone dormono subentri un impiegato nvidia e senza farsi notare attacchi degli elettrodi alle teste dei propri clienti sostituendo alcuni ricordi con altri creati ad hoc :°°°D

Catan
26-04-2015, 17:45
io mi son pentito di aver preso solo un XFX da 650w con 55Ampere... magari regge due 970 ma non credo oltre come 980 o le 390.

se ti servono due top gamma in cf/sli a priori un 650W non lo prendi.
Un 650W di livello,riesce a far andare tranquillamente qualsiasi top level a singolo chip il mercato faccia uscire fuori. Gli XFX so fatti poi da seasonic, ergo non potresti chiedere di meglio come qualità;)

Ubro92
26-04-2015, 18:06
Ciao,
per il discorso alimentatore ti hanno già risposto e sono d'accordo, se prendi una scheda top e anzi uno sli vuol dire che hai un buon budget per dimensionare bene l'alimentatore. Es: non è che su una ferrari dimensionano male i freni o l'impianto di raffreddamento per risparmiare sul peso. Un progetto, e così quando si configura un computer, deve essere il più equilibrato possibile e quindi se uno decide per un sli/crossfire non risparmierà di certo sull'erogazione della corrente.

Per il discorso efficienza quello che dici va contro la fisica dei transistor stessi e cioè che il consumo elettrico di un transistor aumenta (non mi ricordo con che proporzionalità, quadratica, cubica, ecc) con la frequenza e la tensione applicata. Per cui che tu aumenti la frequenza a parità di tensione o viceversa l'aumento di consumo ci sarà sempre. Non sarà uguale perché la proporzionalità di aumento è diversa e mi ricordo che quello che conti di più sia proprio la tensione ma non è possibile che un transistor non aumenti il proprio consumo quando si aumenta la frequenza e cioè il periodo di commutazione del transistor stesso. Compie più lavoro e visto che non è un lavoro meccanico può essere solo calorifico ergo produce più calore/consuma di più.
Scusami ma non è come dici.;)

Aggiungo un test che dimostra quello che dico, ma non poteva essere diversamente visto che maxwell, seppur straordinario chip, non può andare contro le leggi della fisica:
http://www.tomshw.it/articoli/geforce-gtx-960-overclock-contro-efficienza-64951-p2
"...Le due barre rosse rappresentano i nostri test. La prima è l'impostazione è la GTX 960 standard "simulata" (1133 MHz di base, 1284 MHz in GPU Boost), mentre la seconda il test in overclock (1610 MHz).

Confrontando l'incremento di frequenza del 25,4 percento con l'incremento prestazionale del 17,9%, tutto sembra in ordine a un primo sguardo. Però la differenza prestazionale tra Gigabyte GTX 960 Gaming G1 overcloccata di fabbrica (1455 MHz in GPU Boost) e risultato in OC a 1610 MHz è abbastanza contenuto. L'incremento di frequenza è del 10,7% rispetto all'incremento prestazionale del 4,9%, un rapporto non certo buono. ..."
http://www.tomshw.it/articoli/geforce-gtx-960-overclock-contro-efficienza-64951-p3
"...L'energia assorbita non aumenta linearmente con l'incremento di frequenza, ma di più! Questo impatta sull'efficienza come vediamo in questo grafico:..."

Non per qualcosa apprezzo il tuo chiarimento ma hai fatto uno sproluquo per una tua incomprensione io non ho mai detto che rimanendo il vcore stock i consumi rimangono inalterati e ci mancherebbe...

Ho semplicemente detto che i consumi rimangono in una soglia tollerabile restando a vcore stock aumentando giusto quel poco in relazione alla frequenza. Ma con maxwell sembra dai test visti che aumentare la tensione di alimentazione faccia innanzitutto guadagnare ben poco in oc e in piu aumenta decisamente i picchi di corrente massima facendo consumare decisamente di piu rispetto all'aumento prestazionale...

Motivo per cui dicevo che con maxwell il miglior oc è quello massimo mantenendo il vcore stock... ;)

Un po come i moderni motori, dove una buona rimappa fa di certo guadagnare molte piu prestazioni che intervenire sulla pompa per aumentare l'entrata di carburante... Ma di certo non ho detto che fare la rimappa senza toccare la pompa fa rimanere i consumi inalterati...

Mister D
26-04-2015, 20:54
Non per qualcosa apprezzo il tuo chiarimento ma hai fatto uno sproluquo per una tua incomprensione io non ho mai detto che rimanendo il vcore stock i consumi rimangono inalterati e ci mancherebbe...

Ho semplicemente detto che i consumi rimangono in una soglia tollerabile restando a vcore stock aumentando giusto quel poco in relazione alla frequenza. Ma con maxwell sembra dai test visti che aumentare la tensione di alimentazione faccia innanzitutto guadagnare ben poco in oc e in piu aumenta decisamente i picchi di corrente massima facendo consumare decisamente di piu rispetto all'aumento prestazionale...

Motivo per cui dicevo che con maxwell il miglior oc è quello massimo mantenendo il vcore stock... ;)

Un po come i moderni motori, dove una buona rimappa fa di certo guadagnare molte piu prestazioni che intervenire sulla pompa per aumentare l'entrata di carburante... Ma di certo non ho detto che fare la rimappa senza toccare la pompa fa rimanere i consumi inalterati...

Ciao,
perfetto ora sì che è giusto ma il miglior oc non ha la stessa efficienza energetica dell'efficienza che si ottiene a frequenze/tensione applicata dal produttore e il link di prima te lo fa capire.
L'aumento prestazionale in percentuale è inferiore all'aumento di frequenza applicato a vcore stock, ergo visto che il consumo aumenta proporzionalmente alla frequenza, l'efficienza deve calare essendo il rapporto performance consumo. Performance che in un transistor sono la frequenza*IPC.
In nessun caso l'oc, anche effettuato a vcore stock, porta a mantenere la stessa efficienza proprio perché l'aumento prestazionale non è lineare con l'aumento operato in frequenza. Se questo accadesse vorrebbe dire che il produttore è stato troppo conservativo e non ha presentato il prodotto che a parità di massima efficienza energetica erogasse la migliore performance.
Es. so che il mio trasistor eroga 100 con consumo 10, cioè efficienza 10 e so che questa sia la migliore ottenibile però non faccio le prove per vedere se a consumo 20 (maggiore frequenza con o senza maggiore tensione) ottengo 200 mantenendo la stessa efficienza.
La mia incomprensione nasce da questa frase:
"...Comunque per quanto riguarda maxwell si è ampiamente visto che la massima efficienza si ha alla max frequenza raggiungibile con vcore stock che in media è intorno ai 1500mhz,..."
Ora con quella frase che ho evidenziato in grassetto ho capito cosa volevi dire e sicuramente non ti avrei scritto quello sproloquio:sofico:

Catan
26-04-2015, 22:23
Conta che nel test di tom hanno smandruppato solo la frequenza del core mantenendo standard la frequenza delle ram. Per essere completo al 100% quel test dovrebbe avere come punto di riferimento una scheda a default con gpu e ram (spesso le frequenze delle ram sono "settate" in modo che la gpu non sia ne saturata ma ne che abbia troppa banda a disposizione per ragioni di costi, che so ad una gpu con tot clock serve una ram con tot frequenza, a seconda della fascia di prezzo per la vga si sceglie che ram montarci e a che frequenza...non è raro vedere che so vga di fascia budget con gddr5 certificare come 1000 e lasciate a frequenza di 900, o in genere quando ti dice fortuna hai vga con che va con ram a 1000 e magari sono certificare per 1250 permettendoti di fare oci in tranquillità).

Realmente un test del genere bisognerebbe farlo con due punti (3 con il punto 0). Frequenza a Def, frequenza gpu-ram aumentaca che so del 15% e frequenza gpu-ram diminuita del 15%.

Considerando che se si alza la frequenza della gpu, si alza anche quella dell'mc che richiede dati alla ram che andrà sempre alla stessa frequenza, insomma più che saturare la ram, rischi di saturare l'mc e quindi hai prestazioni in percentuale, minori della percentuale di aumento della frequenza.

Bisogna anche vedere che test si fa, ci sono alcuni giochi che non sfruttano tutto il potenziale delle vga, su alcuni si ottiene di più con maggiore banda a disposizione, su altri con altri maggiore frequenza di gpu.


In assoluto la percentuale di potenza dissipata all'aumento della frequenza, con vgpu a default, è minore rispetto a quello dell'aumento del v-gpu (grazie al piffio), ma è legato alla singola scheda e alla qualità intrinseca del silicio della gpu (silicio migliore, meno impurità, quindi meno urti sul cammino medio degli elettroni, conseguente meno dissipazione termica, da qui il discorso sulle gpu fortunate, a parità di v-gpu alcune fanno più mhz senza cambiare troppo il consumo della sorella sfigata o vedendola la contrario, scelgiendo un valore fisso di watt da dissipare, alcune gpu hanno maggiori mhz di altre).

La frequenza della gpu e della ram associata che la casa sceglie per default è data da tanti fattori, il primo è di progetto (le gpu normalmente vengono simulate e si trova un range di frequenze per gpu e ram dove l'archidettura sembra dare il meglio), la seconda è costruttiva (si parla con la fonderia e si richiedere un certo processo produttivo per mantenere quel range di frequenze), la terza è economica (a seconda del costo del chip si può scegliere , tra il range di frequenze, una frequenza più conservativa in accordo con la fonderia, in modo da avere maggiori rese, o una meno conservativa con maggiori scarti). Stesso discorso quando scelgono la frequenza delle ram, si simula la gpu e il suo mc e si fà una simulazione in quali range di frequenze si ha il miglior risulato, si trova l'intorno e si scelgono che ram mettere, al contempo si vedono che ram offrono i fornitori e a che prezzo e si sceglie la frequenza delle ram (che so ci sono ram certificate 1250-1500-2000 vedo che la frequenza migliore delle ram che bilancia il mio chip, con una data frequenza e dato bus, è 1700 e si decidere di mettere le ram a 2000 sulla board settandole a 1700)
Magari se poi si vuole lanciare una versione "castrata del chip" per il low budget, nonostante si perda qualcosa in efficienza, si mettono le ram a 1500 e si tagliano i costi e si arriva sul mercato ad un prezzo più aggressivo.

IUn chip non ha mai un singolo valore di efficienza/frequenza top, ma tutta una fascia dove le variazioni sono incluse in un tot percento deciso dalla casa, che gli permette di fare i discorsi sopra, sia a livello produttivo, che di costi (sulla produzione del chip e sulle ram da mettere).


Se uno ha tempo e voglia e vuole togliersi la sete con il sale, si prendesse la sua vga, la mette e default, e fa i test, poi mette la vga con un clock del 15% maggiore su gpu e ram e vede se il guadagno è lineare (scegliendo un % anche, basta che la cpu si metta per qualche motivo a fare un processo non trasparante e si perde come niente 1-2%) e poi si fa lo stesso test abbassando la frequenza della stessa % e si vede se si è ancora in un range lineare. Tutto senza toccare il v-gpu o il v-ram.

Sarebbe carino avere anche un wattometro da mettere sull'ali e vedere di quanto il consumo si abbassa o si alza semplicemente alzando le frequenze o abbassandole, ma anche quello è altamente influenzabile dalla gpu (gpu che escono da un wafer di silicio buono hanno in genere caratteristiche fisiche similari, gpu che escono da un wafer un pò "sfigus" le hanno un pò peggiori che potrebbero dare risultati sensibili ai test di assorbimento).

Mister D
27-04-2015, 00:25
Sono d'accordo con te su tutto quello che hai scritto. Il mio voleva essere un discorso più generale e non del tutto esaustivo, per cui sì, sicuramente esistono delle tolleranze sulle frequenze/tensioni che permettono lo stesso di avere la massima efficienza con una maggiore frequenza e di conseguenza lineare aumento della performance. Però non credere che questo intorno sia così largo, anche perché soprattutto sulle schede top se fossi un produttore cercherei di spremere tutto il possibile a parità di efficienza fregandomene sia degli scarti sia che in eventuale oc poi la curva di efficienza diminuisca invece che rimanere costante.
Se mai sono le fasce medie o basse che si può trovare quel particolare esemplare che regge maggiori frequenze-> maggiori prestazioni a parità di efficienza massima appunto perché su un prodotto che venderai ad un prezzo minore dovrai sicuramente avere una resa maggiore (meno scarti, maggiori esemplari funzionanti, maggiori vendite) per equilibrare il margine più ridotto sul singolo esemplare.
Nella fascia top invece, sempre io produttore, me ne frego di avere rese elevate perché intanto già so che non farò di certo i numeri con quel prodotto e anzi lo posso vendere a di più, ergo gli posso "tirare più il collo" riducendo quindi la tolleranza di operatività dei transistor nella curva di massima efficienza.
Non so se mi spiego;)

Ubro92
27-04-2015, 04:45
Sul discorso consumi la mia 970 a 1500mhz è sicuro che fisicamente non puo superare i 180w in quanto la strix è limitata da bios intorno a quel valore, e dato il singolo connettore da 8pin anche il picco massimo di corrente non può andare oltre i 225w. Quindi rispetto ai consumi stock con un oc da 1250mhz a 1500mhz mantenendo il voltaggio di default, aumentano di quei 20-25w che mi sembra perfettamente lineare per questa scheda.

la proporzionalità da quello che ho visto nei forum si interrompe proprio quando si interviene sul vcore dove il consumo sale vertiginosamente sopratutto nei picchi massimi, non a caso la G1 infatti ha un bios che di base permette di arrivare fino a 280w il che significa che impostando il vcore al massimo cioè a 1.26v rispetto a 1.19-1.20 di default i picchi massimi possono anche superare i 300w rendendo di fatto la scheda estremamente inefficiente rispetto alla perfetta calibratura che si ha mantenendo il voltaggio di default...

Ovviamente, meglio essere precisi, sto parlando di consumi non per la bolletta ma per una questione di efficienza del chip e dei suoi limiti costruttivi... Non voglio certo dire che fare OC sulla scheda intervenendo sul vcore faccia schizzare la bolletta...:rolleyes:

BieSseA
27-04-2015, 05:06
Tornando in topic, c'è qualche aggiornamento per le schede video che tutti stiamo aspettando da AMD?
Insomma qualcuno che mi faccia un rapido riassunto di quello che saranno, oltre che l'adozione delle memorie HBM ormai sembrano una certezza (finalmente con quelle memorie elimineremo il collo di bottiglia dato dalle stesse).
Sto attendendo con impazienza la nuova serie, vorrei acquistarne una, oppure aspettare le 14nm che verranno lanciate nel 2016.

Ubro92
27-04-2015, 06:18
Tornando in topic, c'è qualche aggiornamento per le schede video che tutti stiamo aspettando da AMD?
Insomma qualcuno che mi faccia un rapido riassunto di quello che saranno, oltre che l'adozione delle memorie HBM ormai sembrano una certezza (finalmente con quelle memorie elimineremo il collo di bottiglia dato dalle stesse).
Sto attendendo con impazienza la nuova serie, vorrei acquistarne una, oppure aspettare le 14nm che verranno lanciate nel 2016.

Tutto tace per ora ci sono solo congetture ma nulla di ufficiale, però sembra che la data di uscita almeno dalle voci che circolano sia intorno gli inizi di giugno...

Catan
27-04-2015, 06:27
Sono d'accordo con te su tutto quello che hai scritto. Il mio voleva essere un discorso più generale e non del tutto esaustivo, per cui sì, sicuramente esistono delle tolleranze sulle frequenze/tensioni che permettono lo stesso di avere la massima efficienza con una maggiore frequenza e di conseguenza lineare aumento della performance. Però non credere che questo intorno sia così largo, anche perché soprattutto sulle schede top se fossi un produttore cercherei di spremere tutto il possibile a parità di efficienza fregandomene sia degli scarti sia che in eventuale oc poi la curva di efficienza diminuisca invece che rimanere costante.
Se mai sono le fasce medie o basse che si può trovare quel particolare esemplare che regge maggiori frequenze-> maggiori prestazioni a parità di efficienza massima appunto perché su un prodotto che venderai ad un prezzo minore dovrai sicuramente avere una resa maggiore (meno scarti, maggiori esemplari funzionanti, maggiori vendite) per equilibrare il margine più ridotto sul singolo esemplare.
Nella fascia top invece, sempre io produttore, me ne frego di avere rese elevate perché intanto già so che non farò di certo i numeri con quel prodotto e anzi lo posso vendere a di più, ergo gli posso "tirare più il collo" riducendo quindi la tolleranza di operatività dei transistor nella curva di massima efficienza.
Non so se mi spiego;)

Sai che invece è il contrario? I produttori di chip normalmente sono più conservativi sui chip top level, per via degli scarti (su una mid level con il chip piccolo quanto una caccola anche se hai il 10% di scarto su un wafer ottieni cmq un gozziglione di chip). Normalmente quasi tutte le top level un 10-15% di frequenza in più le hanno, senza considerare anche le ram, dove in genere preferiscono mettere delle top level downclockate (gli unici due casi di memorie standard messa su una top level riguardano proprio due vga ati, le 2900xt e le 290...stranamente stesso nome quasi e stesso bus a 512bit, quindi fruibile con ram anche da mid). Credo che poi lo facciano anche per dare il contentino agli utenti , dove mediamente chi compra una top level è anche uno smanettone, se fai vga che vanno fortissimo a default, ma che in oc non tirano su manco 50 mhz...sai quanta gente inizia a improperare sulla "vga ridicola e costosa che non si occa", preferendo quella che va di meno, ma che magari prende 200-250mhz sul core (andando cmq di meno pure con 200mhz sul core) o ai partners, cui togli la possibilità di fare custom con quei 100mhz in più...

Insomma so tanti parametri...tornando al discorso consumi poi per farla breve...uno tira su il core della vga fino a quando quella regge senza toccare il v-gpu, tutto quello che arriva di più sopra è buono e con un'aumento del "consumo" o dei watt da dissipare ridicolo

J9AnGe
27-04-2015, 06:50
beh, ma uno che una scheda la vuole tenere 3-4 anni due conti li fa.

1.30 EURO X 48 MESI (4 ANNI) = 62,40 euro ( e notare che dovresti giocare minimo 2 ore al giorno per questa cifra) , con quello che costa in piu' nvidia dovresti tenerla 6 anni in media :) , cmq oqniuno sceglie cio' che vuole tante' che io compro sia amd che nvidia a seconda del momento ma il discorso consumi non regge .

Ubro92
27-04-2015, 07:03
1.30 EURO X 48 MESI (4 ANNI) = 62,40 euro ( e notare che dovresti giocare minimo 2 ore al giorno per questa cifra) , con quello che costa in piu' nvidia dovresti tenerla 6 anni in media :) , cmq oqniuno sceglie cio' che vuole tante' che io compro sia amd che nvidia a seconda del momento ma il discorso consumi non regge .

Sono d'accordo, il discorso consumi regge solo quando si parla di architettura ed efficienza dove entra in gioco anche il mondo mobile oltre che desktop, basti pensare che un anno fa era impensabile avere una single gpu in un portatile che andasse come GTX 780 e invece ora grazie a maxwell e le GPU 970M/980M è stato possibile ottenere questo risultato che anzi nel caso di 980M con un po di OC raggiunge le prestazioni di una 970 desktop a default che va piu di una 780 ;)

Quindi dal mio punto di vista, apprezzo sempre quando il discorso consumi viene messo al primo posto in parallelo alle prestazioni quando si sviluppa un chip in quanto questo si riflette anche sul mondo mobile, non è che esista solo il mondo desktop dove tra l'altro ha comunque una sua importanza nel scegliere i giusti componenti dove sopratutto nel caso degli alimentatori sia stare troppo stretti che troppo larghi non è certo un bene...

J9AnGe
27-04-2015, 07:19
Sono d'accordo, il discorso consumi regge solo quando si parla di architettura ed efficienza dove entra in gioco anche il mondo mobile oltre che desktop, basti pensare che un anno fa era impensabile avere una single gpu in un portatile che andasse come GTX 780 e invece ora grazie a maxwell e le GPU 970M/980M è stato possibile ottenere questo risultato che anzi nel caso di 980M con un po di OC raggiunge le prestazioni di una 970 desktop a default che va piu di una 780 ;)

Quindi dal mio punto di vista, apprezzo sempre quando il discorso consumi viene messo al primo posto in parallelo alle prestazioni quando si sviluppa un chip in quanto questo si riflette anche sul mondo mobile, non è che esista solo il mondo desktop dove tra l'altro ha comunque una sua importanza nel scegliere i giusti componenti dove sopratutto nel caso degli alimentatori sia stare troppo stretti che troppo larghi non è certo un bene...

Certamente :) ma in ambito desktop una o l'altra che prendi poco nulla cambia , poi se hai finanze per mettere due 980 / 290x in sli ne hai anche per prendere un ali da 100 euro , mi sembra il minimo :)

Ubro92
27-04-2015, 07:30
Certamente :) ma in ambito desktop una o l'altra che prendi poco nulla cambia , poi se hai finanze per mettere due 980 / 290x in sli ne hai anche per prendere un ali da 100 euro , mi sembra il minimo :)

Dipende se uno ragiona nel voler fare subito sli si, pero ci sono persone per esempio che fanno sli dopo 1-1.5 anni prendendo la seconda nell'usato a poco in quel caso giustamente si fanno due conti... Ma ovviamente dipende è impossibile standartizzare la cosa in quanto dipende anche dal mercato e da quello che offre e i relativi prezzi...

Vul
27-04-2015, 08:55
1.30 EURO X 48 MESI (4 ANNI) = 62,40 euro ( e notare che dovresti giocare minimo 2 ore al giorno per questa cifra) , con quello che costa in piu' nvidia dovresti tenerla 6 anni in media :) , cmq oqniuno sceglie cio' che vuole tante' che io compro sia amd che nvidia a seconda del momento ma il discorso consumi non regge .

questo è un tuo calcolo.

io personalmente spendo 0,33 euro a kW/h

giocando due ore e mezza al giorno di media per 365 giorni l'anno, 75 watt di differenza, fanno quasi 23 euro di differenza all'anno.

In 3-4 anni la differenza la sento eccome.

E io, fino all'anno scorso, fra raidare a WoW tutte le sere per 4 ore e le domeniche pomeriggio dalle 2 alle 8 a fare ranked di WoW facevo facilmente molto più di due ore e mezza al giorno, ora fortunatamente nerdo di meno.

E tutto questo senza contare che maggior calore generato inciderà anche sul calore degli altri componenti, ventole che gireranno molto di più, incidendo sul rumore, ecc.

Sono stato il primo a dire pagine fa che il discorso consumi è stra enfatizzato dalla stampa e da molti utenti ma ha un suo punto, e tutti abbiamo esigenze differenti e abitudini differenti.

Vul
27-04-2015, 08:57
Sono d'accordo, il discorso consumi regge solo quando si parla di architettura ed efficienza dove entra in gioco anche il mondo mobile oltre che desktop, basti pensare che un anno fa era impensabile avere una single gpu in un portatile che andasse come GTX 780 e invece ora grazie a maxwell e le GPU 970M/980M è stato possibile ottenere questo risultato che anzi nel caso di 980M con un po di OC raggiunge le prestazioni di una 970 desktop a default che va piu di una 780 ;)

Quindi dal mio punto di vista, apprezzo sempre quando il discorso consumi viene messo al primo posto in parallelo alle prestazioni quando si sviluppa un chip in quanto questo si riflette anche sul mondo mobile, non è che esista solo il mondo desktop dove tra l'altro ha comunque una sua importanza nel scegliere i giusti componenti dove sopratutto nel caso degli alimentatori sia stare troppo stretti che troppo larghi non è certo un bene...

Una 980M va su per giù come una 770 desktop o poco meno comunque eh e una 970M un pò meno di una 760 desktop :asd:

Non come una 780.

Rimangono comunque due risultati molto impressionanti in ogni caso.

Ubro92
27-04-2015, 10:36
Una 980M va su per giù come una 770 desktop o poco meno comunque eh e una 970M un pò meno di una 760 desktop :asd:

Non come una 780.

Rimangono comunque due risultati molto impressionanti in ogni caso.
Ma anche no.... Basta vedere le specifiche...

J9AnGe
27-04-2015, 10:37
questo è un tuo calcolo.

io personalmente spendo 0,33 euro a kW/h

giocando due ore e mezza al giorno di media per 365 giorni l'anno, 75 watt di differenza, fanno quasi 23 euro di differenza all'anno.

In 3-4 anni la differenza la sento eccome.

E io, fino all'anno scorso, fra raidare a WoW tutte le sere per 4 ore e le domeniche pomeriggio dalle 2 alle 8 a fare ranked di WoW facevo facilmente molto più di due ore e mezza al giorno, ora fortunatamente nerdo di meno.

E tutto questo senza contare che maggior calore generato inciderà anche sul calore degli altri componenti, ventole che gireranno molto di più, incidendo sul rumore, ecc.

Sono stato il primo a dire pagine fa che il discorso consumi è stra enfatizzato dalla stampa e da molti utenti ma ha un suo punto, e tutti abbiamo esigenze differenti e abitudini differenti.

Beh nel tuo caso e' piu' che ovvio scegliere quella che consuma meno , io per esempio a parte quelle volte che prendo per dire un far cry 3 e ci gioco 4 - 5 ore fin che non e' finito prevalentemente ci gioco a open arena e quake live dove la gpu resta a 300Mhz figurati che consumo puo' avere , giustamente dipende da che uso se ne fa' cmq penso che in media chi aquista una vga non ci giochi 2 o piu' ore al giorno sempre per 4 anni e sempre a giochi che mandano la gpu al 99% da qui e' ovvio pensare che la storia dei consumi e' relativa . invece sul calore sono piu' che daccordo con te :)

Ubro92
27-04-2015, 10:47
http://s14.postimg.org/ff3xe2tel/Senza_titolo_1.jpg (http://postimg.org/image/ff3xe2tel/)

;)

zerotre
27-04-2015, 10:59
Una 980M va su per giù come una 770 desktop o poco meno comunque eh e una 970M un pò meno di una 760 desktop :asd:

Non come una 780.

Rimangono comunque due risultati molto impressionanti in ogni caso.

si poi c'e' la marmotta che incarta la cioccolata.

la 970m va piu' o meno come una 280x, dipende dai giochi. Sulla 760 in alcuni casi e' oltre il 30% piu' veloce:

cod aw 8% piu' lenta di una 290X
ac unity 15% piu' veloce di una 280x
far cry 4 11% piu' lenta di una 980
bf hardline 11% piu' lenta di una 280x
gta5 9% piu' lenta di una 280x
watch dog e shadow of mordor piu' veloce di 1% e 3% di una 280x
a 1920 x 1080 sett high o ultra

ce l'ho sul portatile e' gioco a cod aw meglio che sul pc con la 7970 matrix

Vul
27-04-2015, 11:03
Ma anche no.... Basta vedere le specifiche...

La 980M "dovrebbe" andare al 75 % della 980 desktop.

Ergo la 980 va il 33 % più veloce della 980M, ma più verosimilmente 35-40, in base alla risoluzione.

Che è poco più di una 770 stock.

Avevo letto una review che metteva in linea 970m con 760 e 980m con 770, forse dovrei rivedere.

Ubro92
27-04-2015, 11:06
La 980M "dovrebbe" andare al 75 % della 980 desktop.

Ergo la 980 va il 33 % più veloce della 980M, ma più verosimilmente 35-40, in base alla risoluzione.

Che è poco più di una 770 stock.

Scusa eh se leggi le specifiche comparandole alla 970 è indubbia la differenza minimale tra le due schede con un minimo di OC la 980m raggiunge le prestazioni di una 970 desktop...

A meno di non avere forti colli dal lato cpu...

mikael84
27-04-2015, 11:31
Scusa eh se leggi le specifiche comparandole alla 970 è indubbia la differenza minimale tra le due schede con un minimo di OC la 980m raggiunge le prestazioni di una 970 desktop...

A meno di non avere forti colli dal lato cpu...

Ho quotato te ma è in generale.:)
La 970m è in linea con la 680
http://i61.tinypic.com/e8mxch.png

La 980M nei bench va quanto una 770 occata, nei giochi pro maxwell è molto vicino alla 780 reference.
La 980M è in linea di massima una 970 desktop ancora tagliata anche se mantiene il bus.

Ha 1536cuda 64rops (ma perdendo 4 SMM accede a soli 48rops, quindi 48 operazioni per ciclo di clock) e il bus da 256 bit lineare lavora a 1250 e produce una banda passante di soli 160gb.
Quindi è come se avesse 1536 cuda/48rops e 192bit (una 970 desktop a 192 produrebbe una banda migliore di 8gb-168gb/s).

La 970 desktop ha 1664 cuda /56 rops (ma 52 accessibili) e 224bit di banda.

Come diceva VUL è il 33% più lenta di una 980 desktop per caratteristiche tecniche(ma come dicono i grafici sta ancora sotto per via dei clock più bassi). Chiaramente la 980 occata la umilia ed a buoni OC la doppia:)

Ubro92
27-04-2015, 12:02
Ho quotato te ma è in generale.:)
La 970m è in linea con la 680
http://i61.tinypic.com/e8mxch.png

La 980M nei bench va quanto una 770 occata, nei giochi pro maxwell è molto vicino alla 780 reference.
La 980M è in linea di massima una 970 desktop ancora tagliata anche se mantiene il bus.

Ha 1536cuda 64rops (ma perdendo 4 SMM accede a soli 48rops, quindi 48 operazioni per ciclo di clock) e il bus da 256 bit lineare lavora a 1250 e produce una banda passante di soli 160gb.
Quindi è come se avesse 1536 cuda/48rops e 192bit (una 970 desktop a 192 produrebbe una banda migliore di 8gb-168gb/s).

La 970 desktop ha 1664 cuda /56 rops (ma 52 accessibili) e 224bit di banda.

Come diceva VUL è il 33% più lenta di una 980 desktop per caratteristiche tecniche(ma come dicono i grafici sta ancora sotto per via dei clock più bassi). Chiaramente la 980 occata la umilia ed a buoni OC la doppia:)

Si sono perfettamente d'accordo e i risultati sono in linea con cio che dicevo, ovvero che con un po di OC la 980M recupera equiparando piu o meno una 970 a default/780ghz (a seconda dei titoli), ovviamente sia 970 e 980 occate a 1.5 e oltre sono nettamente superiori in tutto e non c'è il minimo paragone sopratutto per quanto riguarda la banda, ma dire che una 980m vada meno di una 770 e paragonadola alla 760 è assurdo...

mircocatta
27-04-2015, 12:08
Ciao,
scusami non è per darti contro o criticarti ma il tuo discorso cozza con portare a 1450 MHz due 970 in sli. Lo sai vero che la curva di efficienza in oc oltre certe soglie scende paurosamente perché i transistor sono progettati per rimanere entro un certo range di frequenze/tensioni rispetto al pp utilizzato? No perché vieni a dire che guardi l'efficienza e poi fai overclock? Non ti sembra un tantino incoerente?
E' come uno che si compra la prius perché guarda all'efficienza e poi modifichi il motore per avere 50 cv in più oppure ancora chi compra la porsche e gli mette il gpl.:D
Quello che uno dovrebbe tenere in mente per dare le giuste priorità nelle considerazioni da fare è il target di utilizzo, non l'efficienza fine a se stessa. Sei un videogiocatore incallito che cerchi le massime performance, beh dovresti proprio non guardarci ai consumi. Sei un utente che con il pc ci gioca sporadicamente e la maggior parte del tempo vede film o pagine web, beh lì oltre che essere sprecata una scheda video top è anche un spreco di energia e sì che bisognerebbe guardare l'efficienza di una scheda. Non si può avere tutto, sarebbe bello ma tutto è un compromesso. Prius vado a lavoro spendendo poco e andando piano, porsche vado forte, in pista e mi diverto spendendo quello che c'è da spendere. :sofico:
Non te la prendere ho preso il tuo post per un discorso generale;)
non hai capito il mio intervento :D
io guardo al CHIP più efficiente, compro quello, POI ci applico overclock (con annesso overvolt nel caso)
se dovevo scegliere tra kepler che va a 100 e maxwell che va a 100, scelgo maxwell perchè più efficiente, in versione 970 perchè la 980 costava troppo
POI ci applico overclock
e grazie all'efficenza migliore di maxwell mi son potuto permettere uno sli overcloccato anzichè acquistare uno SLI di kepler e tenerlo a default
stesso motivo per cui ho scarsato la r9 290, se volevo la potenza di un crossfire sarei dovuto rimanere a default
personalmente non mi sembra un ragionamento sbagliato (il mio)

discorso alimentatore che "se ti fai uno sli puoi anche prendere un alimentatore da 50€ in più"
vi rispondo che...beh, l'alimentatore non lo compro in base alle vga che acquisterò, l'alimentatore è dentro il mio pc da 3 anni e non ho intenzione di cambiarlo ad ogni cambio di vga (cioè, che sbattimento di caxxo sarebbe cambiarlo ogni volta? risistemare sempre il case!??! da pazzi), cerco di adattarmi a lui, è un 850 watt perchè 3 anni fa non mi sarei mai sognato di fare uno sli, volevo sempre e solo vga singola
ad ottobre 2014 vista l'efficenza di maxwell e il costo basso della 970 mi ci sono buttato comprandone 2

la "cazzata" l'avrei fatta acquistando l'ali sbagliato 3 anni fa, e ora che ho quello e funziona ancora bene, cerco di adattarmi acquistando vga che possano stare "dentro" a quel wattaggio spendendo poco (anche 2 980 occate le avrei rette ma avrei speso 1200€ di vga anzichè 580€ che ho speso delle 2 gtx970)

spero questa volta di essermi fatto capire!

mikael84
27-04-2015, 12:20
Si sono perfettamente d'accordo e i risultati sono in linea con cio che dicevo, ovvero che con un po di OC la 980M recupera equiparando piu o meno una 970 a default/780ghz (a seconda dei titoli), ovviamente sia 970 e 980 occate a 1.5 e oltre sono nettamente superiori in tutto e non c'è il minimo paragone sopratutto per quanto riguarda la banda, ma dire che una 980m vada meno di una 770 e paragonadola alla 760 è assurdo...

La Maxwell mobile vicina alla 760 è la nuova GTX 965M, che è una 960 desktop ma con clock molto più bassi. Questa scheda sta circa il 10% sotto una 760 ed è pensata per i portatili di fascia media, visto i consumi decisamente ridotti

Vul
27-04-2015, 12:21
non hai capito il mio intervento :D
io guardo al CHIP più efficiente, compro quello, POI ci applico overclock (con annesso overvolt nel caso)
se dovevo scegliere tra kepler che va a 100 e maxwell che va a 100, scelgo maxwell perchè più efficiente, in versione 970 perchè la 980 costava troppo
POI ci applico overclock
e grazie all'efficenza migliore di maxwell mi son potuto permettere uno sli overcloccato anzichè acquistare uno SLI di kepler e tenerlo a default
stesso motivo per cui ho scarsato la r9 290, se volevo la potenza di un crossfire sarei dovuto rimanere a default
personalmente non mi sembra un ragionamento sbagliato (il mio)

Una 290 a 95 gradi potrebbe resistere meglio di un maxwell a 75 gradi per quanto ne sappiamo, anche se dubito

mircocatta
27-04-2015, 12:24
Una 290 a 95 gradi potrebbe resistere meglio di un maxwell a 75 gradi per quanto ne sappiamo, anche se dubito

per le temp non avrei avuto problemi, le avrei liquidate come ho liquidato le 970
sono in consumi, l'i7 a 4800mhz più due r9 290 in pesante overclock avrebbe stressato un po troppo il mio buon ax850 :)

°Phenom°
27-04-2015, 13:02
Concordo con mircocatta riguardo la questione ali

Gundam1973
27-04-2015, 13:17
non hai capito il mio intervento :D
io guardo al CHIP più efficiente, compro quello, POI ci applico overclock (con annesso overvolt nel caso)
se dovevo scegliere tra kepler che va a 100 e maxwell che va a 100, scelgo maxwell perchè più efficiente, in versione 970 perchè la 980 costava troppo
POI ci applico overclock
e grazie all'efficenza migliore di maxwell mi son potuto permettere uno sli overcloccato anzichè acquistare uno SLI di kepler e tenerlo a default
stesso motivo per cui ho scarsato la r9 290, se volevo la potenza di un crossfire sarei dovuto rimanere a default
personalmente non mi sembra un ragionamento sbagliato (il mio)

discorso alimentatore che "se ti fai uno sli puoi anche prendere un alimentatore da 50€ in più"
vi rispondo che...beh, l'alimentatore non lo compro in base alle vga che acquisterò, l'alimentatore è dentro il mio pc da 3 anni e non ho intenzione di cambiarlo ad ogni cambio di vga (cioè, che sbattimento di caxxo sarebbe cambiarlo ogni volta? risistemare sempre il case!??! da pazzi), cerco di adattarmi a lui, è un 850 watt perchè 3 anni fa non mi sarei mai sognato di fare uno sli, volevo sempre e solo vga singola
ad ottobre 2014 vista l'efficenza di maxwell e il costo basso della 970 mi ci sono buttato comprandone 2

la "cazzata" l'avrei fatta acquistando l'ali sbagliato 3 anni fa, e ora che ho quello e funziona ancora bene, cerco di adattarmi acquistando vga che possano stare "dentro" a quel wattaggio e spendendo poco (anche 2 980 occate le avrei rette ma avrei speso 1200€ di vga anzichè 580€ che ho speso delle 2 gtx970)

spero questa volta di essermi fatto capire!


Ma anche sta corsa all'ali da 1000w mi sembra esagerata....secondo me un CF di 290, anche pesantemente OC, l'Ax850 te lo reggeva senza problemi.....
Con il Corsair link del mio ax1200i mi da un assorbimento totale di circa 650/680w e, oltre a cpu e le vga in OC (cpu 4800 vcore 1.260 e CF 1250 +200mv), ho anche un impiantino a liquido bello pieno di roba........quando dovevo comprare il mio, ero indeciso tra giust'appunto l'860, e il 1200 che alla fine ho preso piu che altro per mia tranquillita e perche sono megalomane! :D

Ale55andr0
27-04-2015, 13:18
cannato thread, credevo che qui si parlasse delle nuove vga amd :fagiano:

Gundam1973
27-04-2015, 13:22
cannato thread, credevo che qui si parlasse delle nuove vga amd :fagiano:

Beh.....effettivamente si è andati un ot da qualche post.... :D

Vul
27-04-2015, 17:15
in before la 390x altro non è che una 290x con gcn 1.3 e frequenze più elevate da 400 watt al nanosecondo e che è progettata per funzionare a 105 gradi :asd:

Penso manco a 200 euro me la prendo :asd:

°Phenom°
27-04-2015, 17:19
Chissà se sarà vero, non sarebbe affatto male ;)

http://www.ocaholic.ch/modules/news/article.php?storyid=12329
Old ;)

Catan
27-04-2015, 22:27
questo è un tuo calcolo.

io personalmente spendo 0,33 euro a kW/h

giocando due ore e mezza al giorno di media per 365 giorni l'anno, 75 watt di differenza, fanno quasi 23 euro di differenza all'anno.

In 3-4 anni la differenza la sento eccome.

E io, fino all'anno scorso, fra raidare a WoW tutte le sere per 4 ore e le domeniche pomeriggio dalle 2 alle 8 a fare ranked di WoW facevo facilmente molto più di due ore e mezza al giorno, ora fortunatamente nerdo di meno.

E tutto questo senza contare che maggior calore generato inciderà anche sul calore degli altri componenti, ventole che gireranno molto di più, incidendo sul rumore, ecc.

Sono stato il primo a dire pagine fa che il discorso consumi è stra enfatizzato dalla stampa e da molti utenti ma ha un suo punto, e tutti abbiamo esigenze differenti e abitudini differenti.

No scusate ma qui non scapisco, ora conti alla mano sono 0.33€ a kW/h, ergo 0,00033€ W/h il costo per una vga che ti fa consumare 75W in più di un'altra sono 0,025€ h, facciamo un conto medio, 4h ( quindi 0.1€ al giorno) di gioco ogni giorno in un'anno? escono fuori 36,5€...tu mi stai dicendo, o mi state dicendo, che non siete ingrado di ammortizzare 36€ in un'anno?
Cioè ragazzi 36€ annui , XD è un imprevisto minimo, è una cena fuori con un cinema, che so è un familiare che ti chiede se lo puoi portare a qualche aeroporto 2 volte l'anno o un amica/o che ti chiede una mano per un trasporto...

Questo sarebbe sensato in una casa a consumo 0 e massime efficienza energetica ( cioè dispositivi realmente spenti quando non si usano, luci sempre spente se uno non è in stanza)

Poi dipende, io sono disposto a giustificare questo esborso maggiore per maggiori prestazioni? Dipende, se so attento a sto discorso le vga top level non sono proprio le vga che fanno per me. Se sono invece disposto a tollerarlo per minori prestazioni so semplicemente stupido.
A parità di prestazioni è sensato prendere quella che consuma meno.

Sto discorso uno dovrebbe farlo anche per le cpu in genere o per gli ali, a sto punto a parità di consumo è sempre meglio prendere un gold rispetto ad un bronze....uno si fai due conti vedento il prezzo e la curva dei consumi e vede se nei 3-4 anni che uno terrà quell'ali, con il bronze avrà una "spesa" maggiore o minore della differenza di prezzo tra i due.

J9AnGe
28-04-2015, 07:07
No scusate ma qui non scapisco, ora conti alla mano sono 0.33€ a kW/h, ergo 0,00033€ W/h il costo per una vga che ti fa consumare 75W in più di un'altra sono 0,025€ h, facciamo un conto medio, 4h ( quindi 0.1€ al giorno) di gioco ogni giorno in un'anno? escono fuori 36,5€...tu mi stai dicendo, o mi state dicendo, che non siete ingrado di ammortizzare 36€ in un'anno?
Cioè ragazzi 36€ annui , XD è un imprevisto minimo, è una cena fuori con un cinema, che so è un familiare che ti chiede se lo puoi portare a qualche aeroporto 2 volte l'anno o un amica/o che ti chiede una mano per un trasporto...

Questo sarebbe sensato in una casa a consumo 0 e massime efficienza energetica ( cioè dispositivi realmente spenti quando non si usano, luci sempre spente se uno non è in stanza)

Poi dipende, io sono disposto a giustificare questo esborso maggiore per maggiori prestazioni? Dipende, se so attento a sto discorso le vga top level non sono proprio le vga che fanno per me. Se sono invece disposto a tollerarlo per minori prestazioni so semplicemente stupido.
A parità di prestazioni è sensato prendere quella che consuma meno.

Sto discorso uno dovrebbe farlo anche per le cpu in genere o per gli ali, a sto punto a parità di consumo è sempre meglio prendere un gold rispetto ad un bronze....uno si fai due conti vedento il prezzo e la curva dei consumi e vede se nei 3-4 anni che uno terrà quell'ali, con il bronze avrà una "spesa" maggiore o minore della differenza di prezzo tra i due.

Esatto , e tieni anche conto che la maggior parte non gioca 4h al giorno ed a giochi che mandano la gpu al 100% sempre , quindi ripeto per me la storia dei consumi e' relativa e cmq sia se una vga ti costa mettiamo 80 euro di piu' prima che ti rifai sui consumi ne deve passare di acqua sotto i ponti :)

enryco
28-04-2015, 08:59
0.33 €/kW ma dove abitate? :stordita:







Per calcolare il costo prendi una bolletta e fai il rapporto soldi spesi e costo totale, cosi sai quanto spendi realmente(in genere si va dai 30 ai 35 Massimo 40 cent per kw

Caterpillar_WRT
28-04-2015, 09:06
Per quanto mi riguarda, ritengo che il consumo elevato sommato alle conseguenti temperature porti ad una minore affidabilità nel tempo delle componenti elettroniche.
Uso AMD da quando ho cambiato la FX5800, ma ho sempre scelto modelli con consumi relativamente ridotti rispetto ai modelli di punta per il motivo di cui sopra e fin'ora, a parte una HD7870 VT3D inviatami al posto di una reference dalla famigerata BPM (difettosa d'origine), non ho avuto problemi.
Spero vivamente che AMD riesca a fare un gran lavoro di ottimizzazione sulle 290/290x che dovrebbero essere rebrandizzate in 380, ma ci credo poco con il pp a 28nm.

genio88
28-04-2015, 11:57
Io francamente aspetto che rilasciano le nuove 390 per un abbassamento di prezzo della GTX 980 cosi prendo quella, non che non mi piaccia AMD, ma ho sempre avuto schede loro e vorrei cambiare, a meno che la 390 non si riveli essere un mostro che allo stesso prezzo della GTX 980 la distrugge in prestazioni

Ubro92
28-04-2015, 13:15
Io francamente aspetto che rilasciano le nuove 390 per un abbassamento di prezzo della GTX 980 cosi prendo quella, non che non mi piaccia AMD, ma ho sempre avuto schede loro e vorrei cambiare, a meno che la 390 non si riveli essere un mostro che allo stesso prezzo della GTX 980 la distrugge in prestazioni

Arrivati a questo punto ti conviene aspettare infatti, anche perchè a breve verrà presentata anche la 980ti quindi il mercato potrebbe avere una scossa sul fattore prezzo.

Poi è sempre un bene in quanto in casi estremi in cui le proposte non convincono del tutto, il mercatino si riempie di tante cose belle a prezzi interessanti :sofico:

enryco
28-04-2015, 18:52
appena riesco ricontrollo meglio la bolletta anche se il mio allaccio è da 4.5 kW/h (ho dovuto perché ho le piastre ad induzione per cucinare ed il boiler e sono senza gas), ma pur essendo superiore al 3 kW/h non superava i 0.28 €/kW ricordo.

se non erro la media nazionale dei 3 kW/h era sui 0.19 o 0.22 €/kW







in effetti ho appena controllato e pago 23 cent a kw, ricordavo peggio

Catan
28-04-2015, 23:12
Secondo l'autorità dell'energia Italiana all'ultimo trimestre 2015 il costo "medio" dell'energia in Italia era di circa 0.165€ tasse escluse per tariffa monooraria per kW/h, che tassate diventano circa 0.23€.

Che è nella media europea di circa 0.20€ (per confronto, la germania la paga 0.26, la uk circa 0.18 e la francia 0.15, per ovvi motivi che non sto qui ad elencarvi) e considerate che so nazioni, sopratutto la Germania, che usano tanta energia elettrica (per cucinare non usano gas ma piano cottura a induzione).

Gli usa hanno una media di circa 0.12$ a kw/h, quindi diciamo che sta storia dei consumi è sicuramente importante a livello di discussione archidetturale.
A livello pratico...conta molto molto poco e sopratutto conta ancor meno in nazioni dove il costo dell'energia elettrica è basso.

The_SaN
28-04-2015, 23:30
Ragazzi, è il thread delle radeon o dell'enel?

Vul
28-04-2015, 23:52
No scusate ma qui non scapisco, ora conti alla mano sono 0.33€ a kW/h, ergo 0,00033€ W/h il costo per una vga che ti fa consumare 75W in più di un'altra sono 0,025€ h, facciamo un conto medio, 4h ( quindi 0.1€ al giorno) di gioco ogni giorno in un'anno? escono fuori 36,5€...tu mi stai dicendo, o mi state dicendo, che non siete ingrado di ammortizzare 36€ in un'anno?
Cioè ragazzi 36€ annui , XD è un imprevisto minimo, è una cena fuori con un cinema, che so è un familiare che ti chiede se lo puoi portare a qualche aeroporto 2 volte l'anno o un amica/o che ti chiede una mano per un trasporto...

Questo sarebbe sensato in una casa a consumo 0 e massime efficienza energetica ( cioè dispositivi realmente spenti quando non si usano, luci sempre spente se uno non è in stanza)

Poi dipende, io sono disposto a giustificare questo esborso maggiore per maggiori prestazioni? Dipende, se so attento a sto discorso le vga top level non sono proprio le vga che fanno per me. Se sono invece disposto a tollerarlo per minori prestazioni so semplicemente stupido.
A parità di prestazioni è sensato prendere quella che consuma meno.

Sto discorso uno dovrebbe farlo anche per le cpu in genere o per gli ali, a sto punto a parità di consumo è sempre meglio prendere un gold rispetto ad un bronze....uno si fai due conti vedento il prezzo e la curva dei consumi e vede se nei 3-4 anni che uno terrà quell'ali, con il bronze avrà una "spesa" maggiore o minore della differenza di prezzo tra i due.

Scusa ma mi fai i conti in tasca?

Che discorso è "non riesci ad ammortizzare 36 euro in un anno"? Non mi è mica chiaro perchè dovrei lavorare quasi 3/4 di giornata solo per pagare quei consumi in più.

Se scheda A e scheda B vanno su per giù uguale ma A costa 50 euro in più consumando molto meno io la trovo l'acquisto migliore.

Inoltre il discorso non è puramente economico. Se una scheda consuma di più genera più calore. Fine. Lo puoi dissipare come ti pare ma lo generi, va a riscaldare le altre componenti del sistema, le ventole girano di più, ecc, ecc. Senza contare gli ovvi differenti margini di overclock fra le due schede e i loro differenti impatti su consmi e calore generato.

Cioè onestamente fra 970 e 290 non ci sono prestazioni differenti, pure che fosse 10 % di differenza, quando una fa 40 l'altra fa 44? Capirai..Ma è l'efficienza della 970 che mi vende la scheda, non i 4 fps in più. Il minor rumore, la bolletta minore, il maggior margine di overclock (rimanendo sempre fresca e consumando molto meno).

Anzi, è proprio scegliendo una scheda nvidia che ammortizzo eventuali infinitesimali perdite di prestazioni laddove ce ne siano.

Capozz
29-04-2015, 00:04
Scusa ma mi fai i conti in tasca?

Che discorso è "non riesci ad ammortizzare 36 euro in un anno"?

Se scheda A e scheda B vanno su per giù uguale ma A costa 50 euro in più consumando molto meno io la trovo l'acquisto migliore.

Inoltre il discorso non è puramente economico. Se una scheda consuma di più genera più calore. Fine. Lo puoi dissipare come ti pare ma lo generi, va a riscaldare le altre componenti del sistema, le ventole girano di più, ecc, ecc. Senza contare gli ovvi differenti margini di overclock fra le due schede e i loro differenti impatti su consmi e calore generato.

Cioè onestamente fra 970 e 290 non ci sono prestazioni differenti, pure che fosse 10 % di differenza, quando una fa 40 l'altra fa 44? Capirai..Ma è l'efficienza della 970 che mi vende la scheda, non i 4 fps in più. Il minor rumore, la bolletta minore, il maggior margine di overclock (rimanendo sempre fresca e consumando molto meno).

Peccato che:

1) Gli euro di differenza non sono 50, ma 70-80 (ad ottobre la 290 tri-x l'ho pagata 260 sull'amazzone, una 970 non reference costava come minimo 330-340)

2) Una 290 custom tipo la Tri-X non fa rumore e non scalda così tanto, in full load sta a 70 gradi con 37db. E' chiaro che ha un dissipatore clamoroso e che, in termini assoluti, produce più calore di una 970, ma se il case è ventilato decentemente non c'è il minimo problema.

Free Gordon
29-04-2015, 00:18
In linea teorica ha ragione Vul, nella pratica le cose sono abbastanza diverse.. come fa notare Capozz :p

Credo che attualmente sia sensato comprare sia una che l'altra...a seconda di che cosa si privilegia personalmente. :)

Ale55andr0
29-04-2015, 00:56
Ragazzi, è il thread delle radeon o dell'enel?

è quel che mi chiedo :stordita:

egounix
29-04-2015, 01:17
è quel che mi chiedo :stordita:

Beh senza l'enel non potresti moddare skyrim e amd non produrrebbe, quindi pertiene. Ringrazia l'enel!!! :asd:

psychok9
29-04-2015, 04:37
Quando usciranno, secondo voi, le nuove AMD? Speriamo diano una botta ai prezzi :)

psychok9
29-04-2015, 04:38
Tutto tace per ora ci sono solo congetture ma nulla di ufficiale, però sembra che la data di uscita almeno dalle voci che circolano sia intorno gli inizi di giugno...

Umh... sperem

J9AnGe
29-04-2015, 07:49
Certo ma per avere i bassi consumi dichiarati la 970 la devi prendere reference
perche' gia se prendi una G1 Gaming il TDP e' ben diverso , la media e' 170w ma i picchi superano tranquillamente i 200w in quanto la scheda e' in overclock di fabbrica , sicuramente e' piu' efficente di una 290 ma il calore generato sulla g1 per dire in fc4 e sui 70° stessa cosa sulla mia r9 280x quindi come al solito siamo li' . va a preferenze cambia poco in termini finanziari tra una e l'altra , tanto di solito io la tengo un paio d'anni poi cambio ed il consumo lo ammortizzo all'aquisto :)

Catan
29-04-2015, 08:05
Scusa ma mi fai i conti in tasca?

Che discorso è "non riesci ad ammortizzare 36 euro in un anno"? Non mi è mica chiaro perchè dovrei lavorare quasi 3/4 di giornata solo per pagare quei consumi in più.

Se scheda A e scheda B vanno su per giù uguale ma A costa 50 euro in più consumando molto meno io la trovo l'acquisto migliore.

Inoltre il discorso non è puramente economico. Se una scheda consuma di più genera più calore. Fine. Lo puoi dissipare come ti pare ma lo generi, va a riscaldare le altre componenti del sistema, le ventole girano di più, ecc, ecc. Senza contare gli ovvi differenti margini di overclock fra le due schede e i loro differenti impatti su consmi e calore generato.

Cioè onestamente fra 970 e 290 non ci sono prestazioni differenti, pure che fosse 10 % di differenza, quando una fa 40 l'altra fa 44? Capirai..Ma è l'efficienza della 970 che mi vende la scheda, non i 4 fps in più. Il minor rumore, la bolletta minore, il maggior margine di overclock (rimanendo sempre fresca e consumando molto meno).

Anzi, è proprio scegliendo una scheda nvidia che ammortizzo eventuali infinitesimali perdite di prestazioni laddove ce ne siano.

Il primo che si è fatto i conti in tasca da solo sei stato tu, dicendo che in 3 o 4 anni al "differenza la senti", io ho solo posto il dubbio di come 36€ per una persona con uno stipendio anche minimo minimo sono un'inezia (per un povero cristo che guadagna 600€ al mese è lo 0,05% di quello che ha guadagnato in un'anno).

Purtroppo quello che non riesci a capire è che per qualcuno sono più importanti quei 4 fps in più, e quantifica quei 4 fps in più con una spesa in termini energetici di tot € l'anno in più.
C'è chi sceglie il "risparmio" ed è una scelta rispettabile e chi le prestazioni e pure questa è rispettabile, ogni uno con i soldi ci fa quello che vuole e ha la sua percezione.

Ti ho fatto solo notare, numeri alla mano e senza chiacchiere intorno, come la differenza è irrisoria (ancora di più in nazioni come gli USA o la Francia dove il costo per kW/h è metà di quello italiano o il 33% di meno) almeno questo passiamolo la differenza prestazionale è assoluta, il quantifica il quanto consuma di più in termini di soldi è soggettivo e dipende da dove si vive.

Se mi fai il discorso sul "consumo" dura fino ad un certo punto, perchè la cosa più ovvia che uno ti dice è di prendere una mid level, che sicuramente oltre a consumare id meno ha pure un rapporto prestazioni migliore.

Poi ogni uno si fa la sua scelta ma posso assicurarti che per 80% dell'utenza hi-level il 10% di prestazioni in più vale una bolleta il X% in più (anche qui conto da fare se il 36€ sono un'aumento del 1% in bolletta totale è praticamente ininfluente, nell'ambito delle normali fluttuazioni di questa particolare voce di spesa).

Non mi sembra ci voglia una laurea per capire pochi fondamentali punti

1)se hanno pari performances uno prende quella che consuma di meno o costa di meno (se è uno attento si fa anche i conti nel caso chi costa di meno, consuma di più e quindi vede che gli conviene fare facendosi il confronto tra risparmio immediato e spesa sul lungo periodo)

2) a parità di costo, a seconda dell'esigenza uno sceglie o chi consuma meno o chi va di più, quantificando soggettivamente il costo che da all'andare di più. Sempre se chi va di più sia quella che consuma di più, se per caso chi va di più consuma anche meno, la scelta logica è uno, tutto il resto è parlare di sesso degli angeli.

3) Se chi va di più consuma anche di più, ogni utente quantifica se il gioco vale la candela a seconda principalmente del suo portafoglio. La combo mortale è chi va di più, costa meno, ma consuma di più e allora ci stanno tre parametri da considerare.

Insomma il consumo non è un parametro principe, ce ne stanno almeno altri 2 che hanno maggiore priorità in un discorso sensato, o quanto meno ci sono altri discriminanti da tenere in considerazione.


Poi uno la pensa come vuole, ma se mi dici "voglio stare attento al consumo e voglio pure la prezzo prestazioni", posso solo consigliarti una mid level da 150€ e non di più...qualsiasi scelta, dalla 960 di nvidia alla 270x di amd so da cassare a priori...

MrBrillio
29-04-2015, 08:10
Quando usciranno, secondo voi, le nuove AMD? Speriamo diano una botta ai prezzi :)

Io do ancora un possibilità ad AMD visto che sono in procinto di passare al 3440x1440..qualora dovesse uscire la scheda in concomitanza con un bel freesync 21:9 potrei fare la pazzia :D
Ma a sto giro però si devono muovere e sfornare un prodotto con i fiocchi...

bronzodiriace
29-04-2015, 09:04
Ragazzi, è il thread delle radeon o dell'enel?

:rotfl:

MrBrillio
29-04-2015, 09:07
ma come avviene lo stretch nei giochi con quel formato? cioè è pienamente supportato?
ci avevo fatto un pensierino anch'io :cool:

Io qualche tempo fa mi ero buttato con il 29" di LG 21:9, e nei giochi in cui non era supportata quella risoluzione (2560x1080) o si giocava con le bande nere laterali, o l'immagine veniva allungata a schifo...però credo che attualmente la situazione sia migliorata e molti giochi (se non la maggioranza) supportano quella risoluzione, e giocare con quello spazio in "più" laterale è una gran figata...sia negli sparattutto che nei giochi di corse/simulatori..mettici che sono anche ricurvi e con freesync..insomma dei gran bei monitor.

FroZen
29-04-2015, 11:24
Mah..... Dovrei proprio provarli perchr non mi ispirano.... Tutto cio che epou vecchio di un anno andrebbe sempre gestito con workaround..... tra qualche mese decideró mel frattempo che si consolida il freesync e la vr.....

sgrinfia
29-04-2015, 11:34
Ciao a tutti, ragazzi ma poi le 285 vs 290, supporteranno le dx12?, se si ,e ufficiale ?. grazie:)

FroZen
29-04-2015, 11:37
Si.... Basta vedere i test preliminari su win 10 fi qualche settimaba fa nel nuovo 3d mark...

zerotre
29-04-2015, 11:53
altra fudzilata:

http://www.fudzilla.com/news/graphics/37645-fiji-xt-pcb-to-end-up-significantly-smaller-than-radeon-290x

schede piu' piccole e probabilmente presentazione all'E3....

Vul
29-04-2015, 12:00
Ciao a tutti, ragazzi ma poi le 285 vs 290, supporteranno le dx12?, se si ,e ufficiale ?. grazie:)

credo tutte le gcn e le nvidia dalla serie 500 in su supportino dx 12.

FroZen
29-04-2015, 12:24
Nein, solo le 11.1 e 11.2 per dire, le kepler prima serie sono dx 11 only avevo letto ma non ci metto la mano sul fuoco...

Snickers
29-04-2015, 12:27
credo tutte le gcn e le nvidia dalla serie 500 in su supportino dx 12.

No, sicuramente le nvidia serie 500 non sono full dx-12 compliant.

Per Certo ci sono GCN e Maxwell, Kepler è da verificare (dato che già non erano pienamente dx 11 compliant per alcune cose secondarie).

Vul
29-04-2015, 12:38
No, sicuramente le nvidia serie 500 non sono full dx-12 compliant.


Dalla serie 400 di nvidia alla 390x nessuna di queste schede sfrutta appieno dx 12 e tutte sono però compatibili con il nuovo standard.

according to a statement released by Microsoft today. "While we are not yet ready to detail everything related to DirectX12, we can share that we are working closely with all of our hardware partners to help ensure that most modern PC gaming hardware will work well with DirectX12, including; NVIDIA's Maxwell, Kepler and Fermi-based GPUs, Intel's 4th generation (and newer) Core processors and AMD's Graphics Core Next (GCN) based GPUs. We'll have more to share about DirectX12 at GDC in March

In dx12 ci saranno delle nuove rendering pipeline che per essere sfruttate appieno necessitano di schede più nuove tuttavia, ancora non rilasciate.

Il nabbo di turno
29-04-2015, 13:16
Il supporto al dx 12 c'è per tutte le amd radeon gcn, e le nvidia a partire dalla serie 5xx, mentre per intel si parte dalla hd 4000.
Cambia il supporto alle funzionalità quindi le tier, ma il supporto di base c'è.

Lanzus
29-04-2015, 13:20
anche sta cagata dei tier per le DX12 dovevano implementare ... :rolleyes:.

Il nabbo di turno
29-04-2015, 13:23
anche sta cagata dei tier per le DX12 dovevano implementare ... :rolleyes:.

Si perchè non tutte hanno lo stesso supporto, ed è anche giusto che il supporto che ha una determinata gpu sia specificato.

Catan
30-04-2015, 00:57
Cmq una presentazione all'E3 sarebbe un bel botto, anche se la fiera non è più quella di 6 o 7 anni fà.

floop
30-04-2015, 11:43
Ma quindi una 280x se le sogna le dx12?

hrossi
30-04-2015, 11:47
Ma quindi una 280x se le sogna le dx12?

A me sembra che le R9 siano tutte DX12. http://www.amd.com/it-it/products/graphics/desktop/r9#7 :D
Quanto sia importante questa cosa è poi relativa, se poi ci sarà la solita scarsità di giochi full dx12.

Hermes

traider
30-04-2015, 11:58
DX 12 per tutti :D .

Vul
30-04-2015, 12:01
Ma quindi una 280x se le sogna le dx12?

nvidia 400 in su, radeon gcn 1.0 in su supportano tutte dx 12 stando a microsoft.

Nessuna scheda in commercio ne sfrutta appieno però tutte le caratteristiche.

Insomma, se hai comprato una scheda video negli ultimi 4 anni potrai giocare a tutti i giochi dx 12, ma sfruttarne tutte le caratteristiche sembrerebbe di no perchè con dx12 si introduce un altra pipeline di rendering.

Questo è almeno ciò che ha detto microsoft.

Il nabbo di turno
30-04-2015, 12:13
Ma quindi una 280x se le sogna le dx12?

Certo che no!

floop
30-04-2015, 13:30
280x mica è gcn

°Phenom°
30-04-2015, 13:49
280x mica è gcn

Serio? :asd: Certo che è gcn, come anche le 7970 (stessa scheda) ecc.

mircocatta
30-04-2015, 14:19
http://videocardz.com/55425/amd-fiji-hot-chips-presentation-in-late-august

con queste specifiche imho si avrà un 40% in più della 290x, sia per gli stream, per la frequenza leggermente superiore e per gcn migliorato

un commento però mi ha fatto ridere:

CGN= Graphics Core Nextyear

:asd:

Il nabbo di turno
30-04-2015, 14:21
280x mica è gcn

Dai, datti al giardinaggio...

Scherzo ovviamente Ma anche no...

°Phenom°
30-04-2015, 14:23
http://videocardz.com/55425/amd-fiji-hot-chips-presentation-in-late-august

con queste specifiche imho si avrà un 40% in più della 290x, sia per gli stream, per la frequenza leggermente superiore e per gcn migliorato

Ormai ste slide girano da mesi, e direi che le spec dovrebbero essere più che confermate

mikael84
30-04-2015, 14:33
http://videocardz.com/55425/amd-fiji-hot-chips-presentation-in-late-august

con queste specifiche imho si avrà un 40% in più della 290x, sia per gli stream, per la frequenza leggermente superiore e per gcn migliorato

un commento però mi ha fatto ridere:

CGN= Graphics Core Nextyear

:asd:

GCN 1.2 porta la compressione delta stile Maxwell e Tonga, ciò significa che le rops(che lavorano in compressione) siano decisamente più efficienti e la banda sia sgravata.
Purtroppo ancora non si conosce la quantità effettiva delle rops ma già le 32 rops di tonga son più potenti ed efficienti delle 64 installate sulle 290x.

La GCN è basata sulla parallelizzazione del flusso dati tramite la cache l1 ed anche l2, migliorando questo fattore gli shader riescono ad essere più efficienti, se poi colleghi il lavoro degli shader, alle rops-banda-ramdac, avrai una visualizzazione a schermo degli FPS decisamente elevata e stabile:)

FroZen
30-04-2015, 14:34
La 390x ownerà in scioltezza la taitaaaaaaaan icssssss :O


Raven, arisegna con carpiato :read:

FroZen
30-04-2015, 14:35
Dai, datti al giardinaggio...

Scherzo ovviamente Ma anche no...

Intendeva la gfx 280

Il nabbo di turno
30-04-2015, 14:38
Intendeva la gfx 280

Ha detto 280x e siamo sul forum amd radeon.

FroZen
30-04-2015, 14:49
La mia voleva essere una battuta...

Il nabbo di turno
30-04-2015, 15:05
La mia voleva essere una battuta...

Anche la mia...

Raven
30-04-2015, 15:13
La mia voleva essere una battuta...

Anche la mia...

Quanta incomunicabilità, in questo mondo... :nono:

Raven
30-04-2015, 15:14
Raven, arisegna con carpiato :read:

http://www.vocinelweb.it/faccine/speciali/pag2/13.gif

FroZen
30-04-2015, 15:36
Quanta incomunicabilità, in questo mondo... :nono:

Gioco la carta della fiducia :eek:

Raven
30-04-2015, 16:04
Gioco la carta della fiducia :eek:

... :mbe:
Anche la mia era una battuta!... :doh:

Devourer88
30-04-2015, 17:44
Sto cercando in giro rumor ma non trovo un kaiser :asd:

Vul
30-04-2015, 17:57
Sto cercando in giro rumor ma non trovo un kaiser :asd:

dobbiamo aspettare un altra mesata e mezzo per la presentazione, poi manderanno le schede alle varie testate e aspetteremo che cada l'nda sulla scheda per vedere i benchmark.

Tutti ci aspetteremo prestazioni da titan x e io visto l'aria che corre mi aspetto questi risultati:

-a) 390x è più veloce di titan x ma costerà solo 500 euro in meno quindi fa schifo, è giù uscita 980 ti che costa 200 euro più della 390x ma viva nvidia

-b) 390x è più veloce di titan x ma consumerà troppa corrente (e titanx già di suo beve corrente come un idrovora). buu amd sai solo fare scalda pizze

-c) 390x è in linea con titan x, poco più lenta o praticamente pari, costa "solo" 500-600 euro, ma nvidia è sempre la meglio e comprero la 980ti a 900 che va uguale perchè viva nvidia


So di andare controcorrente su questo forum ma amd ha bisogno di dare una bella bastonata sui denti a nvidia nella fascia sotto i 350 euro dove già si comporta bene a prestazioni ma non a consumi. Una flagship lascia il tempo che trova.

MrBrillio
30-04-2015, 18:11
Io sono uno di quelli che spera di vedere le 390x volare e a prezzi adeguati, ma negli anni non mi pare di ricordare niente di simile...c'è sempre stato un certo dualismo nei 2 marchi, e prestazioni e prezzi pressoché allineati. Io spero di arrivare a giugno e fare io cambio vga e monitor per una amd, ma la vedo dura...e soprattutto ripensando alla mia esperienza con le 290x ho un po paura a fare una cosa del genere...poi felice di essere azzittito da una 390x con le aliiiiiii :asd:
Però sarebbe ora di vedere concorrenza a tempo debito

The_SaN
30-04-2015, 18:28
Io sono uno di quelli che spera di vedere le 390x volare e a prezzi adeguati, ma negli anni non mi pare di ricordare niente di simile...

4870?

MrBrillio
30-04-2015, 18:43
4870?


Si però non era la diretta concorrente della top nvidia (280 se non ricordo male), però costava tipo la metà. Quindi era il best buy, ma non era una scheda che si piazzava nella fascia più alta.

nessuno29
30-04-2015, 19:45
Si però non era la diretta concorrente della top nvidia (280 se non ricordo male), però costava tipo la metà. Quindi era il best buy, ma non era una scheda che si piazzava nella fascia più alta.

Costava poco meno della gtx 260 ed andava poco di più.Nvidia fece uscire poi la 260 216sp per colmare il gap.

ATI in quel periodo combatteva nella fascia alta con le dual gpu.Mitica la mia HD4870x2 sapphire rumorosa quanto un jet e calorosa quanto una pornostar,morta prematuramente come quasi tutte le hd4870x2

OEidolon
30-04-2015, 20:10
dobbiamo aspettare un altra mesata e mezzo per la presentazione, poi manderanno le schede alle varie testate e aspetteremo che cada l'nda sulla scheda per vedere i benchmark.

Tutti ci aspetteremo prestazioni da titan x e io visto l'aria che corre mi aspetto questi risultati:

-a) 390x è più veloce di titan x ma costerà solo 500 euro in meno quindi fa schifo, è giù uscita 980 ti che costa 200 euro più della 390x ma viva nvidia

-b) 390x è più veloce di titan x ma consumerà troppa corrente (e titanx già di suo beve corrente come un idrovora). buu amd sai solo fare scalda pizze

-c) 390x è in linea con titan x, poco più lenta o praticamente pari, costa "solo" 500-600 euro, ma nvidia è sempre la meglio e comprero la 980ti a 900 che va uguale perchè viva nvidia


So di andare controcorrente su questo forum ma amd ha bisogno di dare una bella bastonata sui denti a nvidia nella fascia sotto i 350 euro dove già si comporta bene a prestazioni ma non a consumi. Una flagship lascia il tempo che trova.

https://www.youtube.com/watch?v=u2B1IrYxjfA

:asd:

la butto in ridere per non piangere, ma non penso che la realtà sarà molto diversa :muro:

°Phenom°
30-04-2015, 20:17
dobbiamo aspettare un altra mesata e mezzo per la presentazione, poi manderanno le schede alle varie testate e aspetteremo che cada l'nda sulla scheda per vedere i benchmark.

Tutti ci aspetteremo prestazioni da titan x e io visto l'aria che corre mi aspetto questi risultati:

-a) 390x è più veloce di titan x ma costerà solo 500 euro in meno quindi fa schifo, è giù uscita 980 ti che costa 200 euro più della 390x ma viva nvidia

-b) 390x è più veloce di titan x ma consumerà troppa corrente (e titanx già di suo beve corrente come un idrovora). buu amd sai solo fare scalda pizze

-c) 390x è in linea con titan x, poco più lenta o praticamente pari, costa "solo" 500-600 euro, ma nvidia è sempre la meglio e comprero la 980ti a 900 che va uguale perchè viva nvidia


So di andare controcorrente su questo forum ma amd ha bisogno di dare una bella bastonata sui denti a nvidia nella fascia sotto i 350 euro dove già si comporta bene a prestazioni ma non a consumi. Una flagship lascia il tempo che trova.

Date un premio a ques't uomo :D :D :asd:

Vul
30-04-2015, 21:15
Wow, queste 390x sembrano veramente interessanti.

Speriamo che siano una bomba!!

Così compro la 980ti a buon prezzo.

cit. metà di hwupgrade

Raven
30-04-2015, 21:25
Wow, queste 390x sembrano veramente interessanti.

Speriamo che siano una bomba!!

Così compro la 980ti a buon prezzo.

cit. metà di hwupgrade


:asd: :sofico:

Oirasor_84
30-04-2015, 21:50
Wow, queste 390x sembrano veramente interessanti.

Speriamo che siano una bomba!!

Così compro la 980ti a buon prezzo.

cit. metà di hwupgrade

Scherzi vuoi paragonare i driver ed il servizio clienti Nvidia con quello Ati :D

SwatMaster
30-04-2015, 23:48
Conferenza dedicata al gaming su PC (perché, esiste altro gaming?!?) all'E3 2015 sponsorizzata da AMD e PC Gamer!

http://multiplayer.it/notizie/149145-una-conferenza-dedicata-esclusivamente-al-gaming-su-pc-alle3-2015.html


Che sia l'occasione giusta per rivelare la serie 300? :D

Il nabbo di turno
01-05-2015, 11:48
http://www.techpowerup.com/212206/amd-cuts-prices-of-radeon-r9-285.html

Scelta saggia, a questo punto ce la vedo come nuova 370!

genio88
01-05-2015, 14:23
Ma secondo voi sono realistici questi rumors che danno la 390X come piu potente della Titan X e di conseguenza anche della GTX 980TI? il tutto mantendendo gli stessi consumi della 290x e un prezzo sotto i 600 euro? A me sembre difficile

floop
01-05-2015, 16:10
E quindi la 390 liscia a 400€?

FroZen
01-05-2015, 16:56
Ho la sensazione che le 390x costeranno piu di quanto normalmente siamo abituati.... Ma essendo il tetto a 1000$ sembrerà quasi economica:asd:

Il nabbo di turno
01-05-2015, 17:37
700 dollari/euro, la cifra giusta, poco sopra la 980 come prezzo, che verrà abbassata, e sotto alla titan x di un bel po'.

pierluigip
01-05-2015, 17:38
Ho la sensazione che le 390x costeranno piu di quanto normalmente siamo abituati.... Ma essendo il tetto a 1000$ sembrerà quasi economica:asd:

ho la sensazione che all'e3 , hl3 sara' presentato con la 390x ....

29Leonardo
01-05-2015, 17:51
ho la sensazione che all'e3 , hl3 sara' presentato con la 390x ....

a 3000$ :sofico:

FroZen
01-05-2015, 18:35
700 dollari/euro, la cifra giusta, poco sopra la 980 come prezzo, che verrà abbassata, e sotto alla titan x di un bel po'.

Io ipotizzo veri i rumors da 699$ msrp .... Fate il cambio e metteteci l iva :stordita: :stordita:

nessuno29
01-05-2015, 18:52
Per me si piazzerà tra la 980 e la Titan X sia nel prezzo che nelle prestazioni.

Il nabbo di turno
01-05-2015, 20:00
Per me si piazzerà tra la 980 e la Titan X sia nel prezzo che nelle prestazioni.

Non credo, con quelle specifiche e con le hbm, ha tutto il potenziale per stare leggermente davanti alla titan x.

°Phenom°
01-05-2015, 20:32
Fossero confermate le specifiche, per forza di cose (matematicamente) starebbe minimo al pari con titan x

nessuno29
01-05-2015, 20:36
Non credo, con quelle specifiche e con le hbm, ha tutto il potenziale per stare leggermente davanti alla titan x.

Le hbm non sono miracolose comunque,inoltre non penso che i giochi al momento richiedano così tanta bandwidth.Specialmente con la compressione di Maxwell ed anche tonga le Gddr5 fanno un lavoro egregio.

Chiaramente una simile innovazione è assolutamente la benvenuta non la vedrei come un miracolo tutto qua.

Il nabbo di turno
01-05-2015, 20:40
Le hbm non sono miracolose comunque,inoltre non penso che i giochi al momento richiedano così tanta bandwidth.Specialmente con la compressione di Maxwell ed anche tonga le Gddr5 fanno un lavoro egregio.

Chiaramente una simile innovazione è assolutamente la benvenuta non la vedrei come un miracolo tutto qua.

Non sono miracolose?Mmmm vedremo con i bench in 4k...
Non dico siano un miracolo, ma il salto si vedrà eccome, poi vabbe' l'ottima gestione di maxwell livellerà il gap, però la differenza si dovrebbe sentire in 4k o oltre.

siluro85
01-05-2015, 21:33
Con Tonga anche amd ha fatto vedere un ottimo lavoro sulla compressione.. le hbm sono il futuro. Chip piccoli, poco assetati che permettono di semplificare l'mc della gpu e al contempo con una banda impensabile per le odierne ddr5. Non saranno miracolose ma sono il futuro.

Catan
01-05-2015, 21:38
4870?

direi 5850, quella si che ha spaccato il mercato costando un niente^^

The_SaN
01-05-2015, 21:44
direi 5850, quella si che ha spaccato il mercato costando un niente^^

Ne ho ancora una...dopo la 9500@9700pro direi che è la scheda che mi ha dato più soddifazioni.

appleroof
01-05-2015, 21:44
Wow, queste 390x sembrano veramente interessanti.

Speriamo che siano una bomba!!

Così compro la 980ti a buon prezzo.

cit. metà di hwupgrade

E come dargli torto :asd::sofico:

Teox82
02-05-2015, 17:39
Rumors dicono che annunceranno le 390/X il 25 agosto 2015. :muro:

Teox82
02-05-2015, 18:03
Fonte?

Se fosse vero, sarebbero disponibili a fine anno, così vicini a Pascal?

Non ha molto senso secondo me, dovrebbero renderle disponibili almeno da Luglio ;)

http://www.tmag.it/2015/04/30/le-nuove-amd-radeon-r9-390390x-saranno-svelate-ad-agosto/

Il nabbo di turno
02-05-2015, 18:15
http://www.tmag.it/2015/04/30/le-nuove-amd-radeon-r9-390390x-saranno-svelate-ad-agosto/

Falsissima...

The_SaN
02-05-2015, 19:01
Secondo me la più credibile rimane quella della presentazione all' E3...

zerotre
02-05-2015, 19:27
quello e' solamente uno degli appuntamenti successivi, non dice che non possa essere presentata prima della conferenza

°Phenom°
02-05-2015, 19:29
Ma ad agosto mica é la presentazione, quello é un evento che amd fa ogni anno per parlare dei prodotti usciti nel corso dell anno, quindi per forza di cose, prima di agosto sarannó giá uscite sennó appunto non potrebbero fare l'evento in cui si parla di fiji

PaoloRobba
02-05-2015, 21:44
Io ormai per sicurezza mi sono rassegnato ed attenderò direttamente la serie successiva :(

traider
03-05-2015, 07:25
Ne ho ancora una...dopo la 9500@9700pro direi che è la scheda che mi ha dato più soddifazioni.

Anche io avevo la 9500 flashata con il bios della 9700pro era fantastica :D .

J9AnGe
03-05-2015, 07:29
La piu' riuscita delle amd e' la 5870 ancora oggi fa girare i giochi a bun dettaglio :)

mircocatta
03-05-2015, 08:20
Non concordo, credo che le migliori siano state le 7950 per il prezzo , ocerclock e prestazioni... La 5870 purtroppo ha solo 1gb ed era già stretto allora , oggi proprio è improponibile

MaBru
03-05-2015, 08:25
Lo ha detto anche il ceo che verranno presentate entro il Q2 che finisce il 30 giugno.

Poi il 6 maggio c'è il financial day, così si saprà qualcosa di più preciso

sgrinfia
03-05-2015, 09:55
No, la migliore era la 6950 2gb , che poteva diventare una 6970 con un click:) .

Il nabbo di turno
03-05-2015, 12:35
La migliore era la 7870, 3 anni fa faceva girare tutti i giochi in full hd ultra, e ancora oggi rulla.

hrossi
03-05-2015, 13:04
Però così gli ultimi commenti sanno un po' di discorso funebre. Era un gran bel marchio, ricordiamo diverse sue schede.... :tie: :D

Hermes

floop
03-05-2015, 13:14
E la 4850 col suo prezzo? Andava una bomba a 1680*1050

Obrigado
03-05-2015, 13:15
Però così gli ultimi commenti sanno un po' di discorso funebre. Era un gran bel marchio, ricordiamo diverse sue schede.... :tie: :D

Hermes

ahahahahahahh

mitico

PaoloRobba
03-05-2015, 14:58
Però così gli ultimi commenti sanno un po' di discorso funebre. Era un gran bel marchio, ricordiamo diverse sue schede.... :tie: :D

Hermes

Già :angel:

J9AnGe
03-05-2015, 15:08
Non concordo, credo che le migliori siano state le 7950 per il prezzo , ocerclock e prestazioni... La 5870 purtroppo ha solo 1gb ed era già stretto allora , oggi proprio è improponibile

Guarda che la 5870 è una scheda del "2009" su cui gira seppur a dettagli bassi far cry 4 , per me una cosa formidabile! Ripeto x me la più riuscita di sempre insieme a radeon 8500 . 😊

kunardin
03-05-2015, 19:35
In futuro vorrei passare dalla 970 che ho adesso per passare alla 390x, secondo vuoi posso mantenere la mia scheda madre: ASRock Z97 Extreme6
e processore Intel Core i7-4790K CPU @ 4.00GHz.
O per avere il meglio dalla 390x è meglio cambiare anche quelli?

Grazie Andrea

Trokji
03-05-2015, 19:38
il 4790K è un processore estremamente potente oggi.. non scherziamo..con la 390x andrà alla grande :O

Teox82
03-05-2015, 19:41
Ho anch'io il dubbio sul mio 2600K. Non so se sarò al limite del cpu-limit con queste in uscita o ci starò dentro con quelle a 16/20nm :(

hrossi
03-05-2015, 20:22
Secondo me è meglio se aspettate di vedere le 390x dal vero tra bench e test vari. Se dobbiamo rispondervi in base all'aria fritta che aleggia sul web da tempo potremmo convenire il tutto ed il contrario di esso. :D
Decidere se cambiare o non cambiare macchina in base a dei rumors, dei presunti leaks e di benchmark ad cazzum sarebbe la peggior cosa che potreste fare, secondo me. ;)

Hermes

sgrinfia
03-05-2015, 20:43
Ho anch'io il dubbio sul mio 2600K. Non so se sarò al limite del cpu-limit con queste in uscita o ci starò dentro con quelle a 16/20nm :(

Ma il 2600k e una bomba in game:read:

MrBrillio
03-05-2015, 21:47
Ma anche perché processore di ultima generazione o no in game cambia ben poco. Tanto non sembra che skylake sia sto salto in avanti...
Inizia a farti la 390x quando uscirà e goditi la macchina così come è ;)

NODREAMS
03-05-2015, 22:15
In futuro vorrei passare dalla 970 che ho adesso per passare alla 390x, secondo vuoi posso mantenere la mia scheda madre: ASRock Z97 Extreme6
e processore Intel Core i7-4790K CPU @ 4.00GHz.
O per avere il meglio dalla 390x è meglio cambiare anche quelli?

Grazie Andrea
Ma stai scherzando???
Hai comprato i componenti 6 mesi fa,come possono da un giorno all'altro non essere adeguati???
Credo che forse,e non è nemmeno sicuro,il 2600k potrebbe diventare un limite,per il PC-Express 2.0...ma bisognerà testare.

egounix
03-05-2015, 22:34
il 4790K è un processore estremamente potente oggi.. non scherziamo..con la 390x andrà alla grande :O

ora un'n'esagerà!

Ubro92
04-05-2015, 04:11
In futuro vorrei passare dalla 970 che ho adesso per passare alla 390x, secondo vuoi posso mantenere la mia scheda madre: ASRock Z97 Extreme6
e processore Intel Core i7-4790K CPU @ 4.00GHz.
O per avere il meglio dalla 390x è meglio cambiare anche quelli?

Grazie Andrea

Bisogna sopratutto considerare i prezzi... Io onestamente lascerei perdere, la 970 me la tengo stretta e valuto il cambio solo con le nuove generazioni e solo se ci sono titoli che la mettono alle strette...

Per la cpu direi che non hai il minimo problema, il cambio c'è da considerare solo ed esclusivamente nel caso di sli con schede con una potenza come titan x o superiore...

Ma stai scherzando???
Hai comprato i componenti 6 mesi fa,come possono da un giorno all'altro non essere adeguati???
Credo che forse,e non è nemmeno sicuro,il 2600k potrebbe diventare un limite,per il PC-Express 2.0...ma bisognerà testare.

Io in passato vidi vari test e a singola gpu il PCI 2.0 x16 non da nessun collo anche con le top attuali, ma nel caso di sli con le top gamma attuali il PCI 2.0 x8 è un bel freno, fortuna pero che con maxwell grazie alla compressione la cosa è meno visibile ma con kepler si notava decisamente di piu... Infatti stavo pensando di prendere un 3770k nell'usato a poco, nel caso di upgrade futuro, ma attualmente sto cosi bene che non mi sono neanche creato il problema, poi in futuro sembra ci saranno parecchie novità a riguardo tra DX12, pascal (che non necessita di connettore sli) e altro, se il tuo attuale sistema è equilibrato meglio restare a guardare e vedere le novità...

boboviz
04-05-2015, 08:15
E alla fine mi sono rotto e ho cambiato la mia hd6850 con una 260x con 2 gb a poco più di 100 euro. Nel gpgpu (che era la cosa che mi interessava maggiormente) va circa 6 volte più veloce, consuma 20W in meno ed è molto più silenziosa.
Per ora va bene così

DakmorNoland
04-05-2015, 08:29
Guarda che la 5870 è una scheda del "2009" su cui gira seppur a dettagli bassi far cry 4 , per me una cosa formidabile! Ripeto x me la più riuscita di sempre insieme a radeon 8500 . 😊

Sì appunto, io avevo la 5850 1GB e mi girava Far Cry 3 con tutto al massimo, poi sono passato a Natale alla 970 che va 3 volte la 5850, spero mi duri altrettanto, però dubito che si possa ripetere quello che AMD ha fatto con la seria 5850/70...

Pur essendo passato alla 970, poco da dire le Nvidia sono inferiori, soprattutto come qualità video (colori, visione di film/video, ecc.)

mircocatta
04-05-2015, 08:32
Sì appunto, io avevo la 5850 1GB e mi girava Far Cry 3 con tutto al massimo, poi sono passato a Natale alla 970 che va 3 volte la 5850, spero mi duri altrettanto, però dubito che si possa ripetere quello che AMD ha fatto con la seria 5850/70...

Pur essendo passato alla 970, poco da dire le Nvidia sono inferiori, soprattutto come qualità video (colori, visione di film/video, ecc.)

la prima di ogni processo produttivo nuovo è sempre tra le vga più longeve, come le 5870 e le 7970, sarà così anche il prossimo giro con le 20/16nm che credo dureranno ben più di quelle a 28nm

comunque ripeto: dite quello che vi pare ma la 7970 mi pare molto migliore della 5870 come successo, ha quasi 4 anni e ancora in full hd permette di giocare a settaggi alti (alcuni anche maxxati) sull' 80% dei titoli (escludendo i mattoni che neanche le enthusiast riescono a reggere)

figarotheall
04-05-2015, 08:36
No, la migliore era la 6950 2gb , che poteva diventare una 6970 con un click:) .

Io ce l'ho ancora la HD 6950 2gb e va benino ancora a 1080p(GTA V dettagli alti 35-50fps), però sto pensando a sostituirla..meglio prendere una tra R9 280/285/280X oppure aspettare quelle nuove? non volevo aspettare troppo...poi spero che il mio buon i7 920@3.8Ghz non faccia da collo di bottiglia :cry:

hrossi
04-05-2015, 09:02
Io intanto che escono le nuove schede invece di ascoltare la scimmia continuerei a giocare. Vedrai che il tempo passa prima di quanto immagini. :D

Hermes

DakmorNoland
04-05-2015, 09:14
Io ce l'ho ancora la HD 6950 2gb e va benino ancora a 1080p(GTA V dettagli alti 35-50fps), però sto pensando a sostituirla..meglio prendere una tra R9 280/285/280X oppure aspettare quelle nuove? non volevo aspettare troppo...poi spero che il mio buon i7 920@3.8Ghz non faccia da collo di bottiglia :cry:

Se ti gira GTA V a 35-50fps con dettagli alti non cambiare nulla!!! Io aspetterei ancora un pezzo, almeno il nuovo processo produttivo, lascia perdere anche queste nuove serie...

Però mi sembra strano che ti giri così bene, non mi sembra ci fosse tanta differenza tra la 6950 e la 5850 che avevo io.... Ho proprio buttato soldi a prendere la 970 allora :doh: :cry:

figarotheall
04-05-2015, 11:17
Se ti gira GTA V a 35-50fps con dettagli alti non cambiare nulla!!! Io aspetterei ancora un pezzo, almeno il nuovo processo produttivo, lascia perdere anche queste nuove serie...

Però mi sembra strano che ti giri così bene, non mi sembra ci fosse tanta differenza tra la 6950 e la 5850 che avevo io.... Ho proprio buttato soldi a prendere la 970 allora :doh: :cry:

io sono parecchio esigente purtroppo..comunque si probabilmente aspetto..l'ho da 4 anni questa magnifica scheda e raramente sono sceso a compromessi, ora devo purtroppo :(
Riguardo a GTA V, mi gira sempre sopra i 30fps a 1080p(in media va a 40 fps via) con solo FXAA attivo ovviamente...però GTA V è parecchio ottimizzato a differenza dell'ingiocabile AC Unity per esempio...

DakmorNoland
04-05-2015, 11:21
io sono parecchio esigente purtroppo..comunque si probabilmente aspetto
Riguardo a GTA V, mi gira sempre sopra i 30fps a 1080p(in media va a 40 fps via) con solo FXAA attivo ovviamente...però GTA V è parecchio ottimizzato a differenza dell'ingiocabile AC Unity per esempio...

Io non vedo proprio la differenza tra 40 e 60 tipo....cioè se gli FPS sono sopra i 30, per me va tutto bene! Chiaro che se vedo un gioco a 80 e poi subito dopo a 30-40 la differenza la noto, ma dopo pochi minuti il mio cervello si abitua e me ne dimentico completamente! :sofico:

Infatti sta 970 per me è sprecatissima... Anche tutte quelle cose tipo Gsync per me sono inutili, io tutti sti drammi con il Vsync normale non li noto proprio...come dici te è molto soggettivo. Ci tengo a precisare che la mia vista è perfetta, ma credo sia più una cosa "mentale", c'è a chi da più fastidio e a chi meno.