PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 [38] 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346

capitan_crasy
29-11-2014, 14:00
Buh io sapevo che 250w sono 250w, non credevo ci fossero varie tipologie di watt, di qualità diversa :p

:

I watt sono watt e siamo d'accordo, ma sono a tensioni diverse!!!
Un conto sono i watt a 220volt un altro conto sono i watt con una tensione da poco piu di un volt...:read:

The_SaN
29-11-2014, 14:13
I watt sono watt e siamo d'accordo, ma sono a tensioni diverse!!!
Un conto sono i watt a 220volt un altro conto sono i watt con una tensione da poco piu di un volt...:read:E quale sarebbe la differenza di consumo tra 200W a 220V e 200W a 1V?

capitan_crasy
29-11-2014, 14:18
E quale sarebbe la differenza di consumo tra 200W a 220V e 200W a 1V?

A lato pratico nessuna...
Ma bastava rileggere i miei post che tutto il discorso riguardava il costo della bolletta di un utenza elettrica tradizionale e che consumare 200W a 1V non ha lo stesso costo di consumare 200W in 220V...

Trokji
29-11-2014, 14:29
casomai puoi dire che 40 amperes a 12 Volts sono diversi da 40 amperes a 220 Volts (V), ma per quanto riguarda i Watt sono Watt e basta.
Senza considerare che l'alimentatore non ha mai un'efficienza del 100%, quindi nei vari passaggi si perde energia, vale a dire una scheda video che in full nominalmente assorbirebbe mettiamo 180W alla fine consuma di più in base all'efficienza dell'alimentatore.
Il rapporto performance/watt è fondamentale (tantopiù lo è oggi, dove i temi di energia, che sono strettamente legati all'econimia e l'innovazione, sono diventati così importanti), lo è sempre stato ma sicuramente lo era meno negli anni 90'.
La scheda video o pc perfetto dovrebbe consumare 0 energia ed avere un prezzo abbordabile, questa sarebbe l'evoluzione tecnologica e sono convinto che prima o poi ci arriveremo, certo anche i consumatori hanno la loro responsabilità nello spingere il mercato in una direzione o nell'altra.
Mai avuto uno SLI di Nvidia quando consumavano come forni, sono passato a Nvidia adesso (l'ultima Nvidia avuta era proprio la 5900xt, quindi 15 anni fa, poi sempre AMD) perché a questo giro la differenza performance/watt era troppo a favore di nvidia ed è giusto premiare che sviluppa prodotti migliori.
performance/watt è fondamentale, perché poi un chip può essere dimensionato come il produttore vuole più o meno, compatibilmente coi costi e le possibilità di dissipare il calore prodotto.
Poi c'è semrpe una maggiore spinta al mondo mobile e questo non può che richiedere prodotti dall'efficienza ancora maggiore.
Certo il prezzo del petrolio sta calando..ma questo non fermerà lo sviluppo tecnologico e comunque non durerà per molto :D
Spero nella prossima gen AMD che con la stacked ram ed altre features dovrebbe migliorare questo rapporto performance/watt poco buono adesso (certo il gap con Maxwell c'è da questo punto di vista ma possono farcela)

The_SaN
29-11-2014, 14:30
A lato pratico nessuna...
Ma bastava rileggere i miei post che tutto il discorso riguardava il costo della bolletta di un utenza elettrica tradizionale e che consumare 200W a 1V non ha lo stesso costo di consumare 200W in 220V...Il costo è lo stesso, anzi...i 200W a 1V sono in realtà 220W a 220V perchè devono essere convertiti dall'alimentatore, e poi ridotti di tensione dalla scheda madre.
Al massimo possiamo discutere sul fattore di carico, visto che una persona normale tiene le lampadine accese per più tempo rispetto a quanto tiene una scheda video in full.
Il costo finale secondo me è talmente basso da non risultare importante ai fini pratici. La cosa che dovrebbe preoccupare di più è come dissipare il calore prodotto da questa potenza.
Ma questo sia a 1V, a 220V o a 11kV, non cambia nulla...corrente a parte

Trokji
29-11-2014, 14:34
il costo non è indifferente, come sempre dipende da quanti soldi si hanno e da quanto si tiene a lavorare la vga, ma c'erano spiegazioni abbastanza dettagliate che mostravano come una spesa annuale tra una vga high end ed una di fascia media fosse rilevante (certo se poi uno fa una partita una volta all'anno non ha nessuna rilevanza, al contrario pochi watt di differenza possono essere rilevanti se uno usa le vga per il calcolo distribuito)

francisco9751
29-11-2014, 14:35
son d accordo sul calore,ma credimi ho letto più gente che scriveva "la vga consuma 50W in meno della concorrrnza,con i soldi risparmiati in bolletta mi pago metà della nuova vga l anno prossimo"..cioè, parliamone

tapatalked with LG G2

The_SaN
29-11-2014, 14:41
il costo non è indifferente, come sempre dipende da quanti soldi si hanno e da quanto si tiene a lavorare la vga, ma c'erano spiegazioni abbastanza dettagliate che mostravano come una spesa annuale tra una vga high end ed una di fascia media fosse rilevante (certo se poi uno fa una partita una volta all'anno non ha nessuna rilevanza, al contrario pochi watt di differenza possono essere rilevanti se uno usa le vga per il calcolo distribuito)Vabbé, il calcolo distribuito è LAVORO, quindi ci sono altri tipi di ritorno.
Mettiamo che:
- la differenza di consumo tra una vga di fascia alta e una di media sia 100W.
- L'utente medio giocherà, se va bene, 3 ore al giorno.
- Costo al kWh di euro 0,17

Sono meno di 19 euro all'anno...

Capozz
29-11-2014, 14:58
poi da un punto di vista soggettivo le cose cambiano, per esempio non critico chi compra oggi una 290x a meno di una 980 (attualmente custom vs. custom ho visto addirittura 290x costare meno di 970 custom) fregandosene dei consumi perchè dal punto di vista secco del performance/prezzo dopo il taglio dei prezzi Amd è più conveniente delle verdi e se questo aspetto è l'unico aspetto determinante nella scelta a scapito di altri allora è ovvio scegliere quella vga piuttosto che la verde.



Esattamente.
Nei giorni scorsi avevo deciso di cambiare vga ed avevo preso in considerazione la 290 e la 970. Dopo aver spulciato per bene recensioni, thead ufficiali e prezzi online ho visto che:

- 290 e 970 hanno più o meno le stesse prestazioni (pochi punti percentuali a favore della Nvidia, ma niente di praticamente tangibile)
- Le 290 e le 970 reference sono da scartare a priori perchè scaldano come forni e fanno un casino della madonna
- La 290 Tri-X costa 260-270 euro, è praticamente inaudibile ed arriva a 70° in full load
- La 970 Gainward Phantom costa 30-40 euro in più rispetto alla 290 ma ha solo una porta dvi ed è triple slot ma, nonostante ciò, scalda molto.
- La 970 Zotac "base" costa 60 euro in più rispetto alla 290 ed anche quella è un altro fornetto e va in throttling
- Le 970 di buona fattura (Asus Strix, Gigabyte, MSI gaming ecc) costano 100 euro in più rispetto alla 290 e consumano circa 70W in meno in full load ma per rientrare della spesa, ipotizzando 2 ore di gioco effettivo al giorno, ci vorrebbero almeno 6 anni

Chiaramente alla fine ho preso la 290

Ovviamente, se ci limitiamo a considerazioni tecniche, è chiaro che gm204 sia un chip migliore di Hawaii perché ha un rapporto performance/watt migliore, ma a me consumatore cosa importa se non ne derivano vantaggi "pratici" ? :)

Ale55andr0
29-11-2014, 16:45
Il costo è lo stesso, anzi...i 200W a 1V sono in realtà 220W a 220V perchè devono essere convertiti dall'alimentatore, e poi ridotti di tensione dalla scheda madre.



è l'alimentatore a ridurre la tensione in ingresso dai 220v della rete a 12v-5v-3.3v, non la scheda madre :)


comunque siamo tutti andati leggermente ot :asd:

Trokji
29-11-2014, 17:54
Vabbé, il calcolo distribuito è LAVORO, quindi ci sono altri tipi di ritorno.
Mettiamo che:
- la differenza di consumo tra una vga di fascia alta e una di media sia 100W.
- L'utente medio giocherà, se va bene, 3 ore al giorno.
- Costo al kWh di euro 0,17

Sono meno di 19 euro all'anno...

Beh "lavoro".. diciamo un hobby generalmente (ok non per tutti, ma la maggior parte). Semplicemente una volta preso il pc tanto vale usarlo il più possibile, un'"ottimizzazione delle risorse", perché no per una buona causa, che poi è quella di tutti (se domani si riusciranno a curare malattie oggi incurabili o si faranno avanzamenti tecnologici decisivi per lo sviluppo tecnologico o economico probabilmente ne beneficerà anche chi ha "prestato" il suo computer al calcolo distributo). Credo però che la differenza nella maggior parte dei casi sia maggiore a 100W ed il prezzo KWh possa essere più alto specie se si casca in fasce di consumo diverse (e se malauguratamente proprio il consumo in più della vga ti facesse cascare nella fascia superiore..). Inoltre una VGA, per quanto l'obsolescenza sia rapida (anche se meno di pochi anni fa) ha un ciclo di vita più lungo di un anno, quindi il calcolo andrebbe fatto sul ciclo di vita medio. Sinceramente poi a me non piace regalare i soldi per sprecare soprattutto combustibili fossili, creando i problemi geopolitici, economici ed ambientali ampiamente conosciuti, ci fosse per dire una vga che va come una HD 7850 e consuma 4W in full probabilmente la comprerei anche costasse 250 euro, i soldi andrebbero a "premiare" chi ha messo sul mercato quel tipo di tecnologia (questo è il mio modo di ragionare, sicuramente non quello medio del videogiocatore)

The_SaN
29-11-2014, 18:07
è l'alimentatore a ridurre la tensione in ingresso dai 220v della rete a 12v-5v-3.3v, non la scheda madre :)


comunque siamo tutti andati leggermente ot :asd:L' alimentatore converte 220V AC in 12V CC.
La scheda abbassa i 12V CC in 1V CC.

Comunque intendevo la scheda video, non scheda madre (che comunque fa la stessa cosa con il processore)

Converte -> AC in CC o viceversa
Alza/Abbassa -> mantiene lo stesso tipo di corrente

okorop
29-11-2014, 18:35
L' alimentatore converte 220V AC in 12V CC.
La scheda abbassa i 12V CC in 1V CC.

Comunque intendevo la scheda video, non scheda madre (che comunque fa la stessa cosa con il processore)

Converte -> AC in CC o viceversa
Alza/Abbassa -> mantiene lo stesso tipo di corrente

dai diciamo fasi di alimentazione ;) :angel:
Comunque r9 380x è mostruosa, la voglio!!!!!!!! Get a Radeon :D

The_SaN
29-11-2014, 18:41
Ma la cosa che più mi incuriosisce, ammettendo per veri i risultati, è il processo produttivo.

idkfa
29-11-2014, 19:17
Ma la cosa che più mi incuriosisce, ammettendo per veri i risultati, è il processo produttivo.

20 nani SOC adattato.:O
più o meno come fu per la 7970 e i 28 nani.

enryco
29-11-2014, 19:20
20 nani SOC adattato.:O


più o meno come fu per la 7970 e i 28 nani.



Io dico ke rimarranno ai 28 nm, Anke perché i 20 soc dovrebbero garantire una densità doppia, ma pari o addirittura minori performance/watt.

Poi se fossero disponibili verrebbero utilizzati negli excavator, invece sono a 28 Anke quelli

okorop
29-11-2014, 21:40
Io dico ke rimarranno ai 28 nm, Anke perché i 20 soc dovrebbero garantire una densità doppia, ma pari o addirittura minori performance/watt.

Poi se fossero disponibili verrebbero utilizzati negli excavator, invece sono a 28 Anke quelli

ma anche no, excavator andrà a 28nm su carizo solo per il mobile aspettando i 16nm finfet di tsmc per zen, per le gpu è un discorso diverso ma i 20nm per gpu non sono ancora pronti......

enryco
30-11-2014, 00:03
ma anche no, excavator andrà a 28nm su carizo solo per il mobile aspettando i 16nm finfet di tsmc per zen, per le gpu è un discorso diverso ma i 20nm per gpu non sono ancora pronti......







non dovrebbero proprio esistere se nn ricordo male, di 20 nm è e sarà realizzato il 20 soc, per poi passare ai 16 finfet, o ricordo male?

The_SaN
30-11-2014, 00:17
non dovrebbero proprio esistere se nn ricordo male, di 20 nm è e sarà realizzato il 20 soc, per poi passare ai 16 finfet, o ricordo male?Ricordo di aver letto qualcosa del genere a riguardo...ma ormai non mi ricordo neanche cosa ho mangiato ieri...troppo studio e lavoro :asd:

Trokji
30-11-2014, 11:00
20 nm solo per chips di apple e qualcomm e poco più, amd e nvidia dovrebbero passare direttamente a 16, almeno questo è ciò che credevo di aver capito ultimamente (e da qui il problema di TDP che potrebbero andare fuori controllo, a meno di innovazioni architetturali radicali o altro o di rinviare ancora un po' la next gen)

Vul
30-11-2014, 20:38
20 nm solo per chips di apple e qualcomm e poco più, amd e nvidia dovrebbero passare direttamente a 16, almeno questo è ciò che credevo di aver capito ultimamente (e da qui il problema di TDP che potrebbero andare fuori controllo, a meno di innovazioni architetturali radicali o altro o di rinviare ancora un po' la next gen)

Io ci credo poco riescano a tirare fuori tutto questo da 28 nm.

francisco9751
30-11-2014, 20:40
mi.pare fosse stato più volte "rumoreggiato" che fosse a 20nm

tapatalked with LG G2

Trokji
30-11-2014, 21:00
Possibile, a questo giro AMD e Nvidia forse useranno un livello di miniaturizzazione differente

okorop
30-11-2014, 21:05
Possibile, a questo giro AMD e Nvidia forse useranno un livello di miniaturizzazione differente

magari AMD portando su tsmc anche le cpu ha accordi commerciali diversi da nvida che fa solo cpu per cui potrebbe sia sfruttare per prima i 20nm per poi passare con nvida a 16 nm...... :D

boboviz
01-12-2014, 08:35
Beh "lavoro".. diciamo un hobby generalmente (ok non per tutti, ma la maggior parte). Semplicemente una volta preso il pc tanto vale usarlo il più possibile, un'"ottimizzazione delle risorse", perché no per una buona causa, che poi è quella di tutti (se domani si riusciranno a curare malattie oggi incurabili o si faranno avanzamenti tecnologici decisivi per lo sviluppo tecnologico o economico probabilmente ne beneficerà anche chi ha "prestato" il suo computer al calcolo distributo). Credo però che la differenza nella maggior parte dei casi sia maggiore a 100W ed il prezzo KWh possa essere più alto specie se si casca in fasce di consumo diverse (e se malauguratamente proprio il consumo in più della vga ti facesse cascare nella fascia superiore..).

Sono uno degli admin di Boinc Italy e ti ringrazio per quello che hai scritto.
Il calcolo distribuito su GPU è una delle possibilità che hanno i centri di ricerca per accellerare di molto la scienza.
Per quanto riguarda i progetti che girano su gpu, storicamente ci sono sempre stati quelli su CUDA, anche se negli ultimi 2 anni si è avuta una vera e propria esplosione di OpenCL (il progetto POEM, per dire, sta per rilasciare un client OpenCL che esalta le caratteristiche della tecnologia GCN).
Per chi tiene accesi i pc molte ore al giorno stressandoli con calcoli pesanti l'efficenza è uno dei caposaldi!!

mircocatta
01-12-2014, 09:10
Non capisco sta leggenda che le 290 consumino molto più delle 780... eh su che basta leggere...
Riguardo al consumo la 290 è quasi li con la 780 e la 290x con la 780Ti, anzi in alcune review consuma anche meno di quest'ultima.
Poi dipende anche tutto dal modello di vga ;)

http://www.anandtech.com/show/8568/the-geforce-gtx-970-review-feat-evga/15

http://www.guru3d.com/articles_pages/nvidia_geforce_gtx_970_and_980_reference_review,7.html

http://www.techpowerup.com/reviews/EVGA/GTX_970_SC_ACX_Cooler/23.html


quando la scimmia ti sovrasta :asd: perchè mai ti sei fatto lo sli???????

ehhh :asd:

le ho pagate 280€ l'una!

no è che pcars gira meglio sulle verdi, ed è quasi l'unico titolo che uso

Bla, bla, bla.

Anche se giocaste 3 ore al giorno la differenza in bolletta alla fine dell'anno sarebbe quanto? 15 euro?

Parliamo di 60 watt di differenza nei picchi

allora tieni questo, sugli avarage:
http://tpucdn.com/reviews/EVGA/GTX_970_SC_ACX_Cooler/images/power_average.gif


Poi non so a casa tua ma se per un anno mi ritrovo una 290 a 340 circa che va più veloce delle 780 a 400 e rotti chi insegue è nvidia, non certo amd. E amd aveva un sacco di giochi in più.

E una 290 trix va più veloce di una titan, che solo 12 mesi fa costava 800 euro. E ora 250.

AMD fail?

Chi ha inseguito è stata decisamente nvidia per un anno e se voi avete l'approccio verso nvidia degli applefan e vi fate gran

ma che razzo palazzo stai dicendo? poco più sopra hai detto che nvidia ha arrancato con l'uscita delle 290, quando quest'ultime non sono state altro che una risposta TARDIVA alle 780 di nvidia, che ha poi subito risposto con una 780ti, non ci sono santi che tengono, i fatti parlano chiari, vatti a vedere le date di uscita delle 780/290/290x e 780ti se non ti è chiara la cosa

è ovvio che ci si aspettava delle 290/290x superiori alle 780 liscie/titan, ed è stato così con piccole percentuali di vantaggio ma maggiori consumi, che ha fatto storcere il naso un po a tutti e che ha fatto ben capire che gcn fosse indietro rispetto a kepler



Nvidia ha rilasciato la 780ti?

E chi se ne frega del mercato da 800 euro? Pura pubblicità.

ole, numeri a caso, il prezzo al lancio era di 650€ che se la doveva vedere con la 290x a 539€ andando di più, consumando meno, più silenziosa e meno "calorosa"
pura pubblicità comunque, si si

siluro85
01-12-2014, 09:17
http://www.anandtech.com/show/8568/the-geforce-gtx-970-review-feat-evga/15

http://www.guru3d.com/articles_pages/nvidia_geforce_gtx_970_and_980_reference_review,7.html

http://www.techpowerup.com/reviews/EVGA/GTX_970_SC_ACX_Cooler/23.html




ehhh :asd:

le ho pagate 280€ l'una!

no è che pcars gira meglio sulle verdi, ed è quasi l'unico titolo che uso


allora tieni questo, sugli avarage:
http://tpucdn.com/reviews/EVGA/GTX_970_SC_ACX_Cooler/images/power_average.gif


ma che razzo palazzo stai dicendo? poco più sopra hai detto che nvidia ha arrancato con l'uscita delle 290, quando quest'ultime non sono state altro che una risposta TARDIVA alle 780 di nvidia, che ha poi subito risposto con una 780ti, non ci sono santi che tengono, i fatti parlano chiari, vatti a vedere le date di uscita delle 780/290/290x e 780ti se non ti è chiara la cosa

è ovvio che ci si aspettava delle 290/290x superiori alle 780 liscie/titan, ed è stato così con piccole percentuali di vantaggio ma maggiori consumi, che ha fatto storcere il naso un po a tutti e che ha fatto ben capire che gcn fosse indietro rispetto a kepler


ole, numeri a caso, il prezzo al lancio era di 650€ che se la doveva vedere con la 290x a 539€ andando di più, consumando meno, più silenziosa e meno "calorosa"
pura pubblicità comunque, si si




l'utente in questione ha parlato di fail sull'eventuale uscita di schede nuove a marzo, se va fatta bene, per contrastare le gtx980, non ha tirato in ballo le 290 che ai tempi hanno stra venduto anche grazie al gpgpu per il mining che le ha fatte letteralmente andare a ruba

la domanda sorge spontanea, Vul, un troll ti ha rubato l'account? :asd:
Anche a me sorge una domanda, ma sei un Pr di nvidia? Sei stipendiati da nvidia? È come se un fan rosso venisse sul 3d delle verdi e facesse di tutto per screditare... è se per te 20 w sono un enormità allora cosa fai non usi mai il forno di casa? Quello si ne consuma!!!

mircocatta
01-12-2014, 09:29
Anche a me sorge una domanda, ma sei un Pr di nvidia? Sei stipendiati da nvidia? È come se un fan rosso venisse sul 3d delle verdi e facesse di tutto per screditare... è se per te 20 w sono un enormità allora cosa fai non usi mai il forno di casa? Quello si ne consuma!!!

non ho capito, qualcuno dice molte cose a caso e bisogna stare zitti?

40watt (circa, ma non 20 basta vedere i link che ti ho messo e guardare le 780 e 290) nella vita reale sono pochi, ma quando stiamo parlando di schede video da 200watt si tratta di un 15-20%, che non è poco quando si tratta di efficenza di un chip.. a parità di processo produttivo


e si, tralasciando che vengo da una 7950 e ancor prima da una 6970 e prim'ancora una 4870 (morta e cambiata con una gtx 275 "tampone") ammetto che si, sono un fan delle verdi
:doh:
non sono qui per screditare amd, sono qui perchè seguo sempre con interesso il mercato delle schede video, e voglio al più presto liberarmi dello SLI appena fatto, vuoi perchè non mi hanno dato quello che mi aspettavo (con oculus rift il multi gpu dà problemi vari) e sopratutto perchè ultimamente i driver nvidia fanno pena, mentre con amd mai avuto un problema... solo che, vedendo i risultati, siamo ancora lontani da quel che cerco, sopratutto se questa "380X" è con un processo produttivo inferiore a 28nm.. quando anche nvidia adotterà il nuovo pp saranno uccelli amari per amd

francisco9751
01-12-2014, 09:41
basta con sta storia dei consumi, fossero anche 50W, che ti cambiano???nulla.
poi appunto chiamare un 40W un enormità, è abbastanza "lol"
non è che devi convincerci, che vieni a dire che è un enormità...lo sappiamo tutti la verità,poi tutti quelli che stanno a parlare di efficienza e consumi,son sicuro che non ci penseranno due volte a prendersi il full chip maxwell,o addirittura farsi uno sli..

tapatalked with LG G2

Dimitri-
01-12-2014, 09:52
Fail?

Nvidia si è fatta aspettare un anno per rispondere alla serie 290 di amd.

L'unica cosa che ha fatto è stata abbassare il prezzo delle 780 (che comunque costavano 70-80 euro in più delle 290 pur andando il 7-8 % in meno).

Almeno AMD ha abbassato il prezzo delle 290 a prezzi altamente concorrenziali.

La 290 tri-x sfida tranquillamente una 970, sta poco dietro (2-3 %?) e costa 60 euro in meno di una 970 di una marca decente

stai trolllando vero? amd per contrastare le 780-titan non aveva niente, nvidia ha avuto campo libero per 8 mesi ( se includiamo la titan). Poi con l'uscita delle 290 e' arrivata la 780Ti giusto un mese dopo. Stessa cosa adesso, amd non ha sfornato nessuna gpu nuova da piu di un anno e per fare concorrenza deve praticamente regarlarti le 290.. Certo, e' nvidia che rincorre :sofico:.

ps. la 970 in overclock sale molto di piu della 290, il divario e' ben piu ampio.

Overb00st
01-12-2014, 10:02
eh si, tralasciando che vengo da una 7950 e ancor prima da una 6970 e prim'ancora una 4870 (morta e cambiata con una gtx 275 "tampone") ammetto che si, sono un fan delle verdi
:doh:
non ho capito, qualcuno dice molte cose a caso e bisogna stare zitti?

40watt (circa, ma non 20 basta vedere i link che ti ho messo e guardare le 780 e 290) nella vita reale sono pochi, ma quando stiamo parlando di schede video da 200watt si tratta di un 15-20%, che non è poco quando si tratta di efficenza di un chip.. a parità di processo produttivo

Personalmente dell'efficenza di un chip mi frega poco, voglio giocare con fps decenti alla mia risoluzione (ora in fhd) e se me lo permette sia una 290 che una 970 preferisco risparmiare sti 100 euro (che nel mio caso avendo il liquido ci ho preso un bel fullcover abbinandoci una reference usata risparmiando ancora). Ormai però la moda del momento sono i consumi, ma io mi pongo la domanda: "considerata la vita media di una scheda video, diciamo max 2 anni, tra spesa vga + corrente chi ha speso di più tra una 290 e una 970? a scapito di quali performance?" ovviamente ogniuno ha le sue esigenze, per me che ormai gioco giusto il weekend la risposta è ovvia.
Per le performance invece ormai è un terno al lotto, bisogna pregare che quando esca un gioco nuovo la software house non abbia scritto codice coi piedi o non abbia fatto accordi con l'uno o l'altro marchio penalizzando una parte di noi (forse qui nvidia da un pò piu di sicurezze).

mircocatta
01-12-2014, 10:04
basta con sta storia dei consumi, fossero anche 50W, che ti cambiano???nulla.
poi appunto chiamare un 40W un enormità, è abbastanza "lol"

nulla sto paio di OO... a me i consumi interessano non per il costo sulla bolletta, a me interessa per il margine di overclock che solitamente ne consegue, se una sceda BASE mi consuma già 230watt avrò sicuramente meno margine di overclock e overvolt rispetto ad una che ne consuma 190

se poi voi volete tenere le schede a frequenza base, che sono frequenze scelte sicuramente a tavolino tra amd e nvidia per spennare noi consumatori, son problemi vostri :asd: (ne è un esempio la serie 79xx di amd, uscita con prestazioni poco superiori alle top nvidia (che caso strano!), con AMPI margini di overclock...sarà mai che io debba tenere una 7950 a 900mhz quando questa mi tiene tranquilla i 1220mhz raggiungendo e superando la 7970ghz????)

Personalmente dell'efficenza di un chip mi frega poco, voglio giocare con fps decenti alla mia risoluzione (ora in fhd) e se me lo permette sia una 290 che una 970 preferisco risparmiare sti 100 euro (che nel mio caso avendo il liquido ci ho preso un bel fullcover abbinandoci una reference usata risparmiando ancora). Ormai però la moda del momento sono i consumi, ma io mi pongo la domanda: "considerata la vita media di una scheda video, diciamo max 2 anni, tra spesa vga + corrente chi ha speso di più tra una 290 e una 970? a scapito di quali performance?" ovviamente ogniuno ha le sue esigenze, per me che ormai gioco giusto il weekend la risposta è ovvia.
Per le performance invece ormai è un terno al lotto, bisogna pregare che quando esca un gioco nuovo la software house non abbia scritto codice coi piedi o non abbia fatto accordi con l'uno o l'altro marchio penalizzando una parte di noi (forse qui nvidia da un pò piu di sicurezze).

leggi sopra




per la parte in neretto: fidati, gli accordi di nvidia stanno danneggiando anche i suoi utenti, non hai idea di quante rogne introducano gli effetti esclusivi del gameworks sui giochi ubisoft :asd:

francisco9751
01-12-2014, 10:13
peccato che il margine te lo giochi, quando decidono di mettere il voltaggio bloccato, senza contare che l 'ovrclock dipende molto dalla gpu,nel senso se la gpu non sale,puoi anche dargli 1kw in più che non sale,quindi questo margine..io non lo vedo

tapatalked with LG G2

mircocatta
01-12-2014, 10:17
peccato che il margine te lo giochi, quando decidono di mettere il voltaggio bloccato, senza contare che l 'ovrclock dipende molto dalla gpu,nel senso se la gpu non sale,puoi anche dargli 1kw in più che non sale,quindi questo margine..io non lo vedo

tapatalked with LG G2

non era il caso della 780vs290 per esempio, delle 7970/7950 (che in overclock volavano, sembravano direttamente una nuova serie) o delle gtx980 oggi, che arrivano anche a oltre 1600mhz alcuni esemplari :)

che poi io sia stato sfortunato perchè ho liquidato due vga con vgpu bloccato è un altro discorso, ma qui devo solo recitare il mea culpa :asd:

fine ot dai :)

francisco9751
01-12-2014, 10:43
che "alcuni" arrivano oltre 1600,non fa testo,è come chi ha le cpu che prende 4.5ghz con vcore default..non è che se una la prende,lo fanno tutti..

tapatalked with LG G2

idkfa
01-12-2014, 14:48
OFF TOPIC

"Scannatevi" in privato.:muro:

Il thread si chiama "[Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™" e non: ce l'ha più lungo uno o l'altro.:mbe:

The_SaN
01-12-2014, 17:52
40watt (circa, ma non 20 basta vedere i link che ti ho messo e guardare le 780 e 290) nella vita reale sono pochi, ma quando stiamo parlando di schede video da 200watt si tratta di un 15-20%, che non è poco quando si tratta di efficenza di un chip.. a parità di processo produttivoHo fatto i calcoli con 100W di differenza e 3 ore al giorno: 20 euro annui. Magari 3-4 euro in più se l'energia la paghi più cara.
Con 40W non paghi neanche le spese di spedizione della scheda.

nulla sto paio di OO... a me i consumi interessano non per il costo sulla bolletta, a me interessa per il margine di overclock che solitamente ne consegue, se una sceda BASE mi consuma già 230watt avrò sicuramente meno margine di overclock e overvolt rispetto ad una che ne consuma 190Il margine di OC non dipende solo dal consumo. Dipende soprattutto dall'architettura, poi anche dalla qualità dei componenti, dalla posizione del chip nel wafer, dal tuo alimentatore.

Trokji
01-12-2014, 18:02
Secondo me se un chip consuma meno a parità di performances è superiore punto. Poi possono abbassare i prezzi per renderlo appetibile, non ci piove. Al di là del discorso energia (preferirei sempre pagare un po' di più una scheda video che sprecare energia) ci sono i costi dovuti alla necessità di un alimentatore più potente, case più grande, ventilazione più performante in generale. Non è un discorso AMD o NVIDIA, quando uscì la radeon HD4770 per dire che all'epoca era la prima scheda col nuovo processo produttivo corsi al volo a prenderla.
Spero che AMD se è vero che ha i 20 nm dietro l'angolo e la ram allo stato solido possa accelerare sull'innovazione e sul rapporto performance/Watt, magari superando quello attuale di maxwell sulla fascia alta, anche se non sarà facile. Anche le ottimizzazioni software sono una strada (in realtà quella che nel medio termine offre margini di miglioramento probabilmente molto più ampi rispetto alla corsa all'hardware) ed in questo senso Mantle era interessante (così come HSA sulle apu ed altre tecnologie che AMD sta sviluppando o ha sviluppato), peccato che i miglioramenti siano limitati ad un numero molto limitato di giochi o applicazioni e che i miglioramenti reali siano piuttosto modesti rispetto a quanto prospettato

Free Gordon
01-12-2014, 22:09
ed in questo senso Mantle era interessante (così come HSA sulle apu ed altre tecnologie che AMD sta sviluppando o ha sviluppato), peccato che i miglioramenti siano limitati ad un numero molto limitato di giochi o applicazioni e che i miglioramenti reali siano piuttosto modesti rispetto a quanto prospettato

Mantle và giudicato nel tempo, ora è ancora prematuro dire che da vantaggi limitati.
In Thief ad esempio sulla mia config passo da 41fps (DX11) a 57 (Mantle)... 1080p tutto al massimo. Non mi pare proprio poco... ;)

mircocatta
02-12-2014, 07:51
Mantle và giudicato nel tempo, ora è ancora prematuro dire che da vantaggi limitati.
In Thief ad esempio sulla mia config passo da 41fps (DX11) a 57 (Mantle)... 1080p tutto al massimo. Non mi pare proprio poco... ;)

ma purtroppo, per ora, mantle cozza con gli injector o sweet fx e affini.. per cui per quanto mi riguarda anche con schede amd preferisco rimanere su dx

Einhander
02-12-2014, 11:24
ma purtroppo, per ora, mantle cozza con gli injector o sweet fx e affini.. per cui per quanto mi riguarda anche con schede amd preferisco rimanere su dx

Vogliamo parlare degli fps minimi o dell'impatto in quei giochi dove la cpu conta di piu'?

Adesso persino i settaggi cromatici sono piu' importanti delle prestazioni?
Annamo bene.

Oh non c'e' cosa che faccia amd che venga vista come un pieno successo, l'importate e' trovare il pelo e fare leva su quello per nullificare o diminuire la considerazione in merito a questa o quella feature.

C'e' da ringraziare il santo di turno per l'uscita di mantle, e' stata proprio una buona idea, a mio modo di vedere, anche per le conseguenze che ha apportato nell'accellerazione del rilascio delle dx12 -che cmq parliamoci chiaro non arriveranno mai all'ottimizzazione ottenibile con mantle che poi ora e' solo alla prima release in pratica...vedremo in futuro anche con le nuove schede e qualcosa mi dice che vedremo di piu' su mantle proprio con il rilascio della nuova serie, 380x o 390x che sia : )

Albi80
02-12-2014, 12:35
Mantle la reputo la cosa più utile ed innovativa degli ultimi anni. Faccio i complimenti ad Amd per l idea . Spero che prendano piede e che quella spazzatura delle dx vengano accantonate

Inviato dal mio GT-N7100 utilizzando Tapatalk

Capozz
02-12-2014, 13:16
Mantle la reputo la cosa più utile ed innovativa degli ultimi anni. Faccio i complimenti ad Amd per l idea . Spero che prendano piede e che quella spazzatura delle dx vengano accantonate

Inviato dal mio GT-N7100 utilizzando Tapatalk

Effettivamente provandolo devo dire che non è niente male... ad esempio su BF4 multiplayer, specie con tanti giocatori, il framerate minimo con mantle è decisamente più alto rispetto alle dx11

FroZen
02-12-2014, 14:17
Si ma non ha il physx :O

:asd:

siluro85
02-12-2014, 14:19
E poi vuoi mettere i consumi? :D

The_SaN
02-12-2014, 21:14
Mantle la reputo la cosa più utile ed innovativa degli ultimi anni. Faccio i complimenti ad Amd per l idea . Spero che prendano piede e che quella spazzatura delle dx vengano accantonate

Inviato dal mio GT-N7100 utilizzando TapatalkIo invece spero proprio il contrario, directx a vita, ma con gli stessi benefici di mantle, ed è quello che secondo me si prospetta per i prossimi anni. :D

Da questo punto di vista secondo me mantle è un successo, visto che se le dx12 mantengono le promesse, i processori AMD avranno nuova vita con TUTTI i titoli in uscita.

belta
02-12-2014, 22:42
cut ...

Chiaramente alla fine ho preso la 290


io ho preso la 970 Amp Omega Edition della Zotac dopo aver letto di temperature "polari" in qualche test trovato online, ma potessi tornare indietro prenderei una 290x reference visto e considerato che sono comunque dovuto "correre ai ripari" con un prolimatech mk 26 in quanto le temp della gpu in full passava gli 80 °C e venivo da una 580 Lighting che 80 °C con l'oc di fabbrica non li ha mai visti neanche con il binocolo :doh:

mircocatta
03-12-2014, 07:54
Vogliamo parlare degli fps minimi o dell'impatto in quei giochi dove la cpu conta di piu'?

Adesso persino i settaggi cromatici sono piu' importanti delle prestazioni?
Annamo bene.

Oh non c'e' cosa che faccia amd che venga vista come un pieno successo, l'importate e' trovare il pelo e fare leva su quello per nullificare o diminuire la considerazione in merito a questa o quella feature.

C'e' da ringraziare il santo di turno per l'uscita di mantle, e' stata proprio una buona idea, a mio modo di vedere, anche per le conseguenze che ha apportato nell'accellerazione del rilascio delle dx12 -che cmq parliamoci chiaro non arriveranno mai all'ottimizzazione ottenibile con mantle che poi ora e' solo alla prima release in pratica...vedremo in futuro anche con le nuove schede e qualcosa mi dice che vedremo di piu' su mantle proprio con il rilascio della nuova serie, 380x o 390x che sia : )

ho detto che mantle è una m*rda? enno o

ma una camomilla ogni tanto?

Io invece spero proprio il contrario, directx a vita, ma con gli stessi benefici di mantle, ed è quello che secondo me si prospetta per i prossimi anni. :D

Da questo punto di vista secondo me mantle è un successo, visto che se le dx12 mantengono le promesse, i processori AMD avranno nuova vita con TUTTI i titoli in uscita.

quotone :D adoro mantle proprio perchè ha fatto smuovere microsoft

okorop
04-12-2014, 09:09
http://www.tweaktown.com/articles/6851/interview-with-amd-s-roy-taylor-response-to-nvidia-s-maxwell-gpus/index.html

Lanzus
04-12-2014, 09:23
http://www.tweaktown.com/articles/6851/interview-with-amd-s-roy-taylor-response-to-nvidia-s-maxwell-gpus/index.html

"Interview with AMD's Roy Taylor, response to NVIDIA's Maxwell GPUs" ... Si ... come no.

Nell'intervista la mena con il bus 512bit della 290x :sofico: ... il taglio di prezzo, DX12, mantle ... great value ... bla bla bla bla.

Poi quando si va al sodo:

Q: When can we begin to hear more about the Radeon R9 300 series, and more specifically, the R9 390X?

A: Unfortunately, I'm unable to comment on future, unannounced products at this time.

... FUCK :muro: :muro: :muro: :muro: :muro:

Cmq non c'è niente da fare. Dobbiamo aspettare che passi il periodo natalizio. Non si presenta mai niente per natale ... per motivi abbastanza ovvi. :)

Ale55andr0
04-12-2014, 10:21
io lo dico e lo ripeto: il silenzio di AMD fa solo che pensare negativo, e anche se avessero ottimi prodotti all'orizzonte non scucire manco mezza informazione "sfuggita per sbaglio" in modo oculato è una strategia IDIOTA, perchè chi deve comprare nel breve periodo fondamentalmente non ha alcun motivo per aspettare AMD ma può tranquillamente fiondarsi sui prodotti della concorrenza, facendo tra l'altro solo bene...

amon.akira
04-12-2014, 11:09
mah, io non prenderei mai una 970 a 100euro in piu di una 290 :)

francisco9751
04-12-2014, 11:37
nemmeno io ;)

comunque io sto silenzio non lo vedo così "male" come voi..

Lanzus
04-12-2014, 11:42
io lo dico e lo ripeto: il silenzio di AMD fa solo che pensare negativo, e anche se avessero ottimi prodotti all'orizzonte non scucire manco mezza informazione "sfuggita per sbaglio" in modo oculato è una strategia IDIOTA, perchè chi deve comprare nel breve periodo fondamentalmente non ha alcun motivo per aspettare AMD ma può tranquillamente fiondarsi sui prodotti della concorrenza, facendo tra l'altro solo bene...

Beh ... dipende dalle strategia di AMD a breve. Dalle promozioni in atto direi che al momento hanno tutta l'intenzione di puntare ad "esaurire" le 290x puntando sul prezzo e i giochi in bundle. Non presentare nulla in quest'ottica ha un senso ... la fascia altissima è scoperta ma per AMD evidentemente non è un problema. La 290x se la gioca benissimo con la 970 ...

milanok82
04-12-2014, 18:29
Beh ... dipende dalle strategia di AMD a breve. Dalle promozioni in atto direi che al momento hanno tutta l'intenzione di puntare ad "esaurire" le 290x puntando sul prezzo e i giochi in bundle. Non presentare nulla in quest'ottica ha un senso ... la fascia altissima è scoperta ma per AMD evidentemente non è un problema. La 290x se la gioca benissimo con la 970 ...

Insomma mica tanto scoperta....c'è la 295..voglio dire..mica fascia media-alta.
Dell'anno in cui AMD presentò le schede ad ottobre e Nvidia a marzo allora cosa c'era da dire a quel tempo?che Nvidia aveva problemi e stava fallendo? Ovviamente no era da schiocchi pensarlo e sopratutto dirlo.Quando invece si parla di AMD si trova sempre il motivo giusto per darla spacciata....
Il problema principale è quello degli appassionati che non possono stare con le mani fermi e con i portafogli pieni.Gtx 970 e 980 vanno uguali alle gtx 780 e alla gtx780Ti e per giunta con frequenze piu alte a 1400 e 1500 mhz...quindi potevano restare dove erano...non portano nessun vantaggio prestazionale.Quindi la situazione mi sembra piuttosto stabile tanto da non far paura a nessuno queste gtx970 e 980 uscite solamente per aumentare il fatturato dell'attività d'impresa.

FroZen
04-12-2014, 19:11
A dire il vero una vga da 190w e performance maggiori di un tot di una 980 amd sembra averla :stordita: E da una 290x parliamo di una quarantina di w in meno e un 20 25% di birra in più...

okorop
04-12-2014, 20:16
Raga ma è piu che normale che non dicano niente sulle future gpu, secondo me le immettono per gennaio per far vedere che stanno al passo al finance day :D

Lanzus
05-12-2014, 08:25
http://www.tomshw.it/cont/news/amd-usera-i-20-nanometri-solo-per-alcuni-prodotti-quali/61143/1.html

ATTENZIONE !!!

Devinder Kumar(financial director di AMD) :"Avremo alcuni prodotti a 20 nanometri e poi vireremo sui transistor FinFET (16 nanometri 3D, ndr)"

okorop
05-12-2014, 08:37
http://www.tomshw.it/cont/news/amd-usera-i-20-nanometri-solo-per-alcuni-prodotti-quali/61143/1.html

ATTENZIONE !!!

Devinder Kumar(financial director di AMD) :"Avremo alcuni prodotti a 20 nanometri e poi vireremo sui transistor FinFET (16 nanometri 3D, ndr)"

interessante anche la news sui margini delle soc per console il 20% non è niente male :)

mircocatta
05-12-2014, 08:46
http://www.tomshw.it/cont/news/amd-usera-i-20-nanometri-solo-per-alcuni-prodotti-quali/61143/1.html

ATTENZIONE !!!

Devinder Kumar(financial director di AMD) :"Avremo alcuni prodotti a 20 nanometri e poi vireremo sui transistor FinFET (16 nanometri 3D, ndr)"

20nm dedicati alle apu? così da portarli anche sulle console..

okorop
05-12-2014, 09:36
Nella competizione tra GPU chi arriva prima ai 16nm fà un bel salto di qualità, alcuni dati tecnici presi TSMC:

20nm Vs 28nm
TSMC's 20nm process technology can provide 30 percent higher speed, 1.9 times the density, or 25 percent less power than its 28nm technology.

16nm Vs 28nm
TSMC's 16FF+ (FinFET Plus) technology can provide above 65 percent higher speed, around 2 times the density, or 70 percent less power than its 28HPM technology.

16nm Vs 20nm
Comparing with 20SoC* technology, 16FF+ provides extra 40% higher speed and 60% power saving.

Fonte: http://www.tsmc.com/...y.htm

*SoC: http://it.wikipedia....-chip

Daytona
05-12-2014, 09:38
Non si presenta mai niente per natale ... per motivi abbastanza ovvi. :)

qualcuno mi spiega questi "ovvi motivi" ?...
... o quello che pensa possano essere...
:)

Trokji
05-12-2014, 10:25
Certo, da 28 a 16 nm il passo sembra molto grande.. ma bisogna anche considerare quanti anni sono passati dall'uscita dei 28 nm, direi parecchi. Questo poi soltanto per il cambio di processo produttivo, sarebbe bello vedere anche aggiunti miglioramenti architetturali+ottimizzazione software e credo che in poco tempo avremo tutte le schede in commercio diventate obsolete (ancora più evidente che con maxwell magari). Vabè alla fine non credo sia così, probabilmente AMD si limiterà a cambio processo produttivo e nuova tecnologia di ram con pochi cambiamenti architetturali e non penso dia un gran divario a maxwell oppure semplicemente pareggerà il gap (poi lieto di sbagliarmi)

°Phenom°
05-12-2014, 13:51
A breve nuovi driver amd con downsampling, freesync e tante altre novità: http://egmr.net/2014/12/amd-releases-catalyst-omega-drivers-increased-performance-freesync-downsampling/

mircocatta
05-12-2014, 14:09
A breve nuovi driver amd con downsampling, freesync e tante altre novità: http://egmr.net/2014/12/amd-releases-catalyst-omega-drivers-increased-performance-freesync-downsampling/

cavolo, danno l'idea di essere miracolosi, anche per il performance improvements non da poco!

Dimitri-
05-12-2014, 14:10
Certo, da 28 a 16 nm il passo sembra molto grande.. ma bisogna anche considerare quanti anni sono passati dall'uscita dei 28 nm, direi parecchi. Questo poi soltanto per il cambio di processo produttivo, sarebbe bello vedere anche aggiunti miglioramenti architetturali+ottimizzazione software e credo che in poco tempo avremo tutte le schede in commercio diventate obsolete (ancora più evidente che con maxwell magari). Vabè alla fine non credo sia così, probabilmente AMD si limiterà a cambio processo produttivo e nuova tecnologia di ram con pochi cambiamenti architetturali e non penso dia un gran divario a maxwell oppure semplicemente pareggerà il gap (poi lieto di sbagliarmi)

Peccato che non appena usciranno le nuove amd, nvidia risponderà con il full maxwell..e li saranno guai per tutti, prezzi assurdi solo perchè non avrà concorrenza per svariati mesi :rolleyes: (vedi titan e gtx780)

Snickers
05-12-2014, 14:20
cavolo, danno l'idea di essere miracolosi, anche per il performance improvements non da poco!
Dà l'idea di essere l'ultimo botto per GCN 1.0-1.1 (forse anche 1.2) in attesa delle nuove GPU (poi ovvio che cureranno il bug fixing)... Visto la tempistica, potrei azzardare a naso (non suffragato da fonti) un debutto di qualche modello nuovo tra fine gennaio e inizio febbraio :read:

°Phenom°
05-12-2014, 14:24
Peccato che non appena usciranno le nuove amd, nvidia risponderà con il full maxwell..e li saranno guai per tutti, prezzi assurdi solo perchè non avrà concorrenza per svariati mesi :rolleyes: (vedi titan e gtx780)

Le nuove amd infatti dovranno competere con il full maxwell, non con le attuali 970/980 che vanno più o meno come le vga della serie precedente. Poi se andrà più gm110 o le nuove amd si vedrà quando usciranno.
P.s. devo dire che sei sempre molto positivo :asd:

Trokji
05-12-2014, 14:26
Peccato che non appena usciranno le nuove amd, nvidia risponderà con il full maxwell..e li saranno guai per tutti, prezzi assurdi solo perchè non avrà concorrenza per svariati mesi :rolleyes: (vedi titan e gtx780)

Sì ma col full maxwell si risale di tdp eccetra ma l'architettura rimarrà sostanzialmente la stessa suppongo. Tra l'altro nemmeno useranno il nuovo tipo di RAM. Andrà bene a chi piacciono le schede potenti ma AMD potrebbe competere senza grossi problemi se portasse alla pari almeno il rapporto performance/watt dato che cambierà processo produttivo ed architettura. Infatti sinceramente speravo che Nvidia facesso uscire prima questo Pascal perché full maxwell sarà probabilmente solo una versione più grossa delle gpu già in giro

smoicol
05-12-2014, 14:27
Le nuove amd infatti dovranno competere con il full maxwell, non con le attuali 970/980 che vanno più o meno come le vga della serie precedente. Poi se andrà più gm110 o le nuove amd si vedrà quando usciranno.
P.s. devo dire che sei sempre molto positivo :asd:

Amd ha sempre anticipato nuove tecnologie e non credo che stavolta non faccia lo stesso, vedi memorie hbm, o nuovo processo produttivo, aggiungo nuova architettura.
Con tutte queste features le nuove vga Amd saranno molto interessanti sotto tutti i punti di vista.
Io rimango in attesa

okorop
05-12-2014, 14:29
A breve nuovi driver amd con downsampling, freesync e tante altre novità: http://egmr.net/2014/12/amd-releases-catalyst-omega-drivers-increased-performance-freesync-downsampling/

bene bene li aspetto da tempo, magari con la cigliegina sulla torta (r9 380x :D)

smoicol
05-12-2014, 14:30
Sì ma col full maxwell si risale di tdp eccetra ma l'architettura rimarrà sostanzialmente la stessa suppongo. Tra l'altro nemmeno useranno il nuovo tipo di RAM. Andrà bene a chi piacciono le schede potenti ma AMD potrebbe competere senza grossi problemi se portasse alla pari almeno il rapporto performance/watt dato che cambierà processo produttivo ed architettura. Infatti sinceramente speravo che Nvidia facesso uscire prima questo Pascal perché full maxwell sarà probabilmente solo una versione più grossa delle gpu già in giro

un passo alla volta nvidia prima di pascal farà uscire full maxwell, è un discorso economico e di businessplan, li non si sfugge, inoltre non ha tutta questa fretta attualmente ha le vga migliori sotto il profilo performance\watt

Ale55andr0
05-12-2014, 15:50
A breve nuovi driver amd con downsampling, freesync e tante altre novità: http://egmr.net/2014/12/amd-releases-catalyst-omega-drivers-increased-performance-freesync-downsampling/


https://www.youtube.com/watch?v=wb7D-W-QW-8

FroZen
05-12-2014, 16:48
Proverò questo fantomatico downsampling, rimango dell'idea che sia meglio avere un rapporto di 1:1 e non interpolazioni....

mircocatta
05-12-2014, 16:58
Proverò questo fantomatico downsampling, rimango dell'idea che sia meglio avere un rapporto di 1:1 e non interpolazioni....

non è molto differente dal supersampling di amd

Ale55andr0
05-12-2014, 17:09
non è molto differente dal supersampling di amd

parlava di provare il downsampling..di amd. Come fa ad essere non molto differente dal superampling di...AMD, inseriscono inutilmente due funzioni nel pannello di controllo che fanno la stessa cosa? :D inoltre il supersampling AMD non funziona quasi in nessun gioco, provato più volte...il downsampling dovrebbe garantire compatibilità totale, visto che in pratica è lavorare a risoluzione superiore per poi downscalare...teoricamente il supersampling doveva funzionare sempre e comunque visto che non è una cosa trascendentale o che richiede ottimizzazioni in game, invece non funziona quasi mai.... e sta li non si sa perchè :rolleyes:

Ale55andr0
05-12-2014, 17:11
Proverò questo fantomatico downsampling, rimango dell'idea che sia meglio avere un rapporto di 1:1 e non interpolazioni....

è la gpu stessa che riscala, non il roito di scaler del monitor, non si perde alcuna qualità, l'ho già provato quando i driver lo permettevano...si guadagnava solo in pulizia e levigatura dell'immagine senza alcuna perdita di dettaglio o altro

°Phenom°
05-12-2014, 17:23
Il supersampling via driver funziona solo con determinati engine, soprattutto in giochi dx9

Ale55andr0
05-12-2014, 17:31
Il supersampling via driver funziona solo con determinati engine, soprattutto in giochi dx9

infatti ho detto che non funziona quasi mai...:asd: mentre il downsampling (quello VERO) non ha problemi legati a deferred rendering caxxi e mazzi vari, forza una risoluzione e la riscala, fine :)

Capozz
05-12-2014, 21:14
Proverò questo fantomatico downsampling, rimango dell'idea che sia meglio avere un rapporto di 1:1 e non interpolazioni....

Ti dirò, invece funziona molto bene, è l'unica funzionalità che rimpiango della 670 :D
Chiaramente si può usare solo sui giochi vecchi o non molto pesanti perchè l'impatto sulle prestazioni è notevole, però la resa è spettacolare.

mirkonorroz
05-12-2014, 22:05
Dove ho potuto ho sempre usato un supersampling 4x, specialmente in FIFA e in altri giochi piu' vecchi dove funziona ancora.
Non ho mai capito che cosa ci volesse, da parte di AMD, per farlo funzionare anche su titoli piu' recenti. Un po' come il vsync forzato da CCC: l'hanno letteralmente abbandonato. Mi e' sempre sembrato strano che potesse dipendere da gioco a gioco e non fosse una soluzione globale.
Fortuna che in qualche titolo che uso va anche il gedosato :)
Poi c'e' il "mitico" motore milestone nel quale basta impostare la risoluzione nel file config e ti renderizza di tutto: lo scaling lo fa il monitor o la gpu, a scelta.
Sono quelli che scrivono i giochi a dover lasciare libero il settaggio della risoluzione di rendering: poi sono cavoli dei gamers :D

okorop
05-12-2014, 22:21
Dove ho potuto ho sempre usato un supersampling 4x, specialmente in FIFA e in altri giochi piu' vecchi dove funziona ancora.
Non ho mai capito che cosa ci volesse, da parte di AMD, per farlo funzionare anche su titoli piu' recenti. Un po' come il vsync forzato da CCC: l'hanno letteralmente abbandonato. Mi e' sempre sembrato strano che potesse dipendere da gioco a gioco e non fosse una soluzione globale.
Fortuna che in qualche titolo che uso va anche il gedosato :)
Poi c'e' il "mitico" motore milestone nel quale basta impostare la risoluzione nel file config e ti renderizza di tutto: lo scaling lo fa il monitor o la gpu, a scelta.
Sono quelli che scrivono i giochi a dover lasciare libero il settaggio della risoluzione di rendering: poi sono cavoli dei gamers :D

no dai il downsampling è utilissimo, lo aspettavo da tempo per fifa e altri giochi :)


La bomba di Mosca!!!!!!!!!
AMD will manufacture GPUs at Global Foundries
by Hilbert Hagedoorn on: 12/05/2014 12:24 PM | Source | 11 comment(s) ]

In our previous post about 16nm TCSM we've been wondering as to why AMD was not on the 16nm fab list, whereas other players like Nvidia have been named. The answer just came to us though, AMD will manufacture their GPU at Global Foundries. Global Foundries has made great progress claims Devinder Kumar from AMD at an investor meeting.

AMD sold Global Foundries in 2008 to raise cash in difficult times, Kumar stated that they will still fab 'some' products at 20nm and from there on-wards it will move to Finfet-chips. Gobalfoundries is working together with Samsung on 14nm already, Samsung will launch with SoCs based on that fab node next year already.

Finfets have a bigger surface area which helps switching faster for the transistors. Finfet chips are more power efficient, smaller and cheaper to manufacture.

It's unclear of AMD will remain partner of TSMC.

http://www.guru3d.com/news-story/amd-will-manufacture-gpus-at-global-foundries.html

Capozz
05-12-2014, 22:49
no dai il downsampling è utilissimo, lo aspettavo da tempo per fifa e altri giochi :)


La bomba di Mosca!!!!!!!!!
AMD will manufacture GPUs at Global Foundries
by Hilbert Hagedoorn on: 12/05/2014 12:24 PM | Source | 11 comment(s) ]

In our previous post about 16nm TCSM we've been wondering as to why AMD was not on the 16nm fab list, whereas other players like Nvidia have been named. The answer just came to us though, AMD will manufacture their GPU at Global Foundries. Global Foundries has made great progress claims Devinder Kumar from AMD at an investor meeting.

AMD sold Global Foundries in 2008 to raise cash in difficult times, Kumar stated that they will still fab 'some' products at 20nm and from there on-wards it will move to Finfet-chips. Gobalfoundries is working together with Samsung on 14nm already, Samsung will launch with SoCs based on that fab node next year already.

Finfets have a bigger surface area which helps switching faster for the transistors. Finfet chips are more power efficient, smaller and cheaper to manufacture.

It's unclear of AMD will remain partner of TSMC.

http://www.guru3d.com/news-story/amd-will-manufacture-gpus-at-global-foundries.html

Una scelta del genere ha senso: TSMC, per stare dietro ai soc per telefonini (che giustamente rendono e sono abbastanza semplici da produrre) ha lasciato Nvidia e AMD col sedere per terra, prima d'ora non s'era mai visto un processo produttivo "duraturo" come quello a 28nm

okorop
05-12-2014, 22:51
Una scelta del genere ha senso: TSMC, per stare dietro ai soc per telefonini (che giustamente rendono e sono abbastanza semplici da produrre) ha lasciato Nvidia e AMD col sedere per terra, prima d'ora non s'era mai visto un processo produttivo "duraturo" come quello a 28nm

quoto comunque è un po fumosa la cosa, 20 nani da gf per soc, gpu e quant'altro con GF fino a 14 ff nel 2016 per gpu, e prende tsmc per i 16ff dei processori......speriamo che sti 20nani siano buoni :D

siluro85
05-12-2014, 22:56
Bah, è da vedere nel futuro... dietro ai 14 c'è anche samsung oltre ad amd... bisogna vedere cosa riescono a fare con i 20... magari ne fanno una a 20 e la flagship a 14 ff.. fatto sta che sti "omega" mi sa che sono il canto del cigno per le 2xx... anche il nome è indicativo.. ma voglio il Downsampling!!!!!

Catan
06-12-2014, 00:38
Beh ragazzi con il downsampling torniamo davvero quasi al vecchio e "vero" antialiasing della defunta e mai troppo compianta 3dfx

s12a
06-12-2014, 05:11
Un po' di slides apparentemente leakate

http://cdn.overclock.net/7/75/75e8a2c7_OMEGA00.jpeg
http://cdn.overclock.net/7/73/738afec3_OMEGA01.jpeg
http://cdn.overclock.net/1/17/173434fe_OMEGA02.jpeg
http://cdn.overclock.net/3/34/343198fe_OMEGA03.jpeg
http://cdn.overclock.net/4/44/44c0f8ed_OMEGA04-fluid.jpeg
http://cdn.overclock.net/e/e4/e43a3211_OMEGA05-contour.jpeg
http://cdn.overclock.net/2/26/260313ed_OMEGA07-uhd.jpeg
http://cdn.overclock.net/f/f7/f774c24a_OMEGA09-vsr.jpeg
http://cdn.overclock.net/a/a4/a411a6fa_OMEGA10-vsr.jpeg
http://cdn.overclock.net/3/33/33826f1f_OMEGA11-vsr.jpeg
http://cdn.overclock.net/a/a6/a6b770be_OMEGA12-freesync.jpeg
http://cdn.overclock.net/5/54/541f62ec_OMEGA13-5k.jpeg
http://cdn.overclock.net/b/b4/b47d6f9c_OMEGA15-perf1.jpeg
http://cdn.overclock.net/5/54/54698d8c_OMEGA15-perf2.jpeg
http://cdn.overclock.net/d/d3/d3148dfb_OMEGA15-perf3.jpeg
http://cdn.overclock.net/d/de/de77deda_OMEGA16-full-list.jpeg

Ale55andr0
06-12-2014, 12:02
si, ma mica delle nuove vga :fagiano:

FroZen
06-12-2014, 14:04
Grande s12a :sofico:

Molto, moooolto interessante

The_SaN
06-12-2014, 17:20
Se mantengono le promesse, gran bei driver davvero.

°Phenom°
06-12-2014, 19:05
News sulla 390x: http://wccftech.com/amd-fiji-xt-r9-390x-shipping/

Ale55andr0
06-12-2014, 21:03
interessante :)

FroZen
07-12-2014, 13:54
Quindi 20nm per ihg end gpu e apu? Ottimo...

Athlon 64 3000+
07-12-2014, 15:30
Io ci andrei con i piedi di piombo su quello che riporta Wccftech perchè quasi sempre i rumor che riporta sono cavolate.
E' vero che io stesso in passato ho riportato loro notizie per ravvivare la discussione,ma ho smesso perchè insieme a Fudzilla non ci beccano quasi mai.
Su Bitsandchips hanno detto che le prossime GPU della serie R9/R7 3xx saranno a 28 nm e i 20 nm saranno usati per alcuni prodotti tipo il progetto skybridge.

okorop
07-12-2014, 16:19
Io ci andrei con i piedi di piombo su quello che riporta Wccftech perchè quasi sempre i rumor che riporta sono cavolate.
E' vero che io stesso in passato ho riportato loro notizie per ravvivare la discussione,ma ho smesso perchè insieme a Fudzilla non ci beccano quasi mai.
Su Bitsandchips hanno detto che le prossime GPU della serie R9/R7 3xx saranno a 28 nm e i 20 nm saranno usati per alcuni prodotti tipo il progetto skybridge.

anche guru 3d dice le stesse cose, siamo già a due, link della notizia riportata nella pagina a fianco ieri l'altro :)

enryco
08-12-2014, 12:05
Io ci andrei con i piedi di piombo su quello che riporta Wccftech perchè quasi sempre i rumor che riporta sono cavolate.

E' vero che io stesso in passato ho riportato loro notizie per ravvivare la discussione,ma ho smesso perchè insieme a Fudzilla non ci beccano quasi mai.

Su Bitsandchips hanno detto che le prossime GPU della serie R9/R7 3xx saranno a 28 nm e i 20 nm saranno usati per alcuni prodotti tipo il progetto skybridge.







E in genere bitsandchips ci azzeccato.... sopra tutto lato and

Dimitri-
08-12-2014, 12:37
Tanto usciranno minimo a marzo-aprile..grande amd :sofico:, che concorrenza.

appleroof
08-12-2014, 12:42
Io ci andrei con i piedi di piombo su quello che riporta Wccftech perchè quasi sempre i rumor che riporta sono cavolate.
E' vero che io stesso in passato ho riportato loro notizie per ravvivare la discussione,ma ho smesso perchè insieme a Fudzilla non ci beccano quasi mai.
Su Bitsandchips hanno detto che le prossime GPU della serie R9/R7 3xx saranno a 28 nm e i 20 nm saranno usati per alcuni prodotti tipo il progetto skybridge.

E in genere bitsandchips ci azzeccato.... sopra tutto lato and

d'accordo che wccf è un fudzilla secondo me...però alcune volte ha citato proprio bitsandchips tra le sue fonti ( es: http://wccftech.com/amd-kaveri-refresh-coming-2015-carrizo-apu-mobile/ ) :D :D

Ren
08-12-2014, 17:13
AMD ha in programma di usare il 20nm di GF per i SOC delle console, quindi non mi sembra impensabile che lo usi pure sulle discrete.
Il 20nm gli garantirebbe il raddoppio della densità ed un 15-20% di riduzione dei consumi.

Ho il sentore che AMD non stravolgerà l'architettura per adesso. Con il 20nm un clock conservativo e le HBM può benissimo tenere il passo finché nvidia non migrerà al 16FF.

smoicol
08-12-2014, 17:33
AMD ha in programma di usare il 20nm di GF per i SOC delle console, quindi non mi sembra impensabile che lo usi pure sulle discrete.
Il 20nm gli garantirebbe il raddoppio della densità ed un 15-20% di riduzione dei consumi.

Ho il sentore che AMD non stravolgerà l'architettura per adesso. Con il 20nm un clock conservativo e le HBM può benissimo tenere il passo finché nvidia non migrerà al 16FF.

non credo, parliamo solo di rumors, ci vogliono i fatti e ad oggi non c'è nemmeno una slide

Dimitri-
08-12-2014, 23:37
AMD ha in programma di usare il 20nm di GF per i SOC delle console, quindi non mi sembra impensabile che lo usi pure sulle discrete.
Il 20nm gli garantirebbe il raddoppio della densità ed un 15-20% di riduzione dei consumi.

Ho il sentore che AMD non stravolgerà l'architettura per adesso. Con il 20nm un clock conservativo e le HBM può benissimo tenere il passo finché nvidia non migrerà al 16FF.

tu dici? ripeto, nvidia con il chippone puo' fare quel che vuole. E amd non terrà di certo il passo. E comunque stiamo parlando di un ritardo assurdo, cioè nvidia è da settembre che vende schede a valanga..di amd non c'è traccia, mai vista una situazione simile..

amon.akira
08-12-2014, 23:56
vabbe che significa amd è da novembre 2013 che vende 290, quindi?e pensa che la mia custom me la so dovuta prendere a marzo perchè i minatori facevano piazza pulita di 290 :P

siluro85
09-12-2014, 01:28
Sì ma lascia stare... credo sia qui solo per far flame...

francisco9751
09-12-2014, 05:37
Sì ma lascia stare... credo sia qui solo per far flame...

allora non sono solo io che ho avuto questa impressione :D

tapatalked with LG G2

HadesSaint
09-12-2014, 07:28
ragazzi ho letto dei nuovi driver catalyst omega...che ne pensate???

FroZen
09-12-2014, 08:30
Vendono schede a valangaaaaaaaaaa la concorrenzaaaaaaaaaaaaa

:asd:

mircocatta
09-12-2014, 08:42
parlava di provare il downsampling..di amd. Come fa ad essere non molto differente dal superampling di...AMD, inseriscono inutilmente due funzioni nel pannello di controllo che fanno la stessa cosa? :D inoltre il supersampling AMD non funziona quasi in nessun gioco, provato più volte...il downsampling dovrebbe garantire compatibilità totale, visto che in pratica è lavorare a risoluzione superiore per poi downscalare...teoricamente il supersampling doveva funzionare sempre e comunque visto che non è una cosa trascendentale o che richiede ottimizzazioni in game, invece non funziona quasi mai.... e sta li non si sa perchè :rolleyes:

lo so lo so :D

da come scriveva Frozen, sembrava che non si fidasse del downsampling..e volevo solo dire è paragonabile, come risultato qualitativo, al supersampling, quindi apprezzabile.. anche perchè come dici tu, è compatibile su tutti i titoli mentre il supersampling era supportato da davvero pochi giochi

FroZen
09-12-2014, 08:46
La mia era solo una ovvietà forse.... Ovvero che preferisco avere un rapporto 1:1 pixel monitor / game che non interpolazioni.....ma se la seconda viene gratis e non blurra....ben venga!!! Anche perché io ci rimarrò ancora un po al fullhd....

mircocatta
09-12-2014, 08:50
La mia era solo una ovvietà forse.... Ovvero che preferisco avere un rapporto 1:1 pixel monitor / game che non interpolazioni.....ma se la seconda viene gratis e non blurra....ben venga!!! Anche perché io ci rimarrò ancora un po al fullhd....

non blurra ma... non è affatto gratis :asd:


allora, non mi sono informato sui thread ufficiali, questi nuovi driver omega hanno migliorato le performance o no? ho letto sui commenti dell'articolo di hwup che miglioramenti prestazionali purtroppo non si sono visti..conferme?

okorop
09-12-2014, 08:59
non blurra ma... non è affatto gratis :asd:


allora, non mi sono informato sui thread ufficiali, questi nuovi driver omega hanno migliorato le performance o no? ho letto sui commenti dell'articolo di hwup che miglioramenti prestazionali purtroppo non si sono visti..conferme?
http://www.techpowerup.com/reviews/AMD/Catalyst_14.12_Performance/5.html
;)

mircocatta
09-12-2014, 09:03
http://www.techpowerup.com/reviews/AMD/Catalyst_14.12_Performance/5.html
;)

bene

però potevano metterci una gtx 970 a confronto, per vedere ora le differenze con driver aggiornati da ambe le parti

Free Gordon
09-12-2014, 10:36
Mi sembra che stiano andando nella direzione giusta a livello di software e marketing.

Ora attendiamo Fiji per giudicare l'hw vero e proprio...

Ren
09-12-2014, 12:38
Pare che apple si sia aggiudicata anche i 16FF di TSMC. La vedo dura per le GPU PC... :doh:

Dimitri-
09-12-2014, 12:46
Sì ma lascia stare... credo sia qui solo per far flame...

Flame? solo perchè dico la verità?

Certo che qui non si può proprio dire niente contro amd..poi uno si lamenta dei prezzi alti di nvidia.

°Phenom°
09-12-2014, 13:03
Si ma abbiamo capito dimitri, é da mesi che ripeti le stesse cose eh :asd:

siluro85
09-12-2014, 13:07
Ma ti leggi? Dai già sentenze di morte su cose che devono ancora accadere ed ogni tuo Intervento è per denigrare amd tessendo le lodi di nvidia. E se dovesse succedere ciò che predichi tu in ogni intervento, allora si che con il monopolio di nvidia avremmo tutti le tasche vuote. Ma il mondo è bello perchè è vario!

okorop
09-12-2014, 13:31
Pare che apple si sia aggiudicata anche i 16FF di TSMC. La vedo dura per le GPU PC... :doh:

è per questo che AMD si affiderà a gf per le gpu :D

Ren
09-12-2014, 13:45
è per questo che AMD si affiderà a gf per le gpu :D

Appunto, i rumor sui 20nm stanno prendendo sostanza.

I 16nm (TSMC) saranno disponibili per il q3/q4 2015. Apple di sicuro si prenderà tutta la produzione almeno fino al Q2/2016.

Nvidia dovrà per forza di cose scavalcare qualcomm ed aggiudicarsi almeno una fetta della produzione.

Ad AMD conviene evitare TSMC per i processi Premium.

Einhander
09-12-2014, 14:20
-edit-

sbagliato thread

The_SaN
09-12-2014, 22:07
Flame? solo perchè dico la verità.Guarda che diventa verità solo se si avvera. Stai parlando di futuro, quindi ben lontano da qualcosa che si avvicini alla "verità".
Le chiamerei supposizioni, ma preferisco definirle speranze (tue).

FroZen
10-12-2014, 13:27
E' vittima inconsapevole della scuola Goebbels :asd:

Allora ste 24nm escono o cosa?!?!?! (facciamo la media :asd: ) Non vedo l'ora di vedermi la 290 nuova che ancora non ho ricevuto svalutarsi come la borsa greca ieri.....fra l'altro l'ho presa da uno shop che non aderisce al bundle dei giochi :Prrr: furrrrrrrrbo, cosa non si fa per avere una HIS, maremma maiala.....

Attiasss
10-12-2014, 13:46
Ragazzi, secondo voi, secondo le vostre stime e nient'altro che queste, quando sarà possibile giocare in 4K in modo decente con una scheda video singola?
Per adesso siamo lontani. So che è una risoluzione che si sta imponendo veramente soltanto adesso, ma ho già potuto apprezzare il salto avanti e non vedo l'ora di upgradare.
Al momento, a mio parere, non credo che convenga andare di SLI/Crossfire perchè troppo dispendioso. Ho anche visto benchmark in cui le 970 sono appena sufficienti a dare delle prestazioni decenti. Il prezzo minimo di una 970 singola è di 350 euro :D

Snickers
10-12-2014, 14:04
Ragazzi, secondo voi, secondo le vostre stime e nient'altro che queste, quando sarà possibile giocare in 4K in modo decente con una scheda video singola?
Per adesso siamo lontani. So che è una risoluzione che si sta imponendo veramente soltanto adesso, ma ho già potuto apprezzare il salto avanti e non vedo l'ora di upgradare.
Al momento, a mio parere, non credo che convenga andare di SLI/Crossfire perchè troppo dispendioso. Ho anche visto benchmark in cui le 970 sono appena sufficienti a dare delle prestazioni decenti. Il prezzo minimo di una 970 singola è di 350 euro :D

IMHO, con i 16nm FinFet. :read:

Attiasss
10-12-2014, 14:20
E sareeebbe?

mircocatta
10-12-2014, 14:23
E sareeebbe?

la prossima generazione che non vedremo nel breve termine

il salto da 28nm a 16nm è molto grande, si parla di prestazioni probabilmente doppie delle attuali a parità di consumo, perchè permettono frequenze maggiori e numero maggiore di Stream processor nei chip

Ale55andr0
10-12-2014, 15:43
se per giocare in 4k a gpu singola si intende con tutto al max e AA imho nemmeno con le prossime top a 16nm sarà possibile, se si vogliono i 60fps solidi con i titoli graficamente più elaborati. Già oggi con queste premesse manco tutti i titoli possono farlo a 1080 :asd:

Dimitri-
10-12-2014, 15:49
Ma ti leggi? Dai già sentenze di morte su cose che devono ancora accadere ed ogni tuo Intervento è per denigrare amd tessendo le lodi di nvidia. E se dovesse succedere ciò che predichi tu in ogni intervento, allora si che con il monopolio di nvidia avremmo tutti le tasche vuote. Ma il mondo è bello perchè è vario!

Nvidia è da settembre che vende la gtx980 a 550€..se ci fosse un minimo di concorrenza, il prezzo scenderebbe di almeno 100€. Invece amd preferisce regalare le sue gpu, ottima mossa devo dire.

ok hai ragione tu comunque, denigrare amd solo perchè oggettivamente non ha niente da ottobre del 2013..

FroZen
10-12-2014, 16:03
Manda il cv al marketing AMD, così potrai esporre il tuo genio per vendere delle 290x a 600 euri così potrai finalmente prendere le 980 al prezzo che ti puoi permettere, no?... Io me la prenderei con chi compra le 980 a questi prezzi allora, non si fa!!! Bisogna farle svalutare sullo scaffale :asd:

belta
10-12-2014, 16:09
Manda il cv al marketing AMD, così potrai esporre il tuo genio per vendere delle 290x a 600 euri così potrai finalmente prendere le 980 al prezzo che ti puoi permettere, no?... Io me la prenderei con chi compra le 980 a questi prezzi allora, non si fa!!! Bisogna farle svalutare sullo scaffale :asd:

rotfl :rotfl:

FroZen
10-12-2014, 16:20
Mi sono preso una 290 4gb custom della his a 260 euri,inudibile, occabile alla morte.... Sai che me ne faccio di una 980 al doppio? Ecco, bravo....

appleroof
10-12-2014, 16:22
Mi sono preso una 290 4gb custom della his a 260 euri,inudibile, occabile alla morte.... Sai che me ne faccio di una 980 al doppio? Ecco, bravo....

Ma non avevi detto di aver preso due 970? :mbe: mi pareva strano :asd:

Attiasss
10-12-2014, 16:38
Mh. Mi sa che terrò la mia 270X per un bel pezzo.

Per giocare attualmente ci vuole obbligatoriamente un unione tra schede video di fascia alta, alimentatore consono e in grado di dare massima stabilità oltre che erogazione, monitor (ho visto che si attestano sui 500 euro :D ) che supporti la risoluzione ed un processore che ovviamente non dovrà fare alcun particolare collo di bottiglia.

Troppo per le tasche degli economicamente esili che non hanno un lavoro fisso o che comunque hanno altre spese :D

FroZen
10-12-2014, 16:47
Ma non avevi detto di aver preso due 970? :mbe: mi pareva strano :asd:

In un prodigy itx sarebbe stata dura farcele stare :stordita:

Avevo segnalato che se c'era qualcuno di bg qui, magari aveva ordinato una delle due 970 che avevo visto dal pick and pay di eprice...

appleroof
10-12-2014, 17:07
In un prodigy itx sarebbe stata dura farcele stare :stordita:

Avevo segnalato che se c'era qualcuno di bg qui, magari aveva ordinato una delle due 970 che avevo visto dal pick and pay di eprice...

ahhhhhhhh.....dal tenore del messaggio non si capiva :fagiano:


cmq gran bella scheda la His a quel prezzo, ottimo acquisto ;)

Athlon 64 3000+
10-12-2014, 18:21
Se nella fascia dei 200-250 euro lanciassero Tonga XT con 2048 SP bus a 256 bit e memorie gddr5 molto spinte mi andrebbe benissimo.

killeragosta90
10-12-2014, 18:29
In un prodigy itx sarebbe stata dura farcele stare :stordita:

Avevo segnalato che se c'era qualcuno di bg qui, magari aveva ordinato una delle due 970 che avevo visto dal pick and pay di eprice...

Ci hai involontariamente trollati tutti :fagiano: :D

appleroof
10-12-2014, 18:53
Ci hai involontariamente trollati tutti :fagiano: :D

? :Perfido: :D

killeragosta90
10-12-2014, 19:05
? :Perfido: :D
:asd:

elijahk
10-12-2014, 20:33
scusate l'OT, ma non ho potuto fare a meno di associare le vostre icone a faccina con le immagini del profilo che avete ;)

FroZen
10-12-2014, 21:39
Lol siete stati vittime del mio analfabetismo di ritorno....

Con la sfiga che mi pervade mi arriva un asic 60 :asd: ma basta e avanza x asfaltare ego :fagiano:

egounix
10-12-2014, 21:50
Lol siete stati vittime del mio analfabetismo di ritorno....

Con la sfiga che mi pervade mi arriva un asic 60 :asd: ma basta e avanza x asfaltare ego :fagiano:

Basta la mia 750 ti a metterti sotto :fagiano:

appleroof
11-12-2014, 11:06
La posto, più che altro per le parole del tipo AMD

wccftech.com/amds-excited-graphics-refresh-2015-feature-finfet/

FroZen
11-12-2014, 12:36
Basta la mia 750 ti a metterti sotto :fagiano:

Ciccio, per mettermi sotto basta un invito a cena... :eek:

Catan
11-12-2014, 12:58
Se nella fascia dei 200-250 euro lanciassero Tonga XT con 2048 SP bus a 256 bit e memorie gddr5 molto spinte mi andrebbe benissimo.

Direi che se abbassano la fascia a 200€ per una primizia del genere, smollo la vga 280 liscia e la prendo al volo (Per quanto questa vtx3d o come azz si scrive, non mi pare male, senza toccare i voltaggi riesco a benchare a 1200 di core e 1450 di memorie...)

Vul
12-12-2014, 13:05
Direi che se abbassano la fascia a 200€ per una primizia del genere, smollo la vga 280 liscia e la prendo al volo (Per quanto questa vtx3d o come azz si scrive, non mi pare male, senza toccare i voltaggi riesco a benchare a 1200 di core e 1450 di memorie...)

OT

Se fanno un APU che vada il 30-40 % più veloce graficamente di Kaveri è l'ora di farmi una steambox in salotto sperando diminuiscano il tdp.

Ale55andr0
12-12-2014, 13:26
Mi sono preso una 290 4gb custom della his a 260 euri,inudibile, occabile alla morte.... Sai che me ne faccio di una 980 al doppio? Ecco, bravo....

io a sto punto avrei aspettato le nuove, anche se certo hai fatto un ottimo affare

Vul
12-12-2014, 13:28
io a sto punto avrei aspettato le nuove, anche se certo hai fatto un ottimo affare

Ma tu son anni che aspetti sempre o sbaglio? :p

Non giochi mai?

Attiasss
12-12-2014, 13:36
Aspettare per le schede video è un dramma: quando escono le nuove schede video costano un botto, di solito restano le vecchie serie al prezzo di prima e le nuove a prezzi esorbitanti, poi andando avanti le nuove svalutano ma quando questo succede saremo vicini ad una nuova ondata di nuovi prodotti.

Aspettare, quindi, a mio personalissimo parere, è sempre e comunque inutile, a meno che non si abbiano i soldi da spendere ad una nuova e fresca scheda video appena affacciatasi sul mercato :D

Vul
12-12-2014, 14:05
Aspettare per le schede video è un dramma: quando escono le nuove schede video costano un botto, di solito restano le vecchie serie al prezzo di prima e le nuove a prezzi esorbitanti, poi andando avanti le nuove svalutano ma quando questo succede saremo vicini ad una nuova ondata di nuovi prodotti.

Aspettare, quindi, a mio personalissimo parere, è sempre e comunque inutile, a meno che non si abbiano i soldi da spendere ad una nuova e fresca scheda video appena affacciatasi sul mercato :D

Ma non è vero dai..Avevamo le 780 a 240 un mese fa..Le 290 a 50 ora..Le 970 a 300.

Sono schede dal rapporto prestazioni/prezzo fenomenale e che permettono di giocare in scioltezza a 1440p e volendo anche 4k se si rinuncia ad un poco di aliasing..

L'unica fascia che non mi piace è quella sotto ai 250 euro dove i prodotti mi sembrano tutti un po poco competitivi e datati.

FroZen
12-12-2014, 14:14
io a sto punto avrei aspettato le nuove, anche se certo hai fatto un ottimo affare

La vedo dura giocare come intendo io con una hd2500 in fullhd..... Spero arrivi settimana prossima, per il fullhd@60 basta e avanza....

Ale55andr0
14-12-2014, 01:02
Ma tu son anni che aspetti sempre o sbaglio? :p

Non giochi mai?

"aspetto"... con una 290 trix oc presa mesi fa
...e ci sto finendo far cry 4 :asd:

ma appunto, allora non c'era proprio nulla da aspettare, solo scegliere fra 290 e 780 dopo che la 7970 mi ha lasciato a piedi, la serie 900 non era manco nei sogni di nessuno :asd:
OGGI non comprerei affatto, perchè reputo assurdo farlo: da un lato con un chip nvidia di fascia media venduto a prezzi assurdi (la 680 ehm...volevo dire la 980) dall'altro perchè la concorrenza non ha ancora presentato prodotti che (de)stabilizzino il mercato...e in più ci sono i nuovi pp che promettono molto, troppo bene, per prendere schede a 28nani da centinaia di euro...per quanto bene vadano

Attiasss
14-12-2014, 12:13
Ma non è vero dai..Avevamo le 780 a 240 un mese fa..Le 290 a 50 ora..Le 970 a 300.

Sono schede dal rapporto prestazioni/prezzo fenomenale e che permettono di giocare in scioltezza a 1440p e volendo anche 4k se si rinuncia ad un poco di aliasing..

L'unica fascia che non mi piace è quella sotto ai 250 euro dove i prodotti mi sembrano tutti un po poco competitivi e datati.

Il 1440p dovrebbe essere la risoluzione da giocare adesso, i tempi sono maturi, ma il 4K è quello che più di tutti attira l'attenzione ultimamente. In ogni caso aspettare è quasi sempre una boiata. Conosco gente che non fa altro che rinviare perchè vuole sempre ciò che viene dopo. Così un PC da gioco o chissà per cos'altro non prenderà mai vita.

Personalmente aspetterò per passare ad un monitor 4K, nuova generazione di scheda video abbastanza potente da lavorare da sola e con anche abbastanza vram. E poi chi lo sa, magari anche un lettore bluray ed un sistema audio 5.1 :D Per adesso ho deciso di prendere una 270X per sfruttare bene bene il mio PC fino al prossimo cambio :)

Athlon 64 3000+
14-12-2014, 15:32
Riguardo il prendere adesso una r9 2xx oppure aspettare la nuova generazione di GPU AMD è molto soggettiva e dipende dall'esigenza della singola utenza.
Quindi prendere una R9 290 sotto i 300 euro non è sbagliato.
Nel mio caso per esempio che possiedo una R9 270x da 2gb dovrei aspettare la nuova generazione per aver una salto prestazionale decente,ma con il fatto che ho un monitor full hd e posseggo un'A10-7850k andare a prendere una eventuale r9 3xx che sia potente quanto una r9 290 o superiore potrebbe essere uno spreco.
Ho avuto modo di provare di recente sul mio pc sia una HD 7970 che una r9 290.
Con la prima scheda dopo diversi giorni di gioco a BF4 in full hd con tutto su High sono riuscito a notare un po' di differenza di fps,mente con la r9 290(avuto per un solo giorno)avevo gli stessi fps della 7970 e quindi risulta sprecata.
Quindi per il 2015( complice il fatto che Carrizo non uscirà per desktop e il fatto che aspetto Zen per il cambio di piattaforma)un eventuale Tonga XT (che è la GPU nell'Imac)sarà molto interessante da prendere perchè avrà la potenza giusta(che dovrebbe essere più veloce della HD 7970 Ghz Edition)da abbinare al mio 7850k oltre alle novità architetturali introdotte con Tonga.

Dimitri-
14-12-2014, 16:54
"aspetto"... con una 290 trix oc presa mesi fa
...e ci sto finendo far cry 4 :asd:

ma appunto, allora non c'era proprio nulla da aspettare, solo scegliere fra 290 e 780 dopo che la 7970 mi ha lasciato a piedi, la serie 900 non era manco nei sogni di nessuno :asd:
OGGI non comprerei affatto, perchè reputo assurdo farlo: da un lato con un chip nvidia di fascia media venduto a prezzi assurdi (la 680 ehm...volevo dire la 980) dall'altro perchè la concorrenza non ha ancora presentato prodotti che (de)stabilizzino il mercato...e in più ci sono i nuovi pp che promettono molto, troppo bene, per prendere schede a 28nani da centinaia di euro...per quanto bene vadano

i nuovi pp promettono molto, ma l'attesa? non è neanche certo che i 20nm usciranno sulle gpu amd, nvidia invece passerà direttamente ai 16nm nel 2016. Cioè, oggi sono queste le schede sul mercato, e fidati che nvidia fino ad almeno settembre 2015 non presenterà nessuna gpu nuova. Forse una Titan 2 da 1000€ entro maggio, ma non mi sembra molto conveniente :asd:

Amd invece credo che presenterà le schede a marzo-aprile 2015.

Vul
14-12-2014, 18:43
Il 1440p dovrebbe essere la risoluzione da giocare adesso, i tempi sono maturi, ma il 4K è quello che più di tutti attira l'attenzione ultimamente.)

E dove sono pannelli di dimensioni decenti e prestazioni decendi 1440p o 4k?

La maggior parte del mercato pc gioca online a giochi veloci e che richiedono di avere tutto lo schermo sott'occhio per cui anche i 24" sono quasi troppo grandi.

I professionisti di giochi come LoL o Dota 2 giocano addirittura in windowed, quelli di CS:GO giocano ancora su monitor 4:3 più adatti agli fps dei 16:9.

A fare il grosso del pc gaming sono i giocatori di moba, wow, hearthstone, cs:go, e per questi giochi non puoi essere competitivo se devi ruotare gli occhi da una parte all'altra dello schermo e non tutti hanno spazio per mettere monitor da 27,28,30 pollici sulla scrivania e poi metterli ad un metro di distanza.

Per me ben vengano i 1440p, o i 4k, ma finchè il mercato monitor non offrirà prodotti decenti per i gamer a queste risoluzioni con tagli di dimensioni flessibili e non solo ultra il mercato rimarrà ancorato ai 1080p.

Tra l'altro steam ci dice che solo il 35 % dell'utenza gioca a 1080p, o di più, la gran parte dell'utenza gioca a risoluzioni minori.

okorop
14-12-2014, 18:54
i nuovi pp promettono molto, ma l'attesa? non è neanche certo che i 20nm usciranno sulle gpu amd, nvidia invece passerà direttamente ai 16nm nel 2016. Cioè, oggi sono queste le schede sul mercato, e fidati che nvidia fino ad almeno settembre 2015 non presenterà nessuna gpu nuova. Forse una Titan 2 da 1000€ entro maggio, ma non mi sembra molto conveniente :asd:

Amd invece credo che presenterà le schede a marzo-aprile 2015.

AMD avrà schede video a 20nm, la 380x andrà come una 980 costando 300 euro dai bench pubblicati un po di post fa :sofico: :sofico: :sofico: :sofico:

NODREAMS
14-12-2014, 19:33
La 380x dovrebbe essere come una 290x no???

FroZen
14-12-2014, 20:19
Costera sicuramente piu di una 970 se non al pari di una 980 se le prestazioni sono quelle....

elijahk
14-12-2014, 20:41
La 380x dovrebbe essere come una 290x no???

se i rumor sono veri, è parecchio più potente di una 290x

davo30
15-12-2014, 11:52
Manda il cv al marketing AMD, così potrai esporre il tuo genio per vendere delle 290x a 600 euri così potrai finalmente prendere le 980 al prezzo che ti puoi permettere, no?... Io me la prenderei con chi compra le 980 a questi prezzi allora, non si fa!!! Bisogna farle svalutare sullo scaffale :asd:

Perchè, serve un CV per entrare a far parte del ramo marketing di AMD?
Pensavo che bastasse il pollice opponibile :D

http://fireuser.com/images/uploads/Whats-Your-Superpower.jpg


PUAHAHAHAH WHAT IS YOUR SUPERPOWER!!!! :cry:

siluro85
15-12-2014, 12:20
Ma LOL!

Fantomatico
15-12-2014, 12:37
AMD Mi sta sempre più simpatica. :D :D :p

Trokji
15-12-2014, 14:07
speriamo non torni il marketing stile bulldozer però..:muro: :D
A me andrebbe bene una scheda da 50W di TDP che andasse come la 280x, quello sarebbe un bel passo in avanti rispetto anche all'efficienza di maxwell.. ma penso che a questo giro sia prematuro :fagiano:

davo30
15-12-2014, 14:14
AMD Mi sta sempre più simpatica. :D :D :p

Anche a me sta simpatica e tifo moltissimo per lei. Dopo anni di Radeon ho voluto provare il lato verde con cui mi trovo bene, ma tornassi indetro mi sarei sparato una 270x invece della 660. Ma cio no significa che debba continuare a fare queste figure barbine. Cito 3 perle AMD 2014
1)ifitcanreach, video trollata
2)slide presentazione firepro india (immagine fatta con paint o poco ci manca)
3)fumetto (simpatico ma a dir poco imbarazzante)
Detto questo, era uscito qualche tempo fa che la fascia alta (380x/390/390x) sarebbe stata a 28nm, mentre invece il resto della serie sarebbe stato a 20nm a causa perche piu adatto a bassi consumi. Mi confermate?

siluro85
15-12-2014, 14:32
Eh eh pretendi troppo ragazzo.. si sapesse...

Trokji
15-12-2014, 14:44
dalle indiscrezioni che ho visto online pare 16% in più della 980 gtx a 2560 con un consumo superiore di 12W. Se fosse così nulla di rivoluzionario però sarebbe vero che terrebbe il passo, migliorando di poco quando visto con la 980 gtx e quindi sarebbe preferibile per quelli che vogliono le prestazioni. Però potrebbe essere la 380x e non 390x. Comunque vediamo cosa esce fuori in realtà :stordita:

Mister D
15-12-2014, 19:58
dalle indiscrezioni che ho visto online pare 16% in più della 980 gtx a 2560 con un consumo superiore di 12W. Se fosse così nulla di rivoluzionario però sarebbe vero che terrebbe il passo, migliorando di poco quando visto con la 980 gtx e quindi sarebbe preferibile per quelli che vogliono le prestazioni. Però potrebbe essere la 380x e non 390x. Comunque vediamo cosa esce fuori in realtà :stordita:

Ciao,
scusa ma te cosa intendi per rivoluzionario? No perché se quei dati fossero veri quella scheda consumerebbe il 30% in meno della 290x (197 vs 279) e andrebbe il 30% in più (65 vs 50), se non è un mezzo miracolo contando che forse è sullo stesso pp.
Anche se fosse a 20 nm sarebbe cmq molto buono considerando che al passaggio dai 40 nm ai 28 nm la 7970 consumava poco di più (circa il 4%) e andava mediamente il 25%-30% (con punto fino al 40%). Per cui se ora fosse che al passaggio dai 28 nm ai 20 nm sempre planari si riuscisse a ottenere quegli incrementi prestazionali con quel risparmio energetico sarebbero dei gran bei risultati.
I dati vecchi sono presi da qua:
http://www.hwupgrade.it/articoli/skvideo/3084/amd-radeon-hd-7970-per-la-prima-volta-a-28-nanometri_4.html
EDIT: nell'ultima pagina della recensione non avevo visto che c'era la media dei loro test (+22,8% 2560 e +19,3% in fullhd).

Dimitri-
15-12-2014, 20:32
AMD avrà schede video a 20nm, la 380x andrà come una 980 costando 300 euro dai bench pubblicati un po di post fa :sofico: :sofico: :sofico: :sofico:

con quanti mesi di ritardo? ci rendiamo conto che nvidia e' da settembre che ha campo libero?

a fine anno prossimo con il gm200 vedremo altre gpu da 700€ senza concorrenza.. non vedo cosa ci sia da esultare

Trokji
15-12-2014, 20:50
Non rivoluzionario rispetto a maxwell intendevo, mentre certo sarebbe rivoluzionario rispetto ad Hawaii, se i dati fossero quelli andrebbe come performance/watt da poco peggio a poco meglio di maxwell, quindi non sarebbe che tenere il passo con la concorrenza (facendo un po' di pressione sui prezzi ed in questo caso sulla fascia alta si spera) ma non un vero rilancio apparentemente in grado di surclassare la concorrenza come quando è uscito maxwell che si è visto raddoppiare praticamente il rapporto performance/watt da un giorno all'altro

FroZen
15-12-2014, 21:08
http://www.gifsforum.com/images/gif/omg/grand/25697554_omg_reaction_gif.gif

ANCORA?! Dimitri bastaaaaaaaaaa

siluro85
15-12-2014, 21:23
Ahahahahah non volevo farlo io altrimenti sembrava una crociata! :D

Free Gordon
15-12-2014, 22:59
con quanti mesi di ritardo? ci rendiamo conto che nvidia e' da settembre che ha campo libero?
a fine anno prossimo con il gm200 vedremo altre gpu da 700€ senza concorrenza.. non vedo cosa ci sia da esultare


Non esultare. :D

amon.akira
16-12-2014, 00:01
Non esultare. :D

capitelo, per me si lamenta perchè senza l ati di turno le nvidia a 700euro so dure da digerire, almeno sa che con amd scendono un po anche i prezzi nvidia, per questo è nervoso verso amd e se non si sbriga con queste 390x 20nm +30% non può prendere una 980 a pari prezzo XD

Vul
16-12-2014, 01:50
con quanti mesi di ritardo? ci rendiamo conto che nvidia e' da settembre che ha campo libero?

a fine anno prossimo con il gm200 vedremo altre gpu da 700€ senza concorrenza.. non vedo cosa ci sia da esultare

Si e nvidia ci ha messo un anno a rispondere alla serie 290.

A volte sembra che avete iniziato a seguire il mercato hardware da ieri.

Vul
16-12-2014, 01:52
Non rivoluzionario rispetto a maxwell intendevo, mentre certo sarebbe rivoluzionario rispetto ad Hawaii, se i dati fossero quelli andrebbe come performance/watt da poco peggio a poco meglio di maxwell, quindi non sarebbe che tenere il passo con la concorrenza (facendo un po' di pressione sui prezzi ed in questo caso sulla fascia alta si spera) ma non un vero rilancio apparentemente in grado di surclassare la concorrenza come quando è uscito maxwell che si è visto raddoppiare praticamente il rapporto performance/watt da un giorno all'altro

i leak sicuramente erano di un esemplare non ultimato e driver non ottimizzati.

The_SaN
16-12-2014, 02:08
Giuro che dimitri mi ricorda l'utente che ha Foglia Morta in firma.
I compagni di lunga data sanno chi è.

Foglia Morta
16-12-2014, 04:55
Giuro che dimitri mi ricorda l'utente che ha Foglia Morta in firma.
I compagni di lunga data sanno chi è.

Quella gente non muore mai... nei bookmark ne avrò collezionati 40 o 50 di cloni di fanboy bannati ( perchè non tutti li mettevo nel bookmark , era così tanto per ). Poi il tempo passa e con esso la voglia di starci dietro. Basterebbe ignorarli... e a replicare ai loro post resterebbero solamente i fanboy come loro.

Lanzus
16-12-2014, 07:50
con quanti mesi di ritardo? ci rendiamo conto che nvidia e' da settembre che ha campo libero?

a fine anno prossimo con il gm200 vedremo altre gpu da 700€ senza concorrenza.. non vedo cosa ci sia da esultare

Una 380x presuppone l'esistenza di una 390 e di una 390X. Se i leak fossero veritieri la 980 sarebbe asfaltata e pure alla grande. Quindi ? Dove sarebbe il ritardo ? Ora, le critiche e le osservazioni ci stanno, le trollate no. Io sono un simpatizzante Nvidia ma do a cesare quel che è di cesare. SE (ed è un SE grosso come una casa) AMD riuscisse a tirare fuori una 380 di quel calibro sarebbe una figata. Quando la concorrenza si accende, i prezzi scendono e ci guadagnamo tutti.

mircocatta
16-12-2014, 08:00
con quanti mesi di ritardo? ci rendiamo conto che nvidia e' da settembre che ha campo libero?

e da novembre 2013 era AMD che aveva campo libero con schede pari potenza alla concorrenza ma che costavano 150€ in meno, e in gpgpu asfaltavano le verdi
e parliamo di quasi un anno
come vedi è una ruota che gira

Vul
16-12-2014, 11:09
a volte sembra che la gente tifi amd solo per vedere i prezzi nvidia calare :asd:

mircocatta
16-12-2014, 13:15
a volte sembra che la gente tifi amd solo per vedere i prezzi nvidia calare :asd:

parli di me? caschi male!

Athlon 64 3000+
16-12-2014, 16:47
Per riportare la discussione in carreggiata posto questo link dove ci sono le "presunte" performance oltre che di Fiji XT anche di Bermuda XT:

http://www.overclock.net/t/1526789/chiphell-possible-380x-preview/390

elijahk
16-12-2014, 16:48
non so se qualcuno ha notato questa notizia
http://www.guru3d.com/news-story/amd-fijixt-bermuda-xt-makes-mystery-appearance.html

cire92cry
16-12-2014, 17:36
e da novembre 2013 era AMD che aveva campo libero con schede pari potenza alla concorrenza ma che costavano 150€ in meno, e in gpgpu asfaltavano le verdi
e parliamo di quasi un anno
come vedi è una ruota che gira

Ma si è normale come nvidia quando è arrivata mesi dopo alla 5870 con un bel fornetto che consumava un casino ... :D

okorop
17-12-2014, 10:48
http://www.hwupgrade.it/news/skvideo/tecnologia-a-20-nanometri-per-le-future-gpu-di-amd_55317.html

Nell'attesa che la prossima famiglia di schede video top di gamma di AMD venga ufficialmente annunciata dall'azienda americana, presumibilmente nel corso dei primi mesi del 2015, avanzano indiscrezioni sia sulle caratteristiche architetturali di queste soluzioni sia su quello che dovrebbe essere il processo produttivo adottato per la costruzione delle varie GPU.

Al momento attuale i chip di fascia alta presenti in commercio, tanto AMD come NVIDIA, sono costruiti utilizzando processo a 28 nanometri con produzione delegata alla taiwanese TSMC. Si attende con una certa impazienza la disponibilità di tecnologia produttiva a 20 nanometri, con la quale poter integrare un maggior quantitativo di transistor nei chip e ottenere ove possibile maggiore efficienza complessiva.

Le indiscrezioni attualmente disponibili indicano un cambio di approccio per AMD, che avrebbe optato per far produrre le proprie future GPU top di gamma non a TSMC ma a GlobalFoundies, azienda che è storico partner di AMD nella produzione di processori e che è stata costituita alcuni anni fa facendo confluire in una nuova azienda le fabbriche produttive di proprietà di AMD.

Le GPU AMD indicate con i nomi in codice di Bermuda e Fiji, appartenenti alla famiglia di prodotti Pirate Islands, stando a quanto emerso verranno prodotte con tecnologia produttiva a 20 nanometri direttamente da GlobalFoundries. Bermuda è il nome della nuova GPU top di gamma, quella che andrà a prendere il posto attualmente occupato dalle proposte Hawaii adottate dalle schede della famiglia Radeon R9 290, mentre Fiji è GPU di fascia performance e quindi destinata a sostituire quanto adottato nelle schede della famiglia Radeon R9 280.

Al momento attuale le tecnologie produttive a 20 nanometri, tanto di GlobalFoundries come di TSMC, sono ottimizzate per l'utilizzo in sistemi mobile e non per le massime prestazioni in termini di frequenza di clock. Sono, detto in altro modo, dei processi di tipo LPM o Low Power Mobility: resta da capire, se queste indiscrezioni saranno confermate dai fatti, quali potranno essere i benefici dell'adozione di una tecnologia di questo tipo rispetto a quella a 28 nanometri di tipo HP (High Performance) attualmente impiegata per la produzione delle GPU in commercio.

NVIDIA propone attualmente le schede GeForce GTX 980 e GTX 970 basate su GPU GM204, chip che è costruito da TSMC con processo a 28 nanometri. Per il chip GM200, architettura top di gamma attesa al debutto nel corso dei prossimi mesi, non è ancora chiaro se NVIDIA opterà per processo a 28 nanometri o se adotterà quello a 20 nanometri. In considerazione dell'efficienza energetica delle GPU della famiglia Maxwell quella dei 28 nanometri sembra al momento la strada che verrà presumibilmente seguita da NVIDIA, mentre per AMD le opzioni sembrano più aperte.

Non ci sarebbe da stupire se AMD, così some avvenuto in passato, decidesse di adottare processo a 20 nanometri per la soluzione di fascia performance lasciando quello a 28 nanometri più maturo per la GPU destinata alla fascia enthusiast. Vedremo nel corso dei prossimi mesi quale sarà stata la scelta dell'azienda americana e quali ricadute questa avrà in termini di funzionalità e prestazioni delle GPU di prossima generazione.

davo30
17-12-2014, 11:18
http://www.hwupgrade.it/news/skvideo/tecnologia-a-20-nanometri-per-le-future-gpu-di-amd_55317.html

Probabilmente fascia consume 360/370/380 a 20nm, e 380x/390/390x a 28nm piu maturi e piu adatti all'high performance.

http://a.disquscdn.com/uploads/mediaembed/images/1541/7985/original.jpg

Marketing "alla bulldozer" o realtà?
Se davvero fosse cosi Nvidia ha un piede nella fossa, la Titan 2 (GM200 full) prezzata a 1500€ se la scordano, se la 390x (Bermuda full) la piazzano al solito street price di 500€ :D

elijahk
17-12-2014, 11:55
i numeri sono interessanti...

se vi ricordate però i bulldozer furono paragonati agli i5, e solo nel benchmark di codifica video.

Trokji
17-12-2014, 12:18
Dire che un'azienda che ha quasi l'80% del market share di vga dedicate ha un piede nella fossa mi pare eccessivo (anche se capisco e codivido l'entusiasmo di fronte al progresso tecnologico). Però ci andrei cauto, anche perché se i rumors sono veri il rapporto performance/watt delle nuove AMD è più o meno paragonabile o di lieve superiore a maxwell. Insomma saranno schede molto potenti senza dubbio e mi auguro che permetteranno di trovare le 980 GTX in poche settimane attorno ai 350/400 euro e (sarebbe un bel passo avanti per il mercato :D ) con le nuove schede che si piazzeranno sui 500/600, però non ci vedo un divario tecnologico abissale rispetto a quanto già visto (certo aspettiamo pazientemente informazioni più dettagliate ed accreditate)

francisco9751
17-12-2014, 12:21
io non capisco.una cosa,quando nvidia fa una nuova gpu migliore, tutti a gridar al miracolo, quando amd fa la nuova gpu, è normale progresso tecnologico..
quando.Nvidia fece uscire maxwell lo dissi che era normale progresso tecnologico,perché nessuno fa i miracoli,e tutti a darmi contro..vabbe,sorvoliamo e aspettiamo

Inviato dal mio LG-D802 utilizzando Tapatalk

Albi80
17-12-2014, 12:42
Sarà ma non passa giorno che non ammiri la mia 290. Penso che una scheda così valida a 360 gradi , eccellente nei giochi e spaventosa nel gpgpu a quel prezzo si è vista molto di rado. Potranno dirmi quel che vogliono ma la passata generazione Amd ha spaccato di brutto. Aggiungete mantle al quadro generale ed a mio avviso Amd si è comportata meglio della concorrenza. Adesso non hanno gpu per console da sviluppare e a mio avviso presenteranno degli ottimi prodotti potendo concentrare meglio le energie. Alla fine non penso che siano in molti in ufficio tecnico per seguire trenta prodotti in sincrono

Inviato dal mio A0001 utilizzando Tapatalk

appleroof
17-12-2014, 13:04
io non capisco.una cosa,quando nvidia fa una nuova gpu migliore, tutti a gridar al miracolo, quando amd fa la nuova gpu, è normale progresso tecnologico..
quando.Nvidia fece uscire maxwell lo dissi che era normale progresso tecnologico,perché nessuno fa i miracoli,e tutti a darmi contro..vabbe,sorvoliamo e aspettiamo

Inviato dal mio LG-D802 utilizzando Tapatalk

Secondo me perché le nuove VGA AMD sembrano essere a 20nm quindi è più normale il miglioramento performance/watt, laddove le Maxwell sono sempre a 28nm e hanno un miglioramento sulla precedente gen verde, da quel punto di vista, senza precedenti, per quello sono più "ammirevoli" come chip, va da sè che se anche le nuove AMD fossero invece a 28nm e avessero quel performance/watt leakato sarebbero altrettanto impressionanti anzi di più

Comunque oggi ho letto della 390x, non ho capito bene quando è prevista ma offre uno stacco prestazionale, se confermato, davvero consistente, mi pare quasi il 50% più della 980, se fosse così sarebbe ottimo anche meglio di gm200 sembra....

francisco9751
17-12-2014, 13:18
nuova architettura, sempre progresso tecnologico è

Inviato dal mio LG-D802 utilizzando Tapatalk

appleroof
17-12-2014, 13:28
nuova architettura, sempre progresso tecnologico è

Inviato dal mio LG-D802 utilizzando Tapatalk

Si certo ma non puoi tralasciare che è sullo stesso pp, ottenere maggiori prestazioni a parità o minori consumi con lo stesso pp è un pò più difficile che farlo con pp minore :D

Cmq ripeto, si fa presto a dire piede nella fossa, lo dicevo pure a chi piangeva AMD come se fosse finita sol perché erano uscite le Maxwell ed invece ecco qua che sforna (sempre in attesa di conferme come al solito) VGA ottime, questo è un settore difficilissimo per tanti motivi non è un caso ci siano solo due attori a combattersi e non bastano 2 o 3 trimestri negativi per farne chiudere uno.

In topic, come dicevo altrove trovo invece davvero interessante, se fosse vero, che la fonderia sia GF, finalmente un'altro capace di produrre chip così complessi alternativo a TMSC non può che fate bene, perché si è visto, AMD e nVidia possono fare tutti i progetti che vogliono, ma se dipendono dalla capacità di un singolo per realizzarli non va bene per nessuno, manco al consumatore finale/appassionato in ultima analisi.

davo30
17-12-2014, 13:31
Dire che un'azienda che ha quasi l'80% del market share di vga dedicate ha un piede nella fossa mi pare eccessivo (anche se capisco e codivido l'entusiasmo di fronte al progresso tecnologico). Però ci andrei cauto, anche perché se i rumors sono veri il rapporto performance/watt delle nuove AMD è più o meno paragonabile o di lieve superiore a maxwell. Insomma saranno schede molto potenti senza dubbio e mi auguro che permetteranno di trovare le 980 GTX in poche settimane attorno ai 350/400 euro e (sarebbe un bel passo avanti per il mercato :D ) con le nuove schede che si piazzeranno sui 500/600, però non ci vedo un divario tecnologico abissale rispetto a quanto già visto (certo aspettiamo pazientemente informazioni più dettagliate ed accreditate)

In realtà e 65 a 35 (Q3 2013). Il problema non è tanto il divario tecnologico, che per forza di cose ci deve essere, è che poi voglio vedere iNvidia come mi giustifica la Titan 2 a 1500€ con la 390X piu performante e a 1k€ di meno :D

io non capisco.una cosa,quando nvidia fa una nuova gpu migliore, tutti a gridar al miracolo, quando amd fa la nuova gpu, è normale progresso tecnologico..
quando.Nvidia fece uscire maxwell lo dissi che era normale progresso tecnologico,perché nessuno fa i miracoli,e tutti a darmi contro..vabbe,sorvoliamo e aspettiamo

Inviato dal mio LG-D802 utilizzando Tapatalk

Vero.

mircocatta
17-12-2014, 13:54
edit

mircocatta
17-12-2014, 14:19
io non capisco.una cosa,quando nvidia fa una nuova gpu migliore, tutti a gridar al miracolo, quando amd fa la nuova gpu, è normale progresso tecnologico..
quando.Nvidia fece uscire maxwell lo dissi che era normale progresso tecnologico,perché nessuno fa i miracoli,e tutti a darmi contro..vabbe,sorvoliamo e aspettiamo

Inviato dal mio LG-D802 utilizzando Tapatalk
tenendo come punto fermo che utilizzeranno le memorie HBM (ma è confermato?) quella slide mostra un +11% di bermuda XT rispetto full maxwell

-se saranno a 28nm saranno miracolose, eccome! ok che le memorie permetteranno un grosso miglioramento di efficienza, ma recuperare e addirittura SUPERARE il distacco attuale da maxwell vuol dire fare un mezzo miracolo, visto che attualmente c'è un abisso (qui una slide di riferimento http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_980/images/perfwatt_2560.gif )

-se saranno a 20nm Gf no, le vedo come un normale progresso tecnologico


PS: siccome nella slide del link che ho messo sopra sono tutte gpu gpu 28nm e tutte gddr5, permettimi di dire che le maxwell sono a tutti gli effetti miracolose

barbara67
17-12-2014, 14:24
tenendo come punto fermo che utilizzeranno le memorie HBM (ma è confermato?) quella slide mostra un +11% di bermuda XT rispetto full maxwell

-se saranno a 28nm saranno miracolose, eccome! ok che le memorie permetteranno un grosso miglioramento di efficienza, ma recuperare e addirittura SUPERARE il distacco attuale da maxwell vuol dire fare un mezzo miracolo, visto che attualmente c'è un abisso (qui una slide di riferimento http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_980/images/perfwatt_2560.gif )

-se saranno a 20nm Gf no, le vedo come un normale progresso tecnologico


in ogni caso noi ne gioveremo, avremo vga nuove con performance simili che battaglieranno sui prezzi per vendere!

Fixed .... :read:

Post da incorniciare ..... :)

sgrinfia
17-12-2014, 14:27
[QUOTE=francisco9751;41918192]io non capisco.una cosa,quando nvidia fa una nuova gpu migliore, tutti a gridar al miracolo, quando amd fa la nuova gpu, è normale progresso tecnologico..
quando.Nvidia fece uscire maxwell lo dissi che era normale progresso tecnologico,perché nessuno fa i miracoli,e tutti a darmi contro.
Ma, non saprei la stessa cosa e successa con PD fx ,sembrava che fossero delle ciofeche , e che era un miracolo che i pc targati fx si accendessero .
Per poi scoprire che sono cpu eccezionali ,anche se non perfette.

Dimitri-
17-12-2014, 14:39
Si e nvidia ci ha messo un anno a rispondere alla serie 290.

A volte sembra che avete iniziato a seguire il mercato hardware da ieri.

ma che stai dicendo :asd:? nvidia ha fatto uscire la titan a febbraio 2013 e le 780 a maggio..le 290 sono arrivate a ottobre con performance identiche, consumi superiori e dissipatori reference mediocri. Il ritardo anche in questo caso è di amd, di ben 5 mesi rispetto ad nvidia..Poi è uscita la 780Ti a novembre con performance superiori anche alla 290x..dove sarebbe questo ritardo di nvidia? :D

è da almeno 1 anno e mezzo che amd rincorre.. e infatti le conseguenze con prezzi assurdi (Titan- 780 Ti- 980) si sono viste.

Ale55andr0
17-12-2014, 14:41
ok che le memorie permetteranno un grosso miglioramento di efficienza,


ma anche no: gia oggi le gddr 5 mostrano a pari gpu che variando solo la quantità di ram raddoppiandola di netto (per esempio passando da un 7970 3gb a una da 7970 da 6gb) il consumo aumenta di pochissimi watt in totale... segno che la ram di per se consuma poco come sottosistema già attualmente... ergo anche una memoria più efficiente (-40% sul consumo) come la hbm non potrà che far risparmiare su quel frangente solo pochissimi watt (se togli il 40% su una 20ina di w totali "di un banco" da 6gb di gddr5 parliamo sempre di poco, nemmeno 10w risparmiati...)

mircocatta
17-12-2014, 14:44
ma che stai dicendo :asd:? nvidia ha fatto uscire la titan a febbraio 2013 e le 780 a maggio..le 290 sono arrivate a ottobre con performance identiche, consumi superiori e dissipatori reference mediocri. Il ritardo anche in questo caso è di amd, di ben 5 mesi rispetto ad nvidia..Poi è uscita la 780Ti a novembre con performance superiori anche alla 290x..dove sarebbe questo ritardo di nvidia? :D

è da almeno 1 anno e mezzo che amd rincorre.. e infatti le conseguenze con prezzi assurdi (Titan- 780 Ti- 980) si sono viste.

il ritardo non è stato per le performance ma per la competitività sul mercato, con le 290 a 350€ e 290x a 500€ le 780 a 450€ e 780ti a 600€ avevano poco senso ed infatti, hanno venduto decisamente meno rispetto alle r9...

nvidia credo debba ringraziare AMD se ha venduto qualche 780/780ti, le r9 sono andate a ruba per mesi a causa del mining per cui molti gamer, che non sono riusciti ad aspettare che le r9 tornassero "disponibili", hanno ripiegato alle 780/780ti

Trokji
17-12-2014, 14:48
In realtà e 65 a 35 (Q3 2013). Il problema non è tanto il divario tecnologico, che per forza di cose ci deve essere, è che poi voglio vedere iNvidia come mi giustifica la Titan 2 a 1500€ con la 390X piu performante e a 1k€ di meno :D



Vero.

è vero.. beh può darsi che la facciano uscire a "solo" 800 EUR.. certo un po' il prezzo lo abbasseranno ma non credo siano costretti ad abbassarlo tanto, dato che notoriamente la titan ha sempre avuto un rapporto prezzo/prestazioni basso. Sicueramente cerceranno però di creare un prodotto che possa andare in modo rilevabile di più delle altre schede single gpu in commercio (questo generalmente è stato il punto fermo)

s12a
17-12-2014, 14:52
ma anche no: gia oggi le gddr 5 mostrano a pari gpu che variando solo la quantità di ram raddoppiandola di netto (per esempio passando da un 7970 3gb a una da 7970 da 6gb) il consumo aumenta di pochissimi watt in totale... segno che la ram di per se consuma poco come sottosistema già attualmente... ergo anche una memoria più efficiente (-40% sul consumo) come la hbm non potrà che far risparmiare su quel frangente solo pochissimi watt (se togli il 40% su una 20ina di w totali "di un banco" da 6gb di gddr5 parliamo sempre di poco, nemmeno 10w risparmiati...)

Le ultime Radeon da qualche generazione a questa parte fanno andare le memorie a bassissima frequenza in idle.

Questo non avviene però quando si usano tali schede in multimonitor a risoluzioni e frequenze diverse: le memorie devono andare a piena velocità, pena problemi di sincronia. In questi frangenti il consumo aumenta enormemente, un problema fastidioso che le schede AMD si portano da tempo. Le memorie hanno una loro incidenza eccome sui consumi, fuori dalle situazioni in cui le si può fare andare al minimo.

http://tpucdn.com/reviews/Colorful/iGame_GTX_970/images/power_multimon.gif

Le NVidia dalla Geforce GTX 6xx in poi riescono a mantenere la frequenza delle memorie a livelli bassi in idle, fino a due monitor connessi contemporaneamente. Da qui il consumo minore dei modelli più recenti in questo grafico.

mircocatta
17-12-2014, 15:01
ma anche no: gia oggi le gddr 5 mostrano a pari gpu che variando solo la quantità di ram raddoppiandola di netto (per esempio passando da un 7970 3gb a una da 7970 da 6gb) il consumo aumenta di pochissimi watt in totale... segno che la ram di per se consuma poco come sottosistema già attualmente... ergo anche una memoria più efficiente (-40% sul consumo) come la hbm non potrà che far risparmiare su quel frangente solo pochissimi watt (se togli il 40% su una 20ina di w totali "di un banco" da 6gb di gddr5 parliamo sempre di poco, nemmeno 10w risparmiati...)

ahi ahi ale, pensavo fossi più informato :oink:

le HBM permetteranno una maggiora banda passante, ma davvero molto maggiore, molto molto molto maggiore
http://cdn2.wccftech.com/wp-content/uploads/2014/09/Hynix-HBM-15-635x490.jpg


vuol dire che un ipotetica r9 390x potrebbe montare un bus di memoria molto inferiore ai 384bit attuale
quindi chip molto meno complessi, più piccoli, più efficienti
poi dopo aggiungi che queste mem consumano qualche watt in meno che male non fa

Dimitri-
17-12-2014, 15:06
il ritardo non è stato per le performance ma per la competitività sul mercato, con le 290 a 350€ e 290x a 500€ le 780 a 450€ e 780ti a 600€ avevano poco senso ed infatti, hanno venduto decisamente meno rispetto alle r9...

nvidia credo debba ringraziare AMD se ha venduto qualche 780/780ti, le r9 sono andate a ruba per mesi a causa del mining per cui molti gamer, che non sono riusciti ad aspettare che le r9 tornassero "disponibili", hanno ripiegato alle 780/780ti

Eh gia, infatti è nvidia che non vendeva..mentre amd ha lanciato le r9 a prezzi bassi perchè fa beneficenza vero? se nvidia ha mantenuto quei prezzi, il motivo è uno: le schede vendevano, proprio come le titan a 1000€.
Quando un azienda mantiene prezzi cosi elevati vuol dire che può permetterselo a differenza di altri.

Ale55andr0
17-12-2014, 15:45
ahi ahi ale, pensavo fossi più informato :oink:

le HBM permetteranno una maggiora banda passante, ma davvero molto maggiore, molto molto molto maggiore
http://cdn2.wccftech.com/wp-content/uploads/2014/09/Hynix-HBM-15-635x490.jpg


vuol dire che un ipotetica r9 390x potrebbe montare un bus di memoria molto inferiore ai 384bit attuale
quindi chip molto meno complessi, più piccoli, più efficienti
poi dopo aggiungi che queste mem consumano qualche watt in meno che male non fa

io parlavo di consumi non di bandwidth e, dal poco che si è visto, AMD non pare proprio intenzionata a ridurre il bus nonstante l'impiego di hbm: sulla 390x ho sempre visto associati comunque i 512bit e 6ghz per 533gb/s di banda...ergo nessun ridimensionamento dei memory controller o frequenze particolarmente basse per i moduli di memoria...oh poi certo posson essere rumors del tutto errati, ci mancherebbe, ma a quelli mi aggrappo come unica fonte di informazioni

davo30
17-12-2014, 15:46
Eh gia, infatti è nvidia che non vendeva..mentre amd ha lanciato le r9 a prezzi bassi perchè fa beneficenza vero? se nvidia ha mantenuto quei prezzi, il motivo è uno: le schede vendevano, proprio come le titan a 1000€.
Quando un azienda mantiene prezzi cosi elevati vuol dire che può permetterselo a differenza di altri.

Infatti abbiamo visto il successo che hanno avuto la titan black e la Z :muro:

basta che googli "Titan Z fail" e vedi quanti articoli esistono.... Se vogliamo fare i fanboy, almeno facciamoli per bene!

Ale55andr0
17-12-2014, 15:47
Le ultime Radeon da qualche generazione a questa parte fanno andare le memorie a bassissima frequenza in idle.




guarda che io mi riferivo a test di consumo in full non in idle :read: e la 7970 6gb rispetto la 3gb consumava pochi watt in più anche sotto carico (test su vapor x 6gb, una 15ina di watt in più rispetto la 3gb in game). La questione multimonitor mi è estranea non avendo mai usato tale modalità e non essendo informato al riguardo, ergo non so che dirti sinceramente

FroZen
17-12-2014, 17:11
Le hbm permetteranno chip meno complessi sugli mc e i pcb, riducendo il consumo e permettendo bande passanti comunque elevate... Non é solo un discorso di tolgo un chip a 1.2v e ne metto uno a 1.1 risparmiando qualche frazione di w.... Tonga insegna che bisogna valutare tutto nel suo complesso... Non risparmi 40w solo togliendo 1gb di vram....

Ale55andr0
17-12-2014, 18:29
Le hbm permetteranno chip meno complessi sugli mc e i pcb, riducendo il consumo e permettendo bande passanti comunque elevate... Non é solo un discorso di tolgo un chip a 1.2v e ne metto uno a 1.1 risparmiando qualche frazione di w.... Tonga insegna che bisogna valutare tutto nel suo complesso... Non risparmi 40w solo togliendo 1gb di vram....

aridaje :D

ripeto: dai rumors pare che le nuove top AMD siano sempre dotate di bus 512bit e di frequenze non basse per la ram :read: ...ergo non vedo dove stanno i risparmi "di contorno" lato gpu grazie alle hbm visto che non vedo ne ridimensionamenti ne semplificazioni a livello mc e pcb se si parla di 512bit :read:

Trokji
17-12-2014, 18:48
sì ma 512 bit più nuove memorie dalla mega banda potrebbe essere uno spreco.. non avrebbe molto senso. La banda è utile se vieen sfruttata sennò diventa uno spreco di risorse..ecco perché forse è meglio prendere questi rumor un po' con le pinze

FroZen
17-12-2014, 22:12
aridaje :D

ripeto: dai rumors pare che le nuove top AMD siano sempre dotate di bus 512bit e di frequenze non basse per la ram :read: ...ergo non vedo dove stanno i risparmi "di contorno" lato gpu grazie alle hbm visto che non vedo ne ridimensionamenti ne semplificazioni a livello mc e pcb se si parla di 512bit :read:

Se guardo a Tonga e non hai rumors ho ragione io :D che facciamo adesso?

Ale55andr0
17-12-2014, 23:27
tonga è un giocattolo di fascia mediobassa derivato dalla 7950 e non prefigura nulla sulla strada che seguirà amd per gpu super top da oltre 400 euro :O

FroZen
18-12-2014, 09:40
Le opinioni sono come le palle, ognuno ha le sue... A meno di essere Paolo Bitta....

Free Gordon
18-12-2014, 10:55
Questi rumors con perf/watt su questi livelli, mi paiono per ora poco realistici..

Boh, vedremo.

Ale55andr0
18-12-2014, 12:04
Le opinioni sono come le palle, ognuno ha le sue... A meno di essere Paolo Bitta....

che tonga sia una scheda di fascia mediobassa, basata su architettura gcn derivata dalla 7950 con qualche aggiustaggio qui e la e qualche feature tipo il true audio caxxi e mazzi non è un opinione, ma un dato di fatto

enryco
18-12-2014, 16:06
ma anche no: gia oggi le gddr 5 mostrano a pari gpu che variando solo la quantità di ram raddoppiandola di netto (per esempio passando da un 7970 3gb a una da 7970 da 6gb) il consumo aumenta di pochissimi watt in totale... segno che la ram di per se consuma poco come sottosistema già attualmente... ergo anche una memoria più efficiente (-40% sul consumo) come la hbm non potrà che far risparmiare su quel frangente solo pochissimi watt (se togli il 40% su una 20ina di w totali "di un banco" da 6gb di gddr5 parliamo sempre di poco, nemmeno 10w risparmiati...)


Edit, ho appena visto ke ti hanno già risposto in molti 😊

smoicol
18-12-2014, 19:06
ma anche no: gia oggi le gddr 5 mostrano a pari gpu che variando solo la quantità di ram raddoppiandola di netto (per esempio passando da un 7970 3gb a una da 7970 da 6gb) il consumo aumenta di pochissimi watt in totale... segno che la ram di per se consuma poco come sottosistema già attualmente... ergo anche una memoria più efficiente (-40% sul consumo) come la hbm non potrà che far risparmiare su quel frangente solo pochissimi watt (se togli il 40% su una 20ina di w totali "di un banco" da 6gb di gddr5 parliamo sempre di poco, nemmeno 10w risparmiati...)

ciao Ale,
non la devi vedere cosi,
perché le architetture si ottimizzano, le performance\watt che tutti vogliamo, sono un risultato intrinseco di vari fattori, non è questione solo di bus o vram, esempio lampante Evga per abbassare il tdp delle sue vga ha progettato ventole a bassissimo consumo, si parla di oltre il 50% in meno che significa si e no 4\5w, ma tutto fa brodo no?

elijahk
18-12-2014, 19:08
ventole a basso consumo? Ottima trovata, ogni watt e' prezioso ;)
Oppure inventiamo dei cavi PCI a doppio diametro. Si risparmiano oltre 10W

smoicol
18-12-2014, 19:17
ventole a basso consumo? Ottima trovata, ogni watt e' prezioso ;)
Oppure inventiamo dei cavi PCI a doppio diametro. Si risparmiano oltre 10W

EVGA: ACX 2.0 Performance at Fixed Acoustic (36dB)
ACX 2.0 ACX
Fan Speed
2000 RPM

2300 RPM

Power
0.92W

2.05W

GPU Temp
64C

66C



EVGA: ACX 2.0 Performance at Fixed Acoustic (47dB)
ACX 2.0 ACX
Fan Speed
2900 RPM

3300 RPM

Power
2.65W

6.10W

GPU Temp
58C

58C

Trokji
20-12-2014, 12:10
Ma sulle schede video a parte le gpu (che quello dipende più dal produttore della gpu, architettura, processi produttivi eccetra) c'è largo spazio di miglioramento sul PCB, c'è un sacco di roba elettrica che potrebbe essere semplificata, ottimizzata, migliorata e potrebbero essere scelti componenti migliori. Tutto questo però si è visto ben poche volte perché spesso più che la ricerca dell'efficienza sembra ci si diriga o verso risparmio a tutti i costi o verso garantire maggiore tolleranza in vista dell'overclock. Quello dell'efficienza energetica sulle motherboard come le schede video è un settore che avrebbe ancora molto spazio per lo sviluppo (e per ora la maggior parte dei miglioramenti sono stati legati quasi esclusivamente ai cambi di GPU o ram, che % sono sicuramente le cose più incisive, ma risparmiare qualche watt in più per l'ottimizzazione anche di PCB e sistemi di raffreddamento non sarebbe male)

The_SaN
20-12-2014, 15:57
Il problema è che non ci guadagnano niente a farlo. Riprogettare un PCB costa, e neanche poco, quindi l'obiettivo principale è ridurre i costi di produzione. Oppure puntare sull' OC, feature che ultimamente ha abbastanza mercato.

Trokji
20-12-2014, 16:10
Hai ragione, il problema è sempre quello, cioè gli utenti o consumatori. Quando i consumatori ricercheranno il risparmio energetico prima di altre features e ciò diventerà chiaro alle aziende allora inizieranno ad investire in questo settore (questo vale per tutto, non solo il risparmio energetico, può valere anche per il rispetto dei diritti del lavoro, la delocalizzazione o altre tematiche sulle quali i consumatori avrebbero un largo potere, pur non sapendolo). Anche se qualcosa si sta muovendo, ma decisamente troppo poco. Sempre che poi non arrivi qualche ente a decidere, per quanto sia poco democratico le cose calate dall'alto funzionano, vedi le varie classi di elettrodomestici A+++ A+ eccetra introdotti qualche anno fa, intendo la nuova classificazione. Certo un'etichetta di questo tipo è approssimativa ed ha i suoi limiti però ha funzionato, molti consumatori hanno più chiaro il valore di un elettrodomestico ad alto risparmio energetico. Con schede video e schede madri è più complicato tutto ciò da quantificare ma mai dire mai dato che un po' di interesse tra gli utenti inizia ad esserci (più aziende che piccoli utenti credo). Poi c'è anche la mancanza di recensioni o di qualcuno che certifichi l'effettivo consumo elettrico di una scheda madre o video, mentre per una gpu o cpu in linea di massima si sa quali sono le caratteristiche termiche (che comunque non è la stessa cosa) per certe schede madri o video come prodotto finito il consumo reale rimane abbastanza ignoto prima dell'acquisto

The_SaN
20-12-2014, 17:56
Te lo dico da ingegnere elettricista quale sono: ci vorrà molto ancora per far capire alla gente che ottimizzare i consumi porta un sacco di benefici, tra cui pure il risparmio in denaro (visto che questo è il punto dolente della società).
Purtroppo il consumo di energia viene visto appena come una "bolletta da pagare", un costo mensile fisso.
Se non ci pensano le ditte (che hanno come unico obiettivo fare soldi), figurati il cittadino comune...

Ali3n77
20-12-2014, 20:44
Le opinioni sono come le palle, ognuno ha le sue... A meno di essere Paolo Bitta....

:rotfl: :rotfl: :rotfl: :rotfl: :winner:
Ahhaah sto ridendo da mezz'ora lol !!!

Nhirlathothep
21-12-2014, 14:14
Te lo dico da ingegnere elettricista quale sono: ci vorrà molto ancora per far capire alla gente che ottimizzare i consumi porta un sacco di benefici, tra cui pure il risparmio in denaro (visto che questo è il punto dolente della società).
Purtroppo il consumo di energia viene visto appena come una "bolletta da pagare", un costo mensile fisso.
Se non ci pensano le ditte (che hanno come unico obiettivo fare soldi), figurati il cittadino comune...

veramente e' bastato il passaggio al mondo mobile dell' utenza per rendere il risparmio energetico la necessita' primaria quando si sviluppa un processore (Intel lo sta facendo da molte gen e i chip per tablet / telefoni lo hanno sempre fatto)

The_SaN
21-12-2014, 21:22
veramente e' bastato il passaggio al mondo mobile dell' utenza per rendere il risparmio energetico la necessita' primaria quando si sviluppa un processore (Intel lo sta facendo da molte gen e i chip per tablet / telefoni lo hanno sempre fatto)Non stiamo parlando strettamente dei chip, ma di tutto quello che sta intorno (PCB, ventole, memorie, gestione del bus, sistema di conversione elettrica, ecc.)

Comunque il mobile è quasi un discorso a parte, anche perchè le tecnologie per cellulari sono totalmente diverse e hanno un'altro scopo. Mentre i laptop consumano meno a discapito di una generosa perdita di potenza.

francisco9751
22-12-2014, 11:59
pare che amd farà le cpu/gpu per la prossima console Nintendo
(http://www.techpowerup.com/208231/amd-to-power-next-generation-nes.html)

anche se non centra molto,ma comunque è un altro buon colpo per amd,magari vedremo più giochi per nintendo anche su pc :D

The_SaN
22-12-2014, 16:42
pare che amd farà le cpu/gpu per la prossima console Nintendo
(http://www.techpowerup.com/208231/amd-to-power-next-generation-nes.html)

anche se non centra molto,ma comunque è un altro buon colpo per amd,magari vedremo più giochi per nintendo anche su pc :DIo con questa storia delle console con hardware PC non posso che essere contento.
Da grande appassionato di Tekken e Mortal Kombat, sapere che il prossimo capitolo di entrambi sarà disponibile su PC grazie all' Unreal Engine è una manna.

francisco9751
22-12-2014, 16:52
pure io.

già avere i metal gear solid e final fantasy è stato un grande traguardo,perchè credevo che non sarebbe mai successo, sono stra contento :D

la cosa non può che migliorare :3

Ale55andr0
22-12-2014, 21:31
magari facessero un the last of us e un uncharted su PC, altro FFXXIII,95 :asd:


ma sony non li molla :muro:

francisco9751
22-12-2014, 21:32
beh è normale,visto che lei deve vendere anche le console,a differenza di altre che sono solo software house

davo30
22-12-2014, 22:12
speriamo pero che i dindini che stanno facendo con i soc per le console li reinvestano per fare delle cpu decenti (in realtà basterebbe fare qualcosa)

okorop
22-12-2014, 22:48
io ho visto, dico solo una cosa: you wont believe your eyes!!!!!!!!!!!!!! Preparate 400 dindi, altro che 980 :asd: :asd:

francisco9751
22-12-2014, 23:02
io ho visto, dico solo una cosa: you wont believe your eyes!!!!!!!!!!!!!! Preparate 400 dindi, altro che 980 :asd: :asd:

dicci tutto quello che sai.

okorop
22-12-2014, 23:06
dicci tutto quello che sai.

380x 20 nani memorie hbm, performance superiori rispetto alla 980 del 10-15% consumi del 10% superiori alla 980 street price 399$ (che al cambio attuale praticamente sono euro IVATI), in arrivo febbraio-marzo.....sto mettendo in vendita la r9 280x :asd: e lo scettro della migliore gpu singola resterà ad AMD ancora per molto.....ora come voi sapete c'è la r9 295x come top gpu :asd: :asd:

http://s17.postimg.org/9sk73ahrj/005900xkiwdksdfwti36wu.png

http://s17.postimg.org/4fvcp5tv3/133741b1t4cvhxm4thhza8.png

Ale55andr0
22-12-2014, 23:20
beh prendendoli per buoni...però a livello di nome la 380 indica appunto una fascia medioalta (a meno di no aver cambiato totalmente strategia di marketing), teoricamente la top dovrebbe quindi essere la 390x, e i 400 euro per la 380 in tale ottica mi sembrano un riposizionamento della fascia medioalta su prezzi un tantino sostenuti sinceramente praticamente sarebbe quello che fece all'epoca nvidia con la 680, e in parte ora con la 980, una politica "non da AMD" diciamo...anche se certo sarebbe una novità assoluta (20nm, hmb ecc.) e pertanto bisognerebbe comunque aspettare un assestamento dei prezzi. Fosse invece la top assoluta sarei deluso: con i 20 nani e le hbm non sono risultati impressionanti visto che mantenendosi a 28nm già ora nvidia potrebbe tirare fuori un mostro che va minimo il 35% più della 980, e questo a esser pessimisti...il tutto, ripeto, a 28nm e senza memorie "esoteriche"...

okorop
22-12-2014, 23:23
beh prendendoli per buoni...però a livello di nome la 380 indica appunto una fascia medioalta (a meno di no aver cambiato totalmente strategia di marketing), teoricamente la top dovrebbe quindi essere la 390x, e i 400 euro per la 380 in tale ottica mi sembrano un riposizionamento della fascia medioalta su prezzi un tantino sostenuti sinceramente :stordita: praticamente sarebbe quello che fece all'epoca nvidia con la 680, e in parte ora con la 980, una politica "non da AMD" diciamo...anche se certo sarebbe una novità assoluta (20nm, hmb ecc.) e pertanto bisognerebbe comunque aspettare un assestamento dei prezzi. Fosse invece la top assoluta sarei deluso: con i 20 nani e le hbm non sono risultati impressionanti visto che mantenendosi a 28nm già ora nvidia potrebbe tirare fuori un mostro che va minimo il 35% più della 980, e questo a esser pessimisti...il tutto, ripeto, a 28nm e senza memorie "esoteriche"...

stando ai bench bermuda xt andrebbe meglio della full nvida, che purtroppo per loro non possono contare sulla miniaturizzazione a 20nm saltando a 16nm tra un anno mentre AMD puo' contare su miniaturizzazione e memorie esoteriche.....è un vantaggio tecnologico e strategico su Nvida.....

Ale55andr0
22-12-2014, 23:29
stando ai bench bermuda xt andrebbe meglio della full nvida, che purtroppo per loro non possono contare sulla miniaturizzazione a 20nm saltando a 16nm tra un anno mentre AMD puo' contare su miniaturizzazione e memorie esoteriche.....è un vantaggio tecnologico e strategico su Nvida.....

quello delle hbm è temporaneo visto che le userà anche nvdia in futuro e a dire il vero già oggi mostra che non ha bisogna della bandwith in diretta da Dio, basta vedere quanto va la 980 con 224gb/s di ddr5 a 256bit...
quello dei 20nm si sarebbe un vantaggio, ma direi che è più strategico visto che a quanto pare nvidia questi 20nm li schifa ed è quindi una scelta consapevole, non una intrinseca mancanza progettuale della sua architettura...io poi ho sempre letto che i 20nm non sarebbero adatti ad applicazioni ad alte prestazioni (anche se non ho mai capito il perchè) e che li avrebbero saltati entrambe in favore dei 16nm

okorop
22-12-2014, 23:35
quello delle hbm è temporaneo visto che le userà anche nvdia in futuro e a dire il vero già oggi mostra che non ha bisogna della bandwith in diretta da Dio, basta vedere quanto va la 980 con 224gb/s di ddr5 a 256bit...
quello dei 20nm si sarebbe un vantaggio, ma direi che è più strategico visto che a quanto pare nvidia questi 20nm li schifa ed è quindi una scelta consapevole, non una intrinseca mancanza progettuale della sua architettura...io poi ho sempre letto che i 20nm non sarebbero adatti ad applicazioni ad alte prestazioni (anche se non ho mai capito il perchè) e che li avrebbero saltati entrambe in favore dei 16nm

quelle di TSMC non vanno bene perchè son fatti per produrre soc per telefonini, quelle di GF vanno benissimo :)

Per la banda passante bisogna vedere le varie architetture....

amon.akira
23-12-2014, 01:20
quei screen sono vecchissimi almeno 2settimane, erano già stati postati qui se non sbaglio, cmq finchè non ci sarà un annuncio niente di sicuro su i 20nm.
cmq una cosa è sicura marzo aprile dovrebbero uscire peccato che se monteranno hbm mi sa che le faranno 4gb, perchè ho sentito che per le 8gb se ne parla a settembre.

nn vedo l ora che amd rilasci qualche info ufficiale, inizio a stare strettino con la 290.

mircocatta
23-12-2014, 07:43
io ho visto, dico solo una cosa: you wont believe your eyes!!!!!!!!!!!!!! Preparate 400 dindi, altro che 980 :asd: :asd:

io prima di azzardare tale esclamazione aspetterei di vederle :stordita: già che dici che va il 10-15% in più consumando il 10% in più mi stona molto, viste le memorie e il pp, se poi, essendo un pp poco maturo, non si overcloccano...quel 10-15% di svantaggio la 980 se lo mangia tutto portandole a 1500mhz e oltre


vedremo!

Athlon 64 3000+
23-12-2014, 08:36
Secondo me anche le prossime gpu Nvidia saranno a 28 nm perchè da quello che ho letto in giro per la rete anche i 20 nm GF sono fatti per i SOC a basso consumo.
Poi bisogna vedere se tali prestazioni saranno vere e se verranno confermato sopratutto per la ipotetica R9 380x saranno ottime,poi se la lancieranno a 400 euro francamente mi sembrerà un po' altino e dovrebbe stare sui 300-320 euro.

mircocatta
23-12-2014, 09:03
ma che limiti ha un processo produttivo per soc a basso consumo? il "non riuscire" a tirare fuori frequenze alte perchè non reggono alti voltaggi?

Catan
23-12-2014, 11:10
pare che amd farà le cpu/gpu per la prossima console Nintendo
(http://www.techpowerup.com/208231/amd-to-power-next-generation-nes.html)

anche se non centra molto,ma comunque è un altro buon colpo per amd,magari vedremo più giochi per nintendo anche su pc :D

che amd/ati facesse le gpu delle console nintendo lo si sapeva già dal gamecube...
la notizia è sulle cpu, che passano dagli ibm o cmq archidettura powerpc a quelle x86

appleroof
23-12-2014, 12:00
ma che limiti ha un processo produttivo per soc a basso consumo? il "non riuscire" a tirare fuori frequenze alte perchè non reggono alti voltaggi?

anche, ma il problema fondamentale che leggevo era proprio nella resa, ossia i 20nm SOC TMSC non sarebbero in grado di dare un numero sufficiente di gpu funzionanti tale da rendere il tutto redditizio, poi :boh:

francisco9751
23-12-2014, 12:06
che amd/ati facesse le gpu delle console nintendo lo si sapeva già dal gamecube...
la notizia è sulle cpu, che passano dagli ibm o cmq archidettura powerpc a quelle x86

intendevo x86

amon.akira
23-12-2014, 15:16
Secondo me anche le prossime gpu Nvidia saranno a 28 nm perchè da quello che ho letto in giro per la rete anche i 20 nm GF sono fatti per i SOC a basso consumo.
Poi bisogna vedere se tali prestazioni saranno vere e se verranno confermato sopratutto per la ipotetica R9 380x saranno ottime,poi se la lancieranno a 400 euro francamente mi sembrerà un po' altino e dovrebbe stare sui 300-320 euro.

be 400euro per un 15% in piu rispetto a una 980 a me starebbe bene :D

Free Gordon
23-12-2014, 16:06
380x 20 nani memorie hbm, performance superiori rispetto alla 980 del 10-15% consumi del 10% superiori alla 980 street price 399$ (che al cambio attuale praticamente sono euro IVATI), in arrivo febbraio-marzo.....sto mettendo in vendita la r9 280x :asd: e lo scettro della migliore gpu singola resterà ad AMD ancora per molto.....ora come voi sapete c'è la r9 295x come top gpu :asd: :asd:


hmmm...se saranno a 20nm, tutto ciò mi fa pensare che GCN è più o meno la stessa in questa "nuova" incarnazione...

Ciò non mi piace granchè...

Cmq perf/price la 380 dovrebbe essere un must senza dubbio! ^_^

Trokji
23-12-2014, 16:10
Magari Nvidia rimane a 28 nm. C'è da dire che GCN in alcune cose va meglio di maxwell (vedi calcolo in doppia precisione) è nel gaming in generale dove maxwell è molto più efficiente al momento, ma se Nvidia rimane a 28 nm allora potrebbero essere schede comunque competitive a 360°