PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 [32] 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346

zoeid
13-11-2013, 22:02
a che serve il trueaudio su ps4? :sofico:

Vul
13-11-2013, 22:22
a niente, come non serve a niente su pc.

Piuttosto reimplementassero le vecchie EAX che Half Life 1 nel 1999 aveva un audio posizionale che qualunque gioco moderno si sogna:

http://en.wikipedia.org/wiki/Environmental_Audio_Extensions

E chiunque abbia giocato con cuffie semidecenti a cs/dod altri giochi online basati sul primo half life sa di cosa parlo.

Foglia Morta
14-11-2013, 05:50
a che serve il trueaudio su ps4? :sofico:

posizionamento dell' audio sgravando i core della cpu ( ci sono dei dsp dedicati ) , una demo: http://www.youtube.com/watch?v=nKnhcsRTNME

dal keynote :

Oxide http://www.hardware.fr/news/13450/apu13-oxide-fait-exploser-limite-cpu-avec-mantle.html

e JA http://www.hardware.fr/news/13449/apu13-frostbite-mantle-proche-ps4-15-jeux.html

Edit: nel video c' è l' intervento di JA http://www.pcper.com/news/Graphics-Cards/AMD-Mantle-Deep-Dive-Video-AMD-APU13-Event

Obrigado
14-11-2013, 08:32
http://i.imgur.com/HyYhvR0l.jpg (http://imgur.com/HyYhvR0)

quindi mantle girera' sulle nvidia?

Foglia Morta
14-11-2013, 08:47
quindi mantle girera' sulle nvidia?

potenzialmente possibile ma ovviamente i driver per mantle se li deve fare nvidia... faranno le loro valutazioni

tetz
14-11-2013, 09:57
mantle



FX8350 as fast as a i7 4770k using Mantle, underclock the CPU to 2Ghz, no loss in frame rate, still entirely gpu limited. Massive increase on stuff on screen with Mantle, the Oxide guys seemingly absolutely love Mantle and say, much like Dice, that only two months work has gotten them from start to awesome^2.

Much of the conference, as I was getting at, is generally behind closed doors, smaller group, not ready for public consumption stuff. The word would appear to be, Mantle is proving quick, effective, cheap to implement and extremely effective in basically alpha state, offering things other API's can't come close to performance wise.

zoeid
14-11-2013, 11:06
sò che forse è un p'ò off, ma visto il post precedente al mio, voi pensate che kaveri sia paragonabile a un 8350?

The_SaN
14-11-2013, 11:15
a niente, come non serve a niente su pc.

Piuttosto reimplementassero le vecchie EAX che Half Life 1 nel 1999 aveva un audio posizionale che qualunque gioco moderno si sogna:

http://en.wikipedia.org/wiki/Environmental_Audio_Extensions

E chiunque abbia giocato con cuffie semidecenti a cs/dod altri giochi online basati sul primo half life sa di cosa parlo.A parte che il true audio è piú complesso rispetto alle EAX, io preferirei stare alla larga dai drivers Creative.
Sono quanto di peggio si possa immaginare.

Einhander
14-11-2013, 11:33
a niente, come non serve a niente su pc.

Piuttosto reimplementassero le vecchie EAX che Half Life 1 nel 1999 aveva un audio posizionale che qualunque gioco moderno si sogna:

http://en.wikipedia.org/wiki/Environmental_Audio_Extensions

E chiunque abbia giocato con cuffie semidecenti a cs/dod altri giochi online basati sul primo half life sa di cosa parlo.

Secondo me hai una visione idealizzata delle "vecchie" eax, soprattutto se dici questo non ti e' chiaro cosa e' precisamente il true audio e come si comporta a livello software e hardware inoltre ti sfugge il concetto di ecosistema amd per cio' che concerne i nuovi titoli, tale tecnologia come il tressfx o mantle stessa e' concepito per essere estremamente ottimizzato per GCN e se ti vai a sentire la qualita' dell'audio posizionale virtualizzato di doom3 con annesso true audio gia' da li potresti comprendere che la qualita' e' superiore a quella delle librerie da te citate, poi vabbeh ci sarebbe anche altro, ma resuscitare cadaveri non serve a nessuno e soprattutto non porta alcuna miglioria tangibile ad amd. Quindi perche' dovrebbe farlo?

Ma poi non porta nessun vantaggio neanche a noi, visto che il true audio sembrerebbe molto meglio -oltre che se gia' possiedi la scheda video non devi spendere un euro in piu'- poi che sia inutile lo dici tu come dici te che potrebbe essere utile l'eax di una volta -ma ripeto secondo me non ricordi con precisione il supporto driver e la compatibilita' di tali librerie con la totalita' dei games-.

E finora abbiamo sentito solo piccoli esempi, ma la pulizia del suono mi pare gia' estremamente buona e stiamo parlando di virtualizzazioni o simila, niente di concepito NATIVAMENTE per essere usato con questa tecnologia -insomma niente di simile a quanto fatto da DICE per le serie di bf a partire da bad company 2..-

Vul
14-11-2013, 11:43
A parte che il true audio è piú complesso rispetto alle EAX, io preferirei stare alla larga dai drivers Creative.
Sono quanto di peggio si possa immaginare.

Non c'era nessun driver da installare. EAX era implementato nativamente nei giochi. Poi cosa avrà di più complesso voglio proprio saperlo. Io da avido giocatore di fps aspetto con ansia un engine audio posizionale come EAX. E che cavolo nel 2014 vogliono farmi credere che l'audio posizionale sia una novità?
Ma sono l'unico che si ricorda come nel 2000 su dod_anzio si capisse perfettamente con delle cuffie trust da 5 euro se l'avversario fosse a destra, sinistra, sopra sotto, a quale piano, se fosse in chiesa, e in che punto della chiesetta o nel bunker o in pizzicheria..
Le tecnologie EAX erano sbalorditive, mi diano quelle anzichè spacciarmi l'audio posizionale come una novità. Che già il passaggio da EAX a A3D fu pessimo.

Poi sia chiaro, non ho niente contro il true audio. Ben venga. Ma l'audio posizionale aveva una qualità eccellente già 15 anni fa lato software su dei pentium 3, non capisco ora perchè si deve tornare ai dsp. I dsp sono dei piccoli processori dedicati all'audio che velocizzano l'esecuzione di alcuni algoritmi. Ma sono già stati abbandonati da eoni anche in ambiente schede audio per la produzione musicale visto che un 775 ha potenza a sufficienza a eseguire tutti gli algoritmi musicali che vuoi e ormai i dsp si trovano in pochissime schede audio e solo per alcuni limitati utilizzi (utilizzo di vst o altra roba guarda caso legati alla commercializzazione della stessa scheda, come pro tools o altro). E ora nell'era di sandy bridge + all'improvviso manca potenza per eseguire degli umili algoritmi audio? Spero che la novità sia lato software e non pubblicità per vendere hardware e basta.

Secondo me hai una visione idealizzata delle "vecchie" eax, soprattutto se dici questo non ti e' chiaro cosa e' precisamente il true audio e come si comporta a livello software e hardware inoltre ti sfugge il concetto di ecosistema amd per cio' che concerne i nuovi titoli, tale tecnologia come il tressfx o mantle stessa e' concepito per essere estremamente ottimizzato per GCN e se ti vai a sentire la qualita' dell'audio posizionale virtualizzato di doom3 con annesso true audio gia' da li potresti comprendere che la qualita' e' superiore a quella delle librerie da te citate, poi vabbeh ci sarebbe anche altro, ma resuscitare cadaveri non serve a nessuno e soprattutto non porta alcuna miglioria tangibile ad amd. Quindi perche' dovrebbe farlo?

Ma poi non porta nessun vantaggio neanche a noi, visto che il true audio sembrerebbe molto meglio -oltre che se gia' possiedi la scheda video non devi spendere un euro in piu'- poi che sia inutile lo dici tu come dici te che potrebbe essere utile l'eax di una volta -ma ripeto secondo me non ricordi con precisione il supporto driver e la compatibilita' di tali librerie con la totalita' dei games-.

E finora abbiamo sentito solo piccoli esempi, ma la pulizia del suono mi pare gia' estremamente buona e stiamo parlando di virtualizzazioni o simila, niente di concepito NATIVAMENTE per essere usato con questa tecnologia -insomma niente di simile a quanto fatto da DICE per le serie di bf a partire da bad company 2..-

Non si tratta di visione idealizzata.
Ho capito di cosa si tratta del true audio. Algoritmi sviluppati da amd per l'audio che vengono resi disponibili solo per essere eseguiti dal proprio hardware.

Per il resto io non ho detto che le EAX fossero compatibili con tutti i games (nemmeno il true audio lo è) ho detto che i giochi che avessero le EAX avevano un engine audio che mai è stato neanche lontanamente pareggiato. CoD? BF? Arma. Ma per carità. Quegli engine audio non hanno mai offerto la resa audio del vecchio half life.

magnusll
14-11-2013, 11:44
mantle:


FX8350 as fast as a i7 4770k using Mantle, underclock the CPU to 2Ghz, no loss in frame rate, still entirely gpu limited. Massive increase on stuff on screen with Mantle, the Oxide guys seemingly absolutely love Mantle and say, much like Dice, that only two months work has gotten them from start to awesome^2.


E qui si rende chiaro qualcosa che sospettavo: il vero obiettivo di Mantle e' Intel, non nVidia. nVidia sarebbe una "perdita collaterale" di cui all' AMD sarebbero comunque piu' che felici ma non e' il target primario.

La scommessa e' da far tremare i polsi ma certo che se il colpo gli riesce...

Vul
14-11-2013, 11:58
E qui si rende chiaro qualcosa che sospettavo: il vero obiettivo di Mantle e' Intel, non nVidia. nVidia sarebbe una "perdita collaterale" di cui all' AMD sarebbero comunque piu' che felici ma non e' il target primario.

La scommessa e' da far tremare i polsi ma certo che se il colpo gli riesce...

E che cosa cambia?

Anche in directx 11 Battlefield 4 è gpu limited:

http://static.techspot.com/articles-info/734/bench/CPU_01.png

Più che altro mi interessa la variazione di fps passando da directx 11 a mantle cosa che ancora non han dichiarato in termini %.

Einhander
14-11-2013, 12:09
E che cosa cambia?

Anche in directx 11 Battlefield 4 è gpu limited:

http://static.techspot.com/articles-info/734/bench/CPU_01.png

Più che altro mi interessa la variazione di fps passando da directx 11 a mantle cosa che ancora non han dichiarato in termini %.

intorno al 20% con punte anche molto piu' alte in base alle varie ottimizzazioni, cosi' riporta tomshw...

Cmq battlefield bad company non so' come l'hai sentito tu ma la qualita' dell'audio e' eccellente pur senza le eax -che cmq ripeto e' un discoso inutile perche' e' uno standard morto prima di tutto a causa della creative e del suo infelice e mi sto mantenendo leggero, supporto alla sua stessa tecnologia-..

Per il resto grande audio per half life 1, senza dubbio, ma un audio posizionale e ben strutturato come quello di bf half life 1 se lo sogna -non so' tu che hai sentito, io sul mio pc con scheda audio dedicata creative ho giocato sia hl1 che bad company 2 e la qualita' dell'audio non e' nemmeno paragonabile -nel senso che bfbc2 di tracce e effetti sonori sia a grande distanza che media che piccola e le posizioni sono immensamente piu' precise di quelle di half life 1, per quanto sia chiaro, hl1 per i tempi aveva un signor audio, ma attenzione alle idealizzazioni dello stesso.

tetz
14-11-2013, 12:12
Ma a che serve portare come esempio BF4?

Ormai sembra sempre piu chiaro che mantle è più importante per AMD per le sue apu rispetto a quanto potrà offrire sulle GPU high end.

Il primo produttore mondiale di soluzioni video è Intel con le sue soluzioni integrate.
Con mantle AMD ha la possibilità di spingere al massimo le proprie architetture cpu-gpu, vuoi mettere il boost che può ottenere ad esempio in una soluzione all in one tipo un notebook?

O i vantaggi "secondari" derivanti dalla scelta di una CPU AMD con architettura GNC integrata, tipo la scheda discreta a fare il grosso del lavoro e l'iGPU (con 512 o 768 stream processors) ad elaborare effetti gpgpu (tipo tressfx..).


AMD non sta facendo altro che creare e fornire lo strumento per gestire e integrare al top la sua offerta CPU/GPU/etc. etc, vederlo come una patch per il giochino X è decisamente riduttivo..

zoeid
14-11-2013, 12:13
non penso cambierò mai il mio 1090t :D

ghiltanas
14-11-2013, 12:20
http://www.tomshw.it/cont/news/amd-battlefield-4-con-le-radeon-r9-thief-con-la-r7-260x/50765/1.html#.UoMIa9dUxUQ

http://www.tomshw.it/files/2013/11/immagini_contenuti/50765/amd-bundle_t.jpg

occhio sul bundle, io per ora ho avuto comunicazione solo da sapphire per quanto riguarda questi specifici modelli:

11217-01

R9 270X 2G GDDR5 PCI-E DVI-I / DVI-D / HDMI / DP DUAL-X WITH BOOST & OC VERSION LITE BF4 EDITION

11220-00

R9 270 2G GDDR5 PCI-E DVI-I / DVI-D / HDMI / DP DUAL-X WITH BOOST & OC VERSION LITE BF4 EDITION

11221-00

R9 280X 3G GDDR5 PCI-E DVI-I / DVI-D / HDMI / DP DUAL-X OC VERSION (UEFI) LITE BF4 EDITION

21226-00

R9 290X 4G GDDR5 PCI-E DUAL DVI-D / HDMI / DP FULL BF4 EDITION

21227-00

R9 290 4G GDDR5 PCI-E DUAL DVI-D / HDMI / DP FULL BF4 EDITION


dopo eventualmente contatto anche msi


ps dal comunicato stampa "Il voucher sarà inserito su edizioni speciali dei prodotti SAPPHIRE come ad esempio:
Sapphire R9 280X Dual-X, SAPPHIRE R9 280 Dual-X, SAPPHIRE R9 270X Dual-X e la
nuovissima SAPPHIRE R9 270 Dual-X" ...errore o nuova scheda? :p

Vul
14-11-2013, 12:31
Mah, io di interesse per una potenziale 7950 remake ne ho poco e nulla. Con le 770 intorno ai 240 euro e i prezzi che scenderanno ancora nei prossimi mesi..

zoeid
14-11-2013, 12:33
ottimo, dopo mi prendo la sapphire 290 (21227-00), e con i 50€ risparmiati di bf4 mi prendo l'accelero :D
solo che non trovo uno shop affidabile :doh:

°Phenom°
14-11-2013, 12:44
non penso cambierò mai il mio 1090t :D

E si, la cpu più longeva che sto avendo anche io :D Spero mantle si adatti anche ai k10, anche se non credo..

Vul
14-11-2013, 12:57
intorno al 20% con punte anche molto piu' alte in base alle varie ottimizzazioni, cosi' riporta tomshw...

Cmq battlefield bad company non so' come l'hai sentito tu ma la qualita' dell'audio e' eccellente pur senza le eax -che cmq ripeto e' un discoso inutile perche' e' uno standard morto prima di tutto a causa della creative e del suo infelice e mi sto mantenendo leggero, supporto alla sua stessa tecnologia-..

Per il resto grande audio per half life 1, senza dubbio, ma un audio posizionale e ben strutturato come quello di bf half life 1 se lo sogna -non so' tu che hai sentito, io sul mio pc con scheda audio dedicata creative ho giocato sia hl1 che bad company 2 e la qualita' dell'audio non e' nemmeno paragonabile -nel senso che bfbc2 di tracce e effetti sonori sia a grande distanza che media che piccola e le posizioni sono immensamente piu' precise di quelle di half life 1, per quanto sia chiaro, hl1 per i tempi aveva un signor audio, ma attenzione alle idealizzazioni dello stesso.

Ma quale idealizzazione, io a Day of Defeat ci gioco ancora quindi il paragone ce l'ho presente perchè svariate volte mi sono ritrovato a fare BF 3/4 -> DoD uno dopo l'altro.
Ho oltre 3000 ore su Counter Strike e Day of Defeat e oltre 300 sul solo Battlefield 3 (oltre ad un altra quantità su Battflefield 4 e precedenti, tutti, fino al 1942).

Se hai steam e una copia di half life lanciamo day of defeat entriamo in un server. Ti fermi in un punto della mappa e io comincio a girare per la mappa sparando come un garand..

Comunque non mi va di fare don chisciotte e beccarmi un altro ban per un argomento un poco off topic. Ben vengano i true audio, anzi ben venga qualsiasi cosa dia un audio posizionale decente che io mi son fatto qualsiasi fps online negli ultimi 15 anni ed esclusi i giochi id (sia rage che quake live) ricordo ben pochi giochi dove si capiva bene posizionalmente dove avvenisse tutto, indipendentemente dall'impianto audio/diffusori utilizzati.

Phenomenale
14-11-2013, 12:58
Spero mantle si adatti anche ai k10, anche se non credo..
Mantle è per la scheda video e non la cpu, comunque AMD non farebbe mai un driver video che non funziona in presenza dei SUOI processori... :banned:

Ale55andr0
14-11-2013, 13:10
FX8350 as fast as a i7 4770k using Mantle, underclock the CPU to 2Ghz, no loss in frame rate, still entirely gpu limited.


:eek:


....comunque ragazzi sarebbe DECISAMENTE MEGLIO parlarne qui, per piacere ;)

http://www.hwupgrade.it/forum/showthread.php?t=2597900&page=16

tetz
14-11-2013, 13:16
ottimo, dopo mi prendo la sapphire 290 (21227-00), e con i 50€ risparmiati di bf4 mi prendo l'accelero :D
solo che non trovo uno shop affidabile :doh:

guarda sull'amazzone :)

magnusll
14-11-2013, 13:34
E che cosa cambia?


Cambia che AMD sta usando le scatolette come scusa per far passare gli sviluppatori di motori grafici per videogiochi (loro per ora, poi chissa'...) dal duopolio Intel-Microsoft al monopolio AMD-AMD, ingolosendoli con la "scusa" che si ritrovano il lavoro di conversione sulle tre piattaforme fatto a gratis (oltre al fatto, se le indiscrezioni sono vere, che pare sia proprio intrinsecamente piu' veloce sviluppare su Mantle che non sulle DX).

L' idea va un pelino oltre Battlefield e la gara a chi ce l' ha piu' lungo sulle VGA top di gamma. Se AMD riesce a sbatter fuori i compilatori e le librerie Microsoft sostituendo entrambi con roba propria, anche Intel se lo prende riccamente in quel posto. Stanno cercando di usare il mercato dei videogiochi e relative console come cavallo di troia per puntare ad un obiettivo ben piu' grosso.

Chiaramente e' tutta da vedere, gli altri non sono certo fessi e reagiranno, e hanno i mezzi per farlo. Ma l' idea e' veramente diabolica...

sergettoz
14-11-2013, 13:38
FX8350 as fast as a i7 4770k using Mantle, underclock the CPU to 2Ghz, no loss in frame rate, still entirely gpu limited.


:eek:


....comunque ragazzi sarebbe DECISAMENTE MEGLIO parlarne qui, per piacere ;)

http://www.hwupgrade.it/forum/showthread.php?t=2597900&page=16

Ma come devo montare un 4770k proprio oggi!!! :banghead:

Inviato dal mio GT-I9505 utilizzando Tapatalk

Vul
14-11-2013, 13:45
Cambia che AMD sta usando le scatolette come scusa per far passare gli sviluppatori di motori grafici per videogiochi (loro per ora, poi chissa'...) dal duopolio Intel-Microsoft al monopolio AMD-AMD, ingolosendoli con la "scusa" che si ritrovano il lavoro di conversione sulle tre piattaforme fatto a gratis (oltre al fatto, se le indiscrezioni sono vere, che pare sia proprio intrinsecamente piu' veloce sviluppare su Mantle che non sulle DX).


Non capisco. Le console hanno entrambi api proprietarie che sono molto più efficienti di mantle. Sony ha le sue api proprietarie ottimizzate per il proprio hardware basate su opengl, microsoft ha le sue api ottimizzate per il proprio hardware basate su directx. Mantle serve al mondo pc non al mondo console. Le console hanno già librerie che dicono al sistema "fai fare questo calcolo a questi e manda quest'informazione qui e processala colì e colà" nel modo più efficiente. E' il mondo pc che è schiavo di quell'orrore che sono le direct con il risultato che le performance di macchine molto meno potenti come console e simile a pc molto più performanti.
Quindi proprio non capisco tutto il tuo discorso.

PConly92
14-11-2013, 13:59
Cambia che AMD sta usando le scatolette come scusa per far passare gli sviluppatori di motori grafici per videogiochi (loro per ora, poi chissa'...) dal duopolio Intel-Microsoft al monopolio AMD-AMD, ingolosendoli con la "scusa" che si ritrovano il lavoro di conversione sulle tre piattaforme fatto a gratis (oltre al fatto, se le indiscrezioni sono vere, che pare sia proprio intrinsecamente piu' veloce sviluppare su Mantle che non sulle DX).

L' idea va un pelino oltre Battlefield e la gara a chi ce l' ha piu' lungo sulle VGA top di gamma. Se AMD riesce a sbatter fuori i compilatori e le librerie Microsoft sostituendo entrambi con roba propria, anche Intel se lo prende riccamente in quel posto. Stanno cercando di usare il mercato dei videogiochi e relative console come cavallo di troia per puntare ad un obiettivo ben piu' grosso.

Chiaramente e' tutta da vedere, gli altri non sono certo fessi e reagiranno, e hanno i mezzi per farlo. Ma l' idea e' veramente diabolica...

behh finalmente si sono svegliati!! :Prrr:

sgrinfia
14-11-2013, 14:15
Scusate ragazzi ma....Mantle va bene forse è un ottima idea, ma e ripeto ma ? chi ha una hd 5000 ho 6000 non à più diritto di giocare ?
Perché AMD non le ha certo regalate le sue schede.:mbe:

Vul
14-11-2013, 14:17
Scusate ragazzi ma....Mantle va bene forse è un ottima idea, ma e ripeto ma ? chi ha una hd 5000 ho 6000 non à più diritto di giocare ?
Perché AMD non le ha certo regalate le sue schede.:mbe:

Non sono basate su GCN quindi no. Al momento almeno.
Sono delle API comunque. Succede la stessa cosa quando viene rilasciata una nuova versione di directx.

sgrinfia
14-11-2013, 14:20
Non sono basate su GCN quindi no. Al momento almeno.
Sono delle API comunque. Succede la stessa cosa quando viene rilasciata una nuova versione di directx.

Be almeno che queste API facciano un buon MIELE :D

Vul
14-11-2013, 14:23
Eh il concetto dietro mantle è puramente prestazionistico, almeno al momento.

In pratica serie 200 e 7000 amd dovrebbe andare più veloce sullo stesso gioco switchando da directx a mantle. Il punto è "quanto" più veloce.

magnusll
14-11-2013, 14:46
Non capisco.

Perche' probabilmente mi sono spiegato male.

Per il discorso "Mantle per console" se ricordi e' stata Microsoft che si e' precipitata ad affermare che Xbox non avrebbe mai supportato Mantle, e chissa' perche'... ma in generale a Sony dubito che gliene freghi alcunche' di tutto il discorso; quindi immagina che un domani esca fuori "Mantle per PS4, adesso i giochi vanno nettamente piu veloci e supportiamo 60fps in fullhd su tutta la nostra produzione!!", e AMD si presenta a Microsoft con Mantle per Xbox "cosi' le vostre console recuperano il gap", Microsoft che fa dice di no? Cosi' poi magari non vende piu' un cazzo.

Ma al di la' di questo, non e' nemmeno necessario rilasciare il "Mantle per console". Semplicemente strutturando Mantle per "copiare" l' architettura di PS4 AMD gia' offre comunque due enormi vantaggi agli sviluppatori multipiatta (e difatti guarda qual e' il primo punto menzionato nelle diapositive sul Frostbite):

A) ti riduce il lavoro di porting su PC se non altro se hai pronto il codice per la PS4, e se sei multipiatta quel codice ce l' hai
B) ti riduce il lavoro in generale (Andersson stesso viene citato nell' articolo affermando che scrivere un renderer su Mantle e' nettamente piu' veloce che farlo per OpenGL)

*purche'*, ovviamente, non ti ritrovi poi a dover branchare per nVidia (da cui la richiesta di adottarlo "da parte degli altri vendor", ma quali altri vendor esistono in ambito gaming su PC se non nVidia?)

E' chiaro pero' che se AMD riesce ad agganciare la maggior parte dei produttori di engine grafici, nel momento in cui poi rilascia Mantle per altre piattaforme (e non necessariamente solo console ma anche Linux (che significa SteamOS) e OS X come menzionato nell' articolo) in un certo senso "costringe" gli altri a supportarlo.

Per quanto riguarda poi il fatto che le api proprietarie xbox e sony possano essere piu' efficienti di api proprietarie AMD *quando le console usano hardware AMD*, permettimi di dubitare... se AMD vuole, le sue API per il proprio hardware andranno piu' veloce di qualunque altra API quale che sia la piattaforma utilizzata, per il semplice motivo che loro conoscono il chip meglio di chiunque altro. E questo e' un altro bel "trucchetto" che possono utilizzare per forzare l' adozione di Mantle.

Chi vivra' vedra', ma il giochino e' intrigante.

Vul
14-11-2013, 15:07
Perche' probabilmente mi sono spiegato male.

Per il discorso "Mantle per console" se ricordi e' stata Microsoft che si e' precipitata ad affermare che Xbox non avrebbe mai supportato Mantle, e chissa' perche'...

Te l'ho spiegato.
Sia Sony che Microsoft hanno le loro API molto efficienti. Molto più efficienti di Mantle.
Sono i pc che non le hanno. In un esempio un developer AMD spiegava come su pc le directx facessero fare un sacco di passaggi inutili alle gpu, rendendo molto più lento l'accesso alle memorie o facendo fare calcoli inutili a cpu che potevano essere fatti più efficientemente da gpu ecc.

Il problema del gaming su pc è che il kernel di windows e le directx sono una schifezza che Microsoft dall'alto del suo monopolio se ne frega di migliorare per cui i pc lato gaming sono castrati rispetto alle console. E difatti a parità di hardware le console fan girare i giochi molto meglio di un corrispettivo pc, il problema sono appunto kernel e api. Mantle è il primo passo (forse) per slegarsi dal kernel di windows e dalle api directx.

Non è AMD che si presenta da Microsoft o Sony e gli dice come recuperare un gap o migliorare le prestazioni. E' il pc che ha prestazioni scandalosamente basse per l'hardware che offre. Alle console API nuove non servono a nulla.

Credo che non ti sia chiaro perchè Sony AMD e Microsoft hanno detto perchè Mantle sia per pc, riquoto:

Le DirectX, le celebri API Microsoft sviluppate per garantire compatibilità a 360 gradi, sono da molti considerate uno dei freni all'espressione delle potenzialità hardware del PC. AMD ha deciso di rimediare presentando Mantle, librerie di livello più basso delle DirectX che dovrebbero consentire agli sviluppatori di sfruttare maggiormente le GPU su PC.

Directx hanno il vantaggio di essere compatibili con qualsiasi scheda ma ovviamente perdono in performance essendo "generiche" e non specifiche all'hardware. Mantle è specifico ad un tipo preciso di hardware per cui la potenza disponibile viene meglio sfruttata. Per cui un gioco progettato per avere un hardware di un tipo ben preciso e non per andare bene con qualsiasi scheda video è meno ottimizzato.

Qui lo spiega bene, e dice come Mantle cerchi di emulare le API della PS4 e di ottimizzare quindi sistemi pc basati su hardware GCN:

http://i.imgur.com/DlzlIli.png

Inoltre specifica come la volontà di AMD sia di portare Mantle anche sulla concorrenza (e mi viene un solo motivo: i brevetti si pagano quindi amd si prenderebbe la sua fetta di ogni scheda/mobo ecc che supporti mantle).

magnusll
14-11-2013, 15:41
Te l'ho spiegato.
Sia Sony che Microsoft hanno le loro API molto efficienti. Molto più efficienti di Mantle.


La Xbox usa le DirectX. Sviluppate dalla stessa identica Microsoft che le ha sviluppate per PC. Anzi non e' gia' stato annunciato che le DX 11.2 sarebbero state un' esclusiva di Windows 8.1 e Xbox one? Mi sfugge come mai dichiari nello stesso post che le DirectX versione PC fanno schifo e quelle versione Xbox sono efficienti.
E in ogni caso, la parte piu' vicina all' hardware (quindi quello che sarebbe l' equivalente del driver su Windows) deve per forza averlo scritto AMD per il semplice motivo che solo loro conoscono il chip a quel livello. E sempre per questo motivo, solo loro potrebbero permettersi di scrivere librerie di piu' alto livello che bypassano il driver ma, ops, funzionano solo su architettura GCN...

Per quel che riguarda la Sony... secondo te chi gliel' ha scritta (o quanto meno dato una mano a scrivere) la parte di librerie grafiche? Io non mi stupirei affatto se uscisse fuori che Mantle altro non e' che il "porting" su PC del lavoro che AMD ha fatto per Sony sulle librerie PS4. Da questo punto di vista in effetti ad AMD non servirebbe scrivere "Mantle per PS4", visto che l' avrebbero gia' fatto.

Il resto del discorso resta in piedi. Sfruttando anche solo la somiglianza tra PS4 e Mantle su PC possono "imbarcare" gli sviluppatori e a quel punto forzare la mano agli altri attori in gioco. In effetti... heh... potrebbero anche non voler affatto lavorare ulteriormente su Xbox e puntare direttamente su SteamOS, bypassando completamente Microsoft. Che peraltro deve stare attenta, gia' ha perso il treno sui tablet, se perde pure i videogiochi si scorda il mercato consumer.

Vul
14-11-2013, 15:51
La Xbox usa le DirectX. Sviluppate dalla stessa identica Microsoft che le ha sviluppate per PC. Anzi non e' gia' stato annunciato che le DX 11.2 sarebbero state un' esclusiva di Windows 8.1 e Xbox one? Mi sfugge come mai dichiari nello stesso post che le DirectX versione PC fanno schifo e quelle versione Xbox sono efficienti.
E in ogni caso, la parte piu' vicina all' hardware (quindi quello che sarebbe l' equivalente del driver su Windows) deve per forza averlo scritto AMD per il semplice motivo che solo loro conoscono il chip a quel livello. E sempre per questo motivo, solo loro potrebbero permettersi di scrivere librerie di piu' alto livello che bypassano il driver ma, ops, funzionano solo su architettura GCN...

Per quel che riguarda la Sony... secondo te chi gliel' ha scritta (o quanto meno dato una mano a scrivere) la parte di librerie grafiche? Io non mi stupirei affatto se uscisse fuori che Mantle altro non e' che il "porting" su PC del lavoro che AMD ha fatto per Sony sulle librerie PS4. Da questo punto di vista in effetti ad AMD non servirebbe scrivere "Mantle per PS4", visto che l' avrebbero gia' fatto.

Il resto del discorso resta in piedi. Sfruttando anche solo la somiglianza tra PS4 e Mantle su PC possono "imbarcare" gli sviluppatori e a quel punto forzare la mano agli altri attori in gioco. In effetti... heh... potrebbero anche non voler affatto lavorare ulteriormente su Xbox e puntare direttamente su SteamOS, bypassando completamente Microsoft. Che peraltro deve stare attenta, gia' ha perso il treno sui tablet, se perde pure i videogiochi si scorda il mercato consumer.

Xbox non usa le directx 11.2 . Usa delle API basate su directx, chiamate Directx 11.x specifiche per una determinata console e ottimizzate per questa.

E Microsoft e AMD hanno spiegato bene perchè.
Cito AMD:

Mantle crea un ambiente di sviluppo per il PC che è simile a quello delle console, le quali offrono già API a basso livello, una programmazione più vicina all'hardware, uno sviluppo più semplice e così via. Creando un ambiente di sviluppo più simile alle console Mantle migliora la velocità con cui i prodotti arrivano sul mercato, riduce i costi di sviluppo e permette un rendering più efficiente, migliorando le prestazioni a favore dei videogiocatori. Il collegamento con le console è dovuto al fatto che la next-gen usa grafica Radeon, così gran parte della programmazione che gli sviluppatori stanno facendo per le console è già adeguata alle soluzioni Radeon per PC desktop; questo legame è ciò che permette a Mantle di esistere

Chi ha bisogno di API ottimizzate per l'hardware sono solo i pc che sono limitati a genericissime directx e a volte opengl e non a librerie che sappiano sfruttare con specificità l'hardware offerto.

magnusll
14-11-2013, 17:22
Xbox non usa le directx 11.2 . Usa delle API basate su directx, chiamate Directx 11.x specifiche per una determinata console e ottimizzate per questa.

E Microsoft e AMD hanno spiegato bene perchè.
Cito AMD:

Mantle crea un ambiente di sviluppo per il PC che è simile a quello delle console, le quali offrono già API a basso livello, una programmazione più vicina all'hardware, uno sviluppo più semplice e così via. Creando un ambiente di sviluppo più simile alle console Mantle migliora la velocità con cui i prodotti arrivano sul mercato, riduce i costi di sviluppo e permette un rendering più efficiente, migliorando le prestazioni a favore dei videogiocatori. Il collegamento con le console è dovuto al fatto che la next-gen usa grafica Radeon, così gran parte della programmazione che gli sviluppatori stanno facendo per le console è già adeguata alle soluzioni Radeon per PC desktop; questo legame è ciò che permette a Mantle di esistere

Chi ha bisogno di API ottimizzate per l'hardware sono solo i pc che sono limitati a genericissime directx e a volte opengl e non a librerie che sappiano sfruttare con specificità l'hardware offerto.

A parte il fatto che se io leggo gli annunci pubblicati in giro c'e' proprio scritto che Xbox usera' le stesse DirectX 11.2 che saranno utilizzate in Windows 8.1 e.g.:

http://www.extremetech.com/gaming/160076-directx-11-2-will-be-a-windows-8-1-and-xbox-one-exclusive-microsoft-dangles-the-upgrade-carrot

dove addirittura si ipotizza che l' intero sistema operativo di Xbox one sia praticamente una variante di Windows 8 ;)


ma in ogni caso anche fosse vero che per qualche motivo la variante DirectX su Xbox funzioni meglio di quella Windows [e in parte sara' senz' altro vero ma secondo me e' piu' dovuto al fatto che su Xbox c'e' un solo driver specifico ottimizzato per l' unico chip grafico possibile piu' che per una differenza nell' implementazione delle DirectX stesse, tutt' al piu' alla Microsoft avranno tolto di mezzo un po' di mondezza che serve su Windows per supportare tipi di driver diversi da quello AMD/GCN], l' ultima parte del brano che quoti da' ragione a me quando dice che gli sviluppatori, oltre alla miglior ottimizzazione su pc, si ritrovano pure gran parte del lavoro gia' fatto ;)

Poi ribadisco secondo me, viste pure le slide uscite, in realta' il link e' piu' lato PS4 che non Xbox e non a caso; rimane comunque un grosso plus per chi sviluppa su multipiattaforma.

[EDIT] In realta' ripensandoci e' ancora piu' subdola la cosa... se Xbox one gira su una variante Windows, Mantle potrebbe girare anche su Xbox...

killeragosta90
14-11-2013, 20:44
Ragazzi c'è il thread apposito, qui siete OT.

Einhander
15-11-2013, 03:55
Ma quale idealizzazione, io a Day of Defeat ci gioco ancora quindi il paragone ce l'ho presente perchè svariate volte mi sono ritrovato a fare BF 3/4 -> DoD uno dopo l'altro.
Ho oltre 3000 ore su Counter Strike e Day of Defeat e oltre 300 sul solo Battlefield 3 (oltre ad un altra quantità su Battflefield 4 e precedenti, tutti, fino al 1942).

Se hai steam e una copia di half life lanciamo day of defeat entriamo in un server. Ti fermi in un punto della mappa e io comincio a girare per la mappa sparando come un garand..

Comunque non mi va di fare don chisciotte e beccarmi un altro ban per un argomento un poco off topic. Ben vengano i true audio, anzi ben venga qualsiasi cosa dia un audio posizionale decente che io mi son fatto qualsiasi fps online negli ultimi 15 anni ed esclusi i giochi id (sia rage che quake live) ricordo ben pochi giochi dove si capiva bene posizionalmente dove avvenisse tutto, indipendentemente dall'impianto audio/diffusori utilizzati.

unreal, unreal tournament 2003-2004

FroZen
15-11-2013, 08:35
a niente, come non serve a niente su pc.

Quante certezze che hai tu ragazzo :p

FroZen
15-11-2013, 08:36
Scusate ragazzi ma....Mantle va bene forse è un ottima idea, ma e ripeto ma ? chi ha una hd 5000 ho 6000 non à più diritto di giocare ?
Perché AMD non le ha certo regalate le sue schede.:mbe:

Ma che centra?!? :muro:

Mi lamenterò con LG che il mio smartphone 3G non può usare LTE :rolleyes:

appleroof
15-11-2013, 08:39
Ma che centra?!? :muro:

Mi lamenterò con LG che il mio smartphone 3G non può usare LTE :rolleyes:

physx lo puoi usare con vga dal 2006 ad oggi :ciapet: :ops:

Ale55andr0
15-11-2013, 09:12
physx lo puoi usare con vga dal 2006 ad oggi :ciapet: :ops:

poco importa che se lo attivi giocando con una vga del 2006 e ci fai girare batman conti i minuti tra un frame e l'altro :asd:
i 4 foglietti per aria però hai tutto il tempo di leggerli :asd: :Prrr:

appleroof
15-11-2013, 09:46
poco importa che se lo attivi giocando con una vga del 2006 e ci fai girare batman conti i minuti tra un frame e l'altro :asd:
i 4 foglietti per aria però hai tutto il tempo di leggerli :asd: :Prrr:

http://images4.wikia.nocookie.net/__cb20091115210805/uncyclopedia/images/1/14/Muttley_ani.gif

appleroof
15-11-2013, 10:08
edit thread sbagliato

Phenomenale
15-11-2013, 11:03
Mantle, quanta fantasia nelle slide AMD per vendere qualche 290X in più... :rolleyes:

Mantle... nelle slide postate durante la presentazione di Hawaii, era descritto come un API di basso livello close to metal al GCN 2.0 per sfruttarlo al meglio, si insinuava addirittura fossero le API delle console nextgen per i porting 1:1. Poi al Developer summit di 2 giorni fa è diventato tutto l'opposto... magicamente adesso è un multi-piattaforma, multi-gpu, multi-vendor ed addiruttura di alto livello (perchè astratta dall' hardware).

Come è possibile che il progetto sia cambiato radicalmente in 2/3 settimane? O forse "Mantle" è solo un nome creato dal marketing a scopo promozionale... ed esiste solo nelle slide ed in una futura patch per BF4? Non sarebbe la prima volta che AMD (intendo le CPU) fa tante slide tanti annunci e poi esce poco/nulla.

Comunque, ecco qui le slide di Mantle prima & seconda presentazione, si passa dal "Works with all Graphics Core Next GPUs" al "Not tied to AMD's GCN architecture". XD.
A me pare si contraddicano a vicenda, Voi magari le interpreterete diversamente da me. :fagiano:

Prima:

http://assets.hardwarezone.com/img/2013/09/amd-mantle-1.jpg

Dopo:

http://techreport.com/r.x/2013_11_13_Mantle_to_power_15_Frostbite_games_DICE_calls_for_multivendor_support/multivendor.jpg

mircocatta
15-11-2013, 11:23
mantle troppo chiuso, non vi va bene

mantle più aperto verso anche nvidia, non vi va bene

vabè


l'unica cosa che mi frega è che funzioni e mi faccia fare più fps :sofico:

magnusll
15-11-2013, 11:24
A me pare si contraddicano a vicenda, Voi magari le interpreterete diversamente da me. :fagiano:


Fa piacere constatare che i propri messaggi vengano letti :p

Vai una pagina indietro e rileggiti quello che scrivo ;)

Mantle va ben al di la' di una "markettata" per le VGA di fascia alta. Perlomeno nelle intenzioni di AMD, poi vedremo.

Foglia Morta
15-11-2013, 11:25
Mantle, quanta fantasia nelle slide AMD per vendere qualche 290X in più... :rolleyes:

Mantle... nelle slide postate durante la presentazione di Hawaii, era descritto come un API di basso livello close to metal al GCN 2.0 per sfruttarlo al meglio, si insinuava addirittura fossero le API delle console nextgen per i porting 1:1. Poi al Developer summit di 2 giorni fa è diventato tutto l'opposto... magicamente adesso è un multi-piattaforma, multi-gpu, multi-vendor ed addiruttura di alto livello (perchè astratta dall' hardware).



In realtà non è cambiato nulla... sei tu che non hai capito nulla di ciò che hai letto e non c' è nulla da interpretare , basta sapere cosa si sta leggendo.

Primo la teoria secondo cui sarebbero state le API delle console nextgen non viene da AMD ma da siti che hanno esposto le proprie speculazioni personali.
Secondo al livello di sviluppo attuale hanno detto che il multi-piattaforma è una possibilità reale ma che almeno inizialmente si concentrano su Windows.
Terzo , multi-gpu e allora ? perchè non dovrebbe ?
Quarto Multi-vendor con il punto interrogativo o leggi solo ciò che ti pare ? Inoltre quella ( la seconda ) non è una slide di AMD ma di Johan Andersson , lui spera in un' adozione il più larga possibile , è normale dal suo punto di vista , e invita gli altri vendor ad adeguarsi a Mantle , lo dice perchè magari gli altri vendor non avrebbero tutti i vantaggi di cui godrebbe GCN ma rappresenterebbe comunque un miglioramento rispetto a DX e OpenGL e quindi ne beneficerebbero anche i non possessori di gpu con GCN ( sempre secondo JA )

sgrinfia
15-11-2013, 12:31
RAGà, UNA NOTIZIA, pare che le 290 si possono sbloccare ha 290x.:read:

FroZen
15-11-2013, 12:35
RAGà, UNA NOTIZIA, pare che le 290 si possono sbloccare ha 290x.:read:

L'unica notizia degna di nota è l'assassinio dell'italiano :doh:

sgrinfia
15-11-2013, 12:46
L'unica notizia degna di nota è l'assassinio dell'italiano :doh:

LA scrivo di nuovo perché non vorrei essere arrestato per omicidio:D .
Ragazzi una notizia ,sembra che le 290 possono essere flashare ha 290x.

(FronZen ,non sai che in Italia esistono i dialetti ?):)

FroZen
15-11-2013, 12:48
(FronZen ,non sai che in Italia esistono i dialetti ?):)

:doh: :doh: :doh: :doh: :doh:

"a" non vuole la h quando non è verbo avere :stordita:

Vul
15-11-2013, 12:48
E nessuno di questi prevede l'h di fronte alle preposizioni.

Comunque anche questa volta hai sbagliato a scrivere.

Ci sono ben 2 errori in questa frase :D

Ragazzi una notizia ,sembra che le 290 possono essere flashare a 290x.


Ragazzi una notizia, sembra che le 290 possano essere flashate a 290x.

sgrinfia
15-11-2013, 12:54
E nessuno di questi prevede l'h di fronte alle preposizioni.

Comunque anche questa volta hai sbagliato a scrivere.

Ci sono ben 2 errori in questa frase :D

Ragazzi una notizia ,sembra che le 290 possono essere flashare a 290x.


Ragazzi una notizia, sembra che le 290 possano essere flashate a 290x.

Si ma quando scrivi sulla tastiera,quando il tuo dialetto e radicato nel tuo io viene automatico.:D

Ale55andr0
15-11-2013, 13:23
LA scrivo di nuovo perché non vorrei essere arrestato per omicidio:D .
Ragazzi una notizia ,sembra che le 290 possono essere flashare ha 290x.

(FronZen ,non sai che in Italia esistono i dialetti ?):)

era meglio lasciarti arrestare, che mostrare recidività :asd:

Ale55andr0
15-11-2013, 13:28
Si ma quando scrivi sulla tastiera,quando il tuo dialetto e radicato nel tuo io viene automatico.:D

ma che ci azzeccha la "h" del verbo avere col dialetto? :D :mc:


torniamo IT va :fagiano:


ho letto il livello di prestazioni di mantle: si parlava di una media di circa +20% con magari picchi più elevati...a voi, prendendo per buoni questi valori, sembra un buon risultato o è un po' deludente? :stordita:


...oddio, gratis è tutto buono, anche un frame eh :asd:

Athlon 64 3000+
15-11-2013, 13:44
ma che ci azzeccha la "h" del verbo avere col dialetto? :D :mc:


torniamo IT va :fagiano:


ho letto il livello di prestazioni di mantle: si parlava di una media di circa +20% con magari picchi più elevati...a voi, prendendo per buoni questi valori, sembra un buon risultato o è un po' deludente? :stordita:


...oddio, gratis è tutto buono, anche un frame eh :asd:

Se fosse vero tale risultato sarebbe per me comunque molto valido.
Il motivo è che voglio cercare di essere realistico e non aspettarmi aumenti di prestazioni stratosferici e quindi una media del 20% con punte del 30% la riterrei un eccelente risultato.

<Masquerade>
15-11-2013, 14:35
non ci credo:

http://videocardz.com/47990/amd-radeon-vesuvius-two-hawaii-xt-gpus-making


come la fanno? con un dissy quad slot?

mircocatta
15-11-2013, 14:41
il mio ax850 non basterebbe :asd:

Pelvix
15-11-2013, 14:44
non ci credo:

http://videocardz.com/47990/amd-radeon-vesuvius-two-hawaii-xt-gpus-making


come la fanno? con un dissy quad slot?

Spero davvero sia un fake :doh:

FroZen
15-11-2013, 14:45
E' un esercizio di stile, se mai uscirà...........anche se due R290 lisce ci starebbero con qualche accorgimento...

°Phenom°
15-11-2013, 14:48
E' un esercizio di stile, se mai uscirà...........anche se due R290 lisce ci starebbero con qualche accorgimento...

Beh se mettono un dissi reference efficiente tri ventola e cappano la temp sempre a 95 gradi si potrebbe anche fare, certo sarebbe meglio, in caso uscisse davvero, se fosse only design aftermarket con dissi scelti dai vari partner

appleroof
15-11-2013, 14:51
Beh se mettono un dissi reference efficiente tri ventola e cappano la temp sempre a 95 gradi si potrebbe anche fare, certo sarebbe meglio, in caso uscisse davvero, se fosse only design aftermarket con dissi scelti dai vari partner

secondo me è un fake photoshoppato...voglio solo immaginare quelle tre ventole che combinerebbero, poi devono mettere in bundle queste (senza parlare del nome, Vesuvius...:asd: ) :

http://i.imgur.com/LSKRdWj.jpg (http://imgur.com/LSKRdWj)

edit: in effetti scrivono loro stessi che l'immagine è un fake

°Phenom°
15-11-2013, 15:14
secondo me è un fake photoshoppato...voglio solo immaginare quelle tre ventole che combinerebbero, poi devono mettere in bundle queste (senza parlare del nome, Vesuvius...:asd: ) :

http://i.imgur.com/LSKRdWj.jpg (http://imgur.com/LSKRdWj)

edit: in effetti scrivono loro stessi che l'immagine è un fake

Il nome credo sia azzeccatissimo in caso, come anche lo è Hawaii per le attuali single cpu, visto lo "spirito ardente" che hanno :p
Sisi ovviamnete quell immagine è un fake, ma credo sia ovvio che dovrà essere dotata di un triventola efficiente una duel gpu del genere.
Per il fatto rumorosità credo alla fine sarà forse anche più silenzioso di una reference monoventola, al massimo farà lo stesso rumore visto le 3 ventole.
Comunque ripeto, se farei una vga del genere, la farei only design by partner, visto i dissi reference (di dubbia qualità) a cui amd si affida da anni :stordita:

<Masquerade>
15-11-2013, 15:21
certo che è un fake... con tre ventole come quelle sarebbe terrificante, non ci sarebbe altro modo per descriverlo.

Pelvix
15-11-2013, 15:23
certo che è un fake... con tre ventole come quelle sarebbe terrificante, non ci sarebbe altro modo per descriverlo.
Beh, non è che con la reference ci siano andati lontani dal terrifcante eh.. :mbe:

<Masquerade>
15-11-2013, 15:33
Beh, non è che con la reference ci siano andati lontani dal terrifcante eh.. :mbe:

ed allora fai terrificante x 3
che ti devo di....

Pelvix
15-11-2013, 15:37
ed allora fai terrificante x 3
che ti devo di....

Ma mica era una critica nei tuoi confronti ... :mbe:
Comunque carina il "terrificante x3" :)

mister_slave
15-11-2013, 16:45
l'immagine è un fake, è inutile mettere + di una ventola a turbina...

°Phenom°
15-11-2013, 16:47
l'immagine è un fake, è inutile mettere + di una ventola a turbina...

Sisi ma infatti c'è anche scritto, ovviamente andrebbero messe tre ventolozze efficienti e silenziose tipo quelle degli accelero.

Gyammy85
16-11-2013, 08:18
Ho letto che Sapphire sta per introdurre le r9 280...ci sono specifiche in giro?

[Luce Nera] Raptor
16-11-2013, 08:38
Ho letto che Sapphire sta per introdurre le r9 280...ci sono specifiche in giro?

esistono già in vendita e c'è l'apposita discussione ma sono le r9 280x

sgrinfia
16-11-2013, 13:45
L'articolo è un fake, come può uno del mestiere dire 8 gb di memoria ?,
possibile che non sappia che non si può sommare ?,:muro:

The_SaN
16-11-2013, 15:13
L'articolo è un fake, come può uno del mestiere dire 8 gb di memoria ?,
possibile che non sappia che non si può sommare ?,:muro:Sarebbero 2x4GB = 8GB fisici, 4GB utilizzabili...non c'è nulla di strano.
Fake comunque, eh, ma per ben altri motivi.

ghiltanas
18-11-2013, 21:58
anche MSI aderisce al bundle con BF4, sulla pagina fb in firma ho inserito i modelli indicatomi da MSI Italia ;)

mircocatta
20-11-2013, 08:24
non ne parla nessuno?
https://www.google.it/search?q=tress+fx+2.0&ie=utf-8&oe=utf-8&rls=org.mozilla:it:official&client=firefox-a&gws_rd=cr&ei=mHCMUrSpG6PS0QXZ-IGwBQ

Foglia Morta
22-11-2013, 05:41
http://www.rebellion.co.uk/blog/2013/11/21/rebellion-throws-weight-behind-amd-mantle

I Rebellion annunciano il supporto a Mantle tramite il loro engine Asura , primo titolo nel 2014 Sniper Elite 3

Ale55andr0
22-11-2013, 09:45
non ne parla nessuno?
https://www.google.it/search?q=tress+fx+2.0&ie=utf-8&oe=utf-8&rls=org.mozilla:it:official&client=firefox-a&gws_rd=cr&ei=mHCMUrSpG6PS0QXZ-IGwBQ

non li ho mica capiti quei grafici a barre :fagiano: cioè in tress fx la 280x va più forte della 290? :stordita:
...a meno che è un grafico che va letto "al contrario" e quelle barre indicano le risorse "assorbite" :confused:

mircocatta
22-11-2013, 09:48
non li ho mica capiti quei grafici a barre :fagiano: cioè in tress fx la 280x va più forte della 290? :stordita:
...a meno che è un grafico che va letto "al contrario" e quelle barre indicano le risorse "assorbite" :confused:

tralasciando che ho sbagliato link, dovevo mettere questo
http://www.tomshw.it/cont/news/tressfx-2-0-dai-capelli-di-lara-a-erba-e-pellicce-realistiche/50910/1.html#.Uo8mBycceSE

comunque si parla di tempi di rendering, più son bassi e meglio è, difatti la 290 li ha più bassi della 280x :)

Foglia Morta
26-11-2013, 10:51
considerazioni varie di Tech Report su Mantle ( in base a ciò che si è detto al developer summit di giorni fa ): http://techreport.com/review/25683/delving-deeper-into-amd-mantle-api

Athlon 64 3000+
15-12-2013, 13:44
E' venuta fuori proprio in questi giorni che TSMC nel Q4 2014(se ho capito bene)avvierà la produzione in volumi del pp a 16nm FINFET è che verrà usato per prodotti ad alte prestazioni come le GPU.
Secondo me la prossima generazione AMD verrà fuori con tale processo e non escludo che verranno fuori della GPU davvero molto potenti,magari una GPU tipo Pitcairn come consumi e potenza paragonabile alla 290x.

The_SaN
15-12-2013, 15:35
Se i 16nm saranno pronti verso fine 2014 (2014, vero athlon? :D) può anche darsi che TMSC possa abbandonare i 20nm per chip ad alte prestazioni...ma sono solo supposizioni.

Ale55andr0
16-12-2013, 08:29
non escludo che verranno fuori della GPU davvero molto potenti,magari una GPU tipo Pitcairn come consumi e potenza paragonabile alla 290x.


non è detto che sia così "semplice"

Foglia Morta
16-12-2013, 20:25
AMD goes 3d: http://www.semiwiki.com/forum/content/3003-amd-goes-3d.html

http://electroiq.com/blog/2013/12/amd-and-hynix-announce-joint-development-of-hbm-memory-stacks/

Stanno per concretizzare ciò di cui parlano da tempo:
http://sites.amd.com/la/Documents/TFE2011_001AMC.pdf
http://sites.amd.com/us/Documents/TFE2011_006HYN.pdf

A questo punto penso proprio che con pirate islands e/o carrizo arriveranno queste nuove soluzioni

Ale55andr0
18-12-2013, 19:33
http://www.rage3d.com/board/showthread.php?threadid=34006947

dettagli freschi su mantle.

sarà anche fuffa, ma certo queste slide intigrano, da un lato dicono che l'architettura della cpu non influenzerà i giochi (con un 8350 alla pari di un 4770), dall'altro dicono più core ci sono meglio è.

vedremo...

non credo proprio sia fuffa, ma allo stesso tempo l'unico banco di prova atteso in tempi brevi (BF4) ha talmente tanti problemi di suo...:rolleyes:

elevul
19-12-2013, 00:16
http://www.rage3d.com/board/showthread.php?threadid=34006947

dettagli freschi su mantle.

sarà anche fuffa, ma certo queste slide intigrano, da un lato dicono che l'architettura della cpu non influenzerà i giochi (con un 8350 alla pari di un 4770), dall'altro dicono più core ci sono meglio è.

vedremo...

Guardata tutta, ed è parecchio interessante, ma ancora prima di decidere qualsiasi cosa dobbiamo vedere BF4 con la patch di Mantle, e poter fare le comparazioni tra DX e Mantle.

Phenomenale
19-12-2013, 09:33
io non penso sia fuffa ma sai c'è qualcuno sul forum che non fa altro che ripeterlo dalla prima volta che annunciarono mantle senza neanche aspettare di vedere come funziona.
E' quello il punto: fare tanti annunci su un software che non puoi neanche vedere come funziona = FUFFA. :stordita:

FroZen
19-12-2013, 09:39
E' quello il punto: fare tanti annunci su un software che non puoi neanche vedere come funziona = FUFFA. :stordita:

Mica li fa AMD i giochi :fagiano: sono stati annunciati 15 titoli, abbiate pazienza che arriveranno....poi ci si lamenta se sono alpha buggate pagate a prezzo pieno.

MrBrillio
19-12-2013, 10:48
anche io non penso sia fuffa ma sai c'è qualcuno sul forum che non fa altro che ripeterlo dalla prima volta che annunciarono mantle senza neanche aspettare di vedere come funziona.
certo bf4 non sembra aiutare non ne stanno facendo una giusta in quanto a patch.

Ovvio, io per primo ho preso la 290X proprio perchè son curioso di vedere l'accoppiata AMD + Mantle nei titoli che lo utilizzeranno, altrimenti non vedo altro motivo per acquistare una scheda del genere invece che prendere un Nvidia.
Se sarà solo fuffa mi sa che non durerà molto in casa mia.

FroZen
19-12-2013, 11:28
Ovvio, io per primo ho preso la 290X proprio perchè son curioso di vedere l'accoppiata AMD + Mantle nei titoli che lo utilizzeranno, altrimenti non vedo altro motivo per acquistare una scheda del genere invece che prendere un Nvidia.
Se sarà solo fuffa mi sa che non durerà molto in casa mia.

E hai rinunciato a PhisX?!? :eek:



:asd:

MrBrillio
19-12-2013, 12:07
E hai rinunciato a PhisX?!? :eek:
:asd:

Eh sì a malincuore ho dovuto fare a meno di quella feature così fondamentale..infatti se mantle non dovesse essere qualcosa di rilevante tornerei a guardare i ruscelletti di acqua in borderlands 2 :D
Aahahha no dai che poi scateno l'ira di dio dicendo ste cose ;)

Phenomenale
19-12-2013, 12:13
Mica li fa AMD i giochi :fagiano:
Quoto, ma io mi riferivo a Mantle... AMD fa tanti annunci tante presentazioni però Mantle dov'è?
Forse era più ponderato prima far uscire la beta di Mantle su BF4, far vedere a tutti come andava, poi annunciarne i meriti. IMHO. :stordita:
E hai rinunciato a PhisX?!? :eek:
Non ha perso nulla, BF4 non ha la fisica... ;)

[Luce Nera] Raptor
19-12-2013, 13:11
ma se hanno bloccato gli sviluppatori di bf4 sullo sviluppo e li hanno reindirizzati per correggere i bug enormi del gioco ci sarà un perchè no? prima magari è necessario che il gioco funzioni a dovere e poi si dedichino al resto...

Maury
19-12-2013, 13:55
Con tutte le rogne che ha EA con BF4, addirittura sta partendo una class action, figuramoci se pensa a Mantle, ha bloccato anche i DLC per mettere tutto mil team a correggere i bugs.. Pe rme si vedrà forse qualcosa in gennaio...

FroZen
19-12-2013, 14:28
Quoto, ma io mi riferivo a Mantle... AMD fa tanti annunci tante presentazioni però Mantle dov'è?
Forse era più ponderato prima far uscire la beta di Mantle su BF4, far vedere a tutti come andava, poi annunciarne i meriti. IMHO. :stordita:

Non ha perso nulla, BF4 non ha la fisica... ;)

Appunto, e come fai a VEDERE come va se non hai un titolo uno che ha un engine che lo sfrutti ma che arriveranno nel 2014? ;) BF4 è (era) il primo titolo a beneficiarne.

elevul
19-12-2013, 14:30
Raptor;40451737']ma se hanno bloccato gli sviluppatori di bf4 sullo sviluppo e li hanno reindirizzati per correggere i bug enormi del gioco ci sarà un perchè no? prima magari è necessario che il gioco funzioni a dovere e poi si dedichino al resto...
Il problema è che la cosa di Mantle non è solo legata alle vendite di BF4, c'è tantissima gente che aspetta i risultati per decidere che GPU comprare, quindi dovrebbe esserci AMD a spingere tantissimo su EA per rilasciare la patch.
Almeno in teoria.
In pratica AMD sta vendendo talmente tante 290/290x ai litecoin miners che non fa in tempo a produrle che già sono vendute, quindi non credo abbiano l'acqua alla gola... :asd:

FroZen
19-12-2013, 14:36
In pratica AMD sta vendendo talmente tante 290/290x ai litecoin miners che non fa in tempo a produrle che già sono vendute, quindi non credo abbiano l'acqua alla gola... :asd:

Esatto.........le r9 vendono benissimo già così, mantle sarà la ciliegina sulla torta.

[Luce Nera] Raptor
19-12-2013, 15:36
infatti, ma come anche Maury hanno bloccato tutto per risolverei problemi anche per amd stessa ne trae vantaggio a far uscire il prima possibile mantle.

Phenomenale
19-12-2013, 15:58
BF4 è (era) il primo titolo a beneficiarne.
BF4 sarà il primo titolo a beneficiarne, per adesso Mantle non c'è. Dico semplicemente questo, non vendere la pelle dell' orso prima di averlo catturato. :boh:
In pratica AMD sta vendendo talmente tante 290/290x ai litecoin miners che non fa in tempo a produrle che già sono venduteE' vero!!! Leggo anche io nei forums americani che le stanno spazzolando dagli scaffali per il mining, tanto da causare "shortage"!!!!! :read:

FroZen
19-12-2013, 16:44
Tra l'altro credo che sia più interessante almeno adesso per i possessori di 7950/7970 che per chi ha 290/x.

Esatto....e non solo.................anche chi ha sistemi cpu "vecchiotti" dato che sembra spingere piu verso gpu-limited che non cpu-limited ne dovrebbe beneficiare....ergo, avere una cpu da 100 o 500€ darà gli stessi risultati ..... non si possono vedere piattaforme esacore da 1000€ per tirare giochetti per lo più programmati alla carlona...su titoli mantle si rischia che un phenom 2 di 4 anni fa tiri al limite una 290x....:read:

Einhander
21-12-2013, 14:19
vedremo.... anni fa nvidia tentò una strada simile con il CG http://en.wikipedia.org/wiki/Cg_(programming_language) speriamo non con al stessa sorte

nvidia non aveva il monopolio console e una potenza in virgola mobile paragonabile all'architettura GCN attuale....in ogni caso, sebbene mantle non sia previsto per console -almeno per ora- questo cmq porta gli sviluppatori ad essere "vicini" ad amd a priori di qualsiasi altro tipo di esclusive inq uanto quasiasi cosa multipiatta non puo' non considerare l'hardware amd..

°Phenom°
21-12-2013, 15:07
Molto interessante, una demo di Mantle con tanto di presentazione:

http://www.youtube.com/watch?v=QIWyf8Hyjbg#t=1614

elevul
23-12-2013, 13:05
beh si però come hai detto le console non usando mantle alla fine non ne fanno tener conto agli sviuppatori in ottica sviluppo console, Semmai dalla presentazione parlano di poche risorse e sviluppo del path mantle in breve tempo oltre che un'evidente ottimizzazione anche delle piattaforme AMD lato cpu. Cioè mantle non fa andare forte solo le vga amd, ma anche le cpu amd (e si presume intel) e questo potrebbe essere un incentivo ad usarlo (forse).

il problema è vedere cosa succederà se mantle si rivelerà competitivo: nvidia farà il suo? avremo path diversi a seconda del brand? si accordano magari in uno scambio di know how con cuda/physx (fanta vga)?

Più che CUDA/Physx (OpenCL è di gran lunga meglio), se mai faranno lo scambio sarà con G-Sync, che altrimenti ci ritroviamo con monitor Gsync e monitor Rsync (o come cappero vorranno chiamarli) e sarà un disastro. :asd:

Foglia Morta
07-01-2014, 04:47
ah già gsync... non so perchè però la vedo dura che sti due si accordino su qualcosa, mah..

AMD freesync: http://www.anandtech.com/show/7641/amd-demonstrates-freesync-free-gsync-alternative-at-ces-2014

gratis e senza hardware aggiuntivo essendo parte di uno standard . la dimostrazione l' hanno fatto su pannelli mobile già in commercio , è molto facile che ci siano o ci saranno molti monitor stand alone con il supporto a questa tecnologia.

Foglia Morta
07-01-2014, 05:53
molto furbi in nVidia... tanto per frammentare un po il mercato e creare dei costi inutili :asd:

http://translate.googleusercontent.com/translate_c?depth=2&ie=UTF8&prev=_t&rurl=translate.google.com&tl=en&u=http://www.hardware.fr/news/13517/ces-amd-freesync-g-sync-gratuit.html&usg=ALkJrhgZbZkX3FVENh6zk3Gk2S4vmhFdlQ

In our conversations with AMD, we of course discussed the G-SYNC. Is AMD is ready to propose an alternative. With a big smile while AMD has launched a demonstration on two phones, one equipped with a variable frequency refreshment, as does G-SYNC.

To our surprise, AMD then explained to us that this display technique was already in development for some time, but mainly for other reasons: to reduce consumption display related to mobile systems. AMD also specifies a standard VESA already exists for this frame and the consortium was very surprised at the announcement of G-SYNC by Nvidia.

So many tiles already would support the frequency of variable cooling via a variable period VBLANK (exactly what G-SYNC so). If the email linked to the display supports it, which is not a problem according to AMD, then it is sufficient that the display engine of the GPU and drivers to do the same. AMD says that its recent GPU are capable and software support is also ready even if the access interface is not yet in place.

AMD has yet designed a small demo that shows all in action and it works just as well as priori G-SYNC, no extra hardware, no additional extra cost! AMD drives the point facing Nvidia stating that they do not intend to do so to add an additional cost to operate a technology that is already a standard. Why they call him now FreeSync.

AMD does not yet know when or how this display technology will be offered to users Radeon or which screens actually incorporate this possibility. AMD seems to have been surprised by G-SYNC-like according to its leaders a way for Nvidia to earn a few months on the timing of arrival of a technology standard expected.

It is not impossible that a firmware update can make this support on some screens already on sale, then this should be the case at no extra cost on future screens. Moreover, this approach allows a fairly simple use in the mobile world, which could benefit more quickly.

This is new in our case and is of course a big surprise. We are trying to learn more and our current assumption is that the Nvidia GPU may not directly support this possibility, which would explain the use of G-SYNC module.

Phenomenale
07-01-2014, 08:03
Eccolo!!! Direttamente dal CES 2014!!!
La risposta di AMD al G-sync della concorrenza: il Free-Sync! :read:

Sarà uno standard aperto e libero da brevetti, basato su caratteristiche VESA già esistenti senza richiedere costosi moduli hardware aggiuntivi... ;)
http://videocardz.com/48661/amd-freesync-free-alternative-nvidias-g-sync
http://wccftech.com/amd-guns-nvidias-gsync-free-alternative-called-freesync/
http://www.anandtech.com/show/7641/amd-demonstrates-freesync-free-gsync-alternative-at-ces-2014

Adesso la domanda è: sarà una realtà tangibile oppure stile Mantle (che è rivoluzionario ma esiste solo sulle slide di presentazione) :rolleyes:

AMD, set me free! :D

Ale55andr0
07-01-2014, 09:23
per mantle: se vene ulteriormente posticipato in BF4 (sarebbe una figuraccia ma non si sa mai :fagiano: ), il primo appuntamento utile per vederlo all'opera dovrebbe essere comunque thief il 28 febbraio, che supporta anche tress fx 2.0...a meno che non bisogna aspettare una patch anche per quello :mc:

maurilio968
07-01-2014, 09:36
La GPU di punta di AMD, nota come Hawaii, potrebbe avere un maggior numero di Compute Unit rispetto alle 44 unità - 2816 stream processor - disponibili sulla Radeon R9 290X. Lo scrive il sito DG's Nerdy Story, pubblicando quella che sembra essere l'immagine del die della GPU (non resa nota da AMD).

http://cfile22.uf.tistory.com/image/2237464E52BC52E8043E26

Il chip grafico Hawaii potrebbe avere - e il condizionale è d'obbligo - 48 Compute Unit, per un totale di 3072 stream processor, 192 TMU e 64 ROPs. AMD, insomma, si sarebbe mantenuta del margine, lasciando prestazioni sul piatto e un buon numero di transistor inutilizzati - la GPU ne conta 6,2 miliardi. Una scelta che, molto probabilmente, è stata effettuata per un problema di rese produttive.


http://www.tomshw.it/cont/news/amd-hawaii-risorse-nascoste-per-la-gpu-delle-radeon-r9/52186/1.html

The_SaN
07-01-2014, 21:12
per il resto il freesync mhmh bello sulla carta, da vedere se funziona bene... sempre meglio di dover cambiare monitor ogni volta che nvidia tira fuori una caratteristica... o meglio dire, optional a caro prezzo, delle sue schede, vedi 3dvision, vedi gsync. Di certo non cambierei il monitor per il gsync, non lo farei neanche per il freesync ammesso che il mio non lo supporti già... di tearing ultimamente nei giochi ce ne sta sempre meno e basta mettere un limitatore di frames alto e vsync off e si vive sereni nella maggior parte dei casi.Aaaargh!

http://4.bp.blogspot.com/-M3V5b39MCbI/TrqszIYIH3I/AAAAAAAAA0Y/-a_rkG5pO7o/s1600/infarto.jpg

Phenomenale
07-01-2014, 22:31
Mantle non è un gioco, va supportato dai giochi e se i giochi non ci sono che colpa ne ha amd
http://s29.postimg.org/mxqrlhtpz/omg_gamer.jpg (http://postimage.org/)

The_SaN
08-01-2014, 00:33
Leggi bene non ho detto che risolve ho detto che limita in parte il fenomeno. Prova tu stesso a bf4 metti 120fps vsync off su un 60hz.Già fatto. Il tearing è presente comunque. Anzi, limitare i frames mi aumenta il tearing, perchè lo fa sempre nello stesso punto e lo noto di più.
In Battlefield 4 almeno il lag del vsync si nota poco e lo lascio sempre on. Se lo faccio in Team Fortress 2 mi vengono i capelli bianchi dalla rabbia, quindi meglio il tearing a questo punto.

MrBrillio
08-01-2014, 15:08
Beato te..io quando gioco con il PC sulla tv di casa (un Pana da 52") o attivo il vsync o tearing ne vedo a bizzeffe :)

mikael84
12-02-2014, 13:35
http://www.tomshw.it/cont/news/radeon-r7-265-e-radeon-r9-280-amd-non-si-ferma-piu/53295/1.html

Nuove radeon all'orizzonte, tra cui anche la 280 liscia(7950).
Si parla anche di una dual-gpu

Lan_Di
12-02-2014, 13:39
http://www.tomshw.it/cont/news/radeon-r7-265-e-radeon-r9-280-amd-non-si-ferma-piu/53295/1.html

Nuove radeon all'orizzonte, tra cui anche la 280 liscia(7950).
Si parla anche di una dual-gpu

ma se già la 270x va quasi come una 7950, che senso ha un scheda che va praticamente uguale?

mikael84
12-02-2014, 13:43
ma se già la 270x va quasi come una 7950, che senso ha un scheda che va praticamente uguale?

La 270x va quanto una 7950 per via delle frequenze molto piu'elevate.
A parità di clock la 7950 ha 1792ST/30CU, di conseguenza il calcolo in virgola mobile diventa drasticamente piu'elevato.
La 270x ha appena 1280 stream che se li moltiplichi per la frequenza puoi intuire te stesso la differenza notevole(parliamo di 512ST) che equivalgono a circa 200mhz
Inoltre la 7950 integra un bus a 384bit, contro il 256bit che garantirebbe a default ma sopratutto in OC una banda intorno ai 300gb;)

FroZen
12-02-2014, 18:40
Come ha detto lui.....


:asd:

Snickers
12-02-2014, 22:54
La 270x va quanto una 7950 per via delle frequenze molto piu'elevate.
A parità di clock la 7950 ha 1792ST/30CU, di conseguenza il calcolo in virgola mobile diventa drasticamente piu'elevato.
La 270x ha appena 1280 stream che se li moltiplichi per la frequenza puoi intuire te stesso la differenza notevole(parliamo di 512ST) che equivalgono a circa 200mhz
Inoltre la 7950 integra un bus a 384bit, contro il 256bit che garantirebbe a default ma sopratutto in OC una banda intorno ai 300gb;)
Senza contare i 3GB di ram! (faccio notare che con i 14.1 beta, BF4 a 1080p con Mantle occupa poco più di 2GB di vram :read: :read: )

amon.akira
13-02-2014, 02:09
mah io con la mia 7950 dual-x 1100/1500 sto leggermente sopra a una 7970ghz 1050 che a sua volta dovrebbe essere uguale alla 280x...ma a partire dalla 270x mi sembra esagerato non credo si avvicini.

mikael84
13-02-2014, 10:30
Senza contare i 3GB di ram! (faccio notare che con i 14.1 beta, BF4 a 1080p con Mantle occupa poco più di 2GB di vram :read: :read: )

In full hd e'decisamente piu'adatta, inoltrein campo AMD c'e' un buco di 100 euro e manca la fascia sulle 200 euro, nonche'la diretta rivale della 760

mah io con la mia 7950 dual-x 1100/1500 sto leggermente sopra a una 7970ghz 1050 che a sua volta dovrebbe essere uguale alla 280x...ma a partire dalla 270x mi sembra esagerato non credo si avvicini.

C'e'una differenza di 100 mhz tra le due, quindi una 7950 1150 va quanto un GHZ;)

Snickers
13-02-2014, 11:39
Adesso la cosa che mi auguro è che la 280 non sia un pretesto per alzare i prezzi: la 7950 si trovava attorno ai 190-205€ (tolte le versioni "super) in giro, se adesso i negozi me la piazzano a partire da 210€, mi ingrifo non poco :muro: :mc:

amon.akira
13-02-2014, 23:56
In full hd e'decisamente piu'adatta, inoltrein campo AMD c'e' un buco di 100 euro e manca la fascia sulle 200 euro, nonche'la diretta rivale della 760



C'e'una differenza di 100 mhz tra le due, quindi una 7950 1150 va quanto un GHZ;)

guarda che non ho confrontato bench su internet, cel ho io la 7950 1100/1500, e sto sopra (per sopra intendo 10punti,quindi pari) una 7970ghz 1050 (default) su heaven4(dico questo perchè ho provato solo questo), se vuoi ti posso fare anche qualche test se non ci credi ;)

mikael84
14-02-2014, 00:05
guarda che non ho confrontato bench su internet, cel ho io la 7950 1100/1500, e sto sopra (per sopra intendo 10punti,quindi pari) una 7970ghz 1050 (default) su heaven4(dico questo perchè ho provato solo questo), se vuoi ti posso fare anche qualche test se non ci credi ;)

ma... ho avuto 2 anni le 7970 e le 7950 credimi lo so.;) Le ho portate anche in soglia massima
Una 7950 a 1100 non puo'andare meglio di una 7970 ghz a 1050, ci sono ben 256st/4CU e ram migliori, hynix AFR T2C;)

smoicol
15-02-2014, 10:55
ma... ho avuto 2 anni le 7970 e le 7950 credimi lo so.;) Le ho portate anche in soglia massima
Una 7950 a 1100 non puo'andare meglio di una 7970 ghz a 1050, ci sono ben 256st/4CU e ram migliori, hynix AFR T2C;)

Quoto la 7970 è sempre superiore alla 7950, inoltre si overclokkano alla stessa maniera, per cui il distacco rimane sempre.

elevul
17-02-2014, 22:19
Presente :D
Proprietario del 24" Sony FW900 :D da 2500x1600 :)

Hai aggiornato alle nuove AMD? Come hai risolto il problema dell'assenza di VGA?

Mc®.Turbo-Line
19-02-2014, 15:49
Secondo voi verso aprile si riuscirà a trovare in giro la R9 290 custom a 300€ :eek: o forse chiedo troppo :D

RoUge.boh
19-02-2014, 17:19
Secondo voi verso aprile si riuscirà a trovare in giro la R9 290 custom a 300€ :eek: o forse chiedo troppo :D

chiedi troppo soprattutto per la domanda altissima che c'è in questo momento per minare in america....

Mc®.Turbo-Line
19-02-2014, 17:26
chiedi troppo soprattutto per la domanda altissima che c'è in questo momento per minare in america....

Io ancora mi mangio le mani, trovai la Sapphire R9 290 TRI-X OC a 340€ su hd digital :muro: di sera tardi, e al mattino seguente era sparita dal listino :cry:

Ora c'e' solo la MSI R9 290 Gaming a 372 € :muro:

amon.akira
20-02-2014, 16:04
Quoto la 7970 è sempre superiore alla 7950, inoltre si overclokkano alla stessa maniera, per cui il distacco rimane sempre.

che sia superiore a parità di mhz si sa, io parlavo che la mia 7950 1100/1500 fa come una ghz 7970 DEFAULT (che è 1050mhz).

ecco i bench di altre persone
bench (http://forums.overclockers.co.uk/showpost.php?p=25214819&postcount=1741)

io faccio 926punti con quel test.

zla_Stobb
26-02-2014, 19:56
scusate ma le r7 265 quando usciranno sul mercato ?
non vorrei che fanno la fine dell'a8 7600 che ancora non esce:muro: :muro:

appleroof
26-02-2014, 21:13
http://videocardz.com/49764/meet-amd-radeon-r9-280-asus-xfx-sapphire

Ale55andr0
26-02-2014, 22:01
http://videocardz.com/49764/meet-amd-radeon-r9-280-asus-xfx-sapphire

dallo stesso sito

http://videocardz.com/49757/sapphire-launch-radeon-r9-290x-vapor-x-8gb-ram

:eek:

mikael84
26-02-2014, 22:07
dallo stesso sito

http://videocardz.com/49757/sapphire-launch-radeon-r9-290x-vapor-x-8gb-ram

:eek:

Riprende la vapor-x 7970 6gb, ora col bus 512bit ovviamente a tagli da 8gb:)

Ale55andr0
27-02-2014, 09:19
che sono del tutto inutili :D

una variante da 4gb a un prezzo decente sarebbe l'ideale per chi cerca la R9 290x.

Un dubbio però mi viene sulla tecnologia impiegata: anni fa ebbi una 4870 vapor x 1gb e dopo un paio di mesi di utilizzo, inspiegabilmente, le temperature medie si innalzarono parecchio, eppure la scheda non era insozzata di polvere o altro

appleroof
27-02-2014, 11:23
dallo stesso sito

http://videocardz.com/49757/sapphire-launch-radeon-r9-290x-vapor-x-8gb-ram

:eek:

si l'avevo già postata ieri sul thread delle 290...

FroZen
27-02-2014, 12:07
Che si fosse aperta la camera vapore!? :stordita:

RoUge.boh
27-02-2014, 13:22
Storiella del giorno:
Ragazzi che bello oggi mi è arrivato il Gelid Icy Vision Rev2 :sofico: :sofico:
tutto contento prendo la scheda la appoggio sul tavolo inizio a smontare le viti...e...e...... "sigillo di garanzia" che invalida la garanzia...:muro: :muro:
da giornata bellissima radiosa a giornata da depresso...:cry: :cry:
La scheda ha 2 mesi di vita non voglio buttare la granzia ed è la prima volta che vedo una scheda MSI con il sigillo........:cry: :cry:

mister_slave
27-02-2014, 13:40
puoi sempre provare a staccare il sigillo con un phon.
aria calda aiuta molto

FroZen
27-02-2014, 18:19
Se il sigillo è sulla vite con sviluppo verticale puoi sempre svitarla "all'esterno" con una pinzetta invece che con un cacciavite...

[Luce Nera] Raptor
27-02-2014, 19:45
dallo stesso sito

http://videocardz.com/49757/sapphire-launch-radeon-r9-290x-vapor-x-8gb-ram

:eek:

Riprende la vapor-x 7970 6gb, ora col bus 512bit ovviamente a tagli da 8gb:)


ecco la sorellina maggiore della mia :D

mikael84
27-02-2014, 20:46
Raptor;40792167']ecco la sorellina maggiore della mia :D

Esatto:read:

STEFANARDO
27-02-2014, 21:08
http://www.tomshw.it/cont/news/directx-e-opengl-nuove-di-zecca-per-ammazzare-mantle/53796/1.html

E Per anni cosa hanno aspettato? Si sono svegliati solo ora perche' si e' mossa AMD? A Sto punto mi vien da credere che ci fanno sfruttare pochissimo il nostro hw solo per farci acquistare pc piu' potenti -.-"

Da Galera! :muro:

Brava AMD , Abbasso tutti gli altri :O

cire92cry
27-02-2014, 21:26
http://www.tomshw.it/cont/news/directx-e-opengl-nuove-di-zecca-per-ammazzare-mantle/53796/1.html

E Per anni cosa hanno aspettato? Si sono svegliati solo ora perche' si e' mossa AMD? A Sto punto mi vien da credere che ci fanno sfruttare pochissimo il nostro hw solo per farci acquistare pc piu' potenti -.-"

Da Galera! :muro:

Brava AMD , Abbasso tutti gli altri :O

Fin che non c'è una concorrenza è cosi, microsoft non ha fatto nulla perchè non gli conveniva.

E' come intel che sta continuando a aumentare le prestazioni di qualche punto percentuale senza aumentare il numero di core a ogni generazione, quando gli xenon hanno raggiunto i 10 o più core.

Meno male che ora Mantle obbliga Microsoft a fare qualcosa.

Devourer88
28-02-2014, 18:49
Per adesso (questa generazione passata) aumentare la memoria senza upgradare l'hdmi è uno sbaglio consistente

FroZen
28-02-2014, 23:56
Per adesso (questa generazione passata) aumentare la memoria senza upgradare l'hdmi è uno sbaglio consistente

Il futuro è display port imho...

RoUge.boh
01-03-2014, 08:10
Il futuro è display port imho...
La hdmi 1.4 ho letto che è aggiornabile alla 2.0..
Cmq anche secondo me il futuro è displayport

Inviato dal mio Nexus 5

cire92cry
01-03-2014, 10:01
Il futuro è display port imho...

Be si già ora la display port supporta il 4k a 60 hz

x9drive9in
08-03-2014, 19:54
Ragazzi che fine ha fatto la R7 265? A quasi un mese dalla presentazione non c'è traccia in nessuno Shop..

Inviato dal mio GT-I9105P utilizzando Tapatalk

mikael84
13-03-2014, 16:07
Stando ad alcuni rumors si vocifera che AMD potrebbe rilasciare per prima la nuova serie 3x0x
http://www.heise.de/newsticker/meldung/Grafikkarten-Neuheiten-Naechste-GPU-Generation-wohl-fruehestens-im-zweiten-Halbjahr-2139532.html

Indicano una prima data di agosto 2014

appleroof
13-03-2014, 16:29
7990 in arrivo? http://techreport.com/news/26159/somehow-this-translates-into-a-dual-hawaii-card-right

edit: ovviamente non 7990 scusate :D

mikael84
14-03-2014, 16:38
7990 in arrivo? http://techreport.com/news/26159/somehow-this-translates-into-a-dual-hawaii-card-right

edit: ovviamente non 7990 scusate :D

La r9 295:)
http://videocardz.com/49964/amd-radeon-r9-295x2-feature-hybrid-cooling-solution

Pelvix
14-03-2014, 17:15
La r9 295:)
http://videocardz.com/49964/amd-radeon-r9-295x2-feature-hybrid-cooling-solution

Ammazza!!
E questa fonderà pure il case? :muro:

okorop
14-03-2014, 17:19
Ammazza!!
E questa fonderà pure il case? :muro:

no se ben raffreddata non avrà problemi, mi immagino dissipatori custom ad acqua piuttosto che sistemi vapour x

Pelvix
14-03-2014, 17:30
no se ben raffreddata non avrà problemi, mi immagino dissipatori custom ad acqua piuttosto che sistemi vapour x

No vabbè, io parlavo della refrence ati...

Il nabbo di turno
14-03-2014, 18:05
Ammazza!!
E questa fonderà pure il case? :muro:

.-.
Bah, posso capire che dopo il dissipatore(osceno) della 290 si possa essere scettici, ma non penso che a sto giro rifaranno lo stesso errore.

appleroof
14-03-2014, 18:08
La r9 295:)
http://videocardz.com/49964/amd-radeon-r9-295x2-feature-hybrid-cooling-solution

bestiola mica da poco :read:

Pelvix
14-03-2014, 18:13
.-.
Bah, posso capire che dopo il dissipatore(osceno) della 290 si possa essere scettici, ma non penso che a sto giro rifaranno lo stesso errore.

Dici?
E' dai tempi della 5970-5950 che si trascinano sto scempio di dissipatore reference, che fa un bordello dell'accidente e non raffredda un ciufolo...
Eppure di acqua sotto i ponti ne è passata mi pare... :muro:

Il nabbo di turno
14-03-2014, 18:22
Dici?
E' dai tempi della 5970-5950 che si trascinano sto scempio di dissipatore reference, che fa un bordello dell'accidente e non raffredda un ciufolo...
Eppure di acqua sotto i ponti ne è passata mi pare... :muro:

Su alcune gpu funziona anche benino(a parte il rumore bestiale), ma su un chip grosso come hawaii non tiene bene.

Pelvix
14-03-2014, 18:27
Su alcune gpu funziona anche benino(a parte il rumore bestiale), ma su un chip grosso come hawaii non tiene bene.

dillo a me che ho un cross di 6950 reference... :muro:

cire92cry
14-03-2014, 18:31
Su alcune gpu funziona anche benino(a parte il rumore bestiale), ma su un chip grosso come hawaii non tiene bene.

Il problema è che è grosso, ma soprattutto più denso del GK110 di nvidia, quindi la superficie di dissipazione è minore. Per questa dual servirà un dissipatore ottimo per evitare tagli alle frequenze.

Il nabbo di turno
14-03-2014, 18:35
Il problema è che è grosso, ma soprattutto più denso del GK110 di nvidia, quindi la superficie di dissipazione è minore. Per questa dual servirà un dissipatore ottimo per evitare tagli alle frequenze.

Quoto, è un chip pienotto, a differenza del gk110 che è ben distribuito...

mikael84
14-03-2014, 18:36
Raga non avete interpretato bene la review, il sistema di raffreddamento e'l'ybrid come la Asus Mars non il dissi a barra:)
http://videocardz.com/images/2013/01/ASUS-ARES-II-DUAL-HD-7970-GHz-Edition-1-850x602.jpg

Il nabbo di turno
14-03-2014, 18:36
dillo a me che ho un cross di 6950 reference... :muro:

Ecco, se già con una si ha qualche problemino, in due si soffre parecchio, sopratutto per la prima scheda.

cire92cry
14-03-2014, 18:41
Quoto, è un chip pienotto, a differenza del gk110 che è ben distribuito...

Si avrebbero dovuto studiare una dissipatore decente almeno per mantenere gli 80 gradi o poco più senza troppo rumore. Per fortuna ci sono le custom ^^

Ale55andr0
14-03-2014, 20:29
avrei preferito di gran lunga l'arrivo di un ipotetico full hawai 3072sp che l'ennesima dual gpu che costa più di due singole andando di meno

Il nabbo di turno
14-03-2014, 20:37
avrei preferito di gran lunga l'arrivo di un ipotetico full hawai 3072sp che l'ennesima dual gpu che costa più di due singole andando di meno

Da una 290 a una 290x ci passa un 5% di differenza, non penso che una versione con 3072sp avrebbe migliorato molto le cose, anzi, forse potevano solo peggiorare con quel dissi reference...
Penso che sia la 790 che la 290x2 saranno due 780 e due 290 semplici, non 780 ti e 290x.

Ale55andr0
14-03-2014, 20:45
perchè con un tipico dissi reference AMD la dual andrebbe meglio :D


per me resta una scheda inutile, e non citatemi quelli che non hanno slot disponibili che non prendono certo una vga da 1000 euro abbinandola a una mobo scraussima. Le dual, per me ovviamente, sono schede fondamentalmente prive di logica, più costose rispetto un cross, meno veloci di un cross, più calde di un cross e se ti si sfasciano si resta a piedi completamente

Il nabbo di turno
14-03-2014, 20:55
perchè con un tipico dissi reference AMD la dual andrebbe meglio :D


per me resta una scheda inutile, e non citatemi quelli che non hanno slot disponibili che non prendono certo una vga da 1000 euro abbinandola a una mobo scraussima. Le dual, per me ovviamente, sono schede fondamentalmente prive di logica, più costose rispetto un cross, meno veloci di un cross, più calde di un cross e se ti si sfasciano si resta a piedi completamente

Più costose di un cross si, ma nemmeno troppo(non oltre i 200 euro).
Come velocità siamo li, si perde qualche mhz, ma amen.
Più calde?Qui discuto il punto e la virgola, se è vero che le dual sono abbastanza calde, un xfire non è che sia una cosa idilliaca, la prima soffre veramente tanto, è chiusa, e non penso che duri a lungo, sicuramente la sua vita sarà più breve.
Nell'altro concordo :D

mikael84
14-03-2014, 21:31
avrei preferito di gran lunga l'arrivo di un ipotetico full hawai 3072sp che l'ennesima dual gpu che costa più di due singole andando di meno

Che ti cambia da una 290x, dai 50 ai 100mhz massimi:stordita:

appleroof
28-03-2014, 16:08
videocardz.com/50082/amd-radeon-r9-295-x2-arrives-april-8th

LurenZ87
28-03-2014, 17:38
videocardz.com/50082/amd-radeon-r9-295-x2-arrives-april-8th

Le ultime sparate a 28nm :asd:, preparate il popcorn :D

Inviato dal mio Nexus 4

RoUge.boh
28-03-2014, 17:40
inizio a comprare la fiorentina da cuocergli sopra :O :O

appleroof
28-03-2014, 18:14
Le ultime sparate a 28nm :asd:, preparate il popcorn :D

Inviato dal mio Nexus 4

http://media1.giphy.com/media/6fScAIQR0P0xW/giphy.gif

Ale55andr0
28-03-2014, 23:53
inizio a comprare la fiorentina da cuocergli sopra :O :O

io preferisco salsiccia&braciole :O


:D

appleroof
31-03-2014, 13:58
videocardz.com/50089/amd-teases-radeon-r9-295-x2

zorco
31-03-2014, 15:57
questa scheda farà un buco nel case appena è lanciata al massimo:D ...

7stars
31-03-2014, 16:07
avrei preferito di gran lunga l'arrivo di un ipotetico full hawai 3072sp che l'ennesima dual gpu che costa più di due singole andando di meno
anch'io ma a 16nm :asd: mi sa che le vedremo alla fine dell'anno...o inizio 2015

Athlon 64 3000+
31-03-2014, 16:37
Questa nuova scheda video AMD sarà solo un esercizio di stile come risposta a Nvidia e quindi niente di interessante.
Io sono già proiettato alla prossima generazione di GPU a 16nm Isole dei Pirati.

francisco9751
31-03-2014, 16:40
ma non saranno le 20nm le prossime?

tapatalked with LG G2

appleroof
31-03-2014, 17:25
questa scheda farà un buco nel case appena è lanciata al massimo:D ...

Se ho capito bene ha un wubbo di serie :D

edit: In the middle we can see a large circle with Radeon logo. Normally this would be a place for a large fan, but as you all know R9 295X2 is more than just an air cooler graphics card. This is probably the spot where the waterblock is placed.

ma non saranno le 20nm le prossime?

tapatalked with LG G2

Qualche rumor afferma che salteranno direttamente ai 16...

fra55
01-04-2014, 08:11
Dovendo acquistare una R9 280x, conviene aspettare l'uscita di queste 295/295x per avere un taglio sui prezzi? O è inutile?

francisco9751
01-04-2014, 08:40
è inutile

tapatalked with LG G2

LurenZ87
01-04-2014, 08:46
Se ho capito bene ha un wubbo di serie :D

edit: In the middle we can see a large circle with Radeon logo. Normally this would be a place for a large fan, but as you all know R9 295X2 is more than just an air cooler graphics card. This is probably the spot where the waterblock is placed.


Beh adesso non sò quanto verrà a costare una R9 295X2, ma se costasse 3000$ o anche 2000$ un wubbo con un impiantino ad doc tipo ARES II sarebbe d'obbligo, almeno imho, anzi ci dovrebbe essere anche la macchinetta del caffè ed il generatore di corrente a criceti inclusi nel prezzo :asd:

Questa è fresca fresca :)

http://videocardz.com/50094/new-facts-amd-radeon-r9-295x2

Qualche rumor afferma che salteranno direttamente ai 16...


Ho letto un mese fa un documento di una delle due ditte (non posso dire il "N"ome :D) che le prossime top saranno a 20nm e che verranno presentate nella seconda metà dell'anno, poi specifiche o altro non ne ho la più pallida idea.




Dovendo acquistare una R9 280x, conviene aspettare l'uscita di queste 295/295x per avere un taglio sui prezzi? O è inutile?

Allo stato attuale, a meno di esigenze particolari per la vram o per altro, imho conviene una GTX 770 visti i prezzi :).

Inviato dal mio Nexus 4

cire92cry
01-04-2014, 12:02
Eccola :

http://www.techpowerup.com/199440/radeon-r9-295x2-pictured-in-the-flesh-specs-leaked.html

:eek: Certo che è bella grossa XD E il raffreddamento ibrido gli consente di mantenere frequenze alte . Chissà quanto consuma :)

LurenZ87
01-04-2014, 13:34
Eccola :

http://www.techpowerup.com/199440/radeon-r9-295x2-pictured-in-the-flesh-specs-leaked.html

:eek: Certo che è bella grossa XD E il raffreddamento ibrido gli consente di mantenere frequenze alte . Chissà quanto consuma :)

Che bestia, chissà chi la spunterà tra questa e la Titan Z...

Inviato dal mio Nexus 4

mikael84
01-04-2014, 14:00
Che bestia, chissà chi la spunterà tra questa e la Titan Z...

Inviato dal mio Nexus 4

Dipende al 99% dal clock e la Titan e'difficile paragonarla con questa, visto che non e'specificatamente game.
8TF sono 700mhz di clock

francisco9751
01-04-2014, 14:16
Non potevano fare scelta migliore in quanto a dissipazione

tapatalked with LG G2

cire92cry
01-04-2014, 14:36
Che bestia, chissà chi la spunterà tra questa e la Titan Z...

Inviato dal mio Nexus 4

Penso proprio la 295x2 con quel raffreddamento si può permettere di non abbassare molto le frequenze . Poi sicuramente Nvidia farà un'altra dual per il gaming stile 780 :D

Vedremo :D

LurenZ87
01-04-2014, 14:45
Dipende al 99% dal clock e la Titan e'difficile paragonarla con questa, visto che non e'specificatamente game.
8TF sono 700mhz di clock

Che discorsi sono, pure questa come le 290X le puoi usare per il GPGPU e non mi dire che chi lavora si prende una Titan Z perché non ha assolutamente senso :).

Forse ne venderanno qualcuna a qualche iper-fanboy (per non dire altro), ma ripeto a quel prezzo è totalmente inutile.

PS: giusto per rimanere in tema, inutile è la Titan Z come lo è questa 295X2, sia chiaro, io li vedo più come esercizi si stile delle due aziende, niente di più e niente di meno :).

Non potevano fare scelta migliore in quanto a dissipazione

tapatalked with LG G2


Concordo



Penso proprio la 295x2 con quel raffreddamento si può permettere di non abbassare molto le frequenze . Poi sicuramente Nvidia farà un'altra dual per il gaming stile 780 :D

Vedremo :D

Il popcorn è pronto, vediamo :)

Inviato dal mio Nexus 4

cire92cry
01-04-2014, 15:36
Che discorsi sono, pure questa come le 290X le puoi usare per il GPGPU e non mi dire che chi lavora si prende una Titan Z perché non ha assolutamente senso :).

Forse ne venderanno qualcuna a qualche iper-fanboy (per non dire altro), ma ripeto a quel prezzo è totalmente inutile.

PS: giusto per rimanere in tema, inutile è la Titan Z come lo è questa 295X2, sia chiaro, io li vedo più come esercizi si stile delle due aziende, niente di più e niente di meno :).




Concordo





Il popcorn è pronto, vediamo :)

Inviato dal mio Nexus 4

Be vedremo cmq si se le dual gpu costano più del doppio di una singola per me sono inutili e se la 295x2 costa veramente 1500 dollari pure questa è inutile ^^

Vul
01-04-2014, 17:48
Dovendo acquistare una R9 280x, conviene aspettare l'uscita di queste 295/295x per avere un taglio sui prezzi? O è inutile?

Con la differenza di prezzo attuale fra 280x e 290 non ti conviene prendere direttamente una 290?

fra55
02-04-2014, 09:03
Con la differenza di prezzo attuale fra 280x e 290 non ti conviene prendere direttamente una 290?

C'è molta differenza in termini di prestazioni? E come rumore/consumi?
Perchè vedo che ci sono circa 100 euro di differenza tra le 280x e le 290 (parlo dei modelli custom di Sapphire, Asus ecc.)

J9AnGe
02-04-2014, 10:58
R9 295X Un TDP di 500w ... consuma piu' di una lavatrice a doppio flusso :asd:
preso da google :
* la lavatrice doppio flusso consuma complessivamente 0.06 kwh, con un picco di consumo di 297 watt.

francisco9751
02-04-2014, 11:13
R9 295X Un TDP di 500w ... consuma piu' di una lavatrice a doppio flusso :asd:
preso da google :
* la lavatrice doppio flusso consuma complessivamente 0.06 kwh, con un picco di consumo di 297 watt.

ma sei venuto a creare flame o ti interessa il thread? non capisco :rolleyes:

mikael84
02-04-2014, 11:35
R9 295X Un TDP di 500w ... consuma piu' di una lavatrice a doppio flusso :asd:
preso da google :
* la lavatrice doppio flusso consuma complessivamente 0.06 kwh, con un picco di consumo di 297 watt.

Perche'se fai un cross/SLI non e'la stessa cosa?.:stordita:
Ci sono VGA singole che in overvolt duro ci arrivano da sole

°Phenom°
02-04-2014, 13:01
R9 295X Un TDP di 500w ... consuma piu' di una lavatrice a doppio flusso :asd:
preso da google :
* la lavatrice doppio flusso consuma complessivamente 0.06 kwh, con un picco di consumo di 297 watt.

Post molto intelligente devo dire, che tdp vuoi che abbiano delle dual gpu? Quello di una singola? :asd:

Inviato dal mio GT-I9300 utilizzando Tapatalk

J9AnGe
02-04-2014, 13:10
Intanto non sono di parte tant'e' che aquisto sia AMD che NVIDIA da molti anni , poi il post e x marcare il fatto che queste schede video sia AMD che NVIDIA consumano troppa corrente a mio modo di vedere . figurarsi consumano piu' di una lavatrice .... non vi sembra esagerata la cosa? a me si , nessun flame :) saluti

capitan_crasy
02-04-2014, 13:14
Intanto non sono di parte tant'e' che aquisto sia AMD che NVIDIA da molti anni , poi il post e x marcare il fatto che queste schede video sia AMD che NVIDIA consumano troppa corrente a mio modo di vedere . figurarsi consumano piu' di una lavatrice .... non vi sembra esagerata la cosa? a me si , nessun flame :) saluti

Si ma non puoi paragonare i watt dissipati da qualsiasi elemento in silicio con i watt consumati da una lavatrice...:asd:

J9AnGe
02-04-2014, 13:20
Si ma non puoi paragonare i watt dissipati da qualsiasi elemento in silicio con i watt consumati da una lavatrice...:asd:

Si si per carita' :) voglio solo dire che a mio modo di vedere consumano troppo , speriamo la prossima generazione si rivedano un po' i consumi x che comincia a diventare costoso alimentarle , penso che guardare al lato consumo anche nella fascia alta di gamma sia una buona cosa ;)

LurenZ87
02-04-2014, 14:31
Si si per carita' :) voglio solo dire che a mio modo di vedere consumano troppo , speriamo la prossima generazione si rivedano un po' i consumi x che comincia a diventare costoso alimentarle , penso che guardare al lato consumo anche nella fascia alta di gamma sia una buona cosa ;)

Secondo te uno che spende rispettivamente 1500$ e 3000$ sta facendo caso ai consumi??? :asd:

Inviato dal mio Nexus 4

7stars
02-04-2014, 18:12
Secondo te uno che spende rispettivamente 1500$ e 3000$ sta facendo caso ai consumi??? :asd:

Inviato dal mio Nexus 4
no, ma a 16nm consumerebbero molto meno :asd: anche + del 50% in meno...e cmq secondo me vanno di più due in crossfire, quindi secondo me o uno fa cross oppure aspetta l'anno prox... che possa spendere di più non vuol dire che è più scemo :D

FroZen
02-04-2014, 19:19
Prendete una 640 o una 5450 e consumerete pochissimo :sofico: risolto il problema...o no?

Trokji
02-04-2014, 19:19
a 16 nm avrebbero fatto anche chips da 400W se ci fosse stata la richiesta. I consumi sono scelte del produttore e del mercato in base alla tecnologia disponibile. Con la diffusione del GPU computing soprattutto i consumi contano.. in quest'ambito ci potrebbero essere tante soluzioni tecniche ma ancora non sono state messe in piazza. Però Maxwell ha dimostrato anche a parità di processo produttivo di ridurre di molto i consumi a parità di capacità di calcolo, immaginiamoci sui 16 nm.. anche AMD dovrà percorrere una strada simile probabilmente (avrà percorso, perché le nuove schede a questo punto presumo che saranno state in larga parte già messe a punto)

LurenZ87
02-04-2014, 20:43
Che carina :)

http://videocardz.com/50130/exclusive-amd-radeon-r9-295x2-preview

Inviato dal mio Nexus 4

elevul
02-04-2014, 21:38
R9 295X Un TDP di 500w ... consuma piu' di una lavatrice a doppio flusso :asd:
preso da google :
* la lavatrice doppio flusso consuma complessivamente 0.06 kwh, con un picco di consumo di 297 watt.
Non capisco la sorpresa, visto che sono due r9 290 su una singola board... :asd:

HadesSaint
02-04-2014, 21:47
500Watt consuma come una lancia termica....

FroZen
02-04-2014, 22:02
Non capisco la sorpresa, visto che sono due r9 290X su una singola board... :asd:

fixed :O

J9AnGe
03-04-2014, 07:07
Non capisco la sorpresa, visto che sono due r9 290 su una singola board... :asd:

Si certo chi vuole soluzioni estreme se ne frega dei consumi e' logica la cosa , ma 500w "e parlo sia x AMD che NVIDIA" e' un consumo abnorme , se sei un giocatore accanito ti arriva una bolletta energetica bella tosta , io per esempio la sera gioco molto ad open arena che ad una 680 amp gli fa il solletico , il tdp resta a 11% :asd: , ma se mi metto a giocare 2 - 3 ore a titoli pesanti tipo crysis 3 o far cry 3 dove il tdp va da 95 a 100% la cosa cambia . qui se non cambiano le cose per prenderla a ridere in un ipotetico futuro vedremo una scena in cui uno va a prendersi la nuovissima GTX dual gpu appena uscita e tutto contento si avvia all'uscita del negozio con la scatola in mano , il commesso lo richiama e gli dice ASPETTA ti stai dimenticando "L'ACCESSORIO" passa da dietro che lo carichiamo .... e lui "MA COS'E' ?" , e il commesso "IL NUOVO GENERATORE TURBO BENZINA DA 6 KW PER ALIMENTARLA !" . :eek: :asd:

.338 lapua magnum
03-04-2014, 07:10
Non capisco la sorpresa, visto che sono due r9 290 su una singola board... :asd:

Ma poi é un confronto impari, visti che é un dual GPU.
Anche la lavatrice deve andare in cross/SLI , ed anche in OC ( é già liquidata ) e poi va confrontata :sofico:

FroZen
03-04-2014, 07:16
j9ange, una bella console e passa la paura consumi :sofico:

J9AnGe
03-04-2014, 07:18
j9ange, una bella console e passa la paura consumi :sofico:

Ho gia ps3 :) , ma la passione x il game con pc non passa mai ! gioco dai tempi della grandiosa 3dfx e la passione di allora ce' ancora adesso :)

francisco9751
03-04-2014, 07:19
ma sai quanto paghi per giocare 2-3 al giorno consumando 600W??Non penserai che paghi 10 euro al giorno in più..il tuo discorso non ha proprio senso...c'è chi usa multi gpu da anni anche con 3-4 schede e consumando di più..a me sembrava solo che il tuo post iniziale volesse creare un po' di flame tant'è vero che hai citato solo amd e solo dopo hai aggiunto Nvidia per non sembrare un flame...ma vabbe..lasciami stare :D

per quando mi riguarda, il crossfire lo prenderò solo quando ci saranno 0 problemi, e ripeto 0..quindi forse mai :3

tapatalked with LG G2

J9AnGe
03-04-2014, 07:25
ma sai quanto paghi per giocare 2-3 al giorno consumando 600W??Non penserai che paghi 10 euro al giorno in più..il tuo discorso non ha proprio senso...c'è chi usa multi gpu da anni anche con 3-4 schede e consumando di più..a me sembrava solo che il tuo post iniziale volesse creare un po' di flame tant'è vero che hai citato solo amd e solo dopo hai aggiunto Nvidia per non sembrare un flame...ma vabbe..lasciami stare :D

per quando mi riguarda, il crossfire lo prenderò solo quando ci saranno 0 problemi, e ripeto 0..quindi forse mai :3

tapatalked with LG G2

no figurati nessun flame , ho avuto 5870 e 7950 ottime schede nulla da dire , lo stesso post lo faro' su la prossima nvida dual gpu che consuma molto ;)

°Phenom°
03-04-2014, 07:28
Che carina :)

http://videocardz.com/50130/exclusive-amd-radeon-r9-295x2-preview

Inviato dal mio Nexus 4

Già, davvero molto carina, finalmente anche AMD non ha più usato la plasticaccia per i dissi, almeno su questa vga :asd:

LurenZ87
04-04-2014, 11:12
me gusta :O (un pò meno il prezzo... :asd:)

http://videocardz.com/50151/closer-look-radeon-r9-295x2

cire92cry
04-04-2014, 11:35
me gusta :O (un pò meno il prezzo... :asd:)

http://videocardz.com/50151/closer-look-radeon-r9-295x2

Veramente bella complimenti a AMD :)

°Phenom°
04-04-2014, 19:32
Un presunto benchmark leaked:
http://wccftech.com/wp-content/uploads/2014/04/Radeon-R9-295X2-Performance-635x808.png

Inviato dal mio GT-I9300 utilizzando Tapatalk

cire92cry
04-04-2014, 20:00
Un presunto benchmark leaked:
http://wccftech.com/wp-content/uploads/2014/04/Radeon-R9-295X2-Performance-635x808.png

Inviato dal mio GT-I9300 utilizzando Tapatalk

Be se non taglia le frequenze andrà esattamente come un CF di 290x i 18 mhz in più non cambiano molto.

La controparte nvidia è un sli di Titan/780ti penso.

Ale55andr0
05-04-2014, 00:36
per me le vere "bellezze" sono le nuove vapor x di sapphire...peccato abbia già una trix oc :asd:

Foglia Morta
05-04-2014, 05:09
Freesync supportato dallo standard VESA: http://www.freetranslation.com/gw-file-management-web/files/533f8138e4b0708f6f7fece8/file?DOWNLOAD_TOKEN=UjdVPZKA7E9XqZ5k2l5vXw%3D%3D_1.0&returnAsHtml=true

con displayport aggiornato al 1.2a i produttori possono abilitare la feature.

FroZen
05-04-2014, 09:05
Ho gia ps3 :) , ma la passione x il game con pc non passa mai ! gioco dai tempi della grandiosa 3dfx e la passione di allora ce' ancora adesso :)

Respect :O

Adric
05-04-2014, 21:58
Freesync supportato dallo standard VESA: http://www.freetranslation.com/gw-file-management-web/files/533f8138e4b0708f6f7fece8/file?DOWNLOAD_TOKEN=UjdVPZKA7E9XqZ5k2l5vXw%3D%3D_1.0&returnAsHtml=true

con displayport aggiornato al 1.2a i produttori possono abilitare la feature.
Il link non mi funziona, puoi correggerlo ?

The_SaN
06-04-2014, 18:30
Non ho il displayport sull' Eizo FS2333 :muro:

Foglia Morta
07-04-2014, 09:39
Il link non mi funziona, puoi correggerlo ?

la fonte è questa: http://www.hardware.fr/news/13640/amd-freesync-proposition-adoptee-par-vesa.html

The_SaN
07-04-2014, 14:08
C'è pure una news su tomshw

http://www.tomshw.it/cont/news/amd-freesync-c-e-l-ok-della-vesa-al-refresh-rate-variabile/55016/1.html

sickofitall
08-04-2014, 08:54
AMD Radeon R9 295x2 Noise test (https://www.youtube.com/watch?v=HZ-QHJwXNrs)

LurenZ87
08-04-2014, 09:02
AMD Radeon R9 295x2 Noise test (https://www.youtube.com/watch?v=HZ-QHJwXNrs)

Andrè non capisco una mazza dal cell, come stiamo messi a rumorosità??? Che poi basta cambiare la ventolina con due Gentle Typhoon AP-15 per abbattere temperature e rumorosità...

Inviato dal mio Nexus 4

maxmix65
08-04-2014, 10:28
Andrè non capisco una mazza dal cell, come stiamo messi a rumorosità??? Che poi basta cambiare la ventolina con due Gentle Typhoon AP-15 per abbattere temperature e rumorosità...

Inviato dal mio Nexus 4

:D Per il mio orecchio sembra molto buona nulla a che vedere con il dissi stock delle r9 290

Obrigado
08-04-2014, 13:10
http://www.anandtech.com/show/7930/the-amd-radeon-r9-295x2-review
http://www.techpowerup.com/reviews/AMD/R9_295_X2/
http://techreport.com/review/26279/amd-radeon-r9-295-x2-graphics-card-reviewed
http://www.guru3d.com/articles_pages/amd_radeon_r9_295x2_review,1.html
http://uk.hardware.info/reviews/5321/amd-radeon-r9-295x2-review-ready-for-the-ultra-hd-revolution
http://www.kitguru.net/components/graphic-cards/zardon/amd-radeon-r9-295x2-review/
http://www.pcper.com/reviews/Graphics-Cards/AMD-Radeon-R9-295X2-8GB-Graphics-Card-Review
http://wasd.ro/hardware-reviews/3d-vga-cards/amd-radeon-r9-295x2-review-unde-s-doi-puterea-creste
http://www.sweclockers.com/recension/18544-amd-radeon-r9-295x2

mikael84
08-04-2014, 13:32
Complimenti ad AMD, davvero ottimo lavoro, anzi direi eccellente

LurenZ87
08-04-2014, 13:48
Gran bella vga, ottime temperature, ottime performance, peccato per i consumi ed i lamenti degli scoiattoli sotto tortura quando i vrm entrano in risonanza :asd:, per il resto basta mettere due AP-15 per abbattere sia le temperature che la rumorosità.

Poi vabbè c'è il prezzo, ma a quanto pare sembra una costante in continua crescita...

Inviato dal mio Nexus 4

FroZen
08-04-2014, 13:55
Poi vabbè c'è il prezzo, ma a quanto pare sembra una costante in continua crescita...

Vabbè, si sa come far fronte a quel problema :O scheda useless ma, bel esercizio di stile..........

LurenZ87
08-04-2014, 14:00
Vabbè, si sa come far fronte a quel problema :O scheda useless ma, bel esercizio di stile..........

Si per carità, però ti rode il cxlo visto che con 650&euro; un paio di anni fa ci prendevi la vga più cara del momento, la GTX 590 e con 450-500&euro; ci usciva la HD6990... Con queste cifre ora ti ci esce la top di gamma a singola gpu, e credimi che incomincio a stufarmi a sganciare queste cifre.

Inviato dal mio Nexus 4

mikael84
08-04-2014, 14:05
Vabbè, si sa come far fronte a quel problema :O scheda useless ma, bel esercizio di stile..........

Dai frozen ora puoi pensionare la 7950:read:

mikael84
08-04-2014, 14:10
Si per carità, però ti rode il cxlo visto che con 650&euro; un paio di anni fa ci prendevi la vga più cara del momento, la GTX 590 e con 450-500&euro; ci usciva la HD6990... Con queste cifre ora ti ci esce la top di gamma a singola gpu, e credimi che incomincio a stufarmi a sganciare queste cifre.

Inviato dal mio Nexus 4

Hai perfettamente ragione, per fortuna il mercato non e'cosi'spietato, 2x 290 custom ormai le recuperi nuove a poco piu'di 600 euro.
Quindi per me queste soluzioni costosissime lasciano il tempo che trovano:)

FroZen
08-04-2014, 14:23
Dai frozen ora puoi pensionare la 7950:read:

Già pensionata con una fantastica HD7660G :cry: mai speso più di 200€ per una vga :sofico:

cire92cry
08-04-2014, 14:57
Veramente ottima scheda peccato per il prezzo.
Il raffreddamento ibrido è l'ideale per questo tipo di schede.

Arrow0309
08-04-2014, 15:44
Veramente ottima scheda peccato per il prezzo.
Il raffreddamento ibrido è l'ideale per questo tipo di schede.

A me non mi convince neanche fossi a un prezzo più basso, i vrm che arrivano sui 100°, troppo
E anche per le due gpu avrei preferito un 240

Chissà quanto dura un sistema cosi' :D

http://www.techpowerup.com/199670/maingear-offers-amd-radeon-r9-295x2-graphics-in-desktops.html

http://www.techpowerup.com/img/14-04-08/Maingear_R9_295X2_02.jpg

Einhander
08-04-2014, 16:02
A me non mi convince neanche fossi a un prezzo più basso, i vrm che arrivano sui 100°, troppo
E anche per le due gpu avrei preferito un 240

Chissà quanto dura un sistema cosi' :D

http://www.techpowerup.com/199670/maingear-offers-amd-radeon-r9-295x2-graphics-in-desktops.html

http://www.techpowerup.com/img/14-04-08/Maingear_R9_295X2_02.jpg

Scusami eh ma non capisco il senso della tua lamentela, cioè riepilogando sta scheda scalda molto meno, consuma meno e fa molto, molto rumore in meno di un CF ed non varrebbe l'acquisto pur integrando 2 watercooling block e due GPU sullo stesso PCB, considerando che la concorrente diretta costerà il doppio e le combinazioni CF con singole schede offrono risparmi ma solo economici perche poi si ha più rumore e più calore e non sempre un reale vantaggio a livello prestazionale anzi...sinceramente da una dual non riuscire i ad aspettarmi di meglio, ma proprio sinceramente e con umiltà..

LurenZ87
08-04-2014, 16:18
Hai perfettamente ragione, per fortuna il mercato non e'cosi'spietato, 2x 290 custom ormai le recuperi nuove a poco piu'di 600 euro.
Quindi per me queste soluzioni costosissime lasciano il tempo che trovano:)

Si hai perfettamente ragione in tutto :)



A me non mi convince neanche fossi a un prezzo più basso, i vrm che arrivano sui 100°, troppo
E anche per le due gpu avrei preferito un 240

Chissà quanto dura un sistema cosi' :D

http://www.techpowerup.com/199670/maingear-offers-amd-radeon-r9-295x2-graphics-in-desktops.html

http://www.techpowerup.com/img/14-04-08/Maingear_R9_295X2_02.jpg

Guarda, ora tocca vedere chi dei due ha ragione :asd:

http://www.guru3d.com/articles_pages/amd_radeon_r9_295x2_review,34.html

Comunque ti posso assicurare che non ti succede nulla alla vga, anzi, la GTX 590 se non ricordo male lavorava costantemente con i vrm quasi a limite (115°C se non sbaglio) tant'è che bastava aumentare anche di una cavolata la tensione che facevano i fuochi d'artificio :asd:.

Se ci rifletti poi avere un radiatore del genere da 120mm rispetto ad un 240mm aumenta di molto la compatibilità di installazione dentro i case...

Pensa, volendo potrei installarla tranquillamente dentro al mio Node 304 al contrario ad esempio di un sistema Crossfire o SLi o di vga triple slot, come la GTX Titan Z.

Ribadisco, peccato per il prezzo :(.

Inviato dal mio Nexus 4

°Phenom°
08-04-2014, 17:31
Raggiungono i 103 gradi perchè hanno testato con furmark, giocando normalmente stanno abbastanza "freschi", guarda quella di guru appunto, quindi mi sembra piú che ottima questa scheda

Inviato dal mio GT-I9300 utilizzando Tapatalk

LurenZ87
08-04-2014, 17:38
un video vale più di mille parole :)

https://www.youtube.com/watch?v=J7NGXauDQoI

:cool:

°Phenom°
08-04-2014, 17:55
Altra recensione abbastanza completa: http://www.tomshardware.com/reviews/radeon-r9-295x2-review-benchmark-performance,3799.html

cire92cry
08-04-2014, 19:23
Altra recensione abbastanza completa: http://www.tomshardware.com/reviews/radeon-r9-295x2-review-benchmark-performance,3799.html

L'unica pecca di quasi tutte le recensioni è che le schede video ( amd e nvidia non cambia molto ) raggiungono il limite termico andando a tagliare le frequenze quindi non c'è una vera comparazione , e in questi test l'ottimo dissi ibrido della 295x2 fa la differenza infatti batte sempre le 290x in crossfire perchè le frequenze stanno fisse.

Diciamo che siamo arrivati al punto che nella maggior parte delle recensioni le schede sullo stesso livello come titan 290x 290 780ti ecc vincono in base al dissipatore ^^.

http://www.computerbase.de/2014-04/amd-radeon-r9-295x2-benchmark-test/

Qui c'è il confronto diretto tra 295x2 ( max ) e 780ti (max) . E la differenza fra le 2 configurazioni è piccola un pareggio con un vantaggio di amd in 4k con filtri spinti ( le 780 probabilmente vanno in saturazione della vram ).

francisco9751
08-04-2014, 19:56
Si per carità, però ti rode il cxlo visto che con 650&euro; un paio di anni fa ci prendevi la vga più cara del momento, la GTX 590 e con 450-500&euro; ci usciva la HD6990... Con queste cifre ora ti ci esce la top di gamma a singola gpu, e credimi che incomincio a stufarmi a sganciare queste cifre.

Inviato dal mio Nexus 4

e chi dobbiamo ringraziare secondo te?? :O :O :O

°Phenom°
08-04-2014, 20:05
L'unica pecca di quasi tutte le recensioni è che le schede video ( amd e nvidia non cambia molto ) raggiungono il limite termico andando a tagliare le frequenze quindi non c'è una vera comparazione , e in questi test l'ottimo dissi ibrido della 295x2 fa la differenza infatti batte sempre le 290x in crossfire perchè le frequenze stanno fisse.

Diciamo che siamo arrivati al punto che nella maggior parte delle recensioni le schede sullo stesso livello come titan 290x 290 780ti ecc vincono in base al dissipatore ^^.

http://www.computerbase.de/2014-04/amd-radeon-r9-295x2-benchmark-test/

Qui c'è il confronto diretto tra 295x2 ( max ) e 780ti (max) . E la differenza fra le 2 configurazioni è piccola un pareggio con un vantaggio di amd in 4k con filtri spinti ( le 780 probabilmente vanno in saturazione della vram ).

Concordo! Purtroppo siamo ancorati a questi benedetti 28nm, e viste le dichiarazioni recenti di tsmc, mi sa che c'è li porteremo dietro ancora per le lunghe :stordita:
Comunque nella review di computerbase, per "max" intendono in max oc?

cire92cry
08-04-2014, 20:52
Concordo! Purtroppo siamo ancorati a questi benedetti 28nm, e viste le dichiarazioni recenti di tsmc, mi sa che c'è li porteremo dietro ancora per le lunghe :stordita:
Comunque nella review di computerbase, per "max" intendono in max oc?


No intendono senza tagli ovvero senza che le frequenze dipendano dalla temperatura tipo una titan senza tagli boosta a 993 mhz . Se lasci a default quando arriva a 80 gradi taglia e solitamente scende sugli 800 mhz 850.

Come le 290x che senza profilo uber tagliano parecchio.

Arrow0309
08-04-2014, 21:19
Guarda, ora tocca vedere chi dei due ha ragione :asd:

http://www.guru3d.com/articles_pages/amd_radeon_r9_295x2_review,34.html

Comunque ti posso assicurare che non ti succede nulla alla vga, anzi, la GTX 590 se non ricordo male lavorava costantemente con i vrm quasi a limite (115°C se non sbaglio) tant'è che bastava aumentare anche di una cavolata la tensione che facevano i fuochi d'artificio :asd:.

Se ci rifletti poi avere un radiatore del genere da 120mm rispetto ad un 240mm aumenta di molto la compatibilità di installazione dentro i case...

Pensa, volendo potrei installarla tranquillamente dentro al mio Node 304 al contrario ad esempio di un sistema Crossfire o SLi o di vga triple slot, come la GTX Titan Z.

Ribadisco, peccato per il prezzo :(.

Inviato dal mio Nexus 4

Io parlavo sopratutto delle alte temp vrm:

Quoto:
...
"It comes with a cutout in its center for the VRM circuitry, which tends to get quite hot (100°C+).
...
Toward the end of the test, you see the voltage regulator circuitry glowing a bright white in the thermal image, as the circuity peaks at 103°C, which is quite hot.
...
- High VRM temperatures"

http://www.techpowerup.com/reviews/AMD/R9_295_X2/4.html
http://www.techpowerup.com/reviews/AMD/R9_295_X2/29.html
http://www.techpowerup.com/reviews/AMD/R9_295_X2/30.html

Ora se raggiungono i 100° su una sola scheda video e in open stand figuriamoci nel pc di sopra Maingear dove la scheda di sopra prende in full load proprio l'aria (già poca, a panino) riscaldata proprio nella zona centrale a quelle alte temp per raffreddare il vrm dell'altra :doh:

Che sono garantiti per reggere i 120° (lo dicono loro, bisogna vedere se vero, e per quanto tempo) ci posso pure credere ma non di certo nel mio pc :asd:

E parlavo del rad "piccolo" visto che oggi quasi nessuno usa piu un rad da 120 per raffreddare una sola cpu (spesso neanche occata a dovere), per due gpu 290X che affiancano un vrm "Inferno" mi sarebbe piaciuto da una scheda video Top in assoluto uno da 240 (certo, la compatibilità nei case non sarebbe massima ma io non credo che uno si va a comprare una scheda video da 1500 $ per metterla in un case micro-atx o mini-itx) :p


un video vale più di mille parole :)

https://www.youtube.com/watch?v=J7NGXauDQoI

:cool:

Hmm, non lo sento tanto veritiero, chissà a che distanza avrano tenuto il microfono da vga a vga :asd:

E questo l'avete visto? :)

https://www.youtube.com/watch?feature=player_embedded&v=gVDnQomkkaI

°Phenom°
08-04-2014, 23:08
Quello su techpowerup è fatto sotto furmark se non erro, per cui vale meno di 0 come test :asd: in full load in gaming raggiungono 84 gradi i vrm (guarda guru 3d)

elevul
09-04-2014, 00:04
Quello su techpowerup è fatto sotto furmark se non erro, per cui vale meno di 0 come test :asd: in full load in gaming raggiungono 84 gradi i vrm (guarda guru 3d)
Non sono d'accordo, sia perché ci sono varie applicazioni real life che stressano la scheda in quel modo (mining, per esempio), sia perché i benchmark devono fare da "worst case scenario", aka testare la scheda nelle peggiori condizioni possibili, in modo che quando l'utente la usa sia sicuro che nel suo utilizzi normale problemi non ce ne siano. :)

LurenZ87
09-04-2014, 05:43
Io parlavo sopratutto delle alte temp vrm:

Quoto:
...
"It comes with a cutout in its center for the VRM circuitry, which tends to get quite hot (100°C+).
...
Toward the end of the test, you see the voltage regulator circuitry glowing a bright white in the thermal image, as the circuity peaks at 103°C, which is quite hot.
...
- High VRM temperatures"

http://www.techpowerup.com/reviews/AMD/R9_295_X2/4.html
http://www.techpowerup.com/reviews/AMD/R9_295_X2/29.html
http://www.techpowerup.com/reviews/AMD/R9_295_X2/30.html

Ora se raggiungono i 100° su una sola scheda video e in open stand figuriamoci nel pc di sopra Maingear dove la scheda di sopra prende in full load proprio l'aria (già poca, a panino) riscaldata proprio nella zona centrale a quelle alte temp per raffreddare il vrm dell'altra :doh:

Che sono garantiti per reggere i 120° (lo dicono loro, bisogna vedere se vero, e per quanto tempo) ci posso pure credere ma non di certo nel mio pc :asd:

E parlavo del rad "piccolo" visto che oggi quasi nessuno usa piu un rad da 120 per raffreddare una sola cpu (spesso neanche occata a dovere), per due gpu 290X che affiancano un vrm "Inferno" mi sarebbe piaciuto da una scheda video Top in assoluto uno da 240 (certo, la compatibilità nei case non sarebbe massima ma io non credo che uno si va a comprare una scheda video da 1500 $ per metterla in un case micro-atx o mini-itx) :p

Ma chi sano di mente usa quattro gpu sul proprio fisso??? :asd:


Per il mini-itx invece è proprio quella la direzione che sta prendendo il mercato adesso, piccoli pc dalla potenza assurda, guarda tu stesso (dalla recensione di HardwareCanuks)

http://images.hardwarecanucks.com/image//skymtl/GPU/R9295X2-2/R9295X2-2-88.jpg

" What really intrigues me about the R9 295X2 is its implications for small form factor mini ITX and micro ATX systems with limited expansion slot options. Its ability to exhaust heat outside the chassis&rsquo; confines makes it a perfect companion for space-constrained builds. Alongside a*BitFenix Prodigy*and*ASUS Maximus VI Impact this card would provide extreme levels of full-tower sized performance in a system than has a laptop-sized footprint. That&rsquo;s hard to argue against. Mini ITX is a direction many enthusiasts are now taking in order to save on desk space and the R9 295X2 can add an awesome amount of punch to an SFF build, provided the case is compatible with 12&rdquo; long GPUs."

Hmm, non lo sento tanto veritiero, chissà a che distanza avrano tenuto il microfono da vga a vga :asd:

E questo l'avete visto? :)

https://www.youtube.com/watch?feature=player_embedded&v=gVDnQomkkaI

Che significa "non lo sento veritiero???" :asd:

Inviato dal mio Nexus 4