View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™
La nitro va paragonata con le trix non le vaporx...
Le nuove HIS
Mi paiono identiche alle 2xx come soluzioni tecniche...quindi buone...
http://www.hisdigital.com/un/product1-138.shtml
Perchè va di più ed ha più vram, e perchè è colpa di Bat man!
Batman a parte che tanto è stato tolto dal mercato, non so quanto vada di più. Se parliamo della 390X sì, ma se parliamo della 390 liscia non mi pare ci sia tutto questo divario.
http://www.gamersnexus.net/hwreviews/1984-amd-r9-390-380-benchmark-review/Page-2
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Specials/Radeon-R9-390X-Test-1162303/
Poi ovvio, se uno vuole per forza il nuovo (rebrand + 4gb vram) modello allora è un altro paio di maniche. :mano: :D
Hermes
AndryTAS
27-06-2015, 14:47
Batman a parte che tanto è stato tolto dal mercato, non so quanto vada di più. Se parliamo della 390X sì, ma se parliamo della 390 liscia non mi pare ci sia tutto questo divario.
http://www.gamersnexus.net/hwreviews/1984-amd-r9-390-380-benchmark-review/Page-2
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Specials/Radeon-R9-390X-Test-1162303/
Poi ovvio, se uno vuole per forza il nuovo (rebrand + 4gb vram) modello allora è un altro paio di maniche. :mano: :
Hermes
A me l'abbassamento di prezzo mi sta facendo venire il dubbio tra 970 vs 390...il dubbio è... considerato che la devo tenere un bel po' la scheda non è che quando si richiederà più vram la 970 muore rispetto alla 390 (in fullhd 1920x1200 con attivi tutti i filtri)?
magnusll
27-06-2015, 14:55
A me l'abbassamento di prezzo mi sta facendo venire il dubbio tra 970 vs 390...il dubbio è... considerato che la devo tenere un bel po' la scheda non è che quando si richiederà più vram la 970 muore rispetto alla 390 (in fullhd 1920x1200 con attivi tutti i filtri)?
Tanto pure se non serve piu' memoria Nvidia l' anno prossimo te la castra con Hairworks v2 o quello che sara' il nuovo trucchetto :p
Scherzi a parte, se devi tenerla due anni o piu' ribadisco il concetto: resisti fino alle prossime a 16nm.
devil_mcry
27-06-2015, 14:57
Batman a parte che tanto è stato tolto dal mercato, non so quanto vada di più. Se parliamo della 390X sì, ma se parliamo della 390 liscia non mi pare ci sia tutto questo divario.
http://www.gamersnexus.net/hwreviews/1984-amd-r9-390-380-benchmark-review/Page-2
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Specials/Radeon-R9-390X-Test-1162303/
Poi ovvio, se uno vuole per forza il nuovo (rebrand + 4gb vram) modello allora è un altro paio di maniche. :mano: :D
Hermes
WUT?
Edit ho letto, minchia che roba assurda. Che finale triste per una serie una serie che ha riscosso tanto successo
Guarda io ho una nvidia 8800gt su un e6850 e non ho alcuna intenzione di cambiare, ci speravo molto che le fury asfaltassero nVidia ma (al momento, vedi polemica driver) così non è. :cry:
Se da qui a settembre la situazione non muterà drasticamente rimando direttamente al prossimo anno tra Fury2 e Pascal, entrambi dati con hbm interposer 2 e probabili 8 (o più) Gb di memoria.
Ma se anche la scimmia urlatrice (so' due anni che dico di cambiare macchina) domani prendesse il sopravvento e mi facesse acquistare una nuova vga non credo che la comprerei pensando al lungo termine bensì ad una scheda tampone per arrivare poi tra 12-18 mesi (rumoreggiati) all'uscita di Fury2/Pascal appunto. ;)
In casa Amd una 290x usata o una 380 nuova, in casa nVidia una 780ti usata o una 970 nuova. :D
In FHD secondo me queste schede hanno ancora un bel po' da dire, megafiltri a parte. Se invece si pensa anche di cambiare monitor (io sto valutando un wqhd) allora bisogna per forza guardare nella parte alta dei due marchi, forse perfino in CF/Sli. :boh:
WUT?
Edit ho letto, minchia che roba assurda. Che finale triste per una serie una serie che ha riscosso tanto successo
Davvero robe da pazzi, hai letto il mio commento a corredo della notizia? :D
Hermes
Il nabbo di turno
27-06-2015, 15:32
Certo, e poi vai a 30 fps :D
Inviato dal mio iPhone utilizzando Tapatalk
Non è una vga scarsa, stiamo parlando di una vga che è tra la 970 e la 980...
Il nabbo di turno
27-06-2015, 15:33
WUT?
Edit ho letto, minchia che roba assurda. Che finale triste per una serie una serie che ha riscosso tanto successo
Concordo in pieno, dopo arkham city e origins, questo è stato un colpo davvero basso in chi riponeva fiducia in questo titolo.
fraussantin
27-06-2015, 15:58
Quella che volevo prendere costava uguale, le altre erano sotto come prestazioni, e poi ho paura della memoria condivisa delle console che fa danni, quindi 8 gb me li tengo stretti!
La memoria condivisa delle console non deve farti paura . Quei chip con 8 giga ti texture esplodono :asd:
Quello che deve farti paura è il memory leak dato dalla cura nella programmazione dei ns grandi developer.
Quindi si la vram è sempre meglio averla.
Per quello imho la 390x ha più senso della fury.
Poi ovviamente dipende dal prezzo.
moicano68
27-06-2015, 16:02
fossero onesti dovrebbero abbassare anche i prezzi delle 380.sia a 2 che a 4 GB o delle 285, visto che son schede vecchie di anni..come abbassano i prezzi delle Fury, facciano lo stsso con le 380 dannazione..altrimenti spero di trovare qlc usata
Il nabbo di turno
27-06-2015, 16:03
fossero onesti dovrebbero abbassare anche i prezzi delle 380.sia a 2 che a 4 GB o delle 285, visto che son schede vecchie di anni..come abbassano i prezzi delle Fury, facciano lo stsso con le 380 dannazione..altrimenti spero di trovare qlc usata
La 380 4gb a 239 euro dopo 1 settimana, è un prezzo abbastanza onesto e in linea con la 960 4gb che va poco meno.
devil_mcry
27-06-2015, 16:10
Davvero robe da pazzi, hai letto il mio commento a corredo della notizia? :D
Hermes
No perchè non avevo proprio visto la news ho guardato su internet, cosa avevi scritto?
Comunque con Arkham Asylum avevano praticamente rivoluzionato quella tipologia di gioco, migliorato ancora con Arkham City. Tanti giochi dopo si sono basati sul modello di gioco di Batman scopiazzandone gameplay e interazioni. Arkham Origins era sottotono rispetto ai primi due ma rimaneva comunque un buon titolo (dico sottotono perchè sono andati cauti andando sul sicuro) ma finire così con un titolo che doveva essere un giocone è davvero triste ... :(
Spero che ora torni in vendita presto scontato, fixato.
moicano68
27-06-2015, 16:24
La 380 4gb a 239 euro dopo 1 settimana, è un prezzo abbastanza onesto e in linea con la 960 4gb che va poco meno.
x un chip vecchio di anni con rpestazioni da fascia medio bassa? per sono una rapina..sia verde che rossa. come rimpiango la vera fascia media che fu..come la gtx460 o la x 1950 pro.. :muro:
Il nabbo di turno
27-06-2015, 16:31
x un chip vecchio di anni con rpestazioni da fascia medio bassa? per sono una rapina..sia verde che rossa. come rimpiango la vera fascia media che fu..come la gtx460 o la x 1950 pro.. :muro:
Guarda che la 285 è uscita a settembre 2014, è gcn 1.2, non 1.0, non è il rebrand della 280/7950.
moicano68
27-06-2015, 16:54
Guarda che la 285 è uscita a settembre 2014, è gcn 1.2, non 1.0, non è il rebrand della 280/7950.
si infatti và come il rebrand della 280 che è la 380, giusto?..rimane sempr eil fatto che per le rpestazioni che danno sono schede da max 150 € le 2 GB non di +..max 170 le custom..stessa cosa la GTX960 con 128 bit:doh:
si infatti và come il rebrand della 280 che è la 380, giusto?..rimane sempr eil fatto che per le rpestazioni che danno sono schede da max 150 le 2 GB non di +..max 170 le custom..stessa cosa la GTX960 con 128 bit:doh:
No..la 380 é il rebrand della 285 :)
Inviato dal mio SM-T805 utilizzando Tapatalk
È morto tahiti, lunga vita a tahiti.
Pendo la vga piu venduta di amd...sarei curioso di vedere i dati...
Il nabbo di turno
27-06-2015, 17:05
si infatti và come il rebrand della 280 che è la 380, giusto?..rimane sempr eil fatto che per le rpestazioni che danno sono schede da max 150 € le 2 GB non di +..max 170 le custom..stessa cosa la GTX960 con 128 bit:doh:
Guarda anche la 960 va come una 770 che è il rebrand della 680, ma è un chip nuovo.
Un conto è dire che sono la stessa scheda con lo stesso chip e performance simili, ma qui sono schede con chip diversi e date di rilascio diverse.
Il nabbo di turno
27-06-2015, 17:07
È morto tahiti, lunga vita a tahiti.
Pendo la vga piu venduta di amd...sarei curioso di vedere i dati...
La più venduta di amd è la 6450, che si trovava dappertutto, nei portatili in versione mobile con un altro nome, oppure nei preassemblati....
La più venduta di amd è la 6450, che si trovava dappertutto, nei portatili in versione mobile con un altro nome, oppure nei preassemblati....
La ho nel rig a lavoro quella cosa...quando lavoravo su unity l avevo prure occata xD
Inviato dal mio SM-T805 utilizzando Tapatalk
Batman a parte che tanto è stato tolto dal mercato, non so quanto vada di più. Se parliamo della 390X sì, ma se parliamo della 390 liscia non mi pare ci sia tutto questo divario.
http://www.gamersnexus.net/hwreviews/1984-amd-r9-390-380-benchmark-review/Page-2
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Specials/Radeon-R9-390X-Test-1162303/
Poi ovvio, se uno vuole per forza il nuovo (rebrand + 4gb vram) modello allora è un altro paio di maniche. :mano: :D
Hermes
Io mi baso sulle 290x reference e sulle 970 reference, la mia 390 è più veloce di poco, ti dirò che sarei curioso di vederla contro una 390x reference.
No perchè non avevo proprio visto la news ho guardato su internet, cosa avevi scritto?
Comunque con Arkham Asylum avevano praticamente rivoluzionato quella tipologia di gioco, migliorato ancora con Arkham City. Tanti giochi dopo si sono basati sul modello di gioco di Batman scopiazzandone gameplay e interazioni. Arkham Origins era sottotono rispetto ai primi due ma rimaneva comunque un buon titolo (dico sottotono perchè sono andati cauti andando sul sicuro) ma finire così con un titolo che doveva essere un giocone è davvero triste ... :(
Spero che ora torni in vendita presto scontato, fixato.
Guarda che il gioco in se è quasi un capolavoro, secondo le testate che lo hanno recensito per console, il problema è su pc che satura tutta la memoria video di alcune schede e quando non gli basta si prende la ram del pc:cry: :cry: :cry: :cry:
Guarda che il gioco in se è quasi un capolavoro, secondo le testate che lo hanno recensito per console, il problema è su pc che satura tutta la memoria video di alcune schede e quando non gli basta si prende la ram del pc:cry: :cry: :cry: :cry:
Ma che capolavoro.
E' la stessa solita solfa da Arkham Asylum che aveva già quasi stufato ai tempi di Arkham City, simulatore di salto fra i gargoyle. In più c'è troppa batmobile.
fraussantin
27-06-2015, 19:42
Ma che capolavoro.
E' la stessa solita solfa da Arkham Asylum che aveva già quasi stufato ai tempi di Arkham City, simulatore di salto fra i gargoyle. In più c'è troppa batmobile.
Arkam asilum è un capolavoro .
Il 2 è un clone imho peggiore.
Il 3 merita , imho scorre bene.
Questo mi puzza di gta alla batman e questo imho è un male.
A parte l'ot, novità sull'oc delle fury? Non ho seguito questi giorni.
Il nabbo di turno
27-06-2015, 20:50
Ma che capolavoro.
E' la stessa solita solfa da Arkham Asylum che aveva già quasi stufato ai tempi di Arkham City, simulatore di salto fra i gargoyle. In più c'è troppa batmobile.
Hai vinto ahahaha!:D
devil_mcry
27-06-2015, 20:56
Guarda che il gioco in se è quasi un capolavoro, secondo le testate che lo hanno recensito per console, il problema è su pc che satura tutta la memoria video di alcune schede e quando non gli basta si prende la ram del pc:cry: :cry: :cry: :cry:
Si ma infatti io intendevo a livello tecnico non di contenuti. Anche su PC chi conosco che lo ha, tolto il cap a 30fps e lasciando stare i soliti problemi è un gioco che convince, ne parlano bene.
Anche le review negative non lamentano il gioco in se ma l'aspetto tecnico
Ma che capolavoro.
E' la stessa solita solfa da Arkham Asylum che aveva già quasi stufato ai tempi di Arkham City, simulatore di salto fra i gargoyle. In più c'è troppa batmobile.Be su ps4 ha un buon metacritic!
http://www.metacritic.com/game/playstation-4/batman-arkham-knight
Sarà che ho cercato male, ma nei test che ho trovato tipo guru3d nella comparativa non c'è la 390 liscia, quindi la domanda sarà anche stupida, ma la 290X viene staccata anche dalla 390 liscia o no?
Sarà che ho cercato male, ma nei test che ho trovato tipo guru3d nella comparativa non c'è la 390 liscia, quindi la domanda sarà anche stupida, ma la 290X viene staccata anche dalla 390 liscia o no?
Guarda, non so perchè ma in giro c'è poco, questo forse ti può essere utile:
https://www.youtube.com/watch?v=i19wqCfJXJs
Ma Hupgrade, quando le recensisce le 300???
Io stavo guardando con interesse le nuove 380 da 4GB, in particolare la XFX mi piace.
Qualcuno di voi ha esperienza con questa marca? Me la consigliate?
Grazie :)
Ciao
Carlo
Sarà che ho cercato male, ma nei test che ho trovato tipo guru3d nella comparativa non c'è la 390 liscia, quindi la domanda sarà anche stupida, ma la 290X viene staccata anche dalla 390 liscia o no?
Due esempi che rispondono alla tua domanda. Erano nella pagina precedente a questa. :D
http://www.gamersnexus.net/hwreviews/1984-amd-r9-390-380-benchmark-review/Page-2
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Specials/Radeon-R9-390X-Test-1162303/
Hermes
FedeGata
27-06-2015, 23:09
Io stavo guardando con interesse le nuove 380 da 4GB, in particolare la XFX mi piace.
Qualcuno di voi ha esperienza con questa marca? Me la consigliate?
Grazie :)
Ciao
Carlo
Meh, leggevo di un utente (dono89) con qualche problema di dissipazione in oc con una r9 290x. Se posso consigliarti una marca, sapphire.
Guarda io ho una nvidia 8800gt su un e6850 e non ho alcuna intenzione di cambiare, ci speravo molto che le fury asfaltassero nVidia ma (al momento, vedi polemica driver) così non è. :cry:
Se da qui a settembre la situazione non muterà drasticamente rimando direttamente al prossimo anno tra Fury2 e Pascal, entrambi dati con hbm interposer 2 e probabili 8 (o più) Gb di memoria.
Ma se anche la scimmia urlatrice (so' due anni che dico di cambiare macchina) domani prendesse il sopravvento e mi facesse acquistare una nuova vga non credo che la comprerei pensando al lungo termine bensì ad una scheda tampone per arrivare poi tra 12-18 mesi (rumoreggiati) all'uscita di Fury2/Pascal appunto. ;)
In casa Amd una 290x usata o una 380 nuova, in casa nVidia una 780ti usata o una 970 nuova. :D
In FHD secondo me queste schede hanno ancora un bel po' da dire, megafiltri a parte. Se invece si pensa anche di cambiare monitor (io sto valutando un wqhd) allora bisogna per forza guardare nella parte alta dei due marchi, forse perfino in CF/Sli. :boh:
Spero che alla voce cambiare macchina intendi nvidia 8800gt su un e6850 e tuto quello che ne contiene...
E come voler comprare un Lemken 4vomere (FuryX) e piazzarlo su un landini bicilindrico (e6850) manco lo muove.... serve una piattaforma piu prestazionale.... ;)
Nessuna offesa/polemica libero di far del suo quello che uno vuole :)
Guarda, non so perchè ma in giro c'è poco, questo forse ti può essere utile:
https://www.youtube.com/watch?v=i19wqCfJXJs
Buono a sapersi, a questo punto però sarebbe bene che i negozi si mettessero l'anima in pace sui soldi persi e facessero i saldi sulle 290X. C'è troppa poca differenza di prezzo.
Due esempi che rispondono alla tua domanda. Erano nella pagina precedente a questa. :D
Ok a pagina 870... mi sto anche impigrendo.
Be su ps4 ha un buon metacritic!
http://www.metacritic.com/game/playstation-4/batman-arkham-knight
Si e i film di aronovsky tarantino coppola incassano meno di quelli di micheal bay o snyder, quindi? :asd:
Non penso che sinao giochi brutti, li ho iniziati a trovare ripetitivi da arkham city, tutto qui, de gustibus e pace.
Io stavo guardando con interesse le nuove 380 da 4GB, in particolare la XFX mi piace.
Qualcuno di voi ha esperienza con questa marca? Me la consigliate?
Grazie :)
Ciao
Carlo
io tutte le sapphire che ho avuto le ho trovate problematiche, ma vero pure che non compro amd da tanto.
ho sentito parlare bene di xfx, avevo anche una vtx3d o come si chiama 7870 e 5850 e non mi davano problemi
Pachanga
28-06-2015, 01:18
Io stavo guardando con interesse le nuove 380 da 4GB, in particolare la XFX mi piace.
Qualcuno di voi ha esperienza con questa marca? Me la consigliate?
Grazie :)
Ciao
Carlo
Io ho avuto nel case per quasi tre anni la 5850 e posso dire che e' stato un ottimo acquisto.
Tra l'altro si overcloccava assai bene,raggiungendo le prestazioni di una 5870 liscia.
Inoltre ho fatto acquistare un paio di mesi fa ad un amico la 280x per il suo nuovo pc a basso-medio budget e per ora tutto ok.
In generale,in ogni caso,XFX è considerata una buona marca.
Se capitasse ricomprerei senz'altro una scheda dello stesso brand.;)
Meh, leggevo di un utente (dono89) con qualche problema di dissipazione in oc con una r9 290x. Se posso consigliarti una marca, sapphire.
Se è la dd su 290x è sottodimensionato. Ora in estate oc a 1067mhz (il massimo senza ov) taglia le frequenze. In ov anche d inverno le temp salgono verso i 90c
Inviato dal mio SM-T805 utilizzando Tapatalk
Si e i film di aronovsky tarantino coppola incassano meno di quelli di micheal bay o snyder, quindi? :asd:
Non penso che sinao giochi brutti, li ho iniziati a trovare ripetitivi da arkham city, tutto qui, de gustibus e pace.
Quelli sono films orrendi,Bat man è un bel gioco in tutte le sue componenti oggettivamente, e poi metacritic non centra niente con le vendite , ma con il giudizio.
magnusll
28-06-2015, 09:24
Quelli sono films orrendi,Bat man è un bel gioco in tutte le sue componenti oggettivamente
... prevedo rogne :fiufiu:
Il nabbo di turno
28-06-2015, 09:47
Io stavo guardando con interesse le nuove 380 da 4GB, in particolare la XFX mi piace.
Qualcuno di voi ha esperienza con questa marca? Me la consigliate?
Grazie :)
Ciao
Carlo
Non è una cattiva gpu, qualche annetto fa si diceva che scaldavano, ma il dissi montati sulla serie 200 e 300 sono più che adeguati.
Il nabbo di turno
28-06-2015, 09:49
Meh, leggevo di un utente (dono89) con qualche problema di dissipazione in oc con una r9 290x. Se posso consigliarti una marca, sapphire.
Beh si, sapphire come qualità è una spanna sopra, ma tra una r9 380 nitro e una 380 dd non credo ci sia molta differenza, è una scheda che viaggia sotto i 200w di tdp.
Grazie dei pareri ragazzi, credo proprio che l'acquisterò tra un paio di settimane... tempo che i prezzi si assestino (a meno che non venga annunciata una gtx 960Ti !!! :fagiano: ).
Mi piaceva la XFX 380 DD perché ha i connettori di alimentazione posteriori, invece che sul lato. :D
Dark_Lord
28-06-2015, 12:49
Probabilmente la 290x non è da meno, ma il calore che produce questa 390x è impressionante, al confronto la 6970 era una pippa :asd: .
La GPU non supera i 70/80° con il dissi a 3 ventole Sapphire, il problema è che mi ritrovo aria a 80° che gira per il case... Toccherà aprire la paratia...
Il nabbo di turno
28-06-2015, 12:55
Probabilmente la 290x non è da meno, ma il calore che produce questa 390x è impressionante, al confronto la 6970 era una pippa :asd: .
La GPU non supera i 70/80° con il dissi a 3 ventole Sapphire, il problema è che mi ritrovo aria a 80° che gira per il case... Toccherà aprire la paratia...
Così tanto?
Arrow0309
28-06-2015, 12:59
Io se dovessi scegliere una buona 390X custom e rigorosamente ad aria mi butterei sulla MSI 390X Gaming :cool:
http://www.tweak.dk/images/gallery/tweak_dk_msi_radeon_r9_390x_gaming_8g_28.jpg
http://www.tweak.dk/review/MSI-Radeon-R9-390X-Gaming-8G/2405/1/1
Bella, e gigantesca :p
http://media.bestofmicro.com/H/T/503489/original/MSI-R9-390X-Gaming-Gaming-8G-ISO.jpg
http://www.tomshw.it/data/images/0/5/0/4/msi-r9-390x-gaming-gaming-8g-01f0e8f3dc71a2d80fac71d7427563ff9.jpg
http://www.tomshw.it/data/images/0/4/5/4/msi-r9-390x-gaming-8g-01-209210e7eedd718c5ac344af95ddd287d.jpg
http://www.rebeltech.co.za/14519/msi-radeon-r9-390x-8gb-ddr5-pci-express-30-gaming-msi-radeon-r9-390x-r9390xgaming-8g-gaming-edition-8gb-512bit-ddr5-core-memory-.jpg
Stavolta il dissi e' stato maggiorato non solo in lunghezza ed in altezza, ma anche sullo spessore, ora a 2.5 slot.
Non so se c'e' di meglio (ancora) come raffreddamento stock ed e' pure accattivante :fiufiu:
Dark_Lord
28-06-2015, 13:01
Così tanto?
È che ero rimasto 5 anni indietro con le schede video, l'ultima, la Radeon 6970 per gli standard dell'epoca scaldava tanto, ma non così tanto :asd:
Dark_Lord
28-06-2015, 13:04
Io se dovessi scegliere una buona 390X custom e rigorosamente ad aria mi butterei sulla MSI 390X Gaming :cool:
http://www.tweak.dk/images/gallery/tweak_dk_msi_radeon_r9_390x_gaming_8g_28.jpg
http://www.tweak.dk/review/MSI-Radeon-R9-390X-Gaming-8G/2405/1/1
Bella, e gigantesca :p
http://media.bestofmicro.com/H/T/503489/original/MSI-R9-390X-Gaming-Gaming-8G-ISO.jpg
http://www.tomshw.it/data/images/0/5/0/4/msi-r9-390x-gaming-gaming-8g-01f0e8f3dc71a2d80fac71d7427563ff9.jpg
http://www.tomshw.it/data/images/0/4/5/4/msi-r9-390x-gaming-8g-01-209210e7eedd718c5ac344af95ddd287d.jpg
http://www.rebeltech.co.za/14519/msi-radeon-r9-390x-8gb-ddr5-pci-express-30-gaming-msi-radeon-r9-390x-r9390xgaming-8g-gaming-edition-8gb-512bit-ddr5-core-memory-.jpg
Stavolta il dissi e' stato maggiorato non solo in lunghezza ed in altezza, ma anche sullo spessore, ora a 2.5 slot.
Non so se c'e' di meglio (ancora) come raffreddamento stock ed e' pure accattivante :fiufiu:
Vabè anche con il dissi Sapphire la GPU rimane fresca, è il procio poco sopra che soffre come un cane :asd:
AndryTAS
28-06-2015, 13:05
Tanto pure se non serve piu' memoria Nvidia l' anno prossimo te la castra con Hairworks v2 o quello che sara' il nuovo trucchetto :p
Scherzi a parte, se devi tenerla due anni o piu' ribadisco il concetto: resisti fino alle prossime a 16nm.
Aspettare ancora 1anno con una 5870 è dura molto...in fullhd soprattutto...
Arrow0309
28-06-2015, 13:31
Vabè anche con il dissi Sapphire la GPU rimane fresca, è il procio poco sopra che soffre come un cane :asd:
Ragazzi, ad aria bisogna andare di pressione positiva e buon ricircolo d'aria dentro al case, non c'e' di meglio neanche aprendo la paretia laterale :fagiano:
E fidati, ci sono stato, li ho provate tutte le soluzioni di raffreddamento ;)
Ovv, se si vuole il massimo tra temp e silenziosità bisogna andare sul custom liquid full cover fatto bene ma e' una spesa (e non solo di soldi) non indifferente :p
Dark_Lord
28-06-2015, 13:51
Ragazzi, ad aria bisogna andare di pressione positiva
Positiva? Sicuro? Io ho sempre saputo il contrario, avere più ventole in estrazione proprio per far entrare aria fresca nel case, boh.
Io se dovessi scegliere una buona 390X custom e rigorosamente ad aria mi butterei sulla MSI 390X Gaming :cool:
http://www.tweak.dk/images/gallery/tweak_dk_msi_radeon_r9_390x_gaming_8g_28.jpg
Qualcosa non mi quadra sulle temperature, tweak dà solo 59 C sotto carico, ci credo subito :ubriachi:, mentre guru3d 76 C ... qui si che ci siamo.
moicano68
28-06-2015, 14:22
No..la 380 é il rebrand della 285 :)
Inviato dal mio SM-T805 utilizzando Tapatalk
quindi hanno ebrandato una scheda vecchia di soli ..quanto? 6-7 mesi? la 280 quindi sparisce...? quindi si spera calino i prezzi della 285 almeno..
Aspettare ancora 1anno con una 5870 è dura molto...in fullhd soprattutto...
Con 200€ ti porti a casa le prestazioni di una 7970 ormai che è un altro pianeta...x le 16nm ci passa un anno....
moicano68
28-06-2015, 14:26
Con 200€ ti porti a casa le prestazioni di una 7970 ormai che è un altro pianeta...x le 16nm ci passa un anno....
ti riferisci alla 380 alias 285?
Dark_Lord
28-06-2015, 14:33
Qualcosa non mi quadra sulle temperature, tweak dà solo 59 C sotto carico, ci credo subito :ubriachi:, mentre guru3d 76 C ... qui si che ci siamo.
La mia 390x fa 85° massimi in full load, con il dissi tri-x che sembra un phon :asd:
La temperatura non è male per carità... dite che si può montare il mio vecchio Arctic Accelero Extreme Plus che avevo sulla 6970? Se non altro era più silenzioso :asd:
Secondo me le 270x e le 280x le rivedremo fra poco come 370x e 380x magari con 4 e 6gb. Mi sembra strano che AMD non abbia presentato nulla che li sostituisse
devil_mcry
28-06-2015, 15:43
Secondo me le 270x e le 280x le rivedremo fra poco come 370x e 380x magari con 4 e 6gb. Mi sembra strano che AMD non abbia presentato nulla che li sostituisse
Non credo. Tutte la GCN 1.0 non sono DX 12 level 12_0 ma solo 11_1, per quello secondo me le hanno segate
Il nabbo di turno
28-06-2015, 16:56
ti riferisci alla 380 alias 285?
No alla 7970 alias 280x.
NODREAMS
28-06-2015, 20:01
Io aspetterò i 16nm per cambiare la mia 280x...credo che posso tranquillamente tenere durò un altro annetto!
Io aspetterò i 16nm per cambiare la mia 280x...credo che posso tranquillamente tenere durò un altro annetto!
mazza con la 280x vuoi tenere duro? e io cosa dovrei dire con una hd 7850 >.>
devil_mcry
28-06-2015, 20:45
mazza con la 280x vuoi tenere duro? e io cosa dovrei dire con una hd 7850 >.>
Si ma tu qualcosa sui 200e da comprare di meglio lo avresti, con un raddoppio di prestazioni sicuro (dico 200 perchè probabilmente era il prezzo di lancio della tua), per lui è più difficile
ti riferisci alla 380 alias 285?
No mi riferivo all'usato....oppure si una 380 ma 4gb...
moicano68
28-06-2015, 22:51
No mi riferivo all'usato....oppure si una 380 ma 4gb...
boh se nn calano di brutto le 4 GB prenderò una 285 se scende..quella che scende prima la rpendo anche eprchè di usato a certi prezzi nn conviene..
Anch'io cercavo sull'usato, magari una 770 4GB, ma hanno prezzi folli!
Tonga/Antigua si overclocca abbastanza bene rispetto alle concorrenti (280X, gtx770 e gtx960)?
Anch'io cercavo sull'usato, magari una 770 4GB, ma hanno prezzi folli!
Tonga/Antigua si overclocca abbastanza bene rispetto alle concorrenti (280X, gtx770 e gtx960)?
770 non conviene visto i problemi (architetturali..facciamo i politically correct) con i nuovi giochi.
La 280x credo un 100mhz dovrebbe prenderlo stock...60/70 mhz se è sfigata oltre vai di overvolt.
Inviato dal mio SM-T805 utilizzando Tapatalk
Sto sentendo in giro che alcune 390 e 390x hanno problemi di black screen, vi risulta qualcosa.Qualcuno ne ha già una?
mircocatta
29-06-2015, 08:31
sono rimasto assente per una settimana e mezzo e.....niente di nuovo :( maledette fury!
Il nabbo di turno
29-06-2015, 08:58
Anch'io cercavo sull'usato, magari una 770 4GB, ma hanno prezzi folli!
Tonga/Antigua si overclocca abbastanza bene rispetto alle concorrenti (280X, gtx770 e gtx960)?
Considera che le nvidia partono spinte di loro, non lavorano alla frequenza dichiarata dalla casa madre, ma un po' sopra.
Ad esempio la 960 spesso e volentieri in game sta sui 1300 mhz, non è poco, considerato che al massimo arriva ai 1500 mhz, si è mangiata parte del suo oc.
Mentre la 380 lavora a 970-1000 mhz, e tocca mediamente i 1100 mhz sul core, eppure quei 3-4 fps di media rispetto alla 960 li fa quasi sempre.
Positiva? Sicuro? Io ho sempre saputo il contrario, avere più ventole in estrazione proprio per far entrare aria fresca nel case, boh.
Se aumenti la pressione interna, aumenta la portata d'aria delle ventole, diminuendo la pressione oltre a ridurre la portata d'aria delle ventole rischi di mandarle in cavitazione (soprattutto quelle di piccolo diametro ed elevati rpm)
devil_mcry
29-06-2015, 11:23
Considera che le nvidia partono spinte di loro, non lavorano alla frequenza dichiarata dalla casa madre, ma un po' sopra.
Ad esempio la 960 spesso e volentieri in game sta sui 1300 mhz, non è poco, considerato che al massimo arriva ai 1500 mhz, si è mangiata parte del suo oc.
Mentre la 380 lavora a 970-1000 mhz, e tocca mediamente i 1100 mhz sul core, eppure quei 3-4 fps di media rispetto alla 960 li fa quasi sempre.
13 schede, le peggiori fanno 1500, le migliori oltre i 1550 senza OV (mi pare di capire)
http://www.pcper.com/reviews/Graphics-Cards/GeForce-GTX-960-Overclocking-Report-13-Cards-Tested
altre 2
http://www.tomshw.it/articoli/geforce-gtx-960-overclock-contro-efficienza-64951-p2
http://www.guru3d.com/articles_pages/gigabyte_geforce_gtx_960_windforce_2x_review,26.html
Praticamente tutte le 960 superano di un po' i 1500, le sfigate si fermano a 1500 le migliori superano i 1550 e in OV vanno per i 1600 (nel roundup non sono overvoltate). Questo vale grossomodo anche per le 970 e 980 (le 970 quasi tutti le teniamo oltre i 1500 qui sul forum). Non so bene le 380 quanto saliranno in OC, ma credo che in media fanno una % minore se si parla di incremento rispetto alle reference. Dipende anche dal tool usato comunque per l'OV
Sicuramente tra quelle 3 schede quella che si overclocca peggio è la 770, mentre quella che dovrebbe salire di più in % è la 960, dal ref)
Il nabbo di turno
29-06-2015, 11:55
13 schede, le peggiori fanno 1500, le migliori oltre i 1550 senza OV (mi pare di capire)
http://www.pcper.com/reviews/Graphics-Cards/GeForce-GTX-960-Overclocking-Report-13-Cards-Tested
altre 2
http://www.tomshw.it/articoli/geforce-gtx-960-overclock-contro-efficienza-64951-p2
http://www.guru3d.com/articles_pages/gigabyte_geforce_gtx_960_windforce_2x_review,26.html
Praticamente tutte le 960 superano di un po' i 1500, le sfigate si fermano a 1500 le migliori superano i 1550 e in OV vanno per i 1600 (nel roundup non sono overvoltate). Questo vale grossomodo anche per le 970 e 980 (le 970 quasi tutti le teniamo oltre i 1500 qui sul forum). Non so bene le 380 quanto saliranno in OC, ma credo che in media fanno una % minore se si parla di incremento rispetto alle reference. Dipende anche dal tool usato comunque per l'OV
Sicuramente tra quelle 3 schede quella che si overclocca peggio è la 770, mentre quella che dovrebbe salire di più in % è la 960, dal ref)
Guarda, mediamente sono vga che viaggiano in oc dai 1400 ai 1550 mhz, nelle review di tup a parte la windforce, sono tutte schede sotto i 1500 mhz con il boost.
Poi occhio, che non sempre chi si overclocca meglio la spunta, la 770 per forza bruta riesce ad essere tremenda, e mediamente partendo da neppure 1.1 ghz, arriva a 1300 mhz senza problemi, l'altra invece di specifiche viaggia a 1.1 ghz di base, ma lavora senza dire nulla a 1.3 ghz, e di media arriva a 1.5 ghz in oc, è un guadagno medio del 15%, mentre la cara 770, partendo dal boost clock di 1080 mhz, arrivando a 1300 mhz si prende un buon 20% rispetto alla frequenza stock.
Discorso simile per la 285/380, che partendo da 920, e arrivando a 1100 mhz, si prende anche lei un 20% di frequenza rispetto allo stock.
Qui alla fine quella che guadagna di meno dall'oc è proprio la 960.
devil_mcry
29-06-2015, 12:04
Guarda, mediamente sono vga che viaggiano in oc dai 1400 ai 1550 mhz, nelle review di tup a parte la windforce, sono tutte schede sotto i 1500 mhz con il boost.
Poi occhio, che non sempre chi si overclocca meglio la spunta, la 770 per forza bruta riesce ad essere tremenda, e mediamente partendo da neppure 1.1 ghz, arriva a 1300 mhz senza problemi, l'altra invece di specifiche viaggia a 1.1 ghz di base, ma lavora senza dire nulla a 1.3 ghz, e di media arriva a 1.5 ghz in oc, è un guadagno medio del 15%, mentre la cara 770, partendo dal boost clock di 1080 mhz, arrivando a 1300 mhz si prende un buon 20% rispetto alla frequenza stock.
Discorso simile per la 285/380, che partendo da 920, e arrivando a 1100 mhz, si prende anche lei un 20% di frequenza rispetto allo stock.
Qui alla fine quella che guadagna di meno dall'oc è proprio la 960.
MA la frequenza che raggiungono le schede è quella in boost 2.0 non quella senza, se togli il boost modificando il bios arrivi sempre alle stesse frequenze. Quelle schede girano tra 1500 e 1570MHz, su tomshw arrivano anche a 1600 in OV.
Kepler non è uguale, perchè per come è implementato il kepler boost se te prendi una scheda con TDP modificati dal produttore (es una WF3) in kepler boost va già quasi al massimo di quello che può. Non per niente più o meno tutti i GK104 tolti i limiti di TDP (sulle ref. per lo più) salgono poi di fatto di 100MHz con OV dal valore preso normalmente.
Se te provi sulla tua 770 guardando la frequenza che prende in turbo e quanto riesci a farla salire dopo vedi che dopo un po' che aggiungi MHz inizia a ridursi il kepler boost e alla fine comunque hai guadagnato sul netto quei 100MHz.
Il fatto è che in % è poco. Butta un occhio sulla tua, apri GPU-Z, vai nella tab dei sensori, setta come MAX il clock core e apri un gioco giusto per farla andare in 3D spinto, poi vedi quant'è la max frequenza che aggancia. Di solito togli uno step (13MHz) dovuta al fatto delle temp e quella è la vera frequenza a cui gira la tua scheda, indipendentemente da come è settato il clock core e il boost statico.
EDIT
Poi è vero che vanno a 1300 le 770, il problema è che non vanno a 1080 mentre il 20% di OC sulle 960 è già fatto contando il boost 2.0 (ovviamente dalle reference) che è limitato a differenza di kepler
Il nabbo di turno
29-06-2015, 12:14
MA la frequenza che raggiungono le schede è quella in boost 2.0 non quella senza, se togli il boost modificando il bios arrivi sempre alle stesse frequenze. Quelle schede girano tra 1500 e 1570MHz, su tomshw arrivano anche a 1600 in OV.
Kepler non è uguale, perchè per come è implementato il kepler boost se te prendi una scheda con TDP modificati dal produttore (es una WF3) in kepler boost va già quasi al massimo di quello che può. Non per niente più o meno tutti i GK104 tolti i limiti di TDP (sulle ref. per lo più) salgono poi di fatto di 100MHz con OV dal valore preso normalmente.
Se te provi sulla tua 770 guardando la frequenza che prende in turbo e quanto riesci a farla salire dopo vedi che dopo un po' che aggiungi MHz inizia a ridursi il kepler boost e alla fine comunque hai guadagnato sul netto quei 100MHz.
Il fatto è che in % è poco. Butta un occhio sulla tua, apri GPU-Z, vai nella tab dei sensori, setta come MAX il clock core e apri un gioco giusto per farla andare in 3D spinto, poi vedi quant'è la max frequenza che aggancia. Di solito togli uno step (13MHz) dovuta al fatto delle temp e quella è la vera frequenza a cui gira la tua scheda, indipendentemente da come è settato il clock core e il boost statico.
EDIT
Poi è vero che vanno a 1300 le 770, il problema è che non vanno a 1080 davvero nemmeno le reference, girano tutte a 1150-1200
Si ma per dire, anche se prendessero 50 mhz in più(cosa che ripeto, non tutti prendono, e mediamente si arriva sempre a 1500 mhz),cosa può cambiare nelle performance?1-2 fps?
Comunque, generalmente se volessimo proprio confrontare la mia 770(che ricordo che può lavorare a 1190 mhz grazie all'oc di fabbrica), mentre la 960 sempre windforce, al massimo arriva a 1.3 ghz, valori presi da tup con gpu z.
http://www.techpowerup.com/reviews/Gigabyte/GTX_960_G1_Gaming/31.html
http://www.techpowerup.com/reviews/Gigabyte/GeForce_GTX_770_WindForce_OC/30.html
Alla fine ci troviamo nei carichi 3d che già la 960 windforce alla fine viaggia a 1500 mhz
http://www.techpowerup.com/reviews/Gigabyte/GTX_960_G1_Gaming/32.html
E la 770 a 1240 mhz
http://www.techpowerup.com/reviews/Gigabyte/GeForce_GTX_770_WindForce_OC/31.html
Alla fine chi si spreme di più con il boost è maxwell.
Dark_Lord
29-06-2015, 12:14
Se aumenti la pressione interna, aumenta la portata d'aria delle ventole, diminuendo la pressione oltre a ridurre la portata d'aria delle ventole rischi di mandarle in cavitazione (soprattutto quelle di piccolo diametro ed elevati rpm)
Stavo facendo delle prove e... niente, per quanto il Kandalf possa essere grande, la ventilazione è da rivedere, togliendo la paratia laterale, la vga in full diventa estremamente silenziosa e la temperatura di tutti i componenti scende un bel po', per ora lascerò il pc aperto, devo ottimizzare la ventilazione... con la 6970 che scaldava quasi 100 watt in meno il problema era molto meno accentuato.
Ancora a parlare di vcore default con le nvidia? :asd:
@ "Il nabbo di turno" e "devil_mcry": grazie delle info, anche se dovrete scusarmi ma non me ne intendo molto di oc delle schede moderne, la mia ultima è una 560ti che non ha il boost, metto una frequenza e tiene quella. Ora invece vedo che la frequenza cambia in base al gioco, alla corrente consumata e alla temperatura...
770 non conviene visto i problemi (architetturali... facciamo i politically correct) con i nuovi giochi.
:asd:
Il nabbo di turno
29-06-2015, 12:38
@ "Il nabbo di turno" e "devil_mcry": grazie delle info, anche se dovrete scusarmi ma non me ne intendo molto di oc delle schede moderne, la mia ultima è una 560ti che non ha il boost, metto una frequenza e tiene quella. Ora invece vedo che la frequenza cambia in base al gioco, alla corrente consumata e alla temperatura...
:asd:
Se io dovessi consigliarti una vga di quella fascia, quella che ti costa di meno, ho visto una msi r9 280x gaming su amazon a 220 euro, prenderei quella.
devil_mcry
29-06-2015, 12:49
Si ma per dire, anche se prendessero 50 mhz in più(cosa che ripeto, non tutti prendono, e mediamente si arriva sempre a 1500 mhz),cosa può cambiare nelle performance?1-2 fps?
Comunque, generalmente se volessimo proprio confrontare la mia 770(che ricordo che può lavorare a 1190 mhz grazie all'oc di fabbrica), mentre la 960 sempre windforce, al massimo arriva a 1.3 ghz, valori presi da tup con gpu z.
http://www.techpowerup.com/reviews/Gigabyte/GTX_960_G1_Gaming/31.html
http://www.techpowerup.com/reviews/Gigabyte/GeForce_GTX_770_WindForce_OC/30.html
Alla fine ci troviamo nei carichi 3d che già la 960 windforce alla fine viaggia a 1500 mhz
http://www.techpowerup.com/reviews/Gigabyte/GTX_960_G1_Gaming/32.html
E la 770 a 1240 mhz
http://www.techpowerup.com/reviews/Gigabyte/GeForce_GTX_770_WindForce_OC/31.html
Alla fine chi si spreme di più con il boost è maxwell.
Guarda che la G1 non è l'equivalente della WF3 se puntavi a quello come paragone, è l'evoluzione delle SoC e sono ancora più spinte. Le 960 WF3 se esistono (per 970/980 ci sono) non sono tanto spinte di certo non arrivano a 1500 come quasi nessun'altra scheda custom. In ogni caso anche se è a 1500 sale ancora, in disaccordo con la tua tesi e ha un incremento prestazionale comunque maggiore della 770
Gigabyte has configured their BIOS to have a really high Boost range, which means the card will be running an actual average clock of 1500 MHz out of the box. Our manual overclock was 1550 MHz.
Capisci che non puoi pretendere miracoli con frequenze tanto alte (ma questo già dimostra che la tesi arrivano solo a 1500 non è vera), ma se prendi una reference che fa 250-300MHz in meno di core la differenza è notevole.
Se te guardi la MSI GAMING, anch'essa overcloccata ma solo di 70MHz più senza booster esasperati, non tanto di meno della 770 WF3, mi pare si ferma a 1350 e sale di un 18 e rotti % in OC contro il 9% della 770 a fronte di un OC di base più simile
Ma lo stesso discorso si può fare con la Strix che ha 120MHz in più di clock mi pare e sale di oltre l'11%
devil_mcry
29-06-2015, 12:55
@ "Il nabbo di turno" e "devil_mcry": grazie delle info, anche se dovrete scusarmi ma non me ne intendo molto di oc delle schede moderne, la mia ultima è una 560ti che non ha il boost, metto una frequenza e tiene quella. Ora invece vedo che la frequenza cambia in base al gioco, alla corrente consumata e alla temperatura...
:asd:
Se prendi una 280x ha solo il boost statico, sale di 50MHz e finisce li
Se prendi una 770 hai il boost statico e il kepler boost, che praticamente per come sono fatte quelle schede le fa andare quasi al massimo di quanto possono, dipende da TDP e temperatura in generale però il clock medio è di uno step (13MHz) più basso del massimo (per via della temp che deve rimanere sotto i 65° senza bios MOD).
Se prendi una 960 hai il boost statico e il boost 2.0, che è simile al kepler boost di fatto ma è cappato, non aumenta oltre i 100MHz mi pare con ASIC 100% (quasi introvabile) e senza limiti di TDP. Se prendi modelli come la G1 che ha un TDP del 150% più elevato e boost spinti hai già una scheda che gira quasi al massimo, le altre invece hanno un buon margine di OC.
Non so in realtà se esistono 960 reference o completamente senza OC, in quel caso il guadagno è superiore ma in generale tutte arrivano sui 1500+
Comunque per tutte le schede è uguale in fondo, alzi il clock fino a quando non hai noie o non ti vuoi fermare, cambia solo che per la 280x vedi dalla prima schermata di GPUz dov'eri e dove sei, per le altre devi usare la schermata dei sensori
Comunque tra le tre sicuramente quella che ad oggi va meglio è la 280x come dice nabbo, più veloce di 960 e 285 (che sono a loro volta meno veloci di una 770), però 285 e 960 sono quelle che supportano le dx12 e le nuove features, GCN 1.0 (quindi 280x) e Kepler (770) si fermano al dx12 11_1 e 11_0, avranno poca roba
Il nabbo di turno
29-06-2015, 12:57
Guarda che la G1 non è l'equivalente della WF3 se puntavi a quello come paragone, è l'evoluzione delle SoC e sono ancora più spinte. Le 960 WF3 se esistono (per 970/980 ci sono) non sono tanto spinte di certo non arrivano a 1500 come quasi nessun'altra scheda custom. In ogni caso anche se è a 1500 sale ancora, in disaccordo con la tua tesi e ha un incremento prestazionale comunque maggiore della 770
Capisci che non puoi pretendere miracoli con frequenze tanto alte (ma questo già dimostra che la tesi arrivano solo a 1500 non è vera), ma se prendi una reference che fa 250-300MHz in meno di core la differenza è notevole.
Se te guardi la MSI GAMING, anch'essa overcloccata ma solo di 70MHz più senza booster esasperati, non tanto di meno della 770 WF3, mi pare si ferma a 1350 e sale di un 18 e rotti % in OC contro il 9% della 770 a fronte di un OC di base più simile
Ma lo stesso discorso si può fare con la Strix che ha 120MHz in più di clock mi pare e sale di oltre l'11%
Lol, ma se la 770 oc al massimo contro la 960 overcloccata al massimo gli sta sempre sopra?
http://www.guru3d.com/articles_pages/gigabyte_geforce_gtx_960_g1_gaming_review,26.html
Full hd bioshock infinite 79 fps, tomb raider 91,hitman 58
Contro la 770 windforce
http://www.guru3d.com/articles_pages/gigabyte_geforce_gtx_770_windforce_review,22.html
Sempre in full hd bioshock infinite 84 fps,tomb raide 101,hitman 63
Gli è sempre sopra, se la 960 non boostasse così tanto anche a frequenza stock, a quest'ora ci sarebbe un divario enorme.
Solo che mediamente la 770 se non va a 1300 mhz, son 1250 mhz o poco più mediamente, mentre la 960 escludendo la windforce, non si va oltre i 1550 mhz, mediamente i 1500 mhz.
devil_mcry
29-06-2015, 13:03
Lol, ma se la 770 oc al massimo contro la 960 overcloccata al massimo gli sta sempre sopra?
http://www.guru3d.com/articles_pages/gigabyte_geforce_gtx_960_g1_gaming_review,26.html
Full hd bioshock infinite 79 fps, tomb raider 91,hitman 58
Contro la 770 windforce
http://www.guru3d.com/articles_pages/gigabyte_geforce_gtx_770_windforce_review,22.html
Sempre in full hd bioshock infinite 84 fps,tomb raide 101,hitman 63
Gli è sempre sopra, se la 960 non boostasse così tanto anche a frequenza stock, a quest'ora ci sarebbe un divario enorme.
Solo che mediamente la 770 se non va a 1300 mhz, son 1250 mhz o poco più mediamente, mentre la 960 escludendo la windforce, non si va oltre i 1550 mhz, mediamente i 1500 mhz.
Io non ho mai parlato di prestazioni ma di % di OC in risposta alla domanda "si overclocca abbastanza bene rispetto alle concorrenti...". E' ovvio che ci sia differenza, da una parte hai una GPU nata per essere di fascia medio alta (GK104) dall'altra una GPU nata per essere di fascia bassa (GM206)
Fermo restando che su 13 960 tutte prendono i 1500 e 10 fanno più di 1520MHz e il valor medio è 1550 quasi senza overvolt e tutte fanno comunque almeno i 1500 del link sopra non mi pare proprio "considerato che al massimo arriva ai 1500 mhz"
Saranno solo 50MHz ma in percentuale sono sempre altri punti in più che stimolano se fai OC.
Il nabbo di turno
29-06-2015, 13:12
Io non ho mai parlato di prestazioni ma di % di OC in risposta alla domanda "si overclocca abbastanza bene rispetto alle concorrenti...". E' ovvio che ci sia differenza, da una parte hai una GPU nata per essere di fascia medio alta (GK104) dall'altra una GPU nata per essere di fascia bassa (GM206)
Fermo restando che su 13 960 tutte prendono i 1500 e 10 fanno più di 1520MHz e il valor medio è 1550 quasi senza overvolt e tutte fanno comunque almeno i 1500 del link sopra non mi pare proprio "considerato che al massimo arriva ai 1500 mhz"
Saranno solo 50MHz ma in percentuale sono sempre altri punti in più che stimolano se fai OC.
Sinceramente, io se giro su tup in poche mi vanno oltre i 1500 mhz, e non credo che non facciano overvolt nelle prove di oc in tup.
Poi guarda, i test li ho messi, quella gpu davvero lavora a una frequenza molto spinta già di suo, ed è innegabile, chiedere anche a smoicol che ha la 960 reference, e in game la 960 gli lavora a quella frequenza senza toccare nulla.
http://postimg.org/image/d8mngtv1d/
Novità sull'oc delle fury?
Ma qualcuno l'ha comprata qui? :asd:
Novità sull'oc delle fury?
Ma qualcuno l'ha comprata qui? :asd:
Qui bho, nel thread ufficiale pare di sì.
Comunque c'è un link a oc.net forum, mi pare, dove forse han trovato un workaround/bug per clockare le hbm.
Edit: eccolo http://www.overclock.net/t/1562593/hardware-info-hbm-on-furyx-can-be-overclocked-after-all#post_24105109
devil_mcry
29-06-2015, 13:28
Sinceramente, io se giro su tup in poche mi vanno oltre i 1500 mhz, e non credo che non facciano overvolt nelle prove di oc in tup.
Poi guarda, i test li ho messi, quella gpu davvero lavora a una frequenza molto spinta già di suo, ed è innegabile, chiedere anche a smoicol che ha la 960 reference, e in game la 960 gli lavora a quella frequenza senza toccare nulla.
http://postimg.org/image/d8mngtv1d/
Su TUP se parli delle review arrivano per lo più a 1445-1470 in boost statico, in boost 2.0 fanno tutte di più (la G1 ad esempio fa solo 1350 in boost statico), solo che non ti danno il clock in boost 2.0. Sul roundup delle 13 non parla di overvolt e nemmeno su TUP poi non so ma considerando che quelle overvoltate vanno per i 1600 non mi viene difficile dirlo (tra l'altro è più o meno uguale per le 970/980 a maggior ragione la penso così, magari sbaglio)
Secondo me questo è un po' sbagliato di base perchè quello non è il clock vero ma vabeh, per il fatto che arrivino a quasi 1300 di base le reference non l'ho mai messo in dubbio, forse l'avevo pure scritto non so se l'ho editato, ma rimane che una scheda che ref arriva a 1290MHz e in OC tira a 1500 almeno o più a seconda di certo non sale poco, sono in media 250MHz in più, quasi il 20% non è poco.
Dire "è molto spinta di suo" è relativo all'architettura, Maxwell ha un'architettura che gira a frequenze più elevate già di base ma che poi comunque sale ugualmente di più di Kepler in percentuale anche per le temp basse.
Se io dovessi consigliarti una vga di quella fascia, quella che ti costa di meno, ho visto una msi r9 280x gaming su amazon a 220 euro, prenderei quella.
Grazie, ma volevo aspettare almeno un paio di settimane prima di acquistare, in modo che i prezzi delle nuove schede si assestino (e soprattuto le vecchie scendano :D).
Se prendi una 280x ha solo il boost statico, sale di 50MHz e finisce li
Se prendi una 770 hai il boost statico e il kepler boost, che praticamente per come sono fatte quelle schede le fa andare quasi al massimo di quanto possono, dipende da TDP e temperatura in generale però il clock medio è di uno step (13MHz) più basso del massimo (per via della temp che deve rimanere sotto i 65° senza bios MOD).
Se prendi una 960 hai il boost statico e il boost 2.0, che è simile al kepler boost di fatto ma è cappato, non aumenta oltre i 100MHz mi pare con ASIC 100% (quasi introvabile) e senza limiti di TDP. Se prendi modelli come la G1 che ha un TDP del 150% più elevato e boost spinti hai già una scheda che gira quasi al massimo, le altre invece hanno un buon margine di OC.
Non so in realtà se esistono 960 reference o completamente senza OC, in quel caso il guadagno è superiore ma in generale tutte arrivano sui 1500+
Comunque per tutte le schede è uguale in fondo, alzi il clock fino a quando non hai noie o non ti vuoi fermare, cambia solo che per la 280x vedi dalla prima schermata di GPUz dov'eri e dove sei, per le altre devi usare la schermata dei sensori
Comunque tra le tre sicuramente quella che ad oggi va meglio è la 280x come dice nabbo, più veloce di 960 e 285 (che sono a loro volta meno veloci di una 770), però 285 e 960 sono quelle che supportano le dx12 e le nuove features, GCN 1.0 (quindi 280x) e Kepler (770) si fermano al dx12 11_1 e 11_0, avranno poca roba
Grazie, sei stato chiarissimo! ;)
Il nabbo di turno
29-06-2015, 14:20
Su TUP se parli delle review arrivano per lo più a 1445-1470 in boost statico, in boost 2.0 fanno tutte di più (la G1 ad esempio fa solo 1350 in boost statico), solo che non ti danno il clock in boost 2.0. Sul roundup delle 13 non parla di overvolt e nemmeno su TUP poi non so ma considerando che quelle overvoltate vanno per i 1600 non mi viene difficile dirlo (tra l'altro è più o meno uguale per le 970/980 a maggior ragione la penso così, magari sbaglio)
Secondo me questo è un po' sbagliato di base perchè quello non è il clock vero ma vabeh, per il fatto che arrivino a quasi 1300 di base le reference non l'ho mai messo in dubbio, forse l'avevo pure scritto non so se l'ho editato, ma rimane che una scheda che ref arriva a 1290MHz e in OC tira a 1500 almeno o più a seconda di certo non sale poco, sono in media 250MHz in più, quasi il 20% non è poco.
Dire "è molto spinta di suo" è relativo all'architettura, Maxwell ha un'architettura che gira a frequenze più elevate già di base ma che poi comunque sale ugualmente di più di Kepler in percentuale anche per le temp basse.
E infatti su tup c'è anche la pagina del clock profile, e si vede che lavorano a 1500 mhz con 1.2 di voltaggio, ma alla fine escludendo la gigabyte non vedo scheda da 1600 mhz, praticamente non ce ne sono, al massimo 1550.
Comunque il mio discorso era più incentrati sul fatto che si, Maxwell lavora a frequenze spinte in oc, ma e' anche più spinta di gpu boost, se prima si partiva da 1ghz o poco più e si arrivava a 1.1 ghz, qui rispetto allo stock vanno da 1.1 a 1.3 ghz.
Il nabbo di turno
29-06-2015, 14:28
Era più una cosa atta a far notare che il turbo di Maxwell essendo più permissivo si comporta quasi da oc dinamico, incidendo poi sul reale andamento in oc, perché un conto e' partire da 1.1 o1.2 ghz arrivare a 1.5,
un altro e partire da 1.3 e arrivare a 1.5 ghz.
Fine ot.
devil_mcry
29-06-2015, 14:42
E infatti su tup c'è anche la pagina del clock profile, e si vede che lavorano a 1500 mhz con 1.2 di voltaggio, ma alla fine escludendo la gigabyte non vedo scheda da 1600 mhz, praticamente non ce ne sono, al massimo 1550.
Comunque il mio discorso era più incentrati sul fatto che si, Maxwell lavora a frequenze spinte in oc, ma e' anche più spinta di gpu boost, se prima si partiva da 1ghz o poco più e si arrivava a 1.1 ghz, qui rispetto allo stock vanno da 1.1 a 1.3 ghz.
Si però quello è a default, sia come tensione che come curva di profilo (almeno credo per la tensione, sulle 970/980 mi pare sia la tensione stock), infatti nella G1 parla di 1506MHz contro i 1550 raggiunti poi in OC.
Certo comunque che puoi sommare quel delta al boost statico raggiunto in OC ma bisogna vedere sempre le temp. Per esempio l'MSI Gaming passa da 1253 a 1354 rispettivamente statico-2.0, quindi 100MHz in più di boost 2.0, questo la farebbe andare intorno ai 1570MHz in OC massimo se sommati ai 1473, ma considerando che la temp massima è di 63° default credo che in oc perda almeno uno step quindi andrà sui 1560 massimo 1573 con le ventole al 100% o con una curva diversa.
+15 % di prestazioni su fury x occando le ram del 20 %:
http://www.techpowerup.com/forums/threads/overclocked-hbm-its-true-and-its-fast.213875/
L'oc risulta bloccato esclusivamente via driver.
Continuo a ritenere la mancanza di OC il più grande freno delle fury attuale e forse amd non vuole vendite di schede custom per i primi tempi (così come fece con le 290).
Mi chiedo chi gestisca il marketing e le public relation di AMD per fare scelte così sconsiderate.
Fra le temperature e le ram queste schede hanno un potenziale OC mostruoso.
Tanto valeva annunciarle un mese dopo con driver migliori, oc e volumi superiori invece ora qualunque cosa farà amd rimarrà nel dimenticatoio.
I driver catalyst inoltre sembrano tarpare, di molto, le prestazioni delle fury a risoluzioni inferiori ai 4k (ricordiamo che amd non ha implementato alcune funzioni dx 11 nei propri driver). Qua la differenza con i driver omega:
http://tpucdn.com/reviews/AMD/Catalyst_14.12_Performance/images/ryse_1080.gif
http://tpucdn.com/reviews/AMD/Catalyst_14.12_Performance/images/ryse_2160.gif
devil_mcry
29-06-2015, 16:24
Centra poco, ma io su un mio ultrabook ho una HD8750M che è GCN ma non riesco a capire bene
Credo sia GCN 1.0, sfortunatamente con 2GB di DDR3, solo che non trovo driver nuovi, esiste un modo per usare i driver normali più aggiornati?
Ok correggo il mio post precedente, anche occando a 555 mhz le memorie l'aumento degli fps medi è risibile. Molto più sensibile invece l'aumento di quelli minimi.
In ogni caso la fury non aveva grandi problemi di memorie e banda passante quindi si aspettano ancora i voltaggi.
neopazzo
29-06-2015, 18:15
La nitro va paragonata con le trix non le vaporx...
Fa tanta differenza? in pratica oggi costano uguale la 290 4gb vapor-x e la 390 tri-x 8gb... ci saranno 6 euro di differenza.... che faccio? :muro: :muro: :muro: :muro: :muro: :muro: :muro:
se costano ugale vai di R9 390..
Il nabbo di turno
29-06-2015, 19:01
Fa tanta differenza? in pratica oggi costano uguale la 290 4gb vapor-x e la 390 tri-x 8gb... ci saranno 6 euro di differenza.... che faccio? :muro: :muro: :muro: :muro: :muro: :muro: :muro:
390 ovviamente, a parità di consumo ha quei 50-60 mhz sul core, memorie più spinte di 1ghz e più vram, impossibile non preferirla alla 290 allo stesso prezzo.
mirkonorroz
29-06-2015, 20:18
E' piu' silenziosa la VaporX della tri-X?
Sto sentendo in giro che alcune 390 e 390x hanno problemi di black screen, vi risulta qualcosa.Qualcuno ne ha già una?
Vai, è novaaaa! Uno dei tanti motivi per cui ho venduto la 290X; il giorno in cui amd si degnerà di dare una versione ufficiale sui fantomatici black screen delle 290, allora sarà il giorno del giudizio; io intanto li annoverò tra gli X-Files. A me accadeva solo in 2D facendo cose stupide come aprire esplora risorse anche ogni 5 minuti, poi con i 15.5 beta erano diventati sempre più sporadici presentandosi anche dopo 1-2 ore, ma ormai mi aveva rotto. Se ora stavo facendo un pensierino a rientrare con una 390, credo ormai di abbandonare l'idea e buttarmi su una 980 magari usata.
Vai, è novaaaa! Uno dei tanti motivi per cui ho venduto la 290X; il giorno in cui amd si degnerà di dare una versione ufficiale sui fantomatici black screen delle 290, allora sarà il giorno del giudizio; io intanto li annoverò tra gli X-Files. A me accadeva solo in 2D facendo cose stupide come aprire esplora risorse anche ogni 5 minuti, poi con i 15.5 beta erano diventati sempre più sporadici presentandosi anche dopo 1-2 ore, ma ormai mi aveva rotto. Se ora stavo facendo un pensierino a rientrare con una 390, credo ormai di abbandonare l'idea e buttarmi su una 980 magari usata.
Ora mi hai messo veramente paura, leggo di gente a cui non viene rilevata la scheda appena installata.Io in passato ho avuto 2 ati precisamente la 4890 e la 6870, ma non ho mai avuto problemi. Porco mondo, come direbbe Jack Burton,speriamo siano casi isolati.
Il nabbo di turno
29-06-2015, 20:42
Vai, è novaaaa! Uno dei tanti motivi per cui ho venduto la 290X; il giorno in cui amd si degnerà di dare una versione ufficiale sui fantomatici black screen delle 290, allora sarà il giorno del giudizio; io intanto li annoverò tra gli X-Files. A me accadeva solo in 2D facendo cose stupide come aprire esplora risorse anche ogni 5 minuti, poi con i 15.5 beta erano diventati sempre più sporadici presentandosi anche dopo 1-2 ore, ma ormai mi aveva rotto. Se ora stavo facendo un pensierino a rientrare con una 390, credo ormai di abbandonare l'idea e buttarmi su una 980 magari usata.
Provato a fare rma?Magari tornava un esemplare che non presentava quel difetto.
The Pein
29-06-2015, 20:43
Vai, è novaaaa! Uno dei tanti motivi per cui ho venduto la 290X; il giorno in cui amd si degnerà di dare una versione ufficiale sui fantomatici black screen delle 290, allora sarà il giorno del giudizio; io intanto li annoverò tra gli X-Files. A me accadeva solo in 2D facendo cose stupide come aprire esplora risorse anche ogni 5 minuti, poi con i 15.5 beta erano diventati sempre più sporadici presentandosi anche dopo 1-2 ore, ma ormai mi aveva rotto. Se ora stavo facendo un pensierino a rientrare con una 390, credo ormai di abbandonare l'idea e buttarmi su una 980 magari usata.
semplicemente non lo sanno neanche loro! :O
Provato a fare rma?Magari tornava un esemplare che non presentava quel difetto.
No, perché avevo letto nei forum che era un problema frequente e molti che avevano fatto l'rma non avevano risolto un tubo, quindi non volevo entrare nel cirolo vizioso delle sostituzioni a oltranza :D. Scrissi anche ad Asus e Amd, che mi diedero le solite risposte di cortesia: ma che alimentatore hai, che cpu, che sistema operativo... e che cavolo, siate onesti e ditelo chiaro e tondo che le 290 le avete progettate coi piedi, punto e basta. Speravo di risolvere nel tempo con nuovi driver, infatti con gli ultimi erano diventati sempre meno frequenti, ma poi ho avuto l'occasione di venderla guadagnandoci pure dopo solo due mesi di vita. A chi l'ho venduta non si è lamentato, in fin dei conti con i giochi non dava alcun problema, e magari con la sua configurazione non dà problemi.
Prima avevo un crossfire con due hd 7950 e non avevo mai avuto un black screen, quindi le mie perplessità restano sulle qualità progettuale delle 290.
Speravo che anche trattandosi di un rebrand avessero correto questo problema sulle 390, invece vedo che perseverano, li mortacci loro :bsod:, segno che se ne fregano.
Il nabbo di turno
29-06-2015, 21:55
No, perché avevo letto nei forum che era un problema frequente e molti che avevano fatto l'rma non avevano risolto un tubo, quindi non volevo entrare nel cirolo vizioso delle sostituzioni a oltranza :D. Scrissi anche ad Asus e Amd, che mi diedero le solite risposte di cortesia: ma che alimentatore hai, che cpu, che sistema operativo... e che cavolo, siate onesti e ditelo chiaro e tondo che le 290 le avete progettate coi piedi, punto e basta. Speravo di risolvere nel tempo con nuovi driver, infatti con gli ultimi erano diventati sempre meno frequenti, ma poi ho avuto l'occasione di venderla guadagnandoci pure dopo solo due mesi di vita. A chi l'ho venduta non si è lamentato, in fin dei conti con i giochi non dava alcun problema, e magari con la sua configurazione non dà problemi.
Prima avevo un crossfire con due hd 7950 e non avevo mai avuto un black screen, quindi le mie perplessità restano sulle qualità progettuale delle 290.
Speravo che anche trattandosi di un rebrand avessero correto questo problema sulle 390, invece vedo che perseverano, li mortacci loro :bsod:, segno che se ne fregano.
Quando è così un giretto dalla controparte lo farei, per vedere che aria tira.
Spero che alla voce cambiare macchina intendi nvidia 8800gt su un e6850 e tuto quello che ne contiene...
E come voler comprare un Lemken 4vomere (FuryX) e piazzarlo su un landini bicilindrico (e6850) manco lo muove.... serve una piattaforma piu prestazionale.... ;)
Nessuna offesa/polemica libero di far del suo quello che uno vuole :)
Non ti preoccupare che non mi offendo e sì, per macchina è inteso il pacchetto nel suo complesso, alimentatore incluso. ;) :D
Hermes
maurilio968
30-06-2015, 08:27
Ogni tanto compare qualcuno che vorrebbe comprare AMD, ora è la volta di Microsoft:
http://www.kitguru.net/components/anton-shilov/microsoft-is-interested-to-buy-advanced-micro-devices-source/
http://www.tomshw.it/news/microsoft-compra-amd-l-improbabile-unione-che-fa-discutere-67955
fraussantin
30-06-2015, 08:31
Sarebbe la svolta ....
Immagini un windows ottimizzato per amd e non per intel :asd:
Cmq è altamente improbabile che microsoft voglia impelagarsi con quella patata bollente.
nardustyle
30-06-2015, 08:42
Ora mi hai messo veramente paura, leggo di gente a cui non viene rilevata la scheda appena installata.Io in passato ho avuto 2 ati precisamente la 4890 e la 6870, ma non ho mai avuto problemi. Porco mondo, come direbbe Jack Burton,speriamo siano casi isolati.
io ho avuto black screen solo nei primi mesi delle 290 da dicembre 2013 , mai dato 1 problema che sia uno
ciao
supersalam
30-06-2015, 09:03
Ho paura che quando usciranno le Fury il cambio euro/dollaro sarà così sfavorevole a causa della Grecia che costeranno poco meno di una Fury X :muro:.
io ho avuto black screen solo nei primi mesi delle 290 da dicembre 2013 , mai dato 1 problema che sia uno
ciao
Grazie amico in sto periodo dii merda personale mi ci manca anche la scheda fallata!!!:) :) :) :)
Black screen? Cosa sono i black screen? Mai visto uno...
RUMOR letto ora:
Possibile interessamento di Microsoft per l'acquisizione di Advanced Micro Devices
Anche tohir ci sta pensando...
nardustyle
30-06-2015, 10:25
Black screen? Cosa sono i black screen? Mai visto uno...
con i primi driver se lasciavi spegnere gli schermi con multimonitor attivo non tornavano più ad accendersi , come se la vga non si risvegliasse ;)
da gennaio/febbraio 2014 con un aggiornamento driver non mi è più successo , anzi ...
tra l'altro io ho ancora gli omega tanto witcher 3 gira egreggiamente e altri giochi nuovi non ne ho presi .....
io son veramente contento di questa scheda, :D
pagata 360 euro ad ottobre 2013 è ancora una top di gamma e sarà supportata per molto come la 7970 :)
ho tenuto per mesi la prima posizione mondiale sul 3d mark con un pc full amd (poi è arrivato phenom :mad: )
venendo da 2 nvidia tutte con un sacco di patemi (8800gts e 560ti) , MI BACIO LE MANI ad averla presa
267€ a dicembre 2014 ... Sono a pochi fps da una titan black a def :asd:
Il nabbo di turno
30-06-2015, 10:44
267€ a dicembre 2014 ... Sono a pochi fps da una titan black a def :asd:
Davanti :asd:
maurilio968
30-06-2015, 10:47
visto che parlate della 290x
altro test sulle api drawcall, guardate che differenza
da 600.000 a 10.500.000
http://cdn.overclock.net/a/ad/adf8ca4d_HVVVfgH.png
http://www.overclock.net/t/1547314/official-amd-r9-radeon-fury-nano-x-x2-fiji-owners-club/1780#post_24109329
Win(ter) 10 is coming. :asd:
Sarebbe la svolta ....
Immagini un windows ottimizzato per amd e non per intel :asd:
Cmq è altamente improbabile che microsoft voglia impelagarsi con quella patata bollente.
Però Amd secondo me si trova nella posizione giusta per essere acquistata. Ha tanti brevetti e tecnologia, il monopolio del videogame da salotto (xbo e ps4) ma gravi problemi finanziari. E' logico che diverse realtà la guardino con interesse.
Una Amd in queste condizioni la puoi anche acquistare ma una Intel come te la compri? Oppure una nVidia che veleggia ormai oltre il 70% del market share nel campo vga. :(
Poi Microsoft si è già mangiata Nokia ai tempi, non mi stupirebbe vederla muoversi verso Amd. :stordita:
Hermes
Il problema come sempre e' la rinegoziazione dei brevetti x86 di intel, ad oggi dati in "comodato d'uso" ad amd, nel momento di un'acquisizione ci sarebbe la ritrattazione e non penso che intel li dia ancora gratis....
Free Gordon
30-06-2015, 11:44
Sarebbe la svolta ....
Immagini un windows ottimizzato per amd e non per intel :asd:
Cmq è altamente improbabile che microsoft voglia impelagarsi con quella patata bollente.
Non succederà cmq ciò che dici, M$ non avrebbe alcun vantaggio a fare una cosa simile..
Piuttosto M$ avrebbe motivo di prendere AMD per tutte le IP che detiene e Intel per l'antitrust non potrebbe assorbirla.
Per me è un'ottima notizia. AMD avrebbe possibilità di sviluppare delle CPU migliori e i driver per le GPU migliorerebbero molto...
Lato GPU non ci sarebbero grossi miglioramenti imho, lato hw vanno già bene così. Però perlomeno avrebbero più investimenti per cambiare la strategia architetturale e magari sviluppare ogni 2 anni invece che quasi ogni 4...come adesso..
Free Gordon
30-06-2015, 11:55
Il problema come sempre e' la rinegoziazione dei brevetti x86 di intel, ad oggi dati in "comodato d'uso" ad amd, nel momento di un'acquisizione ci sarebbe la ritrattazione e non penso che intel li dia ancora gratis....
Troverebbero il modo per l'x86...anche lì c'è l'antitrust di mezzo..
Potrebbe anche metterla a fare proci ARM e GPU. ;)
E le prossime console (home e portatili) sarebbero ARM+Radeon... :D
Inoltre AMD potrebbe anche sviluppare un SoC per cellulari e Tablet per i futuri progetti nel settore, di M$.
Il problema come sempre e' la rinegoziazione dei brevetti x86 di intel, ad oggi dati in "comodato d'uso" ad amd, nel momento di un'acquisizione ci sarebbe la ritrattazione e non penso che intel li dia ancora gratis....
Forse non è così complicato. Non è recentissima ma neanche troppo vecchia. http://www.tomshw.it/news/amd-puo-essere-acquisita-senza-perdere-la-licenza-x86-aggiornata-66490 :D
Hermes
un'altra possibilita' e' la scissione delle divisioni cpu/gpu, tra l'altro un altro rumor di qualche settimana fa' diceva proprio questo, infatti alla fine a ms gli interessano le schede video, solo per l'acquisto dei chip xbox ha sborsato 1.21bil di dollari, stesso discorso per i chip lumia ecc...
Il problema come sempre e' la rinegoziazione dei brevetti x86 di intel, ad oggi dati in "comodato d'uso" ad amd, nel momento di un'acquisizione ci sarebbe la ritrattazione e non penso che intel li dia ancora gratis....
In realta quella che ha delle due da perdere è proprio intel siccome amd64, ossia l'archi x86-64 è di proprietà amd. Non penso abbia molto da fare la furba, siccome lei puo togliere le licenze dell'x86, ma amd le toglie le x86-64 e intel si ritrova a produrre pentium 2 :p
Inviato dal mio GT-I9505 utilizzando Tapatalk
Il nabbo di turno
30-06-2015, 12:16
un'altra possibilita' e' la scissione delle divisioni cpu/gpu, tra l'altro un altro rumor di qualche settimana fa' diceva proprio questo, infatti alla fine a ms gli interessano le schede video, solo per l'acquisto dei chip xbox ha sborsato 1.21bil di dollari, stesso discorso per i chip lumia ecc...
Ovviamente se l'azienda viene divisa vi sono molte più probabilità che venga comprata.
A quel punto, samsung si prenderebbe la divisione cpu, e microsoft quella gpu?
Le microsoft radeon?:D
Ovviamente se l'azienda viene divisa vi sono molte più probabilità che venga comprata.
A quel punto, samsung si prenderebbe la divisione cpu, e microsoft quella gpu?
Le microsoft radeon?:D
E' piu probabile che la parte gpu se la prenda intel, farebbe il botto nelle integrate e sopratutto nelle gpu server tipo xeon phi
Il nabbo di turno
30-06-2015, 12:41
E' piu probabile che la parte gpu se la prenda intel, farebbe il botto nelle integrate e sopratutto nelle gpu server tipo xeon phi
Non glielo farebbero fare.
Non glielo farebbero fare.
Perche? Manterrebbe la concorrenza con Nvidia, e l'antitrust non avrebbe nulla da ridire. Chiaramente solo la parte gpu, la parte cpu assolutamente no. Cmq stiamo parlando di farloccate, è l'ennesima sparata. Amd non verrà venduta, quantomeno non adesso.
Dark_Lord
30-06-2015, 13:17
con i primi driver se lasciavi spegnere gli schermi con multimonitor attivo non tornavano più ad accendersi , come se la vga non si risvegliasse ;)
da gennaio/febbraio 2014 con un aggiornamento driver non mi è più successo , anzi ...
tra l'altro io ho ancora gli omega tanto witcher 3 gira egreggiamente e altri giochi nuovi non ne ho presi .....
io son veramente contento di questa scheda, :D
pagata 360 euro ad ottobre 2013 è ancora una top di gamma e sarà supportata per molto come la 7970 :)
ho tenuto per mesi la prima posizione mondiale sul 3d mark con un pc full amd (poi è arrivato phenom :mad: )
venendo da 2 nvidia tutte con un sacco di patemi (8800gts e 560ti) , MI BACIO LE MANI ad averla presa
Io ho la 390x dal day one, e per ora non ho avuto black screen, la scheda è più potente di quello che pensavo, riesce a far girare the witcher 3 in 4k praticamente maxato... Da quando l'ho messa però ho un problema di USB dropouts-audio glitches, sembrerebbe un problema di DPC latency, forse dovuto ai driver.
Riesce a farlo girare, a quanti frames? Prendendo uno dei tanti risultati online http://www.techspot.com/articles-info/1019/bench/Witcher_01.png a 4k "gira" a 22fps. :D
Hermes
Io ho la 390x dal day one, e per ora non ho avuto black screen, la scheda è più potente di quello che pensavo, riesce a far girare the witcher 3 in 4k praticamente maxato... Da quando l'ho messa però ho un problema di USB dropouts-audio glitches, sembrerebbe un problema di DPC latency, forse dovuto ai driver.
Quale 390x hai?????
Dark_Lord
30-06-2015, 14:09
Quale 390x hai?????
La Sapphire 390X Tri-X ;)
La Sapphire 390X Tri-X ;)
Io aspetto con ansia la mia 390 msi:p :p :p
nardustyle
30-06-2015, 14:30
Riesce a farlo girare, a quanti frames? Prendendo uno dei tanti risultati online http://www.techspot.com/articles-info/1019/bench/Witcher_01.png a 4k "gira" a 22fps. :D
Hermes
si con hairworks con aa8x e tassellation a 64 .......
Io ho un 2560x1600 tutto al max con hairworks (tassellation 16x) solo sugli animali con la mod e non su gerard :
media 37 fps
minimi 30,5 fps
si con hairworks con aa8x e tassellation a 64 .......
Io ho un 2560x1600 tutto al max con hairworks (tassellation 16x) solo sugli animali con la mod e non su gerard :
media 37 fps
minimi 30,5 fps
Quindi mi confermi il bench che ho postato nel precedente intervento. Si può vedere infatti che in wqhd (il tuo è wqxga, circa 410mila pixels in più) la 390x ne fa in media 39. :mano: :D
Hermes
Anche tohir ci sta pensando...
Ma in realta lui voleva comprare "intel" ma ce stato un errore di battitura che traducendo la parola uscente era inter lo han fregato :D
Cmq sono un po in alto mare se prendere Msi R9 290X o Asus R9 390X (versione con Directcu III) ma bho per ora non la vedo sugli scafali....:muro:
Ma in realta lui voleva comprare "intel" ma ce stato un errore di battitura che traducendo la parola uscente era inter lo han fregato :D
Cmq sono un po in alto mare se prendere Msi R9 290X o Asus R9 390X (versione con Directcu III) ma bho per ora non la vedo sugli scafali....:muro:
ti direi vai di msi il twinforceV è molto valido
Il problema come sempre e' la rinegoziazione dei brevetti x86 di intel, ad oggi dati in "comodato d'uso" ad amd, nel momento di un'acquisizione ci sarebbe la ritrattazione e non penso che intel li dia ancora gratis....
anche intel usa brevetti amd eh.
hanno un accordo di scambiarseli gratis fra di loro mi sembra.
nardustyle
30-06-2015, 15:42
Quindi mi confermi il bench che ho postato nel precedente intervento. Si può vedere infatti che in wqhd (il tuo è wqxga, circa 410mila pixels in più) la 390x ne fa in media 39. :mano: :D
Hermes
probabile , senza hair si fanno circa 8 fps in piu sulla media ma solo 1/2 sui minimi
quindi tanto vale godersi il pelo :sofico:
ti direi vai di msi il twinforceV è molto valido
Si certo per il dissi Msi Twin force5 non ho nessun dubbio provato e testato prima su una Msi gtx970 e ora su una Msi gtx 960 ;)
Ora vorrei provare Amd dato che con il restyling le schede sono dotate del nuovo sistema Twinforce V ma anche asus (non riuscivo digerire il dissi strix directuCu II ma questo nuovo dissi mi attira moltissimo :)
anche intel usa brevetti amd eh.
hanno un accordo di scambiarseli gratis fra di loro mi sembra.
si ma intel puo' permettersi di fare cio' che vuole, non ha problemi di spiccioli al contrario di amd, o di un eventuale acquirente che dovrebbe mettere in conto costi ulteriori su un bilancio gia' in "bilico", non e' che amd vada male, ma non fa' neanche le scintille
si ma intel puo' permettersi di fare cio' che vuole, non ha problemi di spiccioli al contrario di amd, o di un eventuale acquirente che dovrebbe mettere in conto costi ulteriori su un bilancio gia' in "bilico", non e' che amd vada male, ma non fa' neanche le scintille
Ma tu pensi che Intel dia i brevetti ad AMD tanto per :asd: ?
No. glieli da perchè sono molteplici i brevetti che Intel stessa usa e sono proprietà di AMD.
Intel ha tentato tante volte negli ultimi 25 anni di marginalizzare AMD giocando sporco e cercando il monopolio, basta guardare tutti i casi Intel vs AMD su google.
Se potessero evitare di dare license x86 ad amd senza perderci stai tranquillo che lo farebbero o l'avrebbero fatto 10 anni fa quando amd vendeva più di Intel nel mercato consumer.
devil_mcry
30-06-2015, 16:00
si ma intel puo' permettersi di fare cio' che vuole, non ha problemi di spiccioli al contrario di amd, o di un eventuale acquirente che dovrebbe mettere in conto costi ulteriori su un bilancio gia' in "bilico", non e' che amd vada male, ma non fa' neanche le scintille
E comunque la maggior parti dei brevetti sono per lo più appendice dell'x86
L'unico che credo che usi Intel (in una sua variante comunque perchè non sono proprio uguali) è l'x86-64 che però è un'estensione dell'x86
Comunque alla fine il problema nemmeno si pone, onestamente dubito che Intel si metterebbe di traverso alla vendita di AMD
devil_mcry
30-06-2015, 16:10
Ma tu pensi che Intel dia i brevetti ad AMD tanto per :asd: ?
No. glieli da perchè sono molteplici i brevetti che Intel stessa usa e sono proprietà di AMD.
Intel ha tentato tante volte negli ultimi 25 anni di marginalizzare AMD giocando sporco e cercando il monopolio, basta guardare tutti i casi Intel vs AMD su google.
Se potessero evitare di dare license x86 ad amd senza perderci stai tranquillo che lo farebbero o l'avrebbero fatto 10 anni fa quando amd vendeva più di Intel nel mercato consumer.
LoL te hai sempre una visione del mondo alterata da un fanboysmo perverso
Intel ha concesso la licenza x86 mica solo a AMD, anche a VIA,Cyrix,NEC e forse altre in passato, la ragione è molto semplice, gli conveniva avere marchi clone per mantenere aggiornabili le piattaforme a basso costo, nei primi anni 90 il mercato era quello, i "Compatibili".
Non per niente le prime CPU di AMD (386 e 486), NEC, Cyrix etc erano cloni della controparte Intel per il mercato degli upgrade (tutti arrivati dopo ovviamente le CPU Intel) e non per niente, il socket 7 che Intel ha realizzato per i Pentium, è stato portato avanti da AMD per garantire upgrade a bassi costi per chi non voleva aggiornare la macchina allo Slot2. Non aveva bisogno di dare i brevetti ad AMD (per l'antitrust prima che qualcuno tiri fuori sta storia, a metà degli anni 90 Cyrix aveva una buona quota di mercato tra le CPU x86 non tanto diversa da quella che attualmente ha AMD) e probabilmente l'unico brevetto AMD che Intel usa (anzi, una variante derivata visto che non uguali) è quello x86-64 ma che rimane una evoluzione dell'x86 vincolato al brevetto Intel.
Da quando AMD poi con gli Athlon ha iniziato a realizzare le proprie soluzioni come piattaforme le due aziende hanno preso per lo più strade diverse (non che il K6 fosse un clone Intel ma semplicemente non era pensata come soluzione concorrente in termini di performance ed era pensato come soluzione di upgrade alla vecchia piattaforma Intel).
Sono però curioso di conoscere questi brevetti che usa Intel non basati su x86 essenziali per la produzione di CPU oggigiorno di cui parli, fai qualche esempio.
Sicuramente non conviene ad entrambe perche' entrambe possono citare in giudizio l'altra per uso di brevetti propri.
E' anche vero che comunque risulta un nodo da sciogliere per un eventuale acquirente perche' e' chiaro e assodato che un cambio di proprieta' risulterebbe in una cessazione del contratto.
Basta guardare cosa fece intel all'epoca della separazione di amd con globalfoudries...
Eventualmente Microsoft dovrebbe rifare l'accordo con intel e sicuramente e' un punto non di facile e indolore soluzione
LoL te hai sempre una visione del mondo alterata da un fanboysmo perverso
Intel ha concesso la licenza x86 mica solo a AMD, anche a VIA,Cyrix,NEC e forse altre in passato, la ragione è molto semplice, gli conveniva avere marchi clone per mantenere aggiornabili le piattaforme a basso costo, nei primi anni 90 il mercato era quello, i "Compatibili".
Non per niente le prime CPU di AMD (386 e 486), NEC, Cyrix etc erano cloni della controparte Intel per il mercato degli upgrade (tutti arrivati dopo ovviamente le CPU Intel) e non per niente, il socket 7 che Intel ha realizzato per i Pentium, è stato portato avanti da AMD per garantire upgrade a bassi costi per chi non voleva aggiornare la macchina allo Slot2. Non aveva bisogno di dare i brevetti ad AMD (per l'antitrust prima che qualcuno tiri fuori sta storia, a metà degli anni 90 Cyrix aveva una buona quota di mercato tra le CPU x86 non tanto diversa da quella che attualmente ha AMD) e probabilmente l'unico brevetto AMD che Intel usa (anzi, una variante derivata visto che non uguali) è quello x86-64 ma che rimane una evoluzione dell'x86 vincolato al brevetto Intel.
Da quando AMD poi con gli Athlon ha iniziato a realizzare le proprie soluzioni come piattaforme le due aziende hanno preso per lo più strade diverse (non che il K6 fosse un clone Intel ma semplicemente non era pensata come soluzione concorrente in termini di performance ed era pensato come soluzione di upgrade alla vecchia piattaforma Intel).
Sono però curioso di conoscere questi brevetti che usa Intel non basati su x86 essenziali per la produzione di CPU oggigiorno di cui parli, fai qualche esempio.
non puo' farne qualche esempio perche' sono accordi non conosciuti.
ma per esempio ci sono voci che che dicono che fusion (cpu+vga) sia un brevetto amd dato in uso a intel
Comunque su queste cose non si sa' nulla perche' non ci sono documenti tecnici, i documenti che girano sono solo generici sull'accordo
edit: comunque anche tu a livello di fanboismo non sei messo male :asd:
devil_mcry
30-06-2015, 16:24
non puo' farne qualche esempio perche' sono accordi non conosciuti.
ma per esempio ci sono voci che che dicono che fusion (cpu+vga) sia un brevetto amd dato in uso a intel
Comunque su queste cose non si sa' nulla perche' non ci sono documenti tecnici, i documenti che girano sono solo generici sull'accordo
Se intendi HSA è open source credo in tutto, ci può entrare chi vuole, se intendi avere la IGP nella GPU ho forti dubbi essendo che sul package Intel l'ha integrata un anno prima e le prime CPU con IGP sul DIE sono arrivate sul commercio prima da Intel poi da AMD seppur di pochi mesi... Comunque sono brevetti marginali perchè la realizzazione fisica della CPU può cambiare, cambiare l'ISA vuol dire non aver più supporto per nulla.
Comunque la cross license dell'x86 è pubblica c'è il documento online mi pare, io l'avevo letto (senza capirci quasi niente perchè è inglese e tecnico/legale) ma da quanto è emerso da news basate su avvocati etc non ci sarebbero problemi se qualcuno si acquista AMD per intera o comunque la divisione CPU
Per il discorso fanboysmo quanto sopra è storia, puoi cercare su riviste dell'epoca o su internet o dove vuoi, sono dati, io in buona parte quel periodo dell'IT l'ho vissuto anche se ero adolescente partendo dai 386 in poi. In quale parte secondo te non sarebbe vera la cosa? Tanto più che ho avuto (e puoi trovare screen test etc su questo forum e altri) piattaforme AMD fino all'AM3 (ho smesso di comprare da BD in poi) a differenza di molti altri qui dentro
http://www.sec.gov/Archives/edgar/data/2488/000119312509236705/dex102.htm
http://www.kitguru.net/components/cpu/anton-shilov/amd-clarifies-cross-license-with-intel-change-of-control-terminates-agreement-for-both/
http://arstechnica.com/gadgets/2009/03/amd-intel-engaged-in-x86-licensing-staredown/
edit: il fanboysmo, dai era una battuta :D
devil_mcry
30-06-2015, 16:38
http://www.sec.gov/Archives/edgar/data/2488/000119312509236705/dex102.htm
http://www.kitguru.net/components/cpu/anton-shilov/amd-clarifies-cross-license-with-intel-change-of-control-terminates-agreement-for-both/
http://arstechnica.com/gadgets/2009/03/amd-intel-engaged-in-x86-licensing-staredown/
edit: il fanboysmo, dai era una battuta :D
Immaginavo avesse qualcosa relativa al NB ma non pensavo relativa al GPU+CPU visto a come sono arrivati gli sviluppi. In ogni caso c'è una differenza sostanziale tra brevetti sull'ISA (come x86 e x86-64) e brevetti su come realizzare qualcosa, perchè da un lato puoi fare un lavoro ingegneristico riprogettando la struttura, dall'altro c'è il problema che se sei fuori da quell'ISA sei fuori dai giochi, non sei più supportato ed è questo il principale problema.
EDIT, tra l'altro ho appena visto che la notizia che avevo letto io era stata smentita il giorno dopo
http://www.tomshw.it/news/amd-puo-essere-acquisita-senza-perdere-la-licenza-x86-aggiornata-66490
Ma non credo comunque che Intel si metterebbe di traverso a nuovi accordi, per tanti motivi
Immaginavo avesse qualcosa relativa al NB ma non pensavo relativa al GPU+CPU visto a come sono arrivati gli sviluppi. In ogni caso c'è una differenza sostanziale tra brevetti sull'ISA (come x86 e x86-64) e brevetti su come realizzare qualcosa, perchè da un lato puoi fare un lavoro ingegneristico riprogettando la struttura, dall'altro c'è il problema che se sei fuori da quell'ISA sei fuori dai giochi, non sei più supportato ed è questo il principale problema.
EDIT, tra l'altro ho appena visto che la notizia che avevo letto io era stata smentita il giorno dopo
http://www.tomshw.it/news/amd-puo-essere-acquisita-senza-perdere-la-licenza-x86-aggiornata-66490
Ma non credo comunque che Intel si metterebbe di traverso a nuovi accordi, per tanti motivi
Amd si è blindata circa i brevetti con l'accordo firmato con intel circa le pratiche scorrette applicate ai tempi del pentium4.
Intel diede in licenza anche brevetti futuri purchè AMD non vantasse in futuro rimborsi da parte di Intel circa le pratiche adottate fino allora.
Ps Amd rischiava il tracollo ed i soldi ed i brevetti gli facevano comodo per sopravvivere.
Intel ha pagato un prezzo alto (non solo in $ ma anche in brevetti e crosslicensing), ma senza quell'accordo oltre la fine di AMD sarebbe stata anche la fine di Intel (portare un'azienda al fallimento con pratiche scorrette in USA è molto, ma molto costoso).
Ps in quell'accordo (segreto) si vocifera che ci fosse anche il nulla osta di intel circa la possibilità di AMD nel far produrre le cpu a terzi (prima gli accordi di licenza avevano il vincolo della produzione in casa).
devil_mcry
30-06-2015, 19:40
Amd si è blindata circa i brevetti con l'accordo firmato con intel circa le pratiche scorrette applicate ai tempi del pentium4.
Intel diede in licenza anche brevetti futuri purchè AMD non vantasse in futuro rimborsi da parte di Intel circa le pratiche adottate fino allora.
Ps Amd rischiava il tracollo ed i soldi ed i brevetti gli facevano comodo per sopravvivere.
Intel ha pagato un prezzo alto (non solo in $ ma anche in brevetti e crosslicensing), ma senza quell'accordo oltre la fine di AMD sarebbe stata anche la fine di Intel (portare un'azienda al fallimento con pratiche scorrette in USA è molto, ma molto costoso).
Ps in quell'accordo (segreto) si vocifera che ci fosse anche il nulla osta di intel circa la possibilità di AMD nel far produrre le cpu a terzi (prima gli accordi di licenza avevano il vincolo della produzione in casa).
Quando si parlava della divisione di AMD e della nascita di GF ricordo che si parlava già allora dei vincoli delle licenze x86 e mi pare che dicevano che non c'erano vincoli sotto quell'aspetto. Però ultimamente si parla della vendita di AMD intera. Io non so se lo fanno per fare un po' di aggiotaggio e boostare un po' le azioni AMD che ormai sono a meno di 2 dollari e mezzo da tempo o perchè davvero qualcosa bolle in pentola, in ogni caso secondo me non converrebbe molto ad Intel mettersi di traverso con le licenze x86, sarebbero più i casini che ne uscirebbero rispetto a lasciare le cose così come sono, dove è praticamente senza concorrenza con tipo l'80% del market share.
Anche perchè prima o poi l'altro colosso (Qualcomm) inizierà a mostrare interesse per il mercato desktop e credo sia un'azienda in grado di impensierire maggiormente Intel di AMD
Quando si parlava della divisione di AMD e della nascita di GF ricordo che si parlava già allora dei vincoli delle licenze x86 e mi pare che dicevano che non c'erano vincoli sotto quell'aspetto. Però ultimamente si parla della vendita di AMD intera. Io non so se lo fanno per fare un po' di aggiotaggio e boostare un po' le azioni AMD che ormai sono a meno di 2 dollari e mezzo da tempo o perchè davvero qualcosa bolle in pentola, in ogni caso secondo me non converrebbe molto ad Intel mettersi di traverso con le licenze x86, sarebbero più i casini che ne uscirebbero rispetto a lasciare le cose così come sono, dove è praticamente senza concorrenza con tipo l'80% del market share.
Anche perchè prima o poi l'altro colosso (Qualcomm) inizierà a mostrare interesse per il mercato desktop e credo sia un'azienda in grado di impensierire maggiormente Intel di AMD
Soprattutto perché i militari USA vogliono sempre un concorrente in casa per non essere legato ad un solo fornitore e che la produzione di CPU è considerata di primaria importanza e fondamentale per la sicurezza nazionale e mai amd potrebbe essere acquistata da un'azienda non USA.
(quindi abbandoniamo l'ipotesi Samsung).
Gli unici acquirenti di AMD possono essere o MS o IBM o HP, con le ultime due solo dopo accordi per forniture ai militari e/o enti di sicurezza dall'elevato valore.
devil_mcry
30-06-2015, 20:18
Soprattutto perché i militari USA vogliono sempre un concorrente in casa per non essere legato ad un solo fornitore e che la produzione di CPU è considerata di primaria importanza e fondamentale per la sicurezza nazionale e mai amd potrebbe essere acquistata da un'azienda non USA.
(quindi abbandoniamo l'ipotesi Samsung).
Gli unici acquirenti di AMD possono essere o MS o IBM o HP, con le ultime due solo dopo accordi per forniture ai militari e/o enti di sicurezza dall'elevato valore.
Non è che HP navighi proprio in buone acque da quanto ricordo
Il nabbo di turno
30-06-2015, 20:26
Non è che HP navighi proprio in buone acque da quanto ricordo
è in perdita da un po' di tempo, ma non è messa male quanto amd.
Non è che HP navighi proprio in buone acque da quanto ricordo
Ma nemmeno IBM spenderebbe un cent per AMD, per questo ho messo l'opzione della commessa ai militari e/o agenzie governative, praticamente comprerebbero con i soldi del Governo USA (è capitato gia in passato per altri settori)
neopazzo
30-06-2015, 20:36
390 ovviamente, a parità di consumo ha quei 50-60 mhz sul core, memorie più spinte di 1ghz e più vram, impossibile non preferirla alla 290 allo stesso prezzo.
allora... r9 390 tri-x in arrivo :sofico:
appleroof
30-06-2015, 20:47
nuovo monitor frifri
wccftech.com/acer-announces-curved-3440x1440-amd-freesync-monitor-coming-july-featuring-34-60hz-ips-panel/
nuovo monitor frifri
wccftech.com/acer-announces-curved-3440x1440-amd-freesync-monitor-coming-july-featuring-34-60hz-ips-panel/
Ottimo...c'e anche questa novita' Asus ASUS MG279Q WQHD (2560 x 1440) Ips freesync 144 hz il prezo e di.... meglio che non lo dica .... ;)
sono molto vicino all'acquisto di una R9 390X ...
... che accrocchio di rara bruttezza!... :O (lasciando perdere il discorso 21:9 che personalmente trovo un non-sense)
... che accrocchio di rara bruttezza!... :O (lasciando perdere il discorso 21:9 che personalmente trovo un non-sense)
Titolo informativo cosa ha che non quadra un 21:9 ...?
Titolo informativo cosa ha che non quadra un 21:9 ...?
Le proporzioni... :stordita:
ma ripeto, è un parere mio (che già "mal digerisco" i 16:9 e vedo di tenermi stretto il mio 16:10)
allora... r9 390 tri-x in arrivo :sofico:
Io mi son fatto abbindolare dai 312€ della msi 390... speriamo che a 1440p non sfiguri. Comunque io ero già a posto con la 7950, ma se ne andata:cry: .
L'ho presa un po' alla cieca, sul web ho trovato solo recensioni della msi 390x, e mi son detto che per qualche fps, grado e watt in meno potevo risparmiare tranquillamente qualche euro.
Il nabbo di turno
30-06-2015, 23:38
Io mi son fatto abbindolare dai 312€ della msi 390... speriamo che a 1440p non sfiguri. Comunque io ero già a posto con la 7950, ma se ne andata:cry: .
L'ho presa un po' alla cieca, sul web ho trovato solo recensioni della msi 390x, e mi son detto che per qualche fps, grado e watt in meno potevo risparmiare tranquillamente qualche euro.
è un buon upgrade ;).
Le proporzioni... :stordita:
ma ripeto, è un parere mio (che già "mal digerisco" i 16:9 e vedo di tenermi stretto il mio 16:10)
E che tantissimi giochi non lo supportano o lo fanno male.
mircocatta
01-07-2015, 08:19
E che tantissimi giochi non lo supportano o lo fanno male.
per ora ho zero problemi, perfino un "lego jurassic world" lo supporta perfettamente, da quando ho un 21:9 uso molto meno l'oculus per ovvia comodità rinunciando ad un po di immersività, ma almeno ho un buon campo visivo
Titolo informativo cosa ha che non quadra un 21:9 ...?
Le proporzioni... :stordita:
ma ripeto, è un parere mio (che già "mal digerisco" i 16:9 e vedo di tenermi stretto il mio 16:10)
Anche io non sono un estimatore del formato 21:9 ma se vogliamo considerarlo in ambito lavorativo è notevole, puoi affiancare tre finestre verticali e perfettamente leggibili. In ambito CAD/CAM o grafica ti offre uno spazio di lavoro a dir poco immenso, quasi esagerato. Mentre per chi fa authoring video oppure vuole semplicemente vedersi i film così come dovrebbero essere (2.35:1), è la morte sua essendo il 21:9 un 2.33:1. :D
In gioco poi, beh, fate prima a vedere su youtube. :sbav:
Secondo me è stato il 16:9 ad essere un formato incomprensibile, nato da forti compromessi. :boh:
E che tantissimi giochi non lo supportano o lo fanno male.
Vero ma credo che ne usciranno sempre di più che lo supportano. ;)
Hermes
Io mi son fatto abbindolare dai 312€ della msi 390... speriamo che a 1440p non sfiguri. Comunque io ero già a posto con la 7950, ma se ne andata:cry: .
L'ho presa un po' alla cieca, sul web ho trovato solo recensioni della msi 390x, e mi son detto che per qualche fps, grado e watt in meno potevo risparmiare tranquillamente qualche euro.
Maledetto l'hai pagata 38 € meno di me,dove cavolo l'hai beccata a quel prezzo? Manco le 390 reference costano così, complimenti!
maximagno
01-07-2015, 12:14
E che tantissimi giochi non lo supportano o lo fanno male.
Hai presente un project cars in quella risoluzione. Un buon compromesso invece dei 3 monitor fhd! O anche in molti strategici, avere più campo visivo laterale è una manna!!!
Inviato dal mio LG-D620 utilizzando Tapatalk
avere un monitor troppo grande distrae nei giochi online.
infatti se guardate i tornei lan importanti siccome per motivi di sponsor giocano con i monitor che gli danno li vedi tutti a giocare in finestra.
neopazzo
01-07-2015, 12:56
Io mi son fatto abbindolare dai 312€ della msi 390... speriamo che a 1440p non sfiguri. Comunque io ero già a posto con la 7950, ma se ne andata:cry: .
L'ho presa un po' alla cieca, sul web ho trovato solo recensioni della msi 390x, e mi son detto che per qualche fps, grado e watt in meno potevo risparmiare tranquillamente qualche euro.
Anche io avrei voluto provare MSI ma il mio fornitore non la tratta e per un discorso di fattura iva risparmio ho preso la sapphy sperando che non faccia un casino della madonna e che magari vada bene :D
volevo provare qualche giochino leggero tipo the withcher sul 52" ultra4k.... :D secondo me la scheda esce dal case e torna al negozio :D :ciapet:
Dark_Lord
01-07-2015, 13:27
Anche io avrei voluto provare MSI ma il mio fornitore non la tratta e per un discorso di fattura iva risparmio ho preso la sapphy sperando che non faccia un casino della madonna e che magari vada bene :D
volevo provare qualche giochino leggero tipo the withcher sul 52" ultra4k.... :D secondo me la scheda esce dal case e torna al negozio :D :ciapet:
Ho io la Sapphire 390x, se hai una buona ventilazione del case è abbastanza silenziosa e fresca anche in full, sui 75°. Sul mio case, dopo averla messa, ho dovuto aprire la paratia laterale, altrimenti esplodeva tutto, devo rivedere i flussi d'aria e aggiungere qualche ventola :asd:
devil_mcry
01-07-2015, 13:33
per ora ho zero problemi, perfino un "lego jurassic world" lo supporta perfettamente, da quando ho un 21:9 uso molto meno l'oculus per ovvia comodità rinunciando ad un po di immersività, ma almeno ho un buon campo visivo
Ho anche io un 21:9 ma ha ragione lui. Molti giochi non lo supportano oppure hanno la risoluzione ma hanno qualche difetto. Esempio che mi viene in mente è wolfenstein The new order che supporta i 21:9 ma ha un paio di effetti che quando partono li vedi in 16:9, capita 3-4 volte in tutto il gioco ma è una noia.
CS GO supporta i 21:9 ma poi genera problemi di z-fighting e killing floor 2 lo supporta e si vede bene ma ogni tanto ha problemi di allineamento dei muri.
Io dei vari titoli che ho comprato e giocato di recente la maggior parte non lo supporta bene e alcuni per niente (The evil within, mortal kombat x ad esempio)
Maledetto l'hai pagata 38 € meno di me,dove cavolo l'hai beccata a quel prezzo? Manco le 390 reference costano così, complimenti!
Presa da BPM, in più avevo il codice sconto di ben 5€:sofico: .
avere un monitor troppo grande distrae nei giochi online.
infatti se guardate i tornei lan importanti siccome per motivi di sponsor giocano con i monitor che gli danno li vedi tutti a giocare in finestra.
Se davvero sbarcherà in commercio la VR i prossimi giochi online, o per meglio dire i lan party trasmessi in streaming online, saranno sponsorizzati e dotati di tecnologia VR. Secondo me ci scorderemo di vedere i monitor del tutto a quegli eventi. :D
Hermes
OEidolon
03-07-2015, 13:18
rumor sulla Nano
http://videocardz.com/57000/amd-radeon-r9-nano-to-receive-full-fiji-silicon
staremo a vedere :O
rumor sulla Nano
http://videocardz.com/57000/amd-radeon-r9-nano-to-receive-full-fiji-silicon
staremo a vedere :O
Cosi è una zappata sui piedi, rischia di costarti quandto una fury X ad aria, se non di più per via della selezione del chip (e il perchè non mette i più fortunelli sulle fury x a liquido o ad aria ma tenerli per le compatte è davvero inspiegabile) e del riarrangiamento dell'elettronica.
Sicuramente il mercato itx e gaming sta diventando importante, ma spararci sopra una flagship come questa potrebbe non essere molto sensato.
Basterebbe fare una cosa carina sulle 3500sp con performances migliori delle 390 per stare apposto ed essere la regina del mercato mini itx
Guarda che i chip vengono "selezionati" tutti normalmente ... Un test di qualità lo devi fare per forza per sapere se è uscito bene o meno bene, e quindi poi piazzarlo sulla vga "giusta" ... Il vcore sarà poi deciso in base al silicio capitato fra le mani.... oppure basta sprare un vcore alto per prendere dentro più chip ed essere sicuri che passino i test di qualità es. le 79xx ghz che avevano vcore assurdi per le frequenze def che avevano....
appleroof
03-07-2015, 14:26
rumor sulla Nano
http://videocardz.com/57000/amd-radeon-r9-nano-to-receive-full-fiji-silicon
staremo a vedere :O
cioè sulla nano lo stesso chip dovrebbe avere 175w di tdp e sulla x 270w? ok che il tdp è dell'intera scheda ma o è pesantemente dowclockata ed impossibilitata a salire (con qyella ventola singola sarebbe impossibile credo) o c'è qualcosa che non torna
OEidolon
03-07-2015, 15:01
cioè sulla nano lo stesso chip dovrebbe avere 175w di tdp e sulla x 270w? ok che il tdp è dell'intera scheda ma o è pesantemente dowclockata ed impossibilitata a salire (con qyella ventola singola sarebbe impossibile credo) o c'è qualcosa che non torna
concordo ;)
però imho sarebbe più facile usare i fiji "castrati", quelli delle Fury liscie ad aria, anche per recuperare qualcosa sulle rese, però boh! Come ho scritto prima, staremo a vedere! :fagiano:
Caterpillar_WRT
03-07-2015, 15:11
Sono in arrivo le steam machine, e non mi pare di aver visto case tower ...:)
moicano68
03-07-2015, 15:39
Le proporzioni... :stordita:
ma ripeto, è un parere mio (che già "mal digerisco" i 16:9 e vedo di tenermi stretto il mio 16:10)
quotone...per quello presi lìIjama prolite 22"...odio i wide screen spinti...putroppo però la scelta è quasi inesistente ormai..
moicano68
03-07-2015, 16:39
ma le HD 7950 (alias 280?) e la sorellona 7970 (280x) sono quindi GCN 1.0 anche loro?e quindi avranno qualche feature delle dx12?
OEidolon
03-07-2015, 17:27
ma le HD 7950 (alias 280?) e la sorellona 7970 (280x) sono quindi GCN 1.0 anche loro?e quindi avranno qualche feature delle dx12?
si sono gcn1.0, supportano fino al FL 11_1, gcn successivi arrivano a FL 12_0.
Stando ai tweet ufficiali all'utente non cambia nulla.
http://wccftech.com/amd-confirms-gcn-cards-feature-full-directx-12-support-feature-level-111-gcn-10-feature-level-120-gcn-1112/
Cosi è una zappata sui piedi, rischia di costarti quandto una fury X ad aria, se non di più per via della selezione del chip (e il perchè non mette i più fortunelli sulle fury x a liquido o ad aria ma tenerli per le compatte è davvero inspiegabile) e del riarrangiamento dell'elettronica.
Sicuramente il mercato itx e gaming sta diventando importante, ma spararci sopra una flagship come questa potrebbe non essere molto sensato.
Basterebbe fare una cosa carina sulle 3500sp con performances migliori delle 390 per stare apposto ed essere la regina del mercato mini itx
Non sappiamo come scala con la frequenza fury.
A mente ricordo di cpu che nonostante il bassimo voltaggio per alcune frequenze non riuscivano a salire di una cippa rispetto a cpu con stessa frequenza base e voltaggio superiore (parliamo della stessa cpu).
può darsi che per alcuni chip i volt necessari esplodono oltre una certa frequenza, mentre a frequenze basse funzionano alla grande.
comunque -25% freq - 10% tensione credo che i watt siano quelli, e comunque con performance superiori ad una 390x (efficienza 2x quindi 175x2 =350w contro i 300 della 390x).
Probabilmente prenderà nel listino il posto della 390x (tra 380 e 450€) e metterà fuori mercato sia la 970 che la 980 liscia.
moicano68
03-07-2015, 19:26
si sono gcn1.0, supportano fino al FL 11_1, gcn successivi arrivano a FL 12_0.
Stando ai tweet ufficiali all'utente non cambia nulla.
http://wccftech.com/amd-confirms-gcn-cards-feature-full-directx-12-support-feature-level-111-gcn-10-feature-level-120-gcn-1112/
ahh ok quindi sono proprio identiche tranne qlc Mhz in + o in ---ho fatto un'offerta sulla baia per una asus 280 x direct cu 2...speriamo bene..ho letto che molte davano problemi..e lo ho letto dopo:muro: offerta massima 100 euro..quindi credo che non me la aggiudichero cmq..
Guarda che i chip vengono "selezionati" tutti normalmente ... Un test di qualità lo devi fare per forza per sapere se è uscito bene o meno bene, e quindi poi piazzarlo sulla vga "giusta" ... Il vcore sarà poi deciso in base al silicio capitato fra le mani.... oppure basta sprare un vcore alto per prendere dentro più chip ed essere sicuri che passino i test di qualità es. le 79xx ghz che avevano vcore assurdi per le frequenze def che avevano....
quella è la prima scrematura, quello che mi sembra strano è mettere da parte i chip con minore leakage per le nano, invece di averli sparati sulle fury x , magari a liquido, per offrire anche il prodotto top nel campo dell'oc...
mentre magari sulla nano ti tieni quelli venuti "bene" riguardo al leakage, ma magari con qualche sp non al top e quindi tagliati.
Poi sto discorso è sempre labile da fare, se le produzioni sono al top e la catena è avviata, dove prendi, prendi bene, fermo restando che pure la storia che al centro so meglio e sull'esterno peggio è vera fino ad un certo punto, vedi valutare anche la fetta dove lo prendi...un periferico di un wafer molto puro è a volte meglio di un centrale di un wafer un pò sfigus.
Come ho detto quello che mi stona è selezionare i chip "migliori" per metterli sulla nano e non spararli invece sulle fury X per offrire il prodotto top anche in oc (e buona parte degli entusiast compra anche per farsi venire il durello e dire "io so arrivato a 15 mhz in più di te sul core")
Non sappiamo come scala con la frequenza fury.
A mente ricordo di cpu che nonostante il bassimo voltaggio per alcune frequenze non riuscivano a salire di una cippa rispetto a cpu con stessa frequenza base e voltaggio superiore (parliamo della stessa cpu).
può darsi che per alcuni chip i volt necessari esplodono oltre una certa frequenza, mentre a frequenze basse funzionano alla grande.
comunque -25% freq - 10% tensione credo che i watt siano quelli, e comunque con performance superiori ad una 390x (efficienza 2x quindi 175x2 =350w contro i 300 della 390x).
Probabilmente prenderà nel listino il posto della 390x (tra 380 e 450€) e metterà fuori mercato sia la 970 che la 980 liscia.
Questo è un'altro punto, potrebbe davvero rischiare un soprapposizione di prezzo e di performances con la 390X ed allora l'unica discriminante sarebbe l'avere 8 o 4 gb di ram a seconda dei gusti.
ma con un'ali da xfx 550w ed un'i7 4770 ci stò dentro con una 390 o 390x?
ma con un'ali da xfx 550w ed un'i7 4770 ci stò dentro con una 390 o 390x?
Se prendi una msi 390x sei al limite
http://www.hardocp.com/article/2015/06/18/msi_r9_390x_gaming_8g_video_card_review/10#.VZfYu_ntlBc
http://www.overclock3d.net/reviews/gpu_displays/msi_r9_390x_gaming_8g_review/4
ma con un'ali da xfx 550w ed un'i7 4770 ci stò dentro con una 390 o 390x?
Se non fai oc ci stai alla grande.
quei test sono fatti 1 con 3770k a 4,8
l'altro con con 4960x a 4,4 +ali da 1500w (e gia in efficienza questo spreca almeno 30w in più rispettotto un 550.)
non ho oc, in pratica ho due hd (1msata da 480gb ed 1tb 3,5) oltre a 3 ventole nel case
magari posso anche rimuovere il secondo hd da 1tb per guadagnare qualche watt tanto lo posso tenere anche esterno
Il nabbo di turno
04-07-2015, 16:38
non ho oc, in pratica ho due hd (1msata da 480gb ed 1tb 3,5) oltre a 3 ventole nel case
magari posso anche rimuovere il secondo hd da 1tb per guadagnare qualche watt tanto lo posso tenere anche esterno
è un buon alimentatore, non credo avrai problemi con una 390x stock ;).
Comunque io ti consiglierei una 390 liscia, è poco sotto alla 390x, circa 5% più lenta, ma c'è una differenza di prezzo di 100 euro.
Se non fai oc ci stai alla grande.
quei test sono fatti 1 con 3770k a 4,8
l'altro con con 4960x a 4,4 +ali da 1500w (e gia in efficienza questo spreca almeno 30w in più rispettotto un 550.)
Non so che tipo di ali abbia l'utente, ma facendo una ricerca generica su google il primo xfx da 550 che ho trovato in prossimità dei 450W ha una rendimento dell'83% http://www.jonnyguru.com/modules.php?name=NDReviews&op=Story2&reid=225 inferiore sia all'Enermax MaxRevo 1350W che è del 90% http://www.jonnyguru.com/modules.php?name=NDReviews&op=Story3&reid=241 che al corsair da 1500W che supera il 92% http://www.jonnyguru.com/modules.php?name=NDReviews&op=Story4&reid=378.
Sul discorso cpu, a meno che quei bench li abbiano fatti con linx in esecuzione l'oc non credo abbia una particolare rilevanza.
ho il XFX ProSeries 550W Core Edition, vorrei sostituire la 270x che ho di default con qualcosa che vada almeno il doppio :D :cool:
moicano68
04-07-2015, 16:43
Sentite ,se riuscissi a prendere una sapphire r9 290 tri x a buon prezzo (sui 170 € con ancora 10 mesi di garanzia...sul mio Enermax 500 82+ brnze plus riuscirei a andare? non dovrebbe consumare tanto di + di una 280,280x giusto? a paritàdi soldi conviene prendere la 290 anche se sarei spesso CPU limited col Phenom x4965BE? o il gioco non vale la candela? la scheda è lunghissima e se ci stà ci stà a pelo..pls help me!:mc:
Il nabbo di turno
04-07-2015, 16:46
Sentite ,se riuscissi a prendere una sapphire r9 290 tri x a buon prezzo (sui 170 € con ancora 10 mesi di garanzia...sul mio Enermax 500 82+ brnze plus riuscirei a andare? non dovrebbe consumare tanto di + di una 280,280x giusto? a paritàdi soldi conviene prendere la 290 anche se sarei spesso CPU limited col Phenom x4965BE? o il gioco non vale la candela? la scheda è lunghissima e se ci stà ci stà a pelo..pls help me!:mc:
Come alimentazione, se non fai oc al processore, ce la dovresti fare, è una vga da 250w a pieno carico.
Però il cpu limited in giochi cpu bound si farà sentire, ma in ottica futura è un buon acquisto, è una vga che in full hd tira molto.
Il nabbo di turno
04-07-2015, 16:47
ho il XFX ProSeries 550W Core Edition, vorrei sostituire la 270x che ho di default con qualcosa che vada almeno il doppio :D :cool:
Infatti 390 e 390x sono circa il doppio della 270x :D .
Se prendi una msi 390x sei al limite
http://www.hardocp.com/article/2015/06/18/msi_r9_390x_gaming_8g_video_card_review/10#.VZfYu_ntlBc
http://www.overclock3d.net/reviews/gpu_displays/msi_r9_390x_gaming_8g_review/4
510w - 10% = 460w ok (quindi 510w misurati alla presa e non erogati dall'ali)
Rispetto ad un ali che eroga 550w stai dentro, e poco importa se un ali ha un rendimento dell'80%:
460w erogati (mancano ancaro 90w per arrivare a pieno carico) significa che alla presa avrò 550w.
Quando l'ali erogherà 550w, alla presa avrò 660w.
Nel consumo dell'intero sistema devi considerare il la perdita di rendimento dell'ali (la misurazione viene fatta a monte dell'ali), invece il carico che può erogare l'ali è da considerare a valle (nelle uscite 12-4-3,3 v) dell'alimentatore, e come vedi i miei calcoli (fatti a spanne considerando la qualità dell'ali senza scomodare Jonny guru) sono giusti.
moicano68
04-07-2015, 17:16
Come alimentazione, se non fai oc al processore, ce la dovresti fare, è una vga da 250w a pieno carico.
Però il cpu limited in giochi cpu bound si farà sentire, ma in ottica futura è un buon acquisto, è una vga che in full hd tira molto.
grazie...però sono terrorizzato da sta storia dei black screen e dei tanti problemi riso cntrati su questa VGA...il prezzo basso di qusto usato mi rende ancora + titubante..iltipo dice che và bene senza difetti..ma si sà che non bisogna fidarsi dell'oste..le 280 e 280x non danno di questi problemi ,vero?
Il nabbo di turno
04-07-2015, 17:24
grazie...però sono terrorizzato da sta storia dei black screen e dei tanti problemi riso cntrati su questa VGA...il prezzo basso di qusto usato mi rende ancora + titubante..iltipo dice che và bene senza difetti..ma si sà che non bisogna fidarsi dell'oste..le 280 e 280x non danno di questi problemi ,vero?
Non è che tutte le 290 siano affette dai black screen, e i 10 mesi di garanzia rimanenti possono essere molto utili.
Con 180 ti rimedi una 380/960 2gb, non sono vga scarse, ma non sono di certo a livello della 290...
moicano68
04-07-2015, 17:26
Non è che tutte le 290 siano affette dai black screen, e i 10 mesi di garanzia rimanenti possono essere molto utili.
Con 180 ti rimedi una 380/960 2gb, non sono vga scarse, ma non sono di certo a livello della 290...
guarda sinceramente sto tipo la venderebbe a 150€....
510w - 10% = 460w ok (quindi 510w misurati alla presa e non erogati dall'ali)
Rispetto ad un ali che eroga 550w stai dentro, e poco importa se un ali ha un rendimento dell'80%:
460w erogati (mancano ancaro 90w per arrivare a pieno carico) significa che alla presa avrò 550w.
Quando l'ali erogherà 550w, alla presa avrò 660w.
Nel consumo dell'intero sistema devi considerare il la perdita di rendimento dell'ali (la misurazione viene fatta a monte dell'ali), invece il carico che può erogare l'ali è da considerare a valle (nelle uscite 12-4-3,3 v) dell'alimentatore, e come vedi i miei calcoli (fatti a spanne considerando la qualità dell'ali senza scomodare Jonny guru) sono giusti.Per questioni di rendimento e calore, l'ideale sarebbe caricarlo tra il 70% e l'80%.
Comunque il 550W regge.
Per questioni di rendimento e calore, l'ideale sarebbe caricarlo tra il 70% e l'80%.
Comunque il 550W regge.
Sostituisci il 2011 delle prove o il 3770k a 4800 con un 4770 def e ti ritrovi sotto i 450w tranquillamente, diciamo che un 4770 + 390x + ssd + 2 x4 gb ram si dovrebbe stare come richiesta massima in game sotto i 400w, quindi anche sotto il 70% del carico massimo.
FedeGata
04-07-2015, 18:04
Per questioni di rendimento e calore, l'ideale sarebbe caricarlo tra il 70% e l'80%.
Comunque il 550W regge.
Io posso raccontare la mia esperienza, con un fx8320 no oc, una r9 290 oc di fabbrica della sapphire e 16gb ddr3 consumo in batman arkham origins circa 300w, misurati con uno di quegli aggeggi da mettere tra la presa di rete e il cavo dell'alimentatore. Il tutto comunque viaggia da 2 anni ormai con un enermax modu87 da 500w.
510w - 10% = 460w ok (quindi 510w misurati alla presa e non erogati dall'ali)
Rispetto ad un ali che eroga 550w stai dentro, e poco importa se un ali ha un rendimento dell'80%:
460w erogati (mancano ancaro 90w per arrivare a pieno carico) significa che alla presa avrò 550w.
Quando l'ali erogherà 550w, alla presa avrò 660w.
Nel consumo dell'intero sistema devi considerare il la perdita di rendimento dell'ali (la misurazione viene fatta a monte dell'ali), invece il carico che può erogare l'ali è da considerare a valle (nelle uscite 12-4-3,3 v) dell'alimentatore, e come vedi i miei calcoli (fatti a spanne considerando la qualità dell'ali senza scomodare Jonny guru) sono giusti.
Jonnyguru è stato scomodato perché non conoscendo l'efficienza degli alimentatori al variare del carico, volevo avere un riscontro di quello che dicevi.
Per quanto riguarda i tuoi calcoli ci stanno, ma io ad una gpu che consuma da sola 360W http://www.hardware.fr/focus/110/msi-radeon-r9-390x-gaming-8-go-test.html e che che ti lascia un margine di 190W per tutto il resto preferirei qualcosa d'altro, tipo una 390, anche perché se è vero che quall'ali sarà in grado di sostenere la richiesta di corrente di una 390X, avvicinandosi all'80% della sua capacità massima di erogazione, inizierà a scaldare, ad essere più rumoroso, e se l'utente avrà voglia di fare un po di oc, potrebbe andare in sovracorrente spegnendo il pc o causare crash.
Jonnyguru è stato scomodato perché non conoscendo l'efficienza degli alimentatori al variare del carico, volevo avere un riscontro di quello che dicevi.
Per quanto riguarda i tuoi calcoli ci stanno, ma io ad una gpu che consuma da sola 360W http://www.hardware.fr/focus/110/msi-radeon-r9-390x-gaming-8-go-test.html e che che ti lascia un margine di 190W per tutto il resto preferirei qualcosa d'altro, tipo una 390, anche perché se è vero che quall'ali sarà in grado di sostenere la richiesta di corrente di una 390X, avvicinandosi all'80% della sua capacità massima di erogazione, inizierà a scaldare, ad essere più rumoroso, e se l'utente avrà voglia di fare un po di oc, potrebbe andare in sovracorrente spegnendo il pc o causare crash.
Non capisco da dove tiri fuori 350w per la sola vga?
MSI R9 390X Gaming 8G
Intel Core i7-4960X @ 4.4GHz
ASUS Rampage IV Extreme
Corsair Dominator Platinum 2133
Corsair AX1500i
Corsair Neutron GTX
Corsair H100i
Windows 7 x64
A monte abbiamo 510w max
sotto game abbiamo minimo:
MSI R9 390X Gaming 8G
Intel Core i7-4960X @ 4.4GHz 95w (e qua sono stato davvero stretto)
ASUS Rampage IV Extreme 30w
Corsair Dominator Platinum 2133 (8 w, sono 4 banchi)
Corsair AX1500i
Corsair Neutron GTX 2w
Corsair H100i 16w (sono 2 ventole + pompa)
Windows 7 x64
quindi 460 - 151watt = 310watt (ed è una previsione davvero pessimistica, in realta dovrebbe stare tra i 290 ed i 300 watt max di consumo)
Forse dipende dal gioco, anno 2070 evidentemente sollecita maggiormente la gpu rispetto ad altri giochi, comunque quel consumo è in linea con quello rilevato da techpowerup http://www.techpowerup.com/mobile/reviews/MSI/R9_390X_Gaming/28.html, quella msi è una bestia ma consuma l'ira di dio.
Scusate la mia insistenza, ma perché continuate ad usare questo thread per delle schede già uscite ? Forse usare i thread ufficiale sarebbe meglio...
Inviato dal mio iPhone 6 utilizzando Tapatalk
Forse dipende dal gioco, anno 2070 evidentemente sollecita maggiormente la gpu rispetto ad altri giochi, comunque quel consumo è in linea con quello rilevato da techpowerup http://www.techpowerup.com/mobile/reviews/MSI/R9_390X_Gaming/28.html, quella msi è una bestia ma consuma l'ira di dio.
onestamente non so che dire.
Quei valori mi sembrano semplicemente esagerati, durante il furmark non si rischia di bruciare la scheda, ma i connettori dell'alimentazione e lo slot pce.
424w - 75 (dello slot pce) sono 350w che fanno 2 linee da 20a sul 12 volt minimo, oppure ali con 2 linee da 16a dedicate alla sola vga.
con un poco di averclock sulla vga si dovrebbero tranquillamente sfondare i 470w di sola vga.
non ho modo di fare una prova diretta, ma semplicemente mi sembra impossibile che consumi più di una 290x.
Non so, rimango dubbioso anche se le misurazioni sembrano quelle.
Da qua: http://www.tomshw.it/articoli/recensione-radeon-r9-390x-r9-380-e-r7-370-test-prestazioni-e-consumi-67654-p12
sembra addirittura che da pce non prenda un w ma si alimenta esclusivamente dai cavi.
Allora un 550w credo sia sconsigliabile meglio andare su un 625w o prendere una fury ad aria (a voler rimanere in casa amd)
Scusate la mia insistenza, ma perché continuate ad usare questo thread per delle schede già uscite ? Forse usare i thread ufficiale sarebbe meglio...
Inviato dal mio iPhone 6 utilizzando Tapatalk
Ricevuto, e scusate per l'ot
morta questa discussione?
fra 8 giorni escono le fury lisce.
Goofy Goober
06-07-2015, 15:33
se ne sta parlando nel topic delle fiji.
Pachanga
06-07-2015, 15:39
morta questa discussione?
fra 8 giorni escono le fury lisce.
C'e' un po' di confusione sul fatto che sia meglio utilizzare ancora questo thread o meno...
Quello ufficiale(non piu' aspettando)e' qui:
http://www.hwupgrade.it/forum/showthread.php?t=2721565
ed anche se il titolo fa riferimento alla sola Fury X,il sottotitolo specifica che si parla di Fury Series.
Insomma,in quel thread,a mio avviso,si dovrebbe poter parlare liberamente di tutte le Fury,la X,la "non" X e la Nano.
Il problema e' che non esiste(o almeno io non l'ho vista)una discussione ufficiale sulla serie 300.
Quindi penso che di questo brand si possa tranquillamente continuare a discutere qui.
Ma queste sono solo ipotesi mie,magari non ci ho capito nulla...:fagiano: :D
Goofy Goober
06-07-2015, 15:44
in teoria si dovrebbe continuare qui.
in pratica, visto che si "sa già" molto delle schede in arrivo, e del fatto che saranno Fiji, se ne parla di la...
Pachanga
06-07-2015, 15:50
Quindi:
qui:tutta la serie 300-Fury liscia fino al 14 Luglio-Nano finche' non uscira'
là:Fury X e basta?
Meglio chiedere ad un mod,troppo confuso il tutto.;)
OEidolon
06-07-2015, 16:13
mi sa che qua rimane spazio solo per la fury x2 finchè non esce e/o eventuali nuovi rumors futuri :stordita:
Secondo me se il thread si chiama "aspettando le nuove vga" significa che si parla di tutte quelle schede che non sono state ancora presentate. Appena avvenuto ciò si migra nel thread dedicato. ;)
Se non esiste quello delle 300 basta decidere di crearlo o, dato che sono poco più che dei rebrand delle 200, modificare il thread pre-esistente per includerle. :D
Hermes
Secondo me se il thread si chiama "aspettando le nuove vga" significa che si parla di tutte quelle schede che non sono state ancora presentate. Appena avvenuto ciò si migra nel thread dedicato. ;)
Se non esiste quello delle 300 basta decidere di crearlo o, dato che sono poco più che dei rebrand delle 200, modificare il thread pre-esistente per includerle. :D
Hermes
infatti va modificato il thread delle 290-290x visto che sono un rebrand di quella serie con il medesimo chip, in tal modo si procederebbe in maniera analoga ai thread nvidia dove si aggregano le vga per chip.
infatti va modificato il thread delle 290-290x visto che sono un rebrand di quella serie con il medesimo chip, in tal modo si procederebbe in maniera analoga ai thread nvidia dove si aggregano le vga per chip.
*
Esatto... funziona così...
FedeGata
06-07-2015, 22:13
infatti va modificato il thread delle 290-290x visto che sono un rebrand di quella serie con il medesimo chip, in tal modo si procederebbe in maniera analoga ai thread nvidia dove si aggregano le vga per chip.
Ma la modifica chi la può fare, il solo moderatore o anche il creatore del thread?
killeragosta90
06-07-2015, 22:25
Ma la modifica chi la può fare, il solo moderatore o anche il creatore del thread?
Se non erro il mod, solitamente l'utente normale non può modificare il titolo delle proprie discussioni.
Confermo, l'autore del thread chiede al moderatore tramite privato ed in pochissimo tempo viene fatta la modifica. E' andata così anche per il sondaggio CoilWhine per aggiungere le nuove uscite nVidia, efficientissimi. :D
Hermes
Pachanga
07-07-2015, 02:09
Quindi,in teoria...:D
-si manda un pvt ad okorop (appena fatto) spiegandogli la faccenda.Lui contattera' un mod e quando tutto sara' ok si potra' parlare della serie 300 nel thread ora dedicato alle R9 290-290X .
http://www.hwupgrade.it/forum/showthread.php?t=2605132
-nel thread aperto da Phenom si potra' discutere della R9 Fury X.
http://www.hwupgrade.it/forum/showthread.php?t=2721565
-ed in questo di tutte le altre schede Fury non ancora uscite.
Cosi' non sarebbe male,se non fosse che,temo,si continuera' comunque a disquisire di tutte le Fury in quello della Fury X...:fagiano: :D
°Phenom°
07-07-2015, 02:39
Il thread della fury x verrà aggiornato con la fury e la nano all'uscita di esse :)
Il thread della fury x verrà aggiornato con la fury e la nano all'uscita di esse :)
Infatti, proprio come diceva precedentemente Ludus. :mano:
infatti va modificato il thread delle 290-290x visto che sono un rebrand di quella serie con il medesimo chip, in tal modo si procederebbe in maniera analoga ai thread nvidia dove si aggregano le vga per chip.
Le fury hanno tutte lo stesso fiji, gcn e memorie, quindi si può integrare tutto nello stesso thread. :D
Meno 7gg alla fury, anche se mi è sceso molto l'interesse. :cry:
Hermes
bene, quindi continuiamo a dire qui che sono molto ansioso di vedere come vanno le fury lisce (e secondo me avranno lo stesso chip le nano)
e forse vedere la corsa, come è successo per alcune 290, allo sblocco delle sp?^^
Free Gordon
07-07-2015, 12:54
Quindi tutte 56CU?
La questione è: quante rops avranno?
Mica avranno meno rops delle FuryX? :)
Le TMU quasi sicuramente saranno 224....
Perché l'unico dubbio è quello, per quanto riguarda le prestazioni sarebbero in tutto e per tutto più veloci delle 390X...anche se clockate @1ghz.
2816sp @1050mhz < 3584sp @1000mhz...c'è più di 1Tflop di differenza...
Il nabbo di turno
07-07-2015, 12:57
Avranno le stesse rops probabilmente, ed intanto...
http://videocardz.com/57078/exclusive-sapphire-radeon-r9-fury-pictured-specifications-confirmed
Ragazzi è arrivata la mia 390 msi, di default come temperatura sta sui 50 gradi, c'è qualcosa che non va?
Avranno le stesse rops probabilmente, ed intanto...
http://videocardz.com/57078/exclusive-sapphire-radeon-r9-fury-pictured-specifications-confirmed
Mamma mia la Nano, la scimmietta spinge, ma non voglio cadere ancora nei 28nani....
Dark_Lord
07-07-2015, 21:15
Ragazzi è arrivata la mia 390 msi, di default come temperatura sta sui 50 gradi, c'è qualcosa che non va?
:eek: :eek: :eek: Stai rischiando il meltdown della GPU.
:asd:
Cosa dovrebbe esserci che non va? :stordita:
La mia 390x a riposo sta sui 45°, in full 75/80°, tutto nella norma.
francisco9751
07-07-2015, 21:21
pure la mia msi gaming 290X 8GB sta a 49°
ma a casa non ho il condizionatore..a milano ci sono 35
:eek: :eek: :eek: Stai rischiando il meltdown della GPU.
:asd:
Cosa dovrebbe esserci che non va? :stordita:
La mia 390x a riposo sta sui 45°, in full 75/80°, tutto nella norma.
Cavolo abituato alla 780 che anche d'estate stava sui 27, sono rimasto senza parole. Scusa io ora sto sui 42 , ma ho dovuto forzare le ventole da afterburner mettendole a 59.Se faccio partire il programma msi gaming vado a 60 gradi e oltre.A me non sembra proprio normalissimo in idle. C'è da idre che ho provato alien isolation in 4k con le mod, e mi è andata sui 73 gradi , quindi buono, boooooooooooo, proverò altri giochi. Voglio dire o ha un sistema di raffreddamento che non capisco e o è proprio strana.
AndreaMan
07-07-2015, 21:33
Sui 27?!
Ma con o senza AC?
Quanti gradi ci sono da te?
Ad oggi i 27 non si vedono nemmeno a liquido.
Inviato dal mio Nexus 6
Sui 27?!
Ma con o senza AC?
Quanti gradi ci sono da te?
Ad oggi i 27 non si vedono nemmeno a liquido.
Inviato dal mio Nexus 6
Ti giuro con la superjetstream, addirittura d'inverno stavo sui 19
devil_mcry
07-07-2015, 21:47
Ti giuro con la superjetstream, addirittura d'inverno stavo sui 19
Dubito, almeno che in casa te d'inverno non abbia 13-14° al massimo... Anche i 27° d'estate mi sembrano alquanto improbabili in Italia se non in alta quota... Avevi i sensori sballati
Dubito, almeno che in casa te d'inverno non abbia 13-14° al massimo... Anche i 27° d'estate mi sembrano alquanto improbabili in Italia se non in alta quota... Avevi i sensori sballati
No, assolutamente, provata con vari programmi, mai vista in idle a 30 gradi, mai!!!!
Comunque se da afterburner non forzo le ventole sta sui 60 gradi, per me non è normalissimo, qui è caldissimo, ma 60 gradi è troppo!
devil_mcry
07-07-2015, 21:56
No, assolutamente, provata con vari programmi, mai vista in idle a 30 gradi, mai!!!!
E i programmi secondo te che cosa usano per leggere la temperatura?
Se hai 20° per dire in camera la temperatura di qualunque oggetto in quell'ambiente è almeno di 20°, questa è termodinamica. La GPU quindi si troverà a 20°+Delta termico del case dovuto al parziale isolamento del sistema+il calore prodotto in parte dissipato.
Te puoi anche leggere 10° ma è il sensore che è palesemente in errore in quel caso. Quello che ti mostrano i programmi è la lettura del sensore della scheda.
Per fare 19° in inverno vuol dire che in camera avevi al massimo 13-14° non di più
Idem ora, dici di vedere 27° ma in Italia con il clima attuale è impossibile almeno che non sei in alta montagna o col clima a palla... Vorrebbe dire avere 20° circa in camera e in estate in Italia è alquanto improbabile
E i programmi secondo te che cosa usano per leggere la temperatura?
Se hai 20° per dire in camera la temperatura di qualunque oggetto in quell'ambiente è almeno di 20°, questa è termodinamica. La GPU quindi si troverà a 20°+Delta termico del case dovuto al parziale isolamento del sistema+il calore prodotto in parte dissipato.
Te puoi anche leggere 10° ma è il sensore che è palesemente in errore. Quello che ti mostrano i programmi è la lettura del sensore della scheda.
Per fare 19° in inverno vuol dire che in camera avevi al massimo 13-14° non di più
Idem ora, dici di vedere 27° ma in Italia con il clima attuale è impossibile almeno che non sei in alta montagna o col clima a palla... Vorrebbe dire avere 20° circa in camera
Ora non ce l'ho più, ma l'anno scorso ti assicuro che a 30 non ci è mai arrivata, quest'anno non l'ho testata perchè l'ho data via più di un mese fa.
devil_mcry
07-07-2015, 22:08
Ora non ce l'ho più, ma l'anno scorso ti assicuro che a 30 non ci è mai arrivata, quest'anno non l'ho testata perchè l'ho data via più di un mese fa.
Ripeto, il tuo "a più di 30 non ci è mai arrivata" si basa sul fatto che lo hai letto dai tool rilevando il valore misurato dal sensore, non dico che non hai letto quello ma il punto è un altro.
Ora, siccome la fisica è la fisica, o l'anno scorso tu vivevi al polo nord oppure capisci bene è impossibile che una vga scalda 27° da accesa con 30° di temperatura ambientale... Sarebbe una magia e vorrebbe dire creare energia dal nulla, ma anche con 25° di tamb sarebbe stato uguale.
Il sensore era starato ti dava una temperatura più bassa che te hai preso per buona ma sbagliata, con una pistola per misurazioni termiche l'avresti notato (so che non è normale averla manco io la ho, ma la termodinamica già mi dice che è impossibile).
Con 30° di temperatura ambientale e passa in questo periodo è normale avere temperature in idle di tanti gradi. Per dire la mia 970 G1, GPU che scalda molto meno di Hawaii Pro e che ha un dissipatore particolarmente efficiente, sta a 40° in idle con la temperatura attuale di Torino (30° +o-)
Ripeto, il tuo "a più di 30 non ci è mai arrivata" si basa sul fatto che lo hai letto dai tool rilevando il valore misurato dal sensore, non dico che non hai letto quello ma il punto è un altro.
Ora, siccome la fisica è la fisica, o l'anno scorso tu vivevi al polo nord oppure capisci bene è impossibile che una vga scalda 27° da accesa con 30° di temperatura ambientale... Sarebbe una magia e vorrebbe dire creare energia dal nulla, ma anche con 25° di tamb sarebbe stato uguale.
Il sensore era starato ti dava una temperatura più bassa che te hai preso per buona ma sbagliata, con una pistola per misurazioni termiche l'avresti notato (so che non è normale averla manco io la ho, ma la termodinamica già mi dice che è impossibile).
Con 30° di temperatura ambientale e passa in questo periodo è normale avere temperature in idle di tanti gradi. Per dire la mia 970 G1, GPU che scalda molto meno di Hawaii Pro e che ha un dissipatore particolarmente efficiente, sta a 40° in idle con la temperatura attuale di Torino (30° +o-)
Se ti ricordi l'anno scorso non fu un 'estate calda , però può darsi che hai ragione, fatto sta che sta scheda di default sta oltre i 50 , la tengo a 42 con fan speed a 59 da afterburner, è normale secondo te?
devil_mcry
07-07-2015, 22:31
Se ti ricordi l'anno scorso non fu un 'estate calda , però può darsi che hai ragione, fatto sta che sta scheda di default sta oltre i 50 , la tengo a 42 con fan speed a 59 da afterburner, è normale secondo te?
Non è stata un'estate calda al nord ma c'erano comunque 27-30° mica 20. Avevi una scheda col sensore starato capita, non saresti il primo.
Comunque al di la di come sono impostati i profili 50° in idle ci può stare, soprattutto perchè se stai guardando contenuti web accelerabili con la GPU non è proprio in idle.
Comunque per dirti a me sabato-domenica che c'era qualche grado in meno di ora (in casa sui 28-30) la mia 970 G1 stava a 40° abbondanti. Considerando la GPU e il dissipatore non mi stupisce che la tua vada sui 50 anzi.
Non è stata un'estate calda al nord ma c'erano comunque 27-30° mica 20. Avevi una scheda col sensore starato capita, non saresti il primo.
Comunque al di la di come sono impostati i profili 50° in idle ci può stare, soprattutto perchè se stai guardando contenuti web accelerabili con la GPU non è proprio in idle.
Comunque per dirti a me sabato-domenica che c'era qualche grado in meno di ora (in casa sui 28-30) la mia 970 G1 stava a 40° abbondanti. Considerando la GPU e il dissipatore non mi stupisce che la tua vada sui 50 anzi.
Ok però preferisco tenerla così sui 42, spero di non forzare troppo le ventole!
Dark_Lord
07-07-2015, 23:15
Se ti ricordi l'anno scorso non fu un 'estate calda , però può darsi che hai ragione, fatto sta che sta scheda di default sta oltre i 50 , la tengo a 42 con fan speed a 59 da afterburner, è normale secondo te?
Quoto devil_mcry, la vga precedente aveva qualche problema ai sensori, ad ogni modo 40/50° in idle sono normalissimi, la 390x che ho ora addirittura tiene le ventole totalmente spente fino ai 50° o giù di lì, in Windows praticamente è a raffreddamento passivo.
mikael84
07-07-2015, 23:23
Quindi tutte 56CU?
La questione è: quante rops avranno?
Mica avranno meno rops delle FuryX? :)
Le TMU quasi sicuramente saranno 224....
Perché l'unico dubbio è quello, per quanto riguarda le prestazioni sarebbero in tutto e per tutto più veloci delle 390X...anche se clockate @1ghz.
2816sp @1050mhz < 3584sp @1000mhz...c'è più di 1Tflop di differenza...
Stesse rops, ovviamente tagliando i CU e gli ST tagli anche le TMU.
Fury liscio sarà praticamente un tonga doppio con più banda.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.