View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™
moicano68
03-06-2015, 15:37
della fascia 150\200 euro ancora non si sà un tubo? ma nn era oggi la presentazione parziale?
MrBrillio
03-06-2015, 15:38
Si a una Fury (non X) con meno SP a 650€ per competere con la 980Ti, sempre con le HBM ...
Sarebbe fico ... e la Fury non X potrebbe essere il "best buy" della fascia enthusiast in questo caso. Vedremo.
La cosa migliore per AMD, ma soprattutto per noi, sarebbe che quella bestiolina costasse 750€ nette proprio come la 980Ti, relegandola come seconda scelta o come scelta obbligatoria in caso si voglia usare il gsync...e i vari rebrand che costino dalle 600 in giù..solo così credo che AMD riguadagnerebbe fiducia nei compratori...a sto punto quasi quasi faccio il salto della fede :asd:
Ale55andr0
03-06-2015, 15:40
si l'ho visto il die così come il package sembra una bella mattonella, ma boh probabilmente il fatto che le memorie HBM consumano meno possono aver spinto di più nel numero di SP... bah...
comunque se va quel +10% dalla Titan X, dico 900€ iva inclusa
900 per una vga con 4gb (si "tappi le orecchie" a chi da fastidio sentirmelo dire) sono fuori luogo. Davvero fuori luogo. Il prezzo "giusto" fra prestazioni ma anche contro (minore memoria, consumi più elevati) sarebbe sui 7 cartoni. E rispetto la politica degli ultimi anni potrebbero persino essere troppi per alcuni, visto che anche con la 290 liscia AMD grossomodo parggiava il meglio (la titan 2660sp) con un prezzo bassissimo (4 cucuzze), cambiare improvvisamente rotta potrebbe non esser preso affatto bene. Meglio vendere 10000mila vga a 700 che 1000 a 900, per dire numeri a caso. Avesse avuto 8 gb non avrei avuto da ridire fino a 8 cartoni, anche se io quelle cifre per una vga non le spenderei a priori
°Phenom°
03-06-2015, 15:41
Se non costa un rene, potrei farci un pensierino, visto il ricavato della mia vga + wb che dovrei poter farci. Più che altro vorrei capire anche quanto siano distanti i 16nm per amd e nvidia e Skylake-e, che sto aspettando per sostituire la mia mobo + cpu.
Ho come la sensazione che la fury sarà l'unica vga con hbm.... Niente "nuova 5850" imho
°Phenom°
03-06-2015, 15:42
della fascia 150\200 euro ancora non si sà un tubo? ma nn era oggi la presentazione parziale?
Ma sono tutti rebrand, guarda le schede già in commercio scusami :asd:
°Phenom°
03-06-2015, 15:51
Dipende, a me 4gb bastano ed avanzano per esempio, visto che comunque dovrò passare dai 1920x1200 ai 2560x1440, quindi l'importante è che non sia prezzata a mo di truffa nvidia style :asd:
athlon xp 2400
03-06-2015, 15:58
Dipende, a me 4gb bastano ed avanzano per esempio, visto che comunque dovrò passare dai 1920x1200 ai 2560x1440, quindi l'importante è che non sia prezzata a mo di truffa nvidia style :asd:
come mia solo 4gb?
io son tornato alla 980 liscia..la titan x costava troppo per quello che andava
appleroof
03-06-2015, 16:01
ma AMD ha lavorato assieme ad Hynix nello sviluppo delle HBM..perchè mai non uscire prima..ed uscire assieme alla concorrenza??è un vero valore aggiungo..altro che physicx o altre menate varie..
senza contare che nel 95% dei giochi fino a 1440p..4GB sono più che sufficienti..inutile dire "in 4K non bastano"..perchè magari la percentuale arriva a 90% ma nemmeno l'1% dei videogamer gioca già a 4k..sicchè..:rolleyes:
Sul fatto che non siano particolarmente limitanti per ora e fino a 1440p sono d'accordo ,l'ho già detto
Sul resto proprio perche ci hai lavorato a 4 mani potevi aspettare a lanciarle con 8gb edit: direttamente quelle 16nm insomma (si tratta di sei mesi da ora se ricordo bene la roadmap Hynix non anni) e facevi più figura sulla top von 8gb (tra l'altro in coerenza con quanto ha fatto negli ultimi anni, dalla serie 6000 ha sempre offerto più vram sulla top della concorrenza)
Boh, vediamo quando esce cosa dire
Sul fatto che non siano particolarmente limitanti per ora e fino a 1440p sono d'accordo ,l'ho già detto
Sul resto proprio perche ci hai lavorato a 4 mani potevi aspettare a lanciarle con 8gb (si tratta di sei mesi da ora se ricordo bene la roadmap Hynix non anni) e facevi più figura sulla top von 8gb (tra l'altro in coerenza con quanto ha fatto negli ultimi anni, dalla serie 6000 ha sempre offerto più vram sulla top della concorrenza)
Boh, vediamo quando esce cosa dire
Si ma se usciva se a Hbm allora poteva uscire a gennaio-febbraio
francisco9751
03-06-2015, 16:04
son punti di vista :3
p.s. ma lurenz che fine ha fatto??non lo leggo da un po :0
Tapatalked by LG G3
appleroof
03-06-2015, 16:06
Si ma se usciva se a Hbm allora poteva uscire a gennaio-febbraio
Appunto meglio ancora, sta scelta di avere subito le hbm non so quanto abbia pagato insomma, poi si vedrà con la scheda all'opera ovvio...
appleroof
03-06-2015, 16:10
era meglio si, ma l'interposer sarà pronto tra almeno 6 mesi e per le HBM 2 si aspettano i 16nm, sia nvidia che amd
Si ho editato sopra, intendevo direttamente con le 16nm e hbm di seconda gen
Allora o era tardi per ridisegnare il bus per le gddr5, oppure secondo me (visto che sapevano da subito immagini che la prima gen sarebbe stata limitata a 4gb) è stata una scelta per far vedere do essere arrivata prima, ma insomma ripeto non so quanto paghi questa mossa quanto sia stata intelligente (allo stato delle info attuali intendo)
Si ma se usciva se a Hbm allora poteva uscire a gennaio-febbraio
A gennaio febbraio avevano magazzini pieni di hawaii da smaltire... Glielo dici tu ai clienti di svalutare del 50% il valore di magazzino da un giorno al altro? Auguri...
son punti di vista :3
p.s. ma lurenz che fine ha fatto??non lo leggo da un po :0
Tapatalked by LG G3
Ci pensavo ieri, è molto che non si vede :stordita:
A gennaio febbraio avevano magazzini pieni di hawaii da smaltire... Glielo dici tu ai clienti di svalutare del 50% il valore di magazzino da un giorno al altro? Auguri...
Scusa e quando escono le nuove Nvidia per i clienti non è uguale? Diciamo che hanno sempre politiche commerciali del c@zz@! Imho come detto e ridetto non adatte a chi deve inseguire!
Lurenz se ne è andato come molti altri da hwu.... Colpa dei fanboy amd come me :O
appleroof
03-06-2015, 16:20
A gennaio febbraio avevano magazzini pieni di hawaii da smaltire... Glielo dici tu ai clienti di svalutare del 50% il valore di magazzino da un giorno al altro? Auguri...
Li avevano pieni in coerenza con le scelte fatte, se a monte avessero lavorato secondo altri piani (hbm 8gb con i 16nm) avevano anche il tempo di mandare in eol le 290 secondo la prassi comune, è tutto pianificato di conseguenza insomma
in realtà scrive tutt'ora...
Ah bene, allora leggerà sicuramente pure le cazzatemie e di ego...molto bene...
Vi state dimenticando il periodo mining e 290 a 500$
E conseguente rma di massa e/o mercatini pieni a bassi prezzi una volta finito, che hanno fatto restare le hawaii prodotte in fretta e furia x far tornare i prezzi normali sugli scaffali, e poi uscí maxwell.... Insomma, solito culo amd che si unisce ai loro errori (insieme ai 20nm cancellati)...
Ma scusate un secondo: AMD non aveva confermato l'arrivo di chip 20 nm per il 2015 ? Non aveva specificato in quale segmento ma se non ricordo male doveva debuttare qualcosa ...
Forse dei soc o delle spu ma non se ne è più fatto nulla a quanto ne so...
moicano68
03-06-2015, 16:45
Ma sono tutti rebrand, guarda le schede già in commercio scusami :asd:
ma qualcuno mi aveva detto di aspettare che forse aumentavano la Vram alla 285 con magari meno consumi..e io ho aspettato..:muro:
°Phenom°
03-06-2015, 16:59
ma qualcuno mi aveva detto di aspettare che forse aumentavano la Vram alla 285 con magari meno consumi..e io ho aspettato..:muro:
Ah vebbè si, escono le 285 4gb (tonga pro) e successivamente le 285x 4gb (tonga xt) in versione 300, ma non so se staranno nella fascia di prezzo da te detta. Forse la 285 4gb alias r9 380 4gb si.
sgrinfia
03-06-2015, 17:18
hai fatto bene
380 ~200€ 4gb
380x ~250€ 4gb (BestBuy)
390 ~ 350€ 8gb (BestBuy)
390x ~ 500€ 8gb
uFry ~ 650/700€ 4gb
FyX ~ 850/900€ 4gb
Come mai le furi hanno solo 4gb ?, hanno problemi a integrare le nuove memorie ?:)
francisco9751
03-06-2015, 17:19
leggete un paio di post indietro..c'è scritto tutto
Tapatalked by LG G3
Io ci credo poco che fury andrà di più.
Va bene le HBM ma parliamo di un chip da 520 mm^2 amd contro 630 mm^2 di una delle architetture più efficienti di sempre (maxwell).
Se un chip è più grande quasi del 20 % ha comunque milioni e milioni di transistor in più.
Tanto per dire, le 290/290x fanno abbastanza fatica a tenere il passo delle 990 spesso e volentieri in molti giochi e le 290 sono 440 mm^2 contro i 390 delle 980.
Il nabbo di turno
03-06-2015, 18:01
http://wccftech.com/amd-radeon-300-series-pricing-leaked-expensive-200-series/
No dai, fosse vero sarebbe un fail colossale....
Il nabbo di turno
03-06-2015, 18:05
Io ci credo poco che fury andrà di più.
Va bene le HBM ma parliamo di un chip da 520 mm^2 amd contro 630 mm^2 di una delle architetture più efficienti di sempre (maxwell).
Se un chip è più grande quasi del 20 % ha comunque milioni e milioni di transistor in più.
Tanto per dire, le 290/290x fanno abbastanza fatica a tenere il passo delle 990 spesso e volentieri in molti giochi e le 290 sono 440 mm^2 contro i 390 delle 980.
Considera che i 2800 core di gcn 1.1 se la giocano con i 2000 di maxwell, qui si parla di 4000 core con gcn 1.3, con tutte le migliorie del caso, memorie hbm e un clock presumibilmente più alto di 1ghz.
Imho le carte per battere la titan x ci sono tutte.
http://wccftech.com/amd-radeon-300-series-pricing-leaked-expensive-200-series/
No dai, fosse vero sarebbe un fail colossale....
Molto poco credibile.
okay, 4gb di ram in più costano, ma queste schede per vendere devono essere allineate con gli attuali prezzi dei corrispettivi serie 200, almeno per i rebrand.
devil_mcry
03-06-2015, 18:10
Considera che i 2800 core di gcn 1.1 se la giocano con i 2000 di maxwell, qui si parla di 4000 core con gcn 1.3, con tutte le migliorie del caso, memorie hbm e un clock presumibilmente più alto di 1ghz.
Imho le carte per battere la titan x ci sono tutte.
Si ma la 290x va come una 970 non come una 980... La 970 ne ha tipo 1664, meno di 2/3 dell'altra.
La titan x ha il 75% degli shader di fijix
Se la vedi in quest'ottica la differenza è tanta. Avere la tassellazione più potente non vuol dire essere per forza tanto più veloci, una 285 è più veloce di una 290 in tassellazione pura, ma nella media fa poi qualche punto % in più di una 280 non di più
Il nabbo di turno
03-06-2015, 18:10
Molto poco credibile.
okay, 4gb di ram in più costano, ma queste schede per vendere devono essere allineate con gli attuali prezzi dei corrispettivi serie 200, almeno per i rebrand.
Più che altro, la 285 ora costa 199 dollari, non 249, e la 260x 109, che fanno, alzano i prezzi?:mbe:
Considera che i 2800 core di gcn 1.1 se la giocano con i 2000 di maxwell, qui si parla di 4000 core con gcn 1.3, con tutte le migliorie del caso, memorie hbm e un clock presumibilmente più alto di 1ghz.
Imho le carte per battere la titan x ci sono tutte.
Si, ma secondo il tuo ragionamento servirebbe ad amd un chip da 700 mm^2 :asd:
Ormai tocca aspettare i leak.
Il nabbo di turno
03-06-2015, 18:13
Si ma la 290x va come una 970 non come una 980... La 970 ne ha tipo 1664, meno di 2/3 dell'altra.
La titan x ha il 75% degli shader di fijix
Se la vedi in quest'ottica la differenza è tanta. Avere la tassellazione più potente non vuol dire essere per forza tanto più veloci, una 285 è più veloce di una 290 in tassellazione pura, ma nella media fa poi qualche punto % in più di una 280 non di più
Nella recensione di hwupp sulla 980 ti, spesso e volentieri la 290x si allinea con la 980.
http://www.hwupgrade.it/articoli/skvideo/4378/nvidia-geforce-gtx-980ti-l-anti-titan-x_6.html
Si però alla fine si ripetono i soliti discorsi, te vedi che la 285 non è nemmeno il 5% più veloce della 280, io ci vedo una scheda che è poco sotto la 280x quando non ha problemi di vram.
Più che altro, la 285 ora costa 199 dollari, non 249, e la 260x 109, che fanno, alzano i prezzi?:mbe:
Vabbè è successo anche con tahiti e soprattutto pitcairn quando vennero lanciati rebrandizzati nella serie 200.
Ma poi dopo due settimane costavano meno dei corrispettivi vecchi.
Tra l'alto il prezzo delle 285 ufficiale è ancora 250 dollari eh..
E' retail che sembrerebbe essere stato tagliato a fine aprile, ma senza annunci ufficiali.
edit: comunque prepariamoci all'ondata di 290 a 230 euro al lancio delle 300 che saranno il best buy come le 780 al lancio della serie 900 :asd:
Il nabbo di turno
03-06-2015, 18:18
Vabbè è successo anche con tahiti e soprattutto pitcairn quando vennero lanciati rebrandizzati nella serie 200.
Ma poi dopo due settimane costavano meno dei corrispettivi vecchi.
Tra l'alto il prezzo delle 285 ufficiale è ancora 250 dollari eh..
E' retail che sembrerebbe essere stato tagliato a fine aprile, ma senza annunci ufficiali.
Imho avevo visto una notizia su tup del taglio di prezzi della 285.
https://www.techpowerup.com/212206/amd-cuts-prices-of-radeon-r9-285.html
francisco9751
03-06-2015, 18:21
...
sono pagine e pagine che leggo ad ogni commento su AMD..una tua risposta, tirando in mezzo nvidia..e trovando sempre una "cosa" per dire che nvidia è meglio...non è che forse hai sbagliato thread? :0
magari è solo una mia impressione eh ...
Tapatalked by LG G3
Imho avevo visto una notizia su tup del taglio di prezzi della 285.
https://www.techpowerup.com/212206/amd-cuts-prices-of-radeon-r9-285.html
Si, ma non era niente di ufficiale..
L'han fatto con i retailer e basta (in EU).
devil_mcry
03-06-2015, 18:43
sono pagine e pagine che leggo ad ogni commento su AMD..una tua risposta, tirando in mezzo nvidia..e trovando sempre una "cosa" per dire che nvidia è meglio...non è che forse hai sbagliato thread? :0
magari è solo una mia impressione eh ...
Tapatalked by LG G3
Leggi meglio, il discorso mica l'ho iniziato io in primo luogo, se poi vi volete illudere che la 290x va come una 980 per far tornare il conto sugli shaders e promuovere speculazioni fate pure.
Per essere iscritto qui mica devo per forza essere fanboy AMD come alcuni. Sono anche iscritto al thread della 290x perchè volevo prenderne una ma tra consumi, prestazioni, 3 modelli tra cui scegliere per non prendere un schede troppo calde, black screen etc ho evitato
sgrinfia
03-06-2015, 18:50
bba. i prezzi saranno elevati solo inizialmente. .........poi come sempre diventeranno più umani:D
devil_mcry
03-06-2015, 18:52
bba. i prezzi saranno elevati solo inizialmente. .........poi come sempre diventeranno più umani:D
Ma quei prezzi non contano niente è scritto sotto, il sito della news non è troppo affidabile e i prezzi non sono quelli di listino ma gli AIB price list, che non è quello ufficiale.
LurenZ87
03-06-2015, 18:53
son punti di vista :3
p.s. ma lurenz che fine ha fatto??non lo leggo da un po :0
Tapatalked by LG G3
Ci pensavo ieri, è molto che non si vede :stordita:
Ci sono ci sono, ma preferisco limitarmi a leggere e basta.
Lurenz se ne è andato come molti altri da hwu.... Colpa dei fanboy amd come me :O
LOL :asd:
in realtà scrive tutt'ora...
Vero :)
Ah bene, allora leggerà sicuramente pure le cazzatemie e di ego...molto bene...
Sì vi leggo spesso e volentieri, siete una bella coppia :sofico:
detto questo torno nell'ombra, un saluto a tutti e buon proseguimento :)
Inviato dal mio SM-G900F utilizzando Tapatalk
preferisco limitarmi a leggere e basta.
http://i.imgur.com/SibtFUb.gif
detto questo torno nell'ombra, un saluto a tutti e buon proseguimento :)
http://i.imgur.com/23a76I2.gif
scusate ot ma ste faccine come si mettono??? super! :D
Io ormai ho la mia "raccolta" su getsmile... ;)
http://i.imgur.com/5CkgKQK.gif
appleroof
03-06-2015, 20:25
Matt Skynner CVP of AMD has also stated that the card is the ‘fastest GPU in the world’
wccftech.com/amd-fiji-xt-based-graphic-card-r9-fury-x-camera-interposer-pcb-size/
Ale55andr0
03-06-2015, 20:30
Leggi meglio, il discorso mica l'ho iniziato io in primo luogo, se poi vi volete illudere che la 290x va come una 980 per far tornare il conto sugli shaders e promuovere speculazioni fate pure.
stai dimenticando che per andare come va la 980 ha bisogno di un clock ben più alto della 290x, il tutto per un 10% che a volte si annulla pure, dipende da gioco a gioco. Qua non si tratta di illusioni, si tratta di non scrivere minchi@te da una parte e dall'altra :cincin:
Ale55andr0
03-06-2015, 20:31
Matt Skynner CVP of AMD has also stated that the card is the ‘fastest GPU in the world’
wccftech.com/amd-fiji-xt-based-graphic-card-r9-fury-x-camera-interposer-pcb-size/
vabò, non si è capito più nulla, va di meno, va di più costa 900, costa 500, a furia di sparare numeri e previsioni prima o poi qualcuno ci azzecca :asd:
appleroof
03-06-2015, 20:35
vabò, non si è capito più nulla, va di meno, va di più costa 900, costa 500, a furia di sparare numeri e previsioni prima o poi qualcuno ci azzecca :asd:
Si ma quello non è un runor senza fonte, dovrebbero essere parole di un tipo AMD quindi gli do piena credibilità ...
Ale55andr0
03-06-2015, 20:37
Si ma quello non è un runor senza fonte, dovrebbero essere parole di un tipo AMD quindi gli do piena credibilità ...
lo so, ma ormai non do più nemmeno retta alle dichiarazioni autoreferenziali dell'oste di turno, parleranno bench e numeri concreti :)
devil_mcry
03-06-2015, 20:38
stai dimenticando che per andare come va la 980 ha bisogno di un clock ben più alto della 290x, il tutto per un 10% che a volte si annulla pure, dipende da gioco a gioco. Qua non si tratta di illusioni, si tratta di non scrivere minchi@te da una parte e dall'altra :cincin:
E l'altra ha una banda di memoria molto più elevata per via del bus da 512bit. Ma il discorso sul clock della GPU lascia comunque il tempo che trova perchè non è detto che con 4K shaders raggiunga le stesse frequenze della 290x (magari si chi lo sa in ogni caso contare gli shaders che senso avrebbe se per dire la nuova va a 800mhz al massimo?) e la 970 che appunto ha 1664 shaders e una frequenza un poco più bassa della 980 e non si passano il 40% di prestazioni ed è comunque sempre li come performance.
Ed infatti a me non pare proprio di essermi messo li a fare conti su shaders o altro per speculare speculazioni, tanto non serve a nulla.
Ale55andr0
03-06-2015, 20:43
E l'altra ha una banda di memoria molto più elevata per via del bus da 512bit..
ma non ha la compressione delle rops della 980 che permette di risparmiarne un bel po' di banda...quanto alle frequenza i rumors parlano di 1050mhz anche per la fury, ergo lo stesso clock della attuale 290x, anzi 50mhz i più. Bisognerà vedere il potenziale in OC, quello si lo vedo più difficile, ma di base un minimo di margine dovrebbe esserci solo per il fatto di fare operare la gpu con stabilità. Certo non è una scheda da 1300-1400mhz, poco ma sicuro :)
maxmix65
03-06-2015, 21:02
:D Prendetelo con le pinze ma ho trovato questa foto poi rimossa dal sito..
Si parla di Powercolor r9 390 x
http://s15.postimg.org/pj9gl8g4n/5yhy54y54hy.jpg (http://postimg.org/image/pj9gl8g4n/)
Si max se ne è gia parlato....dovrebbe essere una 290x 8gb ammodernata in pratica...fury aka fiji avrà un pcb lungo la metà...
francisco9751
03-06-2015, 21:24
https://a.disquscdn.com/uploads/mediaembed/images/2119/2448/original.jpg
una foto meno sgranata :O :O :O :eek:
maxmix65
03-06-2015, 21:25
Si max se ne è gia parlato....dovrebbe essere una 290x 8gb ammodernata in pratica...fury aka fiji avrà un pcb lungo la metà...
veramente esiste il filmato ma se sai gia' tutto a che pro' postarlo :O :O
Obrigado
03-06-2015, 21:29
veramente esiste il filmato ma se sai gia' tutto a che pro' postarlo :O :O
forse non ti e' chiaro che le nuove schede con la gpu con vram hbm si chiameranno radeon fury e non radeon 390/380/370.
quindi quella 390x ci pare poco interessante perche' e' una semplice 290x ribrandizzata con piu vram.
a noi ci tira quella con le ram nuove e con il core nuovo.
maxmix65
03-06-2015, 21:33
forse non ti e' chiaro che le nuove schede con la gpu con vram hbm si chiameranno radeon fury e non radeon 390/380/370.
quindi quella 390x ci pare poco interessante perche' e' una semplice 290x ribrandizzata con piu vram.
a noi ci tira quella con le ram nuove e con il core nuovo.
Per quelle sono mesi che se ne parla ..sperem bene ....almeno nelle prestazioni/prezzo..... pero' finche non si sa'nulla di nuovo di che parliamo???
Poi vabbe se non vi tira e' un problema vostro hahahahah :D
P.S.
vabbe dai sono buono
https://www.youtube.com/watch?v=SWkOMRMGj_k
Max va che non volevo fare lo spiritoso eh...pensavo sapessi del fury ...
maxmix65
03-06-2015, 21:35
Max va che non volevo fare lo spiritoso eh...pensavo sapessi del fury ...
:D E chi ha detto il contrario..intanto ti riposto il video almeno passate il tempo...hahhaha
https://www.youtube.com/watch?v=SWkOMRMGj_k
°Phenom°
03-06-2015, 21:44
Ammazza che piastrella che ha al centro :asd:
http://cdn.wccftech.com/wp-content/uploads/2015/06/AMD-Radeon-R9-Fury-X-Render-Watercooled-PCB.jpg
paolox86
03-06-2015, 21:52
Molto, molto interessante....
Ancora un po' è più grosso il chip dell'intera scheda :D
e pensare che il chip di 980ti è il 20 % più grande :rolleyes:
°Phenom°
03-06-2015, 22:02
Si, ma infatti ad essere davvero grosso é il complesso dell'interposer. Comunque anche hawaii era più piccolo di gk110.
Radeon80
03-06-2015, 22:15
In questi giorni di rumor ne sono venuti fuori di tutti i tipi su Fiji,da quelli che dicono che va meno della 980Ti a quelli che dicono andrà più della Titan X.
Sinceramente vedremo come andrà tale nuova GPU,poi peccato che ci sarà da aspettare fino al 16 per sapere come andrà.
Io non ci credo che andrà di più.
Già che è del 20 % più piccolo il chip quasi (630 contro 502 mm^2?) e considerando l'efficienza di maxwell la vedo difficile.
Immagino due casi possiibli:
a) va più di titan x ma consuma come un jumbo
b) va meno di titan x (quanto? entro il 10 % sarebbe pure ok) ma consuma meno di una titan x e almeno amd mostra di saper fare chip efficienti (bello sperare)
Secondo me in tutto ciò le fiji andranno semplicemente più di 980 (e quindi magari in oc spinto prendono una 980ti) ma costeranno sui 500-600 (se fosse il caso b) e amd si porterà a casa la mezza vittoria che si è portata a casa con 290, ma senza convincere i mercati e dare un boost alla sua immagine.
°Phenom°
03-06-2015, 22:28
Secondo me invece viste le specifiche, matematicamente, dovrebbe andare anche poco più di titan x la fury x. La grandezza del chip non conta un tubo, in quanto amd se non erro usa delle high density library che permettono appunto di "stipare" più transistor.
Ammazza che piastrella che ha al centro :asd:
http://cdn.wccftech.com/wp-content/uploads/2015/06/AMD-Radeon-R9-Fury-X-Render-Watercooled-PCB.jpg
eh mica tanto, considera che è comprensivo di ram
°Phenom°
03-06-2015, 22:41
eh mica tanto, considera che è comprensivo di ram
Infatti, intendevo comprensivo di interposer, hbm e chip ;)
Infatti, intendevo comprensivo di interposer, hbm e chip ;)
la nuova top di gamma la vedrei bene grande quanto una 460 con wb integrato
Ale55andr0
04-06-2015, 00:41
In questi giorni di rumor ne sono venuti fuori di tutti i tipi su Fiji,da quelli che dicono che va meno della 980Ti a quelli che dicono andrà più della Titan X.
Sinceramente vedremo come andrà tale nuova GPU,poi peccato che ci sarà da aspettare fino al 16 per sapere come andrà.
come detto da appleroof però chi di dovere s'è sbilanciato parlando di gpu più veloce al mondo :fagiano:
deadbeef
04-06-2015, 00:45
come detto da appleroof però chi di dovere s'è sbilanciato parlando di gpu più veloce al mondo :fagiano:
gpu più veloce al mondo**
**a risoluzione X, con filtri Y attivati e sole allo Zenit
Mai fidarsi dei markettari :fagiano:
Ale55andr0
04-06-2015, 00:48
se ti dicono che è la più potente e la più potente e amen. Poi io stesso ho espresso ed ho tutt'ora dubbi perchè è ovvio che l'oste dice che il vino è buono :fagiano:
un partner di amd non aveva detto fosse più lenta della titan x?
francisco9751
04-06-2015, 06:53
così pare..ma era senza bios..e non si sa a quale frequenza lavorasse..ma se nella presentazione ufficiale AMD ha dichiarato che hanno la gpu più veloce..forse un fondo di verità c'è..
in ogni caso di rumors ce ne sono stati assai tanti.
quindi ormai vale la pena aspettare..le certezze son poche
Tapatalked by LG G3
mircocatta
04-06-2015, 10:48
porco merda avete fatto 40 pagine in 3 giorni, cosa mi sono perso?
paolox86
04-06-2015, 10:51
porco merda avete fatto 40 pagine in 3 giorni, cosa mi sono perso?
Mah, forse la più interessante è la dichiarazione di un dirigente AMD di avere la GPU più veloce al mondo.... Quindi attendiamo curiosi
porco merda avete fatto 40 pagine in 3 giorni, cosa mi sono perso?
02/06
Pippe sulla Vram: 4gb pochi ? La grandezza non conta basta saperla usare ? Meglio grande che piccolo ? Invidia Nvidia che cel'ha piu grosso ?
03/06
Ore 10.00: La Fury X è piu' lenta di una 980Ti (guru 3d)
Ore 10.05: La Fury X è la scheda piu' veloce al mondo (wccftech)
Pippotto/commento utenza pro/contro Nvidia/amd ...
Scusate, ma a parte il pippotto fury, che sapevamo gia sarebbe stata presentata all'e3, tutto il resto della serie? Non doveva essere presentata al computex? Oppure hanno fatto l'ennesimo rimando?
Inviato dal mio GT-I9505 usando Tapatalk 4
Scusate, ma a parte il pippotto fury, che sapevamo gia sarebbe stata presentata all'e3, tutto il resto della serie? Non doveva essere presentata al computex? Oppure hanno fatto l'ennesimo rimando?
Inviato dal mio GT-I9505 usando Tapatalk 4
Tutto all'E3
°Phenom°
04-06-2015, 12:36
No tutto il 16 stando a quanto dichiarato.
.338 lapua magnum
04-06-2015, 13:02
Ammazza che piastrella che ha al centro :asd:
http://cdn.wccftech.com/wp-content/uploads/2015/06/AMD-Radeon-R9-Fury-X-Render-Watercooled-PCB.jpg
gran bel cippone
ma non vedo ventole e dove c'è la solita griglia ha la scritta radeon, ma il liquido è fullcover?
°Phenom°
04-06-2015, 13:05
Bella domanda, sai che non ci avevo pensato? Comunque non ti saprei dire :confused:
No tutto il 16 stando a quanto dichiarato.
Allora avevo capito male (o forse no? :D )
°Phenom°
04-06-2015, 13:12
Allora avevo capito male (o forse no? :D )
Più che avevi capito male, il punto che amd non ha mai annunciato di rilasciare le suddette vga al computex :D
.338 lapua magnum
04-06-2015, 13:25
Bella domanda, sai che non ci avevo pensato? Comunque non ti saprei dire :confused:
forse è un'immagine data da combinazione di immagini in versioni non finali, mah.
comunque ha elementi in meno per non "impallare" la trasparenza e generare disturbo (mancano i dvi) ma li in alto l'assenza della griglia (sostituita dalla scritta radeon) è sospetta, come la copertura totale della parte frontale. i vrm devono raffreddarli e in assenza (presunta) delle ventole........
ci pensate se è una fullcover, deve essere una vera bestiaccia :D
°Phenom°
04-06-2015, 13:42
Non può essere full cover in quanto utilizzano un normale wb only gpu by asatek, ovviamente adattato per raffreddare questo particolare chip compnsivo di memorie ai lati.
Non può essere full cover in quanto utilizzano un normale wb only gpu by asatek, ovviamente adattato per raffreddare questo particolare chip compnsivo di memorie ai lati.
Si xo nelle immagini trapelate in rete di ventole non se ne vede manco mezza ... :read:. E la VGA si è gia capito sarà molto corta ... quindi ..
Tipo qui
http://www.techpowerup.com/img/15-05-28/112a.jpg
E qui
http://cdn.wccftech.com/wp-content/uploads/2015/05/AMD-Radeon-300-Fiji.jpg
si vede praticamente tutta la vga (tranne il rad) ...
°Phenom°
04-06-2015, 13:47
Utlizzeranno tecnlogia aliena :eek: :eek: cit.
Comunque, boh, non so che dire allora
mircocatta
04-06-2015, 13:56
Non può essere full cover in quanto utilizzano un normale wb only gpu by asatek, ovviamente adattato per raffreddare questo particolare chip compnsivo di memorie ai lati.
sperando che il waterblock abbia connessione 1/4g..ma dubito
vuoi che ci scappa un loop doppia pompa? pornostar edition looool
Utlizzeranno tecnlogia aliena :eek: :eek: cit.
Comunque, boh, non so che dire allora
Beh avevano detto che avrebbero sviluppato dissi reference degni di questo nome dopo il fail delle 290x ? Beh un full cover sarebbe un gran bel cambio nella direzione giusta ... :read:
Fiji ha un pcb senza le piste dei chip vram in quanto sta tutto sul die, in pratica un wb poco piu grande di un only gpu odierno prenderebbe dentro pure i vrm e direi ben venga... Mai piaciute le soluzioni ibride anche se abbastanza efficaci....il pcb sarà grosso modo la metà di quello di una 290x...
E se facessero la 395x2 ? Che bestia sarebbe.... La 295x2 come potenza bruta verrà sorpassata solo dalle 16nm, x superare come tf una dual fiji hbm servirebbe il cef alpha... :asd:
MrBrillio
04-06-2015, 14:31
Ma domanda da ignorante...vista la vicinanza tra gpu e memorie non si genera più calore rispetto a un die classico? Cioè la soluzione ibrida sarà una scelta quasi obbligatoria o credete che basteranno ventolone che sparano aria lì sopra per tenere tutto a bada...inoltre chissà che design avranno eventuali dissipatori ad aria :confused: Sembrerà di tornare indietro di 15 anni almeno :asd:
Ma domanda da ignorante...vista la vicinanza tra gpu e memorie non si genera più calore rispetto a un die classico? Cioè la soluzione ibrida sarà una scelta quasi obbligatoria o credete che basteranno ventolone che sparano aria lì sopra per tenere tutto a bada...inoltre chissà che design avranno eventuali dissipatori ad aria :confused: Sembrerà di tornare indietro di 15 anni almeno :asd:
Stessa cosa su cui stavo ragionando, cioè la Fury avrebbe nel die memorie e vrm? :confused:
Bella domanda... le versioni ad aria avranno per forza tutta un'altra struttura dovendo essere la gpu piu spostata centralmente per permettere uno sviluppo orizzontale maggiore di quanto viene richiesto per una vga che nasce a liquido.... Le memorie come temperatura non sono un problema essendo raffreddate alla stregua della gpu e se sono robuste come le gddr5 se siamo a 90c mi preoccuperei piu della gpu che delle vram come la tua titan x insegna.... spero che a questo giro i soliti aib mettano attenzione alle soluzioni.custom anche solo la metà di quanto facciano con nvidia...vedasi g1 gigabyte da tdp di 600w su una vga da 200, ci credo che fanno i 65c.....altrimenti si andra delle solite sapphire msi e his (top imho insieme alla serie vaporx)...
Stessa cosa su cui stavo ragionando, cioè la Fury avrebbe nel die memorie e vrm? :confused:
Non esattamente.... Diciamo che sono attorno al die al di sopra di uno strato di collegamento (il famoso interposer) che fa le veci delpcb x le interconnessioni mc della gpu con i chip vram.... Non a caso la "gpu" in mano al ceo è decisamente grosso rispetto al solito...
Non esattamente.... Diciamo che sono attorno al die al di sopra di uno strato di collegamento (il famoso interposer) che fa le veci delpcb x le interconnessioni mc della gpu con i chip vram.... Non a caso la "gpu" in mano al ceo è decisamente grosso rispetto al solito...
Diciamo che il tutto ora diventa bello concentrato in una zona ristretta!
°Phenom°
04-06-2015, 14:55
Sicuro che i vrm stiano li? A me sembra impopssibile per diverse questioni tecniche e di temp.
Sicuro che i vrm stiano li? A me sembra impopssibile per diverse questioni tecniche e di temp.
infatti, non sarebbe troppa roba da dissipare in una superficie così limitata?
Un dissi ad aria come farebbe a dissipare?
infatti, non sarebbe troppa roba da dissipare in una superficie così ristretta?
infatti ci hanno messo il liquido :asd: :asd:
w le furie rosse :D
infatti ci hanno messo il liquido :asd: :asd:
w le furie rosse :D
Eccolo :D
Ogni tanto riappari!
Già che ci sei, news? :sofico:
Eccolo :D
Ogni tanto riappari!
Già che ci sei, news? :sofico:
nessuna oltre quelle che ho appreso qui sul forum, bisogna aspettare il 16 comunque non la prendo manco in considerazione per un upgrade, no money-no time.....poi aspetto i 16 nm, penso sia la cosa piu' sensata da fare :fagiano:
Free Gordon
04-06-2015, 16:15
http://wccftech.com/amd-hbm-fury-x-fastest-world/
Qui si racconta un'altra storia :D .
La vedo dura scalare così linearmente...
Il 53% in più della 290x è credo molto difficile...
Cmq anche io sono convinto che andrà al pari della Titan, consumando di più ovviamente.
°Phenom°
04-06-2015, 16:17
ha 50mhz più della 290x, inoltre ha la nuova versione di gcn rispetto alla 290x.
Free Gordon
04-06-2015, 16:17
senza contare che sarà GCN 1.1 vs 1.3... clock to clock non dovrebbe essere superiore?
Purtroppo credo che la rev. sia sempre la 1.2... ;)
http://videocardz.com/56122/amd-radeon-r9-fury-exposed-in-new-renders
http://videocardz.com/56096/powercolor-radeon-r9-390x-devil-pictured
Radeon80
04-06-2015, 16:43
Mi stavo chiedendo se tra la 380(Tonga Pro) e la 390(Hawaii Pro) nel caso la gamma di GPU venisse confermata la lasceranno vuota oppure ci metteranno TongaXT.
Free Gordon
04-06-2015, 16:47
Io non ci credo che andrà di più.
Già che è del 20 % più piccolo il chip quasi (630 contro 502 mm^2?) e considerando l'efficienza di maxwell la vedo difficile.
Effettivamente il discorso fila.
Con Kepler full la questione mm2/perf era a vantaggio di AMD, ma con Maxwell...se le cose in GCN non sono cambiate MOLTO...credo sia molto difficile sia più veloce.
Immagino due casi possiibli:
a) va più di titan x ma consuma come un jumbo
Sarebbe il caso più auspicabile, sinceramente... :)
b) va meno di titan x (quanto? entro il 10 % sarebbe pure ok) ma consuma meno di una titan x e almeno amd mostra di saper fare chip efficienti (bello sperare)
AMD non ha bisogno di dimostrare di saper fare chip efficienti, ATI li ha fatti per tutta la sua storia, spesso meglio di Nvidia. ;)
I consumi sono il risultato di scelte di design più che di particolari capacità.. :) con GCN certo non sono andati in quella direzione, a posteriori si potrebbe dire "sbagliando" ma di certo non è per incapacità ingegneristica.
Secondo me in tutto ciò le fiji andranno semplicemente più di 980 (e quindi magari in oc spinto prendono una 980ti) ma costeranno sui 500-600 (se fosse il caso b) e amd si porterà a casa la mezza vittoria che si è portata a casa con 290, ma senza convincere i mercati e dare un boost alla sua immagine.
Beh, Fiji costasse 600$ e andasse come una 980 liscia...avrebbe grossi problemi ad imporsi. Dovrebbe costarne al massimo 450 allora sì avrebbe qualche possibilità..
chiariamo una cosa
il die è composta da gpu e ram i vrm stanno altrove
questa è una anteprima di pascal, ma per amd è la stessa cosa
http://images.anandtech.com/doci/7900/PascalBoard.jpg
si nota pure qui in questa trasparenza
http://cdn.wccftech.com/wp-content/uploads/2015/06/AMD-Radeon-R9-Fury-X-Render-Watercooled-PCB.jpg
chiariamo una cosa
il die è composta da gpu e ram i vrm stanno altrove
questa è una anteprima di pascal, ma per amd è la stessa cosa
http://images.anandtech.com/doci/7900/PascalBoard.jpg
si nota pure qui in questa trasparenza
http://cdn.wccftech.com/wp-content/uploads/2015/06/AMD-Radeon-R9-Fury-X-Render-Watercooled-PCB.jpg
Ah ecco!
Beh, Fiji costasse 600$ e andasse come una 980 liscia...avrebbe grossi problemi ad imporsi. Dovrebbe costarne al massimo 450 allora sì avrebbe qualche possibilità..
Nvidia risponderebbe con un ulteriore taglio di prezzo di 50 euro e continuerebbe a vendere più di fiji.
AMD risponderebbe nuovamente con un altro taglio di prezzi e la gente continuerà a comprare la 980 anche se costa di più (come le 780 che vendevano più di 290, nonostante il boom del mining) perchè consumerà meno e perchè c'ha il fisicchse e il gisinche.
Purtroppo data l'enfasi sui consumi ai giorni d'oggi, gli utenti stanno molto attenti a comprare chip che consumano tanti watt in più.
Alla fine delle fini, gli enthusiast, sono solo una piccola quota di mercato. Tanti qui dentro comprerebbero fiji anche che consumasse molto più di 980ti se andasse più forte, ma i reviewer la stroncherebbero.
Il 90% degli utenti con gpu discreta non sanno la differenza fra vram e un tostapane :O
Antimo96
04-06-2015, 19:24
Mi stavo chiedendo se tra la 380(Tonga Pro) e la 390(Hawaii Pro) nel caso la gamma di GPU venisse confermata la lasceranno vuota oppure ci metteranno TongaXT.
Ci dovrebbe essere una 380x basata su tonga xt.
Amd in genere a differenza di nVidia tende a non lasciare alcuna fascia di prezzo scoperta.
Il 90% degli utenti con gpu discreta non sanno la differenza fra vram e un tostapane :O
Col tostapane ci mangi col vram no :O
deadbeef
04-06-2015, 19:42
Col tostapane ci mangi col vram no :O
https://www.youtube.com/watch?v=OsQDTB3Na2M
mikael84
04-06-2015, 19:46
Ormai dovrebbero essere i dati ufficiali. Ben 128 rops e 8 rasterizzatori.
http://www.3dcenter.org/
La compressione dovrebbe dare risultati ottimali in stile Maxwell perchè il rapporto tra rops, raster e banda e ottimale
AMD Fiji
probabilmente: la produzione a 28nm da TSMC
stimato: ~ 8 miliardi di transistor su ~ 530-580mm² area del chip
abbastanza sicuro: GCN 1.2 architettura (livello IP come Tonga e Carrizo)
abbastanza sicuro: DirectX 12.0 in Hardware
accettate: 8 Motori raster
abbastanza sicuro 4096 unità shader in 64 distretti dello shader
probabilmente: 256 Texture Units (TMU)
accettate: 128 Raster Operation Unit (POR)
abbastanza certo: 4096 bit interfaccia DDR HBM
abbastanza certo: 4 GB di espansione di memoria HBM1
Probabile: un piccolo nucleo MHz di velocità di più di 1000 orologio
probabilmente: 500MHz di clock della memoria
Abbastanza sicuro: 2x connettori di alimentazione a 8 pin, TDP fino a 300 watt
abbastanza sicuro: 3x DisplayPort e 1x HDMI 2.0 come uscite per display
Prestazioni previsione: + 40% a + 50% per le Radeon R9 290x (indice Perf quindi direzione ~ 730-780%)
Lancio ufficiale: 16th Giugno 2015
vendita probabile Nome: Radeon Fury X (configurazione completa) o Radeon Furia (versione ridotta)
Due ottime notizie:
Sarà una bestia
Ci sara la versione liscia (a sto punto la anti 980)
Ormai dovrebbero essere i dati ufficiali. Ben 128 rops e 8 rasterizzatori.
http://www.3dcenter.org/
La compressione dovrebbe dare risultati ottimali in stile Maxwell perchè il rapporto tra rops, raster e banda e ottimale
Michal, butta lo sli di 970 e
http://i.imgur.com/mnNB4r0.jpg
MrBrillio
04-06-2015, 20:47
Diamo fuoco alle Nvidiaaaaaaaaaaa....ops wait :D
Tanta roba comunque se così fosse..mi incuriosisce tanto sta amd..speriamo bene va :asd:
La compressione dovrebbe dare risultati ottimali in stile Maxwell perchè il rapporto tra rops, raster e banda e ottimale
A cosa serve la compressione nello specifico?
devil_mcry
04-06-2015, 21:22
Ma è GCN 1.2?
Free Gordon
04-06-2015, 21:26
Ormai dovrebbero essere i dati ufficiali. Ben 128 rops e 8 rasterizzatori.
http://www.3dcenter.org/
La compressione dovrebbe dare risultati ottimali in stile Maxwell perchè il rapporto tra rops, raster e banda e ottimale
Sulla banda credo non avrebbe problemi comunque...date le HBM e i 640GB/s..anche se renderla più efficiente non guasterà. :D
Per Raster Engine intendi gli ACE?
Free Gordon
04-06-2015, 21:28
Nvidia risponderebbe con un ulteriore taglio di prezzo di 50 euro e continuerebbe a vendere più di fiji.
AMD risponderebbe nuovamente con un altro taglio di prezzi e la gente continuerà a comprare la 980 anche se costa di più (come le 780 che vendevano più di 290, nonostante il boom del mining) perchè consumerà meno e perchè c'ha il fisicchse e il gisinche.
Beh tutto a nostro vantaggio... :D
Cmq non metterei così tanta enfasi sui consumi, per AMD il problema non è vendere più di Nvidia (difficilmente accadrà nel breve una cosa simile) ma tornare perlomeno ad una situazione di vendite tipo 35-40%amd e 60-65%Nvidia...
Free Gordon
04-06-2015, 21:32
Ma è GCN 1.2?
E' molto probabile sia una 1.2...la rev 1.3 non è mai esistita a quanto pare.
Cmq quei dati lì sopra stanno ad indicare una bomba termonucleare.... :eek: mi sa che i consumi stavolta toccheranno vette mai viste. :sofico:
bronzodiriace
04-06-2015, 21:50
Ipotizziamo una Fury XT chè va come o meglio di una Titan X fin quando non si satura la video ram causa filtri e risoluzione.
In questa tipologia di scenario il mercato, review e passaparola potrebbero stroncare il prodotto a causa dello scarso equipaggiamento di ram e di attendere una revision ad 8gb HBM.
In un contesto del genere la nuova fascia media deve andare da dio ;)
siluro85
04-06-2015, 22:00
Se le specifiche son vere è una bestia.. l'incognita sono i 4 gb di ram visto il target..
appleroof
04-06-2015, 22:04
A cosa serve la compressione nello specifico?
Fondamentalmente a risparmiare banda, ma su questa GPU con le hbm credo non solo sia l'ultimo dei problemi, ma che non sia proprio un problema :D
Qui trovi info, techreport.com/review/28356/nvidia-geforce-gtx-980-ti-graphics-card-reviewed/3 è una review della 980ti ma la posto perchè la migliore che ho letto sull'argomenro, cmq anche Tonga aveva un approccio simile techreport.com/review/26997/amd-radeon-r9-285-graphics-card-reviewed/2
Beh tutto a nostro vantaggio... :D
Cmq non metterei così tanta enfasi sui consumi, per AMD il problema non è vendere più di Nvidia (difficilmente accadrà nel breve una cosa simile) ma tornare perlomeno ad una situazione di vendite tipo 35-40%amd e 60-65%Nvidia...
E non ci riuscirà secondo me se non consuma e scalda meno delle 290.
Le 970 vendono molto più delle 290 trix nonostante la differenza prestazionale sia impercettibile spesso e volentieri a fronte di un costo spesso (custom 290 e custom 970) nell'ordine dei 60 euro differente.
La gente spende più volentieri il 20 % in più per avere le stesse prestazioni nvidia, perchè ormai lato consumi l'enfasi è veramente grande.
obiwan-80
04-06-2015, 22:17
La Fury avrà 3 display port e 1 hdmi, quindi niente Dvi, perció quelli che hanno un monitor Koreano stile Crossover,Yamakasi ecc...con solo Dvi si attacca.
Ale55andr0
04-06-2015, 22:28
Effettivamente il discorso fila.
Con Kepler full la questione mm2/perf era a vantaggio di AMD, ma con Maxwell...se le cose in GCN non sono cambiate MOLTO...credo sia molto difficile sia più veloce.
bisogna considerare che AMD dalle 290 in poi ha impiegato una elevata densità dei transistor, una 290x è poco più grande di una 7970, 365 vs 438 mm^2 ma ha circa 800sp in più, il doppio (!) delle rops, e memory controller più complesso ergo non si possono paragonare a priori i millimetri quadri di titan x con quelli di una fury per discernere le prestazioni, premettendo che anch'io non sono uno di quelli che da per scontata la superiorità della fury
Gundam1973
04-06-2015, 22:33
La Fury avrà 3 display port e 1 hdmi, quindi niente Dvi, perció quelli che hanno un monitor Koreano stile Crossover,Yamakasi ecc...con solo Dvi si attacca.
veramente chi ha solo dvi...NON si attacca! :D ;)
Ale55andr0
04-06-2015, 22:34
A cosa serve la compressione nello specifico?
a ridurre la bandwidth (non lo spazio occupato in mb, attenzione) utilizzata dalla memoria a pari prestazioni. teoricamente comunque con 500gb/s e passa di banda passante mi chiedo cosa cambierebbe con e senza compressione
obiwan-80
04-06-2015, 22:36
veramente chi ha solo dvi...NON si attacca! :D ;)
:sbonk:
veramente chi ha solo dvi...NON si attacca! :D ;)
haha
cmq esistono i cavi hdmi to dvi o sbaglio? :dunno:
haha
cmq esistono i cavi hdmi to dvi o sbaglio? :dunno:
Si ci sono gli adattatori. E in questo caso non è esclusa la presenza dell'adattatore direttamente in bundle vista l'assenza del DVI ...
Ad ogni modo si compra con 4 euro nemmeno ...
mikael84
04-06-2015, 23:08
Michal, butta lo sli di 970 e
Io non ho alcun problema a passare ad AMD, anzi, ritengo le 7970 i miei migliori acquisti, bei tempi:fagiano:
A cosa serve la compressione nello specifico?
Prende la scena e la divide in 8 colori (64pixel) e crea un blocco da 2x4 dei vari colori( quindi 2x4 a colore), poi la comprime (8:1), ed in banda arriva solo il dato in 1x1 (8pixel-8 colori).
Questo dato è decompresso.
La compressione può essere effettuata anche in 4:1 o in 2:1 ma già in 4:1 si grava di più la banda.
Se non si decomprime in 8:1 si passa al 4:1, sino al 2:1. Il 2:1 non riesce a decomprimere sempre correttamente e di conseguenza ogni dato grava la banda come nelle vecchie architetture.
A banda sgravata un bus da 256bit (224gb/s dovrebbe essere in grado di garantire il 40% delle prestazioni in più e latenze migliori grazie alla cache.
La Fiji Fury con 128 rops dovrebbe essere in grado di migliorare ancora la decompressione, e godere allo stesso tempo di una banda mostruosa.
Questo non comporta solo migliorie in banda ma anche le rops diventano decisamente più efficienti.
Le rops danno una spinta mostruosa quanto si campionano gli MSAA, perchè questi sottopongono a forte stress le vertex e pixel pipeline
°Phenom°
04-06-2015, 23:57
Dovrebbero farti una statua mik :ave:
Comunque AMD ha confermato che GCN 1.0, 1.1 e 1.2 e xbox One non supportano dx 12_1
http://www.computerbase.de/2015-06/directx-12-amd-radeon-feature-level-12-0-gcn/
Cosa c'è in quei due tier di dx12? Conservative Rasterization e Rasterized Order Views.
Che roba è?
Algoritmi che regolano come la luce passa attraverso due oggetti trasparenti. Quindi dovrebbe vedersi in quei casi in cui ci sono più vetri in fila (non so vedete dentro una casa attraverso una finestra chiusa e c'è della luce che entra da un altra finestra).
Ma le notizie non finiscono qua.
In quanto per quanto riguarda Tahiti, Cape Verde Pitcairn e Bonair non è confermato che supportino nemmeno dx 12_0. Solo Carrizo (APU), Tonga e Hawaii sono confermate dx 12_0, nessuna di queste dx 12_1. Fiji non si sa.
La Fury avrà 3 display port e 1 hdmi, quindi niente Dvi, perció quelli che hanno un monitor Koreano stile Crossover,Yamakasi ecc...con solo Dvi si attacca.
Scusate pero non si possono usare 3 adattatori display port a dvi per usare un sistema con 3 monitor?
Enviado desde mi GT-I9300 usando Tapatalk 2
obiwan-80
05-06-2015, 07:50
haha
cmq esistono i cavi hdmi to dvi o sbaglio? :dunno:
Si ci sono gli adattatori. E in questo caso non è esclusa la presenza dell'adattatore direttamente in bundle vista l'assenza del DVI ...
Ad ogni modo si compra con 4 euro nemmeno ...
No purtroppo gli adattatori non funzionano su questi monitor, perché l'hdmi è compatibile solo con il single link, non col dual link.
Non so però se è possibile sulla display port.
OEidolon
05-06-2015, 07:56
Io non ho alcun problema a passare ad AMD, anzi, ritengo le 7970 i miei migliori acquisti, bei tempi:fagiano:
Prende la scena e la divide in 8 colori (64pixel) e crea un blocco da 2x4 dei vari colori( quindi 2x4 a colore), poi la comprime (8:1), ed in banda arriva solo il dato in 1x1 (8pixel-8 colori).
Questo dato è decompresso.
La compressione può essere effettuata anche in 4:1 o in 2:1 ma già in 4:1 si grava di più la banda.
Se non si decomprime in 8:1 si passa al 4:1, sino al 2:1. Il 2:1 non riesce a decomprimere sempre correttamente e di conseguenza ogni dato grava la banda come nelle vecchie architetture.
A banda sgravata un bus da 256bit (224gb/s dovrebbe essere in grado di garantire il 40% delle prestazioni in più e latenze migliori grazie alla cache.
La Fiji Fury con 128 rops dovrebbe essere in grado di migliorare ancora la decompressione, e godere allo stesso tempo di una banda mostruosa.
Questo non comporta solo migliorie in banda ma anche le rops diventano decisamente più efficienti.
Le rops danno una spinta mostruosa quanto si campionano gli MSAA, perchè questi sottopongono a forte stress le vertex e pixel pipeline
una volta c'erano gli articoli che spiegavano ste cose, per fortuna ci sono ancora utenti come te, chapeau :ave:
Comunque AMD ha confermato che GCN 1.0, 1.1 e 1.2 e xbox One non supportano dx 12_1
http://www.computerbase.de/2015-06/directx-12-amd-radeon-feature-level-12-0-gcn/
Cosa c'è in quei due tier di dx12? Conservative Rasterization e Rasterized Order Views.
Che roba è?
Algoritmi che regolano come la luce passa attraverso due oggetti trasparenti. Quindi dovrebbe vedersi in quei casi in cui ci sono più vetri in fila (non so vedete dentro una casa attraverso una finestra chiusa e c'è della luce che entra da un altra finestra).
Ma le notizie non finiscono qua.
In quanto per quanto riguarda Tahiti, Cape Verde Pitcairn e Bonair non è confermato che supportino nemmeno dx 12_0. Solo Carrizo (APU), Tonga e Hawaii sono confermate dx 12_0, nessuna di queste dx 12_1. Fiji non si sa.
ho letto poco fa la notizia su wccftech, solo che adesso qua mi nasce un casino mostruoso in testa :stordita:
cioè sta "famosa" tabella non vale una cippa?! :what:
https://i.imgur.com/o4wOYxm.png
nun ce stò più a capì un tubo :muro:
Il nabbo di turno
05-06-2015, 08:08
Molto improbabile che gcn 1 venga tagliato fuori dalle dx 12, se guardate bene, anche una intel hd supporta le dx 12 assieme a fermi, imho vuoi che non abbia lo stesso supporto di una igpu semi guardabile e di una architettura del 2009/2010?
Il nabbo di turno
05-06-2015, 08:20
Mikeal84 è davvero uno che la sa lunga, ed è anche uno che difficilmente si fa prendere dai richiami della marca o robe del genere, a differenza di gente che in questo forum c'è da 10 o più anni e ancora spara cacchiate senza fondamento...
Mikeal84 è davvero uno che la sa lunga, ed è anche uno che difficilmente si fa prendere dai richiami della marca o robe del genere, a differenza di gente che in questo forum c'è da 10 o più anni e ancora spara cacchiate senza fondamento...
Chi mi ha evocato?
barbara67
05-06-2015, 08:45
Io non ho alcun problema a passare ad AMD, anzi, ritengo le 7970 i miei migliori acquisti, bei tempi:fagiano:
Prende la scena e la divide in 8 colori (64pixel) e crea un blocco da 2x4 dei vari colori( quindi 2x4 a colore), poi la comprime (8:1), ed in banda arriva solo il dato in 1x1 (8pixel-8 colori).
Questo dato è decompresso.
La compressione può essere effettuata anche in 4:1 o in 2:1 ma già in 4:1 si grava di più la banda.
Se non si decomprime in 8:1 si passa al 4:1, sino al 2:1. Il 2:1 non riesce a decomprimere sempre correttamente e di conseguenza ogni dato grava la banda come nelle vecchie architetture.
A banda sgravata un bus da 256bit (224gb/s dovrebbe essere in grado di garantire il 40% delle prestazioni in più e latenze migliori grazie alla cache.
La Fiji Fury con 128 rops dovrebbe essere in grado di migliorare ancora la decompressione, e godere allo stesso tempo di una banda mostruosa.
Questo non comporta solo migliorie in banda ma anche le rops diventano decisamente più efficienti.
Le rops danno una spinta mostruosa quanto si campionano gli MSAA, perchè questi sottopongono a forte stress le vertex e pixel pipeline
Dovrebbero farti una statua mik :ave:
una volta c'erano gli articoli che spiegavano ste cose, per fortuna ci sono ancora utenti come te, chapeau :ave:
ho letto poco fa la notizia su wccftech, solo che adesso qua mi nasce un casino mostruoso in testa :stordita:
cioè sta "famosa" tabella non vale una cippa?! :what:
https://i.imgur.com/o4wOYxm.png
nun ce stò più a capì un tubo :muro:
http://en.wikipedia.org/wiki/Direct3D#Direct3D_12_levels
rinnovo i complimenti a mikael84 :)
ps.
- da kepler in giù DX12.0(DX11.0) Tier 1 ;
- gcn 1.0 DX12.0(DX11.1) Tier 2 ;
- gcn 1.1/1.2 DX12.0 Tier 3 ;
- maxwell DX12.1 Tier 1...
Mikeal84 è davvero uno che la sa lunga, ed è anche uno che difficilmente si fa prendere dai richiami della marca o robe del genere, a differenza di gente che in questo forum c'è da 10 o più anni e ancora spara cacchiate senza fondamento...
Mike non ascoltarli .... ti lusingano per farti passare al lato rosso della forza ....:asd: :asd: :asd:
da quanto si evince da Computer Base emerge le seguente situazione:
GCN 1.0 ----> Feature level 11_1;
GCN 1.1 ----> Feature level 12_0;
GCN 1.2 ----> Feature level 12_0;
GCN 1.3 probabilmente supperterà Feature level 12_1. Come si associno ai vari Tier non è ancora chiaro.
Per le migliorie base delle DX 12, tra cui il tanto agoniato miglioramento prestazionale e lo scarico dell'overhaed cpu sono sufficienti le feature level 11_1.
Il feature level 12_0 aggiunge Tiled Resources, Typed UAV Access e Bindless Textures
ecco una nuova news sulle dx12
http://www.tomshw.it/news/directx-12-e-feature-level-qualche-informazione-su-amd-graphics-core-next-67031
La Fury avrà 3 display port e 1 hdmi, quindi niente Dvi, perció quelli che hanno un monitor Koreano stile Crossover,Yamakasi ecc...con solo Dvi si attacca.
E che casso!!! :mad: Potresti di grazie farmi vedere , tramite link , questo adattatore? Ma Funziona almeno?
Chi mi ha evocato?
Mi fai morire lol :asd:
mircocatta
05-06-2015, 09:09
dai regaz meno seghe mentali su dx12 e tier suvvia!
non sono neanche uscite, e non usciranno neanche giochi a breve che le supporteranno a dovere con motori grafici dx12 based, ma solo rattoppi nei primi periodi
tempo che verranno sfruttate ci saranno già le 16nm HBM.rev2 e le nostre belle 28nm verdi e rosse saranno fermacarte, sicuramente non ci permetteranno di maxxare i giochi quindi perchè preoccuparsi se non hanno "la possibilità di calcolare l'illuminazione su più oggetti trasparenti"? saremo troppo impegnati a capire se poterci permettere un misero AA, altro che illuminazione tra i vetri..
devil_mcry
05-06-2015, 09:11
da quanto si evince da Computer Base emerge le seguente situazione:
GCN 1.0 ----> Feature level 11_1;
GCN 1.1 ----> Feature level 12_0;
GCN 1.2 ----> Feature level 12_0;
GCN 1.3 probabilmente supperterà Feature level 12_1. Come si associno ai vari Tier non è ancora chiaro.
Per le migliorie base delle DX 12, tra cui il tanto agoniato miglioramento prestazionale e lo scarico dell'overhaed cpu sono sufficienti le feature level 11_1.
Il feature level 12_0 aggiunge Tiled Resources, Typed UAV Access e Bindless Textures
Si ma non esiste il GCN 1.3... a quanto pare Fiji sarà sempre 1.2
Il nabbo di turno
05-06-2015, 09:15
Si ma non esiste il GCN 1.3... a quanto pare Fiji sarà sempre 1.2
http://www.guru3d.com/articles_pages/an_introduction_to_carrizo_amd_6th_gen_apu,2.html
è la igpu di carrizo che è gcn 1.3, anche se quì dice gcn di terza gen.
maurilio968
05-06-2015, 09:22
una volta c'erano gli articoli che spiegavano ste cose, per fortuna ci sono ancora utenti come te, chapeau :ave:
ho letto poco fa la notizia su wccftech, solo che adesso qua mi nasce un casino mostruoso in testa :stordita:
cioè sta "famosa" tabella non vale una cippa?! :what:
nun ce stò più a capì un tubo :muro:
http://www.hwupgrade.it/forum/showpost.php?p=42522038&postcount=12816
http://img.photobucket.com/albums/v68/pjbliverpool/DX%20Feature%20Levels.jpg
OEidolon
05-06-2015, 09:44
http://www.hwupgrade.it/forum/showpost.php?p=42522038&postcount=12816
direi chiara e concisa :D
grazie! :)
obiwan-80
05-06-2015, 10:57
E che casso!!! :mad: Potresti di grazie farmi vedere , tramite link , questo adattatore? Ma Funziona almeno?
Se come me hai il monitor con solo il DVI dual link purtroppo l'adattatore hdmi non è compatibile, sto cercando di capire se si riesce tramite l'uscita DP.
Se come me hai il monitor con solo il DVI dual link purtroppo l'adattatore hdmi non è compatibile, sto cercando di capire se si riesce tramite l'uscita DP.
interessato anche io,
ma leggo che solo sulla fury dovrebbe sparire il dvi o sbaglio? O meglio forse si sa per certo che su quella non ci sara', sulle altre?
edit dovrebbe funzionare un adattatore dp>dvidl Active, che pero' ha i suoi costi.....
Free Gordon
05-06-2015, 12:16
E non ci riuscirà secondo me se non consuma e scalda meno delle 290.
La "gente" non sa manco cosa siano i consumi di un sistema... :D non credo che il consumo sia così importante, fuori da un forum di "smanettoni" come questo. ;)
obiwan-80
05-06-2015, 12:41
interessato anche io,
ma leggo che solo sulla fury dovrebbe sparire il dvi o sbaglio? O meglio forse si sa per certo che su quella non ci sara', sulle altre?
edit dovrebbe funzionare un adattatore dp>dvidl Active, che pero' ha i suoi costi.....
Da quanto ho capito solo sulla Fury, ho visto pure io l'adattatore DP ma a parte il costo non è detto che funzioni al 100%, ora ho chiesto nel thread ufficiale del monitor e vediamo.
Antimo96
05-06-2015, 12:48
Powercolor ha mostrato una nuova dual ,chiamata r9 290 X-2.Che senso ha mostrarla adesso?
Jaguar64bit
05-06-2015, 13:42
dai regaz meno seghe mentali su dx12 e tier suvvia!
non sono neanche uscite, e non usciranno neanche giochi a breve che le supporteranno a dovere con motori grafici dx12 based, ma solo rattoppi nei primi periodi
tempo che verranno sfruttate ci saranno già le 16nm HBM.rev2 e le nostre belle 28nm verdi e rosse saranno fermacarte, sicuramente non ci permetteranno di maxxare i giochi quindi perchè preoccuparsi se non hanno "la possibilità di calcolare l'illuminazione su più oggetti trasparenti"? saremo troppo impegnati a capire se poterci permettere un misero AA, altro che illuminazione tra i vetri..
E' quasi sempre o sempre successo così.. , prima che le nuove dx saranno sfruttate si sarà passati alle nuove vga che supporteranno appieno e in maniera "efficiente" a livello architetturale le nuove future grafiche.Il resto sono + o - superpippe mentali.
Poi ovvio che se alcuni effetti li supporti con le gcn 1.1/1.2 meglio così , e cmq non farà piacere ai possessori di r9 270/280 ecc di avere "solo" il supporto alle dx 11.2 e non 12...con le GCN 1.0 , anche se poi... "Per le migliorie base delle DX 12, tra cui il tanto agoniato miglioramento prestazionale e lo scarico dell'overhaed cpu sono sufficienti le feature level 11_1.".... , certo è che dubito non dormiranno la notte... ma conoscendo l'utente medio , vedrete che il mercatino a breve sarà pieno di ste schede...idem se non peggio per quelle maxwell 1.
Free Gordon
05-06-2015, 14:06
http://www.bitsandchips.it/forum/viewtopic.php?f=3&t=9378&start=20
Non ci sto più capendo una mazza...
Solo le AMD sarebbero quindi dx12 compliant?
Lol questo commento mi ha fatto ribaltare
"BREAKING NEWS: years old architecture don't support unreleased APIs!!!panic!"
:asd:
Su oc.net comunque non sono molto meglio di qui in quanto a gpu wars :asd:
appleroof
05-06-2015, 14:57
Non c'entra direttamente con dx12, ma win 10 si
https://m.youtube.com/watch?v=XzFe5OOHZko
Non c'entra direttamente con dx12, ma win 10 si
https://m.youtube.com/watch?v=XzFe5OOHZko
sembra andare molto meglio su winzoz 10....
appleroof
05-06-2015, 15:04
sembra andare molto meglio su winzoz 10....
Esatto, e anche se non c'entrano le dx12 si usano già i driver con WDM 2 ...quella è una 280x per la cronaca ;)
sembra andare molto meglio su winzoz 10....
Ma non è un po' esagerato un boost del 20% e oltre al solo variare del SO?! :mbe:
Non è che su W8 ste DX12 le cappano apposta in qualche modo?:mbe: :mbe: :mbe:
Ma non è un po' esagerato un boost del 20% e oltre al solo variare del SO?! :mbe:
Non è che su W8 ste DX12 le cappano apposta in qualche modo?:mbe: :mbe: :mbe:
sinceramente non saprei, ma da quello che si vede in giro l'aggiornamento a winzoz 10 è d'obbligo :D
sinceramente non saprei, ma da quello che si vede in giro l'aggiornamento a winzoz 10 è d'obbligo :D
Mah, sarò scettico io, ma dai tempi di W 3.1 non ricordo che il solo upgrade del SO abbia mai reso tanto ... :mbe:
appleroof
05-06-2015, 15:40
dici già questo boost solo grazie al WDDM 2 ?
SMS dichiara che con le DX12 PCars avrà un boost dal 30 al 40 % su PC :stordita:
Non saprei onestamente il motivo di quel boost enorme, ho beccato il video sul forum di b3d, dove danno questa spiegazione
Perhaps it's some something to do with multi-threading and whether AMD's driver behaves differently with respect to threading under W10.
Non saprei onestamente il motivo di quel boost enorme, ho beccato il video sul forum di b3d, dove danno questa spiegazione
Perhaps it's some something to do with multi-threading and whether AMD's driver behaves differently with respect to threading under W10.
il problema della amd è essere cpu limited piu' in fretta rispetto alle nvida quindi magari con winzoz 10 hanno risolto il problema sia driver sia sul carico della cpu con una migliore gestione software dei core....sarebbe una manna :D
appleroof
05-06-2015, 15:47
Io per stare dalla parte dei bottoni ho confermato la prenotazione di win 10 il dayone :asd: (vengo dall'ottimo seven 64)
Io per stare dalla parte dei bottoni ho confermato la prenotazione di win 10 il dayone :asd: (vengo dall'ottimo seven 64)
Io un OS al day-1 non lo prenderò mai più, tanto il beta testing lo facciamo noi
°Phenom°
05-06-2015, 16:09
Win 10 va da dio, altro che win 8, 8.1 e 7 ;)
Free Gordon
05-06-2015, 16:11
Secondo me 7 64bit è ottimo.
8.1 ha solo il vantaggio di essere un po' più veloce ma come stabilità Win7 imho è migliore.
Il 10 promette bene...speriamo sia il nuovo XP-Seven :D
Win 10 va da dio, altro che win 8, 8.1 e 7 ;)
Beh 7 non è che facesse proprio schifo dai..
appleroof
05-06-2015, 16:35
Io un OS al day-1 non lo prenderò mai più, tanto il beta testing lo facciamo noi
Mah ti dico, presi vista (ebbene si :D ) e seven 64 al dayone e zero problemi (se non quelli intrinseci ed irrisolvibili di Vista) poi questo 10 è perlopiù un 8 ver. 2.0 (un po come fu Seven rispetto a Vista) ed è stato testato ampiamente come si sa per cui grosse paure non le ho, poi vabbe non so senlo scaricherò proprio il 29 luglio o dopo agosto ma insomma sicuramente al più presto
damerin0
05-06-2015, 16:38
prima parlare pagine di schede audio che non interessa a nessuno in un thread di schede video,e adesso ci saranno pagine e pagine su quale SO è il migliore...:muro: :muro:
È il frutto di soldi e tempo buttati nel progetto mantle / dx12 con ms ... Ricordate il bench draw call del nuovo 3d mark? Ecco....
°Phenom°
05-06-2015, 16:44
Beh 7 non è che facesse proprio schifo dai..
Nono, anzi é stato il migliore complessivamente, ma win 10 é una spanna sopra a tutti, come dovrebbe anche essere ovviamente :)
deadbeef
05-06-2015, 16:49
Rilancio con combo kernel+scheduler più efficienti
In attesa di zen mi farò una am3+ con 8350.... Imho su win10 si ringiovaniranno di tre anni quelle cpu....
appleroof
05-06-2015, 18:02
perché mai dovrebbe se il driver è sempre DX11? :stordita:
non lo so, so solo che su quel forum posta gente infinitamente più esperta di me (programmatori di professione, tra cui lo stesso Andersson di DICE, il capo della divisione grafica di Intel, i boss della sezione directx di MS etc etc, tanto per dirne alcuni...:D )
si ma, usa le api dx11 anche su win10, a cambiare è il wddm2.0 quindi magari i driver non sono proprio li stessi... :stordita:
http://en.wikipedia.org/wiki/Windows_Display_Driver_Model#WDDM_1.3
WDDM 1.3 vs WDDM 2.0
potrebbe essere un motivo, su quel forum i tipi che dicevo hanno la bocca cucita al riguardo :D
edit: http://wccftech.com/microsoft-directx-12-windows-10-amd-e3-pc/
devAngnew
05-06-2015, 18:25
sorry old notice
Il nabbo di turno
05-06-2015, 18:37
sorry old notice
Edit.
moicano68
05-06-2015, 22:23
quindi riguardo i tier e dx12...alla fine da un sito pare che ils econdo tier dx12 non lesupporti nemmeno Tonga e che quindi sia le vecchi serie / che la 285 e tutte le schede in mezzo, sono solo dx12 trier 1? nessuna ha quelle 2 funzioni mentre la 960 le ha (maxewell quindi)? boh a sto punto rpendere una 280 o una 285 cosa cambia?:confused: :mbe:
In attesa di zen mi farò una am3+ con 8350.... Imho su win10 si ringiovaniranno di tre anni quelle cpu....
in che senso fammi capire
bah un mio pensiero sui tier...mi sembra tanto che ms in accordo con le case di gpu abbiano deciso di mettere la polvere sotto al tappeto...non so prendiamo ad esempio le dx9? Abbiamo avuto le dx9.0a,b e c...mi ricordo che all'epoca si battibeccava sulle amd che fino alla serie x800-x850 avevano le dx9b e le nvindia già la dx9c con il supporto allo sm3.0
Ecco qui invece si fa un grosso calderone, si certificano X schede tutte dx12 e poi non si sa bene a quale versione delle dx12 o quali set supportati delle dx12 suddette vga supportino.
Visto che a sto punto l'informazione è "mascherata" inutile sfasciarsi troppo la testa su quale archidettura amd o nvdiai è compatibile dx12 ed in quale maniera.
anche se siamo OT, ci spero da almeno un anno e mezzo :rotfl:
sai che bello arrivare con la mamma AM3+ e 8320e@4ghz fino al 2020 e -> :read:
saber 990fx acquistata nel 2011...
Concordo, io la crosshair V con 8350 è la prima mobo che ho che ha passato il periodo di garanzia...incredibile ma vero...
Il nabbo di turno
06-06-2015, 07:37
quindi riguardo i tier e dx12...alla fine da un sito pare che ils econdo tier dx12 non lesupporti nemmeno Tonga e che quindi sia le vecchi serie / che la 285 e tutte le schede in mezzo, sono solo dx12 trier 1? nessuna ha quelle 2 funzioni mentre la 960 le ha (maxewell quindi)? boh a sto punto rpendere una 280 o una 285 cosa cambia?:confused: :mbe:
Supportano tutti il dx 12 le gcn, cambia solo il feature level, che nel caso di gcn(r9 280) 1.0 è level 1.1, e ti gcn 1.2(r9 285) level 2.0.
Antimo96
06-06-2015, 11:18
http://www.hdblog.it/mobile/news_detail.php?idnews=410021
Asus 390x 8gb si ipotizza a 449 dollari.
Cioè sarebbe da folli 400 euro compro la toxic 8gb
devil_mcry
06-06-2015, 11:33
Dipende come si trasformerà in euro, ma essendo la concorrente della 980, non mi sembra male il prezzo, contando anche la Vram in più ;)
Inviato dal mio iPhone utilizzando Tapatalk
Se i prezzi di listino sono quelli il calcolo è abbastanza facile da fare.
Rimane una 290x leggermente overcloccata venduta probabilmente per un bel primo periodo a 100€ in più, secondo me al momento chi punta a quelle schede fa prima a prendere quelle già in commercio, probabilmente spende meno
Concordo... anche perché comunque 8Gb su una 290 (o 390 chiamatela come volete) sono inutili (su singola scheda.... in CFX potrebbero già avere un minimo di senso in più)
Radeon80
06-06-2015, 12:08
Mi chiedo AMD con un rebrand di Hawaii possa competere con le GTX 970 e 980.
A meno che nel passaggio da TMSC a GF sono riusciti a contenere i consumi,rinominare una GPU,aumentare frequenze di core e ram e mettere 8 gb francamente per me non è sufficiente per contrastare sopratutto la GTX 980.
Poi se la mettono a 449$ rischiano solo di limitare le vendite.
Il nabbo di turno
06-06-2015, 12:12
Mi chiedo AMD con un rebrand di Hawaii possa competere con le GTX 970 e 980.
A meno che nel passaggio da TMSC a GF sono riusciti a contenere i consumi,rinominare una GPU,aumentare frequenze di core e ram e mettere 8 gb francamente per me non è sufficiente per contrastare sopratutto la GTX 980.
Poi se la mettono a 449$ rischiano solo di limitare le vendite.
Si ma è una 290x abbastanza boostata, 50 mhz in più sul core, ma con 1ghz in più sulle memorie.
Già la 290x non è che sia molto sotto alla 980, con un boost del genere pareggia, minimo.
Poi rimane il problema dei consumi, che al massimo saranno gli stessi, ci saranno sempre quei 70-80w di differenza.
Ale55andr0
06-06-2015, 12:42
Mi chiedo AMD con un rebrand di Hawaii possa competere con le GTX 970 e 980.
ma guarda che la 970 e la 980 non è che vanno il 20% più delle 290 e delle 290x rispettivamente :stordita:
una 980 va più di una 290x di un 10% di media, la "nuova" 390x passerà da 1000 a 1050 per gpu e da 5000 a 6000 (!) sulle memorie portandosi ad un distacco medio esprimibile in singole unità percentuali, non vedo francamente dove sia il problema lato competitività se si parla di prestazioni...Diverso il discorso nel caso dei consumi, ma si sa già.
...Gli 8gb sulla 390x sono inutili solo in caso di configurazione singola, nel cross avrebbero il loro perchè
in che senso fammi capire
Pensa ad un mantle integrato nel sistema operativo x la riduzione del overhead di gestione delle api grafiche, ergo finalmente non avremo piu engine che sfruttano due core e ipc alti..... Mettilo sotto liquido e ci tiri tutto.... E poi arriva Zen...
con 200€ di piattaforma penso non mi lamenterò troppo... Anzi se un 8350 mi costa poco lo prendo nuovo, oppure gli E.... Sembrano avere un buon silicio (liquido = 5ghz obiettivo)
ma guarda che la 970 e la 980 non è che vanno il 20% più delle 290 e delle 290x rispettivamente :stordita:
una 980 va più di una 290x di un 10% di media, la "nuova" 390x passerà da 1000 a 1050 per gpu e da 5000 a 6000 (!) sulle memorie portandosi ad un distacco medio esprimibile in singole unità percentuali, non vedo francamente dove sia il problema lato competitività se si parla di prestazioni...Diverso il discorso nel caso dei consumi, ma si sa già.
Il boost sulla gpu è comunque molto ridotto (50 miserrimi mhz? neanche 100!?)... e la 290 (e in genere gcn) è una scheda che sfrutta maggiormente l'overclock sulla gpu che non sulle memorie (il bus a 512bit gli garantisce già una banda enorme)
Sulla mia 7970 Ghz l'overclock della memoria da 1500 a 1600 (x4) non dà significativi miglioramenti... la gpu da 1050 a 1200 invece ne acquista un botto!
moicano68
06-06-2015, 13:37
Supportano tutti il dx 12 le gcn, cambia solo il feature level, che nel caso di gcn(r9 280) 1.0 è level 1.1, e ti gcn 1.2(r9 285) level 2.0.
non secondo uno dei 2 grafici postati..in cui se nn sbaglio non c'è alcuna differenza fra r280 e 285 per esempio..e cmq i rpezzi delle "vecchie" si alzano invece di diminuire..boh.
Ale55andr0
06-06-2015, 15:02
Il boost sulla gpu è comunque molto ridotto (50 miserrimi mhz? neanche 100!?)... e la 290 (e in genere gcn) è una scheda che sfrutta maggiormente l'overclock sulla gpu che non sulle memorie (il bus a 512bit gli garantisce già una banda enorme)
Sulla mia 7970 Ghz l'overclock della memoria da 1500 a 1600 (x4) non dà significativi miglioramenti... la gpu da 1050 a 1200 invece ne acquista un botto!
vero, ma nel complesso la sostanza è che con quei clock la differenza tra una 390x e una 980 sarà ancor meno significativa visto che già oggi in certi giochi diferiscono di 2-3 frame e in media siamo sul 10%, ergo saranno vga globalmente paragonabili per fascia prestazionale, specialmete se amd non monterà LAMMERDA lato dissipazione
°Phenom°
06-06-2015, 15:23
Comunque sulla 290x dal passare dai 1250mhz def ai 1650mhz sulle mem, di differenza c'è n'è in termini di fps e nemmeno pochissima.
le 290x possono competere benissimo con le 980
Amd lo sa bene e sta sfruttando il potenziale, sarebbe stupido il contrario.
ps se la fury straccia la Ti dopo 10 anni torno rosso, sono commosso :cry: (fa anche rima) :D
Ale55andr0
06-06-2015, 16:35
le 290x possono competere benissimo con le 980
Amd lo sa bene e sta sfruttando il potenziale, sarebbe stupido il contrario.
ps se la fury straccia la Ti dopo 10 anni torno rosso, sono commosso :cry: (fa anche rima) :D
dovresti definire cosa intendi per "stracciare"...
Primo video di una nuova ati, senza nome per ora.
https://www.facebook.com/gametimetv/videos/1116241248391475/?pnref=story
°Phenom°
06-06-2015, 16:59
È da un paio di giorni che é stato pubblicato, a far girare tutto dovrebbe essere proprio la fury x. Comunque -10 giorni :)
ce lo sai cosa vojo dì :asd:
famola uscì e speriamo bene, non si sa mai ho gia le dd4 rosse ci starebbe anche bene
Antimo96
06-06-2015, 17:26
Io intanto ho ordinato giá il pc nuovo.10 giorni e scoprirò quale gpu affiancherà il mio 4590.
°Phenom°
06-06-2015, 17:47
Io appena verranno messi in commercio mi faccio un 5775c e il 4790k lo do a mio cugino, poi il prossimo vero upgrade lo faró con skylake-e, che tra l'altro ho sentito uscirá prima del previsto perché forse salteranno broadwell-e. Riguardo alla vga, sará da vedere appena passo al 1440p :)
killeragosta90
06-06-2015, 20:23
Io appena verranno messi in commercio mi faccio un 5775c e il 4790k lo do a mio cugino, poi il prossimo vero upgrade lo faró con skylake-e, che tra l'altro ho sentito uscirá prima del previsto perché forse salteranno broadwell-e. Riguardo alla vga, sará da vedere appena passo al 1440p :)
Seguoi interessatissimo le vicende su broadwell-e, potresti linkarmi la notizia/rumor sul fatto che lo salteranno?? :eek:
Un skylake-e prima del previsto sarebbe...... :sbav:
La "gente" non sa manco cosa siano i consumi di un sistema... :D non credo che il consumo sia così importante, fuori da un forum di "smanettoni" come questo. ;)
Credo proprio il contrario invece.
A chi cambia scheda video una volta ogni 4 anni interessa eccome.
Non esiste utenza che cambia vga "non smanettona" cmq.
Le recensioni le vanno a leggere tutti.
Supportano tutti il dx 12 le gcn, cambia solo il feature level, che nel caso di gcn(r9 280) 1.0 è level 1.1, e ti gcn 1.2(r9 285) level 2.0.
ma perchè continui a dire questa cosa?
é stato un dirigente amd a confermare che 1.0 non supporta dx 12, per niente, 1.1 supportano dx 12_0 e solo gcn 1.2 (quindi solo la 285 per ora) sfrutta 12_1.
Ho anche messo la notizia tre pagine fa.
Solo Maxwell 2 delle schede in commercio (quindi tutto tranne 750 e 750ti) supporta dx 12_2.
Il nabbo di turno
07-06-2015, 07:52
ma perchè continui a dire questa cosa?
é stato un dirigente amd a confermare che 1.0 non supporta dx 12, per niente, 1.1 supportano dx 12_0 e solo gcn 1.2 (quindi solo la 285 per ora) sfrutta 12_1.
Ho anche messo la notizia tre pagine fa.
Solo Maxwell 2 delle schede in commercio (quindi tutto tranne 750 e 750ti) supporta dx 12_2.
Se non lo supporta gcn le dx 12 anche di level più basso, nemmeno le intel hd di haswell/broadwell e le gtx fermi lo supportano.
Infatti il feature levell 11.0 non è stato messo li per caso...
E poi non ha confermato proprio nulla quel dirigente, solo che gcn 1.2 non supporta le dx 12 di livello 12.1.
OEidolon
07-06-2015, 08:23
ma perchè continui a dire questa cosa?
é stato un dirigente amd a confermare che 1.0 non supporta dx 12, per niente, 1.1 supportano dx 12_0 e solo gcn 1.2 (quindi solo la 285 per ora) sfrutta 12_1.
Ho anche messo la notizia tre pagine fa.
Solo Maxwell 2 delle schede in commercio (quindi tutto tranne 750 e 750ti) supporta dx 12_2.
momento momento momento!
Dalle varie tabelle in rete Maxwell della serie 900 supporta "solo" fino a 12.1 mentre le 285 (gcn 1.2) arrivano a 12.0 :O
poi, perdonami, ma dire "le attuali schede gcn non hanno il pieno supporto a dx 12" è un po' diverso dal dire "le attuali schede gcn non supportano dx 12 per niente" ;)
infatti ha specificato semplicemente che gcn per ora arriva al 12.0 mentre maxwell arriva a 12.1 (http://wccftech.com/amd-confirms-gcn-cards-feature-full-directx-12-support-feature-level-111-gcn-10-feature-level-120-gcn-1112/) :read:
devil_mcry
07-06-2015, 08:33
momento momento momento!
Dalle varie tabelle in rete Maxwell della serie 900 supporta "solo" fino a 12.1 mentre le 285 (gcn 1.2) arrivano a 12.0 :O
poi, perdonami, ma dire "le attuali schede gcn non hanno il pieno supporto a dx 12" è un po' diverso dal dire "le attuali schede gcn non supportano dx 12 per niente" ;)
infatti ha specificato semplicemente che gcn per ora arriva al 12.0 mentre maxwell arriva a 12.1 (http://wccftech.com/amd-confirms-gcn-cards-feature-full-directx-12-support-feature-level-111-gcn-10-feature-level-120-gcn-1112/) :read:
Quello che dice lui e l'articolo anche è che le schede DX12, feature level 11 non supportano alcuna features grafica DX12 nuova, ma solo l'ottimizzazione delle performance. Anche l'articolo dice la stessa cosa
The reference DirectX 12 API (Feature Level 11_0) has performance targeted features while the other two level deliver graphical improvement and this is what really matters in improving the games visually.
Read more: http://wccftech.com/amd-confirms-gcn-cards-feature-full-directx-12-support-feature-level-111-gcn-10-feature-level-120-gcn-1112/#ixzz3cMLFCumW
In pratica le schede DX11 continueranno ad essere DX11, andranno magari più veloci in termini di FPS su sistemi con CPU poco potenti ma non saranno in grado di elaborare i nuovi effetti (se verranno emulati in sw o meno non lo so ma in questo caso con un crollo netto delle performance)
.338 lapua magnum
07-06-2015, 08:47
Quello che dice lui e l'articolo anche è che le schede DX12, feature level 11 non supportano alcuna features grafica DX12 nuova, ma solo l'ottimizzazione delle performance. Anche l'articolo dice la stessa cosa.
In pratica le schede DX11 continueranno ad essere DX11, andranno magari più veloci in termini di FPS su sistemi con CPU poco potenti ma non saranno in grado di elaborare i nuovi effetti (se verranno emulati in sw o meno non lo so ma in questo caso con un crollo netto delle performance)
http://www.bitsandchips.it/9-hardware/5660-tier-e-feature-level-vediamo-di-fare-un-po-di-chiarezza
Vero, é una fase di transizione, già avere oggi dx11 con il "boost" sarebbe ottimo.
Ma alla fine si leggerà che AMD é brutta e cattiva perché non supporta ad oggi il full dx12.
Comunque é un problema che non si pone, quando i motori di gioco saranno total dx12, 'ste VGA saranno fermacarte, sia le rosse che le verdi :D
OEidolon
07-06-2015, 08:51
Quello che dice lui e l'articolo anche è che le schede DX12, feature level 11 non supportano alcuna features grafica DX12 nuova, ma solo l'ottimizzazione delle performance. Anche l'articolo dice la stessa cosa
In pratica le schede DX11 continueranno ad essere DX11, andranno magari più veloci in termini di FPS su sistemi con CPU poco potenti ma non saranno in grado di elaborare i nuovi effetti (se verranno emulati in sw o meno non lo so ma in questo caso con un crollo netto delle performance)
aaaaaah! ok! capito, grazie! :fagiano:
allora chiedo venia a Vul :mc:
devil_mcry
07-06-2015, 08:55
http://www.bitsandchips.it/9-hardware/5660-tier-e-feature-level-vediamo-di-fare-un-po-di-chiarezza
Vero, é una fase di transizione, già avere oggi dx11 con il "boost" sarebbe ottimo.
Ma alla fine si leggerà che AMD é brutta e cattiva perché non supporta ad oggi il full dx12.
Comunque é un problema che non si pone, quando i motori di gioco saranno total dx12, 'ste VGA saranno fermacarte, sia le rosse che le verdi :D
Non penso anche perchè le console (che spingono il mercato sfortunatamente) sono GCN 1.1 quindi per le SH converrà fare giochi in fretta così perchè vuol dire unificare lo sviluppo. Ora si usano le DX11 Low Level per le console e le DX11 normali per PC, domani saranno DX12 e basta.
Essendo GCN 1.1 saranno DX12 12_0 questo vuol dire che non ci vorrà molto questa volta (discorso diverso per le DX10/11 perchè le vecchie console erano DX9). Molti secondo dichiarazioni verranno aggiornati alle DX12 entro fine anno
Il nabbo di turno
07-06-2015, 09:10
Si ma un conto è dire, che non supporta ALCUNA funzionalità del dx 12, quindi proprio non ha il supporto per le dx 12.
Un altro è dire che ha il supporto parziale, non a caso, quelle tier non le hanno fatto così tanto per...
Fra l'altro critiche arrivano da gente che cambia una nvidia ogni sei mesi quando va bene....e si interessano alla longevità di una vga rispetto alle api non rilasciate :asd:
devil_mcry
07-06-2015, 10:00
Si ma un conto è dire, che non supporta ALCUNA funzionalità del dx 12, quindi proprio non ha il supporto per le dx 12.
Un altro è dire che ha il supporto parziale, non a caso, quelle tier non le hanno fatto così tanto per...
Ma infatti non supportano alcuna features DX12, cioè le features grafiche delle DX12 sono tutte nel 12_0 e 12_1.
Supportare le DX12 con 11_0/11_1 vuol dire solo giovare dell'ottimizzazione delle risorse ma c'è un grosso MA.
La diminuzione dell'overhead lato CPU tange solo chi ha CPU poco potenti e nemmeno in tutti i giochi (dipende sempre da quanto sia GPU limited il titolo)
L'Async Compute è una chiave di volta sulle performance della GPU ma GCN 1.0 è alquanto limitato su questo aspetto (http://www.anandtech.com/show/9124/amd-dives-deep-on-asynchronous-shading) permettendo solo 2 Compute per volta (contro gli 8 delle architetture 1.2/1.1 più recenti e i 32 di Maxwell). Quindi praticamente anche sotto questo aspetto le cose cambieranno di poco.
La divisione in Tier dice poco, le scaglionano ma poi i reali miglioramenti sono quel che sono. Quindi il punto è che sono si DX12, ma solo di facciata perchè le performance più di tanto non cambiano, praticamente per quelle schede non cambierà niente e lo stesso vale per le architetture più vecchie di nVidia.
Il nabbo di turno
07-06-2015, 10:37
Ma infatti non supportano alcuna features DX12, cioè le features grafiche delle DX12 sono tutte nel 12_0 e 12_1.
Supportare le DX12 con 11_0/11_1 vuol dire solo giovare dell'ottimizzazione delle risorse ma c'è un grosso MA.
La diminuzione dell'overhead lato CPU tange solo chi ha CPU poco potenti e nemmeno in tutti i giochi (dipende sempre da quanto sia GPU limited il titolo)
L'Async Compute è una chiave di volta sulle performance della GPU ma GCN 1.0 è alquanto limitato su questo aspetto (http://www.anandtech.com/show/9124/amd-dives-deep-on-asynchronous-shading) permettendo solo 2 Compute per volta (contro gli 8 delle architetture 1.2/1.1 più recenti e i 32 di Maxwell). Quindi praticamente anche sotto questo aspetto le cose cambieranno di poco.
La divisione in Tier dice poco, le scaglionano ma poi i reali miglioramenti sono quel che sono. Quindi il punto è che sono si DX12, ma solo di facciata perchè le performance più di tanto non cambiano, praticamente per quelle schede non cambierà niente e lo stesso vale per le architetture più vecchie di nVidia.
Ecco qui c'è da fare un distinguo,perchè non tutte le features del dx 12 riguardano la grafica.
C'è un discorso legato alla gestione delle risorse, sopratutto della cpu, il che non comporta diciamo un miglioramento della grafica, ma non preclude nemmeno un miglioramento delle performance.
Alla fine il discorso che si sono fatti alla microsoft secondo me è,"io voglio che il mio sistema operativo si diffonda più velocemente, ma per farlo, oltre a rendere gratuito l'aggiornamento dalle precedenti piattaforme, ma come posso fare a invogliare il passaggio del maggior numero possibile di utenti a questo os?"
Non tutti fanno l'upgrade all'os solo perchè gratis, deve offrire anche dei vantaggi per invogliare a fare l'upgrade.
E qui che piombano i feature level 11.0 e 11.1, per invogliare la gente a fare l'upgrade cercando di aumentare il più possibile il numero di piattaforme compatibili.
Se non ci fossero stati questi due livelli, a parte maxwell v2 o gcn 1.3, chi altri supporterebbe il dx 12 prima della metà del 2016?Solo una piccola quota di utenti, e solo quella poca quota avrebbe si tutti i vantaggi, ma sarebbe rimasta comunque una piccola percentuale.
Invece con questi livelli, anche chi ha una intel hd di haswell può dirsi di rientrare nelle dx 12, in modo incompleto, ma ci rientra.
Antimo96
07-06-2015, 10:48
ma alla fine l'importante è avere le api 12.0 imho.
Tanto le 12.1 le useranno faranno la fine della dx 10/11 nella scorsa gen,non essendo supportate dalle console le useranno in 3 4 sh senza grandi differenze.
Insomma non lo vedo come motivo che porta a scegliere una gpu al posto di un altra.
devil_mcry
07-06-2015, 11:01
Ecco qui c'è da fare un distinguo,perchè non tutte le features del dx 12 riguardano la grafica.
C'è un discorso legato alla gestione delle risorse, sopratutto della cpu, il che non comporta diciamo un miglioramento della grafica, ma non preclude nemmeno un miglioramento delle performance.
Alla fine il discorso che si sono fatti alla microsoft secondo me è,"io voglio che il mio sistema operativo si diffonda più velocemente, ma per farlo, oltre a rendere gratuito l'aggiornamento dalle precedenti piattaforme, ma come posso fare a invogliare il passaggio del maggior numero possibile di utenti a questo os?"
Non tutti fanno l'upgrade all'os solo perchè gratis, deve offrire anche dei vantaggi per invogliare a fare l'upgrade.
E qui che piombano i feature level 11.0 e 11.1, per invogliare la gente a fare l'upgrade cercando di aumentare il più possibile il numero di piattaforme compatibili.
Se non ci fossero stati questi due livelli, a parte maxwell v2 o gcn 1.3, chi altri supporterebbe il dx 12 prima della metà del 2016?Solo una piccola quota di utenti, e solo quella poca quota avrebbe si tutti i vantaggi, ma sarebbe rimasta comunque una piccola percentuale.
Invece con questi livelli, anche chi ha una intel hd di haswell può dirsi di rientrare nelle dx 12, in modo incompleto, ma ci rientra.
Il miglioramento delle performance dato dalla diminuzione dell'overhead, async compute etc è nel tier 0, dove ci finiscono le schede 11_0 e 11_1. E' l'unica cosa che per loro cambia.
Però per avere un incremento delle performance dato dall'Async Compute serve anche che l'HW della GPU lo supporti, nel caso di GCN 1.0, Fermi, Kepler 1 questo praticamente non avviene in quanto sono in grado di computare 1 sola cosa per volta o al massimo 2. Quindi non supportano nemmeno questa features realmente. Per dire, AMD ha buttato li un ipotetico 46% come best case con una parallelizzazione di 8. Quindi rimane solo praticamente la diminuzione dell'overhead sulla CPU.
Ora prendi le firme e cerca quante persone con una 280x o una 7970GHZ ed o una 280 hanno un i3 o un FX4000. (che poi nemmeno tutti quelli con l'i3 avrebbero vantaggi).
MS non gioca sicuramente sulle DX12 per diffondere W10, l'ha messo gratis e basta quello, il mercato e per lo più fatto da PC OEM con cui giocare è impossibile (soprattutto notebook). Hanno pompato per questi Tier sopratutto i produttori di VGA perchè se le specifiche delle DX 12 fossero state 12_1 e basta ci sarebbe stato solo Maxwell 2 come VGA DX12 e AMD non avrebbe potuto ribrandizzare tutte le schede e metterne in campo due nuove GCN 1.2. Senza considerare il guadagno mediatico sulle console che evolvono da DX11 a DX12. Non è a MS di certo che la cosa conveniva.
Il nabbo di turno
07-06-2015, 11:08
Il miglioramento delle performance dato dalla diminuzione dell'overhead, async compute etc è nel tier 0, dove ci finiscono le schede 11_0 e 11_1. E' l'unica cosa che per loro cambia.
Però per avere un incremento delle performance dato dall'Async Compute serve anche che l'HW della GPU lo supporti, nel caso di GCN 1.0, Fermi, Kepler 1 questo praticamente non avviene in quanto sono in grado di computare 1 sola cosa per volta o al massimo 2. Quindi non supportano nemmeno questa features realmente. Per dire, AMD ha buttato li un ipotetico 46% come best case con una parallelizzazione di 8. Quindi rimane solo praticamente la diminuzione dell'overhead sulla CPU.
Ora prendi le firme e cerca quante persone con una 280x o una 7970GHZ ed o una 280 hanno un i3 o un FX4000. (che poi nemmeno tutti quelli con l'i3 avrebbero vantaggi).
MS non gioca sicuramente sulle DX12 per diffondere W10, l'ha messo gratis e basta quello, il mercato e per lo più fatto da PC OEM con cui giocare è impossibile (soprattutto notebook). Hanno pompato per questi Tier sopratutto i produttori di VGA, perchè se le specifiche delle DX 12 fossero state 12_1 e basta ci sarebbe stato solo Maxwell 2 come VGA DX12 e AMD non avrebbe potuto ribrandizzare tutte le schede e metterne in campo due nuove GCN 1.2. Non è a MS di certo che la cosa conveniva.
Sicuramente concordo sul fatto che anche gli oem sopratutto si sono impuntati per avere delle tier extra per rendere compatibile i loro prodotti almeno parzialmente.
Ora, io non dico che porti a chissà quali vantaggi, ma io di gente con un fx 6300/8300 e una 280/760 ne vedo, ma anche gente con un pentium/i3 in attesa di un i5/i7(io per esempio), e poi se non ci fosse stato questo tier, imho sarebbe continuata la solita farsa dell'ottimizzazione, con i soliti giochi che sfruttano quell'1/2 core, facendo la differenza solo tra chi ha più ipc.
E sinceramente, non è nemmeno giusto che chi ha un i5/i7 in certi giochi mi vada come un pentium, perchè io pago per avere più performance...
Imho sono tier che servivano, magari a chi bada alla grafica frega na cippa, ma sono cose che servono sotto tutti i punti di vista, sia per la diffusione, che per migliorare la gestione delle risorse della cpu, visto che in 10 anni sotto questo aspetto, è stato fatto ben poco.
devil_mcry
07-06-2015, 11:15
Sicuramente concordo sul fatto che anche gli oem sopratutto si sono impuntati per avere delle tier extra per rendere compatibile i loro prodotti almeno parzialmente.
Ora, io non dico che porti a chissà quali vantaggi, ma io di gente con un fx 6300/8300 e una 280/760 ne vedo, ma anche gente con un pentium/i3 in attesa di un i5/i7(io per esempio), e poi se non ci fosse stato questo tier, imho sarebbe continuata la solita farsa dell'ottimizzazione, con i soliti giochi che sfruttano quell'1/2 core, facendo la differenza solo tra chi ha più ipc.
E sinceramente, non è nemmeno giusto che chi ha un i5/i7 in certi giochi mi vada come un pentium, perchè io pago per avere più performance...
Imho sono tier che servivano, magari a chi bada alla grafica frega na cippa, ma sono cose che servono sotto tutti i punti di vista, sia per la diffusione, che per migliorare la gestione delle risorse della cpu, visto che in 10 anni sotto questo aspetto, è stato fatto ben poco.
La maggior parte delle persone con FX6/8 li hanno anche overcloccati. Ok che magari non vanno come Haswell ma non è che gli cambi la vita. Idem chi ha un i3 Haswell non su tutti i giochi la differenza è netta. Il punto comunque non è che chi ha un i5 andrà meglio in modo netto di chi ha un pentium, è il contrario, chi ha un pentium andrà come chi ha un i5 in certi casi (non è comunque vero ma l'incremento c'è).
Questa cosa è poi la stessa che c'era su console con le DX11 Low Level e che ha replicato su PC AMD con Mantle. Non ci saranno miracoli sotto quell'aspetto. Sarà la stessa cosa già vista con Mantle.
Allo stesso tempo sono d'accordo che l'ottimizzazione della CPU è importante, ma lo era di più 15 anni fa quando le CPU diventavano vecchie subito e facevano la differenza, oggi servirà solo a rendere più adatte le CPU low end per il gaming e basta.
Questo è quello che fa la riduzione dell'overhead sulla CPU. Permette alle CPU low end di prendere punti rispetto alle CPU di fascia più altra. Quindi vedi bene che avere il Tier 0 è praticamente non avere niente. L'unico vantaggio è che avendo portato le console a DX12, i giochi per PC 12_0, 12_1 e futuri 12_2/12_3 arriveranno rapidamente.
Io sono più che altro curioso per una cosa. Se AMD con 8 compute dice che si può fare anche il 46% (su un gioco che comunque faceva 250fps), Maxwell 2 con 32 compute cosa può fare?
Il nabbo di turno
07-06-2015, 11:22
La maggior parte delle persone con FX6/8 li hanno anche overcloccati. Ok che magari non vanno come Haswell ma non è che gli cambi la vita. Idem chi ha un i3 Haswell non su tutti i giochi la differenza è netta. Il punto comunque non è che chi ha un i5 andrà meglio in modo netto di chi ha un pentium, è il contrario, chi ha un pentium andrà come chi ha un i5 in certi casi (non è comunque vero ma l'incremento c'è).
Questa cosa è poi la stessa che c'era su console con le DX11 Low Level e che ha replicato su PC AMD con Mantle. Non ci saranno miracoli sotto quell'aspetto. Sarà la stessa cosa già vista con Mantle.
Allo stesso tempo sono d'accordo che l'ottimizzazione della CPU è importante, ma lo era di più 15 anni fa quando le CPU diventavano vecchie subito e facevano la differenza, oggi servirà solo a rendere più adatte le CPU low end per il gaming e basta.
Questo è quello che fa la riduzione dell'overhead sulla CPU. Permette alle CPU low end di prendere punti rispetto alle CPU di fascia più altra.
Se porta una distribuzione del carico su più core, e un maggior numero di draw calls, chi ha più core dovrebbe trarre comunque vantaggio.
Comunque, se i benefici che porterà sono simili a quelli di mantle, imho il guadagno anche se più risicato c'è anche su cpu più potenti.
devil_mcry
07-06-2015, 11:28
Se porta una distribuzione del carico su più core, e un maggior numero di draw calls, chi ha più core dovrebbe trarre comunque vantaggio.
Comunque, se i benefici che porterà sono simili a quelli di mantle, imho il guadagno anche se più risicato c'è anche su cpu più potenti.
Si supporta maggiori draw calls per la diminuzione dell'overhead ma di per se non è che implicitamente supporta più core, semplicemente le news dicevano che nei giochi futuri le CPU multicore avranno più peso ma non in che misura.
Potrebbe benissimo essere che oltre ad un i5 per dire non si vada per esempio in nessun caso (e sarebbe già un incremento del 100%)
Tra l'altro per ribadire dove erano davvero gli interessi sulle DX12, guarda un po' le news uscite fino ad ora. Nella maggior parte dei casi sono di AMD, test interni, dichiarazioni e ovviamente di MS ma i bench sono tutti tirati fuori da AMD.
Il nabbo di turno
07-06-2015, 11:31
Si supporta maggiori draw calls per la diminuzione dell'overhead ma di per se non è che implicitamente supporta più core, semplicemente le news dicevano che nei giochi futuri le CPU multicore avranno più peso ma non in che misura.
Potrebbe benissimo essere che oltre ad un i5 per dire non si vada per esempio in nessun caso (e sarebbe già un incremento del 100%)
Tra l'altro per ribadire dove erano davvero gli interessi sulle DX12, guarda un po' le news uscite fino ad ora. Nella maggior parte dei casi sono di AMD, test interni, dichiarazioni e ovviamente di MS ma i bench sono tutti tirati fuori da AMD.
Quello è vero, di test su strada siamo un po' in chiaro scuro, ma potrebbe benissimo essere che si aspetti il rilascio ufficiale di w10.
Comunque qualche demo ci dovrebbe essere, non c'era il 3dmark per le dx 12?
Salve gente. Stavo cercando L erede della mia 290x xfx e Sono combattutissimo tra fury (che dovrebbe essere più potente ma sia vostare più che avere per forza un AIO integrato) e una gigabyte 980 ti g1. Solo che non trovo info sulla disponibilità di quest ultima. L unica info che ho trovato e un late june, voi avete maggiori info in proposito?
La evga superclocked a doppia ventola come é?
Inviato dal mio SM-T805 utilizzando Tapatalk
Salve gente. Stavo cercando L erede della mia 290x xfx e Sono combattutissimo tra fury (che dovrebbe essere più potente ma sia vostare più che avere per forza un AIO integrato) e una gigabyte 980 ti g1. Solo che non trovo info sulla disponibilità di quest ultima. L unica info che ho trovato e un late june, voi avete maggiori info in proposito?
La evga superclocked a doppia ventola come é?
Inviato dal mio SM-T805 utilizzando Tapatalk
aspetta le recensioni delle vga nuove e via...ora c'è poco da dire.
devil_mcry
07-06-2015, 12:02
Quello è vero, di test su strada siamo un po' in chiaro scuro, ma potrebbe benissimo essere che si aspetti il rilascio ufficiale di w10.
Comunque qualche demo ci dovrebbe essere, non c'era il 3dmark per le dx 12?
Si qualcosa c'è, hanno fatto dei test sulle draw calls più che altro e hanno preso a campione un 2/4, un 4/4 e un 6/12 dove però quest'ultimo aveva anche 400MHz in più.
Il salto è netto tra 2/4 e 4/4 ma tra 4/4 e 6/12 è moderato nonostante la possibilità da parte della CPU di elaborare il triplo dei thread e i 400MHz per core in più http://www.anandtech.com/show/9112/exploring-dx12-3dmark-api-overhead-feature-test/3
aspetta le recensioni delle vga nuove e via...ora c'è poco da dire.
Si era inteso che prima di fine giugno non mi muovo dato che il 16 sara un giorno decisivo per la decisione. Tanto per ora sto giocando a dark soul e mass effect 3 che in vsr in quasi 4k non fanno la minima piega quindi non ho fretta XD
Il mio grande dubbio e l aio integrato se optero per la fury.
Inviato dal mio SM-T805 utilizzando Tapatalk
Il nabbo di turno
07-06-2015, 12:07
Si qualcosa c'è, hanno fatto dei test sulle draw calls più che altro e hanno preso a campione un 2/4, un 4/4 e un 6/12 dove però quest'ultimo aveva anche 400MHz in più.
Il salto è netto tra 2/4 e 4/4 ma tra 4/4 e 6/12 è moderato nonostante la possibilità da parte della CPU di elaborare il triplo dei thread e i 400MHz per core in più http://www.anandtech.com/show/9112/exploring-dx12-3dmark-api-overhead-feature-test/3
Notare l'aumento delle draw calls passando da una 7970 a una 285...
In certi scenari comunque, il distacco è netto.
OEidolon
07-06-2015, 12:22
Si era inteso che prima di fine giugno non mi muovo dato che il 16 sara un giorno decisivo per la decisione. Tanto per ora sto giocando a dark soul e mass effect 3 che in vsr in quasi 4k non fanno la minima piega quindi non ho fretta XD
Il mio grande dubbio e l aio integrato se optero per la fury.
Inviato dal mio SM-T805 utilizzando Tapatalk
QUA (http://wccftech.com/amd-fury-series-lineup-flavors-fury-nano-xt-pro/) vociferano sulla possibilità di tre diverse varianti, una liquidata e due no ;)
devil_mcry
07-06-2015, 12:48
Notare l'aumento delle draw calls passando da una 7970 a una 285...
In certi scenari comunque, il distacco è netto.
Mica tanto. In certi scenari avere un 6/12 pare controproducente e in generale passare da un 4/4 a 3.8 ad un 6/12 4.2 porta un miglioramento del 15% circa, contro il 60% tra 2/4 - 4/4. Ma non c'è una soluzione 4/8 a 4.2 GHz ad esempio
QUA (http://wccftech.com/amd-fury-series-lineup-flavors-fury-nano-xt-pro/) vociferano sulla possibilità di tre diverse varianti, una liquidata e due no ;)
Very very interesting grazie! Prezzo a parte D:
Anzi visto il prezzo dovrebbe stare abbastanza sopra la TI altrimenti no way.
Inviato dal mio SM-T805 utilizzando Tapatalk
°Phenom°
07-06-2015, 14:38
QUA (http://wccftech.com/amd-fury-series-lineup-flavors-fury-nano-xt-pro/) vociferano sulla possibilità di tre diverse varianti, una liquidata e due no ;)
Interessante, concordo anche io con l'autore dell'articolo, che sicuramente la nano è la versione con wc.
Ho letto 899$? :eek:
Sarebbe solo 100€ sotto la TitanX!
Se fosse quello il prezzo per vendere deve andare più della TitanX, e molto più della 980ti
moicano68
07-06-2015, 14:50
Il miglioramento delle performance dato dalla diminuzione dell'overhead, async compute etc è nel tier 0, dove ci finiscono le schede 11_0 e 11_1. E' l'unica cosa che per loro cambia.
Però per avere un incremento delle performance dato dall'Async Compute serve anche che l'HW della GPU lo supporti, nel caso di GCN 1.0, Fermi, Kepler 1 questo praticamente non avviene in quanto sono in grado di computare 1 sola cosa per volta o al massimo 2. Quindi non supportano nemmeno questa features realmente. Per dire, AMD ha buttato li un ipotetico 46% come best case con una parallelizzazione di 8. Quindi rimane solo praticamente la diminuzione dell'overhead sulla CPU.
Ora prendi le firme e cerca quante persone con una 280x o una 7970GHZ ed o una 280 hanno un i3 o un FX4000. (che poi nemmeno tutti quelli con l'i3 avrebbero vantaggi).
MS non gioca sicuramente sulle DX12 per diffondere W10, l'ha messo gratis e basta quello, il mercato e per lo più fatto da PC OEM con cui giocare è impossibile (soprattutto notebook). Hanno pompato per questi Tier sopratutto i produttori di VGA perchè se le specifiche delle DX 12 fossero state 12_1 e basta ci sarebbe stato solo Maxwell 2 come VGA DX12 e AMD non avrebbe potuto ribrandizzare tutte le schede e metterne in campo due nuove GCN 1.2. Senza considerare il guadagno mediatico sulle console che evolvono da DX11 a DX12. Non è a MS di certo che la cosa conveniva.
quindi solo la gtx 960 è compatibile per tutti i tier? quindi a parità di rpezzo è da preferire alla 285 visto che vanno uguali, specie alla mia risoluzione 1680 x 1050?
devil_mcry
07-06-2015, 14:51
quindi solo la gtx 960 è compatibile per tutti i tier? quindi a parità di rpezzo è da preferire alla 285 visto che vanno uguali, specie alla mia risoluzione 1680 x 1050?
Si sotto quell'aspetto si. C'è anche da vedere poi la storia dei 32 compute vs 8 compute della 285, magari in dx12 con l'async compute diventa più veloce ma sono pure speculazioni (magari non conta niente) però ad ora la 960 è quella che ha più features (in generale Maxwell 2)
paolox86
07-06-2015, 14:56
Ho letto 899$? :eek:
Sarebbe solo 100 sotto la TitanX!
Se fosse quello il prezzo per vendere deve andare più della TitanX, e molto più della 980ti
Se fosse quello il prezzo le schede dovrebbero andare come cannoni, altrimenti AMD sarebbe folle considerato:
1) ha comunque solo 4 Gb di ram anche se HBM, quindi difficilmente si potranno prendere gli utenti che giocano in 4k.
2) hanno comunque un gap d'immagine non trascurabile e anche quello conta.
moicano68
07-06-2015, 14:57
Si sotto quell'aspetto si. C'è anche da vedere poi la storia dei 32 compute vs 8 compute della 285, magari in dx12 con l'async compute diventa più veloce ma sono pure speculazioni (magari non conta niente) però ad ora la 960 è quella che ha più features (in generale Maxwell 2)
Grazie ..considerando che stò con un vecchio Phenom965 x4BE a me interessa poter giocare bene ai prossimi titoli per un paio d'anni a 1680 x 1050..e di AA tirtissimi e filtri strani non ne sento l'esigenza..anzi molti effetti li disabilito come Motion blur, DOF ecc-sèeroa,o si abbassino un pò i rpezzi da arrivare a prendere una non reference a max 170€ a brevissimo
nessuno29
07-06-2015, 15:50
Ho letto 899$? :eek:
Sarebbe solo 100€ sotto la TitanX!
Se fosse quello il prezzo per vendere deve andare più della TitanX, e molto più della 980ti
Non si può andare più della Titan X e molto più della gtx 980ti perchè una va più dell'altra del 3%!
Quindi o andrà quanto o meno o più o molto più della Titan X\980ti.
Non si può andare più della Titan X e molto più della gtx 980ti perchè una va più dell'altra del 3%!
Quindi o andrà quanto o meno o più o molto più della Titan X\980ti.
1) dipende dai giochi
2) bisogna vedere quanto vanno in OC la maggior parte delle 980ti perché le TitanX vanno tutte almeno a 1400 senza overvolt
3) clock to clock le TitanX vanno ovviamente più delle 980ti
Detto questo se la Fury non va più della TitanX allora uno o decide di risparmiare e va su una 980ti oppure spende 100€ in più e ha 12gb invece di 4gb
Radeon80
07-06-2015, 16:20
http://www.pcgameshardware.de/AMD-Radeon-R9-285-2G-Grafikkarte-259969/News/Tonga-GPU-256-Bit-Interface-und-32-CUs-1160632/
posto questo link per parlare dell'immagine nella notizia stessa.
Dovrebbe essere un immagine di Tonga e si parla della questione del bus di memoria.
Guardando i 6 rettangoli che sono in alto,basso e nella parte destra della GPU(che dovrebbero essere i 6 canali di memoria a 64 bit ognuno)dovrebbero formare un bus a 384 bit e non a 256 bit.
Ma però guardando come sono strutturati tutti e 6 i canali,quelli di destra sono completamenti diversi rispetto agli altri 4.
Sono per caso sempre dei canali di memoria oppure hanno un altra tipologia di funzione?
Il nabbo di turno
07-06-2015, 17:19
Mica tanto. In certi scenari avere un 6/12 pare controproducente e in generale passare da un 4/4 a 3.8 ad un 6/12 4.2 porta un miglioramento del 15% circa, contro il 60% tra 2/4 - 4/4. Ma non c'è una soluzione 4/8 a 4.2 GHz ad esempio
Si ma dare un 60% in più passando da un 2/4 a un 4/4 è un valore FINALMENTE in linea con le potenzialità extra del quad core rispetto al dual core.
Poi magari può essere che lo scaling diminuisca bruscamente passando da 4 a 6 core, però rispetto al passato è tutta un'altra musica.
devil_mcry
07-06-2015, 17:58
Si ma dare un 60% in più passando da un 2/4 a un 4/4 è un valore FINALMENTE in linea con le potenzialità extra del quad core rispetto al dual core.
Poi magari può essere che lo scaling diminuisca bruscamente passando da 4 a 6 core, però rispetto al passato è tutta un'altra musica.
Si ma quelle rimangono draw calls in un benchmark fatto apposta per sfruttare quella cosa. In un gioco il tutto si tradurrà in 0 differenza tra un 4/4 e un 6/12 e molta meno tra un 2/4 e un 4/4
Che poi già oggi in alcuni giochi è così, gli i3 in game non vanno come gli i5
Il nabbo di turno
07-06-2015, 18:10
Si ma quelle rimangono draw calls in un benchmark fatto apposta per sfruttare quella cosa. In un gioco il tutto si tradurrà in 0 differenza tra un 4/4 e un 6/12 e molta meno tra un 2/4 e un 4/4
Che poi già oggi in alcuni giochi è così, gli i3 in game non vanno come gli i5
Al di là dei bench, con un inversione di tendenza del genere, cioè passare dal diminuire le draw calls, all'aumentarne il più possibile, avere 4 core invece di 2 potrebbe fare una bella differenza.
Così finalmente schiantiamo la storia dei giochi che sfruttano 1/2 core e gli altri dormono.
mikael84
07-06-2015, 18:13
Non so se è stato già riportato ma le Fury dovrebbero essere 3 non 2.
Fury pro 3520-3712 ST a 950mhz
Fury XT 4096 a 950mhz
Fury Nano: 4096 a 1050mhz (quindi il top) e la inseriscono in fascia della Titan
La Fury Nano dovrebbe essere equipaggiata con l'AIO
http://www.3dcenter.org/
Il nabbo di turno
07-06-2015, 18:18
Non so se è stato già riportato ma le Fury dovrebbero essere 3 non 2.
Fury pro 3520-3712 ST a 950mhz
Fury XT 4096 a 950mhz
Fury Nano: 4096 a 1050mhz (quindi il top) e la inseriscono in fascia della Titan
La Fury Nano dovrebbe essere equipaggiata con l'AIO
http://www.3dcenter.org/
Imho son curioso per la versione ad aria, mi aspetto minimo 3 ventole...
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.