View Full Version : AMD Radeon RX Vega 64 e Radeon RX Vega 56 in test
Redazione di Hardware Upg
14-08-2017, 15:00
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/4983/amd-radeon-rx-vega-64-e-radeon-rx-vega-56-in-test_index.html
Giunge in commercio la scheda Radeon RX Vega 64, la prima con GPU Vega destinata al mercato dei videogiocatori. Ad un prezzo di 499 dollari si scontra direttamente con la scheda GeForce GTX 1080 di NVIDIA, affiancata dal modello Radeon RX Vega 56 che a 399 dollari è concorrente di GeForce GTX 1070 e giungerà sul mercato tra qualche settimana. Vediamone caratteristiche e prestazoni a confronto con le concorrenti NVIDIA
Click sul link per visualizzare l'articolo.
majinbu7
14-08-2017, 15:14
Alla fine in base al gioco la 64 va più o meno della 1080...beh speravo un pò meglio
djmatrix619
14-08-2017, 15:24
Alla fine in base al gioco la 64 va più o meno della 1080...beh speravo un pò meglio
Non é mica quello il punto. Bisogna vedere il tutto tenendo conto anche del prezzo.. ;)
Non é mica quello il punto. Bisogna vedere il tutto tenendo conto anche del prezzo.. ;)
....che e' di fatto allineato alle proposte GTX 1080.
Oltretutto bisognera' vedere quanto il prezzo vero (non consigliato) verra' pompato, soprattutto all'inizio.
@redazione
Doom OpenGL non OpenCL.
Era gradito un test con Ryzen, in un confronto con l'i7-6700.
nickname88
14-08-2017, 16:02
Sinceramente non capisco come facciano certi utenti a negare l'evidentissimo fail !
Oltre un anno di attesa per avere una scheda che va come la 1080 ma con TDP di 300W ?
A questo punto il prezzo bello o brutto o la maturità dei drivers lasciano il tempo che trovano, ora si pensa a Volta.
Devo chiamare il ragazzo che mi ha venduto la ZOTAC liquidata EK a 430 euro... Forse non sa che mi ha venduto.
tuttodigitale
14-08-2017, 16:23
Sinceramente non capisco come facciano certi utenti a negare l'evidentissimo fail !
Oltre un anno di attesa per avere una scheda che va come la 1080 ma con TDP di 300W ?
A questo punto il prezzo bello o brutto o la maturità dei drivers lasciano il tempo che trovano, ora si pensa a Volta.
a parte la maturità dei driver...i giochi per PC che useranno le FP16 sono dietro l'angolo...un piccolo boost (10-15%) VEGA li avrà solo con il semplice utilizzo di variabili FP a mezza precisione.
Inoltre si parla di Volta come se
a) la versione consumer fosse già in commercio
b) AMD non stesse ultimando VEGA 20, primo chip a 14nm di AMD destinato al mercato HPC...
detto questo, guardando il solo prezzo di listino, il best buy è VEGA 56.
dav1deser
14-08-2017, 16:24
Sinceramente non capisco come facciano certi utenti a negare l'evidentissimo fail !
Oltre un anno di attesa per avere una scheda che va come la 1080 ma con TDP di 300W ?
A questo punto il prezzo bello o brutto o la maturità dei drivers lasciano il tempo che trovano, ora si pensa a Volta.
Io più che altro sono stupito del limitatissimo miglioramento rispetto alla Fury X.
Che Nvidia nelle ultime generazione avesse un netto vantaggio a livello di efficienza energetica era evidente, e non mi aspettavo certo che Vega ribaltasse le carte in tavola.
Ma se pensiamo che una FuryX va solo un 30% in meno di Vega64, consumando qualcosa di meno, e indietro di 2 generazioni di processo produttivo (28-20-14nm, anche se il 20 è stato saltato), la situazione è alquanto deludente. Rimpiango i tempi delle 5870, che con un salto di processo produttivo hanno raddoppiato le prestazioni, mantenendo invariati i consumi...
Sinceramente non capisco come facciano certi utenti a negare l'evidentissimo fail !
Oltre un anno di attesa per avere una scheda che va come la 1080 ma con TDP di 300W ?
A questo punto il prezzo bello o brutto o la maturità dei drivers lasciano il tempo che trovano, ora si pensa a Volta.A Volta si penserà fra 6 o più mesi, per il resto è evidente che Vega è una architettura del tutto non competitiva in termini di perf/W e perf/die size.
Il prezzo potrebbe tuttavia rendere i prodotti relativamente di successo, ma non il prezzo di lancio a quanto pare...
djmatrix619
14-08-2017, 16:47
A Volta si penserà fra 6 o più mesi, per il resto è evidente che Vega è una architettura del tutto non competitiva in termini di perf/W e perf/die size.
Il prezzo potrebbe tuttavia rendere i prodotti relativamente di successo, ma non il prezzo di lancio a quanto pare...
Gli basta mettere un paio di giochi AAA in allegato in bundle, e laggente vedrá automaticamante la scheda con un prezzo imbattibile rispetto alla concorrenza! :asd: It will happen!
nickname88
14-08-2017, 16:51
a parte la maturità dei driver...i giochi per PC che useranno le FP16 sono dietro l'angolo...un piccolo boost (10-15%) VEGA li avrà solo con il semplice utilizzo di variabili FP a mezza precisione.
Inoltre si parla di Volta come se
a) la versione consumer fosse già in commercio
b) AMD non stesse ultimando VEGA 20, primo chip a 14nm di AMD destinato al mercato HPC...
detto questo, guardando il solo prezzo di listino, il best buy è VEGA 56.L'intero post è basato su i SE ed i MA, arricchito dall'ennesima profezia.
E' la solita storia, quando tutto quanto sarà bello maturo oramai la scheda sarà già obsoleta.
https://tpucdn.com/reviews/AMD/Radeon_RX_Vega_64/images/perfrel_2560_1440.png
Per eguagliare la 1080 liscia deve pure usare la modalità turbo.
Anche se col tempo andasse quei 10-15% in più cosa cambierebbe ?
Sinceramente non capisco come facciano certi utenti a negare l'evidentissimo fail !
Oltre un anno di attesa per avere una scheda che va come la 1080 ma con TDP di 300W ?
A questo punto il prezzo bello o brutto o la maturità dei drivers lasciano il tempo che trovano, ora si pensa a Volta.
Semplicemente perchè fail è un altra roba ;)
la RX56 mi sembra una buona proposta da prendere in considerazione per chi vuole una 1070/1080 liscia, considerando il prezzo effettivo assestato.
la 64 mi sembra più interessante nel caso dei bundle se uno deve fare spesa grossa per il pc oggi.
Calcajvl
14-08-2017, 17:32
Scusate , son tardo io, ma tutti questi test a partire dal paragrafo consumi in poi sono stati eseguiti in modalità turbo con il bios numero 1? dall'articolo non mi pare chiaro?
Il giorno infine è arrivato :asd:
Dopo 1 anno e 3 mesi, AMD si presenta con la sua risposta alla gtx 1080, che ha prestazioni simili e costa praticamente uguale (ve lo scordate di trovarla a 499 euro) se non anche di più, visto che rappresenta la novità. Tral'altro non ho capito il motivo per cui la versione a liquido l'hanno messa esclusivamente a 700 euro con quel bundle, che mi sembrano cifre troppo elevate.
Mi domando quelli che sono contenti per queste performance e per questi prezzi in che mondo vivono.
La RX Vega 56 sembra già più interessante, ma anche qui ne vale la pena? I guadagni rispetto alla GTX 1070 sono in alcuni casi esigui o assenti, in altri più consistenti, mentre in altri casi sono addirittura sotto le verdi concorrenti (dove addirittura una GTX 1070 batte la RX Vega 64, vedasi Watch dogs 2). Anche qui poi bisognerà vedere i prezzi, visto che le GTX 1070 si trovano già sui 400 su amazon (che non è noto per essere il più economico dove comprare).
Avrei voluto vedere i test con le Vulkan in Doom, forse l'unico titolo che poteva fare brillare le schede AMD, ma capisco che il tempo era quello che era ed il giorno era uno di quelli disgraziati a ridosso del ferragosto e delle vacanze.
Mi sa che "poor volta" se lo potevano risparmiare.
Hanno dedicato le risorse su Ryzen, è palese, Vega non ce la fa, non è al passo della concorrenza un anno e passa dopo.
Con i driver migliorerà ma ha ben altri problemi, i consumi sono allucinanti e senza tornaconto prestazionale il che è grave.
Hanno dedicato le risorse su Ryzen, è palese, Vega non ce la fa, non è al passo della concorrenza un anno e passa dopo.
Con i driver migliorerà ma ha ben altri problemi, i consumi sono allucinanti e senza tornaconto prestazionale il che è grave.
Su i consumi non ho ben capito.
Qualche ora fa era comparsa una recensione poi bloccata da AMD stessa dove comparivano dei mostruosi consumi di oltre 500 W per la versione raffreddata a liquido :eek:
Però non so se era da prendere sul serio.
Insomma dopo + di 2 anni dalla fury x, AMD torna con 2 nuove gpu pseudo top gamma ... e HWU fa un articolo di.... 7 pagine?!?! :stordita:
Guru3d: 34 pagine x la 56 e 34 x la 64
Tweaktown: 13 pagine x entrambe
HardOCP: 17 pagine x la 64
Anandtech: 20 pagine x entrambe
Computerbase: 8 pagine x entrambe... ma pagine enormi ognuna
Apro qualche articolo della concorrenza...
Evga 1080TI 4 pagine
Aorus 1080TI 4 pagine
GTX 1080TI 16 pagine
Roundup di 6 1080 10 pagine
1050TI 5 pagine
1070FE 14 pagine
1080FE 19 pagine
vaaaabbèèèè, posso capire le ferie, ma insomma... anche gli altri vanno in ferie. Lo dico per voi eh... uno si fa una cattiva idea.
Sono cosi tante le pagine perchè quando fanno i test dedicano una pagina a videogioco, mentre qui su HWupgrade ci sono gli stessi test ma con più videogiochi per pagina :asd: Poi ci può stare che abbiano fatto meno test, ma se non sbaglio hanno già detto che ci saranno ulteriori approfondimenti.
Io rivoglio la fascia media, quella della 4850 :stordita:
Oltre un anno di ritardo per agganciare la GTX 1080 (che di fatto monta un chip mid-range), è un fail.
Le FuryX furono considerate un fail (e commercialmente lo furono) ma almeno andavano un sputo meno della 980Ti, queste Vega la 1080Ti la vedono solo col cannocchiale, e Volta è dietro l'angolo.
Almeno AMD non ha toppato con i Threadripper, ma lato gpu Nvidia ancora non ha vera concorrenza.
Oltre un anno di ritardo per agganciare la GTX 1080 (che di fatto monta un chip mid-range), è un fail.
Le FuryX furono considerate un fail (e commercialmente lo furono) ma almeno andavano un sputo meno della 980Ti, queste Vega la 1080Ti la vedono solo col cannocchiale, e Volta è dietro l'angolo.
Almeno AMD non ha toppato con i Threadripper, ma lato gpu Nvidia ancora non ha vera concorrenza.
570 e 580 stanno andando benissimo e non solo per via del mining: anche molti giocatori le cercano. Il fail commerciale di Vega mi pare un po' presto per annunciarlo e sotto gli altri aspetti fail non è. Fail sarà stato quello delle HD 2900 XT e magari anche quello delle GTX 480, piuttosto, dato che rasentavano l'indifendibile.
Che senso ha usare le memorie HBM2 e avere una bandwidth comparabile alle Geforce? Dovevano puntare almeno al doppio
tuttodigitale
14-08-2017, 18:58
L'intero post è basato su i SE ed i MA, arricchito dall'ennesima profezia.
E' la solita storia, quando tutto quanto sarà bello maturo oramai la scheda sarà già obsoleta.
https://tpucdn.com/reviews/AMD/Radeon_RX_Vega_64/images/perfrel_2560_1440.png
Per eguagliare la 1080 liscia deve pure usare la modalità turbo.
Anche se col tempo andasse quei 10-15% in più cosa cambierebbe ?
http://techreport.com/r.x/2017_08_13_AMD_s_Radeon_RX_Vega_64_and_RX_Vega_56_graphics_cards_reviewed/FPSValue.png
al prezzo a cui sono proposte comprare prodotti basati su VEGA non è un cattivo acquisto, per i seguenti motivi:
1)prestazioni all'altezza delle concorrenti proposte ad un prezzo simile.
2) bagaglio tecnologico, il più elevato tra tutte le GPU in circolazione..
PS tra la modalità turbo e quella standard, cambia ben il 0% delle prestazioni....è invece interessante che le prestazioni con la modalità power saver siano pari al 96% nonostante il consumo ridotto di 75W.
570 e 580 stanno andando benissimo e non solo per via del mining: anche molti giocatori le cercano.
Del mining non ce ne frega una mazza, la serie 500 è la serie 400 rebrandizzata e overcloccata, porcheria per consumatori che amano farsi prendere in giro.
Qua si parla di Vega, quindi si presume di top di gamma. E il fail è evidente.
Del mining non ce ne frega una mazza, la serie 500 è la serie 400 rebrandizzata e overcloccata, porcheria per consumatori che amano farsi prendere in giro.
Qua si parla di Vega, quindi si presume di top di gamma. E il fail è evidente.
Hai detto che nvidia lato gpu non ha concorrenza e questo è errato. Non partiamo dal presupposto che gli altri sono stupidi: se le 570/580 vendono è perchè per la fascia di prezzo (in cui dovrebbero essere, non fosse per il mining) sono più che valide. Ergo AMD ha fatto un lavoro egregio.
tuttodigitale
14-08-2017, 19:08
Che senso ha usare le memorie HBM2 e avere una bandwidth comparabile alle Geforce? Dovevano puntare almeno al doppio
Teoricamente AMD potrebbe fare un APU ZEN+VEGA 10 su socket SP3...
benderchetioffender
14-08-2017, 19:15
Il giorno infine è arrivato :asd:
Dopo 1 anno e 3 mesi, AMD si presenta con la sua risposta alla gtx 1080, che ha prestazioni simili e costa praticamente uguale (ve lo scordate di trovarla a 499 euro) se non anche di più, visto che rappresenta la novità
a 499 non si troverà mai, ma solo perché è in $$, quindi tra tasse e import costerà 450/500
riguardo la novità non è vero: guarda Ryzen, ha sbancato e i prezzi in street son ben piu bassi del listino
Anche qui poi bisognerà vedere i prezzi, visto che le GTX 1070 si trovano già sui 400 su amazon (che non è noto per essere il più economico dove comprare).
già.... gia se ce ne fossero a pioggia... ce n'è una (!) a quel prezzo, e nemmeno una carrozzata, il resto è ben sopra
tuttodigitale
14-08-2017, 19:17
Qua si parla di Vega, quindi si presume di top di gamma. E il fail è evidente.
il fail evidente lo vedi solo tu. VEGA non nasce e non muore con la versione RADEON.
a 499 non si troverà mai, ma solo perché è in $$, quindi tra tasse e import costerà 450/500
499 USD fanno 420 EUR circa (tasso proprio di mercato adesso). Aggiunto 22% di IVA viene fuori 512 EUR. Tutto questo senza contare nessun costo di importazione. Il prezzo reale sara` piu` vicino a 550 che non 500.
Teoricamente AMD potrebbe fare un APU ZEN+VEGA 10 su socket SP3...
per me si sono incasinati la vita per nulla, cioè hanno puntato su una memoria costosa e poco disponibile per poi non trarne nessun beneficio (che secondo me era come minimo fare schede piccole fisicamente e con moltissima banda passante)
se hai una gpu meno "intelligente" (ed è così, rispetto a Nvidia sono meno efficenti) devi andare di forza bruta e quindi numero di unità di calcolo e bandwidth
Secondo me hanno investito un sacco di soldi su Ryzen e Vega è una "toppa" in attesa di Navi
499 USD fanno 420 EUR circa (tasso proprio di mercato adesso). Aggiunto 22% di IVA viene fuori 512 EUR. Tutto questo senza contare nessun costo di importazione. Il prezzo reale sara` piu` vicino a 550 che non 500.
La 1070 si trova correntemente sotto i 500 la 1080 sui 600-650, e sto parlando di prezzi di mercato fatti da negozi, non del prezzo più basso di trovaprezzi
A me i prezzi non sembrano competitivi, aspetto di vedere a quanto si vedranno su strada ma la prima impressione è che ci voglia qualcosa di più in prestazione ( o qualcosa di meno in prezzo )
1)prestazioni all'altezza delle concorrenti proposte ad un prezzo simile.
Il grafico riportato usa per 1070 e 1080 i i prezzi di uscita di un anno fa, lo street price odierno è decisamente più basso
2) bagaglio tecnologico, il più elevato tra tutte le GPU in circolazione..
A cosa serve questo "bagaglio tecnologico" se non vanno più forte della concorrenza ?
A fare da zavorra ?
Tutto e solo quello che conta in una scheda grafica sono prestazioni e costo
Il bagaglio a mano non serve a niente
E non ricominciamo per favore con le favole del "con i prossimi driver/directX migliorerà", è una storia già vista e stravista, ricordiamo i casi eclatanti di nVidia 8600, ATI 2900 e Parhelia, ma anche la RX 480 dopo un anno va esattamente come un anno fa, non esistono driver miracolosi
NickNaylor
14-08-2017, 21:29
Oltre un anno di ritardo per agganciare la GTX 1080 (che di fatto monta un chip mid-range), è un fail.
Le FuryX furono considerate un fail (e commercialmente lo furono) ma almeno andavano un sputo meno della 980Ti, queste Vega la 1080Ti la vedono solo col cannocchiale, e Volta è dietro l'angolo.
Almeno AMD non ha toppato con i Threadripper, ma lato gpu Nvidia ancora non ha vera concorrenza.
le fury X erano delle schede stupende ma costavano veramente troppo e avevano il deterrente psicologico dei soli 4GB di ram, questa è deludente più che altro per il salto prestazionale pressoché nullo in relazione alla tecnologia adottata, comunque saranno i prezzi streetprice a far decidere l'acquisto, e il bundle di certo è una opzione interessante per chi si deve fare un pc nuovo se lo sconto è reale.
kliffoth
14-08-2017, 21:30
Lato prestazioni sono schede interessanti ed acquistabili, soprattutto la Vega 56 (per quanto la nuova generazione AMD è attesa tra un solo anno), ma, se dovessi comprare oggi, a meno che non avessi un monitor Freesync (che non ho, e per la cronaca cambio PC nel 2020), non le prenderei in considerazione.
Il mio PERSONALE motivo è che fanno rumore (guardate i dati su Guru3d: fanno casino come uno SLI), ed io sacrifico volentieri manciate di frames per un paio di db.
Poi ognuno ha le sue ragioni.
Per orecchie meno esigenti mi paiono però prodotti interessanti (e un eventuale Freesync invita non poco)
TigerTank
14-08-2017, 21:33
Purtroppo permane il problema dei consumi troppo alti sotto carico e in rapporto alle prestazioni rispetto alle Nvidia...
Il che si traduce anche in un'emissione maggiore di calore da dissipare e relativo maggior carico sul dissipatore, compresa la rumorosità della/e ventola/e.
Ton90maz
14-08-2017, 21:42
Secondo me hanno investito un sacco di soldi su Ryzen e Vega è una "toppa" in attesa di NaviProbabile, anche se al tempo stesso c'è qualcosa di strano. Se vega è una toppa perchè non hanno semplicemente cercato di realizzare un polaris più grosso? Ho il sospetto che il progetto non sia solo a basso budget ma proprio sotto le aspettative, perchè quel mattonazzo?
Ton90maz
14-08-2017, 21:49
Purtroppo permane il problema dei consumi troppo alti sotto carico e in rapporto alle prestazioni rispetto alle Nvidia...
Il che si traduce anche in un'emissione maggiore di calore da dissipare e relativo maggior carico sul dissipatore, compresa la rumorosità della/e ventola/e.Per quello ci sono le custom (e la liquid ma a quel prezzo anche no), e la reference a livello di rumorosità non è messa tanto peggio delle reference verdi.
Il vero problema è beccarsi di nuovo l'immagine di brand di forni, e questa diceria poi si estende a tutte le fasce. Tipo vega 64 consuma diventa consuma e ribolle che diventa qualunque scheda amd = forno.
kliffoth
14-08-2017, 21:52
E non ricominciamo per favore con le favole del "con i prossimi driver/directX migliorerà", è una storia già vista e stravista, ricordiamo i casi eclatanti di nVidia 8600, ATI 2900 e Parhelia, ma anche la RX 480 dopo un anno va esattamente come un anno fa, non esistono driver miracolosi
Sono il primo a non credere ai driver miracolosi, ma ai miglioramenti si, e in casa AMD lavorano in genere bene (o magari non lavorano bene abbastanza per essere pronti all'uscita come in nVidia...ogni medaglia ha due facce). Nota che ho una MSI GTX 1060 Gaming X preferita proprio alla RX 480 per i decibel in meno.
In ogni caso la RX 480 dopo un anno non va uguale.
Ecco il test con di driver di Luglio 2016 e Dicembre 2016 fatto da hardwarecanucks: http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/73945-gtx-1060-vs-rx-480-updated-review-23.html.
I driver AMD hanno recuperato lo svantaggio nei titoli DX 11 e incrementato quello in DX12, mentre nvidia ha praticamente migliorato solo i bench sintetici
E non ricominciamo per favore con le favole del "con i prossimi driver/directX migliorerà", è una storia già vista e stravista, ricordiamo i casi eclatanti di nVidia 8600, ATI 2900 e Parhelia, ma anche la RX 480 dopo un anno va esattamente come un anno fa, non esistono driver miracolosi
Strano, non concordo perché io ho la RX 460 dall'uscita e fino ad ora i miglioramenti li ho visti eccome
e con Vega non sarà da meno essendo anche che ci sono alcune funzionalità non ancora attive lato driver ma che lo saranno presto, e anche considerano che è una rivisitazione profonda d GCN, con i driver migliorerà eccome
ma se prendessi una furyX e gli mettessi le memorie nuove, avrei le stesse prestazioni di una vega o sbaglio?? e quasi piu' di un anno, per assemblare qualcosa che gia' avevano? mha!
ma se prendessi una furyX e gli mettessi le memorie nuove, avrei le stesse prestazioni di una vega o sbaglio?? e quasi piu' di un anno, per assemblare qualcosa che gia' avevano? mha!
Spero tu stia scherzando :/
sintopatataelettronica
14-08-2017, 22:57
570 e 580 stanno andando benissimo e non solo per via del mining: anche molti giocatori le cercano.
Sì.. le cercano MA senza trovarle. Che non mi pare un dettaglio da poco.
Infatti alla fine se a settembre non è cambiato qualcosa sarò costretto mio malgrado (visto che preferirei dare i soldi a AMD ..ma ormai mi serve, da mesi uso un rimpiazzo obsoleto) a pensare a una gtx 1060 (i cui prezzi non si sono ancora riassestati del tutto da quando è partita la corsa al mining.. ma almeno c'è più disponibilità negli shop e probabilmente, anche essendo meno adatte a minare, magari qualcosa non a prezzi da usura a settembre si troverà.. senno' boh.. :cry: )
Sì.. le cercano MA senza trovarle. Che non mi pare un dettaglio da poco.
Infatti alla fine se a settembre non è cambiato qualcosa sarò costretto mio malgrado (visto che preferirei dare i soldi a AMD ..ma ormai mi serve, da mesi uso un rimpiazzo obsoleto) a pensare a una gtx 1060 (i cui prezzi non si sono ancora riassestati del tutto da quando è partita la corsa al mining.. ma almeno c'è più disponibilità negli shop e probabilmente, anche essendo meno adatte a minare, magari qualcosa non a prezzi da usura a settembre si troverà.. senno' boh.. :cry: )
Volevo solo fosse chiaro che AMD non è certo da dare come spacciata in ambito schede grafiche. L'utente a cui ho risposto ha detto che 570/580 le cercano solo gli utenti ai quali piace farsi prendere in giro, non vorrei dire..
Non fosse per la "piaga" mining, sarebbero schede best buy per molti. Dopodichè, sicuramente ad AMD non spiace venderle anche per altri motivi.
H.D. Lion
14-08-2017, 23:52
A proposito delle schede video custom vorrei segnalare il seguente link:
https://videocardz.com/71488/all-vega-based-graphics-cards-released-today
Cosa ne pensate?
sintopatataelettronica
15-08-2017, 00:17
L'utente a cui ho risposto ha detto che 570/580 le cercano solo gli utenti ai quali piace farsi prendere in giro, non vorrei dire..
Ma tanto se uno afferma una cosa del genere puoi dirgli tutto quel che vuoi, ma continuerà a ripeterlo all'infinito lo stesso.
Mi ricordo quegli utenti che dopo i primi test di Ryzen che mostravano che cavolo di gioiello avesse tirato fuori AMD, finalmente, scrivevano: "l'ennesimo fail" lo stesso :D
O quelli che adesso pontificano su quanto è triste e deludente Threadripper perché INTEL sta per buttar fuori l' i-n-c-r-e-d-i-b-i-l-e i9-7980XE :sofico: :D
Non fosse per la "piaga" mining, sarebbero schede best buy per molti.
Ancora mi mangio le mani per non aver ordinato, ad aprile, quella RX580 8 GB a 259,90 euro su Amazon.. dicendomi "è appena uscita, basta un po' di pazienza e fra 2 o 3 settimane la trovo ad altri 10-20 euro in meno" :doh:
kliffoth
15-08-2017, 00:55
Seriously: per quale sarcapuffo di motivo dovrei voler preferire una 1080 a Vega, a parità di prezzo???
Perchè la 1080 è più silenziosa.
Inoltre alla fin fine Vega può implementare tutte le nuove tecnologie che vuoi, ma va come va (ovvero bene, cioè in linea con la concorrenza, non meglio come invece l'uso di tante tecnologie avrebbe lasciato supporre).
Molto probabilmente Vega invecchierà meglio di Pascal, ma la cosa lascia il tempo che trova, perchè la 1080 sarà sempre alle calcagna, e poi in ottica di investimento futuro e per chi non deve comprare oggi, val la pena aspettare le nuove proposte di nVidia e AMD
Gravedigger-TD
15-08-2017, 03:52
Le vega 56 mi sembrano carucce. Anzi, condiderando i prezzi dei monitor Freesync vs G-Sync caruccissime.
Come preannunciato, prestazioni non eccezionali e consumi esagerati. :(
Io speravo molto in Vega sopratutto per la questione Freesync, (dato il G-Sync se lo fanno pagare troppo e di conseguenza la scelta di moidelli monitor si riduce parecchio) ma ancora non ci siamo.
Certo proprio per questo anche io ora come ora sceglierei Vega piuttosto 1070/1080, ma di certo non rinuncerei a quel 25/30% in più che mi più dare una 1080ti.
Ma sarei curioso anche di sapere come funzionano due Vega in CrossFire, più che altro per il mio amico che ha preso il monitor 32'' 1440p@144hz freesync uguale al mio e vorrebbe upgradare il suo attuale SLI di 970.
Qualche altro sito le ha testate?
Il problema sarà anche che con questo TDP scalderanno parecchio, (per questo sarebbero meglio le liquid, ma se costano quasi quanto una 1080ti non hanno molto senso)
P.S. Ma a quanto leggo anche il supporto Cf sulle VEGA non sarà una cosa su cui punteranno molto... (https://www.techpowerup.com/235699/amd-giving-up-on-crossfire-with-rx-vega) :doh:
Ma purtroppo anche con nVidia la situaizone SLI non è poi molto diversa... :(
Luca1980
15-08-2017, 06:28
Motivi intelligenti per preferire la 1080/1070 a Vega ce ne sono? AMD dalla sua ha:
+ freesync (150-200 euro in meno sul costo del monitor) che francamente è praticamente irrinunciabile se ti fai un pc di fascia medio-alta e ne capisci qualcosa di tecnologia; anche gsync è valido, ma costa molto caro.
Veramente esiste il Fast sync, anche se nessuno lo nomina mai, che riesce a fare un buon lavoro a vsync disattivato (no tearing, no input lag dovuto a triple buffering).
Ho provato un monitor GSync (che non ho acquistato per non "sposarmi" con nVidia) ma francamente non ne sento la mancanza. L'unico vantaggio sarebbe scendere sotto i 60 Hz con i simulatori di volo, se AMD continua così per un'altra generazione mi faccio un 27" Gsync.
Davirock
15-08-2017, 07:52
Forse la speranza di molti di noi era vedere una scheda in grado di fare quello che Ryzen ha fatto in ambito CPU.
A me queste schede comunque non dispiacciono. Sono un qualcosa in più sul mercato con un prezzo (ora solo sulla carta) che le posiziona correttamente.
Il problema della rumorosità a mio parere non si pone per ora... pochi di noi comprerebbero una scheda non custom. Vediamo cosa succede a settembre con le schede dei partner. Quindi il giudizio è rimandato.
I consumi invece sono alti e su questo non si può dir niente.
Forse la mia considerazione è errata ma sinceramente mi sembra che AMD abbia portato avanti una strategia simile a quella che ha portato alla nascita delle CPU Ryzen ma in particolare dell'architettura ZEN: ovvero un prgetto declinabile in mille modi, dal consumer da supermercato (Ryzen 3 e a breve APU), a quelle più performati Ryzen 5 e 7, High performance WS con threadreaper fino a server con Epyc.
Qui si è cercata un'architettura da declinare ovunque. Se si vanno a vedere i test su applicativi dedicati la Frontier Edition (1000 dollari, per workstation) offre orestazioni talora superiori alle Quadro dal prezzo doppio o addirittura triplo. Il problema è che questa architettura si declina nel gaming come molti avrebbero sperato.
Resta il fatto che è una architettura con molte frecce al suo arco, non ancora esplorate (ne da driver e nemmeno da programmatori) che magari non farà guadagnare molto in performance con i futuri driver, ma che almeno sembra (Sembra, NESSUNO VEDE IL FUTURO) possa garantire una discreta longevità vista anche la estesa compatibilità con DX12.
La precedente generazione (fiji) ha mostrato come in DX12 continui comunque a "tener botta".
Secondo me se qualcuno si deve dedicare all'acquisto della sola scheda video ora deve molto orientarsi anche al monitor che ha in possesso. con gli LCD quella risoluzione hai e quella ti tieni.
Personalmente ho un 1440p (Asus MG279Q) con freesync. Quindi in qualche modo sei legato ad AMD e a quella risoluzione queste schede si comportano comunque bene, ad un prezzo umano. Chi va di 4k deve fare scelte differenti. Chi è a 1080 senza G o freesync... beh, risparmia comunque!
D
Luca1980
15-08-2017, 09:24
Il fatto è che il discorso longevità vale per quegli utenti che tengono la stessa configurazione per almeno 3-4 anni, e tipicamente sono utenti da fascia media, non alta.
Chi punta alla fascia alta non si accontenta di "tener botta", compra il meglio del momento e vuole sempre 100+ fps specie quando gioca online, quindi nell'arco di 1-2 anni si trova comunque a cambiare GPU con le nuove uscite.
Chi era disposto a spendere più di 600 euro ha preso già la 1080 nel 2016 o la 1080 Ti a inizio 2017.
Vega 64 la potranno comprare solo quelli orientati alla fascia alta che però hanno aspettato più di un anno e sono disposti a preferire AMD nonostante prezzi e consumi più alti delle GTX 1080 (non voglio tirare in ballo quella parola che inizia con la f ma ci siamo capiti). Saranno tanti? Vedremo...
La 56 invece secondo me ha molto più senso nella fascia media.
Davirock
15-08-2017, 10:22
Il fatto è che il discorso longevità vale per quegli utenti che tengono la stessa configurazione per almeno 3-4 anni, e tipicamente sono utenti da fascia media, non alta.
Chi punta alla fascia alta non si accontenta di "tener botta", compra il meglio del momento e vuole sempre 100+ fps specie quando gioca online, quindi nell'arco di 1-2 anni si trova comunque a cambiare GPU con le nuove uscite.
Chi era disposto a spendere più di 600 euro ha preso già la 1080 nel 2016 o la 1080 Ti a inizio 2017.
Vega 64 la potranno comprare solo quelli orientati alla fascia alta che però hanno aspettato più di un anno e sono disposti a preferire AMD nonostante prezzi e consumi più alti delle GTX 1080 (non voglio tirare in ballo quella parola che inizia con la f ma ci siamo capiti). Saranno tanti? Vedremo...
La 56 invece secondo me ha molto più senso nella fascia media.
Si, il tuo discorso può andare anche se però, a mio parere, dipende molto anche da cosa hai già a disposizione.
Io con l'asus 1440p freesync andrei di Vega 56 o, con una spesa un poco superiore la Vega 64 e me la tengo per molto. Vale anche l'investimento per tempo. Ovvio che poi tra 3-4 anni la si vende ad un prezzo basso. 100 euro nell'arco di 3-4 anni non sono una follia
D
Ale55andr0
15-08-2017, 10:29
Hanno dedicato le risorse su Ryzen, è palese, Vega non ce la fa, non è al passo della concorrenza un anno e passa dopo.
Con i driver migliorerà ma ha ben altri problemi, i consumi sono allucinanti e senza tornaconto prestazionale il che è grave.
anche considerando ryzen e bla bla, non riuscire a scalare prestazioni con pp dimezzato, 500mhz in più e novità architetturali, sulla fury, è una roba abbastanza scandalosa. Il tutto con un mattone + hbm2.
Veramente esiste il Fast sync, anche se nessuno lo nomina mai, che riesce a fare un buon lavoro a vsync disattivato (no tearing, no input lag dovuto a triple buffering).
Ho provato un monitor GSync (che non ho acquistato per non "sposarmi" con nVidia) ma francamente non ne sento la mancanza. L'unico vantaggio sarebbe scendere sotto i 60 Hz con i simulatori di volo, se AMD continua così per un'altra generazione mi faccio un 27" Gsync.
premesso che per me il fast sync è una manna, con vega non hanno introdotto una funzione equivalente?
mi sembra di averne letto qualcosa in giro, se funziona al pari del fast sync credo persista la competitività con le equivalenti nvidia anche fuori dalla questione freesync/g-sync, anche se sono comunque convinto che rimanga la 56 quella meglio riuscita per chi altrimenti punterebbe una 1070 - al di la del fatto che questa sia disponibile da oltre 1 anno.
Ale55andr0
15-08-2017, 10:33
570 e 580 stanno andando benissimo e non solo per via del mining: anche molti giocatori le cercano. Il fail commerciale di Vega mi pare un po' presto per annunciarlo e sotto gli altri aspetti fail non è. Fail sarà stato quello delle HD 2900 XT e magari anche quello delle GTX 480, piuttosto, dato che rasentavano l'indifendibile.
va meno e consuma di più della top rivale e se la gioca con un chippetto da 300mm2 senza emmorie marziane ecc...la 480 peraltro andava più forte della top rivale almeno
A consumi la 56 si scontra con la 1080ti, della 64 non ne parliamo.
Pare dual gpu.
Ignorando i consumi ed avendo un occhio di riguardo per dx12 e VR direi che si possano preferire alle verdi.
Riguardo ai "porting migliori dalle console con fp16", imho finiranno per lavorare di meno sui titoli per raggiungere lo stesso risultato. All'utente finale poco frega.
Deluso si, dopo un ANNO di hype speravo in qualcosina di più.
va meno e consuma di più della top rivale e se la gioca con un chippetto da 300mm2 senza emmorie marziane ecc...la 480 peraltro andava più forte della top rivale almeno
Mettiamola in quest'altro modo: non saranno i soliti "detentori della verità assoluta" a decretarne il fail o meno ;)
va meno e consuma di più della top rivale e se la gioca con un chippetto da 300mm2 senza emmorie marziane ecc...la 480 peraltro andava più forte della top rivale almeno
Penso che il discorso consumi su una GPU da game non sia così importante
Se uno gioca 100 W in più sono solo un dettaglio
Dopo aver visto schede da 500 W e schede con alimentatore esterno i 380 W ( totale del sistema ) della Vega 64 credo non siano affatto tanti
Il consumo è importante per una CPU perché consuma sempre, anche se la usi in un PC da ufficio e guardi la posta per 8 ore al giorno, anche se lo usi come server casalingo, su una GPU da gioco l' impatto sulla bolletta non è così importante.
La rumorosità può invece essere un problema ma per questo aspettiamo le schede di terze parti e lasciamo perdere le schede di riferimento che come sempre sono degli asciugacapelli
Quello che conta è il rapporto prezzo / prestazioni, chi cerca il top sempre e comunque andrà su nVidia, ma chi si "accontenta" di una 1080 o 1070 ha un' alternativa, il problema è vedere quale sarà lo street price
Direi che la scheda ha mostrato quanto ci si attendeva dopo la preview di qualche settimana fa.
Ribadisco la mia delusione, con un chip di quelle dimensioni e con quei consumi a mio parere l'obiettivo minimo era la 1080TI (rispetto alla quale oltretutto non sarebbe stata poi così in ritardo).
Per lo meno, consumi a parte, è stata ben piazzata come prezzo e tutto sommato è un acquisto interessante.
Meno felice sarà AMD che con un chip del genere avrebbe dovuto poterlo vendere a cifre superiori, a meno che non recuperi qualcosa con un costo per wafer particolarmente conveniente (chi stampa i chip, glofo?).
Non si parla dei consumi in idle con più monitor, da un bel po' di tempo tallone d'Achille delle soluzioni Radeon: per caso qualcuno ha informazioni in merito?
Free Gordon
15-08-2017, 12:51
Oltre un anno di ritardo per agganciare la GTX 1080 (che di fatto monta un chip mid-range), è un fail.
Le FuryX furono considerate un fail (e commercialmente lo furono) ma almeno andavano un sputo meno della 980Ti, queste Vega la 1080Ti la vedono solo col cannocchiale, e Volta è dietro l'angolo.
Almeno AMD non ha toppato con i Threadripper, ma lato gpu Nvidia ancora non ha vera concorrenza.
Fury X sta alla pari con la 980Ti reference. Price/performance (ma anche come consumi) è una buona scheda.
La concorrenza di 1070 e 1080 sono Vega56 e Vega64 e mi pare che riescano benissimo nel loro intento.
Si può vedere anche così. Senza timore di smentita... :)
nickname88
15-08-2017, 13:27
va meno e consuma di più della top rivale e se la gioca con un chippetto da 300mm2 senza emmorie marziane ecc...la 480 peraltro andava più forte della top rivale almenoE' ciò che affermai io tempo addietro e tutti a dirmi che Vega era un architettura diversa, mentre invece il rapporto performance / watt è uguale alla RX480, pari pari.
Ha più frequenza, ma come feci notare io tempo fa ha anche meno del doppio degli stream processor rispetto alla 480.
Fury X sta alla pari con la 980Ti reference. Price/performance (ma anche come consumi) è una buona scheda.
La concorrenza di 1070 e 1080 sono Vega56 e Vega64 e mi pare che riescano benissimo nel loro intento.
Si può vedere anche così. Senza timore di smentita... :)Fury X ( come anche questa serie ) infatti fu un fail, pesante ritardo per poi eguagliare con peggior rapporto performance / watt le controparti Nvidia che erano uscite un pezzo prima e più efficienti. Se si esce con ritardi del genere, l'obbiettivo minimo sindacale è la leadership prestazionale o un netto vantaggio sul prezzo a parità di performance, come han fatto con Ryzen 7 nei confronti degli Intel LGA2066.
Inutile il confronto di prezzi, è uscita 1 anno e 3 mesi dopo !!!
Chi voleva una scheda di fascia alta l'ha già comperata, e di certo non la cambierà con queste.
Quindi il prezzo favorevole o meno va a farsi benedire, l'anno in più di fruibilità ludica che han dato le Nvidia non verrà di certo ripagato.
Free Gordon
15-08-2017, 13:32
E' ciò che affermai io tempo addietro e tutti a dirmi che Vega era un architettura diversa, mentre invece il rapporto performance / watt è uguale alla RX480, pari pari.
Ha più frequenza, ma come feci notare io tempo fa ha anche meno del doppio degli stream processor rispetto alla 480.
Come fai a dire questo? Porta dei dati.
Free Gordon
15-08-2017, 13:39
Fury X infatti fu un fail, pesante ritardo per poi eguagliare con peggior rapporto performance / watt le controparti Nvidia che erano uscite un pezzo prima e più efficienti. Queste fan la stessa cosa ma in maniera amplificata per quel che riguarda gli aspetti negativi.
Hai il fail nel cervello, ho capito.. :asd:
980Ti e Fury X sono uscite entrambe a Giugno 2015...
TitanX era uscita 3 mesi prima (nella fascia di prezzo per gli sceicchi :asd: )
La memoria ti fa cilecca... ;)
Inutile il confronto di prezzi, è uscita 1 anno e 3 mesi dopo !!!
Chi voleva una scheda di fascia alta l'ha già comperata, e di certo non la cambierà con queste.
Quindi il prezzo favorevole o meno va a farsi benedire, l'anno in più di fruibilità ludica che han dato le Nvidia non si battono.
Eh..? :fagiano:
Cioè il mercato per le 1070 e 1080 è esaurito? :asd:
Mi chiedo perché le vendano ancora a questo punto... valla a capire Nvidia. :D
Queste schede sono appaiate con 1070 e 1080 price/performance. ;)
Con vantaggi e svantaggi da entrambe le parti...
Non hai la verità assoluta in tasca.. ;)
ilbarabba
15-08-2017, 14:29
Non ci posso credere ci sia gente che tenta di difendere queste merde.
Costano come le controparti nVidia, scaldano di più, consumano di più, sono più rumorose, arrivano con un ritardo di oltre un anno e soprattutto vanno meno.
Siamo alla follia.
tuttodigitale
15-08-2017, 14:31
Il grafico riportato usa per 1070 e 1080 i i prezzi di uscita di un anno fa, lo street price odierno è decisamente più basso
Forse ti sei dimenticato che il listino in Europa era di 789 euro per la 1080....
quando è uscita la "ti" che il prezzo è calato in modo drastico.
http://techreport.com/r.x/gtx1070review/fpsperdollar.png
situazione 21 luglio 2016
http://techreport.com/r.x/2017_08_13_AMD_s_Radeon_RX_Vega_64_and_RX_Vega_56_graphics_cards_reviewed/FPSValue.png
situazione 15 agosto 2017
E non ricominciamo per favore con le favole del "con i prossimi driver/directX migliorerà", è una storia già vista e stravista, ricordiamo i casi eclatanti di nVidia 8600, ATI 2900 e Parhelia, ma anche la RX 480 dopo un anno va esattamente come un anno fa, non esistono driver miracolosi
Abbiamo la certezza, che i primitive shader non sono attivi , mentre esistono forti dubbi al momento se lo sia il DSBR, disabilitato sulle FE. Entrambe le caratteristiche sono gestite dai driver e quindi non necessitano di una programmazione ad hoc, o almeno così scrive computerbase.
Non esistono driver miracolosi....devo forse ricordati che in 6 mesi, e con tutte le feature attive, Pitacairn ha guadagnato oltre il 20% di prestazioni?
tuttodigitale
15-08-2017, 14:49
E' ciò che affermai io tempo addietro e tutti a dirmi che Vega era un architettura diversa, mentre invece il rapporto performance / watt è uguale alla RX480, pari pari.
Ha più frequenza, ma come feci notare io tempo fa ha anche meno del doppio degli stream processor rispetto alla 480.
ma ometti il fatto che impostando la modalità a risparmio energetico, il calo di prestazione è minimo (4%), mentre il consumo si riduce del 35-40%.
VEGA è un architettura diversa....perchè se partiamo dal presupposto che deve cambiare tutto, possiamo benissimo scrivere che Skylake è un pentium Pro, e che Ryzen è spiccicato a bulldozer.
l'architettura di AMD pare non beneficiare troppo degli shader aggiuntivi (vedi confronto rx460 (896sp) vs rx560 (1024sp):
http://www.gamersnexus.net/hwreviews/2908-sapphire-rx-560-pulse-oc-review-vs-gtx-1050/page-4
Fury X sta alla pari con la 980Ti reference. Price/performance (ma anche come consumi) è una buona scheda.
La concorrenza di 1070 e 1080 sono Vega56 e Vega64 e mi pare che riescano benissimo nel loro intento.
Si può vedere anche così. Senza timore di smentita... :)
Le Vega sono un fail nettamente più clamoroso delle FuryX sul piano pratico, su quello commerciale ovviamente è ancora da vedere.
Vega 64, la top di gamma, in particolare, è un disastro:
-un anno e 3 mesi dopo la concorrenza
-costa parecchio più della GTX1080, in certi paesi EU sfiora i 200 euro in più
-ha bisogno di stare in modalità turbo per agganciare la GTX1080, altrimenti sta dietro senza se e senza ma
-consuma in media oltre 100w in più della GTX1080
-ha un chippone tale da sembrare quasi una dual gpu e monta costose memorie HBM2, eppure arranca dietro un chippino mid-range che monta memorie GDDR5X
-al contrario della sorella maggiore FuryX, non entra nemmeno nell'orbita della GTX 1080Ti, quando almeno la precedente stava dietro la 980Ti di un soffio
E c'è gente come te che viene a difendere questa roba dicendo "Senza timore di smentita"... ma per favore
nickname88
15-08-2017, 17:26
Come fai a dire questo? Porta dei dati.
Data alla mano :
https://tpucdn.com/reviews/AMD/Radeon_RX_Vega_64/images/perfwatt_2560_1440.png
Con la modalità balanced è allineata alla proposta RX480
Con la modalità Turbo è allineata alla proposta RX580
In pratica pari a Polaris.
Hai il fail nel cervello, ho capito.. :asd:
980Ti e Fury X sono uscite entrambe a Giugno 2015...
TitanX era uscita 3 mesi prima (nella fascia di prezzo per gli sceicchi :asd: )
La memoria ti fa cilecca... ;)La FuryX me la ricordo molto bene, era il prodotto che AMD aveva descritto come prossimo ad essere il nuovo riferimento assoluto fra i prodotti in commercio, e invece è uscita 1 mese dopo rispetto alla 980Ti ( una a inizio e l'altra alla fine del mese ) andava meno e consumava di più rispetto a quest'ultima, senza contare il mattonazzo con la quale veniva rifilata, inaccettabile.
E all'epoca non era manco così conveniente come prezzo.
Premesso che, non sono fan di AMD ne di Nvidia, sono fan del mio portafoglio.
Non capisco chi commenta con "AMD ennesimo fail" e cose del genere quando:
1) la 1080 ha con se una maturità nei driver di un anno e oltre
2) AMD propone un qualcosa che GRAZIE ALL'ONNIPOTENTE crea concorrenza per chi può spendere si, ma non può 800€ per fare spara spara al pc, contribuendo ad abbassare i prezzi della fascia delle 400€ almeno con vega56
3) se si considera che AMD storicamente migliora di più con l'ottimizzazione dei driver nel tempo.
Ora ripeto, va bene essere fanboy, ma davvero avete bisogno di convincere il mondo che la vostra "preferita" sia migliore? :mc:
Obiettività.....dove sei finita?!
Da questo articolo la 64 ne esce sconfitta un pò dappertutto, anche per colpa del calore e dai consumi che non ne giustificano i numeri, ma non mi spiego come mai altre testate internazionali abbiano mostrato numeri e performance molto più rassicuranti.
Purtroppo è ancora presto per tirare le somme, ma se via via le nuove tecnologie messe a disposizione da questa vga venissero sfruttate e con un ritocchino sui driver si recupera ancora qualcosa per andare a dar fastidio non solo alla 1080 ma anche alla 1080ti forse allora i consumi ed il calore si potranno accettare.
Naturalmente tutto si gioca sul prezzo, finché pagherò questa vga alla pari di una 1080 con consumi e calore maggiore non avrà molto senso.
Personalmente ero curioso di vederla perché dalla mia 480 8GB sono passato alla 1080 e volevo capire se avessi fatto bene a comprarla qualche mese fa, beh per ora sto bene cosi.
Saluti
ilbarabba
15-08-2017, 18:37
Premesso che, non sono fan di AMD ne di Nvidia, sono fan del mio portafoglio.
Non capisco chi commenta con "AMD ennesimo fail" e cose del genere quando:
1) la 1080 ha con se una maturità nei driver di un anno e oltre
2) AMD propone un qualcosa che GRAZIE ALL'ONNIPOTENTE crea concorrenza per chi può spendere si, ma non può 800€ per fare spara spara al pc, contribuendo ad abbassare i prezzi della fascia delle 400€ almeno con vega56
3) se si considera che AMD storicamente migliora di più con l'ottimizzazione dei driver nel tempo.
Ora ripeto, va bene essere fanboy, ma davvero avete bisogno di convincere il mondo che la vostra "preferita" sia migliore? :mc:
Obiettività.....dove sei finita?!
Tu non sei un fanboy AMD??? Ahahahah
1) ed è colpa di nvidia?
2) dove la vedi la concorrenza? Se andrà di lusso costerà uguale andando meno, consumando di più e scaldando di più. Chi la compra?
3) a parte che tutte le schede migliorano (pochissimo tra l'altro), io la compro oggi e la pago oggi. Voglio che sia decente oggi e non quando la concorrenza avrà fuori le 20x0
Rubberick
15-08-2017, 19:08
Premesso che non tutti gli acquirenti sono skillati nel prendere questo o quell'altro prodotto su scala globale si crea concorrenza. Non ai livelli di quello che sta succedendo in ambito processori, ma almeno si ribilanciano le quote di mercato e scendono i prezzi.
E' la solita storia, il fanboyismo da na parte o dall'altra è una menata.. se a parti invertite lo stesso l'avesse fatto nvidia per quanto mi riguarda sarebbe lo stesso.
Premesso che non tutti gli acquirenti sono skillati nel prendere questo o quell'altro prodotto su scala globale si crea concorrenza. Non ai livelli di quello che sta succedendo in ambito processori, ma almeno si ribilanciano le quote di mercato e scendono i prezzi.
E' la solita storia, il fanboyismo da na parte o dall'altra è una menata.. se a parti invertite lo stesso l'avesse fatto nvidia per quanto mi riguarda sarebbe lo stesso.
Non vado ne nei thread AMD ne nei thread NVidia a scrivere fail. Finchè gli utenti cercano di essere obiettivi a sottolineare pregi e difetti (magari informandosi leggendo più recensioni, se non addirittura comprando e provando con mano), ok, altrimenti possono anche risparmiarsi i loro dogmi. I loro interventi non danno alcun reale apporto al forum.
Amd si è giocata bene le sue carte imho, queste schede faranno la felicità dei miners.
Snickers
15-08-2017, 20:10
Io rivoglio la fascia media, quella della 4850 :stordita:
Vedendo come scala a livello di watt/prestazioni "in basso" penso si potrà vedere un bel successore di Polaris 10 a livello di efficienza ed è il chip che mi interessa di più (sono troppo vecchio per spendere 400 fichi per una vga) :sofico: :read: :help:
Del mining non ce ne frega una mazza, la serie 500 è la serie 400 rebrandizzata e overcloccata, porcheria per consumatori che amano farsi prendere in giro.
Qua si parla di Vega, quindi si presume di top di gamma. E il fail è evidente.
Mah, la 570 proprio rebrand della 470 non è... E visto che non mancano di features di rendering (librerie, etc...) e le prestazioni sono adeguate al prezzo (ammesso di trovarle da rivenditori onesti, ovvio, ma una volta finita la follia di ethereum i prezzi si abbasseranno come logica conseguenza della dinamica domanda/offerta), l'unico fail evidente che intravedo è il tuo post :mc:
Probabile, anche se al tempo stesso c'è qualcosa di strano. Se vega è una toppa perchè non hanno semplicemente cercato di realizzare un polaris più grosso? Ho il sospetto che il progetto non sia solo a basso budget ma proprio sotto le aspettative, perchè quel mattonazzo?
Vega non è una toppa e nemmeno a basso budget... Il chip "full" è pensato per altri ambiti rispetto al gaming... Poi il fatto che ci possano far soldi tramite gaming è un qualcosa in più... In ogni caso mi aspettavo anche io un "filo di più" al lancio (un 2-3% in più rispetto a quanto fatto vedere, o comunque meno svarioni in certi giochi, tipo gta o watch dogs).
Snickers
15-08-2017, 20:16
Eccoli i dati :
https://tpucdn.com/reviews/AMD/Radeon_RX_Vega_64/images/perfwatt_2560_1440.png
Con la modalità balanced è allineata alla proposta RX480
Con la modalità Turbo è allineata alla proposta RX580
In pratica pari a Polaris.
La FuryX me la ricordo molto bene, era il prodotto che AMD aveva descritto come prossimo ad essere il nuovo riferimento assoluto fra i prodotti in commercio, e invece è uscita 1 mese dopo rispetto alla 980Ti ( una a inizio e l'altra alla fine del mese ) andava meno e consumava di più rispetto a quest'ultima, senza contare il mattonazzo con la quale veniva rifilata, inaccettabile.
E all'epoca non era manco così conveniente come prezzo.
Ti dimentichi di una variabile però... Che tendenzialmente il rapporto performance/watt non è lineare, ma anzi, ha tendenzialmente un andamento logaritmico... Più vuoi alzare le performance, più solitamente ti servono proporzionalmente più watt...
Ecco perché non puoi affermare che Vega = a * Polaris, perché per ovvi motivi ai consumi di Polaris 10 sarà più efficiente, come è sempre stato per tutti i chip costruiti a questo mondo in queste fasce. :read:
Molto deludenti queste Vega,
soprattutto tenendo conto del fatto che Navi sarà poco più di un die-shrink a 7nm :O
Architettura non competitiva, esattamente come Bulldozer per le CPU.
Vedremo se nel 2020 avranno qualcosa di meglio,
come è successo per le CPU :cool:
https://s28.postimg.org/wd2vjifa1/20748025_1332183903557949_2060466171672034850_o.jpg (https://postimg.org/image/wd2vjifa1/)
https://s28.postimg.org/wd2vjifa1/20748025_1332183903557949_2060466171672034850_o.jpg (https://postimg.org/image/wd2vjifa1/)
:D :D :D :p
maxsin72
15-08-2017, 22:40
Purtroppo AMD non è riuscita a replicare, quanto fatto con Ryzen in ambito CPU, anche in ambito GPU con Vega. Purtroppo dubito che Vega 64 potrà essere ben accolta dal mercato consumando in full 150 W in più di una GTX 1080 e andando uguale. Pur se i prezzi, una volta assestati, dovessero essere inferiori di 100 euro vorrebbe dire per molti dover anche valutare se il proprio alimentatore è adeguato ad una scheda che richiede così tanta corrente ovvero 12 ampere in più sulla +12V rispetto a una gtx 1080. Per noi consumatori c'è solo da perdere perchè Nvdia di sicuro se la prenderà comoda e, prima di avere una scheda video intorno ai 400/500 euro, che riesca a gestire i 4K con un frame rate minimo di 60fps credo che ci vorrà parecchio tempo anche se Nvdia, con Volta, ha sicuramente già in mano la soluzione. Di sicuro però ne ritarderà il lancio e la farà pagare uno sproposito se AMD nel frattempo non riuscirà a migliorare le proprie proposte.
sintopatataelettronica
15-08-2017, 22:40
https://s28.postimg.org/wd2vjifa1/20748025_1332183903557949_2060466171672034850_o.jpg (https://postimg.org/image/wd2vjifa1/)
Ehehe.. gli manca solo un bel : "higher is better" per essere perfetto :D
Tu non sei un fanboy AMD??? Ahahahah
1) ed è colpa di nvidia?
2) dove la vedi la concorrenza? Se andrà di lusso costerà uguale andando meno, consumando di più e scaldando di più. Chi la compra?
3) a parte che tutte le schede migliorano (pochissimo tra l'altro), io la compro oggi e la pago oggi. Voglio che sia decente oggi e non quando la concorrenza avrà fuori le 20x0
vabbè
lol
NickNaylor
15-08-2017, 23:16
https://s28.postimg.org/wd2vjifa1/20748025_1332183903557949_2060466171672034850_o.jpg (https://postimg.org/image/wd2vjifa1/)
rotolo :asd:
Spider-Mans
15-08-2017, 23:24
Consuma un boato e va anche meno di una 1080 in vari giochi
Megafail
Portocala
15-08-2017, 23:53
Scusate ma sono impazziti? 150 euro in più?!!!!! https://www.trovaprezzi.it/prezzo_schede-grafiche_rx_vega.aspx
Io stavo pensando a prendere una RX 56 sui 400 euro ma a 100-150 euro in più non ci penso neanche!!!!
È chiaro e hai ragione che i prezzi non devono essere quelli, ma al momento sono gonfiati da un problema di disponibilità. Secondo me vedendo come sta evolvendo questa situazione, per avere un prezzo decente tocca attendere la commercializzazione in volumi e credo che il tutto non avverrà prima della fine del mese-inizio settembre.
ps: cmq quelli sono i prezzi riferiti alla 64. e dimostra anche che al momento la situazione è quella che ho descritto sopra.
sintopatataelettronica
16-08-2017, 05:56
Scenderanno quando arriveranno le custom a Settembre
Sempre che esploda (sarebbe ora) 'sta ridicola bolla del mining... e non se ne creino altre..
nickname88
16-08-2017, 09:24
Coff coff... a dire il vero, per full-hd e gaming in 2k AMD ha proposte superiori a nVIDIA: Polaris e Vega56 sono preferibili, non foss'altro che per il freesync. Ho capito il fanboysmo, ma è solo nel 4k che AMD non ce la fa.
Che è una nicchia di mercato, quella degli enthusiast che non badano a spese... 1200 euro di monitor e 800 di VGA liquidata non sono proprio per tutti, eh.
Per il 2K AMD è davanti ? Se pensi che per giocare come si deve a quella risoluzione sia sufficiente una 1070/56 ti sbagli.
A meno di non tenere dei compromessi con determinati titoli, il chè sarebbe imbarazzante spendere cifre del giocare con dettagli castrati o senza filtri.
AMD è davanti per quel che riguarda la fascia media, a parte la scarsa disponibilità delle RX580, i maggiori consumi e calore rispetto alla 1060.
Per il 2K AMD è davanti ? Se pensi che per giocare come si deve a quella risoluzione sia sufficiente una 1070/56 ti sbagli.
A meno di non tenere dei compromessi con determinati titoli, il chè sarebbe imbarazzante spendere cifre del giocare con dettagli castrati o senza filtri.
AMD è davanti per quel che riguarda la fascia media, a parte la scarsa disponibilità delle RX580 e i maggiori consumi e calore rispetto alla 1060.
Ci sto giocando con una Fury, senza compromesso alcuno :fagiano:
nickname88
16-08-2017, 09:30
Ci sto giocando con una Fury, senza compromesso alcuno :fagiano:
Io ho una 1080 e di giochi che la facevano scendere sotto i 60fps ne ho trovati.
Io ho una 1080 e di giochi che la facevano scendere sotto i 60fps ne ho trovati.
Può capitare che ci sia qualche rallentamento perchè i giochi non sono perfetti. In Hellblade ad esempio, in alcune parti e senza ragione alcuna, il framerate calava. Questo non toglie che per il 99% del tempo sia stato fluidissimo come in genere è in tutti i giochi, quindi non ne faccio assolutamente un dramma.
nickname88
16-08-2017, 09:46
Può capitare che ci sia qualche rallentamento perchè i giochi non sono perfetti. In Hellblade ad esempio, in alcune parti e senza ragione alcuna, il framerate calava. Questo non toglie che per il 99% del tempo sia stato fluidissimo come in genere è in tutti i giochi, quindi non ne faccio assolutamente un dramma.
Qualche rallentamento ???
- The Witcher 3 maxato a 1440p i 60fps costanti con "qualche rallentamento" li ho avuti io
- Wildland te li scordi su metà delle ore di gioco, di cali quì si può parlare con la mia 1080, ma non di certo con le fasce minori.
- Deus Ex ? Io non ci riesco nel modo più assoluto nemmeno a 1080p
- Whatch Dog 2 io riesco a giocarlo bene ma non ho margine, con la FuryX dovrai scalare per forza.
- Dishonored 2 riesco a giocarlo a 60 costanti solo con le ultime patch.
- Mass Effect Andromeda lo gioco bene dappertutto ma i cali non mancano.
Bisogna andare avanti ?
Le 1080Ti non sono di certo per il 4K, visto che sono ancora insufficienti, a parte i soliti discorsi del "oltre i 30fps non c'è differenza" o del "l'AA non serve in 4K".
Qualche rallentamento ???
The Witcher 3 maxato a 1440p i 60fps costanti te li scordi sia con la 1070 che con la FuryX.
Wildland te li scordi su metà delle ore di gioco, di cali quì si può parlare con la mia 1080 semmai, ma non di certo con le fasce minori.
Deus Ex ? Nemmeno per idea
Whatch Dog 2 ? Io riesco a giocarlo bene ma non c'è molto margine, con la FuryX non vai da nessuna parte se non scali.
Dishonored 2 io riesco a giocarlo a 60 costanti solo con le ultime patch, di certo non c'è abbastanza margine per modelli inferiori.
Mass Effect Andromeda ? Io lo gioco bene dappertutto, con una 1070 si hanno dei problemi su determinate mappe.
Bisogna andare avanti ?
Wildlands, Watch Dogs 2 e Mass Effect Andromeda, non li ho giocati, gli altri si e non ho avuto alcun problema, anzi ;)
nickname88
16-08-2017, 09:55
Wildlands, Watch Dogs 2 e Mass Effect Andromeda, non li ho giocati, gli altri si e non ho avuto alcun problema, anzi ;)
60fps maxati ? Basta vedere un qualsiasi filmato su youtube per vedere che non è possibile.
A meno che non hai un modo differente nel vedere le cose.
majinbu7
16-08-2017, 10:02
60fps maxati ? Basta vedere un qualsiasi filmato su youtube per vedere che non è possibile.
A meno che non hai un modo differente nel vedere le cose.
Magari è uno a cui basta giocare sopra i 30 fps , ma credo più al fatto che tolga vari effetti per tenere i 60 frame :D
Portocala
16-08-2017, 10:30
Bello "maxxare" ma serve veramente? Giocare su High da fastidio?
Mi basta sia fluido. Non sto lì a tenere i frame al secondo in bella vista. Ah, ho un monitor 75hz.
In the witcher tenevo hairworks a medio, per ragioni di fluidità appunto e l'anti aliasing un po' in tutti i giochi al minimo, tanto a quella risoluzione non se ne sente granché il bisogno. Eppure per me questi non sono compromessi, anzi ;) per il resto tutto maxato sempre e la fury è impeccabile, nonché una delle schede più soddisfacenti mai avute (e ne ho avute di schede..!).
nickname88
16-08-2017, 11:15
Maxare fa bene all'ego ma non all'occhio, il più delle volte le differenze fra High ed Ultra non sono facilmente percepibili neanche negli screenshot, figuriamoci mentre si è concentrati sul gioco.
Col freesync cmq non avresti tutti questi problemi, i minimi verrebbero compensati e buona lì, dovresti solo preoccuparti del framerate medio.
Accantonare scuse non serve, non si spendono cifra da 450€ in sù per poi scalare i giochi o giocare a basso frame rate. Io mi informo su quali siano le features buggate nei vari titoli, e le disabilito o le scalo, però generalmente parlando mi piace godermi il titolo al massimo.
Freesynch o Gsync allinea dinamicamente il refresh del monitor con la frequenza con cui la VGA produce i singoli frame eliminando il tearing, però così facendo si perde comunque una sincronizzazione omogenea sulla visualizzazione dei frames. Un valore di 60fps con vsync significa avere ogni frames distante 1.6ms l'un dall'altro, il refresh dinamico non permette di mantenere questa caratteristica.
nickname88
16-08-2017, 11:24
Mi basta sia fluido. Non sto lì a tenere i frame al secondo in bella vista. Ah, ho un monitor 75hz.
In the witcher tenevo hairworks a medio, per ragioni di fluidità appunto e l'anti aliasing un po' in tutti i giochi al minimo, tanto a quella risoluzione non se ne sente granché il bisogno. Eppure per me questi non sono compromessi, anzi ;) per il resto tutto maxato sempre e la fury è impeccabile, nonché una delle schede più soddisfacenti mai avute (e ne ho avute di schede..!).
Se ti accontenti o non noti determinati aspetti dell'immagine buon per te, ma la cosa però non vale per tutti e dire che con una FuryX non ci siano problemi a 1440p è puro eufemismo. A me la mia 1080 SC pare quasi il minimo sindacale.
Magari è uno a cui basta giocare sopra i 30 fps , ma credo più al fatto che tolga vari effetti per tenere i 60 frame :DPerfetto, buon per lui, ma allora è sbagliato dire che AMD è superiore per il 2K, lasciando intendere il modello Vega 56.
Con quel modello lì, driver maturi o meno a quella risoluzione qualche compromesso dovrai sempre farlo.
Se ti accontenti o non noti determinati aspetti dell'immagine buon per te, ma la cosa però non vale per tutti e dire che con una FuryX non ci siano problemi a 1440p è puro eufemismo. A me la mia 1080 SC pare quasi il minimo sindacale.
Perfetto, buon per lui, ma allora è sbagliato dire che AMD è superiore per il 2K, lasciando intendere il modello Vega 56.
Con quel modello lì, driver maturi o meno a quella risoluzione qualche compromesso dovrai sempre farlo.
Superiore, boh, non mi interessa. AMD se la cava alla grande in 2K e tanto basta. Non sono uno che "si accontenta" anche se gioco un po' a tutto, non concentrandomi prettamente sulla grafica. Cerco di giocare un gioco al meglio di quel che può dare, da diversi anni ormai.
Lo dico avendo avuto un po' tutte le schede video che sono state di rilievo: siano state esse 3Dfx, Matrox, S3, PowerVR, NVidia, ATi.. non parlo certo senza cognizione di causa ;)
Anche per questo non mi garba granchè leggere spesso contro AMD, quando poi ormai le differenze tra le varie schede sono davvero risicate, altro che i vecchi tempi :D
Free Gordon
16-08-2017, 12:29
Il problema è proprio quello... :D
I giochi per pc sono ottimizzati a partire dalle versioni console, sfruttando malissimo potenza e features in più.
Il che comporta pochissime differenze a livello visivo (tra il classico High e l'Ultra) a cui fa' però da contraltare un grande e inutile dispendio di potenza (e di denaro quindi.. :asd: ).
La vita dell'enthusiast è difficilissima :D
La cosa migliore (da molti anni), è comprare la fascia media, massimo medio/alta e tenere i dettagli tra il medio e il medio/alto.
Si va' avanti anni, si ha il 95% della grafica migliore possibile...e i framerate sono alti e lo stutter ridotto all'osso.
Se ora si accoppia anche un monitor freesync all'equazione, il quadro è completo e si vive felicissimi col minimo dispendio di denaro. :oink:
PS. se uno volesse proprio "esagerare" --> Vega56 + freesync e si vive felici per almeno 4 anni. Sennò una RX 570 8GB (al giusto prezzo, ora col mining è andato tutto a p.tt..ne) + freesync.
Che poi, facessimo tutti come suggeriscono di fare i soliti utenti "enthusiast", i quali spesso si ritengono superiori e più nobili degli altri, non crediate verrebbero ad essere finalmente contenti! Non potrebbero più vantarsi di avercelo più lungo e allora chissà cosa tirerebbero fuori :asd:
Nel frattempo continuo a chiedermi se se li godono veramente i giochi con la continua paura di un calo improvviso di frames :rolleyes:
Il problema è proprio quello... :D
I giochi per pc sono ottimizzati a partire dalle versioni console, sfruttando malissimo potenza e features in più.
Il che comporta pochissime differenze a livello visivo (tra il classico High e l'Ultra) a cui fa' però da contraltare un grande e inutile dispendio di potenza (e di denaro quindi.. :asd: ).
La vita dell'enthusiast è difficilissima :D
La cosa migliore (da molti anni), è comprare la fascia media, massimo medio/alta e tenere i dettagli tra il medio e il medio/alto.
Si va' avanti anni, si ha il 95% della grafica migliore possibile...e i framerate sono alti e lo stutter ridotto all'osso.
Se ora si accoppia anche un monitor freesync all'equazione, il quadro è completo e si vive felicissimi col minimo dispendio di denaro. :oink:
Io sono dello stesso avviso, però è anche vero che la fascia medio/alta cioè quella della GTX 1070 e della nuova RX Vega 56, hanno prezzi troppo alti. In alcuni casi si spendono cifre vicine ai 500 euro con cui prima prendevi le top di gamma (la 980 all'uscita costava sui 560 euro).
Si dovrebbe seguire l'esempio delle vecchie GTX 970 che erano ottime schede video vendute al giusto prezzo (330 euro al lancio) per quel che è la fascia medio/alta.
Oggi invece è andata a finire che la fascia media (GTX 1060 o RX 480/580) ti viene a costare quanto una medio/alta della generazione precedente, la medio/alta costa quanto la vecchia fascia alta, e la fascia alta ha superato ogni limite di decenza per quel che riguarda i prezzi delle schede video.
Free Gordon
16-08-2017, 12:42
Io sono dello stesso avviso, però è anche vero che la fascia medio/alta cioè quella della GTX 1070 e della nuova RX Vega 56, hanno prezzi troppo alti. In alcuni casi si spendono cifre vicine ai 500 euro con cui prima prendevi le top di gamma (la 980 all'uscita costava sui 560 euro).
Si dovrebbe seguire l'esempio delle vecchie GTX 970 che erano ottime schede video vendute al giusto prezzo (330 euro al lancio) per quel che è la fascia medio/alta.
Oggi invece è andata a finire che la fascia media (GTX 1060 o RX 480/580) ti viene a costare quanto una medio/alta della generazione precedente, la medio/alta costa quanto la vecchia fascia alta, e la fascia alta ha superato ogni limite di decenza per quel che riguarda i prezzi delle schede video.
certo, i prezzi ora son troppo alti. ma è "colpa" del mining.. ;)
Colpa del mining ora, prima però è da additare proprio NVidia che con Titan è andata a creare fasce di prestazioni/prezzo ancora più alte. Poi ovvio che le schede come le TI che si avvicinano fin troppo alle prestazioni della suddetta non te le vendono a 500€.
Colpa del mining ora, prima però è da additare proprio NVidia che con Titan è andata a creare fasce di prestazioni/prezzo ancora più alte. Poi ovvio che le schede come le TI che si avvicinano fin troppo alle prestazioni della suddetta non te le vendono a 500€.
Sicuramente Nvidia ci ha messo del suo, ma io credo che un'altro fattore sia la mancata concorrenza di AMD in quelle fasce.
Sono andato a vedere anche come erano i prezzi a novembre del 2013 e con 258 euro si prendeva una 770 che era la fascia media/alta dell'epoca.
Sicuramente Nvidia ci ha messo del suo, ma io credo che un'altro fattore sia la mancata concorrenza di AMD in quelle fasce.
Sono andato a vedere anche come erano i prezzi a novembre del 2013 e con 258 euro si prendeva una 770 che era la fascia media/alta dell'epoca.
Quelle fasce estreme, prima del 2013, non esistevano proprio.. Questo intendo.
Poi sinceramente non trovo che negli ultimi anni le schede di punta AMD siano state schede scarse.. Vogliamo dimenticare le 290X (anche se siamo nel periodo Titan), le 7970, le 6970, le 5870, le 4870/90?
Quelle fasce estreme, prima del 2013, non esistevano proprio.. Questo intendo.
Poi sinceramente non trovo che negli ultimi anni le schede di punta AMD siano state schede scarse.. Vogliamo dimenticare le 290X (anche se siamo nel periodo Titan), le 7970, le 6970, le 5870, le 4870/90?
Non ho detto questo, ma che in questa generazione è mancata la concorrenza nelle fasce medio/alta ed alta ed Nvidia ha potuto mettere le schede al prezzo che voleva per mancanza di concorrenza.
Nelle scorse generazioni, i prezzi erano normali in quelle fasce perchè AMD era presente con ottime schede, ma visto che ora è stata assente per 1 anno e 3 mesi ed ora si presenta con le risposte tardive che non sono nemmeno tanto convincenti, è normale che i prezzi sono sballati.
Sono mesi che vado predicando questa cosa ed a ben vedere non è solo il mining l'unico fenomeno che ha fatto lievitare i prezzi.
Era meglio per tutti se AMD presentava prima le Vega a pochi mesi di distanza dalle GTX 1070/1080, ma dopo 1 anno e 3 mesi non PUOI presentarti con delle schede che rivaleggiano con quelle presentate 1 anno e 3 mesi fa dalla rivale. Non so come fanno ad essere cosi compassionevoli e benevolenti con AMD dopo quanto ha fatto nel settore gpu. Non so se è una questione di fede incrollabile o isteria collettiva di massa (che in realtà sono
la stessa cosa).
Free Gordon
16-08-2017, 13:37
Colpa del mining ora, prima però è da additare proprio NVidia che con Titan è andata a creare fasce di prestazioni/prezzo ancora più alte. Poi ovvio che le schede come le TI che si avvicinano fin troppo alle prestazioni della suddetta non te le vendono a 500€.
certo, hanno cercato di guadagnare sempre di più nelle fasce medie...medio/alte.. ;)
Brava Nvidia dal canto suo.
Da Maxwell in poi ha fatto un ramping eccezionale...nulla da dire. :)
Kepler era un'architettura fallimentare rispetto a GCN.. ma è cmq riuscita a venderla bene. :asd: Ma questo dipende come ben sappiamo, dall'appeal che Nvidia riesce ad esercitare sul pubblico. :)
Non ho detto questo, ma che in questa generazione è mancata la concorrenza nelle fasce medio/alta ed alta ed Nvidia ha potuto mettere le schede al prezzo che voleva per mancanza di concorrenza.
Nelle scorse generazioni, i prezzi erano normali in quelle fasce perchè AMD era presente con ottime schede, ma visto che ora è stata assente per 1 anno e 3 mesi ed ora si presenta con le risposte tardive che non sono nemmeno tanto convincenti, è normale che i prezzi sono sballati.
Sono mesi che vado predicando questa cosa ed a ben vedere non è solo il mining l'unico fenomeno che ha fatto lievitare i prezzi.
Era meglio per tutti se AMD presentava prima le Vega a pochi mesi di distanza dalle GTX 1070/1080, ma dopo 1 anno e 3 mesi non PUOI presentarti con delle schede che rivaleggiano con quelle presentate 1 anno e 3 mesi fa dalla rivale. Non so come fanno ad essere cosi compassionevoli e benevolenti con AMD dopo quanto ha fatto nel settore gpu. Non so se è una questione di fede incrollabile o isteria collettiva di massa (che in realtà sono
la stessa cosa).
Che AMD non abbia una scheda da mettere sul piano della 1080 TI è l'unica cosa certa in tutto il thread e non posso che concordare. La fascia Titan nemmeno la considero. Riguardo al quando hanno fatto uscire queste schede, beh, assolutamente criticabile ma immagino che AMD abbia le sue ragioni e staremo a vedere. Nel frattempo, ribadisco, 580 e 570 non fosse per il mining sarebbero le best buy per i più. In un modo o nell'altro, in ogni caso, AMD vende.
nonifede
16-08-2017, 13:47
Attenzione ai prezzi reali... quelli indicati erano solo per gli early adopter.. 100$ in più per tutti gli altri...
http://wccftech.com/amds-rx-vega-64s-499-price-tag-was-a-launch-only-introductory-offer/
Free Gordon
16-08-2017, 13:51
Bello il nick
Che AMD non abbia una scheda da mettere sul piano della 1080 TI è l'unica cosa certa in tutto il thread e non posso che concordare. La fascia Titan nemmeno la considero. Riguardo al quando hanno fatto uscire queste schede, beh, assolutamente criticabile ma immagino che AMD abbia le sue ragioni e staremo a vedere. Nel frattempo, ribadisco, 580 e 570 non fosse per il mining sarebbero le best buy per i più. In un modo o nell'altro, in ogni caso, AMD vende.
Vende perchè ha avuto la botta di culo del fenomeno del mining, ma se non ci fosse stato quanto avrebbe venduto con una fascia media e bassa in condivisione con Nvidia e con una medio/alta alta fino ad oggi assente?
Non metto in dubbio che le RX 580 per quanto praticamente identiche alle 480, siano delle buone schede di fascia media con prezzi gonfiati dal fenomeno mining, ma tutto questo non basta.
AMD è palesemente in ritardo ed indietro rispetto ad Nvidia. Vorrei proprio sapere dove son finiti tutti gli sbandierati vantaggi delle costose HBM2, che sono uno dei motivi di questi colossali ritardi e dove son finiti quelli che le tiravano sempre in ballo? Ci vuole proprio coraggio nel difendere AMD per il disastro che ha combinato. Spero solo che questa sia la base su cui costruire un futuro più roseo, perchè non ci siamo proprio.
Non metto in dubbio che le RX 580 per quanto praticamente identiche alle 480, siano delle buone schede di fascia media con prezzi gonfiati dal fenomeno mining, ma tutto questo non basta.
In tanti le hanno ed in tantissimi le cercano ;)
https://s28.postimg.org/wd2vjifa1/20748025_1332183903557949_2060466171672034850_o.jpg (https://postimg.org/image/wd2vjifa1/):rotfl: :rotfl: :rotfl:
Schede gia' vecchie, uscite con drammatico ritardo, consumi anacronistici con Pascal praticamente gia' fuori. Peccato ma si sapeva.
Ma a proposito di mining questi risultati sono veri?
https://i.redd.it/mq3wfaegd3gz.png
Non sono pratico di mining, ma tali risultati se confermati renderebbero la vega 56 appetibile per i miners, con conseguenti prezzi incontrollati e disponibilità ridotte?
Ale55andr0
16-08-2017, 15:03
Penso che il discorso consumi su una GPU da game non sia così importante
Se uno gioca 100 W in più sono solo un dettaglio
Dopo aver visto schede da 500 W e schede con alimentatore esterno i 380 W ( totale del sistema ) della Vega 64 credo non siano affatto tanti
se ti fai 5-6 ore di fila come me, specialmente in sicilia con 30c° di ambiente iniziano a pesare. Io non li guardo generalmente, ma 100w in più per avere lo stesso iniziano a far storcere il naso, posto che in assoluto cio che conta per me è il rapporto prezzo prestazioni e il rumore
majinbu7
16-08-2017, 15:12
Che AMD non abbia una scheda da mettere sul piano della 1080 TI è l'unica cosa certa in tutto il thread e non posso che concordare. La fascia Titan nemmeno la considero. Riguardo al quando hanno fatto uscire queste schede, beh, assolutamente criticabile ma immagino che AMD abbia le sue ragioni e staremo a vedere. Nel frattempo, ribadisco, 580 e 570 non fosse per il mining sarebbero le best buy per i più. In un modo o nell'altro, in ogni caso, AMD vende.
L'altra cosa certa è il consumo ESAGERATO no sense, che ha vega 64 ;)
Ma a proposito di mining questi risultati sono veri?
https://i.redd.it/mq3wfaegd3gz.png
Non sono pratico di mining, ma tali risultati se confermati renderebbero la vega 56 appetibile per i miners, con conseguenti prezzi incontrollati e disponibilità ridotte?
Mi pare molto strano che la 56 mini più della 64
ps: bello vedere che la mia 390x mina più di vega con driver "standard".. .:O
A quanto posso sperare di venderla?! :stordita:
Ale55andr0
16-08-2017, 16:24
A quanto posso sperare di venderla?! :stordita:
se becchi il pollo giusto anche 300 :asd:
nickname88
16-08-2017, 17:04
Scuse? In WHQD (2560x1440) Vega 56 fa (fonte guru3d):
Battlefield 1 fa 107 fps un Ultra Quality DX12
Rise of the Tomb Raider fa 75 fps in Very High, Pure Hair On, HBAO+ attivato.
Deus Ex in High fa 65 (la 1080 ne fa 69)
Doom in Ultra con TSSAA 8x fa 122 fps.
Dishonored 2 in Ultra fa 53
The Witcher 3 fa 67 fps
Resident Evil 7 fa 79 fps
Prey son 96 fps
GTAV fa 81 fps
Sei veramente sicuro che sia una buona idea prendere una 1080 per giocare in 2k? Dishonored 2 è bello, non discuto, ma non è che in High sia meno bello che in Ultra eh. E non so voi ma io l'ho finito da un pezzo! :D
...dai, non sono scuse. Vega56 è una scheda eccezionale, specialmente in DX12, e può solo migliorare col tempo. A differenza di Pascal che può solo diventare Legacy.
Dovresti lasciar perdere i bench che girano in rete e concentrarti più sul frame rate in game.
https://www.youtube.com/watch?v=wbiWNs7qtXM
https://www.youtube.com/watch?v=7b4EOS_E8K8
https://www.youtube.com/watch?v=qzaQ4Un_Qjo
https://www.youtube.com/watch?v=7XgGVRciEsY
Non che mi dispiaccia farmi le pippe, specie in vostra compagnia, però io torno a godermi i giochi. La trovo un'attività più soddisfacente :asd:
nickname88
16-08-2017, 17:21
La cosa migliore (da molti anni), è comprare la fascia media, massimo medio/alta e tenere i dettagli tra il medio e il medio/alto.
Allora tanto vale passare ad una console se proprio giochi a questi livelli grafici ?
Allora tanto vale passare a PS4 Pro, che ci fai su PC ancora ?
Scusa se faccio l'avvocato difensore, ma a te che importa? :asd:
Deve rendere conto a te per come gioca su pc e perchè lo fa? :asd:
nickname88
16-08-2017, 23:51
http://www.guru3d.com/articles_pages/amd_radeon_rx_vega_56_8gb_review,26.html
I bench che ho citato vengono tutti da qui.
Su youtube si trova tutto e il contrario di tutto, è come wikipedia. Va bene per farsi un'idea, non per sapere come stanno le cose davvero.
Quindi i gameplay su youtube sono falsi, bene.
Io che ho giocato a Deus ex e che ti sto dicendo che in molte locations i 60fps non li tenevo nemmeno per idea dico il falso anche io.
Intanto hardwarecanucks dice tutt'altro :
http://images.hardwarecanucks.com/image//skymtl/GPU/RXVEGA/RXVEGA-32.jpg
http://images.hardwarecanucks.com/image//skymtl/GPU/RXVEGA/RXVEGA-37.jpg
http://images.hardwarecanucks.com/image//skymtl/GPU/RXVEGA/RXVEGA-43.jpg
nickname88
17-08-2017, 07:26
Forse avresti dovuto impostarlo come nei bench di guru3d allora... visivamente non avresti notato grosse differenze, ma avresti potuto giocare senza drop di framerate.
Maxare è più facile, non discuto, ma comprare hardware capace di tenere i minimi al di sopra dei 60 fps sempre e comunque, per poi impostare vsync a castrarlo il 90% del tempo è molto lontano dall'esperienza ottimale.
E' per questo che l'adaptive sync è così importante in una gaming build moderna.Si vabbè, mai passato di mente che i titoli senza bench siano testati solo attraverso un recording su una singola location, quindi non rispecchianti affatto le performance dell'intero titolo ? Anzi di solito scelgono gli scenari più leggeri.
Guarda che su guru3d le impostazioni sono impostati quasi tutti al massimo, come in altri portali.
Per il resto del discorso il vsync è l'unica feature che garantisce una visualizzazione lineare dei frames, l'input lag non ha nulla a che fare con la fluidità delle animazioni.
majinbu7
17-08-2017, 09:58
Per me Guru3d mette i frame massimi spacciandoli per medi, trovi mille mila altri bench in rete che somigliano più ai bench di hardwarecanucks
nickname88
17-08-2017, 10:03
Per me Guru3d mette i frame massimi spacciandoli per medi, trovi mille mila altri bench in rete che somigliano più ai bench di hardwarecanucks
Infatti.
Probabilmente non accettano la realtà dei fatti.
Free Gordon
17-08-2017, 10:26
L'altra cosa certa è il consumo ESAGERATO no sense, che ha vega 64 ;)
https://tpucdn.com/reviews/AMD/Radeon_RX_Vega_64/images/power_average.png
214W ;)
Le prestazioni bene o male sono quelle (ricordiamoci sempre che i driver attuali sono degli alpha praticamente :asd: ) e il consumo medio non è così alto.
L'errore che hanno fatto è far testare ai giornali altri power setting INUTILI e DANNOSI. :D
nickname88
17-08-2017, 10:32
https://tpucdn.com/reviews/AMD/Radeon_RX_Vega_64/images/power_average.png
214W ;)
Le prestazioni bene o male sono quelle (ricordiamoci sempre che i driver attuali sono degli alpha praticamente :asd: ) e il consumo medio non è così alto.
L'errore che hanno fatto è far testare ai giornali altri power setting INUTILI e DANNOSI. :D
214W in modalità "power save", 292W invece in modalità bilanciata e addirittura 316W con profilo turbo.
E la sua controparte sta a 166W, pensa te, quasi la metà.
Penso sia la scheda single chip più esosa in termini energetici mai realizzata per desktop.
Free Gordon
17-08-2017, 10:34
Allora tanto vale passare a PS4 Pro, che ci fai su PC ancora ?
Perché dovrei comprarmi una console, se ho un pc? :asd:
Free Gordon
17-08-2017, 10:39
No no, 214W in modalità "power save" !!! 292W invece in modalità bilanciata e addirittura 316W quando è al top, non a caso occupano tutto il podio del fondo della comparativa.
E la sua controparte sta a 166W, pensa te, quasi la metà.
Era proprio ciò che intendevo..., a 214W ha il 96% delle performance del profilo con 100W in più. :)
Non ha alcun senso. :asd:
https://tpucdn.com/reviews/AMD/Radeon_RX_Vega_64/images/perfrel_2560_1440.png
E' evidente l'errore...ed era facile che portasse a conclusioni come la tua, se uno non analizza la situazione attentamente.. :)
Tra l'altro, come dicevo, è molto facile recuperare quel 4% sulla 1080 con future release di drivers.. ;)
ma sarà impossibile levarvi dalla testa che Vega consumi uno sproposito.. :asd:
Sono dei geni.. :asd:
nickname88
17-08-2017, 10:41
Perché dovrei comprarmi una console, se ho un pc? :asd:
Chi cerca il PC come piattaforma lo fa per avere un livello visivo superiore a quello offerto alla massa dalle console, se ti accontenti di livelli qualitativi bassi, che senso ha sbattersi su PC ?
Solo per il mouse e la tastiera ? :rolleyes:
nickname88
17-08-2017, 10:53
Tra l'altro, come dicevo, è molto facile recuperare quel 4% sulla 1080 con future release di drivers.. ;)
Dopo 1 anno e un quarto di ritardo è il minimo.
Era proprio ciò che intendevo..., a 214W ha il 96% delle performance del profilo con 100W in più. :)
Non ha alcun senso. :asd: Non ha alcun senso ma evidenzia un aspetto negativo, ossia che all'aumentare della frequenza le performance rimangono quasi stagnanti, il chè non è un bene in ottica custom.
/OT, scusate non resisto
Chi cerca il PC come piattaforma lo fa per avere un livello visivo superiore a quello offerto alla massa dalle console, se ti accontenti di livelli qualitativi bassi, che senso ha sbattersi su PC ?
Solo per il mouse e la tastiera ? :rolleyes:
Scusa se te lo dico così ma che minchiata stratosferica che hai detto! :sofico:
Come ci gioco a starcraft sulla console? E a FTL? E a Dota? Nessuno di questi giochi brilla per grafica (anzi...) eppure sono tutti solo su PC. Dovrebbero farli solo per console?
Il tuo si chiama integralismo, fatti due domande e magari datti due risposte. TU giochi su PC per il livello visivo, io gioco per divertirmi.
Saluti
nickname88
17-08-2017, 11:06
Scusa se te lo dico così ma che minchiata stratosferica che hai detto! :sofico:
Come ci gioco a starcraft sulla console? E a FTL? E a Dota? Nessuno di questi giochi brilla per grafica (anzi...) eppure sono tutti solo su PC. Dovrebbero farli solo per console?
Quelli citati da te sono titoli che non han bisogno di una macchina da gaming.
Altri RTS invece oramai ci sono pure per console.
Motivazioni oltre alla grafica che giustificano l'uso di una macchina da gaming ci sono certo, ma non le vedo nell'utente in questione.
sintopatataelettronica
17-08-2017, 11:28
Motivazioni oltre alla grafica che giustificano l'uso di una macchina da gaming ci sono certo, semplicemente non le vedo in Free Gordon.
Stai dicendo un'eresia: perché, a prescindere dal maxare i dettagli o meno, la grafica su PC sarà sempre migliore (anche solo dal punto delle performance) che su una console, e questo è, già da solo, un più che valido motivo per preferire il PC.
E tralasciamo tutto il resto: "customizabilità", scelta del tipo di antialiasing , poter usare SEMPRE la modalità nativa del monitor a risoluzione piena e non quelle modalità ibride dinamiche delle console, shaders custom...
nickname88
17-08-2017, 11:37
Stai dicendo un'eresia: perché, a prescindere dal maxare i dettagli o meno, la grafica su PC sarà sempre migliore (anche solo dal punto delle performance) che su una console, e questo è, già da solo, un più che valido motivo per preferire il PC.
E tralasciamo tutto il resto: "customizabilità", scelta del tipo di antialiasing , poter usare SEMPRE la modalità nativa del monitor a risoluzione piena e non quelle modalità ibride dinamiche delle console, shaders custom...Ma anche no, su console i titoli sono scalati in un certo modo, se il tuo PC ti costringe a scalare di più, avrai un impatto visivo inferiore chiaramente. Il fatto di essere su PC non vuol dire automaticamente che avrai una resa superiore, dipende dal setting.
Su PS4 Pro ormai i titoli girano a partire da 1080p con filtri e poco scalati, ma si trovano anche a risoluzioni superiori, compresi 1440p nativo e pure superiori su qualche titolo in croce.
Il poter usare sempre la modalità nativa del monitor va bene se la reggi, ma soprattutto se la risoluzione nativa del monitor in questione è superiore alla risoluzione usata su console.
sintopatataelettronica
17-08-2017, 11:45
Ma anche no, su console i titoli sono scalati in un certo modo, se il tuo PC ti costringe a scalare di più, avrai un impatto visivo inferiore chiaramente. Il fatto di essere su PC non vuol dire automaticamente che avrai una resa superiore, dipende dal setting.
Su PS4 Pro ormai i titoli girano a partire da 1080p con filtri e poco scalati, ma si trovano anche a risoluzioni superiori, compresi 1440p e pure superiori su qualche esclusiva in croce.
Il poter usare sempre la modalità nativa del monitor va bene se la reggi, ma soprattutto se la risoluzione nativa del monitor in questione è superiore alla risoluzione usata su console.
Ma ti rendi conto, almeno, di quello che stai scrivendo ? 1440p su console.. sìsì.. SI PUO'... certo... ma a che FRAME RATE medio E senza che entri in gioco l'upscaling dinamico ?
"con filtri e poco scalati" è la parte più buffa di tutte :D
nickname88
17-08-2017, 11:55
Ma ti rendi conto, almeno, di quello che stai scrivendo ? 1440p su console.. sìsì.. SI PUO'... certo... ma a che FRAME RATE medio E senza che entri in gioco l'upscaling dinamico ?
"con filtri e poco scalati" è la parte più buffa di tutte :DTi sbagli, alcuni titoli ci girano nativamente a 1440p e 1800p o vie di mezzo, indipendentemente che poi siano scalate o meno.
Il frame rate di 30fps sarebbe un problema ( visto che quì si diceva non fosse un problema accontentarsi ) ?
Pensi che 30fps di una console siano pari a 30fps visualizzati su PC ?
tuttodigitale
17-08-2017, 11:57
No no, 214W in modalità "power save" !!! 292W invece in modalità bilanciata e addirittura 316W con profilo turbo, e non a caso occupano tutto il podio del fondo della comparativa.
come detto da Free gordon
il problema è che la modalità balanced, in realtà è la modalità turbo (le prestazioni sono IDENTICHE e i consumi differiscono solo per il 5%)....le prestazioni in entrambi i casi differiscono del 4% rispetto a quella a risparmio energetico....
una modalità tanto spinta di serie, serve solo a diversificare maggiormente la VEGA 56 (best buy a quel prezzo) dalla VEGA 64...e quest'ultima più simile alla 1080 (anche se è da notare che in alcuni giochi pesantemente CPU-lbound i driver AMD fanno da tappo, compromettendo un poco la media finale)..
quel +4% di prestazioni della modalità balanced fanno aumentare i consumi di VEGA 64 del 40%....è un vero e proprio OC di fabbrica. Viene da sè che la VEGA 56 ha molto più margine, e la mosalità turbo con ogni probabilità differisce in maniera maggiore sulle prestazioni (e consumi) rispetto alla modalità standard, certamente più equilibrata nel modello inferiore.
la temperatura di funzionamento passa da 85 a 75°C.
D'altra parte se VEGA fosse davvero così disastroso lato consumi (ma attualmente lo è probabilmente sul piano dei costi, ma questo non è un chip esclusivamente da gioco, quindi conta relativamente poco) la VEGA nano non avrebbe possibilità di esistere....
sintopatataelettronica
17-08-2017, 12:16
Pensi che 30fps di una console siano pari a 30fps visualizzati su PC ?
Penso solo che la tua affermazione che se non maxi sempre tutto in tutti i giochi non c'è motivo per preferire un PC come piattaforma da gioco sia assurda e senza alcun valido fondamento.
Validi motivi per preferire il PC ce ne sono parecchi.. ma siccome adesso sei arrivato addirittura a "rilanciare" dicendo che si può giocare fluidamente e con più alta resa visiva e performance anche in 4k sulle console... credo che si sia perso del tutto il livello di sensatezza della conversazione... :D
Free Gordon
17-08-2017, 12:32
Non ha alcun senso ma evidenzia un aspetto negativo, ossia che all'aumentare della frequenza le performance rimangono quasi stagnanti, il chè non è un bene in ottica custom.
Quello dipende dal binning basso. I chip non sono selezionati. Salendo di frequenza devono aumentare i volt e i consumi esplodono.
Sul fatto che la 64 non scali con le performance, dipende dal driver praticamente in alpha.. :asd:
Sicuramente a Natale la situazione sarà più chiara, a vedere da come l'hanno immessa sul mercato, hanno fatto già i salti mortali per uscire con 1 mese solo di ritardo sulla roadmap.
nickname88
17-08-2017, 13:32
Penso solo che la tua affermazione che se non maxi sempre tutto in tutti i giochi non c'è motivo per preferire un PC come piattaforma da gioco sia assurda e senza alcun valido fondamento.
Validi motivi per preferire il PC ce ne sono parecchi.. ma siccome adesso sei arrivato addirittura a "rilanciare" dicendo che si può giocare fluidamente e con più alta resa visiva e performance anche in 4k sulle console... credo che si sia perso del tutto il livello di sensatezza della conversazione... :DFluidamente è un termine di cui quì in parecchi avevano un opinione ben diversa e non l'ho mai usato su argomento console, nè tanto meno avrei parlato di 4K nativi su console.
Non usare parole che non ho detto.
Ho solamente detto che visto che se devi giocare con dettagli medi e frame rate inferiori ai 60 senza sincronizzazione alcuna, le console ti possono soddisfare anche di più.
La credibilità è andata a farsi benedire da quando è uscita fuori gente che piazzava risultati ad alto frame rate a 1440p con una furyx o dicendo che per tale risoluzione le soluzioni 1070/56 erano ideali.
La review di Guru3d è IMHO una delle migliori.
introduttivo di ogni benchmark (tanti in dx11 e tanti in dx12) spiegano per filo e per segno come è stato effettuato per poterlo riprodurre.
Deus Ex l'hanno testato usando il bench integrato, con questi settings, che non definirei "accontentarsi":
http://i.imgur.com/gRXKBoi.png
Prima di tutto ti faccio notare che il livello High di Deus ex non è uno step precedente, ma ben 2 perchè ha anche very high e ultra, quindi certamente non vicini e per giunta il temporal AA fa pietà, è un Accontentarsi con la A maiuscola. A parte il risultato di guru3d che lascia dubbi, se vuoi guardare solo il bench integrato ( in un ambiente chiuso per altro ) e ignorare i frame in-game allora è il caso di togliersi il paraocchi.
Per quel che riguarda i test, come ti è già stato fatto notare i settings delle altre recensioni li abbiamo letti e se non sono maxati, differiscono di poco da guru3d.
La storiella di feragoasto per sminuire hardware canucks te la potevi risparmiare, l'MSAA su Deus ex andrebbe usato, il temporal è pietoso.
Free Gordon
17-08-2017, 13:41
Vega64 consuma quanto tu decidi di farle consumare, ovvero da molto poco ad assurdamente tanto. La verità sta nel mezzo probabilmente, 220W non mi sembra un'eresia: quante volte troverai un gioco che ha davvero bisogno dell'overclock di fabbrica per girare bene?
Vega56 invece... beh, consuma da "un cazzo" a "non tanto" in base a come la setti... :D paradossalmente è la scelta ideale se hai un computer con l'alimentatore scarso: puoi installarla, settarla per i 135W (e andrà cmq più di una 1060) e quando poi cambi l'alimentatore... devi solo spostare uno switch sulla scheda.
Cmq vedendo le prestazioni della 56, si capisce chiaramente che i giochi odierni non sono ancora (e/o non lo saranno mai) settati sui rapporti shader/tex/pixel che hanno le architetture AMD..
la 56 va' meglio della 64 in rapporto, perché non c'è bisogno di tutto questo shader power inutile che la 64 possiede. Soprattutto in confronto alla capacità geometrica e al fillrate "basico"... :fagiano:
E' da anni che vanno avanti su questi schemi di rapporti, sbagliando.. e continuano... :stordita:
la 56 va benissimo così
la 64 invece... per metterla sul mercato con prestazioni uguali/superiori alla 1080 mi pare l'abbiano dovuta overcloccare di fabbrica, facendo così andare alle stelle i consumi e lasciando probabilmente pochissimo margine per le custom
globalmente avrebbero probabilmente fatto miglior figura con solo il bios powersave
avrebbero avuto un prodotto con prestazioni praticamente identiche ma consumi poco più elevati della concorrente 1080, e a quel punto tutti avrebbero apprezzato anche il miglioramento del rapporto consumi/prestazioni
Free Gordon
17-08-2017, 14:03
globalmente avrebbero probabilmente fatto miglior figura con solo il bios powersave
avrebbero avuto un prodotto con prestazioni praticamente identiche ma consumi poco più elevati della concorrente 1080, e a quel punto tutti avrebbero apprezzato anche il miglioramento del rapporto consumi/prestazioni
Esatto. Standard bios, profilo pwrsv :)
Penso sia la scheda single chip più esosa in termini energetici mai realizzata per desktop ....
Pensi male, le vecchie nVidia 480 consumavano più di 400 W
E senza andare troppo lontano 780ti e R9 290X consumano uguale a vega
http://www.hwupgrade.it/articoli/skvideo/4147/consumi_metro.png
Mi pare che chi si lamenta dei consumi si sia dimenticato ( o non abbia mai visto ) come andava solo 7 anni fa anni fa, quando un alimentatore da 1000 W era considerato indispensabile per un pc da gioco
http://images.anandtech.com/graphs/nvidiageforcegtx480launch_032610115215/22207.png
nickname88
17-08-2017, 14:59
Pensi male, le vecchie nVidia 480 consumavano più di 400 W
E senza andare troppo lontano 780ti e R9 290X consumano uguale a vega
http://www.hwupgrade.it/articoli/skvideo/4147/consumi_metro.png
.....cut
In realtà quelli sono i consumi dell'intero sistema, quelli in particolar modo eseguiti con piattaforme più vecchie. ;)
nickname88
17-08-2017, 15:25
L'hai aperto il link col confronto delle differenze fra i vari livelli, si?
C'è da concentrarsi per vederle in uno screenshot. Pensi di farci caso in gioco, mentre spari alla gente? :DIl link di comparazione ??? Ti riferisci ad un video compresso di youtube dove è impossibile vedere nulla nemmeno nelle video-comparazioni pc-console ? Si in effetti ci cascai anche io molto tempo addietro, ora ho più esperienza a riguardo.
Spiegami, come fai a vedere su youtube la definizione delle texure e le scalettature sui bordi di oggetti e ombre dato il formato del video stesso ? Semplicemente è impossibile e la cosa è risaputa.
Guru3d mi ha fatto vedere come posso aspettarmi di veder funzionare Deus Ex sul mio PC, HWC mi ha fatto vedere come andrà se lo configuro male.A guru3d di come possa girare sul tuo PC non gli frega niente. Secondo te chi recensisce queste schede ti fa i test sui giochi con impostazioni scalate ?
Ad ascoltare HWC sembra che sia necessario comprare una 1080ti per giocare a Deus Ex in 2k. Che è quello che consigli tu in effetti dicendo che 1070 e V56 non sono adatte a giocare in 2k a 60+ fps.Se ti accontenti vanno bene come tutte le altre.
Anche una RX580 se scala il dovuto andrà benissimo a 1440p.
Se a te piace spendere 400-450€ per goderti i titoli scalati è un tuo puro gusto personale.
MA NON E' VERO, come dimostrano i test di Guru3d. Solo perchè Guru3d è l'unico sito che ti mostra ciò che tu vorresti vedere non significa che sia vero. Se ha già iniziato il test con un settaggio sottodimensionato è perchè già sapevano che il gioco girava da cani.
nickname88
17-08-2017, 15:51
Guarda che Deus Ex ce l'ho.
E ce l'ho pure io, e disinstallato in totale tranquillità dopo qualche ora di gioco perchè indecente.
Ma se speri di spacciarmi un link di youtube come lontanamente attendibile ti sbagli di grosso.
...fidati: Hardware Canucks ha fatto la solita recensione che hanno fatto tutti: giochi maxati così non c'è niente da decidere, prendo i risultati del bench, li metto nell'excel, lo carico nel "generatore di articoli" che fa una pagina per ogni riga di Excel, scrivo prima pagina di presetnazione e ultima pagina con le considerazioni finale, fatto. E' estate e gli hanno dato pochi giorni per farlo, non gliene faccio una colpa.
Hardwacanucks così come anche molti altri li usano solitamente maxati perchè è così che un utente che compra articoli di fascia alta vuole che girino. E comunque no, non sono totalmente maxati, anche hardware canucks rimuove le features buggate, altrimenti Deus Ex non l'avrebbero testato con MSAA di appena 2X e su The Witcher non è stato attivato l'Hairworks. Ovviamente sono esempi.
Il punto è che in High Deus Ex ha una resa grafica molto vicina a quella di Ultra, quasi indistinguibile durante il gioco, e non c'è bisogno di schede ultrapotenti per goderselo.
Il punto è che una 1070 va benissimo per giocare a Deus Ex, anche in 2k.
Deus Ex impostato così fa skifo, senza AA è tutto scalettato e questo è innegabile. Guarda che questa non è mai stata una discussione su Deux Ex, con la 1070 devi scalare pure con altri titoli come Wildland, GTA V, Dishonored, lo stesso The Witcher 3 ( a meno che non prendi come riferimento le location di blood & vine che risultano più leggere ) e penso non debba andare avanti, tutti titoli su cui bisogna cercare compromessi.
In realtà quelli sono i consumi dell'intero sistema, quelli in particolar modo eseguiti con piattaforme più vecchie. ;)
Anche quelli misurati nel test di Vega :
consumo di picco rilevato per il sistema
Sono 380 W totali come la R9 290X
nickname88
17-08-2017, 17:02
Anche quelli misurati nel test di Vega :
consumo di picco rilevato per il sistema
Sono 380 W totali come la R9 290X
Si ma il resto dei componenti non sono mica gli stessi.
tuttodigitale
17-08-2017, 17:50
Cmq vedendo le prestazioni della 56, si capisce chiaramente che i giochi odierni non sono ancora (e/o non lo saranno mai) settati sui rapporti shader/tex/pixel che hanno le architetture AMD..
la 56 va' meglio della 64 in rapporto, perché non c'è bisogno di tutto questo shader power inutile che la 64 possiede. Soprattutto in confronto alla capacità geometrica e al fillrate "basico"... :fagiano:
E' da anni che vanno avanti su questi schemi di rapporti, sbagliando.. e continuano... :stordita:
VEGA è in grado di gestire come massimo 11 poligoni per ciclo di clock, che è una enormità...
sul fillrate, la questione è controversa....da una parte è vero che 64ROPs sembrano poche visto lo scarso scaling con l'aumento degli SP (notare come la banda passante c'entra fino ad un certo punto, visto che in VEGA 56 è ben più stretta), dall'altra gli SP aggiuntivi possono essere visti anche come semplice forma di ridondanza....e quindi potenzialmente in grado di ridurre i costi nonostante l'aumento del die soprattutto considerando che il chip dovrà comunque essere equipaggiato con le costose HBM2.
Come dicevi, la questione SP/ROPs è vecchia di anni....anche le HD5850/5870, HD6950/6970 HD7950/7970, per arrivare alle Fury / Fury X differivano solo marginalmente a parità di clock. Lo stesso pare valere per VEGA 56/64
Magari una puntualizzazione fuori luogo, ma ricordo ai tempi della 7870, che amd nel giro di 2 mesi, tramite driver boosto, un 30% di performance in + dal day one/ prime recensioni!
No, questa è una discussione sul fatto che la 1070 sia o meno una buona scheda per giocare in 2k.
Ognuno ha le sue aspettative, non c'è chi ha ragione e chi ha torto. Tu sei uno di quelli che vuole "il top". E' una sensazione gratificante maxare tutti i dettagli grafici prima di iniziare a giocare, dà un senso alle centinaia di euro spesi per farsi una gaming rig coi controcazzi. Lo capisco, ho scritto parecchi post al riguardo in passato... :D
Ciònonostante, il profilo High solitamente non è un compromesso: è the way it's meant to be played, tutte le impostazioni regolate per avere un'ottima resa grafica senza tassare inutilmente il sistema.
Medium è un compromesso.
Ultra serve solo per quella cosa alla quale accennavo due paragrafi fa... ;)
Anche perchè altrimenti usiamo tutti DSR e VSR a 8K perchè la differenza a livello di nitidità si vede in ogni caso e chi non lo fa si accontenta :asd:
nickname88
17-08-2017, 23:00
No, questa è una discussione sul fatto che la 1070 sia o meno una buona scheda per giocare in 2k.
Ognuno ha le sue aspettative, non c'è chi ha ragione e chi ha torto. Tu sei uno di quelli che vuole "il top". E' una sensazione gratificante maxare tutti i dettagli grafici prima di iniziare a giocare, dà un senso alle centinaia di euro spesi per farsi una gaming rig coi controcazzi. Lo capisco, ho scritto parecchi post al riguardo in passato... :D
Ciònonostante, il profilo High solitamente non è un compromesso: è the way it's meant to be played, tutte le impostazioni regolate per avere un'ottima resa grafica senza tassare inutilmente il sistema.
Medium è un compromesso.
Ultra serve solo per quella cosa alla quale accennavo due paragrafi fa... ;)Niente, non ci si può arrivare con te.
Da diversi post che ti faccio notare che il temporal AA da solo fa pietà su quel titolo ma nulla, classico esempio di chi non vuole vedere.
E l'impostazione High non implica l'MSAA quindi è un gigantesco compromesso, a livello console.
Adesso pretendere le massime impostazioni anzichè star lì a farsi le pippe e testare su quale sia l'impostazione migliore sarebbe un male, dopotutto i bigliettoni che tiriamo fuori sono bazzeccole vero ? Vabbene.
Magari una puntualizzazione fuori luogo, ma ricordo ai tempi della 7870, che amd nel giro di 2 mesi, tramite driver boosto, un 30% di performance in + dal day one/ prime recensioni!
In quel caso ci furono i presupposti per farlo. Ripetere ora una cosa del genere con quelle percentuali, è impossibile... o meglio, non con questa gen. per tutti una serie di motivi…
Ale55andr0
17-08-2017, 23:48
VEGA è in grado di gestire come massimo 11 poligoni per ciclo di clock, che è una enormità...
non in termini di bruta potenza dell'architettura in "nativa", è un "up to" raggiungibile con ottimizzazioni apposite dello sviluppatore, senza quelle è rimasto a 4 per clock come polaris...
Ale55andr0
17-08-2017, 23:52
Magari una puntualizzazione fuori luogo, ma ricordo ai tempi della 7870, che amd nel giro di 2 mesi, tramite driver boosto, un 30% di performance in + dal day one/ prime recensioni!
va detto che è da mo che lavorano su quelli di vega con l'80% dei programmatori e su doom con la api "amica" sono rimasti dov'erano a gennaio (70 frame abbondanti in 4k)....e in prey, ufficialmente titolo pensato per sfruttare vega a LORO dire, non fanno differenze di rilievo su nvidia... I miglioramenti arriveranno sicuro (direi che un 7-8% medio è fattibile, e invero pure apprezzabile visto che già ora non è che non vadano un cazzo...), ma non aspettativi miracoli da questa fury 2.0...
Free Gordon
18-08-2017, 00:01
VEGA è in grado di gestire come massimo 11 poligoni per ciclo di clock, che è una enormità...
sul fillrate, la questione è controversa....da una parte è vero che 64ROPs sembrano poche visto lo scarso scaling con l'aumento degli SP (notare come la banda passante c'entra fino ad un certo punto, visto che in VEGA 56 è ben più stretta), dall'altra gli SP aggiuntivi possono essere visti anche come semplice forma di ridondanza....e quindi potenzialmente in grado di ridurre i costi nonostante l'aumento del die soprattutto considerando che il chip dovrà comunque essere equipaggiato con le costose HBM2.
Come dicevi, la questione SP/ROPs è vecchia di anni....anche le HD5850/5870, HD6950/6970 HD7950/7970, per arrivare alle Fury / Fury X differivano solo marginalmente a parità di clock. Lo stesso pare valere per VEGA 56/64
Hmm...Vega gestisce 4pol/clk come Fiji ;) agli 11 si arriva con la programmazione ad hoc. E col codice attuale infatti, i risultati si vedono...
64rops SONO poche, soprattutto se si considera il fillrate puro. :)
Nvidia è messa molto meglio, avendo uno spazio occupato minore e una resa maggiore.
Le rops AMD sono ottimizzate per il blending, peccato che non siano per nulla sfruttate per come programmano oggi..
Free Gordon
18-08-2017, 00:09
va detto che è da mo che lavorano su quelli di vega con l'80% dei programmatori e su doom con la api "amica" sono rimasti dov'erano a gennaio (70 frame abbondanti in 4k)....e in prey, ufficialmente titolo pensato per sfruttare vega a LORO dire, non fanno differenze di rilievo su nvidia... I miglioramenti arriveranno sicuro (direi che un 17-18% medio è fattibile, e invero pure apprezzabile visto che già ora non è che non vadano un cazzo...), ma non aspettativi miracoli da questa fury 2.0...
fixed.. :D ;)
Ale55andr0
18-08-2017, 20:32
fixed.. :D ;)
no ma tu credici :D
tuttodigitale
18-08-2017, 21:45
Secondo me si sono resi conto di non poter dar battaglia a Volta sulle prestazioni brute,
sulle prestazioni brute, GCN è forte persino più delle GPU Pascal. Il punto debole delle architetture pare essere la scarsa ottimizzazione sulla grafica...ovvero gli shader devono eseguire un numero superiori di calcoli e/o hanno colli di bottiglia nel back-end.
La cosa impressionante, ad esempio, che con il solo DSBR, VEGA vedrebbe più che raddoppiare il punteggio a SPECviewperf energy-01.
C'è un evidente collo di bottiglia.
Se il problema fossero gli shader, al "cut" degli stessi dovremmo assistere a cali di prestazioni in linea con la riduzione della forza bruta.
Ma tutti gli ultimi chip, passando da fiji, Polaris 10 e 11, e infine VEGA 10, sembrano risentire in minima parte dalla riduzione del numero di CU attive...
e il problema non sembrerebbe essere della banda offerta dalla memoria..
tra VEGA 56 e 64, occato a 1,05GHz e clock a 1GHz per le HBM2 (quindi molta più banda relativa alla potenza, rispetto alla configurazione stock), le prestazioni variano mediamente solo del 6%.....ergo con memorie a 945MHz e core ad oltre 1,4GHz, la differenza non può che essere inferiore.....
Giusto per la cronaca, ho trovato in rete una risposta a quanto avevo chiesto riguardo ai consumi in idle per il multimonitor: pare abbiano affinato ulteriormente i miglioramenti visti in Polaris e che in caso di multimonitor l'aumento del consumo sia trascurabile (si parla di un solo watt).
Questo, per me, depone molto bene in ottica APU.
Non sarebbe male comunque avere delle conferme, magari dalla redazione, altrimenti da qualche utente che dovesse prendere la scheda in breve tempo.
Comunque è divertente rileggere i commenti sotto la recensione della GTX 1080 scritti oltre un'anno fa :asd:
Consiglio di rileggerli per vedere come possono cambiare le aspettative ed i punti di vista :asd:
tuttodigitale
19-08-2017, 11:25
Comunque è divertente rileggere i commenti sotto la recensione della GTX 1080 scritti oltre un'anno fa :asd:
Consiglio di rileggerli per vedere come possono cambiare le aspettative ed i punti di vista :asd:
bisogna anche contestualizzare il tutto....
le 1080 erano proposte a 799 euro, un prezzo molto simile a quello delle 1080ti...nvidia ha avuto la faccia tosta di fare i confronti con le vecchie 980, proposte ad un prezzo ben più aggressivo...(addirittura la 1080 costava ufficialmente 5 mesi fa più della 980ti al debutto)..
oggi invece della 1080 abbiamo una proposta che va il 30% in più.
PS le VEGA 56/64 oggi come ieri, sono preferibili alle 1070/1080, imho. Il problema semmai chi ha la Fury/980ti, non si era accontentato degli aumenti prestazionali della 1080, non si accontenterà di VEGA...
a questo punto bisogna aspettare l'asso nella manica di AMD per Volta....
Portocala
19-08-2017, 12:03
a questo punto bisogna aspettare l'asso nella manica di AMD per Volta....
Il problema è che al tavolo delle GPU indossa una T-shirt e nella tasca dei pantaloni ha solo un 2 di picche :asd:
bisogna anche contestualizzare il tutto....
le 1080 erano proposte a 799 euro, un prezzo molto simile a quello delle 1080ti...nvidia ha avuto la faccia tosta di fare i confronti con le vecchie 980, proposte ad un prezzo ben più aggressivo...(addirittura la 1080 costava ufficialmente 5 mesi fa più della 980ti al debutto)..
oggi invece della 1080 abbiamo una proposta che va il 30% in più.
PS le VEGA 56/64 oggi come ieri, sono preferibili alle 1070/1080, imho. Il problema semmai chi ha la Fury/980ti, non si era accontentato degli aumenti prestazionali della 1080, non si accontenterà di VEGA...
a questo punto bisogna aspettare l'asso nella manica di AMD per Volta....
L'asso nella manica come era Vega all'uscita delle GTX 1080 oltre un'anno fa? :asd:
Leggere quei commenti mi ha fatto scompisciare dalle risate :asd:
Io le trovo poco appetibili sinceramente. Perché preferire una vega ad una scheda ultra rodata e molto più efficiente? Ok che i driver sono acerbi, ma non penso possano stravolgere la situazione.
Io le trovo poco appetibili sinceramente. Perché preferire una vega ad una scheda ultra rodata e molto più efficiente? Ok che i driver sono acerbi, ma non penso possano stravolgere la situazione.
Perché è esattamente il contrario ;)
A seconda del budget a partire da oggi...o vega 54 o 1080ti...il resto è tutta fuffa e personalismi.
Ti ripropongo la tua affermazione in chiave differente: perchè preferire una 1070/80 già ultrarodate solo perché particolarmente più efficienti nei consumi SOLO durante i giochi? Una vega 54 consumerà sempre di più durante i giochi, ma crescerà in prestazioni con i drivers che matureranno e se oggi rende come una "1075" un domani diventerà una 1078 o magari una 1080. Mentre le concorrenti hanno già dato tutto quanto potevano.
Per chi ama giocare e gradisce recensioni a senso unico...beh...io da anni seguo techpowerup...che ha scardinato il mio preferito guru3d in tal senso.
Sbaglio o su queste gpu hanno abilitato 10bit di colori, feature che fino adeso era ad appannaggio delle gpu pro com firepro o quadro?
Perché è esattamente il contrario ;)
A seconda del budget a partire da oggi...o vega 54 o 1080ti...il resto è tutta fuffa e personalismi.
Ti ripropongo la tua affermazione in chiave differente: perchè preferire una 1070/80 già ultrarodate solo perché particolarmente più efficienti nei consumi SOLO durante i giochi?
Una scheda da gaming si prende per giocare, per questo è importate notare che la v56 consuma quanto la 1080ti.
Se si gioca a 1080p la 1070 è ottima, la v56 ha 3% di prestazioni in più pagando un non trascurabile -53% all'efficienza.
Un ANNO dopo. Hai aspettato un anno per questo?
Una scheda da gaming si prende per giocare, per questo è importate notare che la v56 consuma quanto la 1080ti.
Se si gioca a 1080p la 1070 è ottima, la v56 ha 3% di prestazioni in più pagando un non trascurabile -53% all'efficienza.
Un ANNO dopo. Hai aspettato un anno per questo?
Dipende molto dall'uso secondo me. Io sto valutando il PC nuovo, non ho particolari esigenze per giocare visto che come detto gioco a cose leggere ma uso la scheda anche per altre cose, come calcoli in OpenCL o accelerazione HW per blender (che grazie al cielo supporta le AMD). Quindi per me sarebbe una manna dal cielo prendere la V56 che va forte dove nvidia invece ti costringe a prendere una scheda di fascia professionale.
Come dicevo all'inzio, sono punti di vista ed esigenze. :)
L'intero post è basato su i SE ed i MA, arricchito dall'ennesima profezia.
E' la solita storia, quando tutto quanto sarà bello maturo oramai la scheda sarà già obsoleta.
https://tpucdn.com/reviews/AMD/Radeon_RX_Vega_64/images/perfrel_2560_1440.png
Per eguagliare la 1080 liscia deve pure usare la modalità turbo.
Anche se col tempo andasse quei 10-15% in più cosa cambierebbe ?
Per come la vedo io l'unica per competere con i verdi e metterla ad un prezzo imbattibile, altrimenti che senso ha pagare una scheda nuova che ha le stesse prestazione di una uscita più di 1 anno fa ma che consuma di più e produce più calore.
Fan boy a parte , e miners a parte, nessuna. Ma ho paura che andrà a ruba ed i prezzi saliranno alle stelle per tutti i miners che vorranno prenderla, sempre se mina come una 580.
Personalmente non mi aspettavo una scheda da gridare UAHHHHneme, però va più della 1070, quindi per il 2k è perfetta, tutto dipende dal che prezzo, almeno, dovessi cambiarla io per una risoluzione 1440p tra la 1080 ed una vega guarderei solo il prezzo, e magari nel mio caso che ho un case di caxxa anche le temperature.
Dipende molto dall'uso secondo me. Io sto valutando il PC nuovo, non ho particolari esigenze per giocare visto che come detto gioco a cose leggere ma uso la scheda anche per altre cose, come calcoli in OpenCL o accelerazione HW per blender (che grazie al cielo supporta le AMD). Quindi per me sarebbe una manna dal cielo prendere la V56 che va forte dove nvidia invece ti costringe a prendere una scheda di fascia professionale.
Come dicevo all'inzio, sono punti di vista ed esigenze. :)
Il tuo caso è diverso, dovessi rifarmi una config nuova (lascia stare la mia che è in firma, facciamo finta che abbia una config più datata, tipo Q9450 e HD5870) , mi farei un ecosistema intero AMD, Ryzen+vega+ Monitor freesync 2 senza battere ciglio, anche solo per il gaming senza tirare in ballo l'attività lavorativa o programmi specifici, diverso è chi invece ha già tutto e deve solo scegliere tra una Vega ed una 1080. Per il 4K secondo me l'unica è ancora 1080Ti, a meno che il Cf di 2 Vega faccia miracoli, ma poi i giochi come scalano?
A livello lavorativo dipende come dici tu, che programmi si usano.
Il tuo caso è diverso, dovessi rifarmi una config nuova (lascia stare la mia che è in firma, facciamo finta che abbia una config più datata, tipo Q9450 e HD5870) , mi farei un ecosistema intero AMD, Ryzen+vega+ Monitor freesync 2 senza battere ciglio, anche solo per il gaming senza tirare in ballo l'attività lavorativa o programmi specifici, diverso è chi invece ha già tutto e deve solo scegliere tra una Vega ed una 1080. Per il 4K secondo me l'unica è ancora 1080Ti, a meno che il Cf di 2 Vega faccia miracoli, ma poi i giochi come scalano?
A livello lavorativo dipende come dici tu, che programmi si usano.
Io farei la stessa scelta, sto aspettando i prossimi mesi per vedere come si evolvono le cose visto che non ho particolare fretta e devo rifare tutto da 0 praticamente (tengo solo gli SSD).
Io parlavo di hobbystica comunque, a livello lavorativo c'è EC3 di Amazon che costa troppo meno :D
majinbu7
21-08-2017, 16:07
bisogna anche contestualizzare il tutto....
le 1080 erano proposte a 799 euro, un prezzo molto simile a quello delle 1080ti...nvidia ha avuto la faccia tosta di fare i confronti con le vecchie 980, proposte ad un prezzo ben più aggressivo...(addirittura la 1080 costava ufficialmente 5 mesi fa più della 980ti al debutto)..
oggi invece della 1080 abbiamo una proposta che va il 30% in più.
PS le VEGA 56/64 oggi come ieri, sono preferibili alle 1070/1080, imho. Il problema semmai chi ha la Fury/980ti, non si era accontentato degli aumenti prestazionali della 1080, non si accontenterà di VEGA...
a questo punto bisogna aspettare l'asso nella manica di AMD per Volta....
Ma parli seriamente? Perchè credi davvero che appena nvidia uscirà con Volta, AMD abbia qualcosa per controbattere ? Amd ha sparato tutto quello che poteva sparare, fino a Navi non vedremo nulla di eclatante nel ramo gpu da parte sua:)
ilbarabba
22-08-2017, 09:15
bisogna anche contestualizzare il tutto....
le 1080 erano proposte a 799 euro, un prezzo molto simile a quello delle 1080ti...nvidia ha avuto la faccia tosta di fare i confronti con le vecchie 980, proposte ad un prezzo ben più aggressivo...(addirittura la 1080 costava ufficialmente 5 mesi fa più della 980ti al debutto)..
oggi invece della 1080 abbiamo una proposta che va il 30% in più.
PS le VEGA 56/64 oggi come ieri, sono preferibili alle 1070/1080, imho. Il problema semmai chi ha la Fury/980ti, non si era accontentato degli aumenti prestazionali della 1080, non si accontenterà di VEGA...
a questo punto bisogna aspettare l'asso nella manica di AMD per Volta....
Per quale stracazzo di motivo?
Io farei la stessa scelta, sto aspettando i prossimi mesi per vedere come si evolvono le cose visto che non ho particolare fretta e devo rifare tutto da 0 praticamente (tengo solo gli SSD).
Io parlavo di hobbystica comunque, a livello lavorativo c'è EC3 di Amazon che costa troppo meno :D
Beh, se rifai il pc con un ecosistema cosi, sti caxxi, è una bella bestia.
Io ho preso 3 SSD ai tempi in cui i prezzi scendevano e non salivano (fine 2015 ed inizio 2016) , un Evo 840 da 500GB per OS, un Crucial MX300 -525GB
(a 121 euro) dedicato ad un simulatore, ho già 400Gb di texture caricate ed un Evo 850 da 250Gb dedicato per altri 2 programmi. Ho fatto una caxxata prima di prendere Evo 850 nel prendere un Sandisk SSD da 250Gb in offerta :doh:
Durato poco più di un mese, fatto la sostituzione, tempo 2 mesi anche questo andato, ho detto basta, che merxa è? Preso Samsung.
Con il Samsung ho notato che Over provisining sul fisso a casa non serve ad una mazza, mentre sul portatile al lavoro aiuta, ti mangia via la Ram, però sul Fujitsu ha dato un bel boost
Ale55andr0
22-08-2017, 10:32
Amd ha sparato tutto quello che poteva sparare
:O
http://imgur.com/a/RjpXj
Per quale stracazzo di motivo?
moderiamo il linguaggio, ammonizione
majinbu7
22-08-2017, 11:54
:O
http://imgur.com/a/RjpXj
:rotfl: Questa è bella.
Una scheda da gaming si prende per giocare, per questo è importate notare che la v56 consuma quanto la 1080ti.
Se si gioca a 1080p la 1070 è ottima, la v56 ha 3% di prestazioni in più pagando un non trascurabile -53% all'efficienza.
Un ANNO dopo. Hai aspettato un anno per questo?
Io sono un caso a parte...fino a quando le schede girano, le tengo...e naturalmente i giochi alla lunga me li scordo.
Aspettare non ha alcun senso...quando si ha bisogno o desiderio di cambiare.lo si fa...senza attese, al limite una settimana...due...al max.
Ok...efficienza inferiore del 53% a parità di utilizzo nei giochi con una differenza stabile di circa 80/90 W...il che significa...che dopo circa 11-12 ore di gioco la 56 ti costerà in consumi la spropositante cifra di circa 0,20 € in più rispetto alla 1070 :asd:
Invece che focalizzarsi su queste stupidaggini, per l'appunto, da 4 soldi...sarebbe più intelligente badare al rumore ed alla dissipazione, almeno questi ultimi, possono apparire degni di nota per i più viziati.
Dovessi rimanere a piedi oggi...una scheda usata da 20 euro...e pedalare fino alle custom delle 56, per il resto come già detto è solo fuffa...1080ti a parte, la fuoriclasse del momento. La 64 manco regalata...e le 1070/80 come ultima spiaggia, da oggi fino a quando uscirà il padellone di Volta.
Poi per carità...ognuno è liberissimo di spendersi i soldi come meglio ritiene.
tuttodigitale
23-08-2017, 10:52
Il problema è che al tavolo delle GPU indossa una T-shirt e nella tasca dei pantaloni ha solo un 2 di picche :asd:
:D
a parte gli scherzi sembrerebbe che addirittura NON sia attivo neppure l'AVFS, funzionalità chiave per abbattere i consumi....
e guardando il grafico dei consumi, che ha un andamento MOLTO diverso, e meno frastagliato di quello visto nella Fury, e nelle GPU nvidia maxwell/pascal pare essere vero.
Questa scheda non assorbe mai meno di 200W, contro i 35W della Fury X....
infatti anche i picchi di VEGA 64 sono MOLTO contenuti per una scheda da quasi 300W di TDP...."appena" 350W contro i 450W della Fury e i 430W della 980ti
tuttodigitale
23-08-2017, 11:03
Per quale stracazzo di motivo?
per lo stesso identico motivo per cui le HD7970 erano preferibili alle gtx680 nonostante andassero meno e consumavano di più...
dei driver pare che non siano attivi:
DSBR (Draw Stream Binning Rasterizer)
HBCC (High Bandwidth Cache Controller)
NGG (Next-Generation Geometry) -> Primitive Shader
AVFS (Adaptive Voltage and Frequency Scaling)
Pseudo Channel Mode
Perchè va così coi driver acerbi del day1:
https://tpucdn.com/reviews/AMD/Radeon_RX_Vega_56/images/perfrel_2560_1440.png
Perchè va così in Battlefield 1 (il cui motore è alla base della maggior parte dei giochi Electronic Arts, ovvero di un bel po' di AAA del prossimo anno):
https://tpucdn.com/reviews/AMD/Radeon_RX_Vega_56/images/bf1_2560_1440.png
Perchè Betheshda ha fatto un accordo con AMD per supportare le loro tecnologie (quelle di cui parlava tuttodigitale) nei loro prossimi giochi, ovvero: Fallout, Elder Scrolls, Wolfeinstein, Dishonored, Doom.
Perchè con circa 500 euro di Vega56 + 500 euro di monitor 27" 2560x1440 144hz 1ms freesync professionale da torneo ti fai un sistema 2k coi controcojones. Ora fai i conti di quanto ti costa upgradare il tuo vecchio 24" fullhd ad un 2k gsync da torneo, più la 1080 necessaria per gestirlo senza esitazioni.
Ancora dubbioso?
Si ma che merxa sta cosa dei driver, una scheda deve tarellare perchè potente, al di là che sia un Nvidia o Amd, questa è la gara a chi paga di più una software house per ottimizzare il proprio titolo a favore dell'una e dell'altra, quindi ci sono clienti Nvidia o Amd contenti per alcuni titoli ma meno se ne usano altri. Non sarebbe ora di finirla e premiare l'azienda che mette sul mercato il miglior prodotto prezzo/prestazioni ?
nickname88
27-08-2017, 09:29
Perchè Betheshda ha fatto un accordo con AMD per supportare le loro tecnologie (quelle di cui parlava tuttodigitale) nei loro prossimi giochi, ovvero: Fallout, Elder Scrolls, Wolfeinstein, Dishonored, Doom.
Il buco nel tuo discorso è che con Fallout e Dishonored Nvidia va meglio, così come anche in ME che comunque utilizza lo stesso motore di BF.
Mentre il quadro che hai mostrato non mette in evidenza nessun grande vantaggio, rispetto ad un prodotto uscito parecchi tempo fa.
E ti ricordo che i titoli che hai elencato ( a parte Wolfenstein ) usciranno con i prossimi capitoli fra diversi anni.
tuttodigitale
07-09-2017, 12:25
secondo alcuni partner AMD in questo momento sta vendendo le soluzioni VEGA 64 in perdita, per via del costo elevato imposto da Samsung per le HBM2.
Con la disponibilità delle HBM2 ad alta velocità di Sk hynix, prevista per Ottobre, la musica potrebbe cambiare, e AMD potrebbe rendere disponibile l'uso della nuova logica programmabile (che fornirà un certo boost prestazionale ANCHE con software old-gen).
Oggi la vendita di VEGA per il mining è una perdita di soldi per AMD....con un (bel) pò di fantasia si potrebbe ipotizzare che i driver incompleti nelle loro funzionalità siano una conseguenza di ciò.
nickname88
07-09-2017, 12:33
secondo alcuni partner AMD in questo momento sta vendendo le soluzioni VEGA 64 in perdita, per via del costo elevato imposto da Samsung per le HBM2.
Con la disponibilità delle HBM2 ad alta velocità di Sk hynix, prevista per Ottobre, la musica potrebbe cambiare, e AMD potrebbe rendere disponibile l'uso della nuova logica programmabile (che fornirà un certo boost prestazionale ANCHE con software old-gen).
Oggi la vendita di VEGA per il mining è una perdita di soldi per AMD....con un (bel) pò di fantasia si potrebbe ipotizzare che i driver incompleti nelle loro funzionalità siano una conseguenza di ciò.
Non penso che all'utenza finale la cosa interessi molto, a parte il fatto che fra non molto ci saranno le Volte, per il resto basta che le vendano.
Free Gordon
07-09-2017, 15:54
secondo alcuni partner AMD in questo momento sta vendendo le soluzioni VEGA 64 in perdita, per via del costo elevato imposto da Samsung per le HBM2.
Con la disponibilità delle HBM2 ad alta velocità di Sk hynix, prevista per Ottobre, la musica potrebbe cambiare, e AMD potrebbe rendere disponibile l'uso della nuova logica programmabile (che fornirà un certo boost prestazionale ANCHE con software old-gen).
Oggi la vendita di VEGA per il mining è una perdita di soldi per AMD....con un (bel) pò di fantasia si potrebbe ipotizzare che i driver incompleti nelle loro funzionalità siano una conseguenza di ciò.
Se Vega64 è in perdita...Vega56 allora è una voragine.. :D
Non credo siano in perdita sinceramente.. :) è quasi certo però che Hynix abbia cannato l'uscita delle HBM non rispettando le frequenze previste..:rolleyes:
Free Gordon
07-09-2017, 15:55
Non penso che all'utenza finale la cosa interessi molto, a parte il fatto che fra non molto ci saranno le Volte, per il resto basta che le vendano.
"Le Volte" usciranno ad Aprile 2018 molto probabilmente.. ;)
Sono 7 mesi...non proprio dietro l'angolo eh. :D
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.