View Full Version : AMD Radeon RX 590: il ritorno di Polaris
Redazione di Hardware Upg
15-11-2018, 14:00
Link all'Articolo: https://www.hwupgrade.it/articoli/skvideo/5304/amd-radeon-rx-590-il-ritorno-di-polaris_index.html
Sapphire NITRO+ Radeon RX 590 8GD5 Special Edition e XFX Radeon RX 590 Fatboy sono le due schede Radeon RX 590 al debutto sul mercato, basate su GPU AMD Polaris 30. L'architettura non cambia rispetto ai modelli RX 580 ma il passaggio ai 12 nanometri permette di ottenere frequenze di clock più elevate per maggiori prestazioni senza cambiarne il posizionamento di mercato.
Click sul link per visualizzare l'articolo.
Primo passo... AMD si è presa lo scettro della "fascia media" ( quella che paga ... ) :winner:
Speriamo anche nel secondo... ;)
Lo scettro non lo prendi con le prestazioni assolute, ma con la scheda più appetibile, e ad oltre trecento euro non so quanto questa lo sia.
Oltretutto a giudicare dal grafico che riassume le prestazioni, lo scettro delle prestazioni già l'aveva con la 580.
Pare poi che non ci siano neppure stati interventi su quelli che erano considerati i colli di bottiglia di Polaris, si tratta in pratica di un semplice shrink a 12nm, con tutto quello che ne consegue. Se non mettendo mano al chip. forse con GDDR6 il prezzo sarebbe stato più giustificabile.
Avevo sperato che si tornasse ai consumi della 480, ma pare che anche con questa 590 abbiano semplicemente alzato l'asticella fregandosene dei consumi, siamo al livello della 580.
Anche le prestazioni sono da valutare bene, dato che entrambi i modelli testati non sono reference.
All'articolo comunque ho appena dato uno sguardo, quindi correggetemi se sbaglio.
Alla fine è una scheda che, sebbene vada ad occupare una fascia scoperta, non è ne particolarmente appetibile ne cambierà gli equilibri in gioco. Sarà forse interessante per chi volesse prendere la scheda migliore con quello specifico budget.
coschizza
15-11-2018, 14:26
Lo scettro non lo prendi con le prestazioni assolute, ma con la scheda più appetibile, e ad oltre trecento euro non so quanto questa lo sia.
Oltretutto a giudicare dal grafico che riassume le prestazioni, lo scettro delle prestazioni già l'aveva con la 580.
Pare poi che non ci siano neppure stati interventi su quelli che erano considerati i colli di bottiglia di Polaris, si tratta in pratica di un semplice shrink a 12nm, con tutto quello che ne consegue. Se non mettendo mano al chip. forse con GDDR6 il prezzo sarebbe stato più giustificabile.
Avevo sperato che si tornasse ai consumi della 480, ma pare che anche con questa 590 abbiano semplicemente alzato l'asticella fregandosene dei consumi, siamo al livello della 580.
Anche le prestazioni sono da valutare bene, dato che entrambi i modelli testati non sono reference.
All'articolo comunque ho appena dato uno sguardo, quindi correggetemi se sbaglio.
Alla fine è una scheda che, sebbene vada ad occupare una fascia scoperta, non è ne particolarmente appetibile ne cambierà gli equilibri in gioco. Sarà forse interessante per chi volesse prendere la scheda migliore con quello specifico budget.
non è nemmeno uno shrink lo spazio occupato è lo stesso dei 14nm quindi una fregatura su tutta la linea, praticamente non aveva senso farla per aumentare solo il clock
Come mai nella schermata di GPU-Z risulta a 14nm anzichè a 12?
coschizza
15-11-2018, 14:43
Come mai nella schermata di GPU-Z risulta a 14nm anzichè a 12?
perche hanno usato i tool di sviluppo della litografia piu vecchia per risparmiare il risultato è avere una cpu a 12nm che occupa lo stesso spazio di quella a 14nm
Nautilu$
15-11-2018, 14:47
Ad occhio e croce come si posizionerà rispetto ad una FuryX ?
@coschizza
Che il chip non sia più piccolo non mi pare un problema, se alla fine dei conti i costi di produzione sono più bassi (che è di solito il vantaggio di avere chip più piccoli).
Quindi se l'hanno fatto per risparmiare hanno fatto bene, se la conseguenza è il risparmio e al contempo il possibile aumento di frequenza.
Ottimo , 300 euro per avere la stessa cosa di una scheda da 200 :D
Fascia media e medio bassa allo sbando piu completo :)
Marko#88
15-11-2018, 15:09
Speriamo che nel futuro non troppo lontano AMD abbia da dire qualcosa anche lato schede video, questa a chi si rivolgerebbe? Rispetto ad una 580 va sostanzialmente un 10/12% in più, prestazioni che rispecchiano le frequenze e il prezzo. Anzi, costa un filo troppo per essere interessante... tanto dove fa fatica la 580 farà fatica anche questa, tanto vale tenere in tasca due tre soldi e prendere la 580 se si vuole cambiare ora.
Ma è corretto? La 580 8Gb a 240 euro e la 480 8Gb a 300 euro?
TheDarkAngel
15-11-2018, 15:52
Inizio a chiamarlo accanimento terapeutico arrivare all'ennesima riproposizione tout court.
Con il prezzo giusto si rende appetibile qualsiasi cosa, vero che dovevano spendere il meno possibile, ma tirare fuori questa benedetta versione da 40CU? Era davvero così irragionevole?
scheda inutile molto meglio la 580
sgrinfia
15-11-2018, 16:07
A 250euro sarebbe un best buy..
sintopatataelettronica
15-11-2018, 17:07
A 250euro sarebbe un best buy..
..ma non certo a 300!
A 300 è solo follia.
E aggiungo che anche a un po' meno di 250 dovrebbe stare.. per essere appetibile.
Cioè.. è una 580+ alla fine.. e che arriva 2 anni dopo!
Prezzo davvero ingiustificabile. :muro:
AceGranger
15-11-2018, 17:08
Primo passo... AMD si è presa lo scettro della "fascia media" ( quella che paga ... ) :winner:
Speriamo anche nel secondo... ;)
quella che paga è la fascia alta.
la fascia media vale il 26% del mercato, la fascia bassa il 30% e la fascia enthusiast il 40% del mercato.
https://image.slidesharecdn.com/pcgamingmarketandesportsindustry-151111005146-lva1-app6892/95/pc-gaming-market-and-e-sports-industry-13-638.jpg?cb=1447203245
Se vi serve una scheda non aspettate la possima mining mania i prezzi rispetto a prima si sono abbassati già molto.
Questa scheda comunque a me non piace: mi sarei aspettato anche che consumasse meno visto i 12 nm. Così sembra solo una 14 nm overclockata.
sgrinfia
15-11-2018, 17:45
Se vi serve una scheda non aspettate la possima mining mania i prezzi rispetto a prima si sono abbassati già molto.
Questa scheda comunque a me non piace: mi sarei aspettato anche che consumasse meno visto i 12 nm. Così sembra solo una 14 nm overclockata.
A me dei consumi frega relativamente , poi i consumi sono giustificati dal alta frequenza di ghz .
mi piacerebbe provarla alle frequenze delle 580 "normali" per vedere se a pari ghz i 12nm hanno portato miglioramenti energetici ....
non è nemmeno uno shrink lo spazio occupato è lo stesso dei 14nm quindi una fregatura su tutta la linea, praticamente non aveva senso farla per aumentare solo il clock
12nm di GloFo sostanzialmente è il nome dato all'affinamento del 14nm, dovrebbe permettere minor assorbimento a pari frequenza o frequenza maggiore - come accaduto con i ryzen di seconda generazione.
a quanto si vede dalle recensioni direi che han spinto sul fronte prestazioni a scapito dell'efficienza, ma da questo passaggio non ci si poteva/doveva aspettare una riduzione di superficie e se avessero puntato a ridurre l'assorbimento anziché massimizzare le prestazioni credo che avrebbe avuto "meno senso" perché non ci sarebbe stato un miglioramento prestazionale che è ciò che attira l'utenza.
dado1979
15-11-2018, 17:58
Il mercato gpu è andato completamente a puttane da qualche anno.
sintopatataelettronica
15-11-2018, 18:06
Il mercato gpu è andato completamente a puttane da qualche anno.
direi tutto il mercato gaming hardware sta andando a puttane..
cose sempre più inutili aggiunte - led OVUNQUE (ESCONO DALLE FOTTUTE PARETI!!! DI OGNI COMPONENTE!!!) , smart-cazzate tipo la app per controllare l'illuminazione led della ventola dell'alimentatore.. o attrezzi ridicoli come le SEDIE GAMING - a prezzi da bene di lusso.. (vedi tastiere, mouse... costano cifre sempre più folli e spropositate )
sì.. forse è diventato un settore di lusso..
MiKeLezZ
15-11-2018, 18:12
Ci vuole parecchio pelo sullo stomaco a comprare questa VGA.
Architettura di 3 anni fa, prezzi alle stelle e consumi assurdi.
Non la vorrei neanche regalata!
Ci vuole parecchio pelo sullo stomaco a comprare questa VGA.
Architettura di 3 anni fa, prezzi alle stelle e consumi assurdi.
Non la vorrei neanche regalata!
Scusami ma... in quella fascia uno cosa dovrebbe comprare?
Anche Pascal è un'architettura datata (1H 2016, quindi due anni e mezzo) e al momento la Turing di fascia più bassa sta su tutt'altra fascia di mercato.
Posso concordare che, potendo programmare l'acquisto, possa essere meglio aspettare, ma se uno deve comprare ora e in questa fascia di prezzo sempre ad architetture di qualche anno fa deve rivolgersi.
sgrinfia
15-11-2018, 19:01
Ci vuole parecchio pelo sullo stomaco a comprare questa VGA.
Architettura di 3 anni fa, prezzi alle stelle e consumi assurdi.
Non la vorrei neanche regalata!
A me puoi regalarla senza remore........:D
sgrinfia
15-11-2018, 19:02
Il mercato gpu è andato completamente a puttane da qualche anno.
Sono pochi quelli che non sono andati a puttane.:D
tuttodigitale
15-11-2018, 19:38
quella che paga è la fascia alta.
la fascia media vale il 26% del mercato, la fascia bassa il 30% e la fascia enthusiast il 40% del mercato.
https://image.slidesharecdn.com/pcgamingmarketandesportsindustry-151111005146-lva1-app6892/95/pc-gaming-market-and-e-sports-industry-13-638.jpg?cb=1447203245
Secondo gli analisti una 1060 era una scheda di fascia enthusiast... è cambiato qualcosa?
Secondo gli analisti una 1060 era una scheda di fascia enthusiast... è cambiato qualcosa?
quoto
:)
Scheda che merita di essere lasciata sullo scaffale.
E' lo stesso polaris 10 overcloccato.
E dopo 2 anni e mezzo pretendono di venderla ad un prezzo addirittura maggiore?
Anche 199$ come prezzo di lancio sarebbero stati troppi.
279$ sono fuori da ogni logica.
AceGranger
15-11-2018, 20:27
Secondo gli analisti una 1060 era una scheda di fascia enthusiast... è cambiato qualcosa?
non secondo quegli analisti.
29Leonardo
15-11-2018, 20:35
Tristezza.
Lo scettro non lo prendi con le prestazioni assolute, ma con la scheda più appetibile, e ad oltre trecento euro non so quanto questa lo sia.
Oltretutto a giudicare dal grafico che riassume le prestazioni, lo scettro delle prestazioni già l'aveva con la 580.
Pare poi che non ci siano neppure stati interventi su quelli che erano considerati i colli di bottiglia di Polaris, si tratta in pratica di un semplice shrink a 12nm, con tutto quello che ne consegue. Se non mettendo mano al chip. forse con GDDR6 il prezzo sarebbe stato più giustificabile.
Avevo sperato che si tornasse ai consumi della 480, ma pare che anche con questa 590 abbiano semplicemente alzato l'asticella fregandosene dei consumi, siamo al livello della 580.
Anche le prestazioni sono da valutare bene, dato che entrambi i modelli testati non sono reference.
All'articolo comunque ho appena dato uno sguardo, quindi correggetemi se sbaglio.
Alla fine è una scheda che, sebbene vada ad occupare una fascia scoperta, non è ne particolarmente appetibile ne cambierà gli equilibri in gioco. Sarà forse interessante per chi volesse prendere la scheda migliore con quello specifico budget.
Sono l'unico al mondo che quando spende 2000 e passa euro di maccchina, se ne frega dei consumi???? Cioè se io spendo 2000/3000 o 4000 euro, mi importerebbe di avere anzichè 50 euro al mese 65 euro al mese? Non lo capiro' mai sto ragionamento, che non sia un offesa!
@BelzebV
Questa non è una scheda per un PC da 2000 euro, si rivolge ad un pubblico meno esigente che presumibilmente non avrà un alimentatore troppo pompato ne un case con caratteristiche da primato. Quindi un po' conta.
Ma non è questo il punto: l'efficienza della scheda video ne è in parte indice della sua riuscita e della bontà del progetto, per quanto ci siano tanti fattori da considerare.
Io semplicemente mi aspettavo che con il passaggio ai cosiddetti 12nm si sarebbe potuto fare un piccolo passo indietro rispetto alle scelte che avevano portato ad una 580 avida di corrente e al contempo dando una rinfrescatina alle prestazioni, ma evidentemente non è stato possibile.
C'è un piccolo salto nel processo produttivo e non si può parlare di 580 overcloccata, però speravo in qualcosa di meglio o, in alternativa, un prezzo più accessibile.
Marko#88
15-11-2018, 23:04
Sono l'unico al mondo che quando spende 2000 e passa euro di maccchina, se ne frega dei consumi???? Cioè se io spendo 2000/3000 o 4000 euro, mi importerebbe di avere anzichè 50 euro al mese 65 euro al mese? Non lo capiro' mai sto ragionamento, che non sia un offesa!
Il punto è che i watt vanno alimentati e dissipati, non è un discorso di bolletta.
Una vga che cosuma quanto una 1080 andando la metà non è una buona vga.
Giusto chi abita da solo può permettersi un pc da oltre 500W.
Oppure la 4,5kW è obbligatoria.
sintopatataelettronica
15-11-2018, 23:16
@BelzebV
Questa non è una scheda per un PC da 2000 euro, si rivolge ad un pubblico meno esigente che presumibilmente non avrà un alimentatore troppo pompato ne un case con caratteristiche da primato.
Ma infatti. Uno che spende (perché ha la possibilità di farlo) 2000 euro per il PC di queste schede manco considera l'esistenza.
Son schede che - se costassero 200 euro poco più - si comprerebbe un giocatore appassionato che però non ha i soldi che gli straripano allegramente dal portafogli.. (insieme magari a un Ryzen di fascia media - ECCOMI ! - ).
Alla fine è una scheda che, sebbene vada ad occupare una fascia scoperta, non è ne particolarmente appetibile ne cambierà gli equilibri in gioco. Sarà forse interessante per chi volesse prendere la scheda migliore con quello specifico budget.
va solo a sommarsi alla gamma esistente, non a sostituirla.
è per vendere un pò di più facendolo con chi esige un pò di più.
Ad occhio e croce come si posizionerà rispetto ad una FuryX ?
dovrebbe avere le prestazioni di una fury, non della X...
..ma non certo a 300!
A 300 è solo follia.
E aggiungo che anche a un po' meno di 250 dovrebbe stare.. per essere appetibile.
Cioè.. è una 580+ alla fine.. e che arriva 2 anni dopo!
Prezzo davvero ingiustificabile. :muro:
no, ma vi rendete conto che vendono ancora le 1050 Ti a 230 euro?!?
quella che paga è la fascia alta.
la fascia media vale il 26% del mercato, la fascia bassa il 30% e la fascia enthusiast il 40% del mercato.
https://image.slidesharecdn.com/pcgamingmarketandesportsindustry-151111005146-lva1-app6892/95/pc-gaming-market-and-e-sports-industry-13-638.jpg?cb=1447203245
quello è il mercato gaming PC valutato per divisione di prezzo, non è il mercato dGPU.
in quell'entusiast ci possono essere inclusi PC con le 1050, se non l'hai capito.
"Gaming" significa solo lucine LED, non che tipo di scheda video hai.
va dal mouse e tastiera al tappetino passando per i monitor...
NON C'ENTRA NULLA!:mc:
il mercato sopra i 500$ è al 3%...
Il punto è che i watt vanno alimentati e dissipati, non è un discorso di bolletta.
Una vga che cosuma quanto una 1080 andando la metà non è una buona vga.
costando anche la metà, anche se consideri 300 euro...
quindi poche ciance.
Darkless
16-11-2018, 08:02
quella che paga è la fascia alta.
la fascia media vale il 26% del mercato, la fascia bassa il 30% e la fascia enthusiast il 40% del mercato.
https://image.slidesharecdn.com/pcgamingmarketandesportsindustry-151111005146-lva1-app6892/95/pc-gaming-market-and-e-sports-industry-13-638.jpg?cb=1447203245
I dati Steam dicono tutt'altro:
https://store.steampowered.com/hwsurvey/videocard/
La cosiddetta fascia "alta" arriva al 10% del mercato a far tanto.
AceGranger
16-11-2018, 09:18
I dati Steam dicono tutt'altro:
https://store.steampowered.com/hwsurvey/videocard/
La cosiddetta fascia "alta" arriva al 10% del mercato a far tanto.
si parlava di fascia che "paga" non di fascia che vende numericamente di piu.
numericamente AMD vende anche piu GPU di prima, avendo aumentato anche il market share, ma vende tutta roba che paga poco, molto poco; basta guardare i fatturati e il gross margin per capire qual'è la fascia che paga.. non crederai mica che l'1,7 Miliardi di questo trimestre nVidia lo ha fatto con le 1050 e 1060...
non crederai mica che l'1,7 Miliardi di questo trimestre nVidia lo ha fatto con le 1050 e 1060...
E perchè no, basta venderne in quantità sufficiente.
Che i prodotti di fascia alta garantiscano più margine è normale ed è generalmente valido praticamente in ogni mercato, ma per essere più remunerativa deve anche vendere in numero adeguato.
Ora, pare che l'immagine linkata prima non illustri adeguatamente la situazione perchè considera fascia alta prodotti che noi intendiamo di fascia media, per cui occorrerebbe trovare un'analisi con dati affidabili e che suddivida il mercato come serve a noi.
MiKeLezZ
16-11-2018, 10:34
si parlava di fascia che "paga" non di fascia che vende numericamente di piu.
numericamente AMD vende anche piu GPU di prima, avendo aumentato anche il market share, ma vende tutta roba che paga poco, molto poco; basta guardare i fatturati e il gross margin per capire qual'è la fascia che paga.. non crederai mica che l'1,7 Miliardi di questo trimestre nVidia lo ha fatto con le 1050 e 1060...AceGranger mi ricordo di te dai tempi della NVIDIA 8000, avrai 40 anni. E' da sempre che le VGA che vendono di più sono quelle di fascia bassa e media. Ora che la fascia bassa è stata mangiata dalle integrate è rimasta solo la fascia media.
Quindi sì, NVIDIA guadagna grazie alle 1050 e 1060. Che infatti se guardi lo steam hardware survey sono quelle più comuni.
Le VGA di fascia alta (e per alta intendo 1080 e seguire) sono degli aborti che non hanno utilità reale, le comprano il 5%/10% degli utenti e al produttore servono sostanzialmente per mostrare la propria forza (e infatti tutti noi ora vediamo NVIDIA come "quella con il raytracing e gli 8K", anche se magari ci compriamo una 1050 che col piffero va a 8K e il raytracing se lo sogna la notte).
Inoltre sono usate come veicolo di marketing... Infatti tutti ci leggiamo le recensioni e sempre quel 5%/10% è quello che poi spamma le cacate sui forum e si mette a litigare per una barretta più lunga nei benchmark.
Ma è così da sempre porco cane!
AceGranger
16-11-2018, 10:37
AceGranger mi ricordo di te dai tempi della NVIDIA 8000, avrai 40 anni.
manca ancora un po ai 40 :p; le 8800 GT sono state i primi acquisti costosi fatti.
la fascia Enthusiast vende molto piu di prima.
Darkless
16-11-2018, 11:59
Le VGA di fascia alta (e per alta intendo 1080 e seguire) sono degli aborti che non hanno utilità reale
Oddio se vuoi giocare anche solo in 2K una 1080 l'utilità ce l'ha eccome.
MiKeLezZ
16-11-2018, 12:32
Oddio se vuoi giocare anche solo in 2K una 1080 l'utilità ce l'ha eccome.Innanzitutto i "2K" sono la 1920x1080.
Forse intendevi la 2560x1440 e quindi i "2,5K".
Questi sono i FPS in "2,5K" di una GTX1060 6GB (dati TPU, testata che ritengo affidabile):
Assassin's Creed Origins 38,6
Battlefield I 65,8
Call of Duty: WWII 68,7
Civilization VI 62,6
Deus Ex: Mankind Divided 31,9
Divinity Original Sin II 60,1
Dragon Quest XI 53,2
F1 2018 55,3
Far Cry V 52,7
Ghost Recon Wildlands 30,6
Grand Theft Auto V 71,8
Hellblade: Senua's Sacrifice 39,1
Hitman 59,9
Monster Hunter World 27,1
Middle-earth: Shadow of War 34,2
Prey 60,8
Rainbow Six: Siege 74,7
Rise of the Tomb Raider 44,7
Sniper Elite IV 48,6
SpellForce III 58,3
Strange Brigade 50,6
The Witcher 3: Wild Hunt 44,2
Wolfenstein II 64
In conclusione una NVIDIA GTX1060 6GB dal prezzo di 240 euro riesce a far girare, ad impostazioni massime, TUTTI i giochi odierni con un frame rate sufficiente.
Prima di eventuali "eh, ma, però", in caso di necessità si può tranquillamente scendere dai 2,5K ai 2K oppure regolare le impostazioni grafiche (solitamente solo abbassare la qualità delle ombre regala 5/10 FPS).
La media di FPS è di 52.
No, come vedi una GTX1080 "non serve".
Una GTX1080TI viene 800 euro.
Con quella cifra ti puoi permettere di comprare una GTX1060 6GB adesso, ricambiarla fra 3 mesi con una GTX2060 8GB (che gestirà il 2,5K anche meglio), ricambiarla fra 18 mesi con una GTX3060 12GB (che gestirà bene anche il 4K), ricambiarla fra 36 mesi con una GTX4060 16GB (che gestirà bene anche il 4K con RayTracing).
Ipotizzando sempre un 250 euro in acquisto e un 130 euro di vendita dell'usato, non solo fra 3 anni avrai sempre l'ultima scheda uscita, ma ti rimarranno in tasca quasi 200 euro. Più tutti i soldi risparmiati in consumo di energia elettrica.
Presumo tu dica così solo perché hai comprato una GTX1080 e devi autoconvincerti dell'acquisto.
Darkless
16-11-2018, 13:42
Innanzitutto i "2K" sono la 1920x1080.
Forse intendevi la 2560x1440 e quindi i "2,5K".
Questi sono i FPS in "2,5K" di una GTX1060 6GB (dati TPU, testata che ritengo affidabile):
Assassin's Creed Origins 38,6
Battlefield I 65,8
Call of Duty: WWII 68,7
Civilization VI 62,6
Deus Ex: Mankind Divided 31,9
Divinity Original Sin II 60,1
Dragon Quest XI 53,2
F1 2018 55,3
Far Cry V 52,7
Ghost Recon Wildlands 30,6
Grand Theft Auto V 71,8
Hellblade: Senua's Sacrifice 39,1
Hitman 59,9
Monster Hunter World 27,1
Middle-earth: Shadow of War 34,2
Prey 60,8
Rainbow Six: Siege 74,7
Rise of the Tomb Raider 44,7
Sniper Elite IV 48,6
SpellForce III 58,3
Strange Brigade 50,6
The Witcher 3: Wild Hunt 44,2
Wolfenstein II 64
In conclusione una NVIDIA GTX1060 6GB dal prezzo di 240 euro riesce a far girare, ad impostazioni massime, TUTTI i giochi odierni con un frame rate sufficiente.
Prima di eventuali "eh, ma, però", in caso di necessità si può tranquillamente scendere dai 2,5K ai 2K oppure regolare le impostazioni grafiche (solitamente solo abbassare la qualità delle ombre regala 5/10 FPS).
La media di FPS è di 52.
No, come vedi una GTX1080 "non serve".
Una GTX1080TI viene 800 euro.
Con quella cifra ti puoi permettere di comprare una GTX1060 6GB adesso, ricambiarla fra 3 mesi con una GTX2060 8GB (che gestirà il 2,5K anche meglio), ricambiarla fra 18 mesi con una GTX3060 12GB (che gestirà bene anche il 4K), ricambiarla fra 36 mesi con una GTX4060 16GB (che gestirà bene anche il 4K con RayTracing).
Ipotizzando sempre un 250 euro in acquisto e un 130 euro di vendita dell'usato, non solo fra 3 anni avrai sempre l'ultima scheda uscita, ma ti rimarranno in tasca quasi 200 euro. Più tutti i soldi risparmiati in consumo di energia elettrica.
Presumo tu dica così solo perché hai comprato una GTX1080 e devi autoconvincerti dell'acquisto.
Stai scherzando vero ? Quei risultati sono tutt'altro che soddisfacenti. Se compro una scheda per giocare in 2K voglio stare almeno a 60 fps costanti, possibilmente a 75 per sfruttare meglio il monitor e voglio che gestica il tutto senza tirarsi al limite per fare 30 fps in diversi titoli.
Le 1060, così come le 580, non a caso sono considerate ottime schede per il FullHD senza compromessi. Nessuno si sognerebbe di prenderle come riferimento per risoluzioni maggiori, dove già una 1070 in molti casi fa fatica. Senza contare che i giochi saranno sempre più pesanti.
Le 1070/1080 potranno essere inutili PER TE. Ma come schede servono eccome. Il problema semmai è solo il prezzo (che cmq sta calando e continuerà a farlo sempre di più).
Last but not least nvidia non ha mai parlato delle famigerate "gtx 2060". Si tirerebbe solo la zappa sui piedi da sola a farle uscire. Ha tonnellate di vecchi chip da smaltire e quella scheda andrebbe solo a far concorrenza alle 1070-1080 che già affollano il mercato. Hanno invece annunciato un refresh delle 1060 (e pure queste voglio vedere se troveranno mercato). A stò giro è facile le 2060 saltino, stiamo ancora vivendo gli strascichi della piaga del mining.
MiKeLezZ
16-11-2018, 14:29
Stai scherzando vero ? Quei risultati sono tutt'altro che soddisfacenti. Se compro una scheda per giocare in 2K voglio stare almeno a 60 fps costanti, possibilmente a 75 per sfruttare meglio il monitor e voglio che gestica il tutto senza tirarsi al limite per fare 30 fps in diversi titoli.
Le 1060, così come le 580, non a caso sono considerate ottime schede per il FullHD senza compromessi. Nessuno si sognerebbe di prenderle come riferimento per risoluzioni maggiori, dove già una 1070 in molti casi fa fatica. Senza contare che i giochi saranno sempre più pesanti.
Le 1070/1080 potranno essere inutili PER TE. Ma come schede servono eccome. Il problema semmai è solo il prezzo (che cmq sta calando e continuerà a farlo sempre di più).
Last but not least nvidia non ha mai parlato delle famigerate "gtx 2060". Si tirerebbe solo la zappa sui piedi da sola a farle uscire. Ha tonnellate di vecchi chip da smaltire e quella scheda andrebbe solo a far concorrenza alle 1070-1080 che già affollano il mercato. Hanno invece annunciato un refresh delle 1060 (e pure queste voglio vedere se troveranno mercato). A stò giro è facile le 2060 saltino, stiamo ancora vivendo gli strascichi della piaga del mining.Il refresh delle GTX1060 serve, appunto, a svuotare i magazzini da queste schede. Per quante tante VGA che NVIDIA abbia, prima o poi le vende tutte, visto che vende il triplo di AMD. Dopo il periodo delle feste natalizie, con l'esaurirsi dei chip, uscirà la GTX2060 (inizi di Febbraio), dalle stesse prestazioni della GTX1070, come è normale che sia. Verrà sui 300 euro al lancio, per poi scendere a 250 euro entro 1 o 2 mesi (Aprile/Maggio).
Se vuoi segnati il thread e vieni a ricercarmi.
Portocala
16-11-2018, 14:32
Innanzitutto i "2K" sono la 1920x1080.
Forse intendevi la 2560x1440 e quindi i "2,5K".
Questi sono i FPS in "2,5K" di una GTX1060 6GB (dati TPU, testata che ritengo affidabile):
Assassin's Creed Origins 38,6
Deus Ex: Mankind Divided 31,9
Ghost Recon Wildlands 30,6
Monster Hunter World 27,1
Middle-earth: Shadow of War 34,2
Rise of the Tomb Raider 44,7
Sniper Elite IV 48,6
The Witcher 3: Wild Hunt 44,2
Godersi un titolo a quei framerate :asd: :Puke:
MiKeLezZ
16-11-2018, 14:36
Godersi un titolo a quei framerate :asd: :Puke:
Chiamatemi NOSTRADUMUS.
Prima di eventuali "eh, ma, però", in caso di necessità si può tranquillamente scendere dai 2,5K ai 2K oppure regolare le impostazioni grafiche (solitamente solo abbassare la qualità delle ombre regala 5/10 FPS).
Darkless
16-11-2018, 15:31
Il refresh delle GTX1060 serve, appunto, a svuotare i magazzini da queste schede. Per quante tante VGA che NVIDIA abbia, prima o poi le vende tutte, visto che vende il triplo di AMD. Dopo il periodo delle feste natalizie, con l'esaurirsi dei chip, uscirà la GTX2060 (inizi di Febbraio), dalle stesse prestazioni della GTX1070, come è normale che sia. Verrà sui 300 euro al lancio, per poi scendere a 250 euro entro 1 o 2 mesi (Aprile/Maggio).
Se vuoi segnati il thread e vieni a ricercarmi.
Per quanto sarei la persona più felice del mondo nel caso tu avessi ragione (devo necessariamente cambiare GPU) ne dubito fortemente.
C'è davvero una quantità enorme di 1070 e 1080 sul mercato e ci vorrà un bel po' per smaltirle. Solo ora sono tornate praticamente al prezzo del day1. Per farle calare ancora ci vorrà davvero un bel po' dato che la nuova gen nvidia sta fuori da ogni logica di mercato (e di buonsenso se lo chiedi a me). Mercato che è andato completamente a puttane nella fascia alta oramai a causa del mining e della totale mancanza di concorrenza.
Oggi va anche benone se vuoi giocare in FullHD. Trovi 580 8Gb e 1060 6Gb anche a ottimi prezzi se hai pazienza di cercare ma se vuoi qualcosa di più son dolori. Giocare con quelle schede in 2K è improponibile con molti titoli (ti ricordo anche che i valori che hai linkato sono valori medi, quindi vai tranquillamente anche sotto in diversi frangenti). il 4K lasciamolo perdere che fa storia a sè.
La mia previsione è molto più nera: per tornare ad avere prezzi buoni bisognerà aspettare il 2020 sperando che Navi non toppi e che Intel punti ad aggredire il mercato con prodotti dal rapporto prezzo/prestazioni elevato scuotendo un po' il mercato. Fino ad allora temo che Nvidia continuerà a fare il bello e il cattivo tempo.
Non riesco a trovare il senso di questo ennesimo rebrand della RX 480.
Qualcuno me lo spiega?
@nigen
Immagino tirare avanti ancora un po' fino a Navi, proponendo qualcosa di leggermente meglio delle schede precedenti e cercando di coprire una fascia di mercato lasciata scoperta.
Ad ogni modo non lo chiamerei rebrand, c'è un cambio di processo produttivo che ne fa un chip nuovo, anche se nel contenuto cambia poco e nulla.
Non riesco a trovare il senso di questo ennesimo rebrand della RX 480.
Qualcuno me lo spiega?
da contratti/accordi (quel che è), se non ricordo male, amd deve far produrre un tot a GloFo.
se la vedi in quest'ottica "fare per fare" tanto vale che produci sfruttando le possibilità concesse dall'affinamento del processo puntando ad arrotondare verso l'alto le prestazioni.
un po' il fattore novità "apparente" (se mi concedete il termine senza lode e senza infamia), un po' il fatto che va meglio della precedente restando nella stessa fascia di prezzo (da valutare assestamento e disponibilità ovviamente), un po' il fatto che le gpu per le schede pro di prossimo rilascio saranno ad opera di TSMC anziché GloFo... ed ecco che quest prodotto in un certo qual modo trova la sua collocazione.
Nautilu$
16-11-2018, 19:58
manca ancora un po ai 40 :p; le 8800 GT sono state i primi acquisti costosi fatti.
la fascia Enthusiast vende molto piu di prima.
40 infatti non può averli se parla di una "recente" 8800GT.....:)
Io ne ho 44 , e mi ricordo la mia prima scheda grafica comprata per il mio primo assemblato (da me).... Una Cirrus Logic ISA da 256k se non ricordo male... ! E c'era un bellissimo test in dos con dei caratteri che scorrevano per far vedere com'era prestante!:D
Poi passai a quella da 512KB di ram.... espandibile!:)
Che velocità con quella da 1MB vesa local bus!:D
...espandibile a 2MB!
Poi il gran salto.....le mie prime rate...con un amico..... Una stupenda Matrox Millennium vesa local bus da ben 3MB.... USATA... per "soli" 1.450.000 lire! una pazzia !
da contratti/accordi (quel che è), se non ricordo male, amd deve far produrre un tot a GloFo.
se la vedi in quest'ottica "fare per fare" tanto vale che produci sfruttando le possibilità concesse dall'affinamento del processo puntando ad arrotondare verso l'alto le prestazioni.
un po' il fattore novità "apparente" (se mi concedete il termine senza lode e senza infamia), un po' il fatto che va meglio della precedente restando nella stessa fascia di prezzo (da valutare assestamento e disponibilità ovviamente), un po' il fatto che le gpu per le schede pro di prossimo rilascio saranno ad opera di TSMC anziché GloFo... ed ecco che quest prodotto in un certo qual modo trova la sua collocazione.
Ma quale stessa fascia di prezzo.
La 480 è stata lanciata a 200 dollari oltre due anni fa.
Ora siamo a 300 euro per un +10/15 % (solo di clock derivanti da nodo più maturo) e il doppio dei consumi di una vetusta 1060.
E come se dopo la 7970 ti avessero venduto la 7970 ghz edition e poi la 1.1 ghz edition.
Questa è proprio una presa in giro, queste schede meritano solo lo scaffale non aggiungono nulla di nulla al mercato.
Comunque questa scheda fa proprio schifo. L'avrei insultata l'avessero lanciata al prezzo della 480 (220 euro per gli 8gb, praticamente mai visti retail tali prezzi a parte agli inizi), esci 3 anni dopo con un +10%? Con un +30% di prezzo? Ma andassero a quel paese e io che li ho supportati comprandogli pure la 580.
Ma la cosa più deprimente è che se lanciano sta roba non hanno proprio nulla di nulla per la fascia media e bassa per il 2019.
Il mercato delle gpu fa sempre più schifo, ben vengano intel e qualunque altro competitor ormai i vendor di gpu si son messi d'accordo sul non fare assolutamente nulla e spremerci con il minimo indispensabile.
purtroppo la bolla mining è solo diminuita non sparita, inoltre questo è il prezzo di lancio, spero si assesti un pò
Ma quale stessa fascia di prezzo.
La 480 è stata lanciata a 200 dollari oltre due anni fa.
hai ragione, proprio per questo mi riferivo all'assestamento dei prezzi.
1060 6Gb e 480 8Gb quando ho preso la mia 1060 3Gb, prima dell'aumento smodato di prezzo, venivano tra 280€ e 320€ a seconda del modello in negozio circa come dovrebbe costare questa, poi c'è stata l'apocalisse ed è sballato tutto fino a poco tempo fa.
Lo scettro non lo prendi con le prestazioni assolute, ma con la scheda più appetibile, e ad oltre trecento euro non so quanto questa lo sia.
Oltretutto a giudicare dal grafico che riassume le prestazioni, lo scettro delle prestazioni già l'aveva con la 580.
Pare poi che non ci siano neppure stati interventi su quelli che erano considerati i colli di bottiglia di Polaris, si tratta in pratica di un semplice shrink a 12nm, con tutto quello che ne consegue. Se non mettendo mano al chip. forse con GDDR6 il prezzo sarebbe stato più giustificabile.
Avevo sperato che si tornasse ai consumi della 480, ma pare che anche con questa 590 abbiano semplicemente alzato l'asticella fregandosene dei consumi, siamo al livello della 580.
Anche le prestazioni sono da valutare bene, dato che entrambi i modelli testati non sono reference.
All'articolo comunque ho appena dato uno sguardo, quindi correggetemi se sbaglio.
Alla fine è una scheda che, sebbene vada ad occupare una fascia scoperta, non è ne particolarmente appetibile ne cambierà gli equilibri in gioco. Sarà forse interessante per chi volesse prendere la scheda migliore con quello specifico budget.
quindi per la quasi totalità dell'utenza...soprattutto se cala leggermente.
Innanzitutto i "2K" sono la 1920x1080.
Forse intendevi la 2560x1440 e quindi i "2,5K".
Questi sono i FPS in "2,5K" di una GTX1060 6GB (dati TPU, testata che ritengo affidabile):
Assassin's Creed Origins 38,6
Battlefield I 65,8
Call of Duty: WWII 68,7
Civilization VI 62,6
Deus Ex: Mankind Divided 31,9
Divinity Original Sin II 60,1
Dragon Quest XI 53,2
F1 2018 55,3
Far Cry V 52,7
Ghost Recon Wildlands 30,6
Grand Theft Auto V 71,8
Hellblade: Senua's Sacrifice 39,1
Hitman 59,9
Monster Hunter World 27,1
Middle-earth: Shadow of War 34,2
Prey 60,8
Rainbow Six: Siege 74,7
Rise of the Tomb Raider 44,7
Sniper Elite IV 48,6
SpellForce III 58,3
Strange Brigade 50,6
The Witcher 3: Wild Hunt 44,2
Wolfenstein II 64
In conclusione una NVIDIA GTX1060 6GB dal prezzo di 240 euro riesce a far girare, ad impostazioni massime, TUTTI i giochi odierni con un frame rate sufficiente.
Prima di eventuali "eh, ma, però", in caso di necessità si può tranquillamente scendere dai 2,5K ai 2K oppure regolare le impostazioni grafiche (solitamente solo abbassare la qualità delle ombre regala 5/10 FPS).
La media di FPS è di 52.
No, come vedi una GTX1080 "non serve".
Una GTX1080TI viene 800 euro.
Con quella cifra ti puoi permettere di comprare una GTX1060 6GB adesso, ricambiarla fra 3 mesi con una GTX2060 8GB (che gestirà il 2,5K anche meglio), ricambiarla fra 18 mesi con una GTX3060 12GB (che gestirà bene anche il 4K), ricambiarla fra 36 mesi con una GTX4060 16GB (che gestirà bene anche il 4K con RayTracing).
Ipotizzando sempre un 250 euro in acquisto e un 130 euro di vendita dell'usato, non solo fra 3 anni avrai sempre l'ultima scheda uscita, ma ti rimarranno in tasca quasi 200 euro. Più tutti i soldi risparmiati in consumo di energia elettrica.
Presumo tu dica così solo perché hai comprato una GTX1080 e devi autoconvincerti dell'acquisto.
hai fornito dati che dimostrano il contrario :)
nessuno farebbe un pc con una res 2k (o 2,5k se preferisci) per metterci una 1060 e far relativamente fatica già coi giochi attuali..sarebbe assurdo. chiunque ci metterebbe una scheda di categoria superiore.
quelle sono schede fatte per il FHD.
quindi per la quasi totalità dell'utenza...soprattutto se cala leggermente.
Credo che invece la "quasi totalità" dell'utenza preferisca spendere 100 euro in meno per una 580 o una 1060, anche se con prestazioni leggermente inferiori.
Certo, se calasse il prezzo sarebbe un altro paio di maniche.
Credo che invece la "quasi totalità" dell'utenza preferisca spendere 100 euro in meno per una 580 o una 1060, anche se con prestazioni leggermente inferiori.
Certo, se calasse il prezzo sarebbe un altro paio di maniche.
le schede che girano per quella fascia son quelle, farsi un pc oggi per la 1080 vuol dire prendere in seria considerazione anche questa, poi ovvio che se aumenta il moneybench con un calo di prezzo di almeno 50 euro è tutto grasso che cola.
se dovessi fare io una config 1080p aspetterei la 2060 e se ne vale la pena sarei disposto anche a spendere qualcosina in più.
nickname88
17-11-2018, 12:27
Consumare più di una RTX 2080 con un rapporto Performance/watt pari a Vega64 per andare un 12% più della classica 1060.
Non c'è bisogno di aggiungere altro.
https://tpucdn.com/reviews/Sapphire/Radeon_RX_590_Nitro_Plus/images/relative-performance_1920-1080.png
https://tpucdn.com/reviews/Sapphire/Radeon_RX_590_Nitro_Plus/images/power_average.png
Non mi stupirei affatto se non dovessimo vedere più la 2060.
[K]iT[o]
17-11-2018, 13:03
Le VGA di fascia alta (e per alta intendo 1080 e seguire) sono degli aborti che non hanno utilità reale, le comprano il 5%/10% degli utenti e al produttore servono sostanzialmente per mostrare la propria forza
Esatto, tu lo sai, io lo so, ma non perdere tempo a cercare di educare quei quattro gatti che visitano questo forum, di sicuro chi ha preso una scheda più costosa difenderà la sua scelta in ogni caso. Sarà il tempo (forse) a fargli capire l'errore.
I dettagli nei videogiochi servono proprio per essere usati, spesso da medio a ultra le differenze rasentano il nulla, e ti fa risparmiare almeno 500€ di spesa. Chi poi ancora si convince che il 4k apporti dei miglioramenti, o che se non c'è scritto ultra fa schifo, si faccia pure del male, chissenefrega :D
sintopatataelettronica
17-11-2018, 13:32
le schede che girano per quella fascia son quelle, farsi un pc oggi per la 1080 vuol dire prendere in seria considerazione anche questa, poi ovvio che se aumenta il moneybench con un calo di prezzo di almeno 50 euro è tutto grasso che cola.
se dovessi fare io una config 1080p aspetterei la 2060 e se ne vale la pena sarei disposto anche a spendere qualcosina in più.
Si spende anche volentieri qualcosina in più... ma per avere, pure, qualcosa di utile in più!
Questa 590 (che è una 580+) venduta a quel prezzo non ha motivo né ragione d'essere acquistata da nessuno, purtroppo.
E dico purtroppo perché io lo aspettavo con impazienza questo "refresh" delle 580 (è dall'aumento dei prezzi causa mining che devo cambiare vga) ... ma mi aspettavo una scheda che andasse un po' meglio (come questa) MA proposta allo stesso prezzo (e anche un po' meno) della 580.. non 'sto furto qui.
Non riesco a trovare il senso di questo ennesimo rebrand della RX 480.
Qualcuno me lo spiega?
non è un rebrand, ma un'aggiunta.
industrialmente serve esclusivamente per riempire le pipeline dei 12nm usati per i ryzen.
quando non si fanno processori (che oggi sono più richiesti), si fa la 590, ma si aggiunge al resto delle GPU a 14nm.
non ci si poteva mettere la vega perchè ha rese inferiori ed è grande il doppio, quindi aggiungere una "ultra Vega" aveva poco senso pratico, per i numeri di quel segmento (avrebbe superato i 700 euro, essendo una super-ocked, quindi con dissipatori di una certa sostanza se non addirittura a liquido con AIO).
la 590 invece permette ad AMD di sfornare quei 2 milioni di chip al massimo in più senza avere problematiche di sorta.
hanno usato stessa maschera, quindi il vantaggio tecnico è esclusivamente dovuto ad un migliore resa produttiva per una migliore definizione dei singoli transistors;
pur avendo la medesima densità di transistors questi sono "fatti meglio" e quindi permettono clock superiori, ma essendo un ibrido 14-12nm lo fai con risparmio nullo rispetto ai 14.
fare come ha fatto nvidia, ossia raffinare i 16nm e chiamarli 12nm, significava rifare tutto il chip... a maggio ci sarà la possibilità di avere un chip grosso la metà che avrà le medesime prestazioni sui 7nm e che avrà un rendimento economico superiore... non c'era senso nello spendere per un nuovo chip.
quindi è solo per massimizzare le linee produttive.
Da medio ad ultra le differenze non ci sono, già già.:D
C'è anche chi è convinto che 30fps siano sufficienti o che 60fps siano pochi...
Ognuno ha le sue fisse.
Forse volevi dire che in 4K avere i dettagli al massimo non sia strettamente necessario. In FHD le differenze si notano, come si notano le differenze tra pc FHD Ultra e una console qualsiasi.
Il refresh delle GTX1060 serve, appunto, a svuotare i magazzini da queste schede. Per quante tante VGA che NVIDIA abbia, prima o poi le vende tutte, visto che vende il triplo di AMD. Dopo il periodo delle feste natalizie, con l'esaurirsi dei chip, uscirà la GTX2060 (inizi di Febbraio), dalle stesse prestazioni della GTX1070, come è normale che sia. Verrà sui 300 euro al lancio, per poi scendere a 250 euro entro 1 o 2 mesi (Aprile/Maggio).
Se vuoi segnati il thread e vieni a ricercarmi.
uno dei pochi discorsi che condivido.
la questione delle schede per il 2K* è già alla portata dei normali giocatori con la 1060; sono quelli "esigenti" che vogliono tutto al max e a millemila frame che si rivolgono alle soluzioni superiori, ma di numero sono realmente pochi e sono tutti sui forum dedicati agli appassionati di tecnologie... la gente normale o va di console o, se con un pò più di anni sulle spalle, di PC con una 580/1060 e non solo per questione puramente economica, ma proprio perchè vede le soluzioni superiore sprecate per il loro personale uso.
per la nuova linea 2000 medio e bassa forse le tempistiche saranno anche più lunghe se vogliono usare i 7nm TMSC... permane il dubbio dei 12nm per chip di taglia piccola per cui è più conveniente avviare la produzione su un nuovo PP.
*ti correggo questo:
FHD è per i 1920x1080; quando si passa sopra i 2000 pixel orizzontali già si parla di 2K, indifferentemente da quanti effettivamente ne ha, mentre il 4K sono i 3840, ossia 2x 1920...
non è una standardizzazione ne una nomenclatura ufficiale, ma è quella più in uso dai produttori.
per 2K ci si rivolge appunto ai 2560x1440 o 3840x1440 e tutte le vie di mezzo, sennò anche il mio monitor sarebbe 2K, essendo un 2560x1080, ma non lo è comunque (è un FHD allo stesso modo di un 1920x1080).
è gerco, non nomenclatura.
quindi per la quasi totalità dell'utenza...soprattutto se cala leggermente.
hai fornito dati che dimostrano il contrario :)
nessuno farebbe un pc con una res 2k (o 2,5k se preferisci) per metterci una 1060 e far relativamente fatica già coi giochi attuali..sarebbe assurdo. chiunque ci metterebbe una scheda di categoria superiore.
quelle sono schede fatte per il FHD.
nessuno lo farebbe ma alla fin dei conti tutti lo fanno.
le statistiche steam non servono a nulla, ma se guardi la percentuale di quanti hanno una scheda uguale o inferiore alla 1060 e quanti hanno un monitor con risoluzione uguale o inferiore a 2560x1440 vedi che il numero non superiore per i monitor, ed in quel dato ci devi mettere che molti con la 1080 usano il FHD (!) e molti con le 1050 usano ancora risoluzioni HD per giocare...
quindi sono molti quelli che usano 1060/580 a quella risoluzione.
Si spende anche volentieri qualcosina in più... ma per avere, pure, qualcosa di utile in più!
Questa 590 (che è una 580+) venduta a quel prezzo non ha motivo né ragione d'essere acquistata da nessuno, purtroppo.
E dico purtroppo perché io lo aspettavo con impazienza questo "refresh" delle 580 (è dall'aumento dei prezzi causa mining che devo cambiare vga) ... ma mi aspettavo una scheda che andasse un po' meglio (come questa) MA proposta allo stesso prezzo (e anche un po' meno) della 580.. non 'sto furto qui.
il prezzo è forviante.
incominciamo col dire che i GP102 sono finiti su tutti i mercati.
proseguiamo con il dire ce anche l'SKU della 1080 è in fase di esaurimento su tutti i mercati tranne che in italia...
ad oggi a nvidia rimangono molti GP104 da usare sulla 1070, ma anche questa non la svende... non è la sua politica (anche perchè sennò non avrebbe un buon riscontro di prezzo con la prossima 2060 che ne emula le prestazioni... dovrebbe prendere meno anche da quella).
ecco perchè si fa l'ipotesi di un nuovo SKU, la 1060 Ti, con il GP104 cuttato come il GP106 o con qualcosa in più (con 12 SM su 20, in pratica), con le GDDR5x...
permetterebbe ad nvidia di utilizzare quei chip e di dare un +20% alla 1060, senza dover deprezzare anche questa in modo marcato, perchè se è vero che oggi una custom media 1060 viene 270 euro (tralasciando il mercato italiano che ha storia a se), è pur vero che già in preorder le 590 sugli stessi store, te le venderanno ugualmente a 270, e con i 3 giochi in omaggio...
le 580 8GB sono oggi tra i 200 e i 240 euro, escluse alcune schede di "vecchia fornitura" (spesso trovi l'identico modello con 2 prezzi, uno a 290 e uno a 240... stessa identica scheda!).
quindi il senso di questa scheda è buono se la prendi dai 250 ai 270, pessimo se ti chiedono 330 euro come stanno facendo nei preorder in italia (che, non si sà perchè, a noi italiani i nostri stessi connazionali ci prendono per idioti!).
la distribuzione parte effettivamente dal 20 novembre; un paio di mesi e la si troverà a 250 (almeno all'estero).
entro fine anno nvidia ritocca la 1060 e si avranno le nuove medie sui 250-270 euro, mentre le vecchie saranno riposizionate in basso.
ste schede devono tirare avanti per 6 mesi minimo e non vogliono far scendere il prezzo della fascia media al limite dei 200 euro... è questo il senso di questi "inutili" refresh parziali delle linee...
MiKeLezZ
17-11-2018, 14:49
FHD è per i 1920x1080; quando si passa sopra i 2000 pixel orizzontali già si parla di 2K, indifferentemente da quanti effettivamente ne ha, mentre il 4K sono i 3840, ossia 2x 1920...
non è una standardizzazione ne una nomenclatura ufficiale, ma è quella più in uso dai produttori.
per 2K ci si rivolge appunto ai 2560x1440 o 3840x1440 e tutte le vie di mezzo, sennò anche il mio monitor sarebbe 2K, essendo un 2560x1080, ma non lo è comunque (è un FHD allo stesso modo di un 1920x1080).
è gerco, non nomenclatura.Che poi avrebbe 10 volte più senso parlare di MP:
Un 1280x720 sono 0,9 MP
Un 1920x1080 (2K) sono 2,0 MP
Un 2560x1080 sono 2,7 MP
Un 2560x1440 sono 3,6 MP
Un 3840x1440 sono 5,5 MP
Un 3840x2160 (4K) sono 8,3 MP
Il 4K è una nomenclatura di marketing che funziona solo per tale risoluzione, traslarla ad altre, come si vede, porta a risultati totalmente errati e fuorvianti.
Inoltre si vede anche come la richiesta computazionale del 4K sia MASSIVA (4 volte tante quella richiesta dai 1080p e 8 volte tanto quella richiesta dai 720p!)... mentre la differenza qualitativa percepita col passaggio dai 1080p ai 4K sia minima (non certo 4 volte tanto, ma neppure 2 volte tanto!).
La migliore soluzione al momento resta la 2560x1440, che a fronte di una bassa richiesta computazionale aggiuntiva rispetto i 1080p (meno del doppio) fornisce miglioramenti qualitativi visibili che raggiungono quasi il limite della percezione ottica umana (basta che poi ci aggiungi un 2X di MSAA o equivalente e hai praticamente i 4K). Per stare tranquilli con quella servirebbe però una GTX2060, che tarda ad uscire. Nel mentre, basta settare la quality su "high" invece che su "ultra".
sintopatataelettronica
17-11-2018, 14:51
ste schede devono tirare avanti per 6 mesi minimo e non vogliono far scendere il prezzo della fascia media al limite dei 200 euro... è questo il senso di questi "inutili" refresh parziali delle linee...
Sì.. sì.. il senso (dal punto di vista del produttore) l'ho capito bene..
Il punto è che, come anche tu stesso alla fine specifichi, proposte a 250 euro.. 'ste 8gb 580+ avrebbero un senso pure per eventuali acquirenti; ma ai prezzi dichiarati, quelli che pare avranno all'uscita (300-330 euro) .. sono pura follia.
I prezzi, poi, si potranno pure assestare in futuro (ma non è detto, vedi cos'è successo l'anno scorso): ciò non toglie che presentarle in vendita a 'sti prezzi - da ladrocinio - per quello che offrono in più (cioè NIENTE) e rispetto non solo alla concorrenza, ma anche alla loro stessa linea prodotti! .. le rende veramente del tutto inutili (senza le virgolette) e sconsigliabili a chiunque al massimo grado ..
Sono dei worst-buy (purtroppo). A quel prezzo.
dado1979
17-11-2018, 16:25
Sono pochi quelli che non sono andati a puttane.:D
Intendevo il senso lato… se fosse realmente andato a donnine ci va ancora bene, prima o poi ritorna e si riesce di nuovo a comprare hardware.
Sì.. sì.. il senso (dal punto di vista del produttore) l'ho capito bene..
Il punto è che, come anche tu stesso alla fine specifichi, proposte a 250 euro.. 'ste 8gb 580+ avrebbero un senso pure per eventuali acquirenti; ma ai prezzi dichiarati, quelli che pare avranno all'uscita (300-330 euro) .. sono pura follia.
I prezzi, poi, si potranno pure assestare in futuro (ma non è detto, vedi cos'è successo l'anno scorso): ciò non toglie che presentarle in vendita a 'sti prezzi - da ladrocinio - per quello che offrono in più (cioè NIENTE) e rispetto non solo alla concorrenza, ma anche alla loro stessa linea prodotti! .. le rende veramente del tutto inutili (senza le virgolette) e sconsigliabili a chiunque al massimo grado ..
Sono dei worst-buy (purtroppo). A quel prezzo.
letteralmente questa 590 costa meno ad AMD di quanto costasse la 580.
prima cosa perchè con i 12nm hai rese maggiori, per il semplice fatto che ancora lavori a 14nm in effetti.
seconda cosa è che se sono difettati, scalano su 580 o 570 (sei tu in grado di riconoscere al tatto la differenza tra un polaris 10, 20 o 30?).
terzo, più SKU hai, più prodotto fai, meno in effetti ti costa.
quindi E' SICURO che costa meno.
oggi invece te lo hanno prezzato a 279$ perchè stanno aspettando la mossa di Nvidia, che di sicuro non tarderà.
in questo lasso di tempo prendono gli "early adopter" (che vien da sorridere per un chip di 2 anni, ma è la stessa dinamica di commercializzazione), li spremono un pò, e poi possono addirittura metterla a meno di quanto vendevano la 580.
poi te l'ho già scritto:
in preorder in italia sei a 330 euro, in germania a 259 euro...
in italia siamo messi in mano a gente che crede che tutti gli altri son scemi o ciechi... (io ultimamente sto comprando più da amazon francia o germania che italia... stesso pezzo, stessa azienda, 3 prezzi diversi... m'importa poco, se risparmio anche 100 euro, se me lo portano in 1 o 5 giorni).
il prezzo reale di queste schede lo vedremo solo dopo la mossa di nvidia... per ora te lo hanno "curato" con i giochi messi nel pacchetto, ma sono appunto quei 30-40$ che possono tranquillamente tagliare.
è allettante come prodotto?
mha... se tra un mese la trovo a 240 euro in francia o germania, rispetto ai 200-220 di una 580 o ai 150-180 di una 570, uno un pensierino ce lo può pure fare...
per il FHD sono la morte sua!
e chi confronta il consumo o l'efficienza rispetto a una 2080 non ha capito un tubo.
potrebbe consumare anche più di queste, anche il doppio di una 1060, non frega nulla a nessuno, perchè li consuma per quell'oretta che giochi e basta, primo, perchè una 2080 costa 3 volte di più minimo, secondo, perchè comunque va il 20% in più di una 1060 negli ultimi giochi ed è DX12 non DX11 (e se non piace questo discorso si andassero a guardare i risultati delle 980 Ti su BF5, che vengono ampiamente superate anche da una 470)...
pascal è al suo fine vita.
nickname88
17-11-2018, 18:40
Con una 1060/580 in 1440p non stai largo certo ma se la cava bene.
Questa veramente fa proprio ridere.
Io sono dovuto passare alla 1080Ti per giocare gli ultimi titoli a 1440p perchè la 1080 cominciava ad esser troppo stretta e tu addirittura affermi che quelle schede che hanno 1/3 delle mie unità di calcolo vadano bene. :rolleyes:
Per esempio una 580 in 1400p con deus-ex in settaggi alti se la cava piuttosto bene e resta intorno ai 60 fps.Si come no e io ce l'ho più grosso di Mandingo.
[QUOTE=MiKeLezZ;45890491
La migliore soluzione al momento resta la 2560x1440, che a fronte di una bassa richiesta computazionale aggiuntiva rispetto i 1080p (meno del doppio) fornisce miglioramenti qualitativi visibili che raggiungono quasi il limite della percezione ottica umana (basta che poi ci aggiungi un 2X di MSAA o equivalente e hai praticamente i 4K). Per stare tranquilli con quella servirebbe però una GTX2060, che tarda ad uscire. Nel mentre, basta settare la quality su "high" invece che su "ultra".[/QUOTE]
in effetti, come produttività, mi trovo comodo con i 21:9 ma 1080 è troppo poco... il prossimo lo prendo o 1440p o 1600p a seconda di quanto grandi li fanno (che troppo piccoli poi son costretto ad aumentare la dimensione dei caratteri, quindi è inutile).
interessanti anche i 32:9, ma sempre con il problema che minimo devono essere 1440p con un'altezza di circa 45cm, quindi con polliciaggi ben oltre a quelli che propongono oggi (oggi siamo a 49" e a me necessiterebbe un 65" in quel formato).
l'unica pecca sono le IPTV che certe volte mi quadrano il cinemascope in 16:9 e quindi mi ritrovo bande nere sopra, sotto e ai lati dello schermo (con VLC, invece, posso ridimensionare come mi pare e il mio 29" ha la stessa rislutanza di un 36" 16:9).
Si come no e io ce l'ho più grosso di Mandingo.
e forse quelle schede servono solo a millantare queste cose.
nickname88
17-11-2018, 19:09
e forse quelle schede servono solo a millantare queste cose.
Bravo hai fatto una battuta.
MiKeLezZ
17-11-2018, 19:54
Questa veramente fa proprio ridere.
Io sono *dovuto* passare alla 1080Ti per giocare gli ultimi titoli a 1440p*voluto*
Bravo hai fatto una battuta.
almeno io ho l'arguzia per farle buone... ;)
https://www.techpowerup.com/249669/samsung-amds-second-foundry-partner-for-polaris-30
interessante questo:
polaris 30 è sia su GloFo a 12nm che Samsung sui suoi 11nm (che sono sempre nodo 14nm, comunque).
indistinguibili da identificativo non si potrà sapere mai la provenienza della fonderia e quindi se ci siano differenze tangibili sul prodotto finale...
si dovrà andare di seriale (sperando di capire quelle che vanno meglio e accostandosi il più possibile a quel seriale).
non saprei dire chi delle due fonderie sia migliore ma sono propenso a pensare he Samsung tirerà fuori die più qualitativi (essendo un tier-contractor e sperando di riempire le sue linee anche con i vega, magari).
queste magari erano infornate GloFo?
Ah, logicamente questo va ancora più a braccetto con il discorso: più ne faccio meno mi costano, più le posso scontare...
credo proprio che per questi 6 mesi il FHD è ad appannaggio solo di AMD (almeno per quelli informati e che non hanno fette di salame sugli occhi).
Ma quale stessa fascia di prezzo.
La 480 è stata lanciata a 200 dollari oltre due anni fa.
Ora siamo a 300 euro per un +10/15 % (solo di clock derivanti da nodo più maturo) e il doppio dei consumi di una vetusta 1060.
E come se dopo la 7970 ti avessero venduto la 7970 ghz edition e poi la 1.1 ghz edition.
Questa è proprio una presa in giro, queste schede meritano solo lo scaffale non aggiungono nulla di nulla al mercato.
Comunque questa scheda fa proprio schifo. L'avrei insultata l'avessero lanciata al prezzo della 480 (220 euro per gli 8gb, praticamente mai visti retail tali prezzi a parte agli inizi), esci 3 anni dopo con un +10%? Con un +30% di prezzo? Ma andassero a quel paese e io che li ho supportati comprandogli pure la 580.
Ma la cosa più deprimente è che se lanciano sta roba non hanno proprio nulla di nulla per la fascia media e bassa per il 2019.
Il mercato delle gpu fa sempre più schifo, ben vengano intel e qualunque altro competitor ormai i vendor di gpu si son messi d'accordo sul non fare assolutamente nulla e spremerci con il minimo indispensabile.
perfettamente d'accordo.
Anch'io presi una 580, non che la trovassi conveniente ma con la bolla del mining non c'era molta scelta.
Questa 590 e' un vero insulto all'intelligenza dei consumatori
@nigen
Immagino tirare avanti ancora un po' fino a Navi, proponendo qualcosa di leggermente meglio delle schede precedenti e cercando di coprire una fascia di mercato lasciata scoperta.
Ad ogni modo non lo chiamerei rebrand, c'è un cambio di processo produttivo che ne fa un chip nuovo, anche se nel contenuto cambia poco e nulla.
da contratti/accordi (quel che è), se non ricordo male, amd deve far produrre un tot a GloFo.
se la vedi in quest'ottica "fare per fare" tanto vale che produci sfruttando le possibilità concesse dall'affinamento del processo puntando ad arrotondare verso l'alto le prestazioni.
un po' il fattore novità "apparente" (se mi concedete il termine senza lode e senza infamia), un po' il fatto che va meglio della precedente restando nella stessa fascia di prezzo (da valutare assestamento e disponibilità ovviamente), un po' il fatto che le gpu per le schede pro di prossimo rilascio saranno ad opera di TSMC anziché GloFo... ed ecco che quest prodotto in un certo qual modo trova la sua collocazione.
non è un rebrand, ma un'aggiunta.
industrialmente serve esclusivamente per riempire le pipeline dei 12nm usati per i ryzen.
quando non si fanno processori (che oggi sono più richiesti), si fa la 590, ma si aggiunge al resto delle GPU a 14nm.
non ci si poteva mettere la vega perchè ha rese inferiori ed è grande il doppio, quindi aggiungere una "ultra Vega" aveva poco senso pratico, per i numeri di quel segmento (avrebbe superato i 700 euro, essendo una super-ocked, quindi con dissipatori di una certa sostanza se non addirittura a liquido con AIO).
la 590 invece permette ad AMD di sfornare quei 2 milioni di chip al massimo in più senza avere problematiche di sorta.
hanno usato stessa maschera, quindi il vantaggio tecnico è esclusivamente dovuto ad un migliore resa produttiva per una migliore definizione dei singoli transistors;
pur avendo la medesima densità di transistors questi sono "fatti meglio" e quindi permettono clock superiori, ma essendo un ibrido 14-12nm lo fai con risparmio nullo rispetto ai 14.
fare come ha fatto nvidia, ossia raffinare i 16nm e chiamarli 12nm, significava rifare tutto il chip... a maggio ci sarà la possibilità di avere un chip grosso la metà che avrà le medesime prestazioni sui 7nm e che avrà un rendimento economico superiore... non c'era senso nello spendere per un nuovo chip.
quindi è solo per massimizzare le linee produttive.
No non avete capito... Qual'è il senso di acquistare una scheda simile per l'acquirente finale. Non me ne frega nulla del perchè AMD l'ha fatta, ma del perchè un utente dovrebbe comprarla quando ha prestazioni paragonabili ad una RX 580 che costa ora pure di meno.
Non sarà un rebrand ma è una scheda che ha le stesse prestazioni di una RX 580 leggermente migliorata che raggiunge uno sputo di fps in più in qualche situazione.
Non riesco a trovare un solo motivo per cui dovrei spendere i soldi per una RX 590 al posto di una RX 580 e risparmiare qualcosina.
Siamo a fine 2018 e devo ancora vedere una scheda a questo prezzo e con prestazioni di uno sputo migliori rispetto ad una scheda di più di un'anno fa che a sua volta è un "miglioramento risicato" di una scheda di più di 2 anni fa. A me sembra che ci sia un problema palese.
No non avete capito... Qual'è il senso di acquistare una scheda simile per l'acquirente finale.
scusa avevo frainteso.
probabilmente, se si assesta il prezzo allineandosi alla 580, chi punterebbe quella potrebbe dirottare su questa. comprando oggi io non la prenderei, poi non so l'utenza in media come la accoglierà.
Cmq ribadisco.
Il fatto che che AMD lanci questa gpu alla fine del 2018 significa che in fascia media e bassa non arriva altro per almeno altri 9-12 mesi.
Si spende anche volentieri qualcosina in più... ma per avere, pure, qualcosa di utile in più!
Questa 590 (che è una 580+) venduta a quel prezzo non ha motivo né ragione d'essere acquistata da nessuno, purtroppo.
E dico purtroppo perché io lo aspettavo con impazienza questo "refresh" delle 580 (è dall'aumento dei prezzi causa mining che devo cambiare vga) ... ma mi aspettavo una scheda che andasse un po' meglio (come questa) MA proposta allo stesso prezzo (e anche un po' meno) della 580.. non 'sto furto qui.
come prestazioni pure ci siamo, il prezzo si spera si assesterà o magari in un dato momento chi assembla un pc troverà questa in offerta piuttosto che altre.
sto parlando di una scheda che io stesso non comprerei in quella fascia ma non dubito che verrà comunque venduta, non mi sembra il caso di ammazzarla subito perchè non è il best buy.
piuttosto sarei curioso di vedere come se la cava in produttività visto che le AMD son buone per quel settore.
sintopatataelettronica
17-11-2018, 23:40
sto parlando di una scheda che io stesso non comprerei in quella fascia ma non dubito che verrà comunque venduta, non mi sembra il caso di ammazzarla subito perchè non è il best buy.
Ma se costasse sui 220 euro la comprerei subito pure io. Sarebbe sì un best-buy coi fiocchi senza alcun concorrente, visto che in quella fascia prezzo non c'è NULLA di veramente allettante come prezzo... Cioè.. pure le vecchie 1060 nvidia sono stra-stra-stra-sovraprezzate, ancora... 220-260 euro per quelle ancora con quegli assurdi 3gb ????? a due anni di distanza ?????? (ma al sovraprezzaggio delle schede nvidia ci si è abituati da un bel pezzo.. guarda a che prezzi da usura propongono le nuove serie rx 2000 o che roba di lusso è diventata la loro fascia "enthusiast". ).
Per questo speravo che l'uscita di nuove schede AMD avrebbe rimesso un po' a posto i prezzi della fascia media (l'unica che mi posso permettere io).. . . . . e invece pare che non sarà così... e la cosa mi rammarica molto, visto che è dall'anno scorso - in concomitanza con la maledizione del mining .. che devo cambiare scheda video .
nickname88
18-11-2018, 09:33
*voluto*
*Dovuto*
SOTTR, AC-Odyssey-Monster Hunter-BFV ( mappa Narvik ) con la 1080 liscia dire che si stava stretti è un eufemismo, e ci sono ottime possibilità che con quella scheda alla lista si aggiungeranno Metro Exodus, The Division 2 ed Anthem .... salvo downgrade in stile Ubisoft.
stessa identica pratica di Nvidia con la sua ultima serie.
prezzo ridicolo e prestazioni ridicole.
ho comprato la rx480 2 anni fa a 240 euro, e se dovessi comprare una scheda di fascia media ora prenderei la rx580 che in italia si trova a 230 sugli shop minori.
all'estero, su amazzzzòn la rx580 costa 200 euro.
ovviamente parlo di versioni 8gb di marca.
perciò:
1) il prezzo in italia è più alto non si capisce perchè
2) il prezzo della rx590 è totalmente insensato visto il divario di prestazioni non solo ridicolo rispetto alla 580 ma anche rispetto alla rx480. le schede fanno LE STESSE COSE. non è che con la 590 giochi a risoluzione più alta.
3) i prezzi sono ridicoli in assoluto nel settore
se ti servono le prestazioni della rx590, compri la rx580 e spendi 100 euro di meno.
se devi spendere 300 euro, ne spendi 350 per una 1070.
unico motivo per scegliere la rx590, per chi riesce ad accaparrarselo, è il bundle con 3 giochi. senza di quello sono soldi buttati.
Gia molte cose si sapevano prima dei test , ora che sono state provate il bello è trovare chi le difende ancora ....
-va poco piu di una 580
-consuma come schede che vanno il doppio
-non ti permette aumenti di risoluzione
Polaris con questi consumi è chiaramente fuori luogo , potevano farlo morire con la 580 che per quello che offre ora il mercato è un ottima scheda di fascia media , ma piazzare questa 590 a 300 e passa euro è insulto .
Spero solo che faccia scendere la 580 che gia si è vista sotto i 200 euro al estero
non la sta difendendo nessuno,pero' tutte le volte che esce un nuovo prodotto di chichessia c'e' sempre la stessa lamentela"costa troppo"
e' ovvio che all'inizio il prezzo sia gonfiato e in questo caso comunque tamponato dal bundle
finita la promozione e terminate le 580 poi la si trovera' a un prezzo decente
piuttosto le vere antagoniste paradossalmente sono proprio le 580 in liquidazione un po dappertutto,e fino a qualche giorno fa si trovava pure vega 56 a qualche decina di € in piu':eek:
ottima anche la 570 costa ormai meno di una 1050ti e in dx12 sta poco dietro alla 1060/6GB
dopo lo schifo subito dal mining finalmente almeno nella fascia media si respira:)
nickname88
18-11-2018, 12:41
Gia molte cose si sapevano prima dei test , ora che sono state provate il bello è trovare chi le difende ancora ....
I soliti 3 fanboy.
I soliti 3 fanboy.
no, scusami, ma se proprio vuoi a 300 euro ci trovi le 1060 6GB (e manco quelle da 9Ghz sulla ram), che consuma di meno, ma va comunque meno, e certe volte sensibilmente meno.
la paghi solo di più.
come qulcuno ha già scritto spesso la 1060 6GB viene messa sotto da una 570, e la 570 la trovi sui 150 euro, ormai...
e comunque all'estero, gia quelle in preorder le trovi a 259...
https://www.mindfactory.de/product_info.php/8GB-XFX-Radeon-RX-590-Fatboy-Aktiv-PCIe-3-0-x16--Retail-_1283989.html
sullo stesso store la più scarsa 1060 la vendono a 230, le 580 che bissano le 1060 6GB le trovi a 199 euro.
qui ci sono solo 30 euro medi di differenza per un 10-15% in più.
certo che se ti rifai al prezzo del preorder di e-price a 330 euro la vautazione cambia...
la scheda verrà distribuira il 20 (martedì), e in quella data vedrai i prezzi sul mercato.
come ho scritto, ed è facile da intuire, queste non sostituiscono le 580, ma le affiancano (sennò le chiamavano direttamente 680).
sono per chi vuole partire sicuro già con le prestazioni di una 580 in overclock, come se fossero chip scelti, come quando ci sono quelli che acquistano certi marchi per le Geforce che sanno che vanno di più perchè hanno chip selezionati e sono disposti a pagarle molto di più delle custom generiche.
serve, non serve?
è un nuovo SKU, non una linea nuova, e serve solo per essere venduto.
quindi non è assolutamente un discorso da fanboy.
è sostenere l'inutilità di questa scheda che invece è un discorso di haters, perchè mostra palesemente l'insensato prezzo che hanno le 1060 per le prestazioni che danno.
a confronto le 1060 dovrebbero costare massimo 200 euro, al meglio della produzione.
MiKeLezZ
18-11-2018, 15:05
la scheda verrà distribuira il 20 (martedì), e in quella data vedrai i prezzi sul mercato.Il prezzo ufficiale è 309 euro, ma è chiaro che ci saranno degli "sconti magici" che la faranno andare magari a 280 euro (e servono per attirare i "polli"). Ma restano cifre insensate per una 480 overcloccata con tecnologie di 3 anni fa.
come ho scritto, ed è facile da intuire, queste non sostituiscono le 580, ma le affiancano (sennò le chiamavano direttamente 680).
sono per chi vuole partire sicuro già con le prestazioni di una 580 in overclock, come se fossero chip scelti, come quando ci sono quelli che acquistano certi marchi per le Geforce che sanno che vanno di più perchè hanno chip selezionati e sono disposti a pagarle molto di più delle custom generiche.Secondo me stai farneticando. Queste schede le hanno chiamate 590 per fare capire che vadano più delle 580.
Hanno messo il prezzo a 300 euro per guadagnare sui poverini che la comprano, abbagliati dai 3 giochini in bundle o poco altro e per evitare che cannibalizzino le vendite delle (ancora tantissime nei magazzini) 580.
Le 580 spariranno dal mercato perché il chip delle 580 non viene più prodotto.
Una volta che sono sparite anche il prezzo di queste 590 "magicamente" scenderà, più o meno a 10 euro o 20 euro in meno delle 1060 6GB.
serve, non serve?
è un nuovo SKU, non una linea nuova, e serve solo per essere venduto.Di chi parliamo? Consumatore o produttore?
Ad AMD serve in quanto non ha nessuna nuova scheda da vendere e si avvicina il periodo del black friday e quello natalizio in cui la gente compra.
Inoltre serve perché così riempie la capacità produttiva delle fabbriche (che costa lasciare a fare niente).
Al consumatore è chiaro che non servono assolutamente a nulla. Consumano di più delle 580 e vanno un niente di più.
Al consumatore avrebbe fatto molto più comodo avere delle 580 dai minori consumi e vendute sui 180 euro.
quindi non è assolutamente un discorso da fanboy.Certo che è un discorso da fanboy, in quanto lo hai detto tu (e non i fatti).
Tu sei un famoso fanboy delle VGA AMD che arriva a dire che le 1060 sono un "cattivo acquisto".
mostra palesemente l'insensato prezzo che hanno le 1060 per le prestazioni che danno.
a confronto le 1060 dovrebbero costare massimo 200 euro, al meglio della produzione.Le 1060 6GB ieri l'altro costavano sui 230 euro, che sono 70 euro in meno di questa 590. Non mi sembra un cattivo prezzo, considerando anche che risparmi altri 10/20/30 euro in bolletta grazie ai minori consumi.
no, mikelez, la 1060 non costano 230 euro.
sono le "poche e sporadiche" schede 1060 a fine linea produttiva che costano così.
lascia stare il mercato italiano, che non ha nessun senso di coerenza, ma all'estero a 230 euro ci prendi a malapena una 1060 3GB (in italia ci arrivano le 1050 Ti, per farti capire come il mercato italiano è senza coerenza).
https://www.mindfactory.de/product_info.php/3GB-Palit-GeForce-GTX-1060-StormX-Aktiv-PCIe-3-0-x16--Retail-_1119670.html
questa è la 1060 più economica del mercato EUROPEO!
una 3GB monoventola con dissipatore senza nemmeno heatpipe per la distribuzione del calore (perchè tanto è monoventola!).
non puoi nemmeno confrontarla a questa:
https://www.mindfactory.de/product_info.php/4GB-Asus-Radeon-RX-570-Expedition-OC-Aktiv-PCIe-3-0-x16--Retail-_1171085.html
una 570 4GB, perchè almeno questa ha un dissipatore decente.
50 euro di differenza per una scheda, la 1060 3GB, che va meno, molto meno.
se i prezzi delle 590 sono insensati è perchè i prezzi delle nvidia lo sono di più, e quindi sì, AMD ne stà approfittando dandoti un prodotto prestazionalmente superiore, con i 3 giochetti, MA ALLO STESSO PREZZO DELLA 1060!
insensata l'una, la 590, quanto insensate le altre, le 1060.
alternative?
non ci sono prodotti validi su questa fascia... nisba, o quelle o quelle, o altri 100 euro minimo per una 1070 o vega 56.
per me, ma credo anche per te, che per il FHD nel 2018 vede che si devono spendere 300 euro è un discorso assurdo e se fossimo tutti come noi rimarrebbero sugli scaffali, ma ti assicuro che la gentre acquista uguale e per quella gente sentire che la 590 è "inutile" ed è meglio una 1060 ALLO STESSO PREZZO è una palese presa per i fondelli.
qual'è la differenza?
che AMD può tagliare i 3 giochi e con la maggiore produzione garantita con questo surpluss di schede che non ledono i pezzi prodotti di quelle che ci sono già, ma che si aggiungono, può abbassare i prezzi consistentemente, di almeno 40$ dai 279$ annunciati, ma che non lo fa finchè la concorrenza propone un prodotto prestazionalmente inferiore allo stesso identico prezzo e senza manco i 3 giochini.
quindi guardare il prezzo ora è superfluo perchè cambieranno a breve.
rimane un semplice fatto:
AMD può vendere allo stesso prezzo di nvidia per prestazioni superiori.
tocca a nvidia posizionare la 1060 ad un prezzo per cui ad AMD non conviene scendere (e quel prezzo è 200$, perchè AMD può scendere a 230$ con quella scheda).
SiR.OnLy
18-11-2018, 18:22
cioè in sostanza io che ho acquistato una rx580 a 300€ 1 mese e mezzo fa sono uno ******* :muro:
MiKeLezZ
18-11-2018, 19:35
no, mikelez, la 1060 non costano 230 euro.
sono le "poche e sporadiche" schede 1060 a fine linea produttiva che costano così.
lascia stare il mercato italiano, che non ha nessun senso di coerenza, ma all'estero a 230 euro ci prendi a malapena una 1060 3GB (in italia ci arrivano le 1050 Ti, per farti capire come il mercato italiano è senza coerenza).
https://www.mindfactory.de/product_info.php/3GB-Palit-GeForce-GTX-1060-StormX-Aktiv-PCIe-3-0-x16--Retail-_1119670.html
questa è la 1060 più economica del mercato EUROPEO!
una 3GB monoventola con dissipatore senza nemmeno heatpipe per la distribuzione del calore (perchè tanto è monoventola!).
non puoi nemmeno confrontarla a questa:
https://www.mindfactory.de/product_info.php/4GB-Asus-Radeon-RX-570-Expedition-OC-Aktiv-PCIe-3-0-x16--Retail-_1171085.html
una 570 4GB, perchè almeno questa ha un dissipatore decente.
50 euro di differenza per una scheda, la 1060 3GB, che va meno, molto meno.
se i prezzi delle 590 sono insensati è perchè i prezzi delle nvidia lo sono di più, e quindi sì, AMD ne stà approfittando dandoti un prodotto prestazionalmente superiore, con i 3 giochetti, MA ALLO STESSO PREZZO DELLA 1060!
insensata l'una, la 590, quanto insensate le altre, le 1060.
alternative?
non ci sono prodotti validi su questa fascia... nisba, o quelle o quelle, o altri 100 euro minimo per una 1070 o vega 56.
per me, ma credo anche per te, che per il FHD nel 2018 vede che si devono spendere 300 euro è un discorso assurdo e se fossimo tutti come noi rimarrebbero sugli scaffali, ma ti assicuro che la gentre acquista uguale e per quella gente sentire che la 590 è "inutile" ed è meglio una 1060 ALLO STESSO PREZZO è una palese presa per i fondelli.
qual'è la differenza?
che AMD può tagliare i 3 giochi e con la maggiore produzione garantita con questo surpluss di schede che non ledono i pezzi prodotti di quelle che ci sono già, ma che si aggiungono, può abbassare i prezzi consistentemente, di almeno 40$ dai 279$ annunciati, ma che non lo fa finchè la concorrenza propone un prodotto prestazionalmente inferiore allo stesso identico prezzo e senza manco i 3 giochini.
quindi guardare il prezzo ora è superfluo perchè cambieranno a breve.
rimane un semplice fatto:
AMD può vendere allo stesso prezzo di nvidia per prestazioni superiori.
tocca a nvidia posizionare la 1060 ad un prezzo per cui ad AMD non conviene scendere (e quel prezzo è 200$, perchè AMD può scendere a 230$ con quella scheda).
Io giuro che a volte non ti capisco proprio. C'è un limite alle bugie che uno può dire...
https://preview.ibb.co/cDKpEf/Annotazione-2018-11-18-203323.jpg
Portocala
18-11-2018, 19:36
quindi non hai perso niente.
Ma non avrà i 3 giochi che usciranno l'anno prossimo :asd:
lascia stare il mercato italiano, che non ha nessun senso di coerenza, ma all'estero a 230 euro ci prendi a malapena una 1060 3GB (in italia ci arrivano le 1050 Ti, per farti capire come il mercato italiano è senza coerenza).
https://www.mindfactory.de/product_info.php/3GB-Palit-GeForce-GTX-1060-StormX-Aktiv-PCIe-3-0-x16--Retail-_1119670.html
questa è la 1060 più economica del mercato EUROPEO!
Scusa ma: prima dici che il prezzo più basso è 230 ma poi metti un link di una scheda da 198 euro :asd:
https://i.kym-cdn.com/photos/images/newsfeed/000/993/875/084.png
Io non capisco che senso abbia paragonare il prezzo al lancio di questa 590 con il prezzo al lancio della 480 che è stata lanciata 2 anni e mezzo fa e sappiamo bene cosa è successo nel frattempo ai prezzi delle vga.
Lo scrivi come se AMD non abbia influenza sui prezzi delle vga...
A me sembra chiaro che sia Nvidia che AMD stiano facendo cartello sui prezzi.
Ed e' inutile tirare fuori la scusa del mining. Avrebbero potuto benissimo produrre piu' schede per venir eincontro alla domanda.Ed infatti Nvidia pare abbia un sacco di 1060 invendute. Ma i prezzi non intende calarli.E adesso che il mining si e' sgonfiato (almeno temporaneamente) e non solo l'offerta supera la domanda, ma pure il mercato dell'usato e' inondato di schede,
i prezzi restano terribilmente inflazionati.
I consumatori dovrebbero farsi furbi e no comprare fino a quando le 2 case non proporranno un rapporto prestazioni/prezzo che faccia davvero la differenza con le schede passate.
Chi ha comprato a suo tempo la serie r9 290, e parliamo di 5-6 anni fa, a 250 euro non ha motivo ancor oggi di cambiare scheda. Con le gpu stan facendo quel che ha fatto intel con le cpu negli ultimi 8 anni, ovvero offrire incrementi annuali del 5-10 %.
Portocala
18-11-2018, 20:18
Vedendo il video di Linus, in realtà nella RX 590 non c'è alcun 12nm ma sempre 14nm :eek:
https://youtu.be/xEileqxmags?t=478
interessante articolo su nvidia,sul perche i prezzi delle schede video sono troppo alti e nonostante le trimestrali record,stia crollando in borsa
https://seekingalpha.com/article/4222791-chipwrecked-inside-nvidia-crash
nickname88
18-11-2018, 22:23
no, scusami, ma se proprio vuoi a 300 euro ci trovi le 1060 6GB (e manco quelle da 9Ghz sulla ram), che consuma di meno, ma va comunque meno, e certe volte sensibilmente meno.
la paghi solo di più.
La 1060 consuma meno ? Diciamo la metà, pagando il 12% di performance.
Questa è la dura e cruda realtà, che ti piaccia oppure no.
Senza considerare che stai facendo finta di non sapere che la 1060 verrà aggiornata e questo gap prestazionale tornerà allineato.
Inoltre mi sembra di capire che tu non hai ben inteso che la versione aggionata non sarà un nuovo modello, la 1060 sarà sempre una sola ma verrà semplicemente effettuato un update delle specifiche.
Scusa ma: prima dici che il prezzo più basso è 230 ma poi metti un link di una scheda da 198 euro :asd:
https://i.kym-cdn.com/photos/images/newsfeed/000/993/875/084.png
tu chiami la 1060 3GB una scheda seria?
ah ah ah....
nemmeno quelle postate da Mikelez sono alla pari di una scrausissima FE, in quanto sono monoventola ma non hanno minimanente ne i chip selezionati nvidia ne tantomeno il dissipatore nvidia, quindi non fanno nemmeno i risultati di una FE ma inferiori.
a 230 (e ribadisco ALL'ESTERO!) trovi schede con dissipatori esclusivamente in alluminio...
con quelli parti da 1850mhz e scendi a 1750 in un baleno, e li rimani.
le FE partono a 2200mhz e si stazionano a 1950mhz dopo 10 minuti.
200mhz di differenza dopo i primi 10 minuti d'uso, ma sporattutto sono i 350mhz per i primi minuti (quelli che usano per fare i benchmark e prendere i numeri) che sono sensibilmente inferiori.
quelle schede vanno meno di una 1060 3GB biventola e con un dissipatore decente (almeno finchè non saturi i 3GB di ram).
il mondo è vario e si deve anche capire con quello che si ha a che fare, e quella è semplicemente mondezza hardware.
quelle che considera Michelez io nemmeno ne tengo in considerazione perchè sono schede solo per polli... meglio le reference, a questo punto.
La 1060 consuma meno ? Diciamo la metà, pagando il 12% di performance.
Questa è la dura e cruda realtà, che ti piaccia oppure no.
Senza considerare che stai facendo finta di non sapere che la 1060 verrà aggiornata e questo gap prestazionale tornerà allineato.
su quale gioco?
un vetusto ARMA 3?
o un assasin?
poi quanto consuma meno?
100W?
le 1060 "corrazzate" partono da 300 euro e non raggiungono le 590 a default, nemmeno nei giochi pro nvidia.
consumano oltre 150W contro i 200W di una 590 in gaming (non in futuremark, ma in gaming).
quando si parla di giochi DX12 non riescono a stare dietro nemmeno ad una 570 semplice semplice.
non c'è più mercato per quella scheda.
o tagliano il prezzo in maniera consistente, o se la possono prendere solo quelli come te.
nickname88
18-11-2018, 22:43
su quale gioco?
un vetusto ARMA 3?
o un assasin?Stai spulciando fra le scuse da accantonare ?
poi quanto consuma meno?
100W?Consuma la metà.
Oh scusa se è poco.
Bella l'idea di comperare un prodotto che consuma il doppio per andare il 12% di più ( per ora ).
le 1060 "corrazzate" partono da 300 euro e non raggiungono le 590 a default, nemmeno nei giochi pro nvidia.Quindi ? :asd:
La 1060 è una scheda vecchia caro mio, è nata per fronteggiare originariamente la 480.
Che senso ha fare paragoni se già sai che è attesa l'apposita versione aggiornata per questo ?
consumano oltre 150W contro i 200W di una 590 in gaming (non in futuremark, ma in gaming).
quando si parla di giochi DX12 non riescono a stare dietro nemmeno ad una 570 semplice semplice.
non c'è più mercato per quella scheda.
o tagliano il prezzo in maniera consistente, o se la possono prendere solo quelli come te.
Si si continua a sparare cavolate.
https://tpucdn.com/reviews/Sapphire/Radeon_RX_590_Nitro_Plus/images/relative-performance_1920-1080.png
https://tpucdn.com/reviews/Sapphire/Radeon_RX_590_Nitro_Plus/images/power_average.png
Persino Computerbase con un altro parco giochi restituisce lo stesso risulta :asd:
Tranquillo se vai a vedere la comparativa a 1080p la media scende addirittura a 10%.
https://image.ibb.co/iPxh0L/Cattura.jpg
MiKeLezZ
18-11-2018, 23:10
tu chiami la 1060 3GB una scheda seria?
ah ah ah....
nemmeno quelle postate da Mikelez sono alla pari di una scrausissima FE, in quanto sono monoventola ma non hanno minimanente ne i chip selezionati nvidia ne tantomeno il dissipatore nvidia, quindi non fanno nemmeno i risultati di una FE ma inferiori.
a 230 (e ribadisco ALL'ESTERO!) trovi schede con dissipatori esclusivamente in alluminio...
con quelli parti da 1850mhz e scendi a 1750 in un baleno, e li rimani.
le FE partono a 2200mhz e si stazionano a 1950mhz dopo 10 minuti.
200mhz di differenza dopo i primi 10 minuti d'uso, ma sporattutto sono i 350mhz per i primi minuti (quelli che usano per fare i benchmark e prendere i numeri) che sono sensibilmente inferiori.
quelle schede vanno meno di una 1060 3GB biventola e con un dissipatore decente (almeno finchè non saturi i 3GB di ram).
il mondo è vario e si deve anche capire con quello che si ha a che fare, e quella è semplicemente mondezza hardware.
quelle che considera Michelez io nemmeno ne tengo in considerazione perchè sono schede solo per polli... meglio le reference, a questo punto.Ma tu prima di postare su hwupgrade bevi (alcool, intendo)? Stai bene? Sei febbricitante?
La PALIT GTX1060 6GB (NE51060V15J9-1061D) viene (in questo preciso istante) 239,90 euro :
https://preview.ibb.co/giopfL/Annotazione-2018-11-19-001215.jpg
Sempre se i miei occhi non mi ingannano non mi risulta "a singola ventola" :
https://image.ibb.co/gjAALL/p02978-propng-9005b4ef38800d0a.png
(nota: Sicuramente per una RX580 e ancora di più una RX590 l'avere "due ventole" è importante, ma non certo per una GTX1060: la mia GIGABYTE GTX1060 6GB ne ha una ed addirittura la ferma da tanto che i consumi e le temperature sono bassi... rimanendo totalmente passiva... eh già, con alcuni giochi io vado totalmente passivo, zero rumore... a questo servono ben 100W in meno di consumi).
Non mi risulta neppure che questa PALIT "vada meno di una F.E."... Anche perché rispetto il modello base ha 1531 MHz di clock (invece dei 1506 MHz della F.E.) e 1746 MHz di boost (invece dei 1708 MHz della F.E.).
Come vedi ha un dissipatore a heatpipe, due ventolone e tutte le uscite video possibili. Mi dici quale è il tuo problema? Solo che non vi sia stampato il logo "AMD", suppongo...
:mbe: :doh: :gluglu: :nonsifa:
tu chiami la 1060 3GB una scheda seria?
Scusami ma... ti fanno notare che i numeri che avevi dato erano sballati e questa è la tua risposta? Tu avevi parlato della versione a 3GB per sottolineare che a quel prezzo si trovavano solo le versioni castrate, ora non va più bene?
poi quanto consuma meno?
100W?
E dimmi nulla! Su un consumo di poco più di 200W, siamo quasi al quel "doppio" di cui si è parlato.
Grazie a questi "12nm" forse AMD avrebbe avuto l'occasione di fare una 580 migliorata, ossia con le prestazioni di una 580 ma con consumi ridotti (e quindi più competitiva da questo punto di vista con la 1060 6GB), invece ha deciso di puntare sull'incremento di prestazioni, probabilmente per giustificare un incremento del prezzo di listino.
Non sono consumi insopportabili e ci saranno sicuramente quelli a cui importa poco, però indubbiamente la differenza è notevole e si sente, soprattutto in questa fascia di prodotto.
Le 1060 3g non vanno neanche tenute in considerazione
Piuttosto ci sono le 1050ti che le fanno pure low profile
nickname88
19-11-2018, 12:22
nVidia questo haPreoccupante è che il vetusto GP106 possa ancora competere con la concorrenza dopo oltre due anni. Sul mancato primato prestazionale assoluto sulla fascia media sembra che Nvidia la notte dorma sogni tranquilli.
con cosa vuoi farli i paragoni? Huang stesso ha dichiarato che nuove schede non prima di 2 o 3 trimestri.Finchè la concorrenza è questa non mi stupirei se la 2060 continui a non vedere la luce anche dopo quell'arco temporale. L'aumento di frequenza sulle RAM probabilmente è più che sufficiente.
Questa scheda nasce per non avere concorrenza a natale, ed è quello che sarà.magra consolazione
Preoccupante è che il vetusto GP106 possa ancora competere con la concorrenza dopo oltre due anni.
Perché scusa, Polaris (con cui appunto compete GP106) non è altrettanto vetusto? Quindi che senso ha quel che stai dicendo?
bagnino89
19-11-2018, 13:36
Più che altro non capisco perché Nvidia, se veramente ha questo mare di 1060 invendute, non tagli il prezzo di listino e via... Sarebbe anche il periodo ideale per una scelta commerciale del genere. Considerando il chippino in gioco, credo che continuerebbe a guadagnarci senza problemi.
Evidentemente piano piano le vendite ci sono, e non gli interessa aumentare il rate di vendita.
MiKeLezZ
19-11-2018, 13:53
Più che altro non capisco perché Nvidia, se veramente ha questo mare di 1060 invendute, non tagli il prezzo di listino e via... Sarebbe anche il periodo ideale per una scelta commerciale del genere. Considerando il chippino in gioco, credo che continuerebbe a guadagnarci senza problemi.
Evidentemente piano piano le vendite ci sono, e non gli interessa aumentare il rate di vendita.Perché è pressoché in monopolio con il 76% di market share e quindi abbassandole di prezzo non fa concorrenza a nessuno se non a se stessa (con gente che comincia a preferire la 1060 al posto della 1050 o della 1070).
bagnino89
19-11-2018, 14:02
Perché "riduco ASP" ha esattamente lo stesso impatto sul titolo che ha "troppo inventario" e prenderebbe una seconda botta.
Quindi siamo in stallo. :p
Perché è pressoché in monopolio con il 76% di market share e quindi abbassandole di prezzo non fa concorrenza a nessuno se non a se stessa (con gente che comincia a preferire la 1060 al posto della 1050 o della 1070).
Ecco, questo discorso ci sta... Quindi, come dicevo, evidentemente si sono fatti due conti e hanno stimato che con qualche mese le smaltiscono tutte le 1060. Sta di fatto che i consumatori non ci guadagnano mai, eh...
nickname88
19-11-2018, 14:04
Perché scusa, Polaris (con cui appunto compete GP106) non è altrettanto vetusto? Quindi che senso ha quel che stai dicendo?
Polaris è alla 2° implementazione.
GP106 è lo stesso chip uscito due anni e rotti fa, senza contare che il primo Polaris è uscito oltretutto dopo.
nickname88
19-11-2018, 14:07
Sta di fatto che i consumatori non ci guadagnano mai, eh...
I consumatori ci guadagnerebbero se la concorrenza portasse prodotti nuovi con politiche di prezzo aggressive.
Come la stessa AMD fece tempo addietro quando fece debuttare nel mercato la HD 4870.
bagnino89
19-11-2018, 14:13
I consumatori ci guadagnerebbero se la concorrenza portasse prodotti nuovi con politiche di prezzo aggressive.
Ricordo a tutti l'era della serie HD4000 e del primo Ryzen.
Vero, però c'è da considerare anche questo: in generale, Nvidia ha tirato su i prezzi di un po' tutte le fasce, e nonostante tutto ha venduto senza problemi mantenendo il market share... Ho come il sospetto che, anche se AMD tirasse fuori qualche buona GPU, non tirerebbe troppo i prezzi, ma cercherebbe di allinearsi ai prezzi proposti da Nvidia.
Tutto dipende, secondo me, dalla volontà che ha AMD nel voler recuperare lo share nelle GPU - ammesso, ovviamente, che riesca a tirare fuori qualche buona GPU.
nickname88
19-11-2018, 14:35
Veramente di GP106 hanno già fatto 3 revisioni e adesso arriva la quarta, senza contare la GP104 supercuttata e le 3gb che a loro volta hanno già 3 versioni.
https://www.techpowerup.com/gpu-specs/geforce-gtx-1060-6-gb.c2862
https://www.techpowerup.com/gpu-specs/geforce-gtx-1060-6-gb-rev-2.c3063
https://www.techpowerup.com/gpu-specs/geforce-gtx-1060-6-gb-9gbps.c2952
Quindi alla fine di 1060 ne hanno già fatte 7 versioni diverse e una in arrivo (o due se rifanno anche la 3gb con le gddrx5)
La cosa furba che ha fatto Nvidia è chiamarle sempre 1060 senza fare troppo casino come ha fatto AMD.
Ancora con sta pagliacciata ?
Di GP106 ce nè uno solo, la versione 3GB usa una castrazione, le altre due sono semplicemente dei GP104.
nickname88
19-11-2018, 14:39
Clickare sui link è troppo difficile?
Manco se ti dimostrano la cosa ci credi.
Nel database di TPU le classificano diversamente perchè si divertono.Io vedo tutti e 3 con le stesse specifiche sul chip.
Stessa dimensione, stesse unità, stesso TDP e stessa frequenza.
Cosa che non si può di certo dire di Polaris fra RX480, 580 e 590
nickname88
19-11-2018, 14:40
Viene quasi da chiedersi perché abbia sia il nome GP106-400-A1 che GP106-410-A1, se sono uguali.
E se sono uguali quelli sono uguali anche i Polaris. Di che stai farneticando?
Bastava leggere.
La sigla indica la versione con GDDR5 da 9Gbps :rolleyes:
Il che non ha a che fare col chip, che è lo stesso.
nickname88
19-11-2018, 14:44
Ma se una ha pure le memorie diverse.
Versione? Ma non erano uguali?
Ah adesso le frequenze della RAM centrano col chip ? Questa non la sapevo. :asd:
Per altro usa anche lo stesso tipo, quindi non implica alcuna variazione al controller.
Il chip GP106 ha mantenuto le stesse specifiche d'uscite, anche con le schede realizzate con gli scarti di GP104 e le manterrà anche con le prossime specifiche aggiornate, fatevene una ragione.
Polaris è alla 2° implementazione.
In realtà è sempre Polaris, su un processo produttivo affinato.
Avessero messo mano al chip migliorandolo (come ci si auspicava) sarebbe stato un altro discorso, ma così è solo una revisione dello stesso chip.
E, come ti hanno fatto notare, le revisioni non sono mancate neppure per GP106.
Io vedo tutti e 3 con le stesse specifiche sul chip.
Stessa dimensione, stesse unità, stesso TDP e stessa frequenza.
Cosa che non si può di certo dire di Polaris fra RX480, 580 e 590
Stiamo parlando di chip, non di scheda.
La variazione delle frequenze non ha nulla a che fare con questo discorso, per AMD sempre di Polaris si tratta, per Nvidia sempre di GP106.
Rimane il fatto che in entrambi i casi si tratta di un'architettura risalente a circa due anni e mezzo fa, quindi il discorso che facevi non ha alcun senso.
MiKeLezZ
19-11-2018, 14:54
Veramente di GP106 hanno già fatto 3 revisioni e adesso arriva la quarta, senza contare la GP104 supercuttata e le 3gb che a loro volta hanno già 3 versioni.
https://www.techpowerup.com/gpu-specs/geforce-gtx-1060-6-gb.c2862
https://www.techpowerup.com/gpu-specs/geforce-gtx-1060-6-gb-rev-2.c3063
https://www.techpowerup.com/gpu-specs/geforce-gtx-1060-6-gb-9gbps.c2952
Quindi alla fine di 1060 ne hanno già fatte 7 versioni diverse e una in arrivo (o due se rifanno anche la 3gb con le gddrx5)
La cosa furba che ha fatto Nvidia è chiamarle sempre 1060 senza fare troppo casino come ha fatto AMD.Ma ci stai prendendo tutti per il culo? Ti è già stato risposto il 30 di Ottobre. Già allora facevi le stesse affermazioni senza senso.
https://www.hwupgrade.it/forum/showpost.php?p=45850778&postcount=103
In questi 2 anni di commercializzazione della 1060 6GB, nei negozi si è sempre e solo trovata una versione, ovvero la classica con GP106, bus da 192 bit e memorie da 8Gbps.
La versione da 9Gbps è sempre stata pressoché introvabile (tutt'ora credo sia estinta), il che non è mai fregato a nessuno dato che offriva solo l'1%-3% di prestazioni in più a un prezzo del 10% superiore.
Vedi? Come puoi quindi continuare a sparare falsità senza provare un minimo di vergogna? Tanta gente legge il forum, è pubblico.
Viene quasi da chiedersi perché abbia sia il nome GP106-400-A1 che GP106-410-A1, se sono uguali.
E se sono uguali quelli sono uguali anche i Polaris. Di che stai farneticando?Perché NVIDIA serigrafa i chip (che sono identici) a seconda che questi siano usati per la versione da "9Gbps" (410) oppure "classica" (400), per ovvi motivi di rintracciabilità.
MiKeLezZ
19-11-2018, 15:04
Guarda che se scrivi una fesseria il 30 di ottobre non è che 20 giorni dopo diventa vera solo perchè io non ti rispondo :asd:Ti consiglio di iniziare un periodo di automiglioramento, perché nel tuo profondo alberga qualcosa di veramente grave.
Il bugiardo patologico è colui che mente incessantemente per ottenere qualcosa e lo fa senza curarsi delle conseguenze emotive e comportamentali che questo atteggiamento può avere sugli altri.
In questo caso l’abitudine alla menzogna è vista come meccanismo per affrontare la realtà. Il bugiardo patologico è in genere manipolativo, autocentrato e ben poco empatico rispetto alla dimensione psicologica delle altre persone.
La persona che mente ha interiorizzato da così tanto tempo il meccanismo della menzogna che riesce a conviverci in modo egosintonico e difficilmente percepisce il suo modo di fare come patologico.
Il primo passo da realizzare è quindi l’autoconsapevolezza, ovvero rendersi conto di avere un problema su cui lavorare. In seconda battuta va sottolineato che, come ogni altro comportamento che offre comfort e fuga dallo stress, la menzogna può creare dipendenza e assuefazione, quindi si tratta di un qualcosa difficile da disimparare. Come per le tossicodipendenze, se non c’è una forte motivazione a smettere, è difficile che si possa approdare a cambiamenti strutturali per la persona. I bugiardi sono tanto abituati a mentire che, spesse volte, non riescono a distinguere più la realtà dalla fantasia. E’ come se la bugia andasse a sostituire la verità con dei contenuti compensatori che completano perfettamente il puzzle della realtà. Infine, la realtà stessa assume una connotazione di falsità e la bugia diventa la realtà.
La prima caratteristica che connota un bugiardo patologico è dichiararsi sostenitori della sincerità e dei valori. Si tratta di persone severamente malate, anche se appaiono normali in superficie, e il loro disturbo può provocare gravissime conseguenze a chi sta loro vicino.
Sono persone che non hanno consapevolezza della loro malattia e credono che mentire sia giusto al fine di proteggere il proprio ego per guadagnare dei benefici. Gli altri, naturalmente, ricevono dai danni gravi in risposta ai comportamenti spietatamente manipolatori, e mendaci messi in atto dal bugiardo. Fondamentalmente, si tratta di persone che sono in grado di inscenare una pantomima della realtà fino ad apparire sinceri al più attento osservatore.
A molti capita di incontrare e conoscere persone con tale disturbo; essi si presentano con grande attorialità, ipocrisia (“ipocrita”, in greco significa attore) e astuzia come persone buone e sincere, quindi utilizzano questa maschera come copertura al fine di poter mentire e raggirare con maggior efficacia. Perciò è molto difficile riconoscerli e si può facilmente diventarne vittima nelle relazioni di amicizia, di lavoro e sentimentali.
Per saperne di più: http://www.stateofmind.it/2011/12/bugiardo-patologico/
bagnino89
19-11-2018, 15:12
:asd:
nickname88
19-11-2018, 16:06
Prima mi dici che hanno le stesse specificheIl chip ha le stesse identiche specifiche.
Dimensione
Processo produttorivo
Numero di transistors
TDP
Unità di calcolo
Frequenza
Il prodotto venduto infatti ha lo stessa nomenclatura.
e non è vero perchè montano memorie diverse.GDDR5 sono sempre GDDR5 indipendentemente dalla frequenza a cui girano, sarebbero state differenti se fossero state GDDR6.
In realtà c'è la FE 8gbps che è 400 e la FE 9gbps che è 410 e ho messo i link al database TPU ma tanto qua le scemenze ormai si sprecano.
P.S: guarda che la smetto di partecipare a questo delirio ma questo non implica che tutto quello che scrivi dopo è vero :asd:Fai bene a smettere se non riesci ad arrivarci.
La frequenza della RAM non centra una mazza col chip.
nickname88
19-11-2018, 16:07
In realtà è sempre Polaris, su un processo produttivo affinato.
Avessero messo mano al chip migliorandolo (come ci si auspicava) sarebbe stato un altro discorso, ma così è solo una revisione dello stesso chip.
E, come ti hanno fatto notare, le revisioni non sono mancate neppure per GP106.
Stiamo parlando di chip, non di scheda.
La variazione delle frequenze non ha nulla a che fare con questo discorso, per AMD sempre di Polaris si tratta, per Nvidia sempre di GP106.
Rimane il fatto che in entrambi i casi si tratta di un'architettura risalente a circa due anni e mezzo fa, quindi il discorso che facevi non ha alcun senso.
Polaris con differenti frequenze.
E questa RX590 di fatto è un altro chip avendo eseguito il passaggio di PP, oltre all'ulteriore overclock.
GP106 invece ha mantenuto le specifiche invariate, non è aumentato di frequenza e non viene prodotto con altri PP.
Polaris con differenti frequenze.
Che problema ti danno le diverse frequenze? I produttori di chip da sempre vendono gli stessi chip a frequenze differenti per motivi che vanno dalle rese produttive alla differenziazione di mercato. Ciò nonostante sempre dello stesso chip si tratta.
Il commercializzare schede in cui i chip hanno frequenze differenti non fa alcune differenza in questo discorso.
Ora, l'unica vera differenza in Polaris è il processo produttivo, anche se sappiamo bene che si tratta di un avanzamento minore (sappiamo che si tratta di un 14nm migliorato) il cui unico vantaggio è stato appunto... un aumento delle frequenze. Non dovuto a modifiche architetturali. Non dovuto alla correzione di qualche collo di bottiglia. È dovuto esclusivamente alla migliore efficienza di questo processo produttivo.
Alla fine quindi sempre Polaris è, un Polaris che grazie all'affinamento del processo produttivo è stato commercializzato con frequenze un po' più alte.
Tornando quindi all'affermazione che ha scatenato il discorso, il risultato rimane sempre quello: a confrontarsi sono sempre due chip di circa due anni e mezzo fa, e non un chip vecchio di nVidia (GP106) e uno nuovissimo di AMD, come invece affermavi.
Che poi GP106 vinca ancora la sfida relativa all'efficienza credo siamo tutti d'accordo, e ci mancherebbe altro dato che alla fine sono sempre gli stessi chip di due anni e mezzo fa e non è certo un piccolo salto di processo produttivo a cambiare drasticamente le cose (soprattutto se la scelta di AMD rimane sempre quella di tirare il collo a Polaris per poter primeggiare in prestazioni in questa fascia).
e vabbe dai, se lo fa felice pensare che siano due chip diversi fateglielo credere, sarà più sereno :D
MiKeLezZ
20-11-2018, 08:56
Questo Polaris di 3 anni fa spinge proprio di brutto eh...
Tutti in fila per le RX590 da 300 euro, mi raccomando...
https://tpucdn.com/reviews/Performance_Analysis/Hitman_2/images/1080.png
Questo Polaris di 3 anni fa spinge proprio di brutto eh...
Tutti in fila per le RX590 da 300 euro, mi raccomando...
Link ad immagine (click per visualizzarla)
Mi raccomando, facciamo un po' di cherry picking con i benchmark per far sembrare che la 1060 vada meglio della 590, giusto per fare un po' di disinformazione.
MiKeLezZ
20-11-2018, 12:46
Mi raccomando, facciamo un po' di cherry picking con i benchmark per far sembrare che la 1060 vada meglio della 590, giusto per fare un po' di disinformazione.
Hitman 2 è uscito ieri l'altro. Magari a qualcuno fa comodo sapere come vanno le VGA con gli ultimi titoli usciti, che dici.
A regola le VGA si usano per videogiocare.
Poi non so se qualcun altro le compri per mettersele sul comodino e chissà che farci.
Portocala
20-11-2018, 13:04
Hitman 2 è uscito ieri l'altro. Magari a qualcuno fa comodo sapere come vanno le VGA con gli ultimi titoli usciti, che dici.
A regola le VGA si usano per videogiocare.
Poi non so se qualcun altro le compri per mettersele sul comodino e chissà che farci.
Da come hai scritto
Questo Polaris di 3 anni fa spinge proprio di brutto eh...
Tutti in fila per le RX590 da 300 euro, mi raccomando..."
Stai spacciando Hitman come l'unico gioco di riferimento che indica le prestazioni di una scheda.
MiKeLezZ
20-11-2018, 13:25
Stai spacciando Hitman come l'unico gioco di riferimento che indica le prestazioni di una scheda.Hai bevuto? Non ho mai scritto ciò.
Se volessi fare affermazioni assolutistiche le farei. Come per esempio:
La RX580 8GB ha in media le stesse prestazioni della GTX1060 6GB.
La RX580 8GB consuma 82W in più (il 70% in più) della GTX1060 6GB.
La RX590 8GB ha in media il 11% in più di prestazioni della GTX1060 6GB / RX580 8GB.
La RX590 8GB consuma 116W in più (il DOPPIO) della GTX1060 6GB.
La RX590 8GB consuma 34W in più (il 17% in più) della RX580 8GB.
La RX590 8GB costa in media il 28% in più della GTX1060 6GB.
Ovvero con la RX590 8GB si ottiene meno (+11%) di quanto si paga (+28%).
La GTX1070 8GB ha in media il 22% in più di prestazioni della RX590 8GB.
La GTX1070 8GB consuma 87W in meno (il 63% in meno) della RX590 8GB.
La GTX1070 8GB costa in media il 18% in più della RX590 8GB.
Ovvero con la GTX1070 8GB si ottiene più (+22%) di quanto si paga (+18%).
Posso anche fare affermazioni conclusive. Come per esempio:
La RX590 8GB è un pessimo acquisto.
La GTX1070 è un buon acquisto.
I migliori acquisti sono la RX580 8GB (se l'elettricità la paga il babbino e la mammina) e la GTX1060 6GB (se invece la pagate voi).
Fammi sapere se hai bisogno di altro.
Portocala
20-11-2018, 13:33
Hai bevuto? Non ho mai scritto ciò.
Non hai scritto ciò ma lo fai sembrare attraverso le frasi sarcastiche.
Volente o nolente è quello che viene fuori da quel tuo messaggio.
bagnino89
20-11-2018, 13:33
Hai bevuto? Non ho mai scritto ciò.
Se volessi fare affermazioni assolutistiche le farei. Come per esempio:
La RX580 8GB ha in media le stesse prestazioni della GTX1060 6GB.
La RX580 8GB consuma 82W in più (il 70% in più) della GTX1060 6GB.
La RX590 8GB ha in media il 11% in più di prestazioni della GTX1060 6GB / RX580 8GB.
La RX590 8GB consuma 116W in più (il DOPPIO) della GTX1060 6GB.
La RX590 8GB consuma 34W in più (il 17% in più) della RX580 8GB.
La RX590 8GB costa in media il 28% in più della GTX1060 6GB.
Ovvero con la RX590 8GB si ottiene meno (+11%) di quanto si paga (+28%).
La GTX1070 8GB ha in media il 22% in più di prestazioni della RX590 8GB.
La GTX1070 8GB consuma 87W in meno (il 63% in meno) della RX590 8GB.
La GTX1070 8GB costa in media il 18% in più della RX590 8GB.
Ovvero con la GTX1070 8GB si ottiene più (+22%) di quanto si paga (+18%).
Posso anche fare affermazioni conclusive. Come per esempio:
La RX590 8GB è un pessimo acquisto.
La GTX1070 è un buon acquisto.
I migliori acquisti sono la RX580 8GB (se l'elettricità la paga il babbino e la mammina) e la GTX1060 6GB (se invece la pagate voi).
Fammi sapere se hai bisogno di altro.
Non ce la posso fare :rotfl:
MiKeLezZ
20-11-2018, 13:53
Numeri da far girare la testa.
Il problema più grosso sono i ben 4-5€ di elettricità all'anno di differenza tra una 580 e una 1060... se la usate tanto eh :asd:Ne abbiamo già parlato e anche tu eri presente nella discussione. Ti comporti nuovamente da bugiardo.
https://www.hwupgrade.it/forum/showpost.php?p=45847959&postcount=31
Costo energia al kWh Italia IV trimestre 2018: (https://www.comparasemplice.it/informazioni/energia/costo-kwh)
0,1897 €
Percentuale incremento attesa annua
+0,44 %
Costo energia al kWh Italia media futura a 3 anni (basata sull'intervallo 2013-2018):
0,1934 €
Uso medio stimato PC 8h al giorno:
IDLE (30%) 2,4h
2D (40%) 3,2h
GAMING (30%) 2,4h
Differenza consumi RX580 8GB / GTX1060 6GB
IDLE +10W
2D +13W
GAMING (MEDIA) +98W
Consumi (Wh) aggiuntivi al giorno:
IDLE +24Wh
2D +41,6Wh
GAMING (MEDIA) +235,2Wh
--------------
TOTALE +300,8Wh
Coefficiente cautelativo (per ridurre i valori e mostrare il caso più fortunato)
-1%
Consumo (Wh) aggiuntivo totale cautelativo al giorno:
+297Wh
Giorni annui di NON uso del PC
Malattia severa 10g
Ferie fuori casa 14g
Festività altra occupazione 10g
Emergenze 3g
Manutenzione 3g
--------------
TOTALE 40g
Stima anni di possesso RX580 8GB:
3
SPESE ANNUE EXTRA RELATIVE AI CONSUMI DI RX580 8GB RISPETTO A GTX1060 6GB =
GIORNI DI USO DEL PC * CONSUMO GIORNALIERO EXTRA * COSTO DELL'ENERGIA FUTURO =
(((365-40)*297)/1000)*0,1934) = 18,667 €
COSTO AGGIUNTIVO TOTALE RX580 8GB / GTX1060 (VALORE MINIMO CAUTELATIVO):
56 €
In conclusione comprare una RX580 8GB costa, di mantenimento, MINIMO 56€ di più (tale valore è destinato a crescere quante più ore giocate e anche nel caso non spegniate il PC una volta finito di usare) che non comprare la GTX1060 6GB.
Riporto le conclusioni fuori dal quote:
La differenza di prezzo fra RX580 8GB e GTX1060 6GB è di circa 20€ e ciò comporta che il prezzo REALE (TCO*) della RX580 8GB sia di ALMENO 36€ superiore (il 15%, valore che peraltro è molto superiore alla differenza prestazionale che passa fra le due schede, rendendo la scelta AMD ancora meno appetibile).
*TCO: https://it.wikipedia.org/wiki/Total_Cost_of_Ownership
Ovviamente tale differenza, se la bolletta la paga la mammina (che dirà "oh ma che strano che le bollette si sono alzate, sarà colpa dei 5S, governo ladro!"), per voi non conta. Chiunque è poi libero di prendere tali dati ed adattarli al proprio uso. Per questo vi consiglio, prima di parlare, quantomeno di andare sul vostro profilo STEAM e controllare le vostre ore di gioco delle ultime 2 settimane. In tal proposito, 2 utenti (thresher3253 e ninja750) ci hanno già fatto una figura di merda.
Portocala
20-11-2018, 14:03
(che dirà "oh ma che strano che le bollette si sono alzate, sarà colpa dei 5S, governo ladro!")
18 all'anno, 3 euro in una bolletta bimestrale. Trovami colui che nota l'aumento :asd:
bagnino89
20-11-2018, 14:06
Ovviamente tale differenza, se la bolletta la paga la mammina (che dirà "oh ma che strano che le bollette si sono alzate, sarà colpa dei 5S, governo ladro!"), per voi non conta.
:asd:
Sarebbe molto interessante valutare anche le tonnellate di CO2 equivalente risparmiate ogni anno :p
nickname88
20-11-2018, 14:10
Numeri da far girare la testa.
I numeri da far girare la testa sono quelli che dai tu pur di distogliere lo sguardo dal problema.
Un prodotto che ha bisogno il doppio del consumo per dare un 12% di performance è inferiore a prescindere dal ogni costo. Produce più calore e fa lavorare di più l'alimentatore per dare un boost minimo.
Se non ti interessa nulla di questo aspetto allora dovresti fare lo stesso discorso su Vega64
MiKeLezZ
20-11-2018, 14:12
18 all'anno, 3 euro in una bolletta bimestrale. Trovami colui che nota l'aumento :asd:Lo vedo già il bimbominkia che comincia con la RX580, poi si compra la lampadina smart (0,5W) per giocarci con google home (2W), poi aggiunge le lucine colorate nel case (5W), 4 ventole (16W), e qualche altra scemata in cameretta, e a fine anno il suo povero babbo, invece che prenderlo a cinghiate nel culo, si domanda come mai gli tocca pagare 50 euro di più di enel rispetto l'anno precedente.
Portocala
20-11-2018, 14:27
Lo vedo già il bimbominkia che comincia con la RX580, poi si compra la lampadina smart (0,5W) per giocarci con google home (2W), poi aggiunge le lucine colorate nel case (5W), 4 ventole (16W), e qualche altra scemata in cameretta, e a fine anno il suo povero babbo, invece che prenderlo a cinghiate nel culo, si domanda come mai gli tocca pagare 50 euro di più di enel rispetto l'anno precedente.
:rotfl:
4 ventole 16 Watt di consumo?
Che diamine montate, turbine del boeing 747?
Hitman 2 è uscito ieri l'altro. Magari a qualcuno fa comodo sapere come vanno le VGA con gli ultimi titoli usciti, che dici.
Quindi tu baseresti le tue valutazioni su un titolo appena uscito, per cui magari i driver non sono ancora adeguatamente ottimizzati, e quindi le variabili per giudicare quel test sono ancora di più?
Sempre peggio.
Se vuoi giudicare questa 590 un pessimo acquisto a 300 euro mi trovi d'accordo, ma se devi scrivere amenità del genere allora proprio non ci siamo.
MiKeLezZ
20-11-2018, 14:48
4 ventole 16 Watt di consumo?
Che diamine montate, turbine del boeing 747?Ti vedo molto esperto. Si vede che ci sai. Poi la battuta del Boeing. Fai troppo ridere.
Quindi lascio a te farmi il calcolo di quanto faccia 12 moltiplicato 0,4... e tale cifra moltiplicata 4.
https://www.corsair.com/us/en/Categories/Products/Fans/AIR-SERIES-LED-CONFIG/p/CO-9050016-WLED#
Ti va di mettere anche in conto che l'efficienza dell'alimentatore sia al massimo del 94% e quindi i consumi reali siano ancora diversi, oppure a posto così?
Quindi tu baseresti le tue valutazioni su un titolo appena uscito, per cui magari i driver non sono ancora adeguatamente ottimizzati, e quindi le variabili per giudicare quel test sono ancora di più?
Sempre peggio.
Se vuoi giudicare questa 590 un pessimo acquisto a 300 euro mi trovi d'accordo, ma se devi scrivere amenità del genere allora proprio non ci siamo.Il titolo appena uscito (che usa un perfezionamento del motore grafico del primo capitolo del gioco, uscito l'anno scorso), è "appena uscito" solo per AMD, oppure è "appena uscito" anche per NVIDIA? Tanto per capire.
Vedo anche te molto esperto e quindi non vedo l'ora di sapere la tua risposta.
Ti vedo molto esperto. Si vede che ci sai. Poi la battuta del Boeing. Fai troppo ridere.
Quindi lascio a te farmi il calcolo di quanto faccia 12 moltiplicato 0,4... e tale cifra moltiplicata 4.
https://www.corsair.com/us/en/Categories/Products/Fans/AIR-SERIES-LED-CONFIG/p/CO-9050016-WLED#
Signore, perdonalo perché acquista spazzatura...
Noctua Industrial 2000rpm
https://noctua.at/en/nf-f12-industrialppc-2000/specification
Se vuoi ti procuro pure delle ventole per comuni mortali che costano poco e sono pure a led RGB :Prrr:
https://www.thermaltake.com/Cooler/Case_Fan_/Riing_Trio/C_00003281/Riing_Trio_12_RGB_Radiator_Fan_TT_Premium_Edition_3_Fan_Pack_/design.htm
Devi contare le ventole da giostra con i led, mica ventole serie che consumano meno di 1W l'una.
Capito montano ventole da quasi 5W e poi il problema è la 580 che consuma tanto. :sofico:
20 pesi e 35 misure, mi sembra giusto.
Gyammy85
20-11-2018, 15:05
:asd:
Sarebbe molto interessante valutare anche le tonnellate di CO2 equivalente risparmiate ogni anno :p
AMD ha dichiarato che le prossime schede saranno elettriche :) :)
#stopbenzina
MiKeLezZ
20-11-2018, 15:05
Signore, perdonalo perché acquista spazzatura...
Noctua Industrial 2000rpm
https://noctua.at/en/nf-f12-industrialppc-2000/specification
Se vuoi ti procuro pure delle ventole per comuni mortali che costano poco e sono pure a led RGB :Prrr:
https://www.thermaltake.com/Cooler/Case_Fan_/Riing_Trio/C_00003281/Riing_Trio_12_RGB_Radiator_Fan_TT_Premium_Edition_3_Fan_Pack_/design.htm
20 pesi e 35 misure, mi sembra giusto.Come si suol dire, "a ognuno il suo". Ti lascio alle tue ventoline da 25 euro, io spendo 8,5 euro e consumo meno. http://www.arctic.ac/eu_en/p12-silent.html
Ma il mio era un esempio... e certo non su di me.
Il titolo appena uscito (che usa un perfezionamento del motore grafico del primo capitolo del gioco, uscito l'anno scorso), è "appena uscito" solo per AMD, oppure è "appena uscito" anche per NVIDIA? Tanto per capire.
L'ottimizzazione può avere tempi diversi per i due produttori, ti sembra strano forse? Visto poi che si tratta di un'uscita recentissima, direi che le possibilità sono più che concrete.
E ancora ripeto, ci sono variabili in più da considerare.
È possibile che Nvidia abbia fatto uscire poco prima i suoi driver ottimizzati per il gioco, è possibile che il recensore abbia usato drive più vecchi per l'uno o l'altro produttore, è possibile che ci sia una partnership tra uno dei produttori e la software house, e così via.
Se proprio devi giudicare l'andamento di un titolo con queste schede, meglio farlo quando la situazione è stabile e matura: con giochi appena usciti abbiamo visto in tante occasioni divari enormi che si sono poi appianati.
Ma fosse pure questa la situazione, si tratta di un singolo titolo che tu hai preso ad esempio come se dimostrasse che la 1060 fosse una scheda più economica ma con prestazioni superiori, quando sappiamo tutti che la situazione è differente.
Come si suol dire, "a ognuno il suo". Ti lascio alle tue ventoline da 25 euro, io spendo 8,5 euro e consumo meno. http://www.arctic.ac/eu_en/p12-silent.html
Ma il mio era un esempio... e certo non su di me.
Quindi all'improvviso non consumano più 4 Watt una?
Please :ciapet: Te la potevi giocare meglio indicando l'uso
MiKeLezZ
20-11-2018, 15:09
L'ottimizzazione può avere tempi diversi per i due produttori, ti sembra strano forse? Visto poi che si tratta di un'uscita recentissima, direi che le possibilità sono più che concrete.
E ancora ripeto, ci sono variabili in più da considerare.
È possibile che Nvidia abbia fatto uscire poco prima i suoi driver ottimizzati per il gioco, è possibile che il recensore abbia usato drive più vecchi per l'uno o l'altro produttore, è possibile che ci sia una partnership tra uno dei produttori e la software house, e così via.
Se proprio devi giudicare l'andamento di un titolo con queste schede, meglio farlo quando la situazione è stabile e matura: con giochi appena usciti abbiamo visto in tante occasioni divari enormi che si sono poi appianati.
Ma fosse pure questa la situazione, si tratta di un singolo titolo che tu hai preso ad esempio come se dimostrasse che la 1060 fosse una scheda più economica ma con prestazioni superiori, quando sappiamo tutti che la situazione è differente.Mi vuoi forse dire che vi sia un ulteriore valore aggiunto nell'acquisto delle VGA NVIDIA dovuto a un maggiore legame con le software house e una maggiore prontezza nel rilascio di driver ottimizzati per le proprie schede, pur vecchie di 2 anni che siano? Sei sicuro di ciò che dici? Conosco gente che preferirebbe morire fra le fiamme invece che ammetterlo.
Gyammy85
20-11-2018, 15:14
L'ottimizzazione può avere tempi diversi per i due produttori, ti sembra strano forse? Visto poi che si tratta di un'uscita recentissima, direi che le possibilità sono più che concrete.
E ancora ripeto, ci sono variabili in più da considerare.
È possibile che Nvidia abbia fatto uscire poco prima i suoi driver ottimizzati per il gioco, è possibile che il recensore abbia usato drive più vecchi per l'uno o l'altro produttore, è possibile che ci sia una partnership tra uno dei produttori e la software house, e così via.
Se proprio devi giudicare l'andamento di un titolo con queste schede, meglio farlo quando la situazione è stabile e matura: con giochi appena usciti abbiamo visto in tante occasioni divari enormi che si sono poi appianati.
Ma fosse pure questa la situazione, si tratta di un singolo titolo che tu hai preso ad esempio come se dimostrasse che la 1060 fosse una scheda più economica ma con prestazioni superiori, quando sappiamo tutti che la situazione è differente.
Ma poi quella review come quella di pcgamershardware non ha ne capo ne coda.
https://gamegpu.com/action-/-fps-/-tps/hitman-2-test-gpu-cpu
Le performance sono queste, ho provato la demo, anche quella di computerbase è così.
MiKeLezZ
20-11-2018, 15:23
Ma poi quella review come quella di pcgamershardware non ha ne capo ne coda.
https://gamegpu.com/action-/-fps-/-tps/hitman-2-test-gpu-cpu
Le performance sono queste, ho provato la demo, anche quella di computerbase è così.Gyammy85, ti sei meritato la stella d'oro di "Cherry Picker".
Ci vogliono due palle quadrate e veramente tanto, tanto tempo da perdere in stronzate per andare a scovare un sito russo scritto in cirillico pur di dipingere le proprie VGA del cuore (che ovviamente non potevano altro che essere quelle AMD) come super-performanti.
Quasi mi dispiace dirti che tale test si basa sul benchmark integrato nel gioco e non "in-game" e che, appunto per questo, il redattore di TechPowerUP ha "scartato" tale benchmark poiché dava risultati inattendibili. Ha fatto un benchmark su spezzoni di gioco "in-game" ed è proprio per quello che i risultati sono diversi.
Ma la stella d'oro di Cherry Picker non te la tolgo, tranquillo. E' tua. Meritatissima.
Cioè adesso sei tu quello che monta ventole che consumano troppo hai capito? :mbe:
Il ribaltone :sofico:
Il problema è che gli date corda, bastano due righe con due dati e batte in ritirata.
Gyammy85
20-11-2018, 15:25
Gyammy85, ti sei meritato la stella d'oro di "Cherry Picker".
Ci vogliono due palle quadrate e veramente tanto, tanto tempo da perdere in stronzate per andare a scovare un sito russo scritto in cirillico pur di dipingere le proprie VGA del cuore (che ovviamente non potevano altro che essere quelle AMD) come super-performanti.
Quasi mi dispiace dirti che tale test si basa sul benchmark integrato nel gioco e non "in-game" e che, appunto per questo, il redattore di TechPowerUP ha "scartato" tale benchmark poiché dava risultati inattendibili. Ha fatto un benchmark su spezzoni di gioco "in-game" ed è proprio per quello che i risultati sono diversi.
Ma la stella d'oro di Cherry Picker non te la tolgo, tranquillo. E' tua. Meritatissima.
Io ti ripeto che ho provato la demo nel prologo e i frame sono quelli, 55 medi più o meno. Continua a pensare che una 580 faccia 34 fps a 1440p :asd:
MiKeLezZ
20-11-2018, 15:30
Cioè adesso sei tu quello che monta ventole che consumano troppo hai capito? :mbe:
Il ribaltone :sofico:Ci sono talmente contraddizioni che veramente non saprei da dove iniziare.
Prima dice "chi se ne frega dei consumi", poi si compra ventoline super efficienti da 25 euro l'una?
Si compra ventoline super efficienti quando bastava comprare un'altra VGA e c'erano 100W in meno da dissipare?
Io nel sistema ho solo 3 ventoline, per esempio. CPU, VGA e CASE. Tutte che si spengono da sole in idle perché i consumi sono talmente bassi che non servono.
Oppure ancora fa lo spilorcio per 50 euro di differenza fra la RX590 e la GTX1070 (che gli alzerebbero il livello), poi si compra 2 ventoline da... 50 euro?!
Mi ricorda quel meme in cui si dice che ragionare con certe persone è come giocare a scacchi con un piccione!
MiKeLezZ
20-11-2018, 15:42
Forse dovresti spiegargli che ComputerBase non è né russo né in cirillico.https://www.techpowerup.com/reviews/Performance_Analysis/Hitman_2/4.html
We used the latest public release version of the game (not a press pre-release or the cracked leaked version).
We also used the latest drivers from NVIDIA and AMD.
We didn't use the game's integrated benchmark as it doesn't give accurate results and rather used regular gameplay.
Mi vuoi forse dire che vi sia un ulteriore valore aggiunto nell'acquisto delle VGA NVIDIA dovuto a un maggiore legame con le software house ...
LOL... ma si, visto che ormai le sciocchezze che hai scritto non si reggono più in piedi, proviamo a rigirare la frittata. :D
Non solo hai fatto cherry picking per dimostrare una cosa non vera, l'hai fatto anche con un titolo che ha ancora meno valenza da questo punto di vista.
Come si suol dire, "a ognuno il suo". Ti lascio alle tue ventoline da 25 euro, io spendo 8,5 euro e consumo meno. http://www.arctic.ac/eu_en/p12-silent.html
Ma il mio era un esempio... e certo non su di me.
Fammi capire: prima dici che quattro ventole consumano 16W (4W a ventola), lui, ritenendo fossero troppi, ti linka una ventola che ha un assorbimento massimo di 1,2W (dimostrando che hai scritto una mezza sciocchezza), e tu, per tutta risposta... gli dici che lui spende troppo e che le ventole che compri tu consumano ancora meno?
Ti sei reso conto che in questo modo hai ancor più avvalorato la sua posizione, vero?
MiKeLezZ
20-11-2018, 15:48
LOL... ma si, visto che ormai le sciocchezze che hai scritto non si reggono più in piedi, proviamo a rigirare la frittata. :D
Non solo hai fatto cherry picking per dimostrare una cosa non vera, l'hai fatto anche con un titolo che ha ancora meno valenza da questo punto di vista.
Fammi capire: prima dici che quattro ventole consumano 16W (4W a ventola), lui, ritenendo fossero troppi, ti linka una ventola che ha un assorbimento massimo di 1,2W (dimostrando che hai scritto una mezza sciocchezza), e tu, per tutta risposta... gli dici che lui spende troppo e che le ventole che compri tu consumano ancora meno?
Ti sei reso conto che in questo modo hai ancor più avvalorato la sua posizione, vero?Il mio era un esempio su un bimbominkia qualsiasi che compra le VGA che consumano come i treni perché tanto non paga lui l'elettricità, e insieme a quelle, si compra pure le ventoline con i led, mette i led colorati nel case, insomma spreca energia, semplicemente perché la bolletta la paga mammina (o papino). Ma il "mi sembra poco" aggiunto al "cosa vuoi che sia" e al "saranno 2 euro l'anno" (magari moltiplicato per 3 o 4 dispositivi), a fine dell'anno diventano in realtà anche 50 o 100 euro. Basti vedere le "crociate" sugli standby degli apparecchi che hanno portato a specifiche delibere dell'Unione Europea, con risparmi energetici (se consideriamo l'insieme) ben elevati.
Il consumo non sono ovviamente le prestazioni, ma resta una parte importante dell'equazione da considerare, direi complementare al prezzo (e non facciamo i finti tonti: lo sappiamo tutti molto bene).
Poi te/voi non so che film vi siate fatti.
Credo i reply successivi non siano altro che un maldestro tentativo di denigrarmi dopo che ho detto inoppugnabili (ma scomode) verità con tanto di calcoli - ma sinceramente non me ne importa. Si nota anche un "fare branco", come se fossero dei "bulli" che vanno a "picchiare" (virtualmente, si intende) qualcuno che non fa parte del "loro gruppo".
Anche perché conosco bene chi mi ha risposto (in molti li conoscono) e non sono altro che "fanatici AMD" che passano le loro giornate, da mattina a sera, nei "thread ufficiali" AMD.
Per esempio Bivvoz, solo oggi ha scritto qua:
AMD Radeon RX 590: il ritorno di Polaris (24 MESSAGGI)
[THREAD UFFICIALE]AMD RADEON RX460/RX470/RX480 (2867 MESSAGGI)
[Thread Ufficiale] Aspettando le nuove VGA AMD Radeon (3170 MESSAGGI)
[Thread ufficiale] AMD Radeon RX Vega (501 MESSAGGI)
[Thread Ufficiale] Freesync: cos'è e come usarlo al meglio. (203 MESSAGGI)
In totale ha speso ben 7000 messaggi, in qualsiasi orario e qualsiasi giornata, solo per parlare delle schedine per i videogiochi marchiate AMD (utilità...?). Con una scarsa proprietà di linguaggio e con delle scarse capacità e conoscenze tecniche, il che presume che lui non sia stipendiato per farlo né lavori in questo ambito.
Sono persone che forse hanno problemi psicologici (si vedano anche i post precedenti di questo thread, dove Bivvoz ha manipolato la realtà e ha detto plateali bugie pur di cercare di "avere ragione" e "preservare" il proprio egocentrismo, buttandola poi in "caciara" una volta scoperto).
Probabilmente si crea una specie di legame distorto per cui identificano sé stessi nella loro "azienda/prodotto del cuore". Quindi un successo/insuccesso dell'azienda si riflette nel loro ego, allo stesso modo eventuali critiche indirizzate all'azienda le sentono come rivolte a loro stessi (!).
Comprendi che io non posso farci molto essendo un campo di competenza di altri specialisti. Un po' ci si ride e ci si scherza su, ma arriva poi il momento che bisogna anche affrontare la realtà.
Ho avuto a che fare con persone autistiche, che "non ci arrivavano" e che "non capivano" gli esempi (e in tal caso ci si può fare pochissimo!) e spero solo non sia questo il caso: ciò che ho scritto è molto chiaro e di facile comprensione per veramente chiunque (o almeno mi sembra). Eventualmente, lo si vada a rileggere meglio, la scrittura "nero su bianco" serve proprio a questo!
Fortunatamente gli utenti del forum sono molti e questi "soliti" di cui parlo sono pochi, semplicemente molto "rumorosi". Restano piuttosto inutili nel "computo totale": non è che più post scrivi, maggiore ragione hai.
Fammi capire: prima dici che quattro ventole consumano 16W (4W a ventola), lui, ritenendo fossero troppi, ti linka una ventola che ha un assorbimento massimo di 1,2W (dimostrando che hai scritto una mezza sciocchezza), e tu, per tutta risposta... gli dici che lui spende troppo e che le ventole che compri tu consumano ancora meno?
Ti sei reso conto che in questo modo hai ancor più avvalorato la sua posizione, vero?
Fun fact, attualmente sono su test bench (e per test bench intendo la scatola dela mobo rialzata) senza ventole se non quella del dissipatore della CPU...
Lo scrivi come se AMD non abbia influenza sui prezzi delle vga...
A me sembra chiaro che sia Nvidia che AMD stiano facendo cartello sui prezzi.
Ed e' inutile tirare fuori la scusa del mining. Avrebbero potuto benissimo produrre piu' schede per venir eincontro alla domanda.Ed infatti Nvidia pare abbia un sacco di 1060 invendute. Ma i prezzi non intende calarli.E adesso che il mining si e' sgonfiato (almeno temporaneamente) e non solo l'offerta supera la domanda, ma pure il mercato dell'usato e' inondato di schede,
i prezzi restano terribilmente inflazionati.
I consumatori dovrebbero farsi furbi e no comprare fino a quando le 2 case non proporranno un rapporto prestazioni/prezzo che faccia davvero la differenza con le schede passate.
Non fanno cartello e non c'è bisogno di farlo perché sono solo in 2, Nvidia alza i prezzi perché sono le migliori e AMD le vende a meno oppure non gliele compra nessuno, come vedi non serve il cartello. Ovvio che se nessuno compra devono regalarle con il rischio di andare in bancarotta specie AMD.
Lo sapete vero che i CEO di AMD e Nvidia sono parenti? :)
Dai nomi che hanno mi sembrano cinesi ma non ho mai sentito che siano parenti.
Buongiorno a tutti. .è la prima volta che posto in thread di radeon...
sempre stato di cuore nvidia (sono quasi 20 anni che compro nvdia)
Ultimamente sto guardando anche la contro-parte per 3 semplici motivi:
1)prezzo esagerato gpu nvidia;
2)non possibilità di fare sli con schede medie (neanche la 2070..)
3)difficoltà mostruose di fare sli con schede potenti perché occupano 2.5 slot.
Per i prezzi come scritto in svariati forum ricordo che la 770 stava sui 300 euro, la 970 sui 350 e non capisco come mai la 2070 costi 600. A mio avviso il suo prezzo doveva essere di 350/380 euro al massimo. Senza considerare che fino a poco tempo fa i prezzi rimanevano gli stessi con i salti generazionali.
lo sli o il crossfire che dir si voglia a mio avviso è una manna santa...se vuoi risparmiare lo fai e non mi dite che costa tanto di bolletta...io con la 760 gioco a shadow of tomb raider con le prestazioni di una 1060 da 3gb..(e la scheda l'ho comprata nel 2013 e 3 anni dopo ho preso un'altra usata e ho speso meno di 300 euro). Per questo motivo nvidia non punta sullo sli: perché perde vendite!
In questo contesto trovo molto interessanti queste schede. la 580 sta sui 250-270 euro e presto si troverà la 590 a meno di 300 euro.
A mio avviso non è male considerando il futuro dei driver e al fatto che ha 8gb invece che 6gb.
Senza contare che la puoi mettere in crossfire comprandone un'altra fra 2-3 anni usata..
Buongiorno a tutti. .è la prima volta che posto in thread di radeon...
sempre stato di cuore nvidia (sono quasi 20 anni che compro nvdia)
Ultimamente sto guardando anche la contro-parte per 3 semplici motivi:
1)prezzo esagerato gpu nvidia;
2)non possibilità di fare sli con schede medie (neanche la 2070..)
3)difficoltà mostruose di fare sli con schede potenti perché occupano 2.5 slot.
Per i prezzi come scritto in svariati forum ricordo che la 770 stava sui 300 euro, la 970 sui 350 e non capisco come mai la 2070 costi 600. A mio avviso il suo prezzo doveva essere di 350/380 euro al massimo. Senza considerare che fino a poco tempo fa i prezzi rimanevano gli stessi con i salti generazionali.
lo sli o il crossfire che dir si voglia a mio avviso è una manna santa...se vuoi risparmiare lo fai e non mi dite che costa tanto di bolletta...io con la 760 gioco a shadow of tomb raider con le prestazioni di una 1060 da 3gb..(e la scheda l'ho comprata nel 2013 e 3 anni dopo ho preso un'altra usata e ho speso meno di 300 euro). Per questo motivo nvidia non punta sullo sli: perché perde vendite!
In questo contesto trovo molto interessanti queste schede. la 580 sta sui 250-270 euro e presto si troverà la 590 a meno di 300 euro.
A mio avviso non è male considerando il futuro dei driver e al fatto che ha 8gb invece che 6gb.
Senza contare che la puoi mettere in crossfire comprandone un'altra fra 2-3 anni usata..
Riassumo in poche righe per risponderti
Lo sli ormai serve solo per le fascie alte anche perche se senso avrebbe ormai mettere due 1060 da 300 euro in sli quando con 400/500 euro compri una 1080 ?
Per la fascia media amd per ora domina , ti prendi una 580 e vai alla grande , sotto ce la 570 che va meglio della 1050ti
Per il resto esiste solo nvidia , io sono passato da un sli di 760 a una 1060 3g poi venduta per una rx580 .
Ho avuto occasione di trovare una 1080 e sono tornato verde ;)
Per me ha senso:
ti parlo del mio caso: comprato una 760 a 210euro e dopo 3 anni zoppicavo un po' nei giochi a dettagli ultra e ne ho trovato un'altra uguale asus strix a 90 euro. Totale 300 euro.
Se prendevo una 980 spendevo di più e avevo le stesse prestazioni.
A tal proposito ma tra 2 760, una 1060 3gb e una 580 c'è tanta differenza? a mio avviso siamo li...ha senso cambiare?
se mi dici per la 1080 ok ed hai fatto bene, ma gli altri cambi? hai notato differenze?
MiKeLezZ
22-11-2018, 12:33
Per me ha senso:
ti parlo del mio caso: comprato una 760 a 210euro e dopo 3 anni zoppicavo un po' nei giochi a dettagli ultra e ne ho trovato un'altra uguale asus strix a 90 euro. Totale 300 euro.
Se prendevo una 980 spendevo di più e avevo le stesse prestazioni.
Spoiker la tua esperienza è molto limitata e si scontra con la realtà.
1) Tu non hai accesso a una configurazione con una 980, quindi le tue sono solo supposizioni (errate). Una 980 sarebbe stata una scelta molto più sensata. Era più del doppio di prestazioni, sicure e in ogni ambito. Con la metà dei consumi.
2) Se avessi rivenduto la 760 "ai tempi", forse qualcuno te l'avrebbe comprata. Perdurando a tenerla e comprandone addirittura un'altra, ora hai due fermacarte.
3) Lo SLI non è praticamente più supportato dai giochi DX12. E' una tecnologia obsoleta (come il Crossfire, ovviamente).
4) Lo SLI/Crossfire (da qui in avanti chiamato solo "SLI") necessita della specifica implementazione nei giochi (che spesso manca). Ovvero, se il gioco non è ottimizzato per lo SLI, non solo non hai alcun beneficio, ma potresti anche avere dei minimi deficit prestazionali.
5) Lo SLI apporta latenze aggiuntive che riducono il frame rate minimo e quello medio. Non è un caso non sia più usato da quando le recensioni mostrano anche i "99 percentili" e non più solo il frame rate massimo.
6) Con vecchie VGA perdi tutte le nuove implementazioni tecnologiche. Per esempio con la tua 760, rispetto a una GTX1060, perdi: NVENC 10-bit, PUREVIDEO 12-bit, Dynamic Super Resolution, Third/Forth Generation Delta Color Compression, Multi-Pixel Programming Sampling, Nvidia Real-Time-Voxel-Global Illumination, VR Direct, Multi-Projection Acceleration, Multi-Frame Sampled Anti-Aliasing, HDMI 2.0b, DP 1.4, Dynamic load balancing scheduling system, Hardware Triple Buffering, Instruction-level preemption e probabilmente altro ancora che serve, in linea di massima, a farle andare di più senza necessità di aumentarne la potenza computazionale.
7) Con lo SLI hai la metà della VRAM a disposizione. Due VGA da 4GB in SLI non offrono 8GB disponibili per il caricamento dati, ma solo 4GB.
8) Essendo praticamente tutte le VGA a doppio slot, lo SLI occupa ben 4 slot con due problemi al seguito: a) non è più presente un ricircolo d'aria e le stesse VGA sono "soffocate", b) non puoi montare schede di espansione negli slot bloccati.
9) Hai il doppio dei consumi, che diventano il triplo se le paragoniamo alle nuove schede. E non solo in full load, ma anche in idle (che macinano velocemente kW). Con le tue 2x 760 hai 340W di TDP contro 120W di TDP della GTX1060. Questo, oltre a riversarsi anche sulle temperature della CPU e VRM, brucia velocemente il tuo "risparmio economico" (che a conti fatti non esiste).
10) La RTX2070 costa 600 euro perché ha prestazioni fuori dal mondo, sovrabbondanti per chiunque. Inoltre non ha alcuna concorrenza in casa AMD. Ti rimando al mio post precedente su questo stesso thread: https://www.hwupgrade.it/forum/showpost.php?p=45888141&postcount=47
11) A parte pochi soggetti che preferiamo emarginare, qua il nostro cuore batte solo per il portafogli e per le prestazioni.
A tal proposito ma tra 2 760, una 1060 3gb e una 580 c'è tanta differenza? a mio avviso siamo li...ha senso cambiare?
se mi dici per la 1080 ok ed hai fatto bene, ma gli altri cambi? hai notato differenze?Fra 2 NVIDIA 760 in SLI e una singola AMD RX580 c'è tanta differenza, sì. Puoi arrivare anche a prestazioni doppie. Non usare il Crossfire come discriminante, oggi è ancora più inutile che in passato.
La GTX1060 3GB non la prenderei in considerazione (come vedi anche l'utente sopra se ne è liberato), attualmente la VGA di partenza per NVIDIA è la GTX1060 in versione da 6GB (che non cambia solo in memoria, ma è anche maggiormente prestante). Le prestazioni sono paragonabili alla RX580 o solo impercettibilmente inferiori, ma porta il beneficio di ben 100W risparmiati.
Se sei un utente che ama tenere a lungo le sue VGA la scelta migliore è una GTX1070 da 8GB. Magari cercala usata nel mercatino. Probabilmente qualche spendaccione che se ne vuole disfare per passare alle RTX lo trovi.
Non la penso affatto così.
Quando leggo che la 2060 da 3gb fa i 29fps su shadow of tomb raider su uno test, allora ti assicuro che io sviluppo più frame per secondo: quasi al pari di una 2060 da 6gb (34fps).
Certo è sicuramente un pelino meglio, ma oggi di certo non la comprerei mai!
Una 590 forse, ma il salto è minimo (lo stesso test compariva mi pare sui 40 fps.
Il margine è ridottissimo e fra un anno quando uscirà un gioco nuovo sei li punto a capo a lottare per avere tra i 25-30 fps...
i consumi...ancora in questo forum si parla di consumi...ma per chi gioca 5 ore la settimana secondo te il fatto di consumare 1kw in più la settimana incide?!?
quanto costa un kw?!? 30 centesimi?!?
per 50 settimane sono 15 euro all'anno.. cacchio che spesa!!!
e secondo te merita cambiare a parità di prestazioni per 15 euro all'anno?
Ma fammi il piacere!
poi è logico che più sei aggiornato più è meglio..
In tutto questo le case produttrici di gpu ci mangiano: bene per loro, ma devono stare attenti che il gaming è un hobby e non tutti sono disposti a spendere 1000 euro di gpu e cambiarla ogni 2/3 anni...
Io ricordo qualche tempo fa che con una 8800 gt o 9600 gt giocavi bene a tutto! ed erano schede che non costavano certo 500/700 euro..
io avevo la 9600 GT e la pagai 170 euro... tanto per esempio sicuro
Per non parlare della 6600 GT che era una bomba per l'epoca... o la 4200ti.... schede che non costavano uno sproposito e giocavi alla grande e per quanti anni!!!
Inoltre anche con una 440 mx giochicchiavi bene a quasi tutto....e la scheda costava meno di 100 euro!!!
Non capisco, ripeto, questi prezzi!
MiKeLezZ
22-11-2018, 13:13
Non la penso affatto così.I miei sono fatti. I tuoi sembrano sproloqui da bar. Siamo in un forum tecnico. Evita.
Per non parlare della 6600 GT che era una bomba per l'epoca... o la 4200ti.... schede che non costavano uno sproposito e giocavi alla grande e per quanti anni!!!Mi ricordo quando presi la 9700PRO sul forum (ora ci ho fatto un quadro), pagata sui 200 euro usata (costo ufficiale sui 350 euro, se non erro).
Questo quello che faceva:
https://i.imgur.com/4oXA2mo.jpg
Oggi a 200 euro (nuova, non usata) ci compri una RX580.
Questo quello che fa (60FPS fissi):
https://i.imgur.com/bAn5Clq.jpg
Non so quale sia il tuo problema. Ma non farci perdere tempo.
MiKeLezZ
22-11-2018, 13:37
Usciti i primi benchmark sulla RTX2060
+30% di prestazioni rispetto la RX580/GTX1060:
https://www.techpowerup.com/img/wKhW581oRcMMndYL.jpg
Se la mettono allo stesso prezzo della RX590 (o meno) la concorrenza di AMD è finita.
Portocala
22-11-2018, 14:28
Usciti i primi benchmark sulla RTX2060
+30% di prestazioni rispetto la RX580/GTX1060:
Se la mettono allo stesso prezzo della RX590 (o meno) la concorrenza di AMD è finita.
Se mantengono il trend del raddoppio del prezzo rispetto alla serie precedente, allora AMD può dormire tranquilla :asd:
E poi di nuovo spacci un test come il sacrosanto indicatore di come andrà una scheda in rapporto alle altre :asd:
Allora ragazzi.. vorrei fare chiarezza..
io erroneamente mi riferivo alla 1060...forse ho scritto male...ho visto che le ha più o meno quello che faccio io nei giochi con risoluzione full hd (quello della risoluzione non l'avevo detto) e pertanto a mio avviso non ha senso per gente come me.
Per quanto riguarda lo sli o crossfire per me può meritare per quello che ho scritto sopra. Certo i consumi sono più alti e meno aggiornato, ecc.. ma a mio avviso se implementato su una fascia media (cosa che oggi nvidia non fa più...e non come qlk ha scritto uno sli di 1060 perché non si può fare neanche con le 2070) ti permette di saltare tranquillamente una generazione se non due tenendo il livello di dettagli a cui sei abituato. Non so se mi sono spiegato: se volete faccio esempi
il punto della discussione è che oggi come oggi le rx590 e la 2060 non sono affatto male, ma a mio avviso costano ancora troppo...
i prezzi dovrebbero essere tipo:
rx580 190 euro
rx590 220 euro
2060 270 euro
vega 56 330 euro
2070 380 euro
vega 64 400 euro
2080 530 euro
2080ti 750 euro
a spanne..certo che se uno prende l'aurus mega..o la strix rog super oc costa un pelino di più...
e sempre tornando al forum: uno come me che non ha mai preso in considerazione le ati (emm amd) potrebbe un domani cambiare idea soprattutto dal fatto che uno, sempre secondo il mio ragionamento, un domani potrebbe mettere in cross due rx590 ed eguagliare le prestazioni di una 2080 o più odierna (che oggi non sfrutterebbe, ma che fra 3 anni diciamo di si)
Se mantengono il trend del raddoppio del prezzo rispetto alla serie precedente, allora AMD può dormire tranquilla :asd:
E poi di nuovo spacci un test come il sacrosanto indicatore di come andrà una scheda in rapporto alle altre :asd:
come minimo la metteranno a 450 euro! cioè una fascia media a 450 euro! roba da matti!
nickname88
22-11-2018, 14:40
Wow va il 30% in più di una 1060 in FFXI... direi quindi che va tanto quanto una 590 in tutti gli altri giochi. :asd:
Escludendo il fatto che possa essere vera o un fake, mi domando che razza di ragionamento hai applicato per dire la frase in eretto.
nickname88
22-11-2018, 15:03
Hai visto in quel bench che la 1060 va quasi come vega 64 e vega 64 va meno di vega 56? :asd:
Sono Radeon Pro, comunque non è chiaro manco il resto.
MiKeLezZ
22-11-2018, 15:16
La notizia non è il benchmark. La notizia è che esistono già le RTX2060. La notizia è che le prestazioni delle RTX2060 saranno simili a quelle della GTX1070.
Vorrei ricordare cosa dissi una settimana fa (quando ancora c'era gente che avrebbe giurato su sua madre che non sarebbe uscita alcuna RTX2060):
https://www.hwupgrade.it/forum/showpost.php?p=45888519&postcount=49
Il refresh delle GTX1060 serve, appunto, a svuotare i magazzini da queste schede. Per quante tante VGA che NVIDIA abbia, prima o poi le vende tutte, visto che vende il triplo di AMD. Dopo il periodo delle feste natalizie, con l'esaurirsi dei chip, uscirà la GTX2060 (inizi di Febbraio), dalle stesse prestazioni della GTX1070, come è normale che sia. Verrà sui 300 euro al lancio, per poi scendere a 250 euro entro 1 o 2 mesi (Aprile/Maggio).
Se vuoi segnati il thread e vieni a ricercarmi.
Poi, va bene prendere in giro il benchmark, ma se qualcuno vuole negare l'evidenza della prima frase e/o fare affermazioni molto azzardate come "le RTX2060 andranno meno della RX590" oppure "le RTX2060 costeranno 500 euro", me lo segno, faccio lo screenshot e lo vengo a ricercare fra un paio di mesi eventualmente umiliandolo poi pubblicamente. Che problema c'è. Cerchiamo di dire le cose chiaramente, però.
La notizia non è il benchmark. La notizia è che esistono già le RTX2060. La notizia è che le prestazioni delle RTX2060 saranno simili a quelle della GTX1070.
Vorrei ricordare cosa dissi una settimana fa (quando ancora c'era gente che avrebbe giurato su sua madre che non sarebbe uscita alcuna RTX2060):
https://www.hwupgrade.it/forum/showpost.php?p=45888519&postcount=49
Poi, va bene prendere in giro il benchmark, ma se qualcuno vuole negare l'evidenza della prima frase e/o fare affermazioni molto azzardate come "le RTX2060 andranno meno della RX590" oppure "le RTX2060 costeranno 500 euro", me lo segno, faccio lo screenshot e lo vengo a ricercare fra un paio di mesi eventualmente umiliandolo poi pubblicamente. Che problema c'è. Cerchiamo di dire le cose chiaramente, però.
ok.. speriamo che le mettano sui 200/250 euro allora come sarebbe giusto per quella fascia, ma credo a mio avviso che costeranno un bel po' di più...se hai ragione tu ben venga..potrei farci un pensierino ad una 2060 a 200 euro...
Gyammy85
22-11-2018, 18:33
Quindi gli altri che cavolo hanno misurato?
Alla fine la 590 va di più e consuma di meno, come previsto.
Non è che sia una scheda che stravolge qualcosa certo, ma così ha più senso.
Non è che gli altri si creino il problema di verificare quanto consumerebbe una 580 alle stesse frequenze...
MiKeLezZ
22-11-2018, 18:45
Quindi gli altri che cavolo hanno misurato?
Sempre le solite cose.
https://i.imgur.com/nYvQ2bV.png
Alla fine la 590 consuma di meno, come previsto.Direi proprio di no. A occhio direi un 30W di più della RX580. I soliti che sappiamo. Valori sempre folli, ovviamente, in totale ben oltre i 200W.
Non è che sia una scheda che stravolge qualcosa certo, ma così ha più senso.Diciamo che se uno stravolge la realtà a suo favore e neppure sa leggere i grafici, dovrebbe appendere la tastiera al chiodo e trovare qualcos'altro da fare nella vita.
@Veradun. Oramai la stella d'oro di Cherry Picker è presa da Gnammy85, il sito russo in cirillico è duro da battere. Bel tentativo con Tom's Hardware edizione tedesca, senza neppure commentare così da accalappiare quei polli che non sanno leggere i grafici.
MiKeLezZ
22-11-2018, 20:01
Si però sembrava consumasse di più, invece consuma meno :DIl simpatico Igor mi ha detto di passare questa versione del grafico, creata apposta per il mercato italiano:
https://i.imgur.com/O0szWsV.png
210W per la RX580
230W per la RX590
20W in più per soli 205 MHz in più
La RX590 a me sembra una RX580 overcloccata e con processo produttivo lievemente migliore. Poi non so cosa sembri a taluni di voi. Una salsiccia? Un biplano?
Ha ragione mike... sembra una 580 leggermente overcloccata...
cmq lo abbiamo sempre detto che era un lieve miglioramento di una 580 per superare la 1060; ma qnd uscirà la 2060 non ci sarà storia.
Bisogna sempre considerare il discorso prezzo: se la faranno scendere potrà avere un senso oppure lo avrà se la 2060 costasse più di 400 euro...
E' certamente un lieve miglioramento. Ma le 580 non si possono overclockare quanto le 590 perché sono su un processo diverso e non ce la fanno. E la maggior parte non ce la fa nemmeno ad overclockarsi abbastanza da arrivare alla frequenza di default delle 590 per lo stesso motivo.
A quello servono quei grafici di Tom's DE, a mostrare che sono chip diversi, infatti a pari frequenza Polaris 30 consuma meno e a pari consumo Polaris 30 tiene frequenze più alte. Poi visto che del consumo non importa niente a nessuno hanno usato il power budget per proporre una SKU che a default potesse avere le massime prestazioni possibili.
E no, non serve per andare più della 1060, perché ci andava già la 580, anche se di pochissimo, serve per andare più della 1060 in ogni condizione e affrontare la stagione natalizia con la migliore offerta nel corposo mercato < 300$ visto che costa solo 20€ più di una 1060, non 100.
quoto e sai cosa vi dico: che se mi si rompesse (faccio gli scongiuri) una scheda video mi comprerei questa 590 dell' Asus...
MiKeLezZ
23-11-2018, 10:41
A quello servono quei grafici di Tom's DEQuant'è che sei su hwupgrade? 2011?
Ti ci voleva la "scienza" per "scoprire" che uno stesso identico chip fabbricato a una nanometria inferiore consuma leggermente di meno e ha potenzialità maggiori di salire in frequenza? A me risulta sia così da circa 20 anni.
Quando sono usciti i Ryzen 2000 (stesso passaggio 14nm->12nm), che a parità di modello hanno "aggiunto" 150MHz te dove eri? A tagliare l'erba in giardino?
Qui invece che 100MHz/150MHz hanno aggiunto 200MHz e quindi sono saliti pure i consumi. :rolleyes:
Cose che sapevamo TUTTI. Meno te e Bivvoz, credo.
:muro: :muro: :muro: :muro: :muro: :muro:
Sempre le solite cose.
https://i.imgur.com/nYvQ2bV.png
Direi proprio di no. A occhio direi un 30W di più della RX580. I soliti che sappiamo. Valori sempre folli, ovviamente, in totale ben oltre i 200W.
Diciamo che se uno stravolge la realtà a suo favore e neppure sa leggere i grafici, dovrebbe appendere la tastiera al chiodo e trovare qualcos'altro da fare nella vita.
@Veradun. Oramai la stella d'oro di Cherry Picker è presa da Gnammy85, il sito russo in cirillico è duro da battere. Bel tentativo con Tom's Hardware edizione tedesca, senza neppure commentare così da accalappiare quei polli che non sanno leggere i grafici.
mi spiace che dal grafico non noti il potenziale a bassi volt,praticamente una 590 cloccata come una 580 overcloccata a morte,consuma similmente come la tua amata 1060 rimanendogli ancora avanti:eek:
io nel suo piccolo trovo questa "ennesima" polaris un piccolo gioellino,se non ti servono tanti fps undervolti,altrimenti quando serve davvero la spari al massimo e ti tovi pure un gpu dx12full:D
e c'e' un buon margine per undevoltare anche in stock e in overclock;)
ormai le 1060 possono pure mandarle al macero,almeno si affrettano a lanciare la 2060,anche se da come sembra non e' niente di eccezionale
MiKeLezZ
23-11-2018, 10:56
mi spiace che dal grafico non noti il potenziale a bassi volt,praticamente una 590 cloccata come una 580 overcloccata a morte,consuma similmente come la tua amata 1060 rimanendogli ancora avanti:eek:
io nel suo piccolo trovo questa "ennesima" polaris un piccolo gioellino,se non ti servono tanti fps undervolti,altrimenti quando serve davvero la spari al massimo e ti tovi pure un gpu dx12full:D
e c'e' un buon margine per undevoltare anche in stock e in overclock;)
ormai le 1060 possono pure mandarle al macero,almeno si affrettano a lanciare la 2060,anche se da come sembra non e' niente di eccezionaleQuello che i fanatici da stadio come te si dimenticano... è che puoi undervoltare anche le GTX1060.
Con MSI Afterburner abbassi il "power limit" et voilà. Semplicissimo. Hai una GTX1060 da 70W che puoi tenere pure 100% passiva.
Livelli irraggiungibili da qualsiasi VGA AMD. Altro che macero.
Usciti i primi benchmark sulla RTX2060
+30% di prestazioni rispetto la RX580/GTX1060:
Scusa ma nel tuo grafico... Vega 56 va un 10% piu' forte di vega 64....
Controlli perlomeno quello che posti?
Poi credo che non ci siano dubbi sul fatto che la 2060 sara' piu' veloce della 590 non vedo perche' ti debba affaticare tanto nel provarlo.
Usciti i primi benchmark sulla RTX2060
+30% di prestazioni rispetto la RX580/GTX1060:
Scusa ma nel tuo grafico... Vega 56 va un 10% piu' forte di vega 64....
Controlli perlomeno quello che posti?
Poi credo che non ci siano dubbi sul fatto che la 2060 sara' piu' veloce della 590 non vedo perche' ti debba affaticare tanto nel provarlo.
E' certamente un lieve miglioramento. Ma le 580 non si possono overclockare quanto le 590 perché sono su un processo diverso e non ce la fanno. E la maggior parte non ce la fa nemmeno ad overclockarsi abbastanza da arrivare alla frequenza di default delle 590 per lo stesso motivo.
A quello servono quei grafici di Tom's DE, a mostrare che sono chip diversi, infatti a pari frequenza Polaris 30 consuma meno e a pari consumo Polaris 30 tiene frequenze più alte. Poi visto che del consumo non importa niente a nessuno hanno usato il power budget per proporre una SKU che a default potesse avere le massime prestazioni possibili.
E no, non serve per andare più della 1060, perché ci andava già la 580, anche se di pochissimo, serve per andare più della 1060 in ogni condizione e affrontare la stagione natalizia con la migliore offerta nel corposo mercato < 300$ visto che costa solo 20€ più di una 1060, non 100.
Che senso ha pagare il 30-40% in piu' di una rx580 per avere un 10% in piu' d i prestazioni con una 590?
La 590 avrebbe dovuto rimpiazzare la 580 allo stesso prezzo alla quale viene venduta ora, ovvero 200 euro/$.
QFE
Le Nitro 580 e 590 sono le migliori, ASUS non sta facendo un buon lavoro con AMD negli ultimi anni.
Comunque meglio se non ti si rompe :D
Si..scusa...è che non seguo AMD nel mercato gpu e ne so pochissimo e poi sono fan di asus..ho tutto asus..dalla scheda di rete alla gpu su tutti i pc che ho in firma...
Tanto il mio prossimo acquisto sarà una 2170 se la metteranno ad un prezzo onesto o andrò di 2150 per il pc e ps5 per giocare...
MiKeLezZ
23-11-2018, 13:18
in un momento in cui il concorrente non sa come fare a vendere le 1060Hai pasteggiato con una boccia di vinello? Vaneggi?
Questa l'analisi del market share su un campione di 100 milioni di utenti.
NVIDIA GeForce GTX 1060:
GIUGNO: 12.74%
LUGLIO: 12.89%
AGOSTO: 13.76%
SETTEMBRE: 14.29%
OTTOBRE: 14.79%
Da Giugno ad Ottobre ha fatto il +2,05%, ogni mese in salita.
Quindi sta vendendo e pure bene.
AMD RADEON RX580:
GIUGNO: 0.35%
LUGLIO: 0.34%
AGOSTO: 0.44%
SETTEMBRE: 0.47%
OTTOBRE: 0.5%
Da Giugno ad Ottobre ha fatto il +0,15%, con Luglio in perdita.
Si è ripresa ad Agosto solo perché ha tagliato i prezzi (e quindi i guadagni) di 50$.
Sta vendendo 14 volte meno che la GTX1060.
14 volte meno.
14.
bagnino89
23-11-2018, 13:37
Hai pasteggiato con una boccia di vinello? Vaneggi?
Questa l'analisi del market share su un campione di 100 milioni di utenti.
NVIDIA GeForce GTX 1060:
GIUGNO: 12.74%
LUGLIO: 12.89%
AGOSTO: 13.76%
SETTEMBRE: 14.29%
OTTOBRE: 14.79%
Da Giugno ad Ottobre ha fatto il +2,05%, ogni mese in salita.
Quindi sta vendendo e pure bene.
AMD RADEON RX580:
GIUGNO: 0.35%
LUGLIO: 0.34%
AGOSTO: 0.44%
SETTEMBRE: 0.47%
OTTOBRE: 0.5%
Da Giugno ad Ottobre ha fatto il +0,15%, con Luglio in perdita.
Si è ripresa ad Agosto solo perché ha tagliato i prezzi (e quindi i guadagni) di 50$.
Sta vendendo 14 volte meno che la GTX1060.
14 volte meno.
14.
:asd:
Dove hai preso queste statistiche? Ammazza, se le cose stanno davvero così... Non immaginavo che le 1060 potessero vendere così tanto di più delle 580.
nickname88
23-11-2018, 13:54
Sono i classici vaneggiamenti.
Nvidia che non sà come vendere la 1060 è una barzelletta degna di Zelig. :asd:
Anche guardando le statistiche di Steam, che non considero complete, il risultato è comunque chiaro :
https://store.steampowered.com/hwsurvey/videocard/
14.74% vs 0.50%
Addirittura esiste una percentuale oltre 3 volte superiore di 1080Ti rispetto alle RX580 :asd:
Gyammy85
23-11-2018, 14:19
Si dai tirate fuori la storia dello steam survey ora :asd:
Gyammy85
23-11-2018, 14:24
Sono i classici vaneggiamenti.
Nvidia che non sà come vendere la 1060 è una barzelletta degna di Zelig. :asd:
Ah ma quindi non è vero niente? Quindi gli azionisti hanno preso un abbaglio?
I soliti fanboy aemmedi
No guarda zelig è stato raggiunto e superato nei commenti di questa review e non di poco :asd:
Gyammy85
23-11-2018, 14:26
Non sono minimamente credibili quelle proporzioni.
Sicuramente le 1060 saranno il triplo delle 480/580 e forse più, ma non certo 14.79% vs 0.5% :asd:
Che ci vuoi fare bisogna pur attaccarsi a qualcosa
Ora verrà fuori che ci sono più 2080ti che 1030 in giro, vedrai
MiKeLezZ
23-11-2018, 14:39
Si dai tirate fuori la storia dello steam survey ora :asd:Un campione di 100 milioni di utenti (STEAM) rappresenta una popolazione a fini statistici che permette un'assoluta certezza dei dati. Questa è matematica.
La statistica viene utilizzata come scienza esatta in TUTTI i campi, compresa la medicina. Proprio a medicina è peraltro un esame universitario obbligatorio da 9 crediti. Figuriamoci nei corsi di laurea "scientifici".
In ogni caso, report indipendenti come quello di Jon Peddie Research (costo del report 2500$, prego) affermano come il mercato delle schede grafiche discrete sia nel 69,5% in mano a NVIDIA e nel 30,5% in mano ad AMD.
Ciò è perfettamente comparabile con i dati di STEAM, che mostrano il 85% in mano a NVIDIA e il 15% in mano ad AMD (valori senza l'apporto degli altri competitor).
La differenza riportata da STEAM e da Jon Peddie Research è dovuta a due motivi:
1) Il secondo conta anche tutte le varie schede AMD di fascia bassa e bassissima che non verranno mai utilizzate per videogiocare, come le 520, 530, 540 (destinate unicamente agli OEM per accompagnare sistemi AMD che non possiedono IGP e quindi senza di esse non potrebbero mostrare neppure il desktop). NVIDIA queste VGA non le possiede.
2) Il secondo conta anche tutte le varie schede AMD acquistate unicamente per il mining (magari inserite in server da 5 o 6 VGA e a cui ci si accede solo da remoto), mai accese per videogiocare (ma comunque vendute come tali).
Le percentuali, conseguentemente, cambiano leggermente.
I dati che a noi interessano sono quelli di STEAM, ovvero quelli delle VGA attualmente utilizzate per videogiocare.
Quindi gli azionisti hanno preso un abbaglio?L'obiettivo degli azionisti è speculare sulle azioni, comprandole a poco e vendendole a più. Non gliene frega una beata m... se la RTX fa 70 fps in BF V e se ci sono giacenze di GTX1060. Gli frega unicamente se le azioni dell'azienda da qui a 3-6-12 mesi aumenteranno di valore oppure scenderanno di valore, così da decidere se mantenere il loro investimento monetario oppure se ritirarlo e posizionarlo da qualche altra parte (ovvero in qualche altra azienda che si presume possa far aumentare di valore le proprie azioni nei 3-6-12 mesi sopracitati).
Il "problema" è stato il non raggiungimento degli standard di vendita da parte di NVIDIA (che li aveva impostati piuttosto in alto), dovuto a una contrazione del mercato dovuto alla crisi delle criptovalute e del mining. La giacenza è una conseguenza, non il problema. Il problema sono le mancate vendite che erano state promesse (ma che non dipendevano da NVIDIA). E' stata solo un'infelice manovra economica.
AMD non ha di questi problemi perché non vendeva prima e non vende neppure adesso... non vi è alcuna promessa non mantenuta.
Ai videogiocatori di queste cose non dovrebbe fregare una beata m.. anzi. Una perdita di capitali esterni implica che l'azienda a breve attuerà manovre compensative volte a migliorare la situazione attuale e a rendersi più "golosa" agli occhi degli investitori. Ciò favorirà i consumatori, generalmente si tratta di tagli di prezzo e/o lancio di nuovi prodotti e/o lancio di nuove tecnologie e/o maggiori risorse impegnate nella ricerca e sviluppo.
bagnino89
23-11-2018, 14:42
Riguardo la 580, probabilmente bisognerebbe tenere conto anche di quelle vendute per il dannato mining. E probabilmente non sono state poche.
MiKeLezZ
23-11-2018, 14:58
Riguardo la 580, probabilmente bisognerebbe tenere conto anche di quelle vendute per il dannato mining. E probabilmente non sono state poche.Le RX580 vendute per il mining non le vedi nelle statiche di STEAM. Per ovvi motivi.
Il che rende le statistiche di STEAM più corrette per il confronto dei dati.
bagnino89
23-11-2018, 15:11
Le RX580 vendute per il mining non le vedi nelle statiche di STEAM. Per ovvi motivi.
Il che rende le statistiche di STEAM più corrette per il confronto dei dati.
Appunto, dicevo che sarebbe interessante conoscere le schede acquistate dai minatori per farsi un'idea più precisa delle vendite e dello share.
I giocatori sembrano preferire Nvidia, e non di poco, questo è fuori discussione.
nickname88
23-11-2018, 15:43
Che ci vuoi fare bisogna pur attaccarsi a qualcosa
Ora verrà fuori che ci sono più 2080ti che 1030 in giro, vedraiDormi sereno che quì nessuno ha bisogno di attaccarsi a nulla. Che abbiano venduto meno o più non me ne frega un accidenti.
Sul fatto delle proporzioni chi non ha portato nulla sono altri, fra cui te.
MiKeLezZ
23-11-2018, 17:02
A vedere i dati di vendita del maggior rivenditore al dettaglio tedesco nella fascia di Polaris e GP106 le vendite sono 55/60 % vs 45/40 % a favore di AMD.
BOOOOOOOOOOOOOOOOOOOOOOM
https://www.triesteallnews.it/wp-content/images/2018/07/fotografare-fuochi-artificio-1.jpg
Per una prova "da contadino" basta aprire Amazon e cercare GTX1060 e RX580.
Per la GTX1060 ci sono 3357 recensioni (prime 10 schede)
Per la RX580 ci sono 325 recensioni (prime 15 schede)
Rapporto di vendita 10:1 a favore di NVIDIA
Ripeto: prova "da contadino". Valori grossolani. Test al volo.
Ma sempre meglio che frasi buttate alla cazzo senza uno straccio di prova e totalmente fuori dalla realtà.
Darkless
24-11-2018, 06:53
I giocatori sembrano preferire Nvidia, e non di poco, questo è fuori discussione.
Magie del marketing. Tutt'oggi c'è ancora chi è fervente sostenitore di Intel ed i Ryzen sono cacca pupu solo perchè li fa AMD.
Però qualcosa si sta finalmente smuovendo.
nickname88
24-11-2018, 09:13
Magie del marketing. Tutt'oggi c'è ancora chi è fervente sostenitore di Intel ed i Ryzen sono cacca pupu solo perchè li fa AMD.
Però qualcosa si sta finalmente smuovendo.Il marketing accentua solamente la situazione descritta. AMD come brand non centra nulla, ma non è colpa del marketing se nei giochi i prodotti dei due competitors sono migliori, marketing o meno. Poi il prezzo / performance è sicuramente a favore di AMD, ma sembra più una conseguenza.
Cominciassero ad esprimersi come facevano con gli Athlon64 e vedrai che questo presunto pregiudizio cesserebbe di esistere, almeno per l'utenza informata.
Stra ovvio Nvidia venda di più.
Anche all'epoca in cui Nvidia vendeva schede orrende prestazionalmente e molto più costose della concorrenza (vedi gtx 260 vs radeon 4xxx/5xxx) ha sempre venduto molto di più.
Figuriamoci quando i prezzi sono allineati..
Sempre stato così...come intel con AMD nell'ambito cpu.
Certo è che se nvida tiene i prezzi in questo modo la gente in procinto di cambiare gpu/pc o non cambia o si informa e capisce che con 200 euro o meno può prendere una scheda che permetta di giocare abbastanza bene...
le persone che spendono più di 600 euro per una scheda (quindi 2070,ecc..) sono una minoranza.
Certo è che AMD sul lato gpu dovrebbe puntare su un abbassamento ulteriore per vincere a mani basse.
Ma ho una paura: mi sembra che le nuove gpu tipo la rx590 invece di essere una sostituta della vecchia 580 vengono affiancate con prezzi più alti.
In passato usciva la nuova generazione che andava a sostituire la vecchia, non ad affiancarsi a prezzi più alti...non ha senso!
Il modello che sostituisce dovrebbe andare come il modello appena superiore della serie precedente, ma con migliorie a livello di consumi, implementazioni, driver.
Per esempio 680 andava come una 770 che andava come una 960 che andava come una 1050 e via discorrendo..
le rx 580 stanno sui 250 euro...bene secondo me le 590 dovrebbero costare uguale e le 580 sparire
Gyammy85
25-11-2018, 16:25
Il marketing accentua solamente la situazione descritta. AMD come brand non centra nulla, ma non è colpa del marketing se nei giochi i prodotti dei due competitors sono migliori, marketing o meno. Poi il prezzo / performance è sicuramente a favore di AMD, ma sembra più una conseguenza.
Cominciassero ad esprimersi come facevano con gli Athlon64 e vedrai che questo presunto pregiudizio cesserebbe di esistere, almeno per l'utenza informata.
Certo certo, cominciassero a rimboccarsi le maniche, basta con ste sovvenzioni statali e roba clonata venduta sotto costo pensando di impensierire quelli che le cose le sanno fare davvero. Se lo youtuber sente l'esigenza di sfoggiare l'ultimo FE gioiello nel case il motivo c'è.
La strada è ancora lunga per la penetrazione nel mercato di quelli che col PC ci giocano e non ci testano solo i wattimetri.
nickname88
25-11-2018, 17:43
e non ci testano solo i wattimetri.
Il solito scivolone di chi non riesce ad accettare la realtà.
A parti invertite era invece da prendere in considerazione l'efficienza.
Strano perchè ai tempi di Fermi eravate tutti lì in prima linea ad evidenziarla. :rolleyes:
Se lo youtuber sente l'esigenza di sfoggiare l'ultimo FE gioiello nel case il motivo c'è.Gli youtubers mostrano le FE perchè sono le prime ad uscire ed essere disponibili, per il resto non mi pare sia un modello particolarmente ricercato se non per qualche fanboy.
bagnino89
25-11-2018, 19:15
Il tutto è come al solito molto esilarante :asd:
590 già bollata come DOA quando utilizza un chip nato nel 2016 che praticamente ormai costa 0 in R&D e quasi nulla in produzione , mentre nvidia per andare di più con la 2060 farà un nuovo chip che va forse il +15%... Geniale mossa da parte di invidia. GG
Curioso di vedere quanto consumerà la 2060, però.
Gyammy85
25-11-2018, 19:19
Curioso di vedere quanto consumerà la 2060, però.
Ehhhh sicuramente 10 watt o poco piùùùù :asd: :asd:
bagnino89
25-11-2018, 20:03
Da capire se avrà RT oppure no, per me potrebbero anche evitare di metterli...
Ehhhh sicuramente 10 watt o poco piùùùù :asd: :asd:
Il confronto sui consumi è già imbarazzante tra 1060 e 590, con la 2060 Nvidia potrebbe persino permettersi di incrementare il TDP.
Gyammy85
25-11-2018, 21:02
Il confronto sui consumi è già imbarazzante tra 1060 e 590, con la 2060 Nvidia potrebbe persino permettersi di incrementare il TDP.
Sarebbe opportuno se non vuole prenderle dalla 590 stufetta a carbon coke
nickname88
25-11-2018, 22:35
Sarebbe opportuno se non vuole prenderle dalla 590 stufetta a carbon coke
Non riesci proprio a fare a meno di spararle ?
Non penso ci sarà bisogno di scomodare la 2060, per contrastare la 590 è già in programma la 1060 con GDDR5x.
Gyammy85
26-11-2018, 07:35
Non riesci proprio a fare a meno di spararle ?
Non penso ci sarà bisogno di scomodare la 2060, per contrastare la 590 è già in programma la 1060 con GDDR5x.
Nvidia sa bene come trainarsi la clientela, ha visto nei forum la gente "gddr5x for the win" e ha pensato sai che c'è? Facciamo il refresh riciclando le 1080, andrà uguale perché non è bandwidth limited ma fa niente la comprano lo stesso.
Aspetto le review, vediamo se come la 2070 asfalta la Vega andando uguale o meno :asd:
nickname88
26-11-2018, 08:51
Nvidia sa bene come trainarsi la clientela, ha visto nei forum la gente "gddr5x for the win" e ha pensato sai che c'è? Facciamo il refresh riciclando le 1080, andrà uguale perché non è bandwidth limited ma fa niente la comprano lo stesso.
Aspetto le review, vediamo se come la 2070 asfalta la Vega andando uguale o meno :asd:
Riciclare le 1080 ?
La 2070 nel discorso cosa centra ?
Hai qualche problema.
MiKeLezZ
26-11-2018, 09:24
in effetti...
ma Pascal non era DX12 come lo era Maxwell?
eppure Haung disse che pure Fermi era DX12 ready :fagiano:Perchè non è dx12 compliance :rolleyes:
AMD può rebrandare perchè tanto è compatibile dx12 da sempre, si è portata dietro consumi può alti si ma anche qualche vantaggino.Da Pascal (GTX1060 etc) le NVIDIA non solo sono completamente DirectX 12 (con pieno supporto, non emulato, per Asynchronous Compute e Resource Binding Tier 3), ma supportano addirittura le DirectX 12_1
https://www.anandtech.com/show/10325/the-nvidia-geforce-gtx-1080-and-1070-founders-edition-review/9
Le RX480/RX580/RX590 sono solo DirectX 12_0
https://www.anandtech.com/show/13570/the-amd-radeon-rx-590-review/2
:rolleyes:
:mc:
Ale55andr0
26-11-2018, 09:38
scontro tra fanboy dell'una e dell'altra fazione, corro a prendere i popcorn!
Gyammy85
26-11-2018, 10:32
Riciclare le 1080 ?
La 2070 nel discorso cosa centra ?
Hai qualche problema.
Si perché le fanno coi pcb delle 1080 laserate per usare le gddr5x, erano questi i leak non smentiti tra l'altro.
Eh si, la 2070 c'entra perché in teoria doveva stare ben sopra vega e in certi casi se la batte pure con la 56, e non coi giochi coi compilatori maxwell del 2013 come quando si parla di vega...
Perché fino a Turing non avevano il pieno supporto hardware al feature set DX12, nonostante lo dicano da anni e quindi facciano vittime fra pletore di fanboy che ci credono prontamente :asd:
In realtà Vega su questo aspetto rimane ancora avanti su molte cose
https://i.postimg.cc/44vrn8p6/Senza-nome.png
:asd:
Cioè turing non ha neanche gli fp16, good
Vabbè ma gli sviluppatori si trovano ancora benissimo con le dx11, quando sarà il momento svilupperanno direttamente con le dx12 rtx che semplificheranno ancora di più ubermegaipersuper cit.
nickname88
26-11-2018, 10:37
Eh si, la 2070 c'entra perché in teoria doveva stare ben sopra vega e in certi casi se la batte pure con la 56, e non coi giochi coi compilatori maxwell del 2013 come quando si parla di vega...
"in certi casi" ? Sono architetture differenti è normale che esistano condizioni in cui una più essere più o meno avvantaggiata, persino Bulldozer non era inferiore ovunque ad Intel, non per questo doveva esser considerato.
La media globale parla chiaro, e la 2070 è davanti anche alla 1080 e quindi anche a Vega64, oltre che alla 56.
"in certi casi" .... Sei senza speranze
https://tpucdn.com/reviews/NVIDIA/GeForce_RTX_2070_Founders_Edition/images/relative-performance_2560-1440.png
Gyammy85
26-11-2018, 10:39
Pienamente DX12 probabilmente non vuole dire niente.
Vi sono un sacco di funzioni e alcune GPU supportano questo e quello e altro no.
Sinceramente mi interessano fino ad un certo punto le tabelline, mi limito a guardare i risultati ed è difficile non notare quanto le turing allunghino il passo rispetto alle pascal in alcuni giochi dx12/vulkan.
L'esempio più marcato è wolfestein 2.
Il fatto è che se vega può sfruttare una feature specifica per rendere meglio e pascal/turing non ce l'hanno, diventa tutto in salita...
Gyammy85
26-11-2018, 10:43
"in certi casi" ? La media globale è ciò che conta e la 2070 è davanti anche alla 1080 e quindi anche a Vega64.
"in certi casi" .... Sei senza speranze
https://tpucdn.com/reviews/NVIDIA/GeForce_RTX_2070_Founders_Edition/images/relative-performance_2560-1440.png
Mi fa piacere che la gente riesca a giocare a tutti i giochi contemporaneamente, senza un minimo di pesatura, cioè nel senso metto un gioco che gimpa ed ha lo stesso peso di quello neutro che premia la bontà dell'architettura, ma questo modo di procedere evidentemente ha il suo tornaconto, perché una volta nessun sito faceva ste medie, il recensore concludeva col canonico nvidia meglio coi giochi vecchi amd meglio coi nuovi, per cui uno traeva le sue conclusioni e acquistava.
Io reputo assolutamente non corrette queste medie perché mettono dentro cose che poi tolgono al momento opportuno, non sono comparabili, confrontabili e affidabili, punto. Continuate a postarle.
nickname88
26-11-2018, 10:45
Io reputo assolutamente non corrette queste medie perché mettono dentro cose che poi tolgono al momento opportuno, non sono comparabili, confrontabili e affidabili, punto. Continuate a postarle.Ciò che reputi tu con i paraocchi lascia il tempo che trova, se credi sia giusto che scegliersi i titoli che dici tu sia una comparazione corretta. Anche Nvidia ha i suoi titoli come ce li ha anche AMD.
Infatti ad esempio nella lista mancano Odyssey e SOTTR.
MiKeLezZ
26-11-2018, 10:50
Perché fino a Turing non avevano il pieno supporto hardware al feature set DX12, nonostante lo dicano da anni e quindi facciano vittime fra pletore di fanboy che ci credono prontamente :asd:
In realtà Vega su questo aspetto rimane ancora avanti su molte cose
Non mi pare... e, che c'entra Vega? :rolleyes:
Ah, giusto, perché ti sei accorto che le RX480/RX580/RX590 sono indietro. :rolleyes:
https://i.imgur.com/rjKYx9M.png
Cioè turing non ha neanche gli fp16, goodNon ce li ha perché ha gli FP32 e FP64... genio... FP16 significa minore precisione. :rolleyes:
Sai cosa significa usare gli FP16? Tornare indietro di 14 anni. Guarda qua:
https://www.hwupgrade.it/articoli/skvideo/1013/radeon-x800-e-il-momento-di-r420_15.html
Eppure pensavo che ALMENO Turing fosse pienamente DX12, eh invece...Eh, invece non solo è pienamente DX12, ma è pure quasi interamente DX12_1. Manca appena una feature semplicissima da implementare. Perché quella tabella mostra le feature richieste dalle DX12_1 e non dalle DX12_0... genio n.2. :rolleyes:
Gyammy85
26-11-2018, 10:51
No, sei tu che hai il paraocchi a credere che scegliersi i titoli ha hoc sia una comparazione corretta.
Anche Nvidia ha i suoi titoli come ce li ha anche AMD, quindi di cosa stiamo a parlare ?
E' lo stesso concetto della media del pollo
Io prendo due giochi, gta5 e forza 4
Io uno vega fa 20 fps in meno della 1080, nell'altro 20 fps in più
"vanno uguali"
no, perché nel primo si sa che è codice old partorito in piena era maxwell, l'altro è un gioco neutro (e si, non ci sono loghi), solo dx12 nativo, o quantomeno non patchato al day 5000 dx12.
Quindi se uno fa le medie, le fa pesate, in base a tutta una serie di considerazioni. O fa come guru3d che non le usa.
nickname88
26-11-2018, 10:52
E' lo stesso concetto della media del pollo
Io prendo due giochi, gta5 e forza 4
Infatti il campione preso è ben più folto di 2 titoli.
In tutte le recensioni la 2070 stacca la Vega56, fattene una ragione.
no, perché nel primo si sa che è codice old partorito in piena era maxwell, l'altro è un gioco neutro (e si, non ci sono loghi), solo dx12 nativo, o quantomeno non patchato al day 5000 dx12.
Quindi se uno fa le medie, le fa pesate, in base a tutta una serie di considerazioni. O fa come guru3d che non le usaConsiderazioni prima di tutto che tu non puoi sapere visto che non fai parte di nessun team di sviluppo, e quindi oltre a non poterti esprimere tecnicamente ( perchè non sai nulla di programmazione a quel livello nè del lavoro che c'è stato dietro ), sono solamente sparate a zero basate su sogni degni di un adolescente.
E in secondis ognuno valuta e compera le VGA in base a come girano con il parco giochi dell'epoca, indipendentemente da dove venga il vantaggio dell'una e dell'altra.
Le tue sono solamente seghe mentali.
Gyammy85
26-11-2018, 10:55
Che c'entra Vega? :rolleyes:
Ah, giusto, perché ti sei accorto che le RX480/RX580/RX590 sono indietro.
https://i.ibb.co/44907Xz/Annotazione-2018-11-26-112457.png
Non ce li ha perché ha gli FP32 e FP64... genio... FP16 è una minore precisione :rolleyes:
Voleva puntualizzare il fatto che le vecchie nvidia non sono dx12 full solo perché ci parte win 10, la tabella che hai mostrato è identica
bagnino89
26-11-2018, 11:40
Vega è senza dubbio l'architettura più completa, però mi sembra evidente che Pascal/Turing siano messe meglio di Polaris.
Gyammy85
26-11-2018, 13:03
Lui intendeva a livello di features dx12
MiKeLezZ
26-11-2018, 13:19
Volevo puntualizzare che il completissimo Turing è indietro rispetto ad una GPU di un anno e mezzo fa.Forse hai bisogno di occhiali.
Vega in più rispetto a Turing ha solo lo "Stencil Reference Value from Pixel Shader". D'altro canto Turing in più ha il "View Instancing Tier 2". Entrambe feature facilmente implementabili (e di utilità solo agli sviluppatori). Pari.
https://i.imgur.com/rjKYx9M.png
Non considero il Raytracing, che pur che sia utile, nessuno ha chiesto. Ma non considero neppure il minimum floating point a 16-bit, visto che nel caso di AMD serve a ridurre la qualità grafica così da avere maggiori performance (che già scarseggiano). Le DX10 richiedono il FP32, ed entrambe le architetture lo hanno.
Sono 14 anni che siamo passati al FP32 abbandonando il FP16, per chi se lo sia perso, lo rilinko:
https://www.hwupgrade.it/articoli/skvideo/1013/radeon-x800-e-il-momento-di-r420_15.html
Quindi Turing e Vega come feature DirectX possiamo dire siano simili.
Con la piccola differenza (piccola, eh) che Turing va di più, consuma di meno e neppure necessita di costose memorie HBM.
Un'altra piccola differenza (anche qua, piccola piccola, eh) è che stavamo parlando del feature set delle GTX1060 vs. RX580 ovvero di schede che non c'entrano nulla né con Vega né con Turing.
Ma qualcuno ha deciso di spostare la discussione altrove (pur essendo questo thread sulle RX590).
Ritornando al punto iniziale, le GTX1060 hanno un feature set DirectX più completo delle RX480/RX580/RX590.
Il messaggio iniziale era questo:
https://www.hwupgrade.it/forum/showpost.php?p=45908316&postcount=276
Perchè non è dx12 compliance :rolleyes:
AMD può rebrandare perchè tanto è compatibile dx12 da sempre, si è portata dietro consumi può alti si ma anche qualche vantaggino.Come si è visto, no. Nessun vantaggino, anzi.
Ennesimo errore che fai.
Ma non considero neppure il minimum floating point a 16-bit, visto che nel caso di AMD serve a ridurre la qualità grafica così da avere maggiori performance (che già scarseggiano).
Credevo servisse per i calcoli legati all'intelligenza artificiale, non mi pare che vengano usati per giocare a qualità più bassa come vent'anni fa e oltre.
Le Turing per questo usano i tensor core (che sono meglio in quanto unità dedicate, ma occupano uno spazio tutto loro sul chip, che infatti è molto grande).
Oltretutto quel "che già scarseggiano" non ha senso come l'hai scritto, dato che se venissero usate per migliorare le prestazioni a scapito della qualità, al più avresti potuto scrivere "dato che scarseggiano".
Ritornando al punto iniziale, le GTX1060 hanno un feature set DirectX più completo delle RX480/RX580/RX590.
Bisognerebbe però capire quale sia il limite di Pascal con le DX12, perchè dai test è evidente che ci siano titoli in cui questa architettura arranca rispetto alle schede AMD e dove invece Turing lavora piuttosto bene.
A me sembra che nel concreto Pascal abbia ancora qualche difficoltà con le DX12 in alcuni contesti (dico ancora perchè circa un anno fa ha guadagnato il supporto al Tier3 per il resource binding tramite aggiornamento driver, essendo nata con il supporto a livello Tier2), sebbene in generale si comporti comunque bene.
MiKeLezZ
27-11-2018, 14:45
Credevo servisse per i calcoli legati all'intelligenza artificiale, non mi pare che vengano usati per giocare a qualità più bassa come vent'anni fa e oltre.
Le Turing per questo usano i tensor core (che sono meglio in quanto unità dedicate, ma occupano uno spazio tutto loro sul chip, che infatti è molto grande).Nelle DX12_1 Microsoft vuole reintrodurre la possibilità di usare le FP16 per i calcoli grafici (ora in FP32), così da aumentare le prestazioni. Cosa che già avviene nei giochini per i cellulari.
Oltretutto quel "che già scarseggiano" non ha senso come l'hai scritto, dato che se venissero usate per migliorare le prestazioni a scapito della qualità, al più avresti potuto scrivere "dato che scarseggiano". Le prestazioni di Vega scarseggiano, per questo AMD ha cercato di "metterci una toppa" creando un'architettura capace di processare due operazioni FP16 in un unico registro a 32-bit. In questo modo si spaccia come in grado di avere "il doppio di performance", peccato solo che sono appunto 14 anni che si è passati al solo calcolo FP32 in ambito grafico.
L'opzione delle FP16 nelle DX12_1 è il favore di Microsoft ad AMD così che la sua architettura possa eventualmente beneficiarne (piuttosto ridicolo dopo che ha obbligato il solo uso delle FP32 con le DX10).
Bisognerebbe però capire quale sia il limite di Pascal con le DX12, perchè dai test è evidente che ci siano titoli in cui questa architettura arranca rispetto alle schede AMD e dove invece Turing lavora piuttosto bene.
A me sembra che nel concreto Pascal abbia ancora qualche difficoltà con le DX12 in alcuni contesti (dico ancora perchè circa un anno fa ha guadagnato il supporto al Tier3 per il resource binding tramite aggiornamento driver, essendo nata con il supporto a livello Tier2), sebbene in generale si comporti comunque bene.Non c'entra il supporto alle feature DirectX. E' un discorso insito nelle stesse architetture. E' un po' come confrontare mele con pere.
Le attuali architetture NVIDIA sono leggermente più rivolte al calcolo seriale (tipico delle DX11), mentre quelle AMD sono leggermente più rivolte al calcolo parallelo (tipico delle DX12).
Tale scelta è voluta da NVIDIA in quanto così ha privilegiato la maggior parte dei titoli sviluppati e non la manciata di titoli DX12 esistenti. Ed è voluta anche da AMD, in quanto ha spinto lei le DX12, per meglio usare il proprio hardware. Ma la programmazione sulle DX12 è più complicata (più a basso livello) e gli sviluppatori preferiscono ancora usare le DX11, dato anche le DX12 sono relegate a Windows 10 (quindi creare giochi solo DX12 taglia fuori la metà di utenti, ancora su Windows 7 e 8, e con essi la metà dei potenziali guadagni).
NVIDIA inoltre, a differenza di AMD, ha implementato numerose migliorie nei suoi driver per aumentare la parallelizzazione sulle CPU multicore e sul suo hardware, nuovamente semplificando il lavoro degli sviluppatori. Nel caso delle DX12, tali parallelizzazioni sono principalmente a carico degli sviluppatori. Sostanzialmente la differenza fra DX11 e DX12 è infatti solo questa (le DX12 richiedono un codice a più basso livello e che ogni sviluppatore si metta poi a parallelizzare tale codice... in pratica è un favore che Microsoft ha fatto ad AMD ufficializzando le sue Mantle/Vulkan), visto che non c'è alcuna miglioria o nuova feature.
Ed è per questo che alcuni utenti, nello specifico lucusta, si lamentano della scelta dei giochi nei benchmark. I più fanatici tifosi AMD, infatti, vorrebbero si usassero SOLO giochi DX12, così da falsare i risultati a favore delle loro VGA preferite (che al momento risultano poco competitive, e lo sono ancora meno in DX11).
MiKeLezZ
27-11-2018, 14:57
Mikelezz...
la cosa più assurda di tutte, a parte ciò che scrivi che manco commento e ti ignoro faccio prima, è che ti diano la possibilità di scrivere sul forum... ma a parte che scrivi solo nelle news, immagino perché sai benissimo che se scrivessi sul forum verresti sospeso ogni 3 commenti siccome non sai relazionarti con gli altri e offendi.
Adesso però basta fare l'influencer, basta coi damage control, basta perdere tempo su sta news per una fail rx590 e per non perdere occasione per dire quanto sia fail vega, non è il tuo thread personale vs AMD, fattene una ragione.Questo commento "da bar dello sport" non apporta alcuna informazione tecnica né alcuna informazione utile. Credo sia un post decisamente meno utile del mio.
Perdonami MiKeLezZ, ma già il fatto che dici che la differenza tra DX12 e DX11 sia essenzialmente il fatto che gli sviluppatori debbano faticare di più ma che non ci siano reali vantaggi è un'enorme sciocchezza.
Per non parlare del fatto che ora sembra che Microsoft abbia fatto un sacco di favori ad AMD (e ad Nvidia, con la sua maggiore influenza, no?) quasi avessero dovuto farle le elemosina e che nVidia solo ha pensato ai poveri sviluppatori, qualifica in modo molto chiaro il tuo intervento.
Per gli FP16, non ricordavo che si pensasse di sfruttarli anche nei giochi. Ad ogni modo non vedo il problema, se farlo porta a miglioramenti prestazionali perchè non tutte le operazioni necessitano di 32 bit, spero che anche nVidia segua presto questa strada.
Per quanto riguarda Pascal, non mi pare che quello che dici sia un vantaggio per Nvidia: se le architettura AMD sono meglio votate al parallelismo, allora sono anche più votate allo sfruttamento dell'hardware odierno. Se il futuro è questo, allora Pascal è destinato ad avere maggiori difficoltà col tempo. Non a caso Turing non sembra soffrire di questi problemi.
MiKeLezZ
27-11-2018, 18:40
Perdonami MiKeLezZ, ma già il fatto che dici che la differenza tra DX12 e DX11 sia essenzialmente il fatto che gli sviluppatori debbano faticare di più ma che non ci siano reali vantaggi è un'enorme sciocchezza.Hai capito quello che ti è parso. Le DX11 hanno portato nuove feature, come l'ambient occlusion HD e la tessellation (i cui miglioramenti grafici sono tangibili)... Le DX12 no.
I vantaggi per il passaggio DX11->DX12 ci POTREBBERO essere (e sia su hardware NVIDIA che AMD), ma sono solo di tipo prestazionale e ci sono solo se gli sviluppatori si sbattono per ottenerli.
Altrimenti non si ottiene nulla di diverso dalle DX11 (per le quali, nel caso NVIDIA, si ottengono invece vantaggi anche senza "sbattersi", visto che questa ha implementato nei driver specifiche ottimizzazioni per aumentarne le performance).
Ma dopo 3 anni in cui sono usciti solo 28 giochi DX12 (di cui ben 1/3 di Microsoft) e almeno 500 (?) DX11, ciò di cui parlo dovrebbe essere evidente.
Da Wikipedia:
In Direct3D 12, descriptor heaps and tables mean the most often used resources can be allocated by developers in tables, which the GPU can quickly and easily access. This can contribute to better performance than Direct3D 11 on equivalent hardware, but it also entails more work for the developer.
Per non parlare del fatto che ora sembra che Microsoft abbia fatto un sacco di favori ad AMD (e ad Nvidia, con la sua maggiore influenza, no?)Microsoft ha 40 milioni di XBOX che contengono chip AMD e presumibilmente anche la prossima XBOX sarà dotata di tale hardware.
AMD e Microsoft lavorano a stretto contatto in termini hardware e software.
Ovvio che si favoriscano a vicenda. Sarebbe strano il contrario.
I giochi Microsoft sono infatti stati riconvertiti in DX12 e le schede AMD sono state le prime beneficiarie delle DX12, grazie alla riconversione Mantle/Vulkan.
Sempre da Wikipedia:
Direct3D 12 also learned from AMD Mantle in command lists and bundles
quasi avessero dovuto farle le elemosina e che nVidia solo ha pensato ai poveri sviluppatori, qualifica in modo molto chiaro il tuo intervento. Il mio intervento dichiara una verità che evidentemente per taluni è scomoda. I driver NVIDIA contengono al loro interno pesanti ottimizzazioni (se si sviluppa in DX11) che sollevano parte di lavoro dei sviluppatori. Questi quindi, se prima avevano poca voglia di sviluppare in DX12 (visto che solo il 31% di videogiocatori può beneficiarne), così ne hanno anche meno.
Parte di questo lavoro si può vedere anche in superficie. Per esempio da pannello di controllo NVIDIA (Impostazioni Grafiche 3D) è disponibile una simpatica opzione chiamata "Thread Optimization" (Ottimizzazione con Thread), che non fa altro che "aumentare la parallelizzazione" ed ottimizzare le prestazioni sui sistemi multicpu.
Per gli FP16, non ricordavo che si pensasse di sfruttarli anche nei giochi. Ad ogni modo non vedo il problema, se farlo porta a miglioramenti prestazionali perchè non tutte le operazioni necessitano di 32 bit, spero che anche nVidia segua presto questa strada.E' una strada molto banale da percorrere. Già ora è possibile utilizzarli.
Inoltre con Turing NVIDIA ha introdotto ulteriori tecnologie atte al miglioramento prestazionale accettando minimi degradi qualitativi, dal DLSS:
https://www.tomshardware.com/reviews/dlss-upscaling-nvidia-rtx,5870.html
al Content Adaptive Shaders:
https://www.techpowerup.com/249730/wolfenstein-ii-the-new-colossus-getting-support-for-nvidia-turings-adaptive-shading
Per quanto riguarda Pascal, non mi pare che quello che dici sia un vantaggio per Nvidia: se le architettura AMD sono meglio votate al parallelismo, allora sono anche più votate allo sfruttamento dell'hardware odierno. Se il futuro è questo, allora Pascal è destinato ad avere maggiori difficoltà col tempo. Non a caso Turing non sembra soffrire di questi problemi.Non mi farei troppe seghe mentali a riguardo, sono questioni di lana caprina.
Esistono i benchmark per questo, ed i risultati dei benchmark sono noti.
Il futuro vedrà l'avvicendarsi di nuove VGA, diverse dalle attuali.
Hai capito quello che ti è parso.
Ho capito quello che hai scritto. ;)
Ad ogni modo, ora che hai chiarito, posso dirti che da una parte hai ragione, ossia la spinta verso la programmazione a più basso livello è nata proprio dall'esigenza di sfruttare meglio le schede e trarne prestazioni maggiori, dall'altra la questione si trasforma anche in nuove possibilità, dato che eliminati certi colli di bottiglia è possibile fare cose che prima erano precluse.
Non sono però d'accordo nel modo in cui sottolinei che le API a più basso livello sia un grande sbattimento per gli sviluppatori. Ho letto diverse interviste a suo tempo e molti sviluppatori ritenevano la conversione non tanto complessa ma al contempo proficua (per ottenere un miglioramento di prestazioni simile dovevano sbattersi molto di più ottimizzando il gioco), ma soprattutto programmare con DX12/Vulkan è molto simile al programmare su consolle, dove si sono sempre utilizzate API a basso livello, e non mi pare che nessuno sviluppatore si sia mai lamentato per questo.
Del resto sappiamo bene che Mantle, da cui poi è nato Vulkan e il cui corrispettivo sono le DX12, è nato dichiaratamente per portare su PC l'ottimizzazione tipica delle consolle.
Il motivo per cui i titoli DX12 sono ancora in minoranza non è legato ad doversi sbattere di più, ma al fatto che il processo di cambiamento e lento e costoso. L'abbiamo visto con le DX10, e la storia naturalmente si ripete.
Il mio intervento dichiara una verità che evidentemente per taluni è scomoda.
Il tuo intervento descrive la storia che ti sei raccontato ma che con la verità ha poco a che fare. Non vedo per chi dovrebbe essere scomoda poi, fanboy a parte tipicamente a chi compra queste schede poco importa di ciò che c'è dietro. Al più può dare fastidio a quelli che si sono stancati di leggere interventi palesemente sbilanciati e tendenziosi.
Inoltre con Turing NVIDIA ha introdotto ulteriori tecnologie atte al miglioramento prestazionale accettando minimi degradi qualitativi, dal DLSS
Mi sembra che questo ha molto poco a che fare con il discorso che facevi. Ad ogni modo è una tecnologia che ha i suoi limiti, in primis la necessità che nVidia esegua le operazioni necessarie per abilitarlo in un determinato titolo. Inoltre richiede i Tensor Core, che non sono "gratis" (ma visto che ci sono fa benissimo a sfruttare).
Non mi farei troppe seghe mentali a riguardo, sono questioni di lana caprina.
Esistono i benchmark per questo, ed i risultati dei benchmark sono noti.
Il futuro vedrà l'avvicendarsi di nuove VGA, diverse dalle attuali.
Se dovessi guardare solo i benchmark, allora sarebbero futili anche tutti i discorsi che tu hai fatto sulle mirabolanti ottimizzazioni dei driver nVidia, dato che alla fine guardi i risultati dei test.
Invece no, ritengo che queste siano questioni molto concrete. Se devo fare una scelta oggi, e oggi la scelta è questa, acquisto in base a ciò che ritengo si rivelerà migliore per il tempo che intendo tenere la scheda.
MiKeLezZ
27-11-2018, 19:53
Ad ogni modo, ora che hai chiarito, posso dirti che da una parte hai ragione, ossia la spinta verso la programmazione a più basso livello è nata proprio dall'esigenza di sfruttare meglio le schede e trarne prestazioni maggioriCerto, peccato che le DirectX nascevano appunto per l'esigenza di NON lavorare a basso livello.
Ti riporto Wikipedia, perché se tanto lo dico io non viene preso per vero:
DirectX (in origine chiamato "Game SDK") è una collezione di API per lo sviluppo semplificato di videogiochi per Windows.
Da "semplificato" ora è diventato "complicato" e da "FP32" ora torniamo a "FP16"... andiamo bene. Il prossimo passo? FORTRAN?
Non sono però d'accordo nel modo in cui sottolinei che le API a più basso livello sia un grande sbattimento per gli sviluppatori. Ho letto diverse interviste a suo tempo e molti sviluppatori ritenevano la conversione non tanto complessa ma al contempo proficua (per ottenere un miglioramento di prestazioni simile dovevano sbattersi molto di più ottimizzando il gioco)Abbiamo letto dichiarazioni diverse (non è che te hai letto quelle Microsoft?).
Queste sono parole di un professore:
"We’ll quickly see a few small improvements to a small number of games, but DX12 won’t instantly make everything better — it is a developer technology, not a consumer one."
Queste sono parole degli sviluppatori:
"Instead of going through hoops and loops to do something, you have direct access to it, which is more dangerous," explained the graphics programmer. “Because if you go through a layer [like old versions of DirectX] that checks data for you, you can make an error and something tells you. …If you have direct access to the data (generally speaking), now you are responsible for it, and if you make a mistake you have data problems. [When you] deal with code that is lower level, it’s more delicate and allows you to cause a disaster."
"There’s no such thing as a free lunch," said another engineer. "DX11 didn’t have a lot of overhead because its authors were dumb, it had a lot of overhead because it handled a LOT of details that are now the game programmer’s responsibility in DX12.
In DX12, you have to manage your own memory, do your own CPU-GPU synchronization, and in general there are many more ways to shoot yourself in the foot.
A me sembra addirittura si caghino in mano a programmare in DX12.
"So let’s say half your potential customers are on DX11 still — since you have to run well on DX11 anyway, you’re probably not going to take advantage of everything DX12 has to offer."
Parla di 50% DX12 e 50% DX11... Figuriamoci oggi che siamo ancora al 31% DX12 e 69% DX11.
Tutti dicono le stesse cose che ho detto io prima. Se non giurassi che solo ora sono andato a ricercare queste interviste, sembrerebbe quasi che prima, invece che personali considerazioni, ho trascritto le loro parole. Ciò nonostante mi son preso pure del "fazioso".
Del resto sappiamo bene che Mantle, da cui poi è nato Vulkan e il cui corrispettivo sono le DX12, è nato dichiaratamente per portare su PC l'ottimizzazione tipica delle consolle.Veramente Mantle era un'ottimizzazione vendor-specific che serviva ad AMD come selling point per le proprie VGA. Allo stesso modo dell'attuale Raytracing NVIDIA. Infatti AMD lo pubblicizzava anche dopo l'uscita delle DX12. Poi ha visto che non lo usava nessuno e l'ha abbandonato (tanto comunque il più era già stato messo nelle DX12).
Il motivo per cui i titoli DX12 sono ancora in minoranza non è legato ad doversi sbattere di più, ma al fatto che il processo di cambiamento e lento e costosoCi stava tutto nel 2015. Nel 2016, poteva essere. Già nel 2017 la storiella reggeva poco. Nel 2018 non regge più niente. Nel 2019 è ovvio che le cause sono quelle esplicitate (confermate dalle parole degli sviluppatori stessi).
Se non ti basta, questo è quello che dice (in termini molto edulcorati) il capo della sezione gaming di AMD:
The extra level of control brings with it a certain amount of extra complexity – and that means that some developers might be reluctant to move to DirectX 12
Se dovessi guardare solo i benchmark, allora sarebbero futili anche tutti i discorsi che tu hai fatto sulle mirabolanti ottimizzazioni dei driver nVidia, dato che alla fine guardi i risultati dei test.Esatto. Infatti sono discussioni inutili in cui sono stato trascinato a causa di persone che non sanno neppure di cosa stanno parlando.
Però sono sicure che ciò che dicono gli altri siano sbagliato! Senza neppure saper poi intavolare discussioni (non ce l'ho con te direttamente, eh)! Buffo!
Invece no, ritengo che queste siano questioni molto concrete. Se devo fare una scelta oggi, e oggi la scelta è questa, acquisto in base a ciò che ritengo si rivelerà migliore per il tempo che intendo tenere la scheda.Fai come credi. Io prendo le schedine da 200 euro e me ne sbatto. Quando mi va le cambio. Per i benchmark uso il combinato di TPU che ha tanti titoli ed oltretutto non mi fa perdere tempo.
Neverlost
27-11-2018, 21:13
meravigliose le puntualizzazioni dei fanboy nvidia senza vasella.
Gyammy85
27-11-2018, 21:27
meravigliose le puntualizzazione dei fanboy nvidia senza vasella.
:asd: :asd:
Darkless
29-11-2018, 07:43
meravigliose le puntualizzazioni dei fanboy nvidia senza vasella.
Con la situazione di mercato oscena che s'è creata c'è poco da esser fanboy nè di qua nè di là.
Neverlost
29-11-2018, 07:58
Con la situazione di mercato oscena che s'è creata c'è poco da esser fanboy nè di qua nè di là.
ma anche no. con amd hai mediamente prestazioni ed affidabilità eccezionali al giusto prezzo. e una filosofia dietro molto equilibrata e relativamente trasparente. cosa che non si può dire di intellidia.
Neverlost
29-11-2018, 08:09
Se prendi due vega 56 nei giochi che sfruttano il mGPU MDA come strange brigade hai le performance di una 2080ti spendendo la metà :asd:
E visto certi bios che volano sulle 2080ti magari consumi anche uguale senza essere a rischio esplosione :rotfl:
infatti senza contare poi la pro e la x che su schermi 4k/hdr validi ti fanno capire che significhi la libidine.:sofico: :oink: :oink:
Darkless
29-11-2018, 09:34
Si trovano le 580 8gb e a 250€ (200€ se cerchi bene) e le vega 56 a 400€ (350€ in occasioni speciali).
Non è così oscena la situazione :)
Pagare schede uscite da anni praticamente come al prezzo di lancio è una situazione oscena. Vale sia per AMD che per Nvidia.
Gyammy85
29-11-2018, 10:18
In parte è vero, ma bisogna tener conto dell'andamento del mercato.
Detta come l'hai detta tu sembra una cosa, ma se consideri che una 580 era arrivata a costare più di 550€ all'inizio di quest'anno le cose cambiano.
Non che sia piacevole ma almeno ne sappiamo la causa.
Pagare una 2080 quanto una 1080ti al lancio quando hanno prestazioni simili mi sembra ancora peggio sinceramente.
La 1080ti al lancio stava a 749 ufficialmente, la 2080 a 900 e più
Darkless
29-11-2018, 11:02
In parte è vero, ma bisogna tener conto dell'andamento del mercato.
Detta come l'hai detta tu sembra una cosa, ma se consideri che una 580 era arrivata a costare più di 550€ all'inizio di quest'anno le cose cambiano.
Non che sia piacevole ma almeno ne sappiamo la causa.
Pagare una 2080 quanto una 1080ti al lancio quando hanno prestazioni simili mi sembra ancora peggio sinceramente.
Lo sappiamo tutti come è andato purtroppo il mercato ma il ragionamento da fare è l'opposto: le anomalie sono state l'aumento di prezzi dovuto al mining e la situazione attuale. Non è normale pagare come al prezzo di lancio schede su mercato da anni che informaticamente parlando è un lasso di tempo notevole.
Quindi sì, rispetto a prima c'è stato un miglioramento ma siamo ancora lontani dalla norma e dall'avere una situazione accettabile. Se per i 250 euro di una scheda di fascia media puoi anche digerire il rospo quando passi alla fascia superiore la situazione è davvero ingiustificabile con delle 1070 che ancora stanno a 450 euro. Ha voja poi nvidia a lamentarsi per l'invenduto
Finchè i prezzi sono quelli restano sullo scaffale.
Neverlost
29-11-2018, 11:10
Lo sappiamo tutti come è andato purtroppo il mercato ma il ragionamento da fare è l'opposto: le anomalie sono state l'aumento di prezzi dovuto al mining e la situazione attuale. Non è normale pagare come al prezzo di lancio schede su mercato da anni che informaticamente parlando è un lasso di tempo notevole.
Quindi sì, rispetto a prima c'è stato un miglioramento ma siamo ancora lontani dalla norma e dall'avere una situazione accettabile. Se per i 250 euro di una scheda di fascia media puoi anche digerire il rospo quando passi alla fascia superiore la situazione è davvero ingiustificabile con delle 1070 che ancora stanno a 450 euro. Ha voja poi nvidia a lamentarsi per l'invenduto
Finchè i prezzi sono quelli restano sullo scaffale.
questo per il pc gayming ok.
ma è innegabile che negli ultimi tempi per giocare bene conviene comprarsi una ps4pro e one x a prezzi ONESTI. nuove o usate che siano.
Neverlost
29-11-2018, 12:11
Per me qualsiasi console non è giocare bene.
Prima di tutto perchè io voglio il mouse e la tastiera.
Poi devo pure poterci smanettare.
Infine anche se andassero sempre a 60fps non mi basta :D
boh io ho sempre e solo avuto pc, mai avuto console in vita mia...ma dalla one s e ps4 slim(alle mie attuali) è stato un crescendo di interesse e divertimento…e ho capito varie cose con la pro e la x..
che spesso il gioco non vale la candela su pc, che alcuni giochi sono molto più godibili giocati su console e col pad, che giocare sulle tv recenti è pura libidine non ci sono cazzi coi monitor come impatto generale. vedi signa.:D
Darkless
29-11-2018, 14:51
questo per il pc gayming ok.
ma è innegabile che negli ultimi tempi per giocare bene conviene comprarsi una ps4pro e one x a prezzi ONESTI. nuove o usate che siano.
Le console non sostituiscono il pc (parlando di gaming) e viceversa. Son due mondi molto, molto diversi.
Neverlost
02-12-2018, 10:13
Le console non sostituiscono il pc (parlando di gaming) e viceversa. Son due mondi molto, molto diversi.
http://it.tinypic.com/r/2gwun8i/9
nickname88
02-12-2018, 11:57
Le console non sostituiscono il pc (parlando di gaming) e viceversa. Son due mondi molto, molto diversi.
Le console non rimpiazzano il PC ma il PC a livello di utilizzo può ovviamente rimpiazzare al 100% una console. :rolleyes:
Neverlost
03-12-2018, 09:22
Le console non rimpiazzano il PC ma il PC a livello di utilizzo può ovviamente rimpiazzare al 100% una console. :rolleyes:
ma no dai veramente? :eek: :O
peccato che se uno voglia giocare serenamente senza scazzo e comodamente da divano in cucina in camera o in albergo basta collegare un qualunque cavo HDMI e non pensarci più senza dover configurare niente e smadonnare tra mille settaggi e scomodità concettuali varie.(girando con la console nello "zainetto")
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.