View Full Version : NVIDIA GeForce GTX 1060 Founders Edition
Redazione di Hardware Upg
19-07-2016, 14:00
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/4693/nvidia-geforce-gtx-1060-founders-edition_index.html
La nuova proposta NVIDIA per il segmento di fascia media abbina prestazioni velocistiche di tutto rispetto a un consumo contenuto, con un funzionamento silenzioso nella versione Founders Edition. Le qualità dell'architettura Pascal vengono confermate ma si perde un elemento tecnico che ha caratterizzato le schede NVIDIA del passato: il supporto alla tecnologia SLI
Click sul link per visualizzare l'articolo.
tuttodigitale
19-07-2016, 14:09
Meglio la rx480, anche a parità di prezzo. Le dx12 (tra le altre cose non è stato aggiornato il test di Tomb Raider, da circa un paio di settimane in grado di usare l'elaborazione asincrona...) e Vulkan, saranno parte essenziale dei giochi next gen... E le notizie di questi giorni sono strapositive per AMD con le Fury x molto veloci in Doom, grazie ad un overboost fornite dalle nuove librerie del 50-60%.
Guadagno prestazionale, solo leggermente più modesto, ottenute anche dalla rx480, che sbriciola la gtx980 ( e credo anche la gtx1060...)
https://www.computerbase.de/2016-07/doom-vulkan-benchmarks-amd-nvidia/#diagramm-doom-mit-vulkan-2560-1440
PS ma la gtx1060 non doveva andare il 5% in più in AOTS..
Mi aspettavo, da slide, un +20% secco e invece...
fraussantin
19-07-2016, 14:23
Ma direi che il confronto andrà fatto tra custom 480 e custom 1060.
Questa essendo uma FE non è uma reference , ma dovrebbe avere giâ il collo tirato.
Portocala
19-07-2016, 14:23
Infatti. Come mai non sono state usate le Vulkan in Doom?
tuttodigitale
19-07-2016, 14:24
La rx480 disintegra la 1060 in Doom....+25%fonte hardocp.
tuttodigitale
19-07-2016, 14:25
Infatti. Come mai non sono state usate le Vulkan in Doom?
Non è stato neppure aggiornato il test di Tomb Raider.
Paolo Corsini
19-07-2016, 14:29
Questa essendo uma FE non è uma reference , ma dovrebbe avere giâ il collo tirato.
Le Founders Edition sono le schede reference.
Tra i vari test sembra che in GRID e The division ci sia qualche problema i risultati paiono tutti identici per le AMD nel primo e sballati nel secondo.
:confused:
EDIT
anche in GTA AMD ha i valori pressochè uguali...
tuttodigitale
19-07-2016, 14:34
X Corsini
Lei può aggiornare i test di Doom e tomb raider ?( c'è una patch recente in cui viene abilitata l'elaborazione asincrona)
mikael84
19-07-2016, 14:37
Le Founders Edition sono le schede reference.
Ottima recensione, apprezzo la scelta di includere i minimi e di vedere le schede all'opera con una CPU potente ma alla mano, che rende il tutto più credibile.
nessuno29
19-07-2016, 14:38
Perché perdete tempo a leggere le recensioni?Sono state fatte come voleva mamma Nvidia,Msaa assenti e zero Librerie Next-gen.
Però hanno grid Autosport!!
fraussantin
19-07-2016, 14:43
Le Founders Edition sono le schede reference.
Si chiaro. ma non era quello che intendevo.
, intendevo che le reference nvidia pascal sono in pratica già spinte abbastanza , piu del solito.
Andrebbe visto ( quando saranno disponibili) tra le custom amd e le custom nvidia se la differenza sarà colmata.
dado1979
19-07-2016, 14:46
Non l'ho mai fatto ma lo faccio ora (parlo in primis con il Direttore Corsini)... fare una recensione con percentuali e usare le OpenGL con Doom quando sono disponibili le Vulkan (che sappiamo bene tutti che migliorano le prestazioni di entrambi marchi) è dare dei risultati obsoleti/non veritieri/non rappresentanti la realtà attuale.
Mi aspettavo di meglio.
LA scheda è interessante per il basso consumo.
Resta da vedere un test con filtri ed effetti attivati, magari tra qualche settimana con nuovi driver per entrambe e quando i prezzi avranno iniziato ad assestarsi un attimo.
Imho è presto per decidere "chi è meglio".
Bisogna vedere i prezzi nei negozi tanto per cominciare.
Le prestazioni sono troppo sbilanciate da una parte in alcuni giochi e dall'altra parte in altri.
Certo che anche voi doom testato in openGL :muro:
Filtri MSAA tutti al minimo eh... guida Nvidia immagino. :rolleyes:
concordo, aspettiamo le custom.
anche se:
vanno piu o meno uguali, però la 1060 ha meno ram, no sli e probabilmente costerà di più. :O
Non male, ma credo che NVIDIA spinga per il salto di qualità.
Andro' di 1070 quando sarà il momento :O
Paolo Corsini
19-07-2016, 14:53
Guida Nvidia.
In pratica tutte le recensioni sono "oste com'è il vino?" o quasi :(
Brutta roba secondo me.
Senza polemica, ma perchè non si domanda prima di dare conclusioni e fasciarsi la testa? A me non pare un atteggiamento costruttivo e utile, nel proprio interesse e di quello degli altri che qui leggono.
Doom: non posso misurare con fraps le API Vulkan, quindi non posso ottenere dati. Ho fatto un po' di ricerca online ma nessuno, se non ho visto male, indica come ha ottenuto quei dati prestazionali.
X Corsini
Lei può aggiornare i test di Doom e tomb raider ?( c'è una patch recente in cui viene abilitata l'elaborazione asincrona)
Tomb Raider: con le schede RX 480 e GeForce GTX 1060 i test sono stati eseguiti con la versione più aggiornata, che è quella 1.0 build 668.1_64 che include le ottimizzazioni recenti. Sto rieseguendo ora i test per scrupolo con le schede, ma ci vorrà un po' per avere i risultati.
Non l'ho mai fatto ma lo faccio ora (parlo in primis con il Direttore Corsini)... fare una recensione con percentuali e usare le OpenGL con Doom quando sono disponibili le Vulkan (che sappiamo bene tutti che migliorano le prestazioni di entrambi marchi) è dare dei risultati obsoleti/non veritieri/non rappresentanti la realtà attuale.
Mi aspettavo di meglio.
Doom ho spiegato sopra. Non ho capito il riferimento alle percentuali: fai riferimento al dato finale di sintesi alle due risoluzioni che è indicato nell'ultima pagina?
Paolo Corsini
19-07-2016, 15:01
Tra i vari test sembra che in GRID e The division ci sia qualche problema i risultati paiono tutti identici per le AMD nel primo e sballati nel secondo.
:confused:
EDIT
anche in GTA AMD ha i valori pressochè uguali...
Ciao
ho ricontrollato per scrupolo i dati con questi titoli tra le schede AMD. Grid Autosport ha un comportamento anomalo, che ho evidenziato anche nel commento e nelle conclusioni, con queste schede con frames che sono ben al di sotto delle proposte NVIDIA e che sembrano essere legate ad una qualche problematica driver.
The Division e GTA sono a posto: in entrambi i casi i dati delle schede AMD, Radeon RX 480 e Fury-X, sono molto vicini tra di loro ma non sono gli stessi dati.
Lasciando perdere i discorsi complottisti su HWUpgrade e l'uso di librerie qua e la', c'e' qualcosa che non mi quadra affatto e che esula dal discorso NVIDIA vs AMD (e dal discorso popolo vs HWUpgrade)
La 1060 e' una scheda pesantemente castrata rispetto alla 1080, le specifiche parlano chiaro, direi di circa il 50%. Come diavolo e' possibile che in alcuni giochi 1060 e 1080 vadano praticamente uguale ed in altri il distacco sia comunque non cosi' significativo? Non sembra nemmeno proporzionale al distacco tra 1080 e 1070...che diavolo fanno i driver NVIDIA per ottimizzare i giochi? :-O
dado1979
19-07-2016, 15:08
Doom ho spiegato sopra. Non ho capito il riferimento alle percentuali: fai riferimento al dato finale di sintesi alle due risoluzioni che è indicato nell'ultima pagina?
Ho letto che farete un articolo a parte per evidenziare i miglioramenti in percentuale da OpenGL a Vulkan con Doom ma:
- chi cerca di comprare una nuova scheda guarda le prestazioni e le percentuali di prestazioni complessive alla risoluzione del monitor (almeno io faccio così); al 19 luglio 2016 sono disponibili le API Vulkan su Doom che incrementano di pochi punti percentuali le schede Nvidia e del 40/50% le prestazioni su AMD che cambierebbero il grafici finali con le prestazioni in percentuale... in quel caso ad esempio la 480 si avvicinerebbe alla 1060 in modo oserei dire pericoloso;
- chi non segue molto queste cose non lo sa che esiste Vulkan e che migliora tanto meglio in AMD che Nvidia e quando guarderà la recensione vedrà che la differenza tra la 480 e la 1060 è parecchia... quando allo stato attuale è meno;
- secondo me questo è dare una recensione obsoleta già all'uscita;
I listini in dollari USA posizionano GeForce GTX 1080, nella versione custom dei partner, poco sopra la reference board AMD Radeon RX 480 con 8 Gbytes di memoria video (249 vs 239 dollari)
Magari :fagiano:
Scherzi a parte la 1060 pare essere un filino più veloce della 480 ma a questo punto dipende tutto dai prezzi "su strada", perchè quelli "su carta" hanno dimostrato di lasciare il tempo che trovano :muro:
tuttodigitale
19-07-2016, 15:22
Lasciando perdere i discorsi complottisti su HWUpgrade e l'uso di librerie qua e la', c'e' qualcosa che non mi quadra affatto e che esula dal discorso NVIDIA vs AMD (e dal discorso popolo vs HWUpgrade)
La 1060 e' una scheda pesantemente castrata rispetto alla 1080, le specifiche parlano chiaro, direi di circa il 50%. Come diavolo e' possibile che in alcuni giochi 1060 e 1080 vadano praticamente uguale ed in altri il distacco sia comunque non cosi' significativo? Non sembra nemmeno proporzionale al distacco tra 1080 e 1070...che diavolo fanno i driver NVIDIA per ottimizzare i giochi? :-O
Quando vanno uguali il limite e della CPU (potrebbe valere la pena di fare un test....)
Le ROPs sono 48, e non 32....non è esattamente la metà.
Anche la dimensione del die non è esattamente pari alla metà
200mmq vs 314mmq della gtx1080.
Lights_n_roses
19-07-2016, 15:31
Mi sa che fino a settembre i prezzi non si stabilizzeranno, al momento mi paiono molto altalenanti e soprattutto riferiti a schede base che non voglio comprare.
Paolo Corsini
19-07-2016, 15:34
Lasciando perdere i discorsi complottisti su HWUpgrade e l'uso di librerie qua e la', c'e' qualcosa che non mi quadra affatto e che esula dal discorso NVIDIA vs AMD (e dal discorso popolo vs HWUpgrade)
La 1060 e' una scheda pesantemente castrata rispetto alla 1080, le specifiche parlano chiaro, direi di circa il 50%. Come diavolo e' possibile che in alcuni giochi 1060 e 1080 vadano praticamente uguale ed in altri il distacco sia comunque non cosi' significativo? Non sembra nemmeno proporzionale al distacco tra 1080 e 1070...che diavolo fanno i driver NVIDIA per ottimizzare i giochi? :-O
Risoluzione video: più sali, più vedrai distacco. Questo è il motivo per il quale non ha alcun senso acquistare schede come GTX 1070 e GTX 1080 per abbinarle ad uno schermo Full HD.
Ho fatto un calcolo rapido: se assegni ai valori medi della GTX 1060 il dato di 100, con GTX 1080 ottieni circa 152 a 1920x1080 e 163 a 2560x1440.
Paolo Corsini
19-07-2016, 15:37
Ho letto che farete un articolo a parte per evidenziare i miglioramenti in percentuale da OpenGL a Vulkan con Doom ma:
- chi cerca di comprare una nuova scheda guarda le prestazioni e le percentuali di prestazioni complessive alla risoluzione del monitor (almeno io faccio così); al 19 luglio 2016 sono disponibili le API Vulkan su Doom che incrementano di pochi punti percentuali le schede Nvidia e del 40/50% le prestazioni su AMD che cambierebbero il grafici finali con le prestazioni in percentuale... in quel caso ad esempio la 480 si avvicinerebbe alla 1060 in modo oserei dire pericoloso;
- chi non segue molto queste cose non lo sa che esiste Vulkan e che migliora tanto meglio in AMD che Nvidia e quando guarderà la recensione vedrà che la differenza tra la 480 e la 1060 è parecchia... quando allo stato attuale è meno;
- secondo me questo è dare una recensione obsoleta già all'uscita;
Ciao,
parto dall'ultimo punto: libero di pensarla come meglio credi. Mi permetto però di evidenziarti che
1) non è chiaro come misurare le prestazioni in Vulkan: se hai indicazioni sono sempre ben lieto di imparare qualcosa che non conosco.
2) trai le tue conclusioni da un singolo titolo, pretendendo con questo tuo ragionamento di estrapolare le tue conclusioni come se valessero per qualsiasi titolo e come se queste API siano disponibili con ogni titolo.
@Paolo Corsini
Può essere che il software Action della Mirillis riesca a catturare il framerate delle applicazioni vulkan, non ho testato cmq
Marko#88
19-07-2016, 15:48
Praticamente le prestazioni di una 980 con consumi ridicoli, probabili temperature ridicole e quindi poco rumore e calore in giro per il case. Se costerà street attorno ai 250 secondo me sarà un ottimo acquisto per il 1080/1440.
La 480 va poco meno e costa poco meno ma consuma (e quindi scalda, è qui il punto, non gli euro al kwh) di più. Vedremo i prezzi su strada e recensioni coi prossimi driver ma a occhio e croce è una battaglia che AMD può finire in pareggio nel migliore dei casi. E solo in questo fascia perchè nel resto... :(
manfrotto
19-07-2016, 15:49
Complottisti e rosiconi non la finirano mai, finché non vedranno amd sopra nvidia ci sarà sempre qualche complotto e qualche svista e qualcosa che non quadra...
Piedone1113
19-07-2016, 15:59
Complottisti e rosiconi non la finirano mai, finché non vedranno amd sopra nvidia ci sarà sempre qualche complotto e qualche svista e qualcosa che non quadra...
Sai cosa non mi quadra:
Testare vga del 2016 con videogiochi del 2013.
Ma che faccio, cambio vga per rigiocarmi i giochi gia finiti?
Spiegami con giochi recenti (seconda metà 2015, 2016) queste vga come vanno?
Perchè non è che acquisto una nuova vga per giocare ad unreal che finii con una mistique220 4mb e relativa scheda accelleratrice.
tuttodigitale
19-07-2016, 16:02
Praticamente le prestazioni di una 980 con consumi ridicoli, probabili temperature ridicole e quindi poco rumore e calore in giro per il case. Se costerà street attorno ai 250 secondo me sarà un ottimo acquisto per il 1080/1440.
La 480 va poco meno e costa poco meno ma consuma (e quindi scalda, è qui il punto, non gli euro al kwh) di più. Vedremo i prezzi su strada e recensioni coi prossimi driver ma a occhio e croce è una battaglia che AMD può finire in pareggio nel migliore dei casi. E solo in questo fascia perchè nel resto... :(il dissipatorino reference della rx480 sputa gran parte del calore fuori dal case. E nei bench case questo vantaggio non è visibile.
Il clock della rx480 è limitata dalla potenza assorbita, mentre le GPU Pascal dalla temperatura...in un case tradizionale nessuno ci può assicurare che la GeForce non perda prestazioni per strada e/o silenziosità
dado1979
19-07-2016, 16:02
Ciao,
parto dall'ultimo punto: libero di pensarla come meglio credi. Mi permetto però di evidenziarti che
1) non è chiaro come misurare le prestazioni in Vulkan: se hai indicazioni sono sempre ben lieto di imparare qualcosa che non conosco.
2) trai le tue conclusioni da un singolo titolo, pretendendo con questo tuo ragionamento di estrapolare le tue conclusioni come se valessero per qualsiasi titolo e come se queste API siano disponibili con ogni titolo.
2) chiaramente avrebbero influito in percentuale con la media in tutti i titoli... quel 40/50% su Doom sarebbe diventato nel complessivo un 2/3/4% ad occhio e croce;
1) non ho alcuna indicazione su come misurare gli fps in Vulkan... comprendo solo ora come mai sono state utilizzate le OpenGL... ma non lo condivido, di fatto le prestazioni su quel titolo non sono quelle... mi rendo conto di essere polemico ma si poteva almeno scrivere come mai non sono state utilizzate le API Vulkan;
fraussantin
19-07-2016, 16:08
Sai cosa non mi quadra:
Testare vga del 2016 con videogiochi del 2013.
Ma che faccio, cambio vga per rigiocarmi i giochi gia finiti?
Spiegami con giochi recenti (seconda metà 2015, 2016) queste vga come vanno?
Perchè non è che acquisto una nuova vga per giocare ad unreal che finii con una mistique220 4mb e relativa scheda accelleratrice.
Ma fatela finita , con cosa la devono testare . Con i game che usciranno l'hanno prossimo. ?
I riferimenti sono quelli. Gta 5 doom ashes tomb raider ecc
Se siete bravi aprite un blog e testatele voi e poi postate i risultati.
Paolo Corsini
19-07-2016, 16:08
2) chiaramente avrebbero influito in percentuale con la media in tutti i titoli... quel 40/50% su Doom sarebbe diventato nel complessivo un 2/3/4% ad occhio e croce;
1) non ho alcuna indicazione su come misurare gli fps in Vulkan... comprendo solo ora come mai sono state utilizzate le OpenGL... ma non lo condivido, di fatto le prestazioni su quel titolo non sono quelle... mi rendo conto di essere polemico ma si poteva almeno scrivere come mai non sono state utilizzate le API Vulkan;
L'ho scritto qui nei commenti, e lo sto aggiungendo ora nei commenti a quella pagina. Appena finisco i test di verifica con Tomb Raider e API DirectX 12 provo a installare il software indicato poco sopra per vedere se riesco in quel modo a fare un grab dei frames al secondo con Vulkan.
L'ho scritto qui nei commenti, e lo sto aggiungendo ora nei commenti a quella pagina. Appena finisco i test di verifica con Tomb Raider e API DirectX 12 provo a installare il software indicato poco sopra per vedere se riesco in quel modo a fare un grab dei frames al secondo con Vulkan.
Ho letto adesso bene nel sito del software action ed in effetti anche per registrare video si usa un workaroud, perciò è probabile che neanche con quello si riesca a registrare i frame al secondo su app vulkan
suneatshours86
19-07-2016, 16:27
comunque tanto di cappello a Corsini che ci mette anche la faccia pigliandovi uno ad uno per rispondere e per rieseguire i test nel dubbio! Sono queste le redazioni che vanno al passo coi tempi stando più vicine al pubblico, queste sono le recensioni che ci piacciono!
Per quanto mi riguarda è la miglior recensione italiana di questa scheda, come lo è stato per la rx480 hwupgrade si dimostra una spanna avanti.
Dopo un periodo di "magra" finalmente siamo sugli standard che vi hanno sempre caratterizzato in tanti anni di lavoro.
Bravi!
p.s. (whitelist di adblock aggiudicata? haha sto scherzando via...)
L'aspetto tecnico lo lascio sui forum dove già ci si scanna fin troppo
tuttodigitale
19-07-2016, 16:32
comunque tanto di cappello a Corsini che ci mette anche la faccia pigliandovi uno ad uno per rispondere e per rieseguire i test nel dubbio! Sono queste le redazioni che vanno al passo coi tempi stando più vicine al pubblico, queste sono le recensioni che ci piacciono!
Quoto ogni singola parola.
oxidized
19-07-2016, 16:36
comunque tanto di cappello a Corsini che ci mette anche la faccia pigliandovi uno ad uno per rispondere e per rieseguire i test nel dubbio! Sono queste le redazioni che vanno al passo coi tempi stando più vicine al pubblico, queste sono le recensioni che ci piacciono!
Quoto, ma il forum non è proprio al passo con i tempi :D
Differenze minime a vantaggio della GTX 1060 (Grid escluso), con la Rx 480 che si avvicina molto sia al salire della risoluzione, che con le Dx12 e le API Vulkan, facendomi preferire quest'ultima in ottica di longevità.
Trascurabili le differenze di consumo/tmp/rumorosità (in prticolare optando per soluzioni custom), dunque tutto è demandato agli street price.
Ho una MSI R9 280x, non so se vale la pena cambiarla, e se si, quale acquistare tra la RX 480 e la GTX 1060? sono un pò indeciso.
Paolo:
"I listini in dollari USA posizionano GeForce GTX 1080, nella versione custom dei partner, poco sopra la reference board AMD Radeon RX 480 con 8 Gbytes di memoria video (249 vs 239 dollari); scegliendo la Founders Edition il quadro cambia ulteriormente, in quanto questa versione viene venduta a 299 dollari."
mi sono svegliato in un'altro meraviglioso mondo?
anche da altre parti hai confuso 1060 con 1080.
i test su TR e' inutile ripeterli.. spreco di tempo.
e' un gioco che gira in DX10, per come e' fatto... e' proprio cosi'; quelli sono i numeri finche non aggiorneranno il codice almeno con AC abilitato (anche se sara' un DX12 molto carente, limitato a FL 11.0).
cioe'... io lo toglierei dal profilo DX12; non ha proprio senso.
Doom... ci vorrebbe anche un 5960x in appoggio, ma sai che su pascal e maxwell farebbe ben poco.
in verita' ci vorrebbe un vero octacore a 300 euro (escluso BD), ma.... non e' tempo per ora.
mi sembra la review piu' obbiettiva, anche seguendo le line guida indicate.
almeno e' l'essenza del discorso (e' che serve a poco, visto che son reference).
PS:
prima o poi farete un'articolo sulla scalabilita' core (<4, s'intende)?
Portocala
19-07-2016, 16:56
Ho una MSI R9 280x, non so se vale la pena cambiarla, e se si, quale acquistare tra la RX 480 e la GTX 1060? sono un pò indeciso.
Io ho fatto l'upgrade da 280x a 290 e l'ho sentita la differenza. A una delle due ancora di più.
Se ti può essere utile, qui ci sono anche le 380 e 960: http://www.techspot.com/review/1209-nvidia-geforce-gtx-1060/
oxidized
19-07-2016, 16:59
Differenze minime a vantaggio della GTX 1060 (Grid escluso), con la Rx 480 che si avvicina molto sia al salire della risoluzione, che con le Dx12 e le API Vulkan, facendomi preferire quest'ultima in ottica di longevità.
Trascurabili le differenze di consumo/tmp/rumorosità (in prticolare optando per soluzioni custom), dunque tutto è demandato agli street price.
Si parla sempre di schede midrange, la longevità non è proprio il loro forte ecco...
Si parla sempre di schede midrange, la longevità non è proprio il loro forte ecco...
Non ne sono del tutto sicuro, trovo che sia molto più portato a tenersi aggiornato chi compra VGA di fascia alta.
Paolo Corsini
19-07-2016, 17:02
Quoto, ma il forum non è proprio al passo con i tempi :D
Hai ragione, se ti riferisci alla parte tecnica. Spero di farti ricredere a breve.
Primi test con Tomb Raider: cambia nulla, di fatto. Devo finire ancora alcune schede ma stasera abbiamo grigliata dell'ufficio quindi chiudo qui e riprendo domani
Software Action: non registra fps con API Vulkan
ilbarabba
19-07-2016, 17:02
Sai cosa non mi quadra:
Testare vga del 2016 con videogiochi del 2013.
Ma che faccio, cambio vga per rigiocarmi i giochi gia finiti?
Spiegami con giochi recenti (seconda metà 2015, 2016) queste vga come vanno?
Perchè non è che acquisto una nuova vga per giocare ad unreal che finii con una mistique220 4mb e relativa scheda accelleratrice.
Io oggi ho una 770 e SE cambierò scheda (non mi convincono le finte Pascal tanto meno le AMD di fascia medio bassa presentate) lo farò perché voglio giocare a titoli che ora e nell'ultimo anno (anche due) non sono riuscito a giocare al massimo.
Non compro OGGI una scheda per giocare a titoli che spero tra anni implementeranno chissà cosa per sfruttarla.
Anche perché la 480 è obsoleta oggi, figuriamoci se devo aspettare 2 anni nella speranza che qualche sh esotica mi porti il supporto a vulkan per accontentare il 2% della popolazione videoludica (e sono stato di manica larga indicando il 2%).
Voglio una scheda nuova oggi per giocare oggi ai giochi di oggi e di ieri.
Non vi capirò mai voi che investite e soprattutto litigate sui forum su una scheda che va così così e che FORSE un giorno andrà meglio con giochi per cui sarà già superata.
Contenti voi...
Si parla sempre di schede midrange, la longevità non è proprio il loro forte ecco...
Penso che chi sceglie una scheda di fascia media o comunque non al top tendenzialmente sia portato a scendere a compromessi con i dettagli ed eventualmente la risoluzione nel tempo per compensare eventuali cali di framerate.
Paolo Corsini
19-07-2016, 17:04
Paolo:
"I listini in dollari USA posizionano GeForce GTX 1080, nella versione custom dei partner, poco sopra la reference board AMD Radeon RX 480 con 8 Gbytes di memoria video (249 vs 239 dollari); scegliendo la Founders Edition il quadro cambia ulteriormente, in quanto questa versione viene venduta a 299 dollari."
mi sono svegliato in un'altro meraviglioso mondo?
anche da altre parti hai confuso 1060 con 1080.
PS:
prima o poi farete un'articolo sulla scalabilita' core (<4, s'intende)?
Ciao, grazie della segnalazione: evidentemente un bel refuso mio scappato in fase di revisione finale. Mannaggia, sto invecchiando :D
Se mi indichi via mail gli altri refusi 1060 vs 1080 mi fai una cortesia.
Scalabilità prestazioni con core: in effetti è un argomento decisamente interessante, vale la pena approfondire
comunque tanto di cappello a Corsini che ci mette anche la faccia pigliandovi uno ad uno per rispondere e per rieseguire i test nel dubbio! Sono queste le redazioni che vanno al passo coi tempi stando più vicine al pubblico, queste sono le recensioni che ci piacciono!
Per quanto mi riguarda è la miglior recensione italiana di questa scheda, come lo è stato per la rx480 hwupgrade si dimostra una spanna avanti.
Dopo un periodo di "magra" finalmente siamo sugli standard che vi hanno sempre caratterizzato in tanti anni di lavoro.
Bravi!
p.s. (whitelist di adblock aggiudicata? haha sto scherzando via...)
L'aspetto tecnico lo lascio sui forum dove già ci si scanna fin troppo
Sono d'accordo, stima nuovamente in crescita per quanto mi riguarda!
Mi piacerebbe, visto che hai citato la whitelist di adblock, vedere qualche piccolo ammodernamento del forum e un livello di advertising più umano per effettuare quel passaggio :cincin:
oxidized
19-07-2016, 17:18
Non ne sono del tutto sicuro, trovo che sia molto più portato a tenersi aggiornato chi compra VGA di fascia alta.
Beh la disponibilità economica conta fino ad un certo punto, sicuramente riguardo le prestazioni una scheda di fascia alta/enthusiast ha meno bisogno di essere cambiata ogni tot, ovviamente più scende la fascia più questo bisogno aumenta, è anche abbastanza logico o no?
Hai ragione, se ti riferisci alla parte tecnica. Spero di farti ricredere a breve.
Primi test con Tomb Raider: cambia nulla, di fatto. Devo finire ancora alcune schede ma stasera abbiamo grigliata dell'ufficio quindi chiudo qui e riprendo domani
Software Action: non registra fps con API Vulkan
Mi riferisco ovviamente alla parte tecnica :D spero anch'io mi farai ricredere a breve, il forum più importante d'italia, ma anche il più vecchio!
Mi associo a chi difende Corsini. La recensione è ben fatta e obiettiva. Ha anche avuto l'onestà intellettuale di mettere a risalto l'anomalia in grid che aumenta mostruosamente il divario nella media dei giochi.
Se volete farvi due risate è vedere come sono le marchett...recensioni NON oggettive andate a fare un giro sul sito del martello...
Paolo:
10°pp 4°ultima riga
"Alla risoluzione di 1920x1080 pixel la scheda GeForce GTX 1080 riesce a guadagnare un certo margine di vantaggio sulla proposta concorrente AMD Radeon RX 480"
il resto va' bene.
un solo appunto lo vorrei sollevare:
lasciate stare gli indici comulativi "prestazioni in FHD/QHD", efficienza con "consumo/W" o efficacia con "prezzo/prestazioni".
sono indici che hanno gia' poco senso; gestiti da una suite di software soggettiva e valevoli comunque poco anche se fatti al momento, visto che riguardano schede con prezzi al D1, o con schede di cui non potete effettivamente garantire la totale non curanza sulla scelta del singolo pezzo in test, visto che ve le spediscono direttamente le case madri e che queste non vogliono certo sfigurare.
e' meglio metterci del proprio, perche' se ti leggiamo e' perche' ci interessa quello che dici, visto che la stai porvando.
certo, non sei un guru da setta satanica, ma quantomeno ci risparmi da certe uscite poco digeribili che si leggono su tanti altri siti esteri e non e non ti tacci d'essere "l'autorita'" nel campo!
vi avevamo chiesto test molto piu approfonditi, perche' sai benissimo che un numero e' di per se molto sterile se non relazionato in modo opportuno al resto;
capisco che l'impegno sarebbe eccessivo, ma... siamo qui per leggerli.
sai che i nerds ci sguazzano nei numeri.
Portocala
19-07-2016, 18:03
Anche perché la 480 è obsoleta oggi, figuriamoci se devo aspettare 2 anni nella speranza che qualche sh esotica mi porti il supporto a vulkan per accontentare il 2% della popolazione videoludica (e sono stato di manica larga indicando il 2%).
Voglio una scheda nuova oggi per giocare oggi ai giochi di oggi e di ieri.
Ricordati le GPU che usano le console.
Tantissimi giochi nascono li per poi essere portate qui.
Si spera che facendo ottimizzazione si possano ottenere dei bei risultanti, vedi Vulkan.
I prezzi sono gia' sotto i 300 euro.
Ottime schede :O
Piedone1113
19-07-2016, 18:08
Io oggi ho una 770 e SE cambierò scheda (non mi convincono le finte Pascal tanto meno le AMD di fascia medio bassa presentate) lo farò perché voglio giocare a titoli che ora e nell'ultimo anno (anche due) non sono riuscito a giocare al massimo.
Non compro OGGI una scheda per giocare a titoli che spero tra anni implementeranno chissà cosa per sfruttarla.
Anche perché la 480 è obsoleta oggi, figuriamoci se devo aspettare 2 anni nella speranza che qualche sh esotica mi porti il supporto a vulkan per accontentare il 2% della popolazione videoludica (e sono stato di manica larga indicando il 2%).
Voglio una scheda nuova oggi per giocare oggi ai giochi di oggi e di ieri.
Non vi capirò mai voi che investite e soprattutto litigate sui forum su una scheda che va così così e che FORSE un giorno andrà meglio con giochi per cui sarà già superata.
Contenti voi...
Quando acquisto una vga lo faccio per giocare a giochi nuovi, poco importa come vanno i vecchi game (fermo restando che devono rimanere giocabili).
Crisis, grid e company non sono giochi attuali e poco utili a capire le prestazioni di una fascia media con l'attuale parco giochi (o sono 3 anni che giochi esclusivamente agli stessi giochi cambiando 3 vga?)
Che crisis mi faccia 60 oppure 600 frame non mi importa, e non venitemi a dire che sono i giochi pesanti che mostrano le potenzialità di una scheda, sarebbe come testare una cpu ancora con il superpi e i filtri di adobe Photoshop 5: rispecchiano davvero l'attuale panorama (ps non è una difesa di amd o nvidia, semplicemente non ha senso, altrimenti bisognerebbe testare le vga anche con the SIMS4 e Football Manager che sono tra i giochi attualmente più venduti)
I Sims rispecchierebbero molto di più l'uso attuale delle vga rispetto ad un crisis al quale non ci gioca praticamente più nessuno.
Beh la disponibilità economica conta fino ad un certo punto, sicuramente riguardo le prestazioni una scheda di fascia alta/enthusiast ha meno bisogno di essere cambiata ogni tot, ovviamente più scende la fascia più questo bisogno aumenta, è anche abbastanza logico o no?
Oltre alla disponibilità economica di chi compra VGA di fascia alta, devi pensare alla mentalità ed all'esigenza che spinge a cercare sempre il massimo, in particolare per il gaming.
Spesso invece chi compra VGA di fascia media, lo fa per assemblarsi PC equilibrati multipurpose e non essendo all'esasperata ricerca di prestazioni, tende a sfruttarlo più che può, spesso cambiandolo in blocco.
Tieni conto che, ad ogni cambio generazionale, c'è un invecchiamento consistente di tutte le VGA (alte o basse), quindi anche dal punto di vista delle prestazioni nel tempo, le VGA di fascia alta non danno particolari garanzie.
Ovviamente con tutte le eccezioni del caso e... IMHO :)
Ma per fortuna che c'è chi le fa, queste recensioni, con tanto di test e commenti qualificati (ma alla portata dell'utente "un po' più che medio" :) ).
Se manca qualcosa, o ci sono un paio di "1080" al posto di "1060" (si capisce comunque dal contesto quale sia la scheda), amen, si parla di una novità: cioè, il tempo per fare tutto non deve essere stato molto, e si può sempre rivedere qualcosa nei prossimi giorni/settimane.
Detto questo, forse conviene vedere se la 980 scenda di prezzo?
Meglio la rx480, anche a parità di prezzo. Le dx12 (tra le altre cose non è stato aggiornato il test di Tomb Raider, da circa un paio di settimane in grado di usare l'elaborazione asincrona...) e Vulkan, saranno parte essenziale dei giochi next gen....
Sono d'accordo, avendo fatto le stesse considerazioni.
I giochi dx11 li fanno cmq girare entrambi, quindi che una faccia qualche fps in piu' su quelli cambia poco, mentre le maggiori performance della scheda amd su quella nvidia con le nuove librerie fara' si che la prima sara' molto piu' longeva della seconda.
dado1979
19-07-2016, 18:13
Mi associo a chi difende Corsini. La recensione è ben fatta e obiettiva. Ha anche avuto l'onestà intellettuale di mettere a risalto l'anomalia in grid che aumenta mostruosamente il divario nella media dei giochi.
Se volete farvi due risate è vedere come sono le marchett...recensioni NON oggettive andate a fare un giro sul sito del martello...
Io non mi permetterei mai di scadere nella maleducazione o nella mancanza di rispetto o nelle accuse senza conoscere niente.
Mi sono riletto e credo di essere stato, magari fastidioso, ma educato e corretto e di aver motivato le mie obbiezioni.
Tanto più che, lui non se lo ricorda, ma avendo avuto una ex fidanzata di Luino, ci siamo presentati una decina di anni fa. ;)
Praticamente le prestazioni di una 980 con consumi ridicoli, probabili temperature ridicole e quindi poco rumore e calore in giro per il case. Se costerà street attorno ai 250 secondo me sarà un ottimo acquisto per il 1080/1440.
La 480 va poco meno e costa poco meno ma consuma (e quindi scalda, è qui il punto, non gli euro al kwh) di più.
La stessa cosa che ho pensato anch'io. Se si troveranno custom a prezzi decenti potrebbe diventare la sostituta della 960.
Attendo recensioni sulle varie custom e l'assestamento dei prezzi, non ho fretta.
Io più di 250 bagigi non ce li metto. :O
Ale55andr0
19-07-2016, 18:18
I listini in dollari USA posizionano GeForce GTX 1080, nella versione custom dei partner, poco sopra la reference board AMD Radeon RX 480 con 8 Gbytes di memoria video (249 vs 239 dollari)
Magari :fagiano:
ditemi dove che mi faccio lo sli di 1080 :sofico:
Ale55andr0
19-07-2016, 18:19
Quando vanno uguali il limite e della CPU (potrebbe valere la pena di fare un test....)
Le ROPs sono 48, e non 32....non è esattamente la metà.
Anche la dimensione del die non è esattamente pari alla metà
200mmq vs 314mmq della gtx1080.
non vorrei dire una vaccata (chiedo venia in caso) ma mickael mi pare abbia detto che sono 32, non 48 e che la 1060 è la metà esatta della 1080 a livello di architettura
no_side_fx
19-07-2016, 18:37
visto in giro i primi prezzi delle 1060...fuori di testa :doh:
tra poco avremo la fascia "bassa" a 200€
rx480 da 8gb appena si assesta il prezzo ( essendo uscita da poco ) è migliore e dovrebbe costare 240-250
tuttodigitale
19-07-2016, 19:02
rx480 da 8gb appena si assesta il prezzo ( essendo uscita da poco ) è migliore e dovrebbe costare 240-250
Il prezzo sta risalendo...a giudicare il numero sempre piw ridotto dei negozi che l'hanno disponibile, temo che questo rincaro sia dovuto alla bassa produzione...e visto che nessuna ha costretto AMD al debutto, credo che le nVidia siano messe anche peggio. Infatti c'e chi spara quasi 400 euro...
Comunque concordo 320 euro di listino non è fascia mainstream..
tuttodigitale
19-07-2016, 19:07
non vorrei dire una vaccata (chiedo venia in caso) ma mickael mi pare abbia detto che sono 32, non 48 e che la 1060 è la metà esatta della 1080 a livello di architettura
Esatta è impossibile...la gp104 ha 8 memory controller contro 6 di gp106.
E anche il numero di transistor 4,4 vs 7,2 è diverso dalla metà.
Comunque potrebbe girare a frequenze un poco più alte (le GPU Pascal sono limitate dalla temperatura), e infatti la piccolina non raggiunge l'efficienza delle più grandi.
Esatta è impossibile...la gp104 ha 8 memory controller contro 6 di gp106.
E anche il numero di transistor 4,4 vs 7,2 è diverso dalla metà.
Comunque potrebbe girare a frequenze un poco più alte (le GPU Pascal sono limitate dalla temperatura), e infatti la piccolina non raggiunge l'efficienza delle più grandi.
no tuttodigitale, non ti far confondere dal disegno di massima del chip, non e' esattamente cosi'.
ne a 8 pure GP106.
la modulatira' dei questi chip, da GP100, passando a GP104 a GP106 la vedi nella misura di due dei 4 lati, che rimangono costanti...
ecco, quelli sono probabilmente i lati dove ci sono i controller ddr, mentre l'altra dimensione aumenta all'aumentare dei cuda core integrati.
anche perche', hai visto il PCB?
perche' farlo da 8 chip se hai 6 controller?
questa, come anche la 480, sono schede effettivamente rimaneggiate all'ultimo, cercando di tenere nascoste tutte le possibiliinformazioni (ecco perche' nemmeo gli ABI prevedevano l'uscita del GP106 cosi' rapidamente, perche' non doveva trapelare nulla).
spiaggio industriale in piena regola: so' come la fai, io cambio un po' la mia per raffrontarla meglio.
questa, per me, competa, la volevano mettere come 1060Ti, e fare la 1060 4GB con meno cuda e meno frequenza, ma poi AMD ha sparato a 1266 un chip progettato per andare a 900... e nvidia a declassato la Ti a semplice 1060.
non ha senso che fai un PCB a 8 chip ram se poi ne devi usare solo 6.
tuttodigitale
19-07-2016, 19:30
Sul clock.... In Unigine Heaven gira costantemente a 1840MHz (fonte pcper) pazzesco.
tuttodigitale
19-07-2016, 19:40
no tuttodigitale, non ti far confondere dal disegno di massima del chip, non e' esattamente cosi'.
ne a 8 pure GP106.
la modulatira' dei questi chip, da GP100, passando a GP104 a GP106 la vedi nella misura di due dei 4 lati, che rimangono costanti...
ecco, quelli sono probabilmente i lati dove ci sono i controller ddr, mentre l'altra dimensione aumenta all'aumentare dei cuda core integrati.
anche perche', hai visto il PCB?
perche' farlo da 8 chip se hai 6 controller?
questa, come anche la 480, sono schede effettivamente rimaneggiate all'ultimo, cercando di tenere nascoste tutte le possibiliinformazioni (ecco perche' nemmeo gli ABI prevedevano l'uscita del GP106 cosi' rapidamente, perche' non doveva trapelare nulla).
spiaggio industriale in piena regola: so' come la fai, io cambio un po' la mia per raffrontarla meglio.
questa, per me, competa, la volevano mettere come 1060Ti, e fare la 1060 4GB con meno cuda e meno frequenza, ma poi AMD ha sparato a 1266 un chip progettato per andare a 900... e nvidia a declassato la Ti a semplice 1060.
non ha senso che fai un PCB a 8 chip ram se poi ne devi usare solo 6.
A maggior ragione non è la metà...:D
Ps il PCB potrebbe essere anche un non espressamente progettato per la versione definitiva di gp106
mikegemini77
19-07-2016, 20:10
Ma le custom della rx480 quando caspita escono??
No perchè la senzsazione è che questa reference di AMD faccia abbastanza pena e dopo un mese nn ci sono ancora le custom...
Oggi esce la 1060 FE e già c'è qualche custom in giro...
Ma le custom della rx480 quando caspita escono??
No perchè la senzsazione è che questa reference di AMD faccia abbastanza pena e dopo un mese nn ci sono ancora le custom...
Oggi esce la 1060 FE e già c'è qualche custom in giro...
In compenso delle GTX 1060 non ci sono le reference :D
Nell'articolo c'è scritto (nelle note conclusive): da noi della GTX 1060 arriveranno (nei canali ufficiali) solo le custom.
Mah io vedo la rx480 e la gtx 1060 praticamente allineate, con alcuni titoli va un pelo di più la rx480 con altri va un pelo di più la gtx 1060, ma questo non fa la differenza, ma sopratutto non noto tutta questa differenza abissale con i titoli dx12, visto che nell'unico dove praticamente ha un vantaggio la rx480 questo si riduce a pochi fps (in hitman con la gtx 1060 non ha senso attivare le dx12 quando la differenza in dx 11 contro le dx12 della rx480 sono di una manciata di fps).
Mi sorprende Ashes of the singularity, dove praticamente sono allineate in dx12 e fin'ora era il titolo su cui spingevano di più per mostrare i vantaggi delle amd rispetto alle nvidia in dx12. Mah a parte le seghe dei fan verdi e rossi, vedo due schede nella sostanza quasi identiche prestazionalmente.
Mah a parte le seghe dei fan verdi e rossi, vedo due schede nella sostanza quasi identiche prestazionalmente.
Concordo. La differenza la fanno i consumi e la qualità dei driver :D
fraussantin
19-07-2016, 20:47
Concordo. La differenza la fanno i consumi e la qualità dei driver :D
E il prezzo. Soprattutto.
Ma ripeto il confronto va fatto tra custom e custom .
Strix vs strix g1 vs g1 , zotac vs nitro , ecc...
E i consumi della.480 non sono un problema come.lo erano per le vecchie amd.
E il prezzo. Soprattutto.
Ma ripeto il confronto va fatto tra custom e custom .
Strix vs strix g1 vs g1 , zotac vs nitro , ecc...
E i consumi della.480 non sono un problema come.lo erano per le vecchie amd.
Sicuro, ma da quanto ho capito queste schede fin'ora sono scarsamente disponibili sopratutto in versione custom ed ho come la sensazione che stanno gonfiando i prezzi per momentanea "poca disponibilità".
E i consumi della.480 non sono un problema come.lo erano per le vecchie amd.
Infatti, questa volte la differenza sarà data probabilmente solo dal prezzo delle custom, visto che per il resto sono VGA abbastanza allineate.
X Corsini
Ho trovato questo programma che dovrebbe funzionare con vulkan:
https://github.com/GameTechDev/PresentMon/releases
Lo hanno usato per Doom e altri giochi DX12
http://www.gamersnexus.net/game-bench/2510-doom-vulkan-vs-opengl-benchmark-rx-480-gtx-1080
http://www.pcper.com/reviews/Graphics-Cards/PresentMon-Frame-Time-Performance-Data-DX12-UWP-Games
quello ke ne deduco io è che
UNA 970 E' PARI ALLA POTENZA DI UNA 1060 CONFERMATE CHE NON CONVIENE PASSARE ALLA CLASSE NUOVA DA QUESTA COME BASE?
fraussantin
19-07-2016, 21:16
quello ke ne deduco io è che
UNA 970 E' PARI ALLA POTENZA DI UNA 1060 CONFERMATE CHE NON CONVIENE PASSARE ALLA CLASSE NUOVA DA QUESTA COME BASE?
follia pura. cacci fuori minimo 100 euro ( ma ad andarti grassa , per niente), poi tu ha i la 390 , manco ci devi pensare.
Ho trovato questo programma che dovrebbe funzionare con vulkan:
https://github.com/GameTechDev/PresentMon/releases
Lo hanno usato per Doom e altri giochi DX12
http://www.gamersnexus.net/game-bench/2510-doom-vulkan-vs-opengl-benchmark-rx-480-gtx-1080
http://www.pcper.com/reviews/Graphics-Cards/PresentMon-Frame-Time-Performance-Data-DX12-UWP-Games
Sarò stronzo io, ma anche con le vulkan non vedo tutto questo vantaggio della rx480, anche in confronto ad una vecchia gtx970. Quant'è la differenza? 4-5 fps?
Mi associo a chi difende Corsini. La recensione è ben fatta e obiettiva. Ha anche avuto l'onestà intellettuale di mettere a risalto l'anomalia in grid che aumenta mostruosamente il divario nella media dei giochi.
Se volete farvi due risate è vedere come sono le marchett...recensioni NON oggettive andate a fare un giro sul sito del martello...
Già, peccato che un anomalia simile, su un gioco che di frame ne fa abbastanza (anche perché non è recente), consiglierebbe di escluderlo e bon... :)
Mentre si lascia il grafico che lo contempla (che è quello che guardano - a ragione o meno - la maggior parte...).
Che senso ha sottolinearlo tra le righe per lasciarlo nel grafico...? (retorica...?)
Deve far parte della suite per forza? (a questo punto, viene il dubbio)
Tra l'altro, più di un utente aveva avuto da ridire sull'inserimento di un Test - Grid Autosport - che evidentemente penalizza troppo una parte (in quali altri test una Fury sta sotto al tutto?).
Se si voleva veramente eludere l'anomalia determinante, il test suddetto sarebbe stato escluso. Cioè, un unico test raddoppia le differenze sulla somma, mica poco. Come Azz si fa... :fagiano:
Esiste l'essere onesti e il far credere il più possibile d'esserlo. Un Emilio Fede non aiuta nessuno.
Ah, vecchia storia: Il SSAO su Hitman che problema ha?
Visto che nel resto non lo si esclude, se non ha problemi vorrei sapere per quale motivo si testa a dettagli abbondanti senza SSAO, scontato in ogli titolo odierno.
C'è qualcuno che potrebbe fare un test per far capire - in chiaro - il motivo...? :)
@ ningen
Doom con Vulkan
rx480 vs gtx1060 : +25% a 1440p , +32% a 1080p
http://www.hardocp.com/article/2016/07/19/nvidia_geforce_gtx_1060_founders_edition_review/4
Già, peccato che un anomalia simile, su un gioco che di frame ne fa abbastanza (anche perché non è recente), consiglierebbe di escluderlo e bon... :)
Mentre si lascia il grafico che lo contempla (che è quello che guardano - a ragione o meno - la maggior parte...).
Che senso ha sottolinearlo tra le righe per lasciarlo nel grafico...? (retorica...?)
Deve far parte della suite per forza? (a questo punto, viene il dubbio)
E se non lo metti allora stai nascondendo che c' è un gioco importante dove le ATI soffrono ...
Non si può far contenti tutti ed è sempre meglio un test in più ( anche se magari conta poco ) piuttosto che uno in meno, anche perchè poi ti arriva quello che gioca solo a quello e che si lamenta che le ATI fanno schifo e nelle recensioni non c' era ...
quello ke ne deduco io è che
UNA 970 E' PARI ALLA POTENZA DI UNA 1060 CONFERMATE CHE NON CONVIENE PASSARE ALLA CLASSE NUOVA DA QUESTA COME BASE?
Non conviene
L' upgrade della 970 è la 1070 oppure una 980TI
ho come la sensazione che stanno gonfiando i prezzi per momentanea "poca disponibilità".
Mi sa anche a me che ci stiano marciando alla grande coi prezzi :mbe:
con le Dx12 e le API Vulkan, facendomi preferire quest'ultima in ottica di longevità.
Premesso che i risultati su DX12 e Vulkan sono indicativi solo dei test fatti e non sono una garanzia che i prossimi motori DX12/Vulkan offriranno gli stessi risultati
DX 12 e Vulkan che vedremo quando ?
Fra 3 anni ?
Qua i motori grafici sono tutti basati ancora su DX9 con una spruzzatina di DX10 e una grossa scritta DX12 al caricamento, le DX12 sono del tutto irrilevanti oggi e lo saranno ancora per un pezzo, quando usciranno titoli veramente DX12 queste schede saranno ferrovecchio
Non pensate poi che Vulkan serva a qualcosa lo userà Doom e poi nessun altro, sulle scatolette solo DX e da lì nient' altro, OpenGL è già morto una volta seppellito dalle DX, preparate un altro funerale per Vulkan.
Ne abbiamo già viste tante di "schede che sono più longeve" e "è un' architettura nuova con i prossimi driver migliorerà" chi si ricorda le Nvidia 8600 consigliate al posto delle ATI 1900GT perchè supportavano le DX10 ? E i driver che dovevano far volare le Ati 2900 XT ?
Avete mai visto una scheda invecchiare bene ?
La verità è che da qui a fine vita per le RX480 non cambierà assolutamente nulla, i driver non sposteranno di una virgola le prestazioni e di giochi DX12 non ce ne saranno, le prestazioni di 1060 e RX480 sono quelle che si vedono nei test e quelle rimarranno
Visto l'andazzo sconcertante delle ultime recensioni ho cambiato approccio :letto la presentazione su HWUpgrade(come sempre accettabile),guardati i bench prima su altre testate straniere e poi sono tornato qui per raffronto,e devo dire che stavolta tutto combaciava....poi sono andato sull'altro sito ,che si vanta di essere un'autorita' e mi sono fatto delle grasse risate...stavolta si sono superati,davvero.
@ ningen
Doom con Vulkan
rx480 vs gtx1060 : +25% a 1440p , +32% a 1080p
http://www.hardocp.com/article/2016/07/19/nvidia_geforce_gtx_1060_founders_edition_review/4
C'è una anomalia però in questi test. Le geforce usano una versione più vecchia della libreria Vulkan rispetto alle schede amd in doom. Onestamente prenderei questi test (ma anche i precedenti postati da selivan a questo punto) con le pinze. Di certo mi aspetterei in un confronto ad armi pari che la spunti comunque la rx480, anche se non so di quanto a questo punto.
E se non lo metti allora stai nascondendo che c' è un gioco importante dove le ATI soffrono ...
Non si può far contenti tutti ed è sempre meglio un test in più ( anche se magari conta poco ) piuttosto che uno in meno, anche perchè poi ti arriva quello che gioca solo a quello e che si lamenta che le ATI fanno schifo e nelle recensioni non c' era ...Un gioco importante? Neanche facesse 20fps... Lasciamolo giusto per chi ha monitor 144fps.
Per il resto: Quanti altri giochi mancano? Non hai mai notato ritardi sui test che premiano ATI? Perché, se non li si testano tutti, il tuo discorso non muore mai, mentre rimane quello dei giochi da scegliere... A questo punto, GA ti pare uno di quelli?
Questo, senza considerare il fatto di dirlo tra le righe ma lasciarlo sui grafici: Se è un gioco che potrebbe interessare, o lo metti senza commenti...
C'è anche altro, tipo l'antialiasing al giusto livello o lo SSAO off su Hitman (ti rendi conto che lo fa sembrare un gioco molto più vecchio? Chi c@zzo ci gioca disabilitandolo?).
A questo, aggiungerei anche news a profusione su Nvidia (Preview, unboxing, vecchie GTX-970 convenienti, una settimana prima dell'uscita della 480, testata contro una GTX-970 OC, che in pratica va come una 980), come recensioni dettagliate sulle "nuove" feature presenti solo per essa... quando ne ha meno di ATI.
Mi spieghi perché un sito simile non abbia neanche accennato a GPUOpen di ATI (è un pezzo...), ti pare normale?
Mah...
Se pensi che sparo al volo perché sono di parte, sbagli! Ho sia una che l'altra, e l'unica cosa in cui sono di parte è l'onestà. :)
Il quadro d'insieme mi "consiglia" che, in questo loco, Nvidia sia preferita a prescindere, altroché... :O
Ma poi, le Founders Edition, che sembrano solo schede ultra-selezionate (e prezzate) per le recensioni... Ne vogliamo parlare?
Vedremo le custom di entrambe le marche quando renderanno; Credo che su Nvidia il margine sia ben poco.
Ah-2, le custom delle GTX-1060 sono in news... Quelle della 480?
Se cerchi qualcuno di parte guarda altrove. :)
Viridian
19-07-2016, 22:26
ma dove le vedete quasi identiche se la 1060 vale il 116% della rx...
a me la recensione è piaciuta, complimenti come sempre al Corsini (che si sbatte pure a dare risposte nei commenti!)
newtechnology
19-07-2016, 23:02
Come volessi dimostrare , schede molto simili , sarà il prezzo a decidere il best buy, a me sinceramente piace molto più la verde , oggi un mio amico ha ritirato l'asus strix 6g gaming , stasera l'abbiamo provata , dopo mezz'ora in the division le ventole partivano si è no, con un frame rate a 1440 di tutto rispetto.
Immaginavo che la maggior parte degli utenti pro AMD sarebbero stati presenti nella rece della 1060 , capisco che si cerchi di trovare qualcosa per far preferire la rossa, ma a sto giro io non vedo alcun motivo tecnico per preferirla, l'unica cosa che potrebbe far pendere l'ago della bilancia come ho detto all'inizio é il prezzo.
Il supporto vulkan mi ricorda tanto Mante , supportato da un paio di giochi e sparito ancora prima nascere.
ma dove le vedete quasi identiche se la 1060 vale il 116% della rx...
a me la recensione è piaciuta, complimenti come sempre al Corsini (che si sbatte pure a dare risposte nei commenti!)
:muro: come previsto molti non leggono l'articolo ma guardano solo le figure
togliendo grid dal paniere dei test la 1060 va un 8% meglio della 480 a 1080p,e un misero 4% se a 1440p
e non e' l'unica anomalia nei test...
senza considerare che paragonare una custom firmata nvidia fatta per apposta per redazioni e collezionisti a una misera reference:rolleyes:
praticamente quando usciranno le custom 480,la media probabilmente si ribaltera' a favore della radeon
l'unica nota sicuramente a favore della 1060 sono i consumi
:
l'unica nota sicuramente a favore della 1060 sono i consumi
...e di conseguenza temperature più basse, di riflesso anche sulla cpu e rumorosità ridotta.
...e di conseguenza temperature più basse, di riflesso anche sulla cpu e rumorosità ridotta.
Premesso che per tmp e rumore dipenderà molto dalle soluzioni adottate dai produttori terzi e che le differenze nei consumi non sono poi così importanti, in particolare in iddle (la maggior parte del tempo), per quanto riguarda la tmp della CPU ho serissimi dubbi che le differenze tra le due VGA possano determinare differenze sostanziali, in particolare se non sappiamo quali soluzioni stiamo prendendo in esame, che potrebbero scaricare l'aria dentro o fuori il case.
Come volessi dimostrare , schede molto simili , sarà il prezzo a decidere il best buy, a me sinceramente piace molto più la verde , oggi un mio amico ha ritirato l'asus strix 6g gaming , stasera l'abbiamo provata , dopo mezz'ora in the division le ventole partivano si è no, con un frame rate a 1440 di tutto rispetto.
Immaginavo che la maggior parte degli utenti pro AMD sarebbero stati presenti nella rece della 1060 , capisco che si cerchi di trovare qualcosa per far preferire la rossa, ma a sto giro io non vedo alcun motivo tecnico per preferirla, l'unica cosa che potrebbe far pendere l'ago della bilancia come ho detto all'inizio é il prezzo.
Il supporto vulkan mi ricorda tanto Mante , supportato da un paio di giochi e sparito ancora prima nascere.
certo che ci vuole coraggio per una media spendere 360 euro...
cioe', pure una reference 1070 FE a 420 era meglio... 60 euro in piu', ma l'asfaltava in clock base.
ma te rendi conto? o no?
a 420 trovi le 980Ti AMP! si avvicinano alla 1080 FE...
frega cavoli che va' piano in DX12, come minimo va'!
le fregole dei ragazzini, avete sulle mani, senza dare un senso pratico alle cose...
mha!
certo che ci vuole coraggio per una media spendere 360 euro...
cioe', pure una reference 1070 FE a 420 era meglio... 60 euro in piu', ma l'asfaltava in clock base.
ma te rendi conto? o no?
a 420 trovi le 980Ti AMP! si avvicinano alla 1080 FE...
frega cavoli che va' piano in DX12, come minimo va'!
le fregole dei ragazzini, avete sulle mani, senza dare un senso pratico alle cose...
mha!
quoto resto a caccia della 980ti ke per quanto vogliono castrarla va ke na bomba...ricordiamo ke è una TITAN quasi a tutti gli effetti e io con la 780ti avuta non ho MAI visto qualke castrazione anzi andava meglio della 970 in 2k 1440p X°D fino a qualche mese fa =P
Per correttezza generale, la vogliamo finire di confrontare l'andamento delle schede tramite percentuale?:muro: A me che me ne frega se una scheda fa il 50% in più di un'altra in 4K se poi vado a leggere gli fps e una ne fa 20 e l'altra 30; in quel caso sono pessime entrambe punto.
Capisco che faccia più clamore dire +15% o +10%, ma se poi il tutto si traduce in 5-10 fps di differenza essendo già oltre i 60 mi cambia poco o nulla (soprattutto se i test sono fatti a dettagli massimi).
Come è possibile che la 1070 vada di più della 1080 in gta V???
tuttodigitale
20-07-2016, 00:55
ma dove le vedete quasi identiche se la 1060 vale il 116% della rx...
a me la recensione è piaciuta, complimenti come sempre al Corsini (che si sbatte pure a dare risposte nei commenti!)
Se è vero che in doom a 1080 si passa da -16% a +32%, questo risultato incide di ben 6 punti percentuali sul risultato finale...
Quindi sarebbe un +10 a 1080p e un +1% a 1440p...
Ed è estremamente probabile che si forzano i filtri inFHD la rx480 possa avere la meglio.
Va anche sottolineato che la scheda in questione viaggia ad una media di 1830MHz vs i 1700MHz garantiti e non costanti....
E soprattutto i risultati con le nuove librerie sono determinanti per farsi una idea quale GPU si manterrà giovane.
Si overclocca bene al contrario della RX480, costa di più, offre qualcosa in più.
L'unico, grande, punto debole è la mancanza dello SLI.
Piuttosto si trovano già bench delle custom 1060, delle rx480 niente.
Founders da evitare sempre e comunque, com'è da evitare la 480 reference.
Il discorso: Turbo boost è una truffa, +50€ per pochi frame in più non vale la pena... sono cose soggettive.
Oggettivamente manca lo sli, perciò una fetta d'utenza finirà con amd o aspetterà le prossime.
Paolo Corsini
20-07-2016, 05:28
X Corsini
Ho trovato questo programma che dovrebbe funzionare con vulkan:
https://github.com/GameTechDev/PresentMon/releases
Lo hanno usato per Doom e altri giochi DX12
http://www.gamersnexus.net/game-bench/2510-doom-vulkan-vs-opengl-benchmark-rx-480-gtx-1080
http://www.pcper.com/reviews/Graphics-Cards/PresentMon-Frame-Time-Performance-Data-DX12-UWP-Games
Grazie, vedo di lavorarci quest'oggi
Paolo Corsini
20-07-2016, 05:32
:muro: come previsto molti non leggono l'articolo ma guardano solo le figure
togliendo grid dal paniere dei test la 1060 va un 8% meglio della 480 a 1080p,e un misero 4% se a 1440p
e non e' l'unica anomalia nei test...
senza considerare che paragonare una custom firmata nvidia fatta per apposta per redazioni e collezionisti a una misera reference:rolleyes:
praticamente quando usciranno le custom 480,la media probabilmente si ribaltera' a favore della radeon
l'unica nota sicuramente a favore della 1060 sono i consumi
Credo ti sfugga una cosa: le Founders Edition sono le schede reference. Le proposte dei partner hanno specifiche tecniche, in termini di frequenze di clock, o identiche o superiori. La scheda Gigabyte che abbiamo ricevuto all'ultimo momento, ad esempio, ha clock della GPU superiore di 100 MHz.
La GTX 1060 Founders Edition non si può acquistare in Italia per politica commerciale di NVIDIA, non una proposta per redazioni.
Paolo Corsini
20-07-2016, 05:34
Per correttezza generale, la vogliamo finire di confrontare l'andamento delle schede tramite percentuale?:muro: A me che me ne frega se una scheda fa il 50% in più di un'altra in 4K se poi vado a leggere gli fps e una ne fa 20 e l'altra 30; in quel caso sono pessime entrambe punto.
Capisco che faccia più clamore dire +15% o +10%, ma se poi il tutto si traduce in 5-10 fps di differenza essendo già oltre i 60 mi cambia poco o nulla (soprattutto se i test sono fatti a dettagli massimi).
Ciao
il dato percentuale lo utilizzo sempre come dato di sintesi finale, e permette di avere un quadro complessivo delle prestazioni medie di una scheda rispetto alle altre.
Dici bene: poco importante che una scheda a 4K vada il 50% più di 1 altra se comunque non permette di ottenere frames adeguati. Alla stessa stregua poco interessante il +50% se la scheda più lenta permette di avere 80 fps come valore minimo. Per questo motivo
1) ci sono tutti i dati ottenuti, sia come fps sia come andamento percentile
2) accanto ai grafici dell'andamento medio riparametrato in percentuale trovi anche un commento, nel quale indico per quale risoluzione le schede in prova sono consigliate alla luce dei dati che ho ottenuto.
Paolo Corsini
20-07-2016, 05:36
Come è possibile che la 1070 vada di più della 1080 in gta V???
La differenza è 2 fps alla risoluzione di 1920x1080, che è con questo titolo CPU limited e non GPU limited con le due schede che hai menzionato. Questa variabilità è legata alle differenze che ci sono in ogni run di benchmark: un minimo di differenza, a parità di tutto, c'è sempre in ogni esecuzione.
Marko#88
20-07-2016, 06:54
il dissipatorino reference della rx480 sputa gran parte del calore fuori dal case. E nei bench case questo vantaggio non è visibile.
Il clock della rx480 è limitata dalla potenza assorbita, mentre le GPU Pascal dalla temperatura...in un case tradizionale nessuno ci può assicurare che la GeForce non perda prestazioni per strada e/o silenziosità
Io spero che ti paghino bene...
quello ke ne deduco io è che
UNA 970 E' PARI ALLA POTENZA DI UNA 1060 CONFERMATE CHE NON CONVIENE PASSARE ALLA CLASSE NUOVA DA QUESTA COME BASE?
Non c'è bisogno di urlare.
Dalla 970 non vale la pena passare alla 1060 a meno che non voglia fare un upgrade in efficienza... ma ci smeni dei soldi, secondo me non ha senso.
Cerca una 980Ti usata o passa almeno alla 1070 se vuoi vedere aumenti prestazionali.
Sai cosa non mi quadra:
Testare vga del 2016 con videogiochi del 2013.
Ma che faccio, cambio vga per rigiocarmi i giochi gia finiti?
Spiegami con giochi recenti (seconda metà 2015, 2016) queste vga come vanno?
Perchè non è che acquisto una nuova vga per giocare ad unreal che finii con una mistique220 4mb e relativa scheda accelleratrice.
Ma che lo scrivi a fare, certa gente e' di coccio.
Cmq tanto di cappello a Paolo Corsini che cmq ha testato le schede, anche se secondo me ta 1060 con un costo su e-prezzo di circa 100 euro di piu' e 2gb di meno per le custom non e' conveniente.
Io spero che ti paghino bene...
Non c'è bisogno di urlare.
Dalla 970 non vale la pena passare alla 1060 a meno che non voglia fare un upgrade in efficienza... ma ci smeni dei soldi, secondo me non ha senso.
Cerca una 980Ti usata o passa almeno alla 1070 se vuoi vedere aumenti prestazionali.
Tnnxx mitico e scusa dell'urlo :)
no_side_fx
20-07-2016, 08:26
quello ke ne deduco io è che
UNA 970 E' PARI ALLA POTENZA DI UNA 1060 CONFERMATE CHE NON CONVIENE PASSARE ALLA CLASSE NUOVA DA QUESTA COME BASE?
non so che recensioni hai visto tu ma da tutte quelle che ho visto io online
si deduce piuttosto:
RX 480 = GTX 970
GTX1060 = GTX 980
Su alcuni titoli sembra ci sia una sorta di frame cap, molte schede fanno segnare praticamente gli stessi valori e questo è molto strano.
Su un'altra testata questa 1060 è sempre più veloce della 970 ref. e sempre più lenta della 980 ref.
Qui spesso va uguale o meglio della 980...???
Lascio stare i confronti con la parte avversaria per evitare polemiche
Comunque il prezzo per il momento è un po' troppo alto. Se scende sui 250€ diventa una scheda eccellente per il FHD
siluro85
20-07-2016, 09:34
non so che recensioni hai visto tu ma da tutte quelle che ho visto io online
si deduce piuttosto:
RX 480 = GTX 970
GTX1060 = GTX 980
Forse è il caso che riguardi le rece e ne guardi più di una.. e magari lascia stare quella di casa, dove nella rece della 1060 sono "magicamente sparite" le gtx 970 super occate che spopolavano nella rece della 480..
le schede all'incirca si equivalgono, in alcuni game va meglio una in altri l'altra in base alle ottimizzazioni.. la 1060 consuma qualcosa meno e costa qualcosa più.. direi che il livello è quello, sta poi ad uno decidere se spendere di più per consumare qualcosina meno o spendere meno e consumare qualcosina più.
Basta troll per favore.
tuttodigitale
20-07-2016, 09:36
Io spero che ti paghino bene
Possibile che non si possa fare confronti senza essere bollato da fan boy?
Che le GPU Pascal siano limitate dalla temperatura ce lo dice il fatto che partono a razzo...superando i 2000MHz ad inizio test, per poi assestarsi a 82 gradi circa come range operativo...
La rx480 al contrario sembra essere strozzata anche a "freddo" dall'assorbimento....
http://www.hwupgrade.it/articoli/skvideo/4679/radeon-rx-480-amd-ridefinisce-le-schede-video-mainstream_4.html
Come puoi vedere la rx480 va in throttling anche a 60 ° gradi centigradi...
EDIT
Viene da sé che una scheda strozzata dalla temperatura in un bench case potrà solo fare peggio in un case tradizionale, anche solo del1%, sempre nell'ipotesi fanboyana proAMD che l'aria all'interno del case sia più calda di quella esterna..
Anandtech ha isolato il problema alla radice, decidendo di testare solo all'interno di un case chiuso.
Ironia della sorte, nVidia non ha inviato le 1060 e 1070 alla testata. Mi piacerebbe vedere test più orientati all'utilizzo tipico, nulla di ché
no_side_fx
20-07-2016, 10:03
Forse è il caso che riguardi le rece e ne guardi più di una.. e magari lascia stare quella di casa, dove nella rece della 1060 sono "magicamente sparite" le gtx 970 super occate che spopolavano nella rece della 480..
le schede all'incirca si equivalgono, in alcuni game va meglio una in altri l'altra in base alle ottimizzazioni.. la 1060 consuma qualcosa meno e costa qualcosa più.. direi che il livello è quello, sta poi ad uno decidere se spendere di più per consumare qualcosina meno o spendere meno e consumare qualcosina più.
Basta troll per favore.
allora di recensioni ne avrò viste almeno una dozzina e la media fra tutte le review è quella che ho scritto in alcune c'è 970 liscia in altre 970 OC, in ogni caso non mi sembra proprio si equivalgono
e lasciamo perdere le eccezioni tipo Doom in Vulkan o robe simili
siluro85
20-07-2016, 10:07
allora io ti dico lascia perdere giochi tipo the witcher ed altri dove le nvidia vanno meglio (schifworks attivi o no comunque sono foraggiati ed ottimizzati)... se vuoi fare una comparativa prendi in considerazione tutto, se vuoi essere obiettivo. Altrimenti fatti assumere da una delle due e vai a fare il pr.
monster.fx
20-07-2016, 10:10
Come detto in precedenza ... da felice possessore di R9 390, questa VGA, come la RX480 non giustifica un eventuale cambio VGA. Le performance sono veramente esigue e nel mio caso 10/15fps in 1080P su una base di 65fps non giustifica l'upgrade.
Diverso è da chi assembla oggi un PC gaming senza troppe pretese(non che con questa VGA o la RX480 non si riesca a giocare tranquillamente con dettagli al massimo)o abbia schede inferiori a R9290X/390 o GTX970.
Ultima mia nota ... Nvidia ha sfornato ottime VGA con queste Pascal.
GTX1060 hanno consumi bassi e prestazioni tra 970 e 980.
GTX1070 e GTX1080 sono , attualmente,le nuove schede di riferimento(anche in confronto con le 980Ti e Titan),in attesa delle eventuali versioni enthusiast.
Detto questo un plauso a Mr.Corsini sia per la recensione,esaustiva e abbastanza precisa, sia perchè ultimamente i suoi interventi nel forum consolidano un rapporto che non sempre è presente altrove. Il fatto che risponda, effettui altri test come gli viene richiesto, è sinonimo di non essere di parte o di seguire necessariamente gli script dettati dalle comunicazioni commerciali dei partner(Nvidia o AMD in questo caso).
siluro85
20-07-2016, 10:18
Chiaro, da 390 o 970 980 che sia non ha molto senso passare a 480 o 1060.. è un reale upgrade per chi viene da 380 o 960...
dirtyuser
20-07-2016, 10:25
Ritengo non sia necessario fare i fanatici e guardare la realtà :
La 1060 è pari alla 980, non è sotto.
https://tpucdn.com/reviews/NVIDIA/GeForce_GTX_1060/images/perfrel_1920_1080.png
fraussantin
20-07-2016, 10:29
Chiaro, da 390 o 970 980 che sia non ha molto senso passare a 480 o 1060.. è un reale upgrade per chi viene da 380 o 960...
È un upgrade oneroso però.
Insomma la storia è sempre quella.
Chi si è preso la 380 l'anno scorso dubito che abbia 300 euro da spendere in queste vga. ( altrimenti si comprava la 970 o la 290 al tempo)
Sarà una scelta che chi viene da vga vecchie di 2,3 gen. Sempre con l'amaro in bocca perché il rapporto euro\ performance è fermo a 2 anni fa.
ecco un buon video dove si vede che le prestazioni sono praticamente equiparate tra schede con performance anche maggiori della 1060 o RX480
https://www.youtube.com/watch?v=weB29JOL2OQ&feature=youtu.be&t=1m29s
Dr.Adder
20-07-2016, 10:56
io con una 960 da 4GB gioco a tutto in 1080 ai dettagli massini, sto giro di schede lo salterò...
se dovessi prendere prenderei Amd, c'è bisogno di concorrenza e la 480 è un'ottima scheda e quando costerà 200 eur diverrà una super best buy
Sarei curioso di vedere un confronto sulla qualità di immagine tra 1060 e 480 con i vari filtri attivati.
Sarà una scelta che chi viene da vga vecchie di 2,3 gen. Sempre con l'amaro in bocca perché il rapporto euro\ performance è fermo a 2 anni fa.
La drammatica conclusione è questa, hanno sostituito le vecchie schede con delle nuove schede che vanno uguali e costano uguale a quelle vecchie
Un anno e mezzo fa una 970 costava 350 sacchi, cosa compro con quella cifra oggi ?
Ciao
il dato percentuale lo utilizzo sempre come dato di sintesi finale, e permette di avere un quadro complessivo delle prestazioni medie di una scheda rispetto alle altre.
Dici bene: poco importante che una scheda a 4K vada il 50% più di 1 altra se comunque non permette di ottenere frames adeguati. Alla stessa stregua poco interessante il +50% se la scheda più lenta permette di avere 80 fps come valore minimo. Per questo motivo
1) ci sono tutti i dati ottenuti, sia come fps sia come andamento percentile
2) accanto ai grafici dell'andamento medio riparametrato in percentuale trovi anche un commento, nel quale indico per quale risoluzione le schede in prova sono consigliate alla luce dei dati che ho ottenuto.
scusami non era riferito a questa recensione ma in generale un po' a tutte nonché agli utenti che preferiscono usare la percentuale come termine di paragone rispetto agli fps effettivi (che secondo me sono la vera cosa importante) che si hanno in gioco
Piedone1113
20-07-2016, 11:34
allora di recensioni ne avrò viste almeno una dozzina e la media fra tutte le review è quella che ho scritto in alcune c'è 970 liscia in altre 970 OC, in ogni caso non mi sembra proprio si equivalgono
e lasciamo perdere le eccezioni tipo Doom in Vulkan o robe simili
Prendiamo per buono che 1060 + 8-10% su 480.
Assumiamo il fatto che 970 OC<1060<=980.
Diciamo pure che chi ha attualmente una 970 a salire, oppure una 290 a salire sia la 1060 che la 480 sono uno spreco di € (spero che si sia capito il motivo, senza stare li a scrivere ma vendo la mia e con pochi € di diff ho una scheda migliore, perchè quei pochi € li spenderebbe chi acquisterebbe l'usato), la mia domanda è:
Ma nei giochi recenti (considerando che una mid dura di più nel case di chi l'acquista rispetto una top) queste nuove vga sono buone?
Tra un anno, un anno e mezzo saranno ancora in grado di far girare i nuovi giochi in modo dignitoso?
Perchè io, ma credo la maggiorparte di chi acquista in questa fascia di mercato, tiene a considerare l'esborso anche come investimento da ammortizzare nei prossimi 2-3 anni, e non per aggiornare tra un anno.
Prendiamo per buono che 1060 + 8-10% su 480.
Assumiamo il fatto che 970 OC<1060<=980.
Diciamo pure che chi ha attualmente una 970 a salire, oppure una 290 a salire sia la 1060 che la 480 sono uno spreco di € (spero che si sia capito il motivo, senza stare li a scrivere ma vendo la mia e con pochi € di diff ho una scheda migliore, perchè quei pochi € li spenderebbe chi acquisterebbe l'usato), la mia domanda è:
Ma nei giochi recenti (considerando che una mid dura di più nel case di chi l'acquista rispetto una top) queste nuove vga sono buone?
Tra un anno, un anno e mezzo saranno ancora in grado di far girare i nuovi giochi in modo dignitoso?
Perchè io, ma credo la maggiorparte di chi acquista in questa fascia di mercato, tiene a considerare l'esborso anche come investimento da ammortizzare nei prossimi 2-3 anni, e non per aggiornare tra un anno.
Sicuramente in modo più che dignitoso.Alla fine non sono le schede in se che si "deteriorano" ma piuttosto le sh che sfornano videogiochi mal ottimizzati e con inutili features ammazza frame che poi vanno a vantaggio dei produttori di schede video, i quali ti posso vendere le loro nuove produzioni che vanno come le vecchie ma sono più supportate
La drammatica conclusione è questa, hanno sostituito le vecchie schede con delle nuove schede che vanno uguali e costano uguale a quelle vecchie
Un anno e mezzo fa una 970 costava 350 sacchi, cosa compro con quella cifra oggi ?
Con i prezzi attuali una rx 480 8GB o una 1060 custom(qualche decina in più).
Schede che vanno meglio della 980 in molti test.
La 1070 va come due 970, direi che a 480€ potrebbe valere la pena.
C'era la G1 della GB a 480 euro, due giorni fa, fosse stata la Gaming msi l'avrei presa al volo.
io vedo e continuo a vedere la 480 al di sopra....poi booo
Ah ricordate...
HAI PROBLEMI LA 1060 XKE SI E' FATTA VECCHIA? DEVI CAMBIARLA STOP!
LA 480 SI E' FATTA VECCHIOTTA? OK NO PROBLEM PRENDI UNA USATA O IN QUEL TEMPO SARA' SICURAMENTE SCESA A MOOLTO DI MENO E FAI IL CROSSFIRE ^_^
Marko#88
20-07-2016, 12:34
La drammatica conclusione è questa, hanno sostituito le vecchie schede con delle nuove schede che vanno uguali e costano uguale a quelle vecchie
Un anno e mezzo fa una 970 costava 350 sacchi, cosa compro con quella cifra oggi ?
È il prezzo da pagare quando l'azienda leader di un settore non ha concorrenza.
Se AMD avesse risposto seriamente ad Nvidia in questi anni, ora non avremmo processori Intel e schede video Nvidia che costano sempre di più e hanno performance valide solo in termini assoluti.
Piedone1113
20-07-2016, 12:38
È il prezzo da pagare quando l'azienda leader di un settore non ha concorrenza.
Se AMD avesse risposto seriamente ad Nvidia in questi anni, ora non avremmo processori Intel e schede video Nvidia che costano sempre di più e hanno performance valide solo in termini assoluti.
E' vero in parte, l'altra parte è che ci sono persone che anche quando Amd era preferibile ad Intel-Nvidia non l'ha acquistata, quindi a chi gioverebbe una miglior concorrenza da parte di AMD se non ai soliti che sperano di acquistare a prezzo più basso la propria amata marca a prescindere del valore della controparte (ps questa cosa sarebbe vera anche a parte invertite, semplicemente è il ragionamento sociale delle masse).
io vedo e continuo a vedere la 480 al di sopra....poi booo
Ah ricordate...
HAI PROBLEMI LA 1060 XKE SI E' FATTA VECCHIA? DEVI CAMBIARLA STOP!
LA 480 SI E' FATTA VECCHIOTTA? OK NO PROBLEM PRENDI UNA USATA O IN QUEL TEMPO SARA' SICURAMENTE SCESA A MOOLTO DI MENO E FAI IL CROSSFIRE ^_^
Qualcuno lo SLI/Crossfire non lo prende in considerazione per vari motivi. Aggiungo che per chi ha un dual boot con Linux la scelta é quasi obbligata.
Comunque non serve urlare.
tuttodigitale
20-07-2016, 12:57
È il prezzo da pagare quando l'azienda leader di un settore non ha concorrenza.
Se AMD avesse risposto seriamente ad Nvidia in questi anni, ora non avremmo processori Intel e schede video Nvidia che costano sempre di più e hanno performance valide solo in termini assoluti.
Mi dispiace ma io questa mancanza di concorrenza non l'ho proprio vista...
Dal 2008 salvo rare eccezioni le carte AMD hanno le migliori prestazioni su prezzo fino a 350 euro.... E fino all'introduzione di Maxwell era li li anche nelle prestazioni per watt (Hawaii è un gioiellino se pensi alla potenza in DP e ai pochi mmq a disposizione).
Secondo me è mancato un prodotto di punta.....AMD avrebbe dovuto presentate un chippone in epoca VLIW.....quindi è più un problema di immagine che non di prodotti, che si sono dimostrati a distanza di anni ben più longevi.
tuttodigitale
20-07-2016, 13:10
Sicuramente in modo più che dignitoso.Alla fine non sono le schede in se che si "deteriorano" ma piuttosto le sh che sfornano videogiochi mal ottimizzati e con inutili features ammazza frame che poi vanno a vantaggio dei produttori di schede video, i quali ti posso vendere le loro nuove produzioni che vanno come le vecchie ma sono più supportate
C'è da dire che nel bene e nel male AMD un minimo di supporto per le architetture GCN1.1 dovrà darlo finché ci saranno ancora nuove produzioni sulla PS4 e Xbox one...
E il boost prestazionale, in ceri casi spaventoso (60% di FPS in più) è dovuto ad un architettura progettata per gestire un carico molto più pesante..
La drammatica conclusione è questa, hanno sostituito le vecchie schede con delle nuove schede che vanno uguali e costano uguale a quelle vecchie
Un anno e mezzo fa una 970 costava 350 sacchi, cosa compro con quella cifra oggi ?
Semplice prendi una 1060 che costa = o qualcosa in piu' e va meno. altrimenti prendi una 1070, spendi tanto di piu' per avere qualche cosa in piu' ma parliamo di roba da ridere tutta minestra riscaldata purtroppo :stordita: ma per chi ci casca e' un'affare di miliardi di dollari. ;)
Marko#88
20-07-2016, 13:49
E' vero in parte, l'altra parte è che ci sono persone che anche quando Amd era preferibile ad Intel-Nvidia non l'ha acquistata, quindi a chi gioverebbe una miglior concorrenza da parte di AMD se non ai soliti che sperano di acquistare a prezzo più basso la propria amata marca a prescindere del valore della controparte (ps questa cosa sarebbe vera anche a parte invertite, semplicemente è il ragionamento sociale delle masse).
Mi dispiace ma io questa mancanza di concorrenza non l'ho proprio vista...
Dal 2008 salvo rare eccezioni le carte AMD hanno le migliori prestazioni su prezzo fino a 350 euro.... E fino all'introduzione di Maxwell era li li anche nelle prestazioni per watt (Hawaii è un gioiellino se pensi alla potenza in DP e ai pochi mmq a disposizione).
Secondo me è mancato un prodotto di punta.....AMD avrebbe dovuto presentate un chippone in epoca VLIW.....quindi è più un problema di immagine che non di prodotti, che si sono dimostrati a distanza di anni ben più longevi.
Quindi se tutti i giocatori si sono lanciati su Nvidia è perchè sono tutti stupidi con le tasche piene di soldi da buttare? Oppure per un motivo o per l'altro la concorrenza non era appetibile? Vi ricordo che le vendite si fanno con l'oggetto tecnologico in sè ma anche con la fidelizzazione del cliente e con il marketing... AMD lancia le solite slide in cui cpu e vga dovrebbero andare x, poi escono e vanno x/2. I clienti con che fiducia comprano?
Mettici anche che sia nelle cpu che nelle vga il rapporto fra consumi e prestazioni è sempre stato a favore di Nvidia/Intel negli ultimi anni.
E il mio discorso è da possessore di nvidia certo, ma non per lealtà o cose strane... anzi, mi scoccia perchè è proprio la mancanza di concorrenza SERIA che ha portato Nvidia a dare un +tot % ai prezzi. E Intel a sedersi sugli allori.
Bah, va praticamente come la 970, che attualmente si trova nuova a qualcosina meno, o usata a molto meno, e si può anche mettere in SLI...
Per ora sta 1060 non ha alcun senso di esistere.
Spero che nVidia ci dia un taglo con sti prezzi perchè sta davvero esagerando, spero proprio che i rossi tirino fuori qualcosa di "serio" che gli faccia dare una regolata!
Pare invece che non sia così, anzi ho letto qualche apprezzamento per il lavoro svolto su linux da amd con le 480.
Non ho provato in prima persona (infatti ho scritto pare :D ) bisognerebbe interessarsi un po'.
Concordo con chi dice di lasciar perdere l'abbinamento grafica AMD e Linux :O
Paolo Corsini
20-07-2016, 14:07
....
La rx480 al contrario sembra essere strozzata anche a "freddo" dall'assorbimento....
http://www.hwupgrade.it/articoli/skvideo/4679/radeon-rx-480-amd-ridefinisce-le-schede-video-mainstream_4.html
Come puoi vedere la rx480 va in throttling anche a 60 ° gradi centigradi..
Una precisazione, dato che stai interpretando quel grafico in modo errato.
Quei dati sono generati in questo modo
1) parte la rilevazione con GPU-Z del log della temperatura
2) faccio partire il benchmark, che impiega alcuni secondi prima di partire
3) il test parte, e la GPU inizia a lavorare full time e la temperatura lentamente a salire.
Quegli spike che vedi nei primi 20 secondi della rilevazione sono legati allo start del benchmark, non a una operazione di throttling. Il clock viene tagliato in throttling perchè la temperatura è troppo elevata, non perchè si è a 60°: di conseguenza quel calo della frequenza (che dura 1 secondo) non è legato al throttling. Stai semplicemente vedendo una gestione del sistema di hardware monitoring della scheda AMD che interviene appena può a ridurre i consumi in quanto il carico 3D di quello specifico istante era nullo in quanto era in caricamento il test.
Ergo, le tue considerazioni sull'alimentazione di Polaris 10 fatte a partire da quel grafico sono assolutamente errate. Spero di essermi spiegato in modo chiaro.
CarmackDocet
20-07-2016, 14:12
@Vulkan e dintorni
A quanto mi risulta sono molto CPU Core dependent... cioè i boost maggiori si hanno con CPU oltre i 4 Core.
A tal proposito consiglio di andarsi a leggere i commenti di un certo "Giulio" sul sito del martello nell'articolo dedicato proprio alle Vulkan su Doom di qualche giorno fa, dove anche con le nVidia ha ottenuto un aumento di 40 FPS medi a 1920x1080 con una CPU 6 core, usando il programma "Core UNpark" per sbloccare tutti i processori in idle (non sapevo nemmeno esistesse questa possibilità)
@Paolo Corsini
Quando farai il test con le Vulkan sarebbe bello vedere come scala tra 2-4-6 Core abilitando tale feature.
@Paolo Corsini
Grid Autosport 1920x1080
La 1060 avanti alla 1070?
Siamo sicuri?
L'unica motivazione che mi viene in mente è il più favorevole rapporto ROP/TMU, che fa lavorare meglio tutta l'architettura, che in determinati scenari di utilizzo fa la differenza.
Anche le Ti e le TITAN hanno un rapporto ROP/TMU più favorevole (oltre che più Cuda Core, ovvio).
La 980 avanti alla 980Ti?
Questa non me la spiego proprio.
@Paolo Corsini
Come hai settato i Driver AMD? Hai abilitato o no il flag per risolvere quel bug sull'alimentazione che fa perdere il 3% di prestazioni?
Comunque Bravo e Grazie per la partecipazione alla discussione! ;)
Piedone1113
20-07-2016, 14:40
Edit altrimenti si parte per la tangente.
CarmackDocet
20-07-2016, 15:14
sorry!
tuttodigitale
20-07-2016, 15:33
Una precisazione, dato che stai interpretando quel grafico in modo errato.
Quei dati sono generati in questo modo
1) parte la rilevazione con GPU-Z del log della temperatura
2) faccio partire il benchmark, che impiega alcuni secondi prima di partire
3) il test parte, e la GPU inizia a lavorare full time e la temperatura lentamente a salire.
Quegli spike che vedi nei primi 20 secondi della rilevazione sono legati allo start del benchmark, non a una operazione di throttling. Il clock viene tagliato in throttling perchè la temperatura è troppo elevata, non perchè si è a 60°: di conseguenza quel calo della frequenza (che dura 1 secondo) non è legato al throttling. Stai semplicemente vedendo una gestione del sistema di hardware monitoring della scheda AMD che interviene appena può a ridurre i consumi in quanto il carico 3D di quello specifico istante era nullo in quanto era in caricamento il test.
Ergo, le tue considerazioni sull'alimentazione di Polaris 10 fatte a partire da quel grafico sono assolutamente errate. Spero di essermi spiegato in modo chiaro.
Mi fa piacere dibattere civilmente.
Credo di essere stato poco chiaro
Prima ancora di raggiungere la temperatura target (82°gradi) abbiamo delle piccole oscillazioni della frequenza, che viene di fatto tagliata anche con la GPU "fredda".Se facciamo attenzione (sono poche decine di MHz) la rx480 non raggiunge in maniera costante i 1266MHz neppure all'inizio del loop...questo mi fa pensare che la strozzatura sia dovuta per limiti energetici e non di temperatura
CarmackDocet
20-07-2016, 15:47
Mi fa piacere dibattere civilmente.
concordo
tuttodigitale
20-07-2016, 16:07
concordo
Visto che siamo in vena di critiche:D , chiedo a Corsini se è possibile fare un intero articolo su come cambiano le prestazioni di diverse GPU in base alla qualità del raffreddamento (non più di 2 test a scheda e un paio di case, e lo stesso case uno con un sistema di raffreddamento povero) e un altro in base alla CPU..(una scheda nVidia e una AMD). Magari gia erano in programma.
Non mi pare una cattiva idea.
Piedone1113
20-07-2016, 16:44
Visto che siamo in vena di critiche:D , chiedo a Corsini se è possibile fare un intero articolo su come cambiano le prestazioni di diverse GPU in base alla qualità del raffreddamento (non più di 2 test a scheda e un paio di case, e lo stesso case uno con un sistema di raffreddamento povero) e un altro in base alla CPU..(una scheda nVidia e una AMD). Magari gia erano in programma.
Non mi pare una cattiva idea.
Quello che mi piacerebbe invece vedere sono test per classe di appartenenza:
Tipo le vga top di gamma su cpu HE (1080 e 1070), medio alta e media su cpu mainstream (i7-i5 1150 con 1060 e 480 pe) e fascia media su fascia media (i5 i3 con 470 a scendere e 1050).
Credo che rispecchierebbero di più l'uso reale medio del sistema in fondo chi ha un i5 o un i3 non si ritroverà mai con le prestazioni sviluppate nei test
Paolo Corsini
20-07-2016, 17:28
Come hai settato i Driver AMD? Hai abilitato o no il flag per risolvere quel bug sull'alimentazione che fa perdere il 3% di prestazioni?
No, è stato disabilitato (quindi massime prestazioni)
Paolo Corsini
20-07-2016, 17:29
...questo mi fa pensare che la strozzatura sia dovuta per limiti energetici e non di temperatura
Se così fosse avresti avuto dei throttle della frequenza di clock più avanti nel corso del test, al crescere della temperatura. Ma così non è, e questo è spiegato da quanto ho indicato sopra.
CarmackDocet:
ho cercato di spiegare a Giulio del perche' di questo immane guadagno, e credo che effettivamente i suoi dati siano piu' che veritieri, ma le circostanze derivano appunto dal set del PC utilizzato (un i7-4930K).
comunque si... sarebbe interessante verificare diversi giochi in tal senso (non ultimo Tomb rider, cosi' convinciamo Paolo ad eliminarlo dalle DX12, visto che non lo e', ai fini pratici).
per quanto riguarda il throttling dovuto all'alimentazione che accenna tuttodigitale, il dubbio era venuto anche a me, ma non sui grafici prodotti da Paolo;
piu' che altro si nota una differenza, lieve, sulla 480 a causa del'uso del Vcore cosi' elevato.
si, in effetti sembra che alcune schede vadano di piu' e meglio con vcore piu' basso... in rete ci sono diversi esempi.
non e' un mistero che AMD e' stata di manica ben piu' che larga nel settare l'alimentazione di quel chip, e c'e' da credere che alcune schede possano tranquillamente funzionare a vcore piu' vicini ai 14nm che ai 28nm.
l'asorbimento alla potenza massima e' elevato, e lo confermano i 150W di TDP, anche ampiamente superati (soprattutto dopo la "cura" anti panico del PCIe, che, se non si fosse notato, ha portato ad un inalzamento di almeno 4 o 5W sulla scheda a pari condizioni operative).
questo induce a pensare che si raggiunga presto la soglia di massima disponibilita' della potenza energetica.
ma... non cambia i risultati:
1) queste schede sono indentiche per prestazioni.
2) queste schede non se le compra nessuno, perche' prenderanno tutti una custom, che avra' altri limiti e tenori.
zerothehero
20-07-2016, 20:00
certo che ci vuole coraggio per una media spendere 360 euro...
cioe', pure una reference 1070 FE a 420 era meglio... 60 euro in piu', ma l'asfaltava in clock base.
ma te rendi conto? o no?
a 420 trovi le 980Ti AMP! si avvicinano alla 1080 FE...
frega cavoli che va' piano in DX12, come minimo va'!
le fregole dei ragazzini, avete sulle mani, senza dare un senso pratico alle cose...
mha!
A ogni modo con la grafica pc in totale stagnazione, chi ha le 970/980 con il classico full hd starà anni a non upgradare scheda grafica.
zerothehero
20-07-2016, 20:19
La drammatica conclusione è questa, hanno sostituito le vecchie schede con delle nuove schede che vanno uguali e costano uguale a quelle vecchie
Un anno e mezzo fa una 970 costava 350 sacchi, cosa compro con quella cifra oggi ?
Con la grafica stagnante degli attuali giochi?
Ci si tiene stretti le 970-980 di turno.
tuttodigitale
20-07-2016, 21:04
Se così fosse avresti avuto dei throttle della frequenza di clock più avanti nel corso del test, al crescere della temperatura. Ma così non è, e questo è spiegato da quanto ho indicato sopra.
E perché mai? La scheda potrebbe abbassare il clock anche solo per non superare un certo assorbimento
La strozzatura c'è. Nel grafico si vede che la rx480 non raggiunge lcostantemente a sua frequenza turbo di 1266, neppure a freddo (ergo le prestazioni non sono limitate dalla temperatura). Mi pare che nella review della rx480 presente in questo sito, aumentando il power limite la rx480 va più veloce anche con un clock massimo di 1266MHz (stock)...
Viridian
20-07-2016, 21:54
:muro: come previsto molti non leggono l'articolo ma guardano solo le figure
togliendo grid dal paniere dei test la 1060 va un 8% meglio della 480 a 1080p,e un misero 4% se a 1440p
e non e' l'unica anomalia nei test...
senza considerare che paragonare una custom firmata nvidia fatta per apposta per redazioni e collezionisti a una misera reference:rolleyes:
praticamente quando usciranno le custom 480,la media probabilmente si ribaltera' a favore della radeon
l'unica nota sicuramente a favore della 1060 sono i consumi
e allora, è comunque più veloce!
e in altri siti il divario rilevato è anche maggiore,vedi qui
http://techreport.com/review/30404/a-quick-look-at-nvidia-geforce-gtx-1060-graphics-card
niente, ma proprio niente fa presupporre che la situazione si possa pareggiare, men che meno ribaltare :rolleyes:
detto questo, se la rx480 costerà abbastanza meno, sarà comunque una buona scheda con il suo posizionamento sul mercato
tuttodigitale
20-07-2016, 22:20
e allora, è comunque più veloce!
e in altri siti il divario rilevato è anche maggiore,vedi qui
http://techreport.com/review/30404/a-quick-look-at-nvidia-geforce-gtx-1060-graphics-card
niente, ma proprio niente fa presupporre che la situazione si possa pareggiare, men che meno ribaltare :rolleyes:
detto questo, se la rx480 costerà abbastanza meno, sarà comunque una buona scheda con il suo posizionamento sul mercato
In altri ludi (hardocp) la gtx1060 prende sberle dalla 980 ...e in definitiva si esalta le capacità della rx480 in giochi dx12/Vulkan che sfruttano la maggior potenza offerta dalleALU della creatura diAMD..
Che in altre review i recensori siano andati sul sottile sui filtri?
Quelli sono test interni di nVidia......techreport NON ha ricevuto la scheda...così come anandtech...
Se oltre ad a togliere grid si sostituisce il test di Doom dx11 con Doom Vulkan la differenza diventa del 1%..e - 3% a 1080/1440p...Francamente il test in dx11 non ha motivo di esistere visto che le librerie Vulkan sono disponibili anche per Win7 (ma Corsini ha già spiegato che deve trovare il modo per testare le schede con doom con le librerie Vulkan)
In altri ludi (hardocp) la gtx1060 prende sberle dalla 980 ...e in definitiva si esalta le capacità della rx480 in giochi dx12/Vulkan che sfruttano la maggior potenza offerta dalleALU della creatura diAMD..
Che in altre review i recensori siano andati sul sottile sui filtri?
Quelli sono test interni di nVidia......techreport NON ha ricevuto la scheda...così come anandtech...
Se oltre ad a togliere grid si sostituisce il test di Doom dx11 con Doom Vulkan la differenza diventa del 1%..e - 3% a 1080/1440p...Francamente il test in dx11 non ha motivo di esistere visto che le librerie Vulkan sono disponibili anche per Win7 (ma Corsini ha già spiegato che deve trovare il modo per testare le schede con doom con le librerie Vulkan)Addirittura AnandTech? Rischiano il boomerang. :fagiano:
Forse non volevano seguire alla lettera questa guida:
http://videocardz.com/62138/nvidia-geforce-gtx-1060-reviewers-guide-leaked
Le guide le inviano tutti, visto che mettono a disposizione un prodotto gratuitamente.
qui tra "scarsa offerta" e mancanza di alternative la 1080 te la mettono minimo a 860+32 di spedizione... imbarazzante.
Poi 1000-1300... 3500...:fagiano:
Mi state dicendo che i risultati che trovo sulla 1060 nei bench anandtech
sono?
https://i.imgur.com/3eeILOW.png
...l'hanno prossimo. ?
:asd: :asd:
Non so, a questo punto forse propenderei per la RX 480, capirai quell'8% di incremento prestazionale...
@ tuttodigitale:
la recensione di hardocp l'ho letta anch'io e mi è parso PALESE che hanno fatto di tutto per far ben figurare la RX480.
Solo il fatto che il primo bench sia DOOM su API Vulkan e che 3 bench su 5 siano in DX12 la dice lunga.
Con questo non voglio dire che sia sbagliato testare giochi DX12, anzi quello sarà il futuro, ma il presente è fatto da millemila giochi DX11 (anche in sviluppo), 5 giochi DX12 e 1 Vulkan.
Paolo Corsini
21-07-2016, 08:03
E perché mai? La scheda potrebbe abbassare il clock anche solo per non superare un certo assorbimento
E domandati perché, allora, alla luce del mio grafico abbasserebbe il clock per un picco di assorbimento all'inizio di un test per non replicare mail quel comportamento in seguito quando la temperatura complessiva di GPU e circuiteria di alimentazione aumenta.
Onestamente, basta con l'insistere: hai preso un grafico volendone interpretare i dati in modo errato. Credo di averti spiegato per quale motivo la tua teoria non aveva basi su quei dati, ma ti ostini sulla tua posizione.
La strozzatura c'è. Nel grafico si vede che la rx480 non raggiunge lcostantemente a sua frequenza turbo di 1266, neppure a freddo (ergo le prestazioni non sono limitate dalla temperatura). Mi pare che nella review della rx480 presente in questo sito, aumentando il power limite la rx480 va più veloce anche con un clock massimo di 1266MHz (stock)...
Anche qui, un po' di confusione. Radeon RX 480 ha una frequenza di clock predefinita e una massima che può (non deve, può) venir raggiunta. In genere la frequenza di clock effettiva tende ad essere vicino o pari a quella massima, non oltre. AMD non indica da nessuna parte che la GPU deve operare sempre a quella frequenza di clock.
NVIDIA invece indica con il dato di boost clock quella che è presumibilmente la frequenza di clock minima che la GPU mantiene in condizioni di funzionamento ordinario. In effetti poi quello che si verifica è che nella maggior parte dei casi le schede NVIDIA riescono a mantenersi su frequenze di clock che sono superiori a quella di boost clock durante l'esecuzione di un test 3D.
Paolo Corsini
21-07-2016, 08:06
....
Quelli sono test interni di nVidia......techreport NON ha ricevuto la scheda...così come anandtech...
Techreport non ha ricevuto una scheda, e se vuoi una spiegazione a questo IMHO è molto semplice. Techreport è ancora di proprietà di Scott Wasson, ex ecitor in chief che da Dicembre 2015 lavora nel reparto PR di AMD. Scott non ha più nulla a che fare ufficialmente con il team editoriale di Techreport, ma mantiene la proprietà della struttura ed è lui, formalmente, che paga gli stipendi a chi ora scrive in Techreport.
Se vuoi il mio parere, io una scheda l'avrei mandata comunque alle persone di Techreport in quanto molto brave ma capisco chi, nel reparto PR, possa aver scelto diversamente valutando questa connessione per quanto sula carta non così diretta tra TechReport e PR di AMD.
Anandtech ha ricevuto una scheda, semplicemente sono indietro con i test e non hanno pubblicato ancora.
Anche qui, un po' di confusione. Radeon RX 480 ha una frequenza di clock predefinita e una massima che può (non deve, può) venir raggiunta. In genere la frequenza di clock effettiva tende ad essere vicino o pari a quella massima, non oltre. AMD non indica da nessuna parte che la GPU deve operare sempre a quella frequenza di clock.
NVIDIA invece indica con il dato di boost clock quella che è presumibilmente la frequenza di clock minima che la GPU mantiene in condizioni di funzionamento ordinario. In effetti poi quello che si verifica è che nella maggior parte dei casi le schede NVIDIA riescono a mantenersi su frequenze di clock che sono superiori a quella di boost clock durante l'esecuzione di un test 3D.
Su Hardware.fr è stato effettuato un test con la RX480 a frequenze stock ma alzando il Power Limiter dai driver al +50%, cosa che permette alla scheda di non andare mai in power throttling, ed è stato notato un incremento medio del framerate del 4.5% a seconda del gioco (in alcuni l'incremento è marginale, in altri supera il 9%). Questo non vuol dire che la scheda a default è di fatto strozzata dal punto di vista dell assorbimento, almeno per quello che riguarda le reference?
http://www.hardware.fr/articles/951-30/overclocking-quelle-marge-rx-480.html
Intanto....
http://imgur.com/a/sw5u3
Beh
Credo che sia evidente che mai come in questo momento siano assolutamente da preferirsi le versioni personalizzate delle schede piuttosto che le versioni reference ( o fregatura ediscion )
Rinnovo la mia richiesta a Corsini per una comparativa sulla qualità di immagine che le 2 schede (RX480 e GTX1060) forniscono a seconda dei filtri attivati.
Perché va bene la conta degli fps, ma se poi uno dei contendenti prende delle scorciatoie...
Effettivamente sono successe cose del genere, per esempio in AoS ricordo che la 1080 dava immagini diverse perchè non applicava alcuni shaders.
Succede anche con la 1060?
Fixato prima dell'uscita della 1070, non vedo perché debbano dare il fianco ad altre polemiche.
tuttodigitale
21-07-2016, 11:01
E domandati perché, allora, alla luce del mio grafico abbasserebbe il clock per un picco di assorbimento all'inizio di un test per non replicare mail quel comportamento in seguito quando la temperatura complessiva di GPU e circuiteria di alimentazione aumenta.
C'è un equivoco.....
Mi riferisco al fatto che la rx480 NON operi a 1266MHz costanti...e mi riferisco precisamente nell'intervallo 40-80, dove la rx480 con la risoluzione offerta dal grafico non raggiunge mai i 1266MHz, ma al massimo 1230MHz.
Per levarsi il dubbio..basta fare una prova con ventola al 100%..se non opera a 1266MHz costanti...la frequenza è limitata da altro.
Stessa prova con le nVidia, in questo caso imho vedremo frequenze leggermente più alte. (Il meccanismo usato da nVidia è molto sofisticato....la frequenza operatura cambia in base alla temperatura di esercizio
http://images.anandtech.com/doci/10325/TempComp.png?_ga=1.182968612.342496481.1469096742
tuttodigitale
21-07-2016, 11:16
Fixato prima dell'uscita della 1070, non vedo perché debbano dare il fianco ad altre polemiche.
La notizia del fix mi era sfuggita...in pratica nVidia avrebbe impiegato meno di 10 giorni dalla "denuncia" di AMD
Zappa1981
21-07-2016, 12:14
A ogni modo con la grafica pc in totale stagnazione, chi ha le 970/980 con il classico full hd starà anni a non upgradare scheda grafica.
come quelli come me che hanno una 290 reference moddata a trixx... con dissipatore artic. Non ho trovato problemi con nessun gioco fin ora
E domandati perché, allora, alla luce del mio grafico abbasserebbe il clock per un picco di assorbimento all'inizio di un test per non replicare mail quel comportamento in seguito quando la temperatura complessiva di GPU e circuiteria di alimentazione aumenta.
Onestamente, basta con l'insistere: hai preso un grafico volendone interpretare i dati in modo errato. Credo di averti spiegato per quale motivo la tua teoria non aveva basi su quei dati, ma ti ostini sulla tua posizione.
una possibile risposta e' che non si alza mai frequenza e vcore insieme, perche' l'intervento che si fa' sulla frequenza e' praticamente immediato, e di ordini di grandezza rispetto all'effettivo intervento dell'inalzamento del vcore.
sai che frequenza e voltaggio sono legati da una stretta relazione, ma, quando intervieni sui cambiamenti, soprattutto molto radicali, il fattore tempo diventa molto importate: il tempo che intercorre tra' gestire ed avere l'effetto.
se cerco la frequenza limite di un processore io mi preoccupo prima di alzare il vcore in modo adeguato, e poi, secondariamente, di alzare la frequenza.
farlo insieme di solito produce un blocco.
allo stesso modo puoi intervenire aumentando considerevolmente il Vcore rispetto a quello che ti serve, poi la frequenza e poi riportando il vcore a livvelli ottimali... dipende dal salto di frequenza che devi fare.
se si osservano grafici dettagliati del vcore in relazione al variare della frequenza si puo' notare che inizialmente questo e' sempre leggermente piu' alto del necessario, andandosi poi a stabilizzare pochi istanti dopo.
e' una normale gestione di queste funzioni.
se c'e' pero' un limite di assorbimento, questo potrebbe incidere sulla dinamica.
con il vcore per la frequenza puoi ottenere l'assorbimento; se ho limiti di assorbimento e sono costretto ad aumentare momentaneamente il vcore per fare un gran salto di frequenza, dovro' per forza limitare la frequenza, e poi, dopo il primo salto, andare ad eseguire una regolazione di fino; quindi mi ci vuole piu' tempo per avvicinarmi al limite.
e questo se conosco perfettamente il comportamento del chip che ho;
se e' un chip generico mi dovrei attenere alla dinamica del peggior chip che ho prodotto, per evitare che questo possa fallire, anche se un buon chip non avrebbe problemi con dinamiche piu' agressive.
insomma...
basta ragionare un po' ed una spiegazione logica e razionale si trova.
La notizia del fix mi era sfuggita...in pratica nVidia avrebbe impiegato meno di 10 giorni dalla "denuncia" di AMD
Si, cercando su internet avevo trovato questa informazione.
Al momento non avendo le 1xxx ne AoS, non posso dirvelo di persona.
Le guide le inviano tutti, visto che mettono a disposizione un prodotto gratuitamente.Con tanto di versioni di driver dell'altra...?
Visto che sei così sicuro: Perché non mi dai il link di qualcosa di ATI?
Diversamente, siamo alle solite... Quando qualcosa non "quadra", parte una delle prime regole del sofismo: Lo fanno tutti. :O
monster.fx
21-07-2016, 22:18
come quelli come me che hanno una 290 reference moddata a trixx... con dissipatore artic. Non ho trovato problemi con nessun gioco fin ora
Infatti continuo a dire sempre la stessa cosa.
Queste VGA non portano nulla di nuovo se nn forza bruta.DX10 e DX11 era altra storia.
Dal link postato da Bivozz :http://imgur.com/a/sw5u3
Il quadro è questo. Chi ha una R9 o GTX980 X ora non ha grossi motivi di upgrade. Passeranno almeno 2 anni.
uscito il test della STRIX480, un po' deludente. Quella scheda è già tirata per il collo.
Con tanto di versioni di driver dell'altra...?
Visto che sei così sicuro: Perché non mi dai il link di qualcosa di ATI?
Diversamente, siamo alle solite... Quando qualcosa non "quadra", parte una delle prime regole del sofismo: Lo fanno tutti. :O
Davvero pensi che un produttore non invii una guida, volendo generica, su come si recensisce un prodotto o su qualcosa da dire?
Caspita nvidia è veramente all'avanguardia, innova anche su questo.
ps. siamo alle solite, non si ha nemmeno 0,42 secondi per fare una ricerchina su google.:D
Davvero pensi che un produttore non invii una guida, volendo generica, su come si recensisce un prodotto o su qualcosa da dire?
Caspita nvidia è veramente all'avanguardia, innova anche su questo.
ps. siamo alle solite, non si ha nemmeno 0,42 secondi per fare una ricerchina su google.:D
Me la invii una cosa paragonabile a quella che ho linkato io, o continui a spostare l'aria?
Una brutta guida, se ancora non ci fossi arrivato. :rolleyes:
Me la invii una cosa paragonabile a quella che ho linkato io, o continui a spostare l'aria?
Una brutta guida, se ancora non ci fossi arrivato. :rolleyes:
Sindrome della pappa pronta? Masticalo l'inglese.
Dimmi caro, cos'ha di tanto scandaloso quella guida?
Io l'ho letta e non mi pare niente di che.
In fondo specificano il sistema utilizzato da loro per eseguire quei bench allegati.
La lista dei giochi è raccomandata, poi come saprai ogni sito ha i suoi giochi.
Parlano dell'architettura, come si misurano i db, le features.
Paro paro a quello che fa amd.
Nello stesso sito dovresti trovare la reviewer's guide della furyX, però non è un pdf e non ha tutte le pagine.
Vedrai che salta fuori il solito GOMBLODDO e l'UE farà una megamulta ad nvidia... fanboy ovunque:help:
Paro paro a quello che fa amd.
Nello stesso sito dovresti trovare la reviewer's guide della furyX, però non è un pdf e non ha tutte le pagine.
Vedrai che salta fuori il solito GOMBLODDO e l'UE farà una megamulta ad nvidia... fanboy ovunque:help:Chissà perché, quella Nvidia viene definita Leaked. :)
Io l'ho letta e non mi pare niente di che.
In fondo specificano il sistema utilizzato da loro per eseguire quei bench allegati.
La lista dei giochi è raccomandata, poi come saprai ogni sito ha i suoi giochi.
Parlano dell'architettura, come si misurano i db, le features.
Paro paro a quello che fa amd.Sì, Sì, qualche consiglio, un "racconto" di come la fanno loro...
Comunque, se non vedi differenze, che te lo dico a fare... ;)
Sindrome delle differenze nascoste?
Ah, vedi Tom's: Avranno pensato, per non sbagliare, facciamola para para, driver compresi.
1)http://www.eteknix.com/radeon-r9-fury-x-reviewers-guide-leaked
2)Continui a non leggere la guida, spiega come si fa una recensione, punto.
Specificano che sarebbe meglio fare il test di rumore/temperatura prima di smontare la scheda.
Per una maggiore accuratezza evitare i banchetti da test. Non sono vietati.
Questi sono i punti dove la guida insiste.
"After our discoveries in that card’s launch story and AMD’s subsequent corrective driver, it became imperative to re-test with Radeon Software Crimson Edition 16.7.2."
Neanche leggi tom's... maledetto inglese :doh:
1)http://www.eteknix.com/radeon-r9-fury-x-reviewers-guide-leaked
2)Continui a non leggere la guida, spiega come si fa una recensione, punto.
Specificano che sarebbe meglio fare il test di rumore/temperatura prima di smontare la scheda.
Per una maggiore accuratezza evitare i banchetti da test. Non sono vietati.
Questi sono i punti dove la guida insiste.
"After our discoveries in that card’s launch story and AMD’s subsequent corrective driver, it became imperative to re-test with Radeon Software Crimson Edition 16.7.2."
Neanche leggi tom's... maledetto inglese :doh:
Le differenze indicative mi sembrano notevoli. Per il resto, forse non hai capito che la guida Ati l'avevo già vista, ma non ha fatto lo stesso scalpore...
Per i driver, credo abbiano aggiornato successivamente. (meglio così)
Daltronde, verso dove pende Tom's credo sia chiaro a tutti.
L'interesse lecito lo capisco, eh. :)
Mico ho detto che il vademecum Nvidia fosse assoluto e/o dittatoriale.
Dico che è più ambiguo di quello AMD. Le voci sulle schede negate... mi avevano fatto indispettire. Ora che è stato chiarito che ad Anandtech gli è stata mandata (sarebbe stato assurdo...) e che Techreport è tendenzialmente di parte... A riguardo, ricordo che anche AMD negò la scheda a "qualcuno".
Continuo a ritenere Nvidia più ambigua; Ma non nego che la posizione dominante porti a certe cose (quindi, anche AMD, a posizioni inverse, potrebbe comportarsi ugualmente).
Per il fanboy: L'hai vista la sign? Mica ce l'ho per insultare il case. :D
Mi piace avere entrambe per poter provare tutte le feature (ho un'altra piattaforma con un six-core, 32GB e una 290 Tri-X 8GB).
Quando ho sentito "lo fanno tutti" l'ho preso come un generalizzare forzato.
Comunque, scusa se sono partito in quarta, per motivi, come dire, minori. ;)
Come volessi dimostrare , schede molto simili , sarà il prezzo a decidere il best buy, l'unica cosa che potrebbe far pendere l'ago della bilancia come ho detto all'inizio é il prezzo.
.
In parte sono d'accordo con te, ma la parte di prezzo è relativa sopratutto a chi magari segue con più interesse le varie testate e/o forum, se invece prendi gli assemblati che vendono negli "store noti" , Nvidia è più markettara e il tipo medio che arriva li e dice "voglio un pc da gioco da 500 euro con cui poter giocare tutto al massimo" , il tipetto dello store gli rifila un bel carrettone con una gtx 1060 anche se costa 50 euro in + della 480 con le stesse prestazioni e magari gli rifila una cpu del 2011 ma ovviamente marcata Intel , dicendo che ha il turbo...
Il grosso del market share mondiale è quello descritto sopra, noi siamo una fetta del mercato, ma sicuramente una minoranza.
AMD oltre a ricerca e sviluppo dovrebbe anche investire di + in marketing, che non sono solo SLIDE.
In passato mi sono preso una 4970X2 e poi una 5870, ma ho conosciuto AMD e le schede tramite forum e articoli Hi tech, mai da una pubblicità ben fatta , penso che anche questo faccia poi una grossa differenza sulle vendite a livello di numeri.
monster.fx
25-07-2016, 19:29
Questa generazione di schede e' un nonsenso completo.
Assolutamente d'accordo ... ma non per le VGA ... quanto per il supporto alle DX12 che non apporta migliorie grafiche.
CrapaDiLegno
26-07-2016, 12:53
I fanboy AMD sono fantastici. Qualsiasi scusa o arrampicata sugli specchi vale pur di non accettare la verità dei fatti.
Nvidia con la 1080 si è presentata con una reference un po' sotto tono per l'alimentazione, ma di certo con una qualità costruttiva più che decente. Sono partite una serie di critiche a non finire su qualsiasi bazzecola riguardante tale scheda.
Poco dopo AMD si è presentata con una reference della 480 che a confronto la 290X era una Quadro x qualità e via di mille giustificazioni per una scheda di così infima costruzione. Ma tanto costa poco (solita conclusione per giustificare la m...a solitamente proposta).
La 480 doveva andare come è di più della 980 ma alla fine si è dimostrata poco più veloce della 970.
Fa niente, ha 8 giga e.... Costa poco. Anche se non quello che il fanboy medio credeva (200 euro).
Nvidia se ne esce con una scheda concorrente che è fatta 10 volte meglio, consuma di meno e va di più, ma no, costa troppo e in dx12 va peggio è altre amenità. Quale che siano poi questi test in dx12 validi dato che uno è un benchmark sponsorizzato AMD (AoS) e hitman è ottimizzato per AMD anche con le DX11. Ma no, sono le DX12 il futuro di AMD!
E Vulkan! Togliamo un gioco dx11 basato su un motore diffusissimo usato da eoni per fare test per mettere in classifica l'unico gioco Vulkan esistente. Ovviamente solo perché apparentemente dà vantaggi a AMD. Apparentemente perché sono curioso di capire quanto è il vantaggio dato dal numero dei core della CPU a superare l'ormai annoso overhead dei driver AMD. A me non sembra che a casa tutti voi abbiate CPU da 6 o 8 core con HT.
Invece che Grid magari Corsini avrebbe potuto usare un gioco più moderno come Project Cars... O in dx12 quella "meraviglia" di GoW giusto per vedere quanto è variegato il mondo dei videogiochi che i fanboy AMD hanno ora limitato ai soli 2 titoli dx12 che danno vantaggio alla propria casa preferita per trarre le conclusioni che più si avvicinano alle loro speranze.
È incredibile verificare come la realtà venga completamente distorta da questi poveretti che vedono complotti ovunque vi sia un fatto che vada contro AMD, anche se è palese che le cose stiano così e una persona col cervello funzionante non proverebbe nemmeno a pensare ad una scusa.
Tantomeno crearne una complicata ed ad hoc arrampicandosi sugli specchi.
Ora tutti ad aspettare le custom con schede da 200+W dai prezzi equivalenti alle reference della concorrenza ma che vanno 2 frame in più per sciogliere ulteriore frustrazione dal fatto che anche questo giro AMD è indietro. Ma costa meno. Come tutto ciò che arriva secondo ed ha qualità del peggior prodotto cinese.
Ma è AMD. Va difesa. A tutti i costi. Anche quando per ridurre il gap con la concorrenza si presenta con una scheda che va di meno, consuma di più, ed è fatta con il massimo risparmio in mente.
Allucinante. Fortuna che siete rimasti pochi. La selezione naturale ancora funziona. E per tanto ci fate divertire tantissimo.
Il pericolo di un Idiocracy è per ora lontano.
meno male che si sono persone col QI particolarmente elevato come te nei forum :asd:
bagnino89
26-07-2016, 13:44
:asd:
CrapaDiLegno
26-07-2016, 15:23
meno male che si sono persone col QI particolarmente elevato come te nei forum :asd:
Fai ironia quanto vuoi ma i post scritti precedentemente dimostrano che c'è gente che ha seri problemi. Poi se volete credete pure che non siate voi ad avere una visione distorta della realtà ma è tutto il mondo che vi è contro. A me non cambia nulla. Se non allietarmi le pause in ufficio.
W AMD, W la concorrenza che fa che vediamo tutti quanto è efficace... 200mm^2 a 300 euro... Eppure vi avevo avvisato prima che Polaris fosse presentato. Ora eccolo... Ed ecco i nuovi prezzi... GRAZIE AMD! Stai facendo un grandissimo lavoro.. Parola dei tuoi fan!
Fai ironia quanto vuoi ma i post scritti precedentemente dimostrano che c'è gente che ha seri problemi. Poi se volete credete pure che non siate voi ad avere una visione distorta della realtà ma è tutto il mondo che vi è contro. A me non cambia nulla. Se non allietarmi le pause in ufficio.
W AMD, W la concorrenza che fa che vediamo tutti quanto è efficace... 200mm^2 a 300 euro... Eppure vi avevo avvisato prima che Polaris fosse presentato. Ora eccolo... Ed ecco i nuovi prezzi... GRAZIE AMD! Stai facendo un grandissimo lavoro.. Parola dei tuoi fan!
7g
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.