PDA

View Full Version : NVIDIA GeForce GTX 1070 Founders Edition: la seconda scheda Pascal


Redazione di Hardware Upg
29-05-2016, 23:00
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/4655/nvidia-geforce-gtx-1070-founders-edition-la-seconda-scheda-pascal_index.html

Sarà in commercio dal 10 giugno la seconda scheda della famiglia di prodotti Pascal che NVIDIA propone al pubblico degli utenti appassionati e dei videogiocatori. GeForce GTX 1070 Founders Edition ripropone le caratteristiche alla base del modello GTX 1080, rinunciando al 25% circa di prestazioni per un prezzo più contenuto di oltre il 50%. Basterà per farne il best buy della stagione?

Click sul link per visualizzare l'articolo.

Pino90
29-05-2016, 23:29
Bella scheda, un mostriciattolo e consuma poco. Aspetto le proposte AMD sperando in prezzi più umani e schede in linea...

In ultimo, bella recensione: si riconosce la mano che l'ha scritta. :)

adaant
29-05-2016, 23:41
Immaginavo queste prestazioni, bene..
Aspettiamo notizie dal computex adesso!!

freniko93
30-05-2016, 00:21
Bella recensione. Finalmente oltre alle prestazioni, è chiara anche la questione dell'uscita delle schede custom oltre che alla FE.
Che dire, è perfettamente in linea con le mie aspettative e finalmente con questa scheda si potrà giocare seriamente a qualsiasi gioco a 1080p 60 fps con tutti i dettagli ad ultra. Vengo da una 970 che è una scheda stupenda ma diffidate da chi vi dice che muove qualsiasi gioco ad ultra a 60 fps, perché non è per niente vero.
La prenderò non appena esce e me la farò bastare per un bel po' di tempo.
P.S. Come mai niente grafici comparativi dopo aver effettuato l'overclock?

Therinai
30-05-2016, 01:13
Rapporto prestazioni/consumi allucinante! Ma con il prezzo non ci siamo.
Comunque rece da rivedere per errori di battitura e simili ;)

Paolo Corsini
30-05-2016, 01:25
P.S. Come mai niente grafici comparativi dopo aver effettuato l'overclock?
La scheda è arrivata all'ultimo momento utile prima di partire per l'Asia (sono a Taipei per il Computex adesso ed ero qui vicino per altro evento sulle GPU nei giorni scorsi): non sono riuscito a fare le misure che avrei voluto per l'overclock ma conto di farlo al mio rientro

Paolo Corsini
30-05-2016, 01:30
Comunque rece da rivedere per errori di battitura e simili ;)
Capita, soprattutto quando si scrive dall'altra parte del mondo e si è "under jet lag". Se mi segnali via mail quello che non ho trovato sistemo direttamente, grazie

Raven
30-05-2016, 06:44
Scheda ok.... ma il prezzo no... :fagiano:

quando uscì la 970, quello sì che fu un "istant buy":
- prestazioni paragonabili alla 780ti
- 1 gb di ram in più (vabbeh, al netto del memory-gate! :p )
- consumi diminuiti
- grande OC
- 350€

Adesso con la 1070:
- prestazioni paragonabili alla 980ti
- 2 gb di ram in più
- consumi diminuiti
- grande OC
- 520€

Ci sono circa "170 differenze"... :fagiano:

PaulGuru
30-05-2016, 07:31
Delusione !
Va troppo poco ! Mi aspettavo un +10% rispetto a quanto visto.

Comunque siamo al 30 Maggio, dove sono queste news sulle prossime AMD ?

D.A.r.k.
30-05-2016, 07:31
Non so voi ma a me risulta che la 980ti renda effettivamente qualche frame in più rispetto a quanto si vede dai grafici...

PaulGuru
30-05-2016, 07:33
Vengo da una 970 che è una scheda stupenda ma diffidate da chi vi dice che muove qualsiasi gioco ad ultra a 60 fps, perché non è per niente vero.

Io li dico da anni oramai

andry18
30-05-2016, 07:56
Ottima recensione
Il sito ha bisogno di molti cloni di Paolo Corsini per come la vedo io. Alcuni articoli sono aberranti

Tornando IT, prezzo assolutamente proibitivo, specie se confrontato (come già fatto per ovvie ragioni) a quello della 970

zorco
30-05-2016, 08:44
Ottimo upgrade della mia 970 che ancora va forte in ogni gioco;)

L'unico neo il prezzo!!

FedericoP.1992
30-05-2016, 08:48
Assolutamente nulla da dire sulle prestazioni; il prezzo invece...

Vertex
30-05-2016, 09:38
Questa 1070 praticamente è una 980 ti mascherata. Le prestazioni sono simili, il prezzo un pò inferiore ma mica poi tanto. Per ora non può essere considerata il successore della 970, visto la differenza di prezzo. Visto il successo della 970, il giochetto di nVidia mi sembra abbastanza chiaro. Traslare gli acquirenti della fascia medio-alta nella fascia alta, il tutto giustificato da un netto miglioramento delle prestazioni. Forse però hanno esagerato un tantino.
Mi sarebbe piaciuto vedere giochi DX12 nei test. Troppo facile così per le schede nVidia.

freniko93
30-05-2016, 10:01
Io li dico da anni oramai
La 1070 è la scheda definitiva per il full hd, con questa ormai stai sui 60 fissi con tutto attivo. Per il 2K invece, va bene ma da quello che ho visto nelle varie recensioni ha qualche problema a tenere i 60 in alcuni giochi. Visto che comunque io giocherò in full hd per molto tempo ancora, la 1070 è un acquisto obbligato. Magari posso anche andare in downsampling con il DSR, ma mi basta avere tutto maxato a 1080p.

freniko93
30-05-2016, 10:06
Questa 1070 praticamente è una 980 ti mascherata. Le prestazioni sono simili, il prezzo un pò inferiore ma mica poi tanto. Per ora non può essere considerata il successore della 970, visto la differenza di prezzo. Visto il successo della 970, il giochetto di nVidia mi sembra abbastanza chiaro. Traslare gli acquirenti della fascia medio-alta nella fascia alta, il tutto giustificato da un netto miglioramento delle prestazioni. Forse però hanno esagerato un tantino.
Mi sarebbe piaciuto vedere giochi DX12 nei test. Troppo facile così per le schede nVidia.

Non ci sarà un vero successore della 970. Magari fanno la 1060 ma ha prestazioni così simili alla 970, che cambiarla non ne varrà la pena. Magari va quanto la 980 o un pelino in più, ma a quel punto chi te la fa fare a spendere 350€ per una 1060 che va quanto una 970?
Potrebbero fare una 1060ti, ma dove si collocherebbe? Al massimo sui 350€ e comunque non ne varrebbe la pena per questo prezzo.

Davis5
30-05-2016, 10:26
con la 1070 a 350 euro mandano a casa molte schede video, ma se davvero escono oltre i 500 la vedo molto dura...

ci sara' un po' di cannibalismo verso gli utenti che hanno speso un botto per una 980 versione NON ti... che sta tutt'ora oltre i 500 euro...

Trestar
30-05-2016, 10:40
Scusate ma 520€ dovrebbero essere per la FE, mentre le normali dovrebbero stare ad un centone meno, quindi sui 400 euri ;)

lucusta
30-05-2016, 10:52
La scheda è arrivata all'ultimo momento utile prima di partire per l'Asia (sono a Taipei per il Computex adesso ed ero qui vicino per altro evento sulle GPU nei giorni scorsi): non sono riuscito a fare le misure che avrei voluto per l'overclock ma conto di farlo al mio rientro

Paolo, fai il piacere, testala in un burn-test per 6 round e non solo 3, che 9 minuti sono pochi.
hai preso l'andamento piatto della logaritmica... il bello viene per i successivi 3.

marchigiano
30-05-2016, 10:53
scusate ma se un 4790k cloccato fisso a 4.2ghz garantisce max 140fps in game, come fanno certi a consigliare pentium o athlon per giocare decentemente? :rolleyes:

Piedone1113
30-05-2016, 11:01
scusate ma se un 4790k cloccato fisso a 4.2ghz garantisce max 140fps in game, come fanno certi a consigliare pentium o athlon per giocare decentemente? :rolleyes:

Ma parli della config minima richiesta o di quella consigliata?

marchigiano
30-05-2016, 11:10
no intendo quelli che consigliano config qui sul forum

PaulGuru
30-05-2016, 11:16
Scusate ma 520€ dovrebbero essere per la FE, mentre le normali dovrebbero stare ad un centone meno, quindi sui 400 euri ;)Siamo comunque al day one.
Fra un mesetto l'effetto novità non ci sarà più.
I prezzi sono 399$ quelli di listino, quindi qualcuno sarà tranquillamente sotto i 400€

Mparlav
30-05-2016, 11:20
Come per la GTX 1080, conviene aspettare i modelli custom, con 6+8 pin oppure 8+8pin.
Da prendere in considerazione intorno a fine giugno.

lucusta
30-05-2016, 11:26
http://www.computerbase.de/2016-05/asus-geforce-gtx-1080-strix-oc-test/3/#abschnitt_benchmarks_in_ultra_hd

sicuro.

fraquar
30-05-2016, 11:26
In attesa della vera Pascal (sperando lo sia la TI) a questo punto abbandono l'idea 1080 e vado di 1070.
Tanto il 4k non mi interessa ed entrambe non ci arrivano a mantenere i 60fps.
Ho paura la 1080 possa fare la brutta fine della 980 stritolata tra la 970 e la 980ti e soprattutto come rivendibilità sarà una tragedia.
Credo invece riuscirò a rivendere la 1070 molto più facilmente. (sepre in ottica 1080ti)

TheSim
30-05-2016, 11:35
Considerazioni: Sui giochi "vecchi" (dx9-10-11) la 1070 è mediamente sopra le AMD fury, in altre review hanno avuto il coraggio di testare due giochi dx12 e la 1070 si è dimostrata più lenta della fury e della fury x, mentre la 1080 è avanti ma senza stupire.
In pratica la Nvidia ci sta ancora rifilando tecnologia vecchia, non è pronta per le DX12 e i prezzi continuano a salire.
Passsssoooo... :oink:

ciccio357p
30-05-2016, 11:38
Bella recensione. Finalmente oltre alle prestazioni, è chiara anche la questione dell'uscita delle schede custom oltre che alla FE.
Che dire, è perfettamente in linea con le mie aspettative e finalmente con questa scheda si potrà giocare seriamente a qualsiasi gioco a 1080p 60 fps con tutti i dettagli ad ultra. Vengo da una 970 che è una scheda stupenda ma diffidate da chi vi dice che muove qualsiasi gioco ad ultra a 60 fps, perché non è per niente vero.
La prenderò non appena esce e me la farò bastare per un bel po' di tempo.
P.S. Come mai niente grafici comparativi dopo aver effettuato l'overclock?

Non sono assolutamente d'accordo , la gtx 970 a 1080p fa girare tutti i giochi ( ottimizzati in maniera decente ...)
In questa stessa recensione si può vedere la 970 muovere a 1440p.....poco sotto i 60fps massimi tomb raider e battlefront ( che graficamente male non sono .....)
Chiaramente non tutti , ma tra un paio d'anni lo scenario sarà il medesimo anche con questa strabiliante .. Vga da quasi 500 euro ...
Ciao e buona giornata

ziobepi
30-05-2016, 11:47
Questa scheda è forse ancora piu' spaventosa della 1080 :D

E' piu' veloce della 980Ti, ne venderanno milioni.

PaulGuru
30-05-2016, 12:10
Non sono assolutamente d'accordo , la gtx 970 a 1080p fa girare tutti i giochi ( ottimizzati in maniera decente ...)

Cosa vuol dire sta frase ?
Non siamo noi a scegliere come viene ottimizzato il gioco e non sono le SH che si adeguano al parco HW del momento.

I giochi escono e la VGA uno la compra su misura di essi, non il contrario.
E' sempre stato così.

Quindi se escono una sfilza di grandi giochi che ci piacciono ma non sono perfettamente ottimizzati cosa faccio non ci gioco ?
Non siamo mica su console.

La GTX970 non fà girare tutto a 60fps in 1080p senza scendere a compromessi.
Poi c'è chi vuol vedere e chi no.

andry18
30-05-2016, 12:22
per cercare di chiudere un po' il discorso, provo con un: "la gtx 970 riesce a far girare tutti i giochi in fullHD a 60 fps ma abbassando o tenendo su off le impostazioni "ammazza fps", per tenere attive o su valori massimi anche quelle ci vogliono schede di fascia superiore"
andata?

ciccio357p
30-05-2016, 12:33
Cosa vuol dire sta frase ?
Non siamo noi a scegliere come viene ottimizzato il gioco e non sono le SH che si adeguano al parco HW del momento.

I giochi escono e la VGA uno la compra su misura di essi, non il contrario.
E' sempre stato così.

Quindi se escono una sfilza di grandi giochi che ci piacciono ma non sono perfettamente ottimizzati cosa faccio non ci gioco ?
Non siamo mica su console.

La GTX970 non fà girare tutto a 60fps in 1080p senza scendere a compromessi.
Poi c'è chi vuol vedere e chi no.

Battlefield 4 , battlefront , tomb raider , .. Ecc ecc girano tutti al massimo sopra i 60 fps ....
Poi se esce un gioco di Batman che gira di cacca ( piccolo esempio ..) Cosa
Facciamo compriamo una 1070..
Poi ci sarebbe da fare un piccolo corso intensivo su cosa faccia questo filtro o quest'altro ma qui facciamo notte ..
Comprare una vga da 500 euro per giocare a 1080p e da folli punto senza se e senza ma .
Ciao

ironman72
30-05-2016, 12:35
Non so voi ma a me risulta che la 980ti renda effettivamente qualche frame in più rispetto a quanto si vede dai grafici...

Sai vero che i test sono stati effettuati con schede reference?

ciccio357p
30-05-2016, 12:35
per cercare di chiudere un po' il discorso, provo con un: "la gtx 970 riesce a far girare tutti i giochi in fullHD a 60 fps ma abbassando o tenendo su off le impostazioni "ammazza fps", per tenere attive o su valori massimi anche quelle ci vogliono schede di fascia superiore"
andata?

Ok andata , ma a qualcuno è venuto in mente di verificare con i propri occhi i cambiamenti realmente percepiti in gioco attivando queste impostazioni ammazza fps ....
A qualcuno viene in mente che forse sono messe lì per motivi che non serve spiegare ....
Ciao

ironman72
30-05-2016, 12:37
Battlefield 4 , battlefront , tomb raider , .. Ecc ecc girano tutti al massimo sopra i 60 fps ....
Poi se esce un gioco di Batman che gira di cacca ( piccolo esempio ..) Cosa
Facciamo compriamo una 1070..
Poi ci sarebbe da fare un piccolo corso intensivo su cosa faccia questo filtro o quest'altro ma qui facciamo notte ..
Comprare una vga da 500 euro per giocare a 1080p e da folli punto senza se e senza ma .
Ciao

Quoto!
60 FPS a 1080P e' il minimo sindacale con una 970... se si parla di 1440P il discorso cambia... ma che una 970 a 1080p abbia problemi...e' alquanto curioso.

andry18
30-05-2016, 12:46
Ok andata , ma a qualcuno è venuto in mente di verificare con i propri occhi i cambiamenti realmente percepiti in gioco attivando queste impostazioni ammazza fps ....
A qualcuno viene in mente che forse sono messe lì per motivi che non serve spiegare ....
Ciao
Ma infatti il 99% degli utenti semplicemente evita l'impostazione ammazza fps e la disattiva o ne abbassa il settaggio (che poi spesso e volentieri la differenza è minima) senza farsi venire i complessi sul fatto che sia tutto al massimo tranne quel settaggio. altri invece se li fanno venire e..."vergogna, qua tocca prende una scheda da 700€, vado in negozio"
Poi c'è chi fa parte del 99% degli utenti e chi è nell'1, ed essendo posizioni inamovibili vanno prese per quello che sono, evitando i soliti discorsi sull'argomento, imho

xzonex
30-05-2016, 12:47
Recensione monca, manca tutto il confronto in DX12 (che ivi spoilero, va piu o meno come una Fury :asd: )

http://www.guru3d.com/articles-pages/nvidia-geforce-gtx-1070-review,14.html

Qui c'e' hitman

http://www.hardocp.com/article/2016/05/29/nvidia_geforce_gtx_1070_founders_edition_preview/4#.V0woOcfZ2lI

Addirittura in Ashes dx11 va avanti per poi prenderle in dx12

Spoiker
30-05-2016, 12:56
Con il pc che ho in firma é limitata?

ciccio357p
30-05-2016, 13:29
Ma infatti il 99% degli utenti semplicemente evita l'impostazione ammazza fps e la disattiva o ne abbassa il settaggio (che poi spesso e volentieri la differenza è minima) senza farsi venire i complessi sul fatto che sia tutto al massimo tranne quel settaggio. altri invece se li fanno venire e..."vergogna, qua tocca prende una scheda da 700€, vado in negozio"
Poi c'è chi fa parte del 99% degli utenti e chi è nell'1, ed essendo posizioni inamovibili vanno prese per quello che sono, evitando i soliti discorsi sull'argomento, imho

Quoto non fa una piega

OttoVon
30-05-2016, 13:41
Ne butto due: TW3 e TW Attila.

Non servono i parametri al massimo per capire che la 970 non ce la fa.
Porting e FPS non possono fare da parametro.

ciccio357p
30-05-2016, 13:44
Dopo qualche anno di gioco ( purtroppo tanti... ) , ho capito 2 cose (o almeno io la penso così ) ...
1) amd e nvidia se possono ci portano via anche il sangue ...
2) nei game metto la risoluzione massima del monitor , evito come la peste i menù avanzati , e imposto il massimo .... Se non regge allora con la dovuta pazienza e tranquillità metto a preventivo un cambio con una più performante ..( senza mai sforare i 350 euro da me autoimposti)
Ciao a tutti

andry18
30-05-2016, 13:52
Ne butto due: TW3 e TW Attila.

Non servono i parametri al massimo per capire che la 970 non ce la fa.
Porting e FPS non possono fare da parametro.
per the witcher 3 bisogna necessariamente evitare quelle 3 impostazioni ammazza-fps, ma tolti quei 3 la 970 va a 60fps rock solid, anche alzando vari parametri oltre il massimo impostabile nel gioco, tramite tweaking

con attila non ce la fa neanche una 980ti, è un gioco ottimizzato talmente male che prenderlo come esempio non ha il minimo senso
quindi sì, il porting/ottimizzazione fanno da parametro. stando al tuo esempio, per maxare attila e farlo girare a 60fps in fullHD dovresti andare a corrompere la nasa

ciccio357p
30-05-2016, 13:56
[QUOTE=OttoVon;43724109]Ne butto due: TW3 e TW Attila.

Errore post doppio

ciccio357p
30-05-2016, 13:57
Ne butto due: TW3 e TW Attila.

Non servono i parametri al massimo per capire che la 970 non ce la fa.
Porting e FPS non possono fare da parametro.

Attila è ottimizzato malissimo , TW3 ..( leggi commento successivo )
Ciao
PS i giochi più venduti e giocati spesso sono i multipiattaforma ...

PaulGuru
30-05-2016, 14:08
Battlefield 4 , battlefront , tomb raider , .. Ecc ecc girano tutti al massimo sopra i 60 fps ....
Poi se esce un gioco di Batman che gira di cacca ( piccolo esempio ..) Cosa
Facciamo compriamo una 1070..
Poi ci sarebbe da fare un piccolo corso intensivo su cosa faccia questo filtro o quest'altro ma qui facciamo notte ..
Comprare una vga da 500 euro per giocare a 1080p e da folli punto senza se e senza ma .
Ciao
Batman ?
Prova TW3, F4 ( compreso far harbor ), Rise of tomb raider e DAO

Io avevo una GTX980, quindi sò come han girato sul mio e immagino come su possano andare su una scheda che paga il -20%.
Se per "tomb raider" parlavi di rise of the tomb raider allora stai mentendo, su Ultra andava sotto pure con la mia 980.

calabar
30-05-2016, 15:06
La scheda va più o meno come previsto, ossia come una 980TI. Oddio, qualcuno in effetti si aspettava un piccolo margine, interno al 10%, ma in effetti dopo che le scelte di design del chip sono state rese note c'era da aspettarselo.
Per lo meno nessuna castrazione sulla memoria, come le 970.

La scheda in se è buona, consumi bassi e ottime prestazioni, ma è difficile capire quanto sia buona senza vedere il lavoro della controparte, quindi attendiamo le recensioni di Polaris.

Oltretutto, se quanto dichiarato da AMD è vero (ossia che Polaris 10 top sarà più veloce della Fury), questa scheda potrebbe essere quella che si troverà a battagliare con queste prime AMD, e con un po' di fortuna la concorrenza farà presto scendere il prezzo.

Il prezzo è sicuramente la nota stonata di questa scheda, cambia completamente la fascia di mercato rispetto alla 970 pur mantenendo la stessa posizione relativa.

StIwY
30-05-2016, 15:11
Comprare una vga da 500 euro per giocare a 1080p e da folli punto senza se e senza ma .
Ciao

Con il dovuto rispetto, sono balle.

Le risoluzioni 2k, e soprattutto 4K ammazzano un bel pò le prestazioni con le tecnologie odierne. Se un utente comprasse una di queste nuove vga per giocare a 1080p, sarebbe tranquillo per almeno due anni, potrà giocare in UltraUberTuttoAPalla (tranne nei mattoni mal ottimizzati, quelli ci saranno sempre), e potendo mettere i filtri al massimo....vsync sempre attivo, hbao+, AA8x, AF16x....ecc...ecc

Mentre l'utente che la compra adesso per giocarci in 2K/4K, avrebbe subito la scheda che "invecchia" precocemente per ovvi motivi, ed entro un anno si può già scordare i 60fps solidi, magari pure i 30fps e comincerà ad abbassare i dettagli e le opzioni grafiche.

PaulGuru
30-05-2016, 15:12
La scheda va più o meno come previsto, ossia come una 980TI. Oddio, qualcuno in effetti si aspettava un piccolo margine, interno al 10%, ma in effetti dopo che le scelte di design del chip sono state rese note c'era da aspettarselo.
Per lo meno nessuna castrazione sulla memoria, come le 970.

La scheda in se è buona, consumi bassi e ottime prestazioni, ma è difficile capire quanto sia buona senza vedere il lavoro della controparte, quindi attendiamo le recensioni di Polaris.

Oltretutto, se quanto dichiarato da AMD è vero (ossia che Polaris 10 top sarà più veloce della Fury), questa scheda potrebbe essere quella che si troverà a battagliare con queste prime AMD, e con un po' di fortuna la concorrenza farà presto scendere il prezzo.

Il prezzo è sicuramente la nota stonata di questa scheda, cambia completamente la fascia di mercato rispetto alla 970 pur mantenendo la stessa posizione relativa.
GTX 1070 = 399$
LA fascia è la stessa o simile della 970

calabar
30-05-2016, 15:20
GTX 1070 = 399$
La fascia è la stessa o simile della 970
Al momento c'è solo la FE, che è una reference, e di listino sta a 520$.
Le versioni custom, se fanno come la 1080, non costeranno meno.
Se faranno delle versioni custom "economiche", bisogna vedere che prestazioni avranno.

Quindi per il momento la situazione è questa, se poi avremo le versioni non FE da 400$, allora il discorso potrebbe cambiare (per quanto 400$ sono comunque tanti, 50$ in più rispetto al prezzo di lancio della 970).

Therinai
30-05-2016, 15:22
GTX 1070 = 399$
LA fascia è la stessa o simile della 970

tra un bel po' di mesi credo, altrimenti le 980 e le 980ti che ci sono ancora sugli scaffali che fine fanno? :D

Jones D. Daemon
30-05-2016, 16:09
Con il dovuto rispetto, sono balle.

Le risoluzioni 2k, e soprattutto 4K ammazzano un bel pò le prestazioni con le tecnologie odierne. Se un utente comprasse una di queste nuove vga per giocare a 1080p, sarebbe tranquillo per almeno due anni, potrà giocare in UltraUberTuttoAPalla (tranne nei mattoni mal ottimizzati, quelli ci saranno sempre), e potendo mettere i filtri al massimo....vsync sempre attivo, hbao+, AA8x, AF16x....ecc...ecc

Mentre l'utente che la compra adesso per giocarci in 2K/4K, avrebbe subito la scheda che "invecchia" precocemente per ovvi motivi, ed entro un anno si può già scordare i 60fps solidi, magari pure i 30fps e comincerà ad abbassare i dettagli e le opzioni grafiche.

NI. Io sto puntando proprio al 1070 da abbinare al 55' 4k. Per un semplice motivo: tutti i test sono stati fatti, anche quelli con risoluzione 4k, con un ansiotropico a 16x. Ora, un AA 16x su una risoluzione 4k è totalmente inutile, e ammazza le prestazioni di una gpu, e di molto anche. con un AA a 2x e una 1070 customa a 4k ci giochi decentemente, "male" che ti va sei a 1440p.

tuttodigitale
30-05-2016, 16:15
Non voglio dirlo, ma la scheda della redazione NON rispetta le specifiche....
http://www.hwupgrade.it/articoli/skvideo/4655/1080_1070_oc_clock_gpu.png
i punteggi potrebbero tranquillamente essere inferiori del 10%, nelle schede in commercio.

Mi chiedo quando arriverà il giorno, in cui le schede nvidia saranno testate con i valori di frequenze dichiarate sulla scatola?

Questa scheda sarebbe da testare con la frequenza massima che non supera quella dichiarata..

Senza polemica alcuna (o magari si) cosa fareste se AMD/INTEL dichiarano una cpu come 4/4,4GHz e vi danno una che non va mai sotto ai 4,5GHz?
Come minimo, mettereste in guardia i lettori....

Jones D. Daemon
30-05-2016, 16:23
Non voglio dirlo, ma la scheda della redazione NON rispetta le specifiche....
http://www.hwupgrade.it/articoli/skvideo/4655/1080_1070_oc_clock_gpu.png
i punteggi potrebbero tranquillamente essere inferiori del 10%, nelle schede in commercio.

Mi chiedo quando arriverà il giorno, in cui le schede nvidia saranno testate con i valori di frequenze dichiarate sulla scatola?

Questa scheda sarebbe da testare con la frequenza massima che non supera quella dichiarata..

Senza polemica alcuna (o magari si) cosa fareste se AMD/INTEL dichiarano una cpu come 4/4,4GHz e vi danno una che non va mai sotto ai 4,5GHz?
Come minimo, mettereste in guardia i lettori....

Veramente non è raro un comportamento del genere, lo stesso identico comportamento lo aveva la mia ex gtx 980 MSI e la mia attuale GTX 950. In presenza di margine termico e di potenza la scheda può andare anche oltre la frequenza di boost massima impostata. Nessun complotto, nessuna scheda fuori specifica, è il comportamento del gpu boost 2.0 (3.0 nel caso della 1070)

Phantom410
30-05-2016, 16:24
Ottimo articolo (battitura a parte causa stanchezza ). A quando dei test di prestazioni di calcolo e programmi cad? Sarei molto interessato alla 1070!

tuttodigitale
30-05-2016, 16:25
Veramente non è raro un comportamento del genere, lo stesso identico comportamento lo aveva la mia ex gtx 980 MSI e la mia attuale GTX 950. In presenza di margine termico e di potenza la scheda può andare anche oltre la frequenza di boost massima impostata. Nessun complotto, nessuna scheda fuori specifica, è il comportamento del gpu boost 2.0 (3.0 nel caso della 1070)
la tua risposta ha toni surreali...:D
Dico solo di testarla alle specifiche GARANTITE per le quali viene venduta, nulla di più e nulla di meno. In caso contrario, si dovrebbe scrivere alla fine dell'articolo "la soluzione in commercio potrebbe essere più lenta di quella testata".

Comunque il problema rimane....
se mai arriverà il giorno che una cpu con scritto 4/4,4GHz sulla scatola, ma ci sono modelli che non vanno sotto ai 4.5GHz , non vi lamentate se vi infilano il pacco da 4/4,4GHz...solo perchè non è stata nvidia.

Jones D. Daemon
30-05-2016, 16:35
la tua risposta ha toni surreali...:D
Dico solo di testarla alle specifiche GARANTITE per le quali viene venduta, nulla di più e nulla di meno. In caso contrario, si dovrebbe scrivere alla fine dell'articolo "la soluzione in commercio potrebbe essere più lenta di quella testata".

Ma la soluzione in commercio NON è più lenta di quella testata. TUTTE le GTX, anche una "scrausa" 950 accelerano OLTRE le specifiche di base e di boost in presenza di margine termico e se hanno abbastanza potenza. non è che perché è una scheda Nvidia bisogna vedere complotti ovunque, il GPU boost fuzniona così. Se vuoi ti posto un paio di screen della mia 950, senza OC, che va oltre le frequenze stampate sulla scatola. Le specifiche GARANTITE vengono rispettate sempre verso il basso, ma possono venire SUPERATE da QUALUNQUE scheda dotata di GPU boost.

tuttodigitale
30-05-2016, 17:08
Ma la soluzione in commercio NON è più lenta di quella testata. TUTTE le GTX, anche una "scrausa" 950 accelerano OLTRE le specifiche di base e di boost in presenza di margine termico
Ti pare normale che non esplica la MASSIMA FREQUENZA raggiungibile?
C'è solo un motivo se non lo scrive....è perchè GPU della stessa sigla raggiungono frequenze di clock diverse....nvidia utilizza un sistema di binning aggressivo
Non prendiamoci in giro: questa è l'unica motivazione.

Non equivocare sono favorevole che i die vengono selezionati e fatte lavorare a frequenze superiori...ma io mi aspetto anche che la redazione testi anche modelli sfigati, perchè tante volte dovesse capitarne uno....

PS quando hai detto che è l'unica ad andare oltre le specifiche dichiarate ero d'accordo, ma TUTTE, mi pare una sciocchezza, tra le altre cose non dimostrabile.

mirkonorroz
30-05-2016, 17:35
Piu' che altro essendo le condizioni iniziali variabili per definizione andrebbe fatta una media con n schede video dello stesso modello.
Se non risultasse bene evidente=esplicita la frequenza raggiunta dall'unica scheda in test, nonostante tutte potessero garantire il minimo, si avrebbe comunque una percezione falsata della realta' complessiva.
Chiaramente bisogna vedere in media anche quanto e' il delta perche' se il tutto si risolvesse in 2 FPS o 1...

OttoVon
30-05-2016, 17:47
le statistiche sono utili quanto inutili.
Questi sono pezzi controllati e spediti per i test, non saranno mai "sfigati".

Eseguire il test a casa con X schede non vi darà dati oggettivi.
L'unico dato, statisticamente, certo è quello della fabbrica che declassa a 1060 le sfigate.

mirkonorroz
30-05-2016, 17:51
Invece c'e' una cosa che non capisco:
nel test di Shadow Of Mordor l'andamento dei FPS nel primo grafico, che presumo sia puntuale (?) delle 3 schede fury, 1070 e 1080 non va mai sotto i 60FPS.
Come mai nel grafico a barre invece esiste una percentuale diversa da 0?

tuttodigitale
30-05-2016, 17:58
Piu' che altro essendo le condizioni iniziali variabili per definizione andrebbe fatta una media con n schede video dello stesso modello.
Se non risultasse bene evidente=esplicita la frequenza raggiunta dall'unica scheda in test, nonostante tutte potessero garantire il minimo, si avrebbe comunque una percezione falsata della realta' complessiva.
Chiaramente bisogna vedere in media anche quanto e' il delta perche' se il tutto si risolvesse in 2 FPS o 1...
purtroppo è praticamente impossibile fare ciò.
E si badi bene che quelle delle prestazioni non determinabili non è solo un problema di nvidia. Il binning sul chip è utile, perchè permette MEDIAMENTE di avere prestazioni più elevate allo stesso prezzo, senza ricorrere all'OC. Demonizzarlo è da deficienti. Ma a questa cosa estremamente positiva, si contrappone la non certezza della performance...
Ora il gap è risibile (un 10% per una GPU è niente, almeno per me), e può servire per andare un poco meglio nei benchmark (a proposito nello stesso test la gtx980ti nella review della 1080 girava a clock più bassi di un'anno fa, qui su HWUPGRADE) ma temo che questo concetto venga estremizzato.

deminimisnoncurat
30-05-2016, 18:12
Mi piacerebbe, qualche volta, vedere test in configurazioni SLI.
Perchè non li fate mai ?
Sarebbe interessante capire se la differenza vale davvero il prezzo che si paga.
Non già a livello di giochi, ma a livello, ad esempio, di rendering grafico su programmi come Maya, Cinema4D etc.

tuttodigitale
30-05-2016, 18:24
Recensione monca, manca tutto il confronto in DX12 (che ivi spoilero, va piu o meno come una Fury :asd: )

http://www.guru3d.com/articles-pages/nvidia-geforce-gtx-1070-review,14.html

Qui c'e' hitman

http://www.hardocp.com/article/2016/05/29/nvidia_geforce_gtx_1070_founders_edition_preview/4#.V0woOcfZ2lI

Addirittura in Ashes dx11 va avanti per poi prenderle in dx12

Chissà cosa sarà Polaris...AMD ha dichiarato che Pascal è poco più di un die shrink di maxwell, e questo test sembra confermarlo (PS la novità è che non perde frame una volta attivo il rendering dx12;), questo è già eccellente di per sé ) questo mi fa pensare che le RADEON possano battere facilmente le gpu nvidia per quanto riguarda le prestazioni per watt..In caso contrario sarebbe un implicita ammissione che gcn4.0, una nuova architettura, è inferiore al vecchio maxwell.

ciocia
30-05-2016, 19:27
Bella scheda, sarebbe l'ideale per il VR attuale ( oculus e vive ) ma costa troppo per essere una x70 :(. Speriamo che la top amd si avvicini a questa, ma a prezzi inferiori...

LucaLindholm
30-05-2016, 19:56
Io so già cosa mi farò in autunno per sostituire il mio vecchissimo i7 965:

- AMD Zen FX high-mid range

&

- Nano 2, con HBM2, 14 nm, 175W, 2-3x perf./Watt :read:

Indipendentemente dal prezzo: mi sono rotto le scatole di Intel, nVidia e delle loro patetiche politiche strategiche (driver nvidia closed source, cpu intel overcloccabili più cari, cpu top di gamma @ 2000€, etc.)! :mad:

Bartsimpson
30-05-2016, 21:37
Concordo con chi si lamenta dei prezzi. Se continuano di questo passo, la fascia media costerà 1000 Euro in una manciata di anni. A meno che Amd non tiri fuori qualcosa di decente, al giusto costo, aspetterò almeno che si trovi a 350 Euro, di più non spendo per una scheda video

CrapaDiLegno
30-05-2016, 21:54
Finché la gente compra le aziende non hanno alcun motivo di abbassare i prezzi. Spero per voi che copiate che non sono ONLUS. E finché non c'è concorrenza, non vedo per quale motivo una scheda che va quanto una GTX980Ti da 600 e rotti euro debba costare 300 euro.
Lo so anche io che i prezzi sono gonfiati e che il costo reale di queste GPU non giustifica in alcun modo il prezzo praticato. Ma come dicevo nel 2012 alla presentazione di Kepler, se la concorrenza non c'è, non c'è nemmeno motivo di praticare prezzi stracciati,anzi la promozione a fascia più alta è cosa normale.
E per tutti quelli che non hanno capito una cippa di cosa è successo negli ultimi 4 anni e mezzo, farebbero bene a sperare che Polaris sia notevolmente migliore di GCN o avremo di nuovo chippetti da 300mm^2 venduti come top gamma.

CrapaDiLegno
30-05-2016, 22:22
Chissà cosa sarà Polaris...AMD ha dichiarato che Pascal è poco più di un die shrink di maxwell, e questo test sembra confermarlo (PS la novità è che non perde frame una volta attivo il rendering dx12, questo è già eccellente di per sé )
È bello leggere i commenti dei fanboy rossi che ormai parlano solo per speranza di cose sentite da altri e non sanno leggere nemmeno 2 grafici...
Shadow of mordo test 2K: in DX12 maxwell e pascal perdono una quantità di frame risibili rispetto all'uso delle DX11. Fury-X finisce in fondo al gruppo.
Sarà che invece che valutare le capacità DX12 stiate valutando esclusivamente giochi ottimizzati x architettura AMD che vi fa sperare più di quanto non sia il caso?
Ah, no, hitman in DX12 su GCN annienta Maxwell! Fa niente che fa lo stesso in DX11 perché gioco ottimizzato x GCN. Il miracolo sono le DX12, morte dolorosa a chi lo nega :D

monster.fx
30-05-2016, 22:47
Ho letto con molto interesse sia questa che la recensione della GTX1080.
Ottime schede, sopratutto la 1070 per prezzo di molto inferiore e prestazioni di poco inferiori .
Quello che mi fa storcere il naso è che queste VGA, come le prossime Polaris e Vega, a parte la potenza bruta, non portano nessuna miglioria grafica. Sono lontani i periodi dove solo alcune vga potevano integrare il transform and Lighting, sistemi particellari , o più recente la tassellazione...
Ok potrebbero gestire risoluzioni più alte,4K, ma poi?
Come per la tassellazione, vorrei introducessero le nurbs, gestione delle texture procedurali,...
Insomma in queste vga rispetto alla mia R9 vedo solo tanti fps in più ma nulla di più.

StIwY
31-05-2016, 00:37
NI. Io sto puntando proprio al 1070 da abbinare al 55' 4k. Per un semplice motivo: tutti i test sono stati fatti, anche quelli con risoluzione 4k, con un ansiotropico a 16x. Ora, un AA 16x su una risoluzione 4k è totalmente inutile, e ammazza le prestazioni di una gpu, e di molto anche. con un AA a 2x e una 1070 customa a 4k ci giochi decentemente, "male" che ti va sei a 1440p.

Stessi discorsi li sentivo con l'avvento dello standard 1080p.....l'AA non servirà quasi più si diceva.

Se la gente gioca ad un palmo dal monitor, non c'è risoluzione che tenga, le scalettature le vedi anche in 8K.

xzonex
31-05-2016, 00:49
È bello leggere i commenti dei fanboy rossi che ormai parlano solo per speranza di cose sentite da altri e non sanno leggere nemmeno 2 grafici...
Shadow of mordo test 2K: in DX12 maxwell e pascal perdono una quantità di frame risibili rispetto all'uso delle DX11. Fury-X finisce in fondo al gruppo.
Sarà che invece che valutare le capacità DX12 stiate valutando esclusivamente giochi ottimizzati x architettura AMD che vi fa sperare più di quanto non sia il caso?
Ah, no, hitman in DX12 su GCN annienta Maxwell! Fa niente che fa lo stesso in DX11 perché gioco ottimizzato x GCN. Il miracolo sono le DX12, morte dolorosa a chi lo nega :D


ah certo ora ashes e' un gioco ottimizzato amd :asd: :asd: :asd:

Paolo Corsini
31-05-2016, 01:55
Oltretutto, se quanto dichiarato da AMD è vero (ossia che Polaris 10 top sarà più veloce della Fury), questa scheda potrebbe essere quella che si troverà a battagliare con queste prime AMD, e con un po' di fortuna la concorrenza farà presto scendere il prezzo.
AMD non ha mai dichiarato nulla sulle prestazioni delle GPU Polaris, a dire il vero. Quindi che secondo AMD Polaris 10 sia più veloce di Fury, IMHO, se l'è inventato qualcuno di sana pianta e tu l'hai riportato letteralmente.

Paolo Corsini
31-05-2016, 01:59
Non voglio dirlo, ma la scheda della redazione NON rispetta le specifiche....
http://www.hwupgrade.it/articoli/skvideo/4655/1080_1070_oc_clock_gpu.png
i punteggi potrebbero tranquillamente essere inferiori del 10%, nelle schede in commercio.

Mi chiedo quando arriverà il giorno, in cui le schede nvidia saranno testate con i valori di frequenze dichiarate sulla scatola?

Questa scheda sarebbe da testare con la frequenza massima che non supera quella dichiarata..

Senza polemica alcuna (o magari si) cosa fareste se AMD/INTEL dichiarano una cpu come 4/4,4GHz e vi danno una che non va mai sotto ai 4,5GHz?
Come minimo, mettereste in guardia i lettori....
Ciao
eh si che è tutto scritto nell'articolo. Le GPU NVIDIA hanno frequenze di clock dinamiche quindi i dati per capire la loro frequenza di clock sono 3:
- base clock: è la frequenza di clock nominale con applicazioni 3D, quella sotto la quale la GPU non scende mai a meno che non vada in protezione termica
- boost clock: è la frequenza di clock che tipicamente la GPU raggiunge durante il funzionamento con applicazioni 3D
- clock effettivo: è la frequenza che la GPU ha realmente in un determinato istante, che può essere benissimo superiore al boost clock se applicazione, alimentazione e caratteristiche termiche lo permettono.

Per questo motivo molto spesso la GPU si posiziona su frequenze di clock superiori a quelle di default. Il nostro sample non ha nulla di speciale, semplicemente queste GPU operano in questo modo e la frequenza di clcok effettiva differisce, di molto poco, da sample a sample.

Paolo Corsini
31-05-2016, 02:01
Invece c'e' una cosa che non capisco:
nel test di Shadow Of Mordor l'andamento dei FPS nel primo grafico, che presumo sia puntuale (?) delle 3 schede fury, 1070 e 1080 non va mai sotto i 60FPS.
Come mai nel grafico a barre invece esiste una percentuale diversa da 0?
Primo grafico: frames al secondo
Grafici seguenti: calcolati con il frame time. Di conseguenza nel secondo ci possono essere benissimo dei frames che scendono sotto i 60, ma che l'andamento medio al secondo del primo grafico smussa e quindi non vedi

Paolo Corsini
31-05-2016, 02:02
Mi piacerebbe, qualche volta, vedere test in configurazioni SLI.
Perchè non li fate mai ?
Sarebbe interessante capire se la differenza vale davvero il prezzo che si paga.
Non già a livello di giochi, ma a livello, ad esempio, di rendering grafico su programmi come Maya, Cinema4D etc.

C'era una scheda GeForce GTX 1070 in Italia, l'avevamo noi in redazione. Per GeForce GTX 1080 ne sono arrivate due in Italia, per l'embargo prestazionale. Difficile fare i test in SLI in questo modo, molto semplice

Paolo Corsini
31-05-2016, 02:03
Chissà cosa sarà Polaris...AMD ha dichiarato che Pascal è poco più di un die shrink di maxwell...
Non solo AMD non ha dichiarato nulla su Polaris, ma mi pare difficile che si metta a commentare su cosa fa NVIDIA con Pascal

Marko#88
31-05-2016, 06:43
Scheda interessante, un po' troppo costosa. Vedremo la risposta di AMD, se sarà buona allora i prezzi Nvidia caleranno in fretta.

ciccio357p
31-05-2016, 07:38
Con il dovuto rispetto, sono balle.

Le risoluzioni 2k, e soprattutto 4K ammazzano un bel pò le prestazioni con le tecnologie odierne. Se un utente comprasse una di queste nuove vga per giocare a 1080p, sarebbe tranquillo per almeno due anni, potrà giocare in UltraUberTuttoAPalla (tranne nei mattoni mal ottimizzati, quelli ci saranno sempre), e potendo mettere i filtri al massimo....vsync sempre attivo, hbao+, AA8x, AF16x....ecc...ecc

Mentre l'utente che la compra adesso per giocarci in 2K/4K, avrebbe subito la scheda che "invecchia" precocemente per ovvi motivi, ed entro un anno si può già scordare i 60fps solidi, magari pure i 30fps e comincerà ad abbassare i dettagli e le opzioni grafiche.

Col dovuto rispetto , spendere 500 euro per giocare a 1080p sono caxxate poi la convinzione e la sicurezza di poterlo fare per 2 anni con tutti i giochi ( chiaramente tutto maxato ..) non è solo una caxxata ma anche peggio ...
Ripeto ma prendersi un po di tempo per valutare e provare con obiettività e un po di pazienza cosa cambia attivando o meno determinate opzioni e così difficile ?
Spendere cifre folli per attivare filtri ammazza FPS che di fatto non portano grandi differenze ( spesso difficilmente percepibili in gioco ) è da
Sciocchi .
Senza offesa ma siamo molto ma molto distanti .
Ciao

calabar
31-05-2016, 07:52
AMD non ha mai dichiarato nulla sulle prestazioni delle GPU Polaris, a dire il vero. Quindi che secondo AMD Polaris 10 sia più veloce di Fury, IMHO, se l'è inventato qualcuno di sana pianta e tu l'hai riportato letteralmente.
Ricordavo avesse dichiarato che sarebbe stata la loro scheda singola più veloce, ma se mi sono sbagliato mi scuso. Appena ho un attimo provo a fare qualche ricerca per verificare.

Ciao
eh si che è tutto scritto nell'articolo.
Credo intendesse dire che occorreva mettere bene in evidenza che le prestazioni ottenute erano fortemente dipendenti dalle specifiche condizioni, e che quindi al variare di queste
In particolare avvisare del "pericolo" che se questi fossero stati chip selezionati, allora le prestazioni delle schede acquistate sarebbero state presumibilmente inferiori, in media.

Se non sbaglio c'era stata una polemica simile anche per le Radeon 290x (o qualche altra scheda AMD), quindi questo pare sia un problema ormai attuale che bisognerebbe far notare agli utenti, in modo che possano leggere la recensione con consapevolezza.

Non solo AMD non ha dichiarato nulla su Polaris, ...
In effetti l'affermazione sembrava strana anche a me! :asd:
Magari si tratta di qualche sparata non ufficiale su qualche forum di un dipendente/portavoce AMD, sarei curioso di vedere la fonte.

gd350turbo
31-05-2016, 08:00
520€ per la sostituta della 970 mi sembrano veramente un orrore :muro:

Da un po' non stavo dietro all'hardware e dopo tanto tempo volevo fare un po' di upgrade, in particolare della GPU, visto che sono con una vecchia Radeon 6950, e dopo tanto tempo avevo intenzione di andare su una nVidia, e in particolare proprio sulla 970 mi era finita l'attenzione. Nell'interessarmi di nuovo all'hardware ho scoperto il momento di rinnovamento in cui siamo (finalmente un processo decente per le GPU e l'uscita di Zen imminente) quindi mi son ripromesso di aspettare qualche uscita.

Ma se la midrange di nVidia costa 500€ è chiaro che non se ne fa nulla e si prenderà molto probabilmente una AMD (sul versante CPU si vedrà cosa converrà).

Per adesso il prezzo è fuori dal mondo...
Come è giusto che sia !

1) Ora devono prendere i soldi dagli inscimmiati...
2) Concorrenza attualmente inesistente, quindi, possono fare il prezzo che gli pare...

Quindi per ora chi la vuole tira fuori un cinquecentone, ma prevedo che in ottobre / novembre, si potrà portare a casa con un 400 euro o forse anche meno !

Aspettiamo e vediamo !

Jones D. Daemon
31-05-2016, 08:04
Ciao
eh si che è tutto scritto nell'articolo. Le GPU NVIDIA hanno frequenze di clock dinamiche quindi i dati per capire la loro frequenza di clock sono 3:
- base clock: è la frequenza di clock nominale con applicazioni 3D, quella sotto la quale la GPU non scende mai a meno che non vada in protezione termica
- boost clock: è la frequenza di clock che tipicamente la GPU raggiunge durante il funzionamento con applicazioni 3D
- clock effettivo: è la frequenza che la GPU ha realmente in un determinato istante, che può essere benissimo superiore al boost clock se applicazione, alimentazione e caratteristiche termiche lo permettono.

Per questo motivo molto spesso la GPU si posiziona su frequenze di clock superiori a quelle di default. Il nostro sample non ha nulla di speciale, semplicemente queste GPU operano in questo modo e la frequenza di clcok effettiva differisce, di molto poco, da sample a sample.

Grazie Sig. Corsini. Qualcuno si ostina a vedere complotti ovunque, anche quando non ci sono.

Alekx
31-05-2016, 08:16
Ma, sinceramente se con queste prestazioni la 1070 costasse 350 euro secondo me avrebbero sbancato, ma a 500 euro ragazzi dai non scherziamo e' una mostruosita' assurda.
In piu' come molti di voi hanno postato mancano i giochi DX12, Vulkan (anche se su doom ne hanno data dimostrazione) etc. testarle con DX vecchie non significa che la scheda porti dei benefici in piu a livello di resa grafica aumentando gli fps.

Inoltre se dovessi acquistare una VGA Nvidia ora punterei sulle oramai svalutate 980 che per avendo una manciata di FPS in meno mi fanno risparmiare un botto di soldi, poi piu' in la si vedra'.

Personalmente vediamo AMD tra 2 settimane e poi si tireranno le somme, se riusciranno a tirare fuori una scheda che va come queste o piu' a prezzi minori stavolta per NVIDIA sara' dura se non tagliera' i prezzi, ma al momento siamo nel mondo dei SE e dei MA, aspettiamo alla finestra.

Alekx
31-05-2016, 08:41
È bello leggere i commenti dei fanboy rossi che ormai parlano solo per speranza di cose sentite da altri e non sanno leggere nemmeno 2 grafici...
Shadow of mordo test 2K: in DX12 maxwell e pascal perdono una quantità di frame risibili rispetto all'uso delle DX11. Fury-X finisce in fondo al gruppo.
Sarà che invece che valutare le capacità DX12 stiate valutando esclusivamente giochi ottimizzati x architettura AMD che vi fa sperare più di quanto non sia il caso?
Ah, no, hitman in DX12 su GCN annienta Maxwell! Fa niente che fa lo stesso in DX11 perché gioco ottimizzato x GCN. Il miracolo sono le DX12, morte dolorosa a chi lo nega :D

Non e' una questione di Fan boy, ma scusa non sono d'accordo su quello che scrivi. Se compri Hardware di ultima generazione sarebbe necessario testarlo, quantomeno inserire nel test, tutte le novita' di ultima generazione, realta' virtuale inclusa visto che stanno tutti spingendo in questa direzione e le previsioni di vendita per il prossimo anno sono ottimistiche, anche perche' magari compri una VGA oggi a 500 euro che va come una scheggia con le "vecchie" tecnologie e poi magari l'anno prossimo con le nuove si livella ai suoi predecessori.... ma sicuramente poi uscira' la 1170 che al modico prezzo di 1000 euro ti dara' tutta la potenza di cui hai bisogno. :doh:

Poi da come scrivi sembrerebbe che il Fan boy sei tu che pensi che Nvidia ti riesca a dare schede veloci perche' vi vuole "bene" e non perche', anche con una quota del 30% scarso abbia un concorrente che comunque riesce a sfornare schede che possono concorrere tranquillamente con le verdi.

ciccio357p
31-05-2016, 09:07
E' molto probabile che per i 1080p spendere 250 un anno e 250 l'anno successivo porti migliori risultati che spenderne 500 e 0, soprattutto se l'anno dopo scopri che l'implementazione precedente di certe features lasciava il un po' a desiderare.

Appunto senza contare che vendendo la precedente qualcosina realizzi ..
E comunque senza grossi problemi una vga da non oltre 350 euro ( ne cito 2 , amd 390 , gtx 970 ...) sono assolutamente più che sufficienti per il full HD ...
Poi se bisogna necessariamente farsi le turbe mentali nel non poter arrivare un paio di filtri o altro ammazza fps che di fatto non ti cambiano nulla o quasi , allora il discorso cambia radicalmente ....
Ciao

calabar
31-05-2016, 09:10
Grazie Sig. Corsini. Qualcuno si ostina a vedere complotti ovunque, anche quando non ci sono.
Non è questione di complottismo, ma di chiarezza.
Il funzionamento delle VGA attuali porta ad una situazione che è bene scrivere a chiare lettere negli articoli.

Corsini ha descritto puntualmente il funzionamento, ma solo una parte degli utenti sono in grado di capire le conseguenze a cui questo potrebbe portare, motivo per cui un trafiletto ben evidenziato con le considerazioni del redattore a riguardo non può che essere un bene per chi legge e per la qualità dell'articolo in generale.
E questa non è certo un'accusa, ma un suggerimento.

Ora, magari quanto si sta preventivando non succederà, magari succederà anche l'esatto contrario (improbabile, ma non si può escludere), però è bene fare qualche considerazione a riguardo, soprattutto in virtù del fatto che c'è stato almeno un precedente (con il concorrente) che ha suscitato polemiche.

CrapaDiLegno
31-05-2016, 10:14
Non e' una questione di Fan boy, ma scusa non sono d'accordo su quello che scrivi. Se compri Hardware di ultima generazione sarebbe necessario testarlo, quantomeno inserire nel test, tutte le novita' di ultima generazione, realta' virtuale inclusa visto che stanno tutti spingendo in questa direzione e le previsioni di vendita per il prossimo anno sono ottimistiche, anche perche' magari compri una VGA oggi a 500 euro che va come una scheggia con le "vecchie" tecnologie e poi magari l'anno prossimo con le nuove si livella ai suoi predecessori.... ma sicuramente poi uscira' la 1170 che al modico prezzo di 1000 euro ti dara' tutta la potenza di cui hai bisogno.

Poi da come scrivi sembrerebbe che il Fan boy sei tu che pensi che Nvidia ti riesca a dare schede veloci perche' vi vuole "bene" e non perche', anche con una quota del 30% scarso abbia un concorrente che comunque riesce a sfornare schede che possono concorrere tranquillamente con le verdi.
A me sembra invece 7na questione di fanboysmo chiara.
Si continua a riportare cose sentite e amplificate ma mai verificate.
Questa cosa delle DX12 sta veramente superando la soglia di intelligenza media dell'utenza. Sul mercato c'è un solo gioco che è in sviluppo 100% DX12 ed fa uso spropositato di una (e ripeto una) feature che AMD implementa meglio di Nvidia. Nei test l'abuso di questa feature mostra dare un vantaggio del 10%.
In termini assoluti le prestazioni non cambiano molto.
Il resto dei giochi che hanno una pipeline DX12 sono degli adattamenti ove i motori non dono pensato per sfruttare la nuova api come potrebbero.
In hitman il motore è super ottimizzato x HW GCN e lo si vede nei test DX11. Però si estende questo vantaggio alle DX12 e ancora si dice che sono meglio su HW GCN.
Altri giochi con porting in DX12 mostrano in primi che di guadagni prestazionali in assoluto rispetto alle DX11 non ce ne sono proprio. Poi mostrano che anche su HW AMD non è che sua tutto rosa e fiori.
Però nessuno lo vede. Sarà perché non vogliono vederlo, o non in grado di fare un confronto tra 2 grafici distanti 10cm o preferiscono ripetere un mantra che porta loro speranza, fatto sta che se non sei un fanboy i dati per fare valutazioni più ampie ci sono.

È il fanboy sarei io che secondo te crede che n idea faccia GPU perché mi vuole bene? Ma è esattamente il contrario! Sono i fanboy AMD che credono che AMD sforzi tecnologia "aggratis" perché è brava, buona, etica e str0nzate varie. Io credo semplicemente che ogni azienda faccia del proprio meglio per strizzare il limone chiamato mercato formato da tutti i potenziali clienti. E quando si mettono in atto certe politiche è chiaro che si è sulla difensiva mentre altre mostrano capacità di condurre e dominare il mercato.

C'è gente che non ha ancora capito che Nvidia fa queste cose perché la concorrenza glielo permette. Ai tempi di Fermi il chippetto fascia media costava 200 euro. Se ora costa 800 è perché la tanto chiacchierata concorrenza non sa fare meglio. Altro che "perché ci vuole bene". O non ci è riuscita fino adesso. Quindi speriamo si dia una svegliata.

bagnino89
31-05-2016, 12:02
Come al solito fantastici i soliti che continuano a pensare solo alle DirectX 12; quando allo stato attuale non esiste un solo gioco che sfrutti seriamente queste librerie, e chissà quando ne uscirà uno. Le GPU si comprano per giocare ai titoli attuali o in uscita a breve, non a data a destinarsi...

E poi, con quali dati si può anche solo pensare che in futuro i giochi con tali librerie andranno meglio su AMD? Negli ultimi tempi, a me pare invece di vedere che quasi tutti i tripla A sono Nvidia-oriented...

gd350turbo
31-05-2016, 12:32
È il fanboy sarei io che secondo te crede che n idea faccia GPU perché mi vuole bene? Ma è esattamente il contrario! Sono i fanboy AMD che credono che AMD sforzi tecnologia "aggratis" perché è brava, buona, etica e str0nzate varie. Io credo semplicemente che ogni azienda faccia del proprio meglio per strizzare il limone chiamato mercato formato da tutti i potenziali clienti. E quando si mettono in atto certe politiche è chiaro che si è sulla difensiva mentre altre mostrano capacità di condurre e dominare il mercato.

C'è gente che non ha ancora capito che Nvidia fa queste cose perché la concorrenza glielo permette. Ai tempi di Fermi il chippetto fascia media costava 200 euro. Se ora costa 800 è perché la tanto chiacchierata concorrenza non sa fare meglio. Altro che "perché ci vuole bene". O non ci è riuscita fino adesso. Quindi speriamo si dia una svegliata.

Onore & rispetto...

bagnino89
31-05-2016, 13:21
Forse è così per chi le cambia tutti gli anni, cioè una ristretta minoranza degli utenti :>

Dovrebbe essere così per tutti, a dire il vero. E comunque nessuno ha la sfera di cristallo... Per dire, io quando presi la 970 (dicembre 2014) mica mi facevo menate su librerie e altre scemenze; semplicemente, ho visto che le prestazioni rispetto alla mia 660 praticamente raddoppiavano, i consumi erano bassi ed il prezzo sembrava buono. Prezzo che, tra l'altro, è rimasto invariato sino ad oggi, segno che la concorrenza è proprio assente.

In base a quali parametri riesci a stabilire se una GPU sarà duratura o meno? Magari fai come alcuni che dicono che la 390 è meglio della 970 perché ha ben 8 GB di VRAM (senza capire che il core arriva a saturazione ben prima della memoria)?

ciccio357p
31-05-2016, 13:48
Dovrebbe essere così per tutti, a dire il vero. E comunque nessuno ha la sfera di cristallo... Per dire, io quando presi la 970 (dicembre 2014) mica mi facevo menate su librerie e altre scemenze; semplicemente, ho visto che le prestazioni rispetto alla mia 660 praticamente raddoppiavano, i consumi erano bassi ed il prezzo sembrava buono. Prezzo che, tra l'altro, è rimasto invariato sino ad oggi, segno che la concorrenza è proprio assente.

In base a quali parametri riesci a stabilire se una GPU sarà duratura o meno? Magari fai come alcuni che dicono che la 390 è meglio della 970 perché ha ben 8 GB di VRAM (senza capire che il core arriva a saturazione ben prima della memoria)?

Appunto è difficile se non impossibile stabilire per quanto una GPU sarà al top ( sempre in rapporto alla risoluzione chiaramente )
Ecco perché alla fine quello che conta è scegliere il prodotto in base alle proprie esigenze attuali .
Nel mio caso ad esempio , i 1080/1440p sono più che sufficienti e il budget che mi sono autoimposto e 350 euro ... E pazienza se devo rinunciare a qualche filtrino ...
Ciao

StIwY
31-05-2016, 14:15
Col dovuto rispetto , spendere 500 euro per giocare a 1080p sono caxxate poi la convinzione e la sicurezza di poterlo fare per 2 anni con tutti i giochi ( chiaramente tutto maxato ..) non è solo una caxxata ma anche peggio ...
Ripeto ma prendersi un po di tempo per valutare e provare con obiettività e un po di pazienza cosa cambia attivando o meno determinate opzioni e così difficile ?
Spendere cifre folli per attivare filtri ammazza FPS che di fatto non portano grandi differenze ( spesso difficilmente percepibili in gioco ) è da
Sciocchi .
Senza offesa ma siamo molto ma molto distanti .
Ciao

Quelli di cui parli sono i giochi "mattoni" che ho citato, con le opzioni pacco-marketing per farti cambiare vga :D (come l'hairworks e physX di nvidia che castrano gli FPS senza motivo). La domanda è, giocare a risoluzioni "umane" giova alla longevità della scheda video ? La risposta è si, perciò chi le compra per giocare a 1080p non ha niente da recriminare, e se non è il fanatico che cambia ad ogni generazione, potrà godere dei 60fps o dell'AA 8x, o quello che vogliamo, più a lungo di chi si ostina di andare con le "tendenze modaiole" del momento, quindi 2K e soprattutto 4K.:read:

gd350turbo
31-05-2016, 14:24
mi raccomando usate il guanto però e un po di vasella :asd:

Non so cosa sia meglio o peggio...

Se usare la vaselina o il maalox per il rosicamento che state vivendo in questi giorni...

La devi odiare molto vero figliolo ?

Alekx
31-05-2016, 14:35
A me sembra invece 7na questione di fanboysmo chiara.
Si continua a riportare cose sentite e amplificate ma mai verificate.
Questa cosa delle DX12 sta veramente superando la soglia di intelligenza media dell'utenza. Sul mercato c'è un solo gioco che è in sviluppo 100% DX12 ed fa uso spropositato di una (e ripeto una) feature che AMD implementa meglio di Nvidia. Nei test l'abuso di questa feature mostra dare un vantaggio del 10%.

Scusa, mi parli di un 10% in piu' ( e ti pare poco?) grazie a una feature ben implementata da AMD e mi parli di "ABUSO" dei rossi.... e poi i fan boy sono gli altri.
Poi qui si parla di una scheda che con 500 euro ti porti a casa per avere a malapena un distacco del 10% verso le altre, pero' in questo caso non capisco, qui c'e' l'abuso di Nvidia a prendere per il culo le persone o no ? :mbe:
L'intelligenza delle persone sta nel fatto di non valutare una tecnologia su 4 grafici che si vedono in rete ma approfondendo i benefici che possono apportare tali novita', se integrate a dovere, in base all'attuale hw a disposizione che ha potenza da vendere ma cammina con il freno a mano tirato.


In termini assoluti le prestazioni non cambiano molto.
Il resto dei giochi che hanno una pipeline DX12 sono degli adattamenti ove i motori non dono pensato per sfruttare la nuova api come potrebbero.
In hitman il motore è super ottimizzato x HW GCN e lo si vede nei test DX11. Però si estende questo vantaggio alle DX12 e ancora si dice che sono meglio su HW GCN.
Altri giochi con porting in DX12 mostrano in primi che di guadagni prestazionali in assoluto rispetto alle DX11 non ce ne sono proprio. Poi mostrano che anche su HW AMD non è che sua tutto rosa e fiori.
Però nessuno lo vede. Sarà perché non vogliono vederlo, o non in grado di fare un confronto tra 2 grafici distanti 10cm o preferiscono ripetere un mantra che porta loro speranza, fatto sta che se non sei un fanboy i dati per fare valutazioni più ampie ci sono.

Anche qui ti sbagli, le DX12 in HD hanno molto da dire specialmente sul fatto che sfrutteranno finalmente il multicore delle CPU, in pratica piu' core avrai e piu' le prestazioni saliranno a scalare, e comunque sara' il futuro o no ? Quindi comunque tu la veda e' una "tecnologia" che prendera' il posto delle attuali obsolete DX che tu lo voglia o no e quindi secondo me e' giusto che i test vengano effettuati a 360°. Poi chi "vince vince", lo scrivo tra virgolette perche' la cosa mi fa sorridere se fai 100 fps o 90fps non ti cambia nulla, perche' da alcuni test una 390 o 980 non sono molto distante da una 980Ti o una Fury X che vanno alla pari ( forse un distacco dalle prime due di un 10% mooooolto scarso) a discapito pero' di un prezzo che non giustifica il misero distacco.

Poi se mi dici che l'etichetta sui giochi DX12 c'e' tanto per vendere il gioco perche' magari e' stato adattato e pure male, e' un'altro discorso ma qui se ci mettiamo a parlare di adattamenti o di ottimizzazione dei giochi non c'e' DX o scheda grafica che tenga perche' il problema sta alla radice.

È il fanboy sarei io che secondo te crede che n idea faccia GPU perché mi vuole bene? Ma è esattamente il contrario! Sono i fanboy AMD che credono che AMD sforzi tecnologia "aggratis" perché è brava, buona, etica e str0nzate varie. Io credo semplicemente che ogni azienda faccia del proprio meglio per strizzare il limone chiamato mercato formato da tutti i potenziali clienti. E quando si mettono in atto certe politiche è chiaro che si è sulla difensiva mentre altre mostrano capacità di condurre e dominare il mercato.

C'è gente che non ha ancora capito che Nvidia fa queste cose perché la concorrenza glielo permette. Ai tempi di Fermi il chippetto fascia media costava 200 euro. Se ora costa 800 è perché la tanto chiacchierata concorrenza non sa fare meglio. Altro che "perché ci vuole bene". O non ci è riuscita fino adesso. Quindi speriamo si dia una svegliata.

La tecnologia AGGRATIS non te la regala nessuno, ma forse si e' capito che e' arrivato il tempo di OTTIMIZZARE tutto l'HW che oggi vendi alle persone perche' non e' possibile che attualmente con le potenze delle schede video che hai sei castrato da ottimizzazioni da schifo e questo serve per spremerci come i limoni e tirarti fuori ogni anni i soldi per giustificare l'acquisto di una nuova scheda che ti da quel tanto che basta per arrivare all'anno successtivo con costi pero' che lievitano sempre di piu. Fidati che Nvidia e' una di quelle che si fa pagare anche l'aria che respira, e fa bene finche' la gente la pensa che se ce l'ha un po piu' lungo dell'anno prima si sente appagata. Te lo dice uno che probabilmente ha piu' anni di te e che ha sempre utilizzato il PC per lavoro e soprattutto per divertimento, guardando sempre alle novita' del mercato videoludico cercando sempre di capire se una cosa vale effettivamente i soldi richiesti (valutazioni personali sia ben iteso). AMD ha sempre prodotto ottime schede poi ognuno e' libero di acquistare quelle che vuole e forse ha capito ora che ottimizzando riesce ad avere il massimo dalle sue VGA riuscendo ad annullare il gap (in realta' molto esiguo)) verso la concorrenza e questo ben venga se riesce a rivitalizzare la "vecchia scheda" GRATIS, un pensiero condiviso da molti. Poi che tali ottimizzazioni possano essere recepite dalle software house che producono i giochi e' un'altra storia specialmente sul fatto che oggi va di moda "sponsorizzare" il gioco cercando di castrare l'avversari e questo dovrebbe farti riflettere. ;)

monster.fx
31-05-2016, 16:29
:D :D :D :D
Nel mercatino ... ogni 2 annunci trovi una GTX970 ... una GTX980 ... o una GTX980Ti in vendita ...
:D :D :D :D

Possibile che tanta gente venda o svenda le proprie VGA per spenderne il doppio per VGA che vanno mediamente il 15/20% in più?

Marko#88
31-05-2016, 16:54
:D :D :D :D
Nel mercatino ... ogni 2 annunci trovi una GTX970 ... una GTX980 ... o una GTX980Ti in vendita ...
:D :D :D :D

Possibile che tanta gente venda o svenda le proprie VGA per spenderne il doppio per VGA che vanno mediamente il 15/20% in più?

15/20% in più? Ma hai letto le recensioni? :asd:

CrapaDiLegno
31-05-2016, 17:30
@Alekx31
Hai fatto di tutto un po'. Prima dici che il 10% è molto, poi che non lo è. Il vantaggio non è il caso 10% rispetto alla concorrenza, ma rispetto a se stessa senza async attivato.
È stiamo parlando di un solo gioco che sì abusa di una feature, tanto quanto era avvenuto quando Nvidia era avanti con la tessellation.
Stai tirando conclusioni sul futuro usando solo gli elementi che più ti fanno piacere. Tralasciando gli altri. Che mostrano che DX12 o no, ciò che ancira fa la differenza è il fatto che il motore sia ottimizzato o si adatti meglio a una architettura piuttosto che un'altra. Come nell'esempio detto prima che se preso come riferimento tanto quanto lo è il test AoS uno penserebbe che AMD è messa maluccio con le DX12. Però i fanboy non lo considerano perché non è una cosa che permette loro di sognare di un mondo per loro migliore.
Ancora confondi "ottimizzazione" con uso di una feature. I giochi DX12 sono così ottimizzati che vanno tanto quelli DX11. Contando che serve obbligatoriamente Win10 per farli girare direi che sono tutt'altro che un passo avanti.

Il tuo considerare che le DX12 andranno bene nel futuro su hW AMD è basato sulla visione di 2 soli test : AoS che usa async a manetta e hitman che ha un motore GCN biased che pure in DX11 fa andare le schede AMD molto più veloci di quelle nvidia.
Se ci pensi sono 2 test che non è che provano molto. Dove sono i test dei giochi basati su UE4? Non ci sono. UE4 e gli altri motori non sponsorizzati dal progetto AMD Game evolved saranno così GCN biased come il motore di Hitman? Tutti i giochi sfrutteranno l'async così tanto da dare sempre un +10% alle schede AMD? Nessuna feature peculiare di nvidia sarà usata?
Non si sa. Ma solo con quelle risposte puoi farti un'idea del futuro. Quindi non capisco questa cosa di arrivare alle conclusioni prima se non per mera speranza, frustrazione o quel che vuoi che provano i fanboy rossi.
Concordo, e ci mancherebbe, che ognuno è libero di comprare quello che vuole. Ma non di certo di prendere gli altri in giro dando giustificazioni insulse. Piuttosto che compri e stia zitto piuttosto che tentare di dare giustificazione (credo più a se stesso che agli altri che per l'80% han scelto diversamente) di una scommessa basata sul niente.

gd350turbo
31-05-2016, 17:48
mi sa che non hai capito...intendevo tra voi :read:
"onore e rispetto", vuoi fargli anche una se...renata? ( ora è chiaro? )

Se uno fa un bel discorso e se lo merita !


per cosa dovrei rosicare poi non ho ancora capito, quello che spende sacchi per delle gpu sei tu mica io :asd:

Io ho speso dei soldi per la gpu ?
Al massimo ne ho presi, ho venduto la mia 780ti a Marko#88 !
Ora aspetto che amd faccia la sua parte di "ditta concorrente", in tal modo nvidia abbasserà i prezzi e tra qualche mese, forse, mi prendo una 1070 !
:cool:

Bestio
31-05-2016, 17:50
Più che altro a sto giro divario tra 1080 e 1070 è netto..
Prima la 970 era la best buy perchè costava meno di 400€ e andava quasi come la 980€ che ne costava almeno 150 in più, e il poco divario prestazionale non ne valeva il costo aggiuntivo.
Mentre oggi i soldi in più che costa la 1080 li vale tutti, e dato che sono entrambe schede piuttosto care, trovo che la 1070 non abbia poi molto senso.

Se qualcuno vuol risparmiare, meglio che si prenda una 9xx usata... :)

monster.fx
31-05-2016, 19:03
15/20% in più? Ma hai letto le recensioni? :asd:

Certo che le ho lette .
La GTX1070 va' tra il 18% e il 21% della 970 ... calcolatrice alla mano.
Ok nella recensione del Sign.Corsini arriva anche al 35% ... ma in termini assoluti si parla di 20fps su una base di 60fps.
Nel peggiore dei test la 970 va a 30fps e la 1070 a 45fps ... In Crysis3 la 970 va a 17fps e la 1070 a 26fps .
Con ciò che voglio dire ... che a parità di "serie" il salto è minimo. Occhio non sto dicendo che sono deluso da queste VGA... al contrario, ma non ne vedo grosse necessità per chi possiede una 980, o meglio una 980Ti.
Soprattutto per gli attuali titoli in circolazione ad oggi e fino alla fine del 2016.
La 1080 è una bestia lo ammetto ... ma non giustificano attualmente la necessità del passaggio ... almeno non per chi arriva da queste generazioni di VGA ... a meno che di fare sboronaggini ... o di volere i 100fps a ogni costo(e pure caro).

Concludo dicendo che i titoli(recensiti) girano sia su l'attuale generazione che sulla prossima in modo soddisfacente. Poi se uno vuole farli girare su 3 monitor 4K è un altro paio di maniche(forse manco uno SLI di 1080 basterebbe).

cdimauro
31-05-2016, 21:16
@Alekx31
Hai fatto di tutto un po'. Prima dici che il 10% è molto, poi che non lo è. Il vantaggio non è il caso 10% rispetto alla concorrenza, ma rispetto a se stessa senza async attivato.
È stiamo parlando di un solo gioco che sì abusa di una feature, tanto quanto era avvenuto quando Nvidia era avanti con la tessellation.
Il paragone fra le due cose non c'entra assolutamente nulla.

Gli async shader se ci sono li usi, altrimenti no: è una questione meramente booleana. Dunque non c'è nessun "abuso".

La tessellation, invece, è a totale discrezione dello sviluppatore (e artista che ha realizzato i modelli poligonali): ne può usare poca, tanta, o a vagonate. Da cui la possibilità di abusarne, per l'appunto.
Concordo, e ci mancherebbe, che ognuno è libero di comprare quello che vuole. Ma non di certo di prendere gli altri in giro dando giustificazioni insulse.
Come le tue? Al solito quando si scende su questioni prettamente tecniche dai il meglio di te, visto che dimostri di non avere la minima idea delle cose di cui pomposamente parli.

Il tutto per accampare scuse pur di difendere la tua amata marca del cuore...

Alekx
31-05-2016, 21:41
@Alekx31
Hai fatto di tutto un po'. Prima dici che il 10% è molto, poi che non lo è. Il vantaggio non è il caso 10% rispetto alla concorrenza, ma rispetto a se stessa senza async attivato.
È stiamo parlando di un solo gioco che sì abusa di una feature, tanto quanto era avvenuto quando Nvidia era avanti con la tessellation.
Stai tirando conclusioni sul futuro usando solo gli elementi che più ti fanno piacere. Tralasciando gli altri. Che mostrano che DX12 o no, ciò che ancira fa la differenza è il fatto che il motore sia ottimizzato o si adatti meglio a una architettura piuttosto che un'altra. Come nell'esempio detto prima che se preso come riferimento tanto quanto lo è il test AoS uno penserebbe che AMD è messa maluccio con le DX12. Però i fanboy non lo considerano perché non è una cosa che permette loro di sognare di un mondo per loro migliore.
Ancora confondi "ottimizzazione" con uso di una feature. I giochi DX12 sono così ottimizzati che vanno tanto quelli DX11. Contando che serve obbligatoriamente Win10 per farli girare direi che sono tutt'altro che un passo avanti.

Il tuo considerare che le DX12 andranno bene nel futuro su hW AMD è basato sulla visione di 2 soli test : AoS che usa async a manetta e hitman che ha un motore GCN biased che pure in DX11 fa andare le schede AMD molto più veloci di quelle nvidia.
Se ci pensi sono 2 test che non è che provano molto. Dove sono i test dei giochi basati su UE4? Non ci sono. UE4 e gli altri motori non sponsorizzati dal progetto AMD Game evolved saranno così GCN biased come il motore di Hitman? Tutti i giochi sfrutteranno l'async così tanto da dare sempre un +10% alle schede AMD? Nessuna feature peculiare di nvidia sarà usata?
Non si sa. Ma solo con quelle risposte puoi farti un'idea del futuro. Quindi non capisco questa cosa di arrivare alle conclusioni prima se non per mera speranza, frustrazione o quel che vuoi che provano i fanboy rossi.
Concordo, e ci mancherebbe, che ognuno è libero di comprare quello che vuole. Ma non di certo di prendere gli altri in giro dando giustificazioni insulse. Piuttosto che compri e stia zitto piuttosto che tentare di dare giustificazione (credo più a se stesso che agli altri che per l'80% han scelto diversamente) di una scommessa basata sul niente.


Scusa ma forse non hai letto con attenzione il mio post. Se per avere un incremento di prestazioni nell ordine del 10% devo spendere 500 euro allora No ma se tale incremento arriva integrando feature e quindi anche ottimizzando il tutto per poterle usare be allora dico di SI. Ora penso di essere stato chiaro. Tu parli di dx 12 come un futuro che verrà tra 100 anni be' datti una svegliata perché in realtà non è così lontano. che le 12 vanno come le 11 e chi ti ha detto il contrario ma poi ti contraddici quando effettivamente parli di un gioco nativo dx 12 dove allora ottieni buoni risultati altrimenti stanno alla pari, infatti ti parlavo di giochi che vantano il fatto di averle ma poi stanno lì buttate tanto per. Le giustificazioni infine mi sembra che le trovino più chi investe soldi a casaccio che chi invece deve dare giustificazioni di basse prestazioni, a tuo dire, dei prodotti Amd.

xzonex
31-05-2016, 22:00
@Alekx31

Concordo, e ci mancherebbe, che ognuno è libero di comprare quello che vuole. Ma non di certo di prendere gli altri in giro dando giustificazioni insulse. Piuttosto che compri e stia zitto piuttosto che tentare di dare giustificazione (credo più a se stesso che agli altri che per l'80% han scelto diversamente) di una scommessa basata sul niente.

ma sei serio? :asd:
siamo al punto che ora serve pure una giustificazione per ciò che si compra, meno male che poi i fanboy sono gli altri :asd:
per altro, come ti hanno gia fatto notare, la tessellation con l'async non c'entra una benamata cippa come implementazione; e' cosi difficile accettare che stavolta nvidia potrebbe risentire di scelte architetturali fatte nel passato?

cdimauro
31-05-2016, 22:28
Difficile? Impossibile per un fanboy nVidia come lui. :D

Che poi sarebbe interessante capire cosa gliene venga in tasca, fino a ridursi a certi livelli. Avesse azioni nVidia, o ne fosse un dipendente, potrei anche capirlo (ma NON giustificarlo, viste le balle che racconta). Ma per uno che non ci guadagna niente non ha il minimo senso logico comportarsi così...

xzonex
31-05-2016, 22:29
Boh. Aspettiamo domani e poi tireremo le somme!

cdimauro
31-05-2016, 23:13
Perché, che succede domani (oggi)? Le GPU presenteranno una denuncia per essere state abusate dagli sviluppatori? :asd:

xzonex
31-05-2016, 23:17
Perché, che succede domani (oggi)? Le GPU presenteranno una denuncia per essere state abusate dagli sviluppatori? :asd:

Chiaro, questo e' quello che succede quando gli sviluppatori usano l'async a manetta (cit) :asd:

Spoiker
01-06-2016, 06:10
Con il pc che ho in firma é limitata?

E' cpu limited con la mia configurazione?

tanto per sapere così fra un po' di tempo qnd costerà saprò già cosa fare..

PaulGuru
01-06-2016, 07:30
:D :D :D :D
Nel mercatino ... ogni 2 annunci trovi una GTX970 ... una GTX980 ... o una GTX980Ti in vendita ...
:D :D :D :D

Possibile che tanta gente venda o svenda le proprie VGA per spenderne il doppio per VGA che vanno mediamente il 15/20% in più?

15-20% in più sono cifre sparate da qualche rosikone.
O quelle altre seghe mentali riferite ai 100Mhz in più o in meno che ballano.

La 1080 va il 70% più della 980 e ancora siamo alle primissime relase di drivers, e il prezzo di 799€ non è veritiero.

I prezzi di listino sono già stati ufficializzati e sono di 699$ per la FE e 599$ per la non reference ( vicina al prezzo ufficiale della 980 liscia ) e da lì non si scappa. Se costano di più adesso è perchè sono appena uscite e non c'è concorrenza, ma si riallineeranno.
Questa è la verità.

Alekx
01-06-2016, 10:43
Quindi se ne vuoi una chiami il negoziante e gli dici "NON E' VERITIERO!" e la paghi in dollari annunciati? :asd:

:rotfl:

Alekx
01-06-2016, 11:34
Dunque ecco le prime novita' Polaris

http://www.hwupgrade.it/articoli/skvideo/4656/amd-radeon-rx-480-la-prima-scheda-polaris-dal-29-giugno-a-199_index.html

a questo punto, visto che dovrebbe costare 199$ e dovrebbe andare come una 1070 il prezzo diventa superconcorrente aspettando i test e qualcuno che riuscira' a trovare un condensatore mal posizionato per poter denigrare questa scheda.... per il momento dico Viva la concorrenza :D :D :D

gd350turbo
01-06-2016, 11:54
La differenza di prezzo è troppo alta per una scheda dalle prestazioni equivalenti...

E se così fosse , sicuramente nVidia adeguerà il prezzo, nessuno spenderà 300 euro un più per una scheda che va uguale

hexaae
01-06-2016, 12:23
Bah, niente test a 1080p e risoluzioni 2-4K a Ultra con AA sparato (cosa intelligentissima da fare), ormai queste recensioni sono pura masturbazione aritmetica :rolleyes:
Smetterò completamente di leggerle

CrapaDiLegno
01-06-2016, 12:46
Il paragone fra le due cose non c'entra assolutamente nulla.

Gli async shader se ci sono li usi, altrimenti no: è una questione meramente booleana. Dunque non c'è nessun "abuso".

La tessellation, invece, è a totale discrezione dello sviluppatore (e artista che ha realizzato i modelli poligonali): ne può usare poca, tanta, o a vagonate. Da cui la possibilità di abusarne, per l'appunto.

Come le tue? Al solito quando si scende su questioni prettamente tecniche dai il meglio di te, visto che dimostri di non avere la minima idea delle cose di cui pomposamente parli.

Il tutto per accampare scuse pur di difendere la tua amata marca del cuore...

Uh, eccolo. Colui che mette in croce gli altri con le sue profonde e argute argomentazioni sulle virgole fuori posto. Ti sei sentito frustrato dall'ultima conversazione per essere venuto a fare un attacco ad persona (cit.)?
La questione è esattamente la stessa perché come per la tessekation il grado di elaborazione poteva andare oltre il necessario, giusto per mettere in crisi l'HW della concorrenza (che ha dovuto prendere provvedimenti tramite driver e diminuire artificialmente i valori predefiniti dagli artisti come tu dici, oppure limitate il valore massimo impostazione dall'utente... Huuu l'utente può agire sulla tesselation?? Novità per te, eh?) anche con l'async si può strafare. Non sono funzionalità che funzionano in automatico, ma è necessario pensare al motore del gioco che le sfrutti. Quindi no, non è che se ci sono di usano (o abusano, esattamente come i polymorphism engine di nvidia) ma bisogna lavorare per farlo e decidere che vantaggio e pesi avranno.
Io non ho nulla da giustificare. Mi spiace per tutti voi. E non ho azioni Nvidia. Io parlo da uomo libero con possibilità di esprimermi liberamente, liberamente opinabile e criticabile e a differenza tua capace di connettere più di 2 puntini alla volta. Al contrario di te, mio caro poverino, che riporti la voce (frustrata) dell'intetesse di una azienda (che guarda caso fa concorrenza al tuo lavoro e guarda caso non ti sta simpatica). Se c'è uno che dovrebbe tacere sulla propria disposizione verso o contro un marchio, mi spiace, ma sei proprio tu.
Ciaooooo

cdimauro
01-06-2016, 17:42
Uh, eccolo. Colui che mette in croce gli altri con le sue profonde e argute argomentazioni sulle virgole fuori posto.
In questo caso non parliamo di pagliuzze, ma di travi. E pure belle grandi.
Ti sei sentito frustrato dall'ultima conversazione per essere venuto a fare un attacco ad persona (cit.)?
Inutile che cerchi di cambiare discorso e ribaltare la frittata, peraltro facendoti passare per la vittima dell'orco brutto e cattivo: ti ho sempre risposto quando ho avuto qualcosa da dire, come dimostra la storia dei commenti che ci siamo scambiati.

Semplicemente ne hai sparata un'altra talmente grossa che non poteva essere lasciata passare così. Un'altra che si va ad aggiungere alla notevole collezione di tecnoballe che hai tirato fuori da quando continui a parlare di cose che sconosci.
La questione è esattamente la stessa perché come per la tessekation il grado di elaborazione poteva andare oltre il necessario, giusto per mettere in crisi l'HW della concorrenza (che ha dovuto prendere provvedimenti tramite driver e diminuire artificialmente i valori predefiniti dagli artisti come tu dici, oppure limitate il valore massimo impostazione dall'utente... Huuu l'utente può agire sulla tesselation?? Novità per te, eh?)
Scusami, quand'è che avrei ignorato queste cose? Quotami pure, e riporta il link al commento. Grazie.
anche con l'async si può strafare.
Assolutamente falso. Come già detto, gli si async o si usano o non si usano: certamente non si abusano né si strafà, perché manca proprio il concetto. E' come una lampadina: l'accendi o la spegni. Fine della storia.

Infatti non esiste nessun "grado di elaborazione" per gli async shader.

Ma ovviamente se hai informazioni diverse, non hai che da riportarle, eh! Io sono qui che aspetto impazientemente di leggerle.
Non sono funzionalità che funzionano in automatico, ma è necessario pensare al motore del gioco che le sfrutti.
Ma va: chi l'avrebbe mai detto...
Quindi no, non è che se ci sono di usano (o abusano, esattamente come i polymorphism engine di nvidia) ma bisogna lavorare per farlo e decidere che vantaggio e pesi avranno.
Ah, sì? E come? Mi faresti vedere in che modo si dovrebbe lavorare con gli async shader per evitare di "strafare"?

Inoltre potresti fare un esempio di come "pesarli"?

Visto che hai tirato fuori TU la storia sugli async shader "abusati", l'onere della dimostrazione di questa tesi (balla) rimane a tuo carico: accomodati e DIMOSTRA in che modo avverrebbe quest'abuso, e le cose nuove che hai tirato fuori qui sopra.

Nel frattempo mettiamo in piedi il telefono rosso per le GPU disperate per gli abusi subiti dagli sviluppatori a causa degli async shader. :asd:
Io non ho nulla da giustificare. Mi spiace per tutti voi. E non ho azioni Nvidia. Io parlo da uomo libero con possibilità di esprimermi liberamente, liberamente opinabile e criticabile e a differenza tua capace di connettere più di 2 puntini alla volta.
In tal caso darai ampia dimostrazione di questa tua abilità, facendo vedere in che modo si configurerebbe un abuso per gli async shader. :read:

In mancanza il tuo rimane lo sfogo di un fanboy che deve continuamente difendere la propria marca del cuore, anche a costo di sparare balle astronomiche.
Al contrario di te, mio caro poverino, che riporti la voce (frustrata) dell'intetesse di una azienda (che guarda caso fa concorrenza al tuo lavoro e guarda caso non ti sta simpatica).
Concorrenza? Ma se le GPU integrate di Intel hanno mangiato un sacco di mercato sia a nVidia sia ad AMD. :rotfl:
Se c'è uno che dovrebbe tacere sulla propria disposizione verso o contro un marchio, mi spiace, ma sei proprio tu.
Ciaooooo
Ma neanche per sogno: continuo a comportarmi in questo forum come ho sempre fatto, una dozzina d'anni prima che venissi assunto dalla mia azienda.

Il tuo continuo tirarla in ballo dimostra, invece, quanto ami ricadere nella ben nota fallacia logica dell'attacco ad hominem. :read:

L1ttlesn1tch
01-06-2016, 22:39
Uh, eccolo. Colui che mette in croce gli altri con le sue profonde e argute argomentazioni sulle virgole fuori posto. Ti sei sentito frustrato dall'ultima conversazione per essere venuto a fare un attacco ad persona (cit.)?
La questione è esattamente la stessa perché come per la tessekation il grado di elaborazione poteva andare oltre il necessario, giusto per mettere in crisi l'HW della concorrenza (che ha dovuto prendere provvedimenti tramite driver e diminuire artificialmente i valori predefiniti dagli artisti come tu dici, oppure limitate il valore massimo impostazione dall'utente... Huuu l'utente può agire sulla tesselation?? Novità per te, eh?) anche con l'async si può strafare. Non sono funzionalità che funzionano in automatico, ma è necessario pensare al motore del gioco che le sfrutti. Quindi no, non è che se ci sono di usano (o abusano, esattamente come i polymorphism engine di nvidia) ma bisogna lavorare per farlo e decidere che vantaggio e pesi avranno.
Io non ho nulla da giustificare. Mi spiace per tutti voi. E non ho azioni Nvidia. Io parlo da uomo libero con possibilità di esprimermi liberamente, liberamente opinabile e criticabile e a differenza tua capace di connettere più di 2 puntini alla volta. Al contrario di te, mio caro poverino, che riporti la voce (frustrata) dell'intetesse di una azienda (che guarda caso fa concorrenza al tuo lavoro e guarda caso non ti sta simpatica). Se c'è uno che dovrebbe tacere sulla propria disposizione verso o contro un marchio, mi spiace, ma sei proprio tu.
Ciaooooo

Beh che lui sia di parte è cosa nota ed evidente, ma almeno argomenta con fatti concreti. Certo a volte li tira per le orecchie per portare acqua al suo mulino ma ci sta visto che gli danno da mangiare.
Ma tu che lo fai a gratis e con argomenti campati per aria sei proprio ridicolo e urticante!

lucusta
01-06-2016, 23:20
Ma la soluzione in commercio NON è più lenta di quella testata. TUTTE le GTX, anche una "scrausa" 950 accelerano OLTRE le specifiche di base e di boost in presenza di margine termico e se hanno abbastanza potenza. non è che perché è una scheda Nvidia bisogna vedere complotti ovunque, il GPU boost fuzniona così. Se vuoi ti posto un paio di screen della mia 950, senza OC, che va oltre le frequenze stampate sulla scatola. Le specifiche GARANTITE vengono rispettate sempre verso il basso, ma possono venire SUPERATE da QUALUNQUE scheda dotata di GPU boost.

forte, ed i bench?
devo stimare anche se l'esemplare che hanno preso in redazione ha un chip buono o scheggiato?
cioe', se il loro e' superbo (e speso lo e') e mi indicano un ventaglio prestazionale eccezionale, io acquisto la scheda e poi magari mi accorgo che il mio chip e' il peggio, e mi ritrovo con prestazioni inferiori alla concorrenza, che costa anche meno, ma che non usa certi "trucchi"?
cosa strana le schede nvidia che ho avuto sotto mano ultimamente andavano sempre peggio di quanto scritto sulle review, e con gli stessi settaggi...
(poi magari vai a spingerle un po' e vedi che quella della review prende 100-150mhz in piu' di overclock)...

e ora e' anche peggio, perche' la latenza termica la prendono subito, visto che le hanno clockate pure di piu', avendo sguinzagliato la logica di controllo!
fai un bench e quello dopo e' il 20% sotto....
come se chi gioca fa sessioni di 5 minuti, poi aspetta che la scheda si raffreddi e ricomincia... perche' cosi' va' di piu', come hanno scritto loro!

vendono a 1000? testi a 1000, se poi vuoi fare il preciso vai in overclock a vedere il margine del chip, cosi' sei sicuro che tutti quelli che acquisteranno quello specifico prodotto potranno ottenere come minimo quelle prestazioni.

non mi fai vedere una 1070 che fa' bench a 2ghz ma che ha un base clock a 1500, e poi mi scrivi che va' piu' di una Titan X o una Fury, ma solo per i primi 5 minuti.
poi, se non svisceri la questione, perdi di credibilita'.

e poi nei commenti trovi pure chi li giustifica.

lucusta
01-06-2016, 23:42
doppio

cdimauro
02-06-2016, 05:43
Beh che lui sia di parte è cosa nota ed evidente, ma almeno argomenta con fatti concreti. Certo a volte li tira per le orecchie per portare acqua al suo mulino ma ci sta visto che gli danno da mangiare.
Ma tu che lo fai a gratis e con argomenti campati per aria sei proprio ridicolo e urticante!
Come da mia firma, non parlo a nome della mia azienda. Inoltre mi occupo di cose molto diverse (anche se ho lavorato, e lavoro ancora, anche per alcuni progetti riguardo alle nostre GPU integrate, ma si tratta di debugger et similia), per cui mangio facendo ben altro.

Mi aspetto, quindi, che se devo essere criticato, lo si faccia sui contenuti che espongo e riporto, e non perché lavoro nella azienda. Com'è giusto e ovvio che sia in una discussione, dove dovrebbero essere soltanto i contenuti a essere presi in considerazione.

Per il resto ovviamente concordo.

/OT

L1ttlesn1tch
02-06-2016, 06:10
Come da mia firma, non parlo a nome della mia azienda. Inoltre mi occupo di cose molto diverse (anche se ho lavorato, e lavoro ancora, anche per alcuni progetti riguardo alle nostre GPU integrate, ma si tratta di debugger et similia), per cui mangio facendo ben altro.

Mi aspetto, quindi, che se devo essere criticato, lo si faccia sui contenuti che espongo e riporto, e non perché lavoro nella azienda. Com'è giusto e ovvio che sia in una discussione, dove dovrebbero essere soltanto i contenuti a essere presi in considerazione.

Per il resto ovviamente concordo.

/OT

Ti rispondo così ci chiariamo subito, ho letto molti tuoi interventi e come già scritto sono sempre basati su argomenti solidi e su tue conoscenze sull'argomento non discutibili. Però in tutte le discussioni appena qualcuno dice qualcosa contro intel (a ragione visto che intel di porcate ne ha fatte tante quante nVidia se non di più) cerchi sempre di difendere l'indifendibile, ecco io criticavo questo lato del tuo atteggiamento. Magari per farti capire meglio cosa intendo alla prossima discussione ti mando un PVT ;)

cdimauro
02-06-2016, 06:24
OK, forse è meglio, perché non si conciliano molto i solidi argomenti col difendere l'indifendibile. :)

L1ttlesn1tch
02-06-2016, 10:50
OK, forse è meglio, perché non si conciliano molto i solidi argomenti col difendere l'indifendibile. :)

Invece si conciliano visto che intel non ha sempre ragione su tutto e non è un'azienda di santi.... cosa che spesso vuoi far passare. ;) Ma ti ripeto appena trovo un esempio te lo farò presente! :mano:

Jones D. Daemon
02-06-2016, 12:18
forte, ed i bench?
devo stimare anche se l'esemplare che hanno preso in redazione ha un chip buono o scheggiato?
cioe', se il loro e' superbo (e speso lo e') e mi indicano un ventaglio prestazionale eccezionale, io acquisto la scheda e poi magari mi accorgo che il mio chip e' il peggio, e mi ritrovo con prestazioni inferiori alla concorrenza, che costa anche meno, ma che non usa certi "trucchi"?
cosa strana le schede nvidia che ho avuto sotto mano ultimamente andavano sempre peggio di quanto scritto sulle review, e con gli stessi settaggi...
(poi magari vai a spingerle un po' e vedi che quella della review prende 100-150mhz in piu' di overclock)...

e ora e' anche peggio, perche' la latenza termica la prendono subito, visto che le hanno clockate pure di piu', avendo sguinzagliato la logica di controllo!
fai un bench e quello dopo e' il 20% sotto....
come se chi gioca fa sessioni di 5 minuti, poi aspetta che la scheda si raffreddi e ricomincia... perche' cosi' va' di piu', come hanno scritto loro!

vendono a 1000? testi a 1000, se poi vuoi fare il preciso vai in overclock a vedere il margine del chip, cosi' sei sicuro che tutti quelli che acquisteranno quello specifico prodotto potranno ottenere come minimo quelle prestazioni.

non mi fai vedere una 1070 che fa' bench a 2ghz ma che ha un base clock a 1500, e poi mi scrivi che va' piu' di una Titan X o una Fury, ma solo per i primi 5 minuti.
poi, se non svisceri la questione, perdi di credibilita'.

e poi nei commenti trovi pure chi li giustifica.

ecco i bench della mia scrausa GTX 950 :

http://imgur.com/a/P6h5l

Frequenza massima 1190 frequenza in condizioni reali con temperatura e alimentazione sotto controllo 1265mhz. GPU Boost 2.0.

Ora ho questi, mi segno il 3d e quando mi arriva la 1070 ti posto gli screen anche di quella, dato che hai chiesto fonti e bench, come se fossimo qui a sparar pirlate senza cognizione di causa. non credo di essere io che perde di crediblità, ma piuttosto chi parla e non sa come funziona qualcosa.

cdimauro
02-06-2016, 20:45
Invece si conciliano visto che intel non ha sempre ragione su tutto e non è un'azienda di santi.... cosa che spesso vuoi far passare. ;) Ma ti ripeto appena trovo un esempio te lo farò presente! :mano:
Non ho mai sostenuto entrambe le cose, per cui aspetto gli esempi. :fagiano:

ionet
02-06-2016, 22:51
:D :D :D :D
Nel mercatino ... ogni 2 annunci trovi una GTX970 ... una GTX980 ... o una GTX980Ti in vendita ...
:D :D :D :D

Possibile che tanta gente venda o svenda le proprie VGA per spenderne il doppio per VGA che vanno mediamente il 15/20% in più?

e che siamo tutti ricconi?
non e' che semplicemente visto il prezzo della 480,che spazza via tutta la vecchia generazione a 28nm sia di amd che nvidia,cercano di sbarazzarsi di tutto il vecchiume prima che di rimetterci troppo?:D

pensandoci bene nvidia la fascia mainstream sotto la 1070 a suo modo l'ha presentata,basta cercarla nei mercatini dell'usato:rotfl:
fra un mese sara' uno scempio,schede da 200 a 600€ liquidate a quattro spicci:asd:
in molti ci rimetteranno ma questa tirata d'orecchie serve da lezione,non si spende mezzo stipendio o piu' per fare gli sboroni su un forum,il celodurismo fa male,dietro si ma in capoccia no:nono:

gd350turbo
03-06-2016, 10:49
Il mondo basa il suo funzionamento sul celodurismo, in tutti campi, non solo schede video...

CrapaDiLegno
03-06-2016, 13:55
Ciao caro, rieccomi solo ed esclusivamente per te. Lo so che ti sono mancato.
5 minuti del mio prezioso tempo per darti qualche risposta.

In questo caso non parliamo di pagliuzze, ma di travi. E pure belle grandi.
Travi? MMM.... devo essere abbastanza cieco per non vederle.

Inutile che cerchi di cambiare discorso e ribaltare la frittata, peraltro facendoti passare per la vittima dell'orco brutto e cattivo: ti ho sempre risposto quando ho avuto qualcosa da dire, come dimostra la storia dei commenti che ci siamo scambiati.
Io vittima? Non sono te che straparla di Intel e poi alla fine quando glielo si fa notare dice sempre "ecco, attacco ad hominem invece che sugli argomenti (spesso senza capo né coda).

Semplicemente ne hai sparata un'altra talmente grossa che non poteva essere lasciata passare così. Un'altra che si va ad aggiungere alla notevole collezione di tecnoballe che hai tirato fuori da quando continui a parlare di cose che sconosci.

Scusami, quand'è che avrei ignorato queste cose? Quotami pure, e riporta il link al commento. Grazie.
Scusa, quando le avresti prese in considerazione quando hai detto che l'abuso della tesselation non è è l'equivalente di abusare di una'altra funzionalità cme l'Async?

Assolutamente falso. Come già detto, gli si async o si usano o non si usano: certamente non si abusano né si strafà, perché manca proprio il concetto. E' come una lampadina: l'accendi o la spegni. Fine della storia.

Infatti non esiste nessun "grado di elaborazione" per gli async shader.

Ah, sì? E come? Mi faresti vedere in che modo si dovrebbe lavorare con gli async shader per evitare di "strafare"?

2 puntini, Sempre e solo 2 puntini alla volta. Arrivare al terzo per te è un'impresa titanica.

Forse non ti è chiaro che gli ACE sono l'implementazione di AMD alla questione Async. Non c'è scritto in nessun documento che sono l'unico modo di poter eseguire codice asincrono, così come (oh, toh, l'argomento ritorna ed è pertinente?) usare i Polymorph engine di nvidia per eseguire la tesselation.

Quindi dire se ci sono si usano se no no, è una panzana inaudibile.
Al massimo puoi dire che puoi scrivere del codice che sfrutti l'async e che questi faccia massimo uso degli Async di AMD (per la quale cosa... quanti secondo te? I 4 di Tahiti o gli 8 di Hawaii? I 4 dell'APU della XBoxoOne o gli 8 dela PS4? Ah, no, è questione booleana: o si usano o no).

Come detto, e diversamente a quello che hai sostenuto inizialmente (sì, sì rigira la frittata me ormai l'hai fatta) per sfruttare gli ACE (o comunque sia implementata la funzionalità di eseguire codice asincrono di altre architetture) serve costruire un motore ad hoc, non sono funzionalità che si abilitano da sole nella pipeline 3D come le ROPs (che quelle sì, più ne hai più sono sfruttate fino al massimo del carico di lavoro imposto dall'engine).
Ti svelo il segreto che non sapevi, che a seconda di come si fa l'engine del gioco, si può decidere di usare più o meno una certa caratteristica HW: giochi che usano più banda ma meno shader, o ROPs o TMU, quelli che pestano pesantemente sulle unità di calcolo, quelli che strapazzano la parte geometrica e quelli che si tuffano felicemente nell'uso delle TMU/ROPs.
E la somma di tutto ciò porta ad avere motori che si adattano più o meno bene a una certa architettura. E guarda caso è quello che è sempre avvenuto.

Ora dopo tutti questi bla bla, come sempre avulsa dalla discussione iniziale che tu probabilmente non hai capito, ma hai voluto comunque dirottare sul binario della pura polemica personale giusto per volermi dare torto come altre volte facendo figuracce, tutto questo lavoro di uso del codice asincrono ad oggi porta un vantaggio del 10%.
Nel migliore dei casi. Non stiamo parlando del raddoppio delle prestazioni come nel caso di HT sulle CPU con un aumento insignificante delle dimensioni dei core. Di cosa si sta parlando, quindi? Di una feature fondamentale che sarà l'arma di vittoria per il futuro? Io non capisco davvero.
Se facciamo il rapporto tra quanto shader sono necessari per compensare quel 10% di prestazioni in più e tiriamo le somme, ragionando sulle architetture conosciute come GCN e Maxwell, vediamo che le dimensioni delle GPU di AMD rimangono più grandi per pareggiare le prestazioni. E il 10% dei consumi in meno (se proprio vogliamo dire che il 10% di shader in più portano il 10% di consumi in più) non bastano a portare le prestazioni per watt sullo stesso piano.
DI che cosa mi si sta accusando? Di difendere cosa? E perché? Mi sembra che chi sa fare 4 conti in autonomia sa già che la risposta è che nvida si sa difendere da sola con quello che ha fatto finora. Al massimo quello che vedo io sono solo un sacco di rosiconi (te compreso che stai cercando a tutti i costi un punto debole in cui infilare un debole cuneo) che stanno esaltando una feature che AMD ha fatto molto bene, e nvidia a quanto pare no, in maniera irrazionale.
Abbiamo un esempio costruito ad hoc per sfruttare la massimo questa funzionalità, dà benefici relativamente bassi ma sembra che senza non si possa fare nulla di decente o avere la possibilità di competere... vi svelo un segreto: 10% di clock in più per un 12-15% di consumo in più e le prestazioni non solo tornano a equivalersi dove gli ACE fanno la differenza, ma saranno sempre il 10% superiori anche dove gli ACE stanno completamente spenti (e sarà più il tempo in cui dormiranno rispetto a quello in cui lavoreranno).

Trovate un altro argomento per venire ad attaccarmi e dire che sto difendendo a spada tratta qualcosa che si difende da solo se solo smettesse di farvi castelli in aria e guardaste ai numeri veri.
Però se vogliamo continuiamo pure a divertirci con questa sterile discussione che io mi sto divertendo (a parte la perdita di tempo prezioso).

Allego piccolo test su cui magari potete fare un ragionamento, sempre se ci riuscite: http://images.anandtech.com/graphs/graph10067/80321.png


Nel frattempo mettiamo in piedi il telefono rosso per le GPU disperate per gli abusi subiti dagli sviluppatori a causa degli async shader. :asd:
Uauauauau,, che ridere... che spiritoso... mamma mia.. aspetta che vado a cambiarmi per la battutona.
Comunque hai ragione. Vado ad aggiungere all'elenco dei motivi della chiamata al telefono rosso oltre che per abuso di tesselation, anche quello di codice asincrono. Mi sembra che in passato, ma anche nel presente, la chiamata al codice rosso dell'abuso delle capacità dio calcolo peculiari dell'architettura nvidia siano state moltissime. Vediamo se quelle per l'uso del codice asincrono vanno a pareggiare.


Concorrenza? Ma se le GPU integrate di Intel hanno mangiato un sacco di mercato sia a nVidia sia ad AMD. :rotfl:
Concorrenza... Ma lo sai che significato ha la parola? "Mangiare quote di mercato" è forse smette di essere o avere concorrenza? Tu davvero hai un vocabolario tutto tuo. E ti piace fare le pulci su quelli degli altri e non ti rendi conto che spesso pur di fare "il simpa della compa" dici un sacco di str0nzate come in questo caso: poiché Intel ha "mangiato quote di mercato" smette di avere concorrenza. Forse nei tuoi sogni. Comincia a pensare ai 12000 licenziati che magari ti suggeriscono il fatto che la concorrenza esiste ancora (per nostra fortuna).

Ma neanche per sogno: continuo a comportarmi in questo forum come ho sempre fatto, una dozzina d'anni prima che venissi assunto dalla mia azienda.

Il tuo continuo tirarla in ballo dimostra, invece, quanto ami ricadere nella ben nota fallacia logica dell'attacco ad hominem. :read:
Aaaaah... ecco l'attacco ad hominem. Mi mancava. Davvero. E' un po' che non lo nominavi.
Spero per te che durante la dozzina di anni prima di venire assunto da Intel non facessi gli stessi ragionamenti strampalati per cercare di portare acqua al tuo mulino. Certe volte sono davvero imbarazzanti. Spero che il tutto sia solo conseguenza dell'astio che hai nei confronti di coloro che parlano male della tua azienda e bene della sua concorrenza.

Saluti. E attento alla sedia. Potrebbe traballare tra un po'. Sai, quella brutta cosa chiamata concorrenza...

Alekx
03-06-2016, 14:00
e che siamo tutti ricconi?
non e' che semplicemente visto il prezzo della 480,che spazza via tutta la vecchia generazione a 28nm sia di amd che nvidia,cercano di sbarazzarsi di tutto il vecchiume prima che di rimetterci troppo?:D

pensandoci bene nvidia la fascia mainstream sotto la 1070 a suo modo l'ha presentata,basta cercarla nei mercatini dell'usato:rotfl:
fra un mese sara' uno scempio,schede da 200 a 600€ liquidate a quattro spicci:asd:
in molti ci rimetteranno ma questa tirata d'orecchie serve da lezione,non si spende mezzo stipendio o piu' per fare gli sboroni su un forum,il celodurismo fa male,dietro si ma in capoccia no:nono:

Non penso siano tutti ricconi, ma io la penso in questo modo viste le numerose vendite della serie 9xx

Visto i prezzi delle schede Nvidia e' chiaro che la nuova generazione oramai declassi la "vecchia" deprezzandola di molto. A questo punto le 970 oramai le devi svendere se la vuoi dare via e qui diciamo che ci puoi anche rosikare poco, ma per le 980 la vedo dura non rosikare con quello che l'hai pagata.

La 970 la compri usata a 250 euro ma a quel prezzo compri la 480 di AMD nuova di pacca che dovrebbe andare anche di piu'.;)
Per parcondicio lo stesso problema lo avra' la 390/390x quando uscira' la 480. A questo punto mi incominciano a prudere le mani per poter acquistare una 290 da affiancare alla mia, spendendo relativamente poco. :yeah:

Raven
03-06-2016, 14:06
Non penso siano tutti ricconi, ma io la penso in questo modo viste le numerose vendite della serie 9xx

Visto i prezzi delle schede Nvidia e' chiaro che la nuova generazione oramai declassi la "vecchia" deprezzandola di molto.

Ho appena guardato... Sul mercatino ce ne sono un sacco (980 /980ti) a prezzi ormai "fuori di testa"... :D

CrapaDiLegno
03-06-2016, 14:14
Ho appena guardato... Sul mercatino ce ne sono un sacco (980 /980ti) a prezzi ormai "fuori di testa"... :D

Un prezzo non è mai fuori di testa finché trovi qualcuno disposto a pagare.
Se non lo trovi, il prezzo scenderà finché non lo si trova.
Finché queste schede AMD non saranno fuori e non si saprà esattamente quali sono e loro prestazioni, non può certo esserci svendita totale. Poi, forse, anche sì.

Spoiker
03-06-2016, 18:03
E' cpu limited con la mia configurazione?

tanto per sapere così fra un po' di tempo qnd costerà saprò già cosa fare..

Nessuno mi ha risposto quindi immagino di no...
bene bene.. un possibile regalo per Natale..

xzonex
03-06-2016, 19:10
Nessuno mi ha risposto quindi immagino di no...
bene bene.. un possibile regalo per Natale..

ciao, scusa, dipende da che risoluzione giochi.
probabilmente in una parte dei giochi sei fortemente cpu limited, soprattutto in full hd.

Ho appena guardato... Sul mercatino ce ne sono un sacco (980 /980ti) a prezzi ormai "fuori di testa"... :D

Aspetta un paio di settimane ;)

cdimauro
03-06-2016, 19:43
Ciao caro, rieccomi solo ed esclusivamente per te. Lo so che ti sono mancato.
5 minuti del mio prezioso tempo per darti qualche risposta.
Se hai impiegato 5 minuti per scrivere questo papiro, hai battuto il guiness dei primati.
Travi? MMM.... devo essere abbastanza cieco per non vederle.
Esattamente.
Io vittima? Non sono te che straparla di Intel e poi alla fine quando glielo si fa notare dice sempre "ecco, attacco ad hominem invece che sugli argomenti (spesso senza capo né coda).
Dov'è che avrei "straparlato" di Intel? Finora quest'azienda la tirano fuori sempre gli altri, senza motivo, ricadendo nel classico attacco ad hominem, per l'appunto.

Comunque puoi sempre dimostrarmi che abbia "straparlato" dell'azienda: quotami e riportami pure il link. Grazie.
Scusa, quando le avresti prese in considerazione quando hai detto che l'abuso della tesselation non è è l'equivalente di abusare di una'altra funzionalità cme l'Async?
Appunto: non si prendono in considerazione perché non c'entrano niente.

Con la tessellation è l'artista, in accordo con chi sviluppa l'engine, che sa quanto e come usarlo, dosandolo in base ai modelli poligonali e ai limiti imposti dallo sviluppatore.

Con gli async shader non esiste nulla del genere: se per un determinato frame il gioco prevede di eseguire 10 mila shader di tipo graphic e altri 10 mila di tipo compute, in totale deve eseguire 20 mila shader. E qui le opzioni sono due: o li esegue in maniera asincrona oppure in maniera sincrona, a seconda della disponibilità dell'hardware e dell'abilitazione o meno di quest'ultima funzionalità.

Ma sempre 20 mila ne deve eseguire in totale, e la "terza via", quella di CrapaDiLegno, esiste solo nella tua testa che, nick alla mano, è tutta un programma. :asd:
2 puntini, Sempre e solo 2 puntini alla volta. Arrivare al terzo per te è un'impresa titanica.

Forse non ti è chiaro che gli ACE sono l'implementazione di AMD alla questione Async. Non c'è scritto in nessun documento che sono l'unico modo di poter eseguire codice asincrono, così come (oh, toh, l'argomento ritorna ed è pertinente?) usare i Polymorph engine di nvidia per eseguire la tesselation.
Infatti non è l'unico modo: i driver di nVidia implementano già gli async shader, ma quel che manca è il SUPPORTO HARDWARE. Per cui viene penalizzata dalle prestazioni, mentre AMD no perché ha diversi ACE a disposizione per eseguire questo task senza intervento della CPU.

Ancora una volta, il Polymorph engine non c'entra nulla. Vedi sopra per maggiori dettagli.
Quindi dire se ci sono si usano se no no, è una panzana inaudibile.
Per chi non capisce un'acca di come funzionino.
Al massimo puoi dire che puoi scrivere del codice che sfrutti l'async e che questi faccia massimo uso degli Async di AMD (per la quale cosa... quanti secondo te? I 4 di Tahiti o gli 8 di Hawaii? I 4 dell'APU della XBoxoOne o gli 8 dela PS4? Ah, no, è questione booleana: o si usano o no).
Ancora una volta dimostri di non avere la minima idea di quello di cui stai parlando.

Sì, la questione rimane sempre booleana: li si usa oppure no.

Poi che le GPU di AMD abbiano gli ACE per accelerarne l'esecuzione è cosa trasparente agli sviluppatori, esattamente com'è trasparente l'implementazione di nVidia che non ha disposizione nulla del genere, ma che è comunque in grado di eseguire gli async shader sempre trasparentemente rispetto al gioco che gli ha "semplicemente" chiesto di eseguirli.
Come detto, e diversamente a quello che hai sostenuto inizialmente (sì, sì rigira la frittata me ormai l'hai fatta) per sfruttare gli ACE (o comunque sia implementata la funzionalità di eseguire codice asincrono di altre architetture) serve costruire un motore ad hoc, non sono funzionalità che si abilitano da sole nella pipeline 3D come le ROPs (che quelle sì, più ne hai più sono sfruttate fino al massimo del carico di lavoro imposto dall'engine).
ROTFL: continui ancora con queste balle spaziali. E chi ti ferma più. :rotfl:

Come detto sopra, gli ACE vengono sfruttati in maniera trasparente. I giochi devono fare solo una cosa: usare gli async shader se la GPU li mette a disposizione. Cosa che tutte le GPU di classe DirectX12 ormai fanno.

Quindi non servono engine specifici per sfruttare gli ACE, al contrario della balla che hai riportato.

Ma se hai informazioni diverse, e come ti ho già chiesto prima, non hai che da riportarle. Solo che "stranamente" preferisci trincerarti dietro wall-of-text di pensieri personali che non hanno nulla a che spartire con la realtà.
Ti svelo il segreto che non sapevi, che a seconda di come si fa l'engine del gioco, si può decidere di usare più o meno una certa caratteristica HW: giochi che usano più banda ma meno shader, o ROPs o TMU, quelli che pestano pesantemente sulle unità di calcolo, quelli che strapazzano la parte geometrica e quelli che si tuffano felicemente nell'uso delle TMU/ROPs.
E la somma di tutto ciò porta ad avere motori che si adattano più o meno bene a una certa architettura. E guarda caso è quello che è sempre avvenuto.
Bene, allora mettiamo che tu hai 10 mila + 10 mila shader da eseguire per un certo frame, come già illustrato sopra. Hai una GPU che è in grado di eseguire shader in maniera asincrona e un'altra che non è in grado di farlo. Come lo realizzi il gioco SE decidi di sfruttare gli async shader?

Chessò, dei 20 mila shader ne esegui un tanto al chilo asincroni e un altro tanto al chilo in maniera sincrona? :asd:
Ora dopo tutti questi bla bla, come sempre avulsa dalla discussione iniziale che tu probabilmente non hai capito, ma hai voluto comunque dirottare sul binario della pura polemica personale giusto per volermi dare torto come altre volte facendo figuracce,
Certo, certo: vivi pure nel tuo mondo dorato dove ti illudi di aver avuto ragione. Gli altri utenti giudicheranno. E, anzi, per tua sfortuna lo fanno già. :asd:
tutto questo lavoro di uso del codice asincrono ad oggi porta un vantaggio del 10%.
Nel migliore dei casi. Non stiamo parlando del raddoppio delle prestazioni come nel caso di HT sulle CPU con un aumento insignificante delle dimensioni dei core. Di cosa si sta parlando, quindi? Di una feature fondamentale che sarà l'arma di vittoria per il futuro? Io non capisco davvero.
Considerato che TUTTE le console attuali, come pure quelle nuove (inclusa l'NX di Nintendo), hanno tutte supporto hardware (ACE, per AMD) per gli async shader, e che tanti loro gioco vengono e verranno portati su PC, direi proprio di sì: è una feature a dir poco fondamentale.
Se facciamo il rapporto tra quanto shader sono necessari per compensare quel 10% di prestazioni in più e tiriamo le somme, ragionando sulle architetture conosciute come GCN e Maxwell, vediamo che le dimensioni delle GPU di AMD rimangono più grandi per pareggiare le prestazioni. E il 10% dei consumi in meno (se proprio vogliamo dire che il 10% di shader in più portano il 10% di consumi in più) non bastano a portare le prestazioni per watt sullo stesso piano.
Per le performance per watt puoi parlare con PaulGuru e cercare di convincerlo che sono importanti. Ti risponderà che per un hard core gamer, con schede che consumano 200W, non gliene fra nulla che il supporto agli async shader possa far aumentare i consumi di altri 20W.

Sempre che quello che hai riportato sia vero, visto che nell'altro thread stai prendendo mazzate immani su TDP vs consumi, da chiunque passi. :asd:
DI che cosa mi si sta accusando? Di difendere cosa? E perché? Mi sembra che chi sa fare 4 conti in autonomia sa già che la risposta è che nvida si sa difendere da sola con quello che ha fatto finora.
Come no: basti vedere i risultati con gli async shader attivati sulle sue schede. :asd:
Al massimo quello che vedo io sono solo un sacco di rosiconi (te compreso che stai cercando a tutti i costi un punto debole in cui infilare un debole cuneo) che stanno esaltando una feature che AMD ha fatto molto bene, e nvidia a quanto pare no, in maniera irrazionale.
Mi sfugge il motivo per cui dovrei rosicare, visto che non parteggio né per nVidia per AMD. Anzi, la mia ultima scheda video discreta è stata una Radeon 9600Pro, e dunque non do più da mangiare ad AMD o nVidia da parecchi anni.

Comunque dimmi pure: perché dovrei rosicare secondo te? Sii chiaro. :read:
Abbiamo un esempio costruito ad hoc per sfruttare la massimo questa funzionalità, dà benefici relativamente bassi ma sembra che senza non si possa fare nulla di decente o avere la possibilità di competere... vi svelo un segreto: 10% di clock in più per un 12-15% di consumo in più e le prestazioni non solo tornano a equivalersi dove gli ACE fanno la differenza, ma saranno sempre il 10% superiori anche dove gli ACE stanno completamente spenti (e sarà più il tempo in cui dormiranno rispetto a quello in cui lavoreranno).
Questo è quello di cui t'illudi: gli ACE, al contrario, verranno sempre più utilizzati (vedi sopra), e le differenze non saranno di pochi punti percentuali (non lo sono nemmeno adesso, peraltro).

Nel frattempo voglio vedere come farà nVidia a effettuare cambiamenti radicali alle sue architetture per supportare gli async shader, quando AMD ha un vantaggio tecnologico di ANNI che sta portando i suoi frutti.

Cambiare architettura non è certo come cambiare le mutande...
Trovate un altro argomento per venire ad attaccarmi e dire che sto difendendo a spada tratta qualcosa che si difende da solo se solo smettesse di farvi castelli in aria e guardaste ai numeri veri.
Però se vogliamo continuiamo pure a divertirci con questa sterile discussione che io mi sto divertendo (a parte la perdita di tempo prezioso).
Tranquillo che anche gli altri utenti si stanno divertendo molto, per cui continua pure. :D
Allego piccolo test su cui magari potete fare un ragionamento, sempre se ci riuscite: http://images.anandtech.com/graphs/graph10067/80321.png
Quindi?
Uauauauau,, che ridere... che spiritoso... mamma mia.. aspetta che vado a cambiarmi per la battutona.
Comunque hai ragione. Vado ad aggiungere all'elenco dei motivi della chiamata al telefono rosso oltre che per abuso di tesselation, anche quello di codice asincrono. Mi sembra che in passato, ma anche nel presente, la chiamata al codice rosso dell'abuso delle capacità dio calcolo peculiari dell'architettura nvidia siano state moltissime. Vediamo se quelle per l'uso del codice asincrono vanno a pareggiare.
Peccato che non esiste proprio nessun abuso: vedi sopra.

Poi se finalmente ci darai prova di come si possa configurare un abuso con gli async shader, anziché continuare a riportare TUE vuote e inutili parole, sarà un giorno da incorniciare...
Concorrenza... Ma lo sai che significato ha la parola? "Mangiare quote di mercato" è forse smette di essere o avere concorrenza? Tu davvero hai un vocabolario tutto tuo. E ti piace fare le pulci su quelli degli altri e non ti rendi conto che spesso pur di fare "il simpa della compa" dici un sacco di str0nzate come in questo caso: poiché Intel ha "mangiato quote di mercato" smette di avere concorrenza. Forse nei tuoi sogni.
Se ti fossi degnato di vedere l'andamento del mercato delle GPU da un po' di anni a questa parte, avresti notato chi è sotto pressione e si sente minacciato dalla concorrenza. :read:
Comincia a pensare ai 12000 licenziati che magari ti suggeriscono il fatto che la concorrenza esiste ancora (per nostra fortuna).
Cosa che non c'entra proprio nulla, visto che parliamo di mercati diversi.

Ribadisco quanto detto sopra: è Intel che deve sentirsi minacciata dalla concorrenza di nVidia e GPU nel mercato delle GPU? Rispondi su questo, anziché di cambiare discorso.
Aaaaah... ecco l'attacco ad hominem. Mi mancava. Davvero. E' un po' che non lo nominavi.
Che ci posso fare: sei tu che dai modo di citarlo. Se non ci ricadessi, ovviamente non lo riporterei.
Spero per te che durante la dozzina di anni prima di venire assunto da Intel non facessi gli stessi ragionamenti strampalati per cercare di portare acqua al tuo mulino.
Puoi sempre controllare quello che ho scritto: ci sono circa 20 mila commenti che ho scritto in poco meno di 15 anni.
Certe volte sono davvero imbarazzanti. Spero che il tutto sia solo conseguenza dell'astio che hai nei confronti di coloro che parlano male della tua azienda e bene della sua concorrenza.
Di quale concorrenza parli? Di quella in ambito GPU? Vedi sopra. :read:

Per il resto, e come già detto, ne hai sparata un'altra delle tue che non poteva essere lasciata passare, ed è per questo che ti ho replicato. Come sempre. Come faccio quando ho qualcosa da dire, a prescindere da chi mi trovo davanti.

E basti vedere, per l'appunto, il lungo elenco dei miei commenti in merito.
Saluti. E attento alla sedia. Potrebbe traballare tra un po'. Sai, quella brutta cosa chiamata concorrenza...
Mamma mia che paura: me la sono fatta addosso. :D

Draco89
08-06-2016, 18:39
qualcuno puo spiegarmi perche le founderso dovrebbero costare di piu` di quelle brandizzate?

Pino90
08-06-2016, 21:40
qualcuno puo spiegarmi perche le founderso dovrebbero costare di piu` di quelle brandizzate?

Perché le custom ci mettono un po' ad arrivare in commercio e in questo modo nvidia fa soldi sull'esclusiva.

Galcone
08-06-2016, 22:42
:mbe: