View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
appleroof
07-07-2016, 10:46
Sempre da wccftech riporto questo
The reference variant only features 6 GB memory and we haven’t seen any mention of 3 GB variants from NVIDIA. The 3 GB models that were much talked about in rumors seem to be a different GP106 GPU which should hit at prices around $149 US.
In pratica è probabile che non ci sarà una variante a 3gb che a questo punto potrebbe essere direttamente la 1050
appleroof
07-07-2016, 10:46
Però così l'estremo massimo del range (299) a cosa si riferirebbe? Forse roba superclocked? O FE?
Sent from my Sboron™ using Tapatalk
I link riferiscono quel prezzo alle FE...
Jones D. Daemon
07-07-2016, 10:47
Spero che il prezzo sia riferito alla 6 GB!
In quel caso ci sarebbe una differenza di 20 $ rispetto la 480 8GB! Attendiamo di vedere come va!
dovrebbe essere così, 249$ per la 6gb
http://wccftech.com/nvidia-geforce-gtx-1060-unleashed-249-usd/?utm_campaign=Roost&utm_source=Roost&utm_medium=push
vinchent_PSP
07-07-2016, 10:52
Sono molto, molto soddisfatto. 249$ per i 6GB e va come una 980. Questa scheda è perfetta per il fullhd.
Anche se, frenando per un secondo gli entusiasmi, la realtà sarà:
- disponibilità Agosto (diciamo anche Settembre).
- prezzo di una scheda custom decente: 280€
e poi, meglio aspettare la recensione di oggi. La cosa positiva è che dato il tdp modesto, non serve una custom di grande qualità (ovviamente in base anche alle esigenze personali).
Ciao!
EDIT: Gigabyte 1060 G1 Gaming!
http://cdn.videocardz.com/1/2016/07/GIGABYTE-GeForce-GTX-1060-G1-GAMING.jpg
Bi7hazard
07-07-2016, 10:59
ma è normale che genera solo 4.4tflops contro i 5.8 della radeon 480? Come fa ad essere superiore?
Ale55andr0
07-07-2016, 11:09
ma è normale che genera solo 4.4tflops contro i 5.8 della radeon 480? Come fa ad essere superiore?
sono architetture diverse, i tflop di per se non equivalgono a x fps, le prestazioni matematiche dicono poco sulle effettive prestazioni nel rendering 3D
ma sicuri che oggi escono le recensioni?
In effetti io non credo escano oggi.
Normalmente almeno qualche recensore annuncia di avere in mano le schede nei giorni antecedenti l'uscita.
Invece non ho letto nessuna conferma da parte dei recensori.
suneatshours86
07-07-2016, 11:52
In effetti io non credo escano oggi.
Normalmente almeno qualche recensore annuncia di avere in mano le schede nei giorni antecedenti l'uscita.
Invece non ho letto nessuna conferma da parte dei recensori.
paper launch di dimensioni stratosferiche giusto per bloccare le vendite delle 480? possibile e già ipotizzato in largo anticipo http://www.bitsandchips.it/52-english-news/7196-how-to-slow-down-rx480-sales
per una gtx 1060 custom a prezzi umani si dovrà attendere molto, probabilmente troppo. Talmente tanto tempo che in mezzo potrebbe passarci anche una rx 485 o 490 (viste le ultime scoperte su polaris e le ottime rese di GF). Vediamo se l'ho sparata grossa :sofico:
Ale55andr0
07-07-2016, 12:09
per una gtx 1060 custom a prezzi umani si dovrà attendere molto, probabilmente troppo. Talmente tanto tempo che in mezzo potrebbe passarci anche una rx 485 o 490 (viste le ultime scoperte su polaris e le ottime rese di GF). Vediamo se l'ho sparata grossa :sofico:
come no, guarda si stanno proprio scapicollando in AMD per cacciarle fuori :asd:
appleroof
07-07-2016, 12:10
Confermerebbe quel che ipotizzavo dall'inizio :>
Sent from my Sboron™ using Tapatalk
Riferito ai laptop, ma invece che 3gb/192bit potrebbe avere 4gb/128bit....?
http://i2.wp.com/laptopmedia.com/wp-content/uploads/2016/06/nvidia-laptopmedia.jpg?w=940
AceGranger
07-07-2016, 12:19
ma è normale che genera solo 4.4tflops contro i 5.8 della radeon 480? Come fa ad essere superiore?
1060 4,5 TFLOPs
480 5,5 TFLOPs
1070 6,5 TFLOPs
la 1070 ha il 18% in piu di TFLOPs, ma il 50% in piu di prestazioni reali.
http://wccftech.com/amd-radeon-rx-480-polaris-10-launch/
http://wccftech.com/nvidia-geforce-gtx-1060-unleashed-249-usd/
https://tpucdn.com/reviews/AMD/RX_480/images/perfrel_2560_1440.png
paper launch di dimensioni stratosferiche giusto per bloccare le vendite delle 480? possibile e già ipotizzato in largo anticipo http://www.bitsandchips.it/52-english-news/7196-how-to-slow-down-rx480-sales
per una gtx 1060 custom a prezzi umani si dovrà attendere molto, probabilmente troppo. Talmente tanto tempo che in mezzo potrebbe passarci anche una rx 485 o 490 (viste le ultime scoperte su polaris e le ottime rese di GF). Vediamo se l'ho sparata grossa :sofico:
Non so, mi sembrerebbe una mossa molto stupida dato che le Rx480 sono cmq in sold out (il che vuol dire che la richiesta e' comunque maggiore all'offerta) e che comunque sia Nvidia non avra' comunque una grossa disponibilita' nei prox mesi (per via dei limitati wafers).
Una mossa del genere avrebbe avuto senso solo se Nvidia avesse una tale capacita' produttiva a disposizione da inondare il mercato con una offerta superiore alla domanda.
appleroof
07-07-2016, 12:27
Non so, mi sembrerebbe una mossa molto stupida dato che le Rx480 sono cmq in sold out (il che vuol dire che la richiesta e' comunque maggiore all'offerta) e che comunque sia Nvidia non avra' comunque una grossa disponibilita' nei prox mesi (per via dei limitati wafers).
Una mossa del genere avrebbe avuto senso solo se Nvidia avesse una tale capacita' produttiva a disposizione da inondare il mercato con una offerta superiore alla domanda.
Mera curiosità, giuro: ma in mancanza di dati certi, perché amd sarebbe in sold out per la manacanza di disponibilità di schede (deduco) e nvidia per lo stesso motivo avrebbe invece wafers limitati?
suneatshours86
07-07-2016, 12:28
Non so, mi sembrerebbe una mossa molto stupida dato che le Rx480 sono cmq in sold out (il che vuol dire che la richiesta e' comunque maggiore all'offerta) e che comunque sia Nvidia non avra' comunque una grossa disponibilita' nei prox mesi (per via dei limitati wafers).
Una mossa del genere avrebbe avuto senso solo se Nvidia avesse una tale capacita' produttiva a disposizione da inondare il mercato con una offerta superiore alla domanda.
si mi sono spiegato male. Intendo che visti i vari leak e la bassa disponibilità prevista delle 1060 è molto probabile attendersi una 490 verso ottobre/novembre per strozzare le vendite delle 1060.
Io mi auguro sia così! tutto a vantaggio dell'utente finale. C'è bisogno di una ridimensionata dei prezzi
Mera curiosità, giuro: ma in mancanza di dati certi, perché amd sarebbe in sold out per la manacanza di disponibilità di schede (deduco) e nvidia per lo stesso motivo avrebbe invece wafers limitati?
Io non so dove abbiate letto delle 480 in sold out :\ ... Vanno a ruba ma per quello che si sa GF ha ottime rese produttive al momento e sta garantendo la disponibilità sul mercato nonostante l'ampia richiesta.
Nvidia potrebbe avere wafer limitati perchè "TSMC during 2H16 will have zero new slots available", perchè si suppone che nvidia abbia a disposizione appena 9k wafers/month mentre amd con GF avrebbe 20k wafers/month.
Il tutto rafforzato dal fatto che le RX480 abbondano dal day1, mentre di 1070/1080 se ne vedono con il contagocce e a prezzi stratosferici
Aggiungiamoci anche il lancio odierno delle 1060 con effettiva disponibilità prevista per il 14 (?) ed ecco che le voci da bar sembrano sempre più realistiche
si mi sono spiegato male. Intendo che visti i vari leak e la bassa disponibilità prevista delle 1060 è molto probabile attendersi una 490 verso ottobre/novembre per strozzare le vendite delle 1060.
Io mi auguro sia così! tutto a vantaggio dell'utente finale. C'è bisogno di una ridimensionata dei prezzi
Non so se ottobre/novembre sia fattibile... Cioè la 490 dovrebbe essere basata su Vega 10 e mi pare che sia Vega 10 che Vega 11(ancora incerta l'uscita) hanno le HBM2 il che potrebbe portare il rilascio direttamente nel Q1 2017 o poco prima di Natale per le reference...
suneatshours86
07-07-2016, 12:40
Non so se ottobre/novembre sia fattibile... Cioè la 490 dovrebbe essere basata su Vega 10 e mi pare che sia Vega 10 che Vega 11(ancora incerta l'uscita) hanno le HBM2 il che potrebbe portare il rilascio direttamente nel Q1 2017 o poco prima di Natale per le reference...
vedremo,ma non voglio andare troppo OT anche se mi piacerebbe scambiare i pareri anche su questo discorso :)
Mi aspetto che oggi vengano PRESENTATE le 1060, con le belle superslide di nvidia, niente di più, ma alcune fonti dicono che per le prime review bisognerà attendere due o tre giorni.
Dragon2002
07-07-2016, 12:53
Ma non era oggi il giorno della 1060,ma non ne hanno nemmeno un 100 da mandare ai migliori siti del mondo compreso questo?
La phantom edition.
Nvidia e le schede video inesistenti che pure di 1070 e 1080 ce ne sono 4 in giro.
Mera curiosità, giuro: ma in mancanza di dati certi, perché amd sarebbe in sold out per la manacanza di disponibilità di schede (deduco) e nvidia per lo stesso motivo avrebbe invece wafers limitati?
Che amd sia in sold out e' un fatto basta vedere siti come newegg et vsimilia.
Che questo sia a causa del limitato numero di schede (anche se i siti specializzati dicono che l'iniziale disponibilita' fosse buona) o perche' la domanda sia molto alta non lo so non conoscendo i numeri.
Che Nvidia abbia un numero limitato di wafer e' un rumor (quindi non qualcosa di certo) riportato da vari siti. Si parla di 9000 wafer mensili. E' ovvio che se cio' fosse vero Nvidia avrebbe interesse a concentrare la produzione su quei chip che danno un ritorno maggiore o per i quali abbia obblighi contrattuali riguardo la fornitura (come potrebbe essere ad esempio per gp100). Ovvio che anche qui mancano i numeri, ma verosimilmente i margini credo siano maggiori per gp104 a meno che le rese non siano orrende mentre siano ottime per gp106.
Una guerra commerciale ha senso solo quando la capacita' produttiva e' capace di incontrare (e superare) la domanda. Se cosi' non fosse paper launch per fermare la concorrenza non hanno molto senso e sono mosse stupide (dato che perdi la confidenza dei consumatori senza un reale beneficio di ritorno).
scorpion73
07-07-2016, 12:56
C'è una cosa che non capisco: ma se la RX480 va come una R9 390 come si evince dal grafico sopra, ma che senso ha come scheda?
Tanto vale che abbassano il prezzo della R9 390...
Gigibian
07-07-2016, 12:58
Non so se era già stato postato:
http://www.comptoir-hardware.com/actus/cartes-graphiques/31936-les-gtx-1060-seraient-a-249-de-base-et-299-en-founders-edition.html
GTX 1060, 6GB a 249$ con performance > della gtx 980 e TDP 120W
Mera curiosità, giuro: ma in mancanza di dati certi, perché amd sarebbe in sold out per la manacanza di disponibilità di schede (deduco) e nvidia per lo stesso motivo avrebbe invece wafers limitati?
https://forums.overclockers.co.uk/showpost.php?p=29723592&postcount=75
2000 480 in 24hr
Questa la situazione due giorni dopo il lancio di polaris
per la situazione nvidia basta invece leggerai 100 pagine di bestemmie di gente che non riusciva a trovarne una e/o a prezzi decenti
Ergo
Shortage
Quando inizi dalla parte alta le rese non sono mai invidiabili e questa situazione era prevedibile
Dragon2002
07-07-2016, 13:00
C'è una cosa che non capisco: ma se la RX480 va come una R9 390 come si evince dal grafico sopra, ma che senso ha come scheda?
Tanto vale che abbassano il prezzo della R9 390...
La R9 390 non la fanno più.
Cmq la rx 480 almeno esiste e non è un pregio di poco conto,Nvidia ha fatto uscire tutta roba inesistente e a prezzi folli,ricordiamo che il prezzo consigliato da lei stessa per la 1070 è 370 dollari,che tasse comprese può arrivare a 400 euro in Italia,ma in realtà la scorsa generazione il cambio fu praticamente uno ad uno,invece ora troviamo questa scheda dai 450 euro in su.
C'è una cosa che non capisco: ma se la RX480 va come una R9 390 come si evince dal grafico sopra, ma che senso ha come scheda?
Tanto vale che abbassano il prezzo della R9 390...
Non so se era già stato postato:
http://www.comptoir-hardware.com/actus/cartes-graphiques/31936-les-gtx-1060-seraient-a-249-de-base-et-299-en-founders-edition.html
GTX 1060, 6GB a 249$ con performance > della gtx 980 e TDP 120W
94 minuti di applausi
Gigibian
07-07-2016, 13:01
E mi raccomando, non postarlo sul thread delle 480, che se per qualche motivo dovesse andare di più e consumare meno ti diranno che si parlerà solo di 480 e non si fanno confronti con Nvidia...
Se invece dovesse andare peggio, allora potrai farlo :D
l'avevo postato per "abitudine" lì, pensando di fare cosa "gradita", visto che si parlava di confronti, ma mi hanno subito attaccato tempo 0 :mbe:
L'ho editato immediatamente e l'ho postato qua :O
Dragon2002
07-07-2016, 13:02
Da che cosa lo deduci che negli shop c'è ne sono quante ne vuoi disponibili, sia FE che custom?
E' solo il prezzo il problema, come diciamo sempre...
Ma se è una serie infinita di non disponibile,in arrivo ecc..ecc..
Quei 4 negozi che gliene hanno mandate 4 la sovraprezzano in maniera esagerata. Poi quando hanno finito le loro 4 schede,tocca al negozio successivo.
vinchent_PSP
07-07-2016, 13:06
E mi raccomando, non postarlo sul thread delle 480, che se per qualche motivo dovesse andare di più e consumare meno ti diranno che si parlerà solo di 480 e non si fanno confronti con Nvidia...
Se invece dovesse andare peggio, allora potrai farlo :D
Si infatti mamma mia c'è gente strana in quel thread. Gente che sta mettendo in blacklist utenti solo perché si parla di fatti oggettivi. Voglio dire, qua nessuno viene pagato da nVidia o AMD. Stiamo parlando di schede "low budget" e quindi é ovvio che se una delle due é meno costosa e/o va di piu, é giusto preferire l una rispetto l altra. Bah. Vabe, io no tifo per nessuno, compro quella che costa di meno. Spero che nemmeno voi siete così strani come quelli dell altro thread.
Peace
Gigibian
07-07-2016, 13:06
Il solito scatenatore di flame, ma non ti stanchi mai? :D
Ti lamenti di la, e poi sei sempre qui...
Ma se ti piace solo AMD, ed è una scelta da rispettare, perché devi fare ciò che gli altri non vogliono venga fatto di qua?
Se ti piace parlare male di Nvidia perché essere fanboy AMD ti rende felice, parlane male di la e rispetta chi vuole comprare altro...
Ma gli stai pure a rispondere? :asd:
uno che come avatar ha "Trollare" e come signature "AMD Fanboy". Poi come si fa essere fan di una "azienda" continuerò a non capirlo mai.
Da sto punto di vista ho alternato schede AMD e NVIDIA in rapporto 1:1 dalla riva TNT all'ATI 9500pro -> 9700 alla Nvidia 6800GT alla ATI X1900xt etc... :P
Gigibian
07-07-2016, 13:07
Si infatti mamma mia c'è gente strana in quel thread. Gente che sta mettendo in blacklist utenti solo perché si parla di fatti oggettivi. Voglio dire, qua nessuno viene pagato da nVidia o AMD. Stiamo parlando di schede "low budget" e quindi é ovvio che se una delle due é meno costosa e/o va di piu, é giusto preferire l una rispetto l altra. Bah. Vabe, io no tifo per nessuno, compro quella che costa di meno. Spero che nemmeno voi siete così strani come quelli dell altro thread.
Peace
:read:
Dragon2002
07-07-2016, 13:08
Le informazioni devono essere sempre date in modo corrette...
Se vuoi ti mando il link di almeno 5 shop affidabili che ne hanno disponibili, ma poi mi diresti che il prezzo è da pazzi, ed è vero...
Se costa più di 460 che già è un prezzo folle,non vuol dire che è disponibile ma che stai vendendo la panda al costo del ferrari.
Se i tuoi prezzi sono dai 500 euro in su,sai cosa vuol dire 130 euro superiori al prezzo consigliato.
Il solito scatenatore di flame, ma non ti stanchi mai? :D
Ti lamenti di la, e poi sei sempre qui...
Ma se ti piace solo AMD, ed è una scelta da rispettare, perché devi fare ciò che gli altri non vogliono venga fatto di qua?
Se ti piace parlare male di Nvidia perché essere fanboy AMD ti rende felice, parlane male di la e rispetta chi vuole comprare altro...
Nein, è il ragionamento che non va....e poi, non parlo mai male di nvidia...anzi a volte la consiglio pure (in gran segreto e sotto voce!)
Aspetto il primo che dice che la 1060 è inutile quando basta abbassare a 200$ la 980....o ci hanno messo due anni per una vga del 2016 che va cone un di due anni fa...
Easy no?
Ale55andr0
07-07-2016, 13:10
94 minuti di applausi
92 :read:
vabbuò dai nel tanto ci sta pure il poco :O
appleroof
07-07-2016, 13:10
https://forums.overclockers.co.uk/showpost.php?p=29723592&postcount=75
2000 480 in 24hr
Questa la situazione due giorni dopo il lancio di polaris
Cut
Questa invece la situazione al lancio della 1080
According to Kotaku's report, Now In Stock shows that both the EVGA and ZOTAC models that could be preordered checked out within minutes. To be more exact, Amazon sold all its EVGA GTX 1080 in 6 minutes, with ZOTAC lasting a full 12 minutes before going out of stock.
http://www.techtimes.com/articles/160399/20160523/nvidia-geforce-gtx-1080-preorders-sell-out-in-minutes-on-amazon-best-buy-and-newegg.htm
Ovviamente con margini molto diversi visti i prezzi maggiori più del doppio
La teoria che gira sui siti (escluso bitandchips e le sue fonti) è che ne vendano più di quante riescano a produrne, uguale a quanto sostieni per 480 quindi
Ale55andr0
07-07-2016, 13:14
Aspetto il primo che dice che la 1060 è inutile quando basta abbassare a 200$ la 980....o ci hanno messo due anni per una vga del 2016 che va cone un di due anni fa...
Easy no?
ehm..hanno fatto anche schede che vanno più di quelle di 2 anni fa, anzi al momento ci so solo quelle :D...e che consumano pure meno, oltre a quella li' (meno...di quelle che gia due anni fa andavano di più e consumavano meno...:fagiano: )
Comunque si, salomonicamente 480 e 1060 so du fermacarte, non ci piove :asd:, rilassate :O
Questa invece la situazione al lancio della 1080
According to Kotaku's report, Now In Stock shows that both the EVGA and ZOTAC models that could be preordered checked out within minutes. To be more exact, Amazon sold all its EVGA GTX 1080 in 6 minutes, with ZOTAC lasting a full 12 minutes before going out of stock.
http://www.techtimes.com/articles/160399/20160523/nvidia-geforce-gtx-1080-preorders-sell-out-in-minutes-on-amazon-best-buy-and-newegg.htm
Ovviamente con margini molto diversi visti i prezzi maggiori più del doppio
La teoria che gira sui siti (escluso bitandchips e le sue fonti) è che ne vendano più di quante riescano a produrne, uguale a quanto sostieni per 480 quindi
Manca solo il quante :D tipica sparata amrketig come quella di charlie su semi accurate
Non ci vuole molto comunque a stimare che una vga come p10 o 1060 vendono dieci volte piu di vega o 1080...
Su pascal complica il discorso flanders ediscion, che potebbe inficiare proprio il mercato custom nvidia , esattamente tagliarsi i coglioni come fece amd con le hawaii reference per tre mesi
appleroof
07-07-2016, 13:18
cut
Su pascal complica il discorso flanders ediscion, che potebbe infiocare proprio il mercato custom nvidia , esattamente taglorsi i coglioni come fece amd con le hawaii reference per tre mesi
Sulle custom ecco cosa diceva Gibbo qualche giorno fa, le g1 ne vendeva 1 al minuto
https://forums.overclockers.co.uk/showpost.php?p=29639953&postcount=330
Ale55andr0
07-07-2016, 13:19
La teoria che gira sui siti (escluso bitandchips e le sue fonti) è che ne vendano più di quante riescano a produrne, uguale a quanto sostieni per 480 quindi
si ma se uno stock è di 10x 1080 e l'altro di 100x 480 mica è uguale (numeri a caso eh :read: )
cazzo ma ve pagano o siete proprio innamorati? :D qua fra te, frozen, deathroma (missing :cry: ) spiderman, crapa de coccio ecc manca solo che mostriate i vostri perizomi col vostro marchio preferito :asd:
..nel caso vi supplico, ASTENETEVI :eek:
OvErClOck82
07-07-2016, 13:21
si ma se uno stock è di 10x 1080 e l'altro di 100x 480 mica è uguale (numeri a caso eh :read: )
cazzo ma ve pagano o siete proprio innamorati? :D qua fra te, frozen, deathroma (missing :cry: ) spiderman, crapa de coccio ecc manca solo che mostriate i vostri perizomi col vostro marchio preferito :asd:
..nel caso vi supplico, ASTENETEVI :eek:
:asd:
Nelson Muntz
07-07-2016, 13:28
si ma se uno stock è di 10x 1080 e l'altro di 100x 480 mica è uguale (numeri a caso eh :read: )
cazzo ma ve pagano o siete proprio innamorati? :D qua fra te, frozen, deathroma (missing :cry: ) spiderman, crapa de coccio ecc manca solo che mostriate i vostri perizomi col vostro marchio preferito :asd:
..nel caso vi supplico, ASTENETEVI :eek:
I 'peggiori' non sono tanto quelli che ammettono simpatie o che 'tifano' per un marchio o l'altro (che ci sta !) , ma quelli che si professano come neutrali portatori della verita' assoluta , ma che sotto sotto sono piu' fanboy degli altri . ;)
appleroof
07-07-2016, 13:28
si ma se uno stock è di 10x 1080 e l'altro di 100x 480 mica è uguale (numeri a caso eh :read: )
no infatti, le 1080 costano più del doppio
cazzo ma ve pagano o siete proprio innamorati? :D qua fra te, frozen, deathroma (missing :cry: ) spiderman, crapa de coccio ecc manca solo che mostriate i vostri perizomi col vostro marchio preferito :asd:
..nel caso vi supplico, ASTENETEVI :eek:
azz, ma se piangi da mesi che Amd non ti fa la scheda potente e pur di non comprare una nvidia di taglieresti i m......i accampando tutto il campionario del perfetto fanboy rosso :asd:
ho solo detto, lo stesso venditore (Gibbo, a proposito sulle FE all'inizio: https://forums.overclockers.co.uk/showpost.php?p=29549956&postcount=1761 ) dice che vende come il pane la 480, è un successo, le 1070/1080, è marketing e in verità è shortage e problemi TMSC e disastri....gioco: indovina chi è il fanboy (ma se non ti riconosci già da solo...)
I 'peggiori' non sono tanto quelli che ammettono simpatie o che 'tifano' per un marchio o l'altro (che ci sta !) , ma quelli che si professano come neutrali portatori della verita' assoluta , ma che sotto sotto sono piu' fanboy degli altri . ;)
quanta verità ;)
OvErClOck82
07-07-2016, 13:30
evitare di comprare schede dal prezzo gonfiato non significa essere fanboy rossi, eh
Ale55andr0
07-07-2016, 13:35
no infatti, le 1080 costano più del doppio
azz, ma se piangi da mesi che Amd non ti fa la scheda potente e pur di non comprare una nvidia di taglieresti i m....
non hai capito un cacchio :O ...io ho detto che piuttosto che dare 800 euro per un chip di fascia media cloccato alla morte (perchè questo sono le pascal, e lo dice pure mickael consigliandomi addirittura una 980 ti :read: )prezzato all'ESTORSIONE mi sto oc l'integrata. Ma se domani la 1080 sta a quella cifra la comprerei tipo prima di ieri :asd: :read:
Inoltre hai evidentemente bellamente saltato tutti i post in cui, parlando della 480 in generale ho detto che in amd non hanno fatto un cazzo (autocitazione letterale :read: ) in due anni, e più che piangere li ho ricoperti di letame :read:. Ma che ci vuoi fare, io sono un fanboy rosso :) poi OVVIO che se amd tira fuori la scheda che fa per me costando meno compro da "lei", ma mica perchè "è AMD" :read:
Ti rammetno che te sei lo stesso che cnel thread rosso dicevi che la 7950 andava quasi la tua 680 e che aveva un raporto qualità prezzo strepitoso e in quello verde che era un cesso di scheda e l'unica cosa buona era il bundle, quindi SI, sei verde fino al midollo :read:
fanboy io? caschi male guarda....basta vedere tutti i rossi che mi sono "inimicato" :read:
appleroof
07-07-2016, 13:36
evitare di comprare schede dal prezzo gonfiato non significa essere fanboy rossi, eh
bella questa, me la segno
Diobrando_21
07-07-2016, 13:37
Ragazzi ciao a tutti! È tanto che non bazzico il forum e sono poco aggiornato...è arrivato il momento di cambiare pc e farò tutto da zero senza compromessi...ma c'è qualcosa che non mi convince nell'acquistare ora. Innanzitutto i prezzi di queste top secondo me sono spropositati e poi aleggia il terrore di vedere a breve le versioni Ti. Non so che fare considerate che sto ancora col pc in firma quindi non è che nel frattempo posso tirare avanti. Che consigliate? Considerate pure che quasi tutti i giochi attuali mi hanno stancato (ormai e la solita solfa da anni) e quindi solo un Vive potrebbe darmi quel boost per godere di nuovo di quel fattore novità....thx ;)
appleroof
07-07-2016, 13:37
non hai capito un cacchio :O ...io ho detto che piuttosto che dare 800 euro per un chip di fascia media cloccato alla morte (perchè questo osno le pascal, e lo dice pure mickael consigliandomi addirittura una 980 ti :read: )prezzato all'ESTORSIONE mi sto oc l'integrata. Se domani la 1080 sta a quella cifra la compro tipo prima di ieri :asd:
Inoltre hai evidentemente bellamente saltato tutti i post in cui, parlando della 480 in generale ho detto che in amd non hanno fatto un cazzo (autocitazione letterale :read: ) in due anni, e più che piangere li ho ricoperti di letame :read:. Ma che ci vuoi fare, io sono un fanboy rosso :) poi OVVIO che se amd tira fuori la scheda che fa per me costando meno compro da "lei", ma mica perchè "è AMD" :read:
è dai tempi della fury x che ti lamenti con Amd che non ti fa la sostituta della 290, non prendiamoci per il :ciapet:
all'epoca potevi prendere una 980ti al prezzo corretto...giusto?
OvErClOck82
07-07-2016, 13:38
bella questa, me la segno
segna quello che ti pare, questo punto di vista lo userò sempre, sia che si parli di rossi che di verdi :D
il consumatore ha un'arma potentissima: lasciare sugli scaffali prodotti che fanno schifo e/o quelli troppo costosi.. invece no, giù di scimmie e così facendo si legittima un chip non top venduto a 700 euro :asd:
legittimo, ma che poi non ci si lamenti dei prezzi...
The Pein
07-07-2016, 13:38
evitare di comprare schede dal prezzo gonfiato non significa essere fanboy rossi, eh
giusto, non c'è peggior sordo di chi non vuol sentire ;) :(
Ale55andr0
07-07-2016, 13:40
è dai tempi della fury x che ti lamenti con Amd che non ti fa la sostituta della 290, non prendiamoci per il :ciapet:
all'epoca potevi prendere una 980ti al prezzo corretto...giusto?
e cazzo ovvio, la 980 costava 2 reni...si torna allo stesso discorso :asd:...io vado dove mi porta il portafoglio...inoltre a differenza di voi riccastri DEVO anche un minimo guardare alle feature "futuristiche", ho detto due miliadi di volte che tengo un pc senza toccarlo 4 (QUATTRO) anni e non ho fatto bene, ma STRA bene a prendere la 7970 sulla 680 (invecchiata di merda fra driver e ram) e parimenti la 290 piuttosto che una 780, e se mi dai torto..hai torto :read:
anyway chiudo qua che non voglio inquinare il thread :O
appleroof
07-07-2016, 13:46
e cazzo ovvio, la 980 costava 2 reni...si torna allo stesso discorso :asd:...io vado dove mi porta il portafoglio...
980ti pagata 670 circa un mese dal lancio (vendendo la 980 a 430, pagata a sua volta 450), non troppo più di tutte le top da tempi immemori, il portafoglio non ha pianto e gioco a TW3 (per dire un gioco di cui siamo entrambi appassionati) infinitamente meglio di te, basta usare la testa ed il giocattolo potente lo prendi con un occhio al portafoglio, senza le baggianate da fanboy (nvidia mafia etc etc)
segna quello che ti pare, questo punto di vista lo userò sempre, sia che si parli di rossi che di verdi :D
il consumatore ha un'arma potentissima: lasciare sugli scaffali prodotti che fanno schifo e/o quelli troppo costosi.. invece no, giù di scimmie e così facendo si legittima un chip non top venduto a 700 euro :asd:
legittimo, ma che poi non ci si lamenti dei prezzi...
Esatto, è proprio questo il concetto!
Io non capisco tutte queste lamentele sui prezzi delle 1070/1080!
Anche io vorrei prendere una 1070 a 350 euro però mettiamoci nei panni di Nvidia: hanno due gpu che vanno benissimo e che non hanno concorrenza! Ma hanno una produzione sotto le aspettative e quindi sanno già a priori che non potremmo soddisfare la domanda! Che fanno? colgono la palla al balzo ed alzano i prezzi, tanto sanno che le venderanno tutte in ogni caso!
Quindi di cosa ci lamentiamo? se noi utenti continuiamo a comprarle vuol dire che il prezzo non è assolutamente alto e che nvidia ha avuto ragione nel decidere quei prezzi!
La teoria che gira sui siti (escluso bitandchips e le sue fonti) è che ne vendano più di quante riescano a produrne, uguale a quanto sostieni per 480 quindi
appunto. Se vendono piu' di quante ne producano che senso ha un paper launch per ostacolare la concorrenza quando ne tu (nvidia) ne il tuo concorrente (amd) siete capaci di soddisfare la domanda?
AMD continuerebbe cmq a vendere tutta la produzione dato che tu (Nvidia) per i prox mesi non sarai capace di sfornare in numero nemmeno lontanamente sufficiente.
Se hanno tot slot disponibili presso tsmc (che i rumors attestano sui 9000) e con quelli non riesci nemmeno a soddisfare le richieste per le schede gia' rilasciate, il problema non potra' che acutizzarsi con il rilascio del chip mainstream.
E non credo che dedicheranno una grossa % di wafers per il chip (gp106) che verosimilmente offrira' loro meno margini di profitto.
Questo paper launch finirebbe solo per erodere parte della fiducia dei consumatori verso Nvidia.
Ale55andr0
07-07-2016, 13:52
pagata 670 circa un mese dal lancio (vendendo la 980 a 430, pagata a sua volta 450), non troppo più di tutte le top da tempi immemori, il portafoglio non ha pianto e gioco a TW3 (per dire un gioco di cui siamo entrambi appassionati) infinitamente meglio di te, basta usare la testa ed il giocattolo potente lo prendi con un occhio al portafoglio, senza le baggianate da fanboy (nvidia mafia etc etc)
la 670 mentre io continuavo ad andare con la 7970 era gia un fermacarte...io ho scelto 3gb e minor costo sulla 680 perche QUELLO c'era e io ero senza pc, proprio appiedato...manco l'integrata :read: ergo andai di 7970 didandomi del mio istinto sui numeri di quella scheda, non sul colore, scheda che peraltro NON la avrei MAI comprata a 500 (eh, ma sono fanboy AMD :D), e che ho comprata usata da jack85 a 370 :read: così come poi, morta la 7970 scelsi i 4gb della custom 290 sui 3 della 780, sempre spendendo meno :read:...
come puoi vedere la testa la uso e pure bene. Le fanboyate al momento le stai facendo solo tu gia solo per il discorso vendite 1080 mascherando le tue domande platealmente pretestuose da "innocente curiosità" quando si evince benissimo dove vuoi andare a parare...per me parlano fatti e parole, basta che rileggi che ne penso della fury x nelle review, di questa 480 ecc...o basta vedere le sassate che mi tirano di la i rossi estremisti :asd:
anyway, come detto chiudo qui (stavolta davvero), buon proseguio :)
CiccoMan
07-07-2016, 13:53
Esatto, è proprio questo il concetto!
Io non capisco tutte queste lamentele sui prezzi delle 1070/1080!
Anche io vorrei prendere una 1070 a 350 euro però mettiamoci nei panni di Nvidia: hanno due gpu che vanno benissimo e che non hanno concorrenza! Ma hanno una produzione sotto le aspettative e quindi sanno già a priori che non potremmo soddisfare la domanda! Che fanno? colgono la palla al balzo ed alzano i prezzi, tanto sanno che le venderanno tutte in ogni caso!
Quindi di cosa ci lamentiamo? se noi utenti continuiamo a comprarle vuol dire che il prezzo non è assolutamente alto e che nvidia ha avuto ragione nel decidere quei prezzi!
Giusto, peccato che nvidia NON ha aumentato i prezzi :asd:
https://www.techpowerup.com/gpudb/362/geforce-gtx-670
https://www.techpowerup.com/gpudb/1856/geforce-gtx-770
https://www.techpowerup.com/gpudb/2620/geforce-gtx-970
https://www.techpowerup.com/gpudb/2840/geforce-gtx-1070
appleroof
07-07-2016, 13:53
appunto. Se vendono piu' di quante ne producano che senso ha un paper launch per ostacolare la concorrenza quando ne tu (nvidia) ne il tuo concorrente (amd) siete capaci di soddisfare la domanda?
AMD continuerebbe cmq a vendere tutta la produzione dato che tu (Nvidia) per i prox mesi non sarai capace di sfornare in numero nemmeno lontanamente sufficiente.
Se hanno tot slot disponibili presso tsmc (che i rumors attestano sui 9000) e con quelli non riesci nemmeno a soddisfare le richieste per le schede gia' rilasciate, il problema non potra' che acutizzarsi con il rilascio del chip mainstream.
E non credo che dedicheranno una grossa % di wafers per il chip (gp106) che verosimilmente offrira' loro meno margini di profitto.
però sempre ragionando mi verrebbe da dire, che senso ha ridurre ulteriormente la produzione come giustamente dici, perchè devi dedicare le linee anche alla produzione di gp106 oltre che di gp104, quando in alto non hai concorrenza e quindi più produci più vendi ed in basso ti "basta" tagliare il prezzo della 980 per cercare di arginare la rx480?
scorpion73
07-07-2016, 13:58
Fixato, avevi sbagliato topic.
Sent from my Sboron™ using Tapatalk
ma si allora perché non vendono ancora la 7970 a 100€? e la 680? che ragionamento è...
Pascal ha delle feature DX12 che Maxwell non ha...
A quanto pare invece AMD era già compatibile con le DX12 anche sugli async, quindi mi chiedo cosa ha Polaris in più per giustificare la RX480 (lascia perdere i consumi, parlo di feature DX12)
1060 4,5 TFLOPs
480 5,5 TFLOPs
1070 6,5 TFLOPs
la 1070 ha il 18% in piu di TFLOPs, ma il 50% in piu di prestazioni reali.
http://wccftech.com/amd-radeon-rx-480-polaris-10-launch/
http://wccftech.com/nvidia-geforce-gtx-1060-unleashed-249-usd/
CUT
Cmq meglio fare le comparazioni in 1080 per ste schedine xche' in 1440p sono comunque inusabili
Giusto, peccato che nvidia NON ha aumentato i prezzi :asd:
https://www.techpowerup.com/gpudb/362/geforce-gtx-670
https://www.techpowerup.com/gpudb/1856/geforce-gtx-770
https://www.techpowerup.com/gpudb/2620/geforce-gtx-970
https://www.techpowerup.com/gpudb/2840/geforce-gtx-1070
Rispetto la 970 di 50$ che non è mica poco una volta che gli aggiungi le tasse!
Le 670/770 costavano veramente così tanto? forse c'era un super cambio a favore perché dai ricordi che ho costavano sui 350 euro tassate! Ricordo male?
http://www.hardwareunboxed.com/6-gen-geforce-gtx-x80-comparison-gtx-470-580-680-780-980-1080/
Ennesima conferma che kepler è stato dimenticato in fretta dal punto di vista driver.
Notare come siamo passati ad una differenza di performance quasi doppia rispetto ai titoli release 980.
Ale55andr0
07-07-2016, 14:04
Pascal ha delle feature DX12 che Maxwell non ha...
A quanto pare invece AMD era già compatibile con le DX12 anche sugli async, quindi mi chiedo cosa ha Polaris in più per giustificare la RX480 (lascia perdere i consumi, parlo di feature DX12)
niente, quella scheda è un inno alla inutilità come prodotto di "rilancio" in pompa magna: va come le vecchie con le vecchie che ormai costano uguale e che anzi vanno pure meglio quando si caricano filtri e risoluzioni, per via di bus e rops. Ha senso solo come prodotto in una line up completa (ma quella ora non c'è) vista per quello che è, o, per chi viene da una vga molto vecchia e non vuole/può spendere più di due cucuzze e dintorni e non ha altra scelta...non certo come cavallo di battaglia di una "rebelion" ( :rotfl: )
Rispetto la 970 di 50$ che non è mica poco una volta che gli aggiungi le tasse!
Le 670/770 costavano veramente così tanto? forse c'era un super cambio a favore perché dai ricordi che ho costavano sui 350 euro tassate! Ricordo male?
Sulla serie 80 li ha aumentati.
niente, quella scheda è un inno alla inutilità come prodotto di "rilancio" in pompa magna: va come le vecchie con le vecchie che ormai costano uguale e che anzi vanno pure meglio quando si caricano filtri e risoluzioni, per via di bus e rops). Ha senso solo come prodotto in una line up completa (ma quella ora non c'è) non certo come cavallo di battaglia di una "rebelion" ( :rotfl: ) o, per chi viene da una vga molto vecchia e non vuole/può spendere più di due cucuzze e dintorni e non ha altra scelta
Delle 390 stanno cercando di svendere per svuotare i magazzini.
Certo ce ripetete sempre le stesse cose.
Se vuoi comprarti una 390 compratela.
Che poi la 390 è stata lanciata a 329, la 480 a 199, boh, mi pare abbiate prosciutto sugli occhi a volte.
però sempre ragionando mi verrebbe da dire, che senso ha ridurre ulteriormente la produzione come giustamente dici, perchè devi dedicare le linee anche alla produzione di gp106 oltre che di gp104, quando in alto non hai concorrenza e quindi più produci più vendi ed in basso ti "basta" tagliare il prezzo della 980 per cercare di arginare la rx480?
Me lo son chiesto anch'io. In teoria, sarebbe logico fare come tu dici e pensare che se non lo fanno significa che la gp106 verra' prodotta in volumi sufficienti (o vicini allla sufficienza) per coprire la domanda.
I motivi possono essere 3:
1)Bisognerebbe vedere i costi di produzione (anche se dubito che ora come ora produrre una gtx 980 costi di piu' di una rx 480 e se anche cosi' fosse la differenza dovrebbe essere non troppo grande). Forse e' polaris 10 a costare molto poco perche' GF ha fatto prezzi particolarmente conveniente per accaparrarsi un cliente (dato che mi sembra abbiano solo Samsung e AMD come clienti).
2)Questione di marketing/immagine: magari la maggior parte dei consumatori preferisce a parita' (o giu' di li) prestazioni e prezzo un prodotto nuovo rispetto ad uno vecchio.
Io stesso preferirei cmq la rx480 ad una gtx 980 anche se costassero uguale e pur essendo al momento la gtx980 leggermente sopra. Quindi per esser attrattiva la gtx 980 dovrebbe costare significativamente meno (tipo -20%) e magari questo non e' commercialmente fattibile.
Tieni conto che una interessante ricerca di Intel ha mostrato che i consumatori ancor prima che alle performance sono interessati alle features dei chip.
3)Nvidia e AMD han fatto cartello: quindi Nvidia fara' si il suo paper launch per una questione di immagine, senza andare realmente a dare fastidio ad AMD in termini numerici o comunque una concorrenza troppo serrata.
scorpion73
07-07-2016, 14:09
Ma quale slide da marketing.
Pascal supporta gli async in modo molto più efficente delle 980 o maxwell che siano perché è diversa come struttura hardware.
AMD non mi risulta supporti nulla in più sulla 480 rispetto alla generazione precedente.
Quindi in se la scheda secondo me non ha senso se non per i consumi.
Quindi il confronto 980-1060 ci sta perché se prendi i giochi in DX12 con async le prestazioni saranno secondo me differenti per via dell'architettura cosa che non succede con AMD.
Se vuoi giustificarla con i consumi ok, ma per me chi ha una 390 non passa alla 480 a meno che non sia fissato, chi ha una 980 può passare alla 1060 perché lato hw ha del supporto in più che prima non aveva.
Inoltre chi ha una Fury resta con quella perché non esiste una AMD migliore, ma se già di pigli una 1070 secondo me vai meglio di una Fury quindi il passaggio generazionale in Nvidia ci sta, in AMD al momento secondo me no, è zoppa.
A meno che non passi da una 270 a una 480, allora si
Ale55andr0
07-07-2016, 14:13
Delle 390 stanno cercando di svendere per svuotare i magazzini.
Certo ce ripetete sempre le stesse cose.
Se vuoi comprarti una 390 compratela
ma se ho appena venduto una la mia 290 trix OC :rotfl:
ho solo riportato un FATTO: che le vecchie vanno mediamente meglio essendo chip più dotati lato rops e bus, e ormai costano uguale. Non c'è nemmeno da temere per i driver perchè sono sempre gcn anche se meno aggiornate ergo confermo l'assoluta inutilità della 480 come prodotto di rilancio che doveva far non so quale sfacelo da "rebelion" (ri:rotfl: ), visto che non lo fa praticamente in nessun senso, ma mica lo dico perchè voglio la 390, non potrebbe fregarmene di meno. Se domani mio cuGGGino mi chiedesse che comprare co 250 euro gli dico la 390x o la 1060 SE davvero andrà come una 980 e il costo sarà quello, tutto li.
Le reviews della 1060 dovrebbero uscire il 19 se ho capito bene
http://www.phoronix.com/scan.php?page=article&item=nvidia-gtx1060-soft&num=1
You'll need to wait until the 19th of July though to hear how the GeForce GTX 1060 vs. Radeon RX 480 (and other NVIDIA/AMD GPUs) perform under Linux.
Today's just the soft announcement for the GeForce GTX 1060 while it will begin shipping worldwide on 19 July. Not until that hard launch date does NVIDIA's embargo expire for being able to provide GTX 1080 benchmarks, but at least all of the technical details are fair game today as well as pictures/videos.
Cmq e' certo che non usciranno oggi
Ale55andr0
07-07-2016, 14:16
Pascal supporta gli async in modo molto più efficente delle 980 o maxwell che siano perché è diversa come struttura hardware.
Io ancora oggi non ho nemmeno capito se sti succhi di frutta a 16nm la dentro ci stanno o no :asd: "supporta", "compatibile", insomma, in sostanza e concretezza sti cacchio di async li hanno o no? boooh :confused:
scorpion73
07-07-2016, 14:20
Io ancora oggi non ho nemmeno capito se sti succhi di frutta a 16nm la dentro ci stanno o no :asd: "supporta", "compatibile", insomma, in sostanza e concretezza sti cacchio di async li hanno o no? boooh :confused:
Pascal ce li ha, Maxwell li ha in modo limitato.
Certo, probabilmente AMD li implementerà in Vega in modo più efficente, ma Pascal li supporta.
Basta leggere la rece del Corsini sulle 1080, li' lo spiegano bene.
Ale55andr0
07-07-2016, 14:20
No.
Ce li hanno nello stesso modo in cui il 286 faceva i calcoli in virgola mobile.
perfetto, sono sempre più fottuto... :asd:
Pascal ce li ha, Maxwell li ha in modo limitato.
Certo, probabilmente AMD li implementerà in Vega in modo più efficente, ma Pascal li supporta.
Basta leggere la rece del Corsini sulle 1080, li' lo spiegano bene.
...o no? :asd:
mettetevi d'accordo :fagiano:
Se vuoi giustificarla con i consumi ok, ma per me chi ha una 390 non passa alla 480 a meno che non sia fissato, chi ha una 980 può passare alla 1060 perché lato hw ha del supporto in più che prima non aveva.
:mc: :D :D :D :D :D :D :D
appleroof
07-07-2016, 14:24
Me lo son chiesto anch'io. In teoria, sarebbe logico fare come tu dici e pensare che se non lo fanno significa che la gp106 verra' prodotta in volumi sufficienti (o vicini allla sufficienza) per coprire la domanda.
I motivi possono essere 3:
1)Bisognerebbe vedere i costi di produzione (anche se dubito che ora come ora produrre una gtx 980 costi di piu' di una rx 480 e se anche cosi' fosse la differenza dovrebbe essere non troppo grande). Forse e' polaris 10 a costare molto poco perche' GF ha fatto prezzi particolarmente conveniente per accaparrarsi un cliente (dato che mi sembra abbiano solo Samsung e AMD come clienti).
2)Questione di marketing/immagine: magari la maggior parte dei consumatori preferisce a parita' (o giu' di li) prestazioni e prezzo un prodotto nuovo rispetto ad uno vecchio.
Io stesso preferirei cmq la rx480 ad una gtx 980 anche se costassero uguale e pur essendo al momento la gtx980 leggermente sopra. Quindi per esser attrattiva la gtx 980 dovrebbe costare significativamente meno (tipo -20%) e magari questo non e' commercialmente fattibile.
Tieni conto che una interessante ricerca di Intel ha mostrato che i consumatori ancor prima che alle performance sono interessati alle features dei chip.
3)Nvidia e AMD han fatto cartello: quindi Nvidia fara' si il suo paper launch per una questione di immagine, senza andare realmente a dare fastidio ad AMD in termini numerici o comunque una concorrenza troppo serrata.
per la 1 penso sia più ragionevole dire che la 980 su processo maturo da mesi costi meno, il resto è davvero pura ipotesi
per la 2 basta il rebrand, quante volte lo hanno fatto entrambe?
per la 3 la vedo come un'ipotesi lontana, in America non scherzano con queste cose e già in passato Ati e nvidia furono sgamate e condannate (sia pure un cartello diverso)
secondo me semplicemente lo shortage è dovuto o a problemi di maturazione PP (e chi dice che GF sia più brava di TMSC, inoltre non spiega il lancio di gp106) o semplicemente stanno vendendo più di quanto riescano a produrre
Le reviews della 1060 dovrebbero uscire il 19 se ho capito bene
http://www.phoronix.com/scan.php?page=article&item=nvidia-gtx1060-soft&num=1
You'll need to wait until the 19th of July though to hear how the GeForce GTX 1060 vs. Radeon RX 480 (and other NVIDIA/AMD GPUs) perform under Linux.
Today's just the soft announcement for the GeForce GTX 1060 while it will begin shipping worldwide on 19 July. Not until that hard launch date does NVIDIA's embargo expire for being able to provide GTX 1080 benchmarks, but at least all of the technical details are fair game today as well as pictures/videos.
Cmq e' certo che non usciranno oggi
quindi solo una manovra disturbativa per il debutto della rx480 (anche se amd ci ha messo già del suo per autorovinarsi la presentazione tra problemi di alimentazione e consumi al di sopra delle aspettative :asd: ) il debutto vero e proprio tra 12 giorni
scorpion73
07-07-2016, 14:26
No.
Ce li hanno nello stesso modo in cui il 286 faceva i calcoli in virgola mobile.
Ma che stai a di
per la 1 penso sia più ragionevole dire che la 980 su processo maturo da mesi costi meno, il resto è davvero pura ipotesi
Ci sono una marea di motivi sul perchè questo possa non essere vero.
Cominciando dal fatto che la fabbrica può trovare molto più vantaggioso convertire la produzione a 16 o 14 nm.
scorpion73
07-07-2016, 14:26
:mc: :D :D :D :D :D :D :D
Dammi un motivo per cui chi ha la 390 deve passare alla 480, forse perché è più nuova?
Ale55andr0
07-07-2016, 14:27
Ma che stai a di
mi sa che c'è solo uno qua dentro che può rispondere con sicurezza: mikael84 :stordita:
Nelson Muntz
07-07-2016, 14:29
mi sa che c'è solo uno qua dentro che può rispondere con sicurezza: mickael84 :stordita:
ok , pero' il nick allora scrivilo giusto ! :O
CiccoMan
07-07-2016, 14:30
Rispetto la 970 di 50$ che non è mica poco una volta che gli aggiungi le tasse!
Le 670/770 costavano veramente così tanto? forse c'era un super cambio a favore perché dai ricordi che ho costavano sui 350 euro tassate! Ricordo male?
In realtà è la serie 9 che è stata meno costosa rispetto alle altre.
Le serie precedenti costavano meno in Europa grazie al cambio.
Sulla serie 80 li ha aumentati.
No, la serie 80 rispecchia l'andamento della serie 7. La 780 costava più della 1080... se guardi il gpu database ti rendi conto da solo e puoi anche fare una previsione sui prezzi futuri ... in USD... poi se l'iva in Italia arriva al 24% non è mia colpa di nvidia...
appleroof
07-07-2016, 14:30
o magari si apre un topic apposta sulle dx12 e implementazioni Amd/Nvidia delle stesse e qui si continua a parlare delle vga nvidia a venire
Dammi un motivo per cui chi ha la 390 deve passare alla 480, forse perché è più nuova?
Nessuno, come nessuno che ha la 980 passerebbe mai alla 1060, sono cose assolutamente senza senso.
Sono schede di prestazioni identiche, vai a pagare un bonus (sempre che vendi bene la tua) per cosa? Qualche consumo in meno o differenze di fps invisibili?
Se cambi scheda così spesso lo fai per le prestazioni, non feature inutili come gli async, che rimarranno inutili ancora per un bel poco.
Ale55andr0
07-07-2016, 14:32
ok , pero' il nick allora scrivilo giusto ! :O
editato, contento? e ora speriamo che l'evocazione worki :O
scorpion73
07-07-2016, 14:33
Async Compute
http://www.hwupgrade.it/articoli/skvideo/4643/nvidia-geforce-gtx-1080-founders-edition-la-nuova-top-di-gamma_5.html
Ale55andr0
07-07-2016, 14:34
o magari si apre un topic apposta sulle dx12 e implementazioni Amd/Nvidia delle stesse e qui si continua a parlare delle vga nvidia a venire
e da quando discutere di una implementazione tencologica di un nuovo prodotto, che risponde a uno standard peraltro, dovrebbe richiedere un thread apposito? gia me lo vedo freeman a chiudere la discussione due secondi dopo averla aperta...:rolleyes:
appleroof
07-07-2016, 14:34
ok dati ufficiali:
http://www.anandtech.com/show/10474/nvidia-announces-geforce-gtx-1060-july-19
scorpion73
07-07-2016, 14:35
Nessuno, come nessuno che ha la 980 passerebbe mai alla 1060, sono cose assolutamente senza senso.
Sono schede di prestazioni identiche, vai a pagare un bonus (sempre che vendi bene la tua) per cosa? Qualche consumo in meno o differenze di fps invisibili?
Se cambi scheda così spesso lo fai per le prestazioni, non feature inutili come gli async, che rimarranno inutili ancora per un bel poco.
Ma su questo in linea generale siamo d'accordo, nulla da obiettare.
Quello che solo dicevo è che Pascal rispetto alla 980 supporta molto meglio gli async per cui a parità di prestazioni le pascal vanno meglio, per cui se gli async fossero usati un motivo secondo me ci potrebbe pure essere. Che poi al momento siano inutili e quindi non vale la pena mi trovi d'accordo.
Con AMD invece proprio manco quello.
mikael84
07-07-2016, 14:35
Riferito ai laptop, ma invece che 3gb/192bit potrebbe avere 4gb/128bit....?
http://i2.wp.com/laptopmedia.com/wp-content/uploads/2016/06/nvidia-laptopmedia.jpg?w=940
Non si sa ancora Apple riguardo la 1050.
La 1060 integra un 3° GPC spento per accesso al canale da 192bit.
La scheda è lanciata a 1280cc/48 rop's e 192bit.
L'accessibile come la 1070 è 1280cc /32 rop's (16 non sono accessibili, il GPC è spento) e 192bit.
La 1050, potrebbe mantenere il design ma avere 3gb, siti però realmente tecnici la danno a 50/50.
Mantenere una simile scheda 1050 e 3gb mi pare utopia.
Un GPC è già spento, disattivando altre unità si avrebbero 1 GPC, 1GPC a metà ed uno spento per il collegamento al bus.
In questo caso, puoi collegarlo a 3gb e perdi 4 rop's:)
°Phenom°
07-07-2016, 14:36
Dammi un motivo per cui chi ha la 390 deve passare alla 480, forse perché è più nuova?
Rx 480 e 1060 sono schede di fascia media, di sicuro chi possiede una 390/970, ex fascia alta, non passa ad una vga di fascia media, seppur nuova, con performance simili. Le schede da guardare per sostituire 390 e 970 vanno dalla 1070 in sù. Io ad esempio il prossimo cambio lo farò con full vega/1080ti aspettando al solito un pò di tempo il classico assestamento prezzi, in modo da avere uno stacco netto in performance rispetto alla mia scheda attuale che comunque overclockata, si comporta ancora molto bene a 1440p.
1060 e rx 480 sono schede perfette per chi deve assemblare un pc da 0 o comunque chi acquista solitamente schede di fascia media o bassa e vuole upgradare. Includo ovviamente tutta la gente che possiede ancora schede vecchissime e/o con budget molto ristretto :)
scorpion73
07-07-2016, 14:36
NO.
in HARDWARE non hanno nulla, fanno tutto via SOFTWARE ed allo stesso modo, pascal e maxwell tra loro,
Non è vero, se leggi quel che scrive Corsini non è così.
Così come passare da una 390 a una 480 non ha senso.
Ma su questo in linea generale siamo d'accordo, nulla da obiettare.
Quello che solo dicevo è che Pascal rispetto alla 980 supporta molto meglio gli async per cui a parità di prestazioni le pascal vanno meglio, per cui se gli async fossero usati un motivo secondo me ci potrebbe pure essere. Che poi al momento siano inutili e quindi non vale la pena mi trovi d'accordo.
Con AMD invece proprio manco quello.
Quindi tu stesso definisci gli async inutili (anche perchè le prestazioni di maxwell e pascal sono identiche con async attivo) però consumare 100 e passa watt in meno invece "manco quello"?
appleroof
07-07-2016, 14:37
Non si sa ancora Apple riguardo la 1050.
La 1060 integra un 3° GPC spento per accesso al canale da 192bit.
La scheda è lanciata a 1280cc/48 rop's e 192bit.
L'accessibile come la 1070 è 1280cc /32 rop's (16 non sono accessibili, il GPC è spento) e 192bit.
La 1050, potrebbe mantenere il design ma avere 3gb, siti però realmente tecnici la danno a 50/50.
Mantenere una simile scheda 1050 e 3gb mi pare utopia.
Un GPC è già spento, disattivando altre unità si avrebbero 1 GPC, 1GPC a metà ed uno spento per il collegamento al bus.
In questo caso, puoi collegarlo a 3gb e perdi 4 rop's:)
quindi dici 4gb/128bit
Ale55andr0
07-07-2016, 14:37
Async Compute
http://www.hwupgrade.it/articoli/skvideo/4643/nvidia-geforce-gtx-1080-founders-edition-la-nuova-top-di-gamma_5.html
non ripsonde alla domanda diretta: succhi di frutta dentro al chip, si, o no? "supporta" è un termine vago e anche proseguendo la lettura non si capisce bene. Se si si allora ditece se li hanno e quanti quanti così è più chiaro a tutti :)
In realtà è la serie 9 che è stata meno costosa rispetto alle altre.
Le serie precedenti costavano meno in Europa grazie al cambio.
No, la serie 80 rispecchia l'andamento della serie 7. La 780 costava più della 1080... se guardi il gpu database ti rendi conto da solo e puoi anche fare una previsione sui prezzi futuri ... in USD... poi se l'iva in Italia arriva al 24% non è mia colpa di nvidia...
L'unico motivo per questi prezzi di lancio alti sono i volumi bassi e la scarsa concorrenza.
http://i.imgur.com/It7sIP7.png
Ale55andr0
07-07-2016, 14:41
Non è vero, se leggi quel che scrive Corsini non è così.
Così come passare da una 390 a una 480 non ha senso.
corsini non dice proprio nulla, parla di supporto eBBasta, se ci stanno gli ace non lo dice, e nemmeno quanti (se si), eppure dagli schemi dell'architettura dovrebbe capirsi :mc:
appleroof
07-07-2016, 14:43
riassunto da qui https://translate.google.it/translate?sl=de&tl=it&js=y&prev=_t&hl=it&ie=UTF-8&u=http%3A%2F%2Fwww.pcgameshardware.de%2FNvidia-Pascal-Hardware-261713%2FSpecials%2FGeforce-GTX-1060-Release-Preis-1200915%2F&edit-text=&act=url
- 4.4 TFLOPS
- 6 GiB/8 Gbps/192 GB/s
- FE $299 vendute solo sul sito Nvidia
- custom a partire da $249
- 120 watts
- 1 PCIe 6-pin
- Niente SLI
scorpion73
07-07-2016, 14:44
Corsini scrive:
GTX 1080 supporta in maniera esaustiva Asynchronous Compute e gestisce il bilanciamento di carichi di lavoro (ovvero il concetto alla base delle API di nuova generazione, Vulkan e Mantle compresi) in hardware, così come la preemption (prelazione di risorse) a livello dei pixel e delle istruzioni.
Se non è supporto hardware questo, lo dice chiaro e tondo, non ho capito che volete di più.
Che poi non sia un supporto iper efficiente ci può stare ma è in hardware.
Pure la tessellation è supportata col Polymorph Engine ma questo non vuol dire che non sia fatto in hardware un certo lavoro, e da quel che scrive Corsini questo mi sembra molto chiaro. Pascal ha le strutture hw per supportare il lavoro che devono svolgere gli Async.
E non è assolutamente vero che le prestazioni Maxwell e Pascal sono le stesse sugli Async, linkatemi qualche video che non sia la vs testa, ora cerco di ritrovare un video che avevo visto e lo posto qui appena lo trovo.
scorpion73
07-07-2016, 14:46
:confused: :confused:
Non e' che sono inutili, semplicemente Maxwell, Maxwell 2.0 e Maxwell 3.0 (aka Pascal) sono architetture ottimizzate meglio su carichi di lavoro tipo quelli che propongono gli engine DX11, e l'async consente di spremere meglio le parti in idle, per cui ne beneficia meno di quanto non faccia GCN che ha invece una minore utilizzazione e l'async migliora quest'aspetto.
Che GCN sia più async oriented sono d'accordo, ma che Pascal non lo supporti in hardware non è affatto vero, così come non è vero che ha prestazioni uguali a Maxwell.
Dai dati che avevo visto va meglio di GCN sulle 390; ovviamente questo non vuol dire che Vega non lo supporti in maniera migliore di Pascal.
Se ritrovo il video lo posto.
Poi basta una parola di mikael e ci azzittiamo tutti....
appleroof
07-07-2016, 14:46
http://www.pcgameshardware.de/screenshots/1020x/2016/07/GeForce_GTX_1060_Front_PCB-pcgh.jpg
notare i due slot mancanti di ram...supporta 8gb/256bit? :confused:
edit: qui altre foto pcb http://videocardz.com/61942/nvidia-pascal-gp106-and-gtx-1060-pcb-pictured-up-close
Corsini scrive:
GTX 1080 supporta in maniera esaustiva Asynchronous Compute e gestisce il bilanciamento di carichi di lavoro (ovvero il concetto alla base delle API di nuova generazione, Vulkan e Mantle compresi) in hardware, così come la preemption (prelazione di risorse) a livello dei pixel e delle istruzioni.
Se non è supporto hardware questo, lo dice chiaro e tondo, non ho capito che volete di più.
Che poi non sia un supporto iper efficiente ci può stare ma è in hardware.
Pure la tessellation è supportata col Polymorph Engine ma questo non vuol dire che non sia fatto in hardware un certo lavoro, e da quel che scrive Corsini questo mi sembra molto chiaro.
E non è assolutamente vero che le prestazioni Maxwell e Pascal sono le stesse sugli Async, linkatemi qualche video che non sia la vs testa, ora cerco di ritrovare un video che avevo visto e lo posto qui appena lo trovo.
Ok, perde meno di maxwell, ma siamo sempre a perdere:
http://cdn.wccftech.com/wp-content/uploads/2016/05/DirectX-12-Async-Compute-Performance-4K-GTX-1080-Fury-X-GTX-980-Ti.png
scorpion73
07-07-2016, 14:54
Ok, perde meno di maxwell, ma siamo sempre a perdere:
Qui dice un'altra cosa
http://cdn.wccftech.com/wp-content/uploads/2016/05/GTX-1080-Ashes-Of-The-Singularity-DirectX-12-Async-Compute-Performance-4K-Extreme.jpg
http://images.hardwarecanucks.com/image//skymtl/GPU/GTX-1080-REVIEWS/GTX-1080-REVIEWS-78.jpg
Ale55andr0
07-07-2016, 14:56
Qui dice un'altra cosa
http://cdn.wccftech.com/wp-content/uploads/2016/05/GTX-1080-Ashes-Of-The-Singularity-DirectX-12-Async-Compute-Performance-4K-Extreme.jpg
che le 1080 vanno a perdere rispetto le dx 11, anche se un soffio, mentre le rosse guadagnano discretamente :fagiano:
scorpion73
07-07-2016, 14:59
A casa mia dice che con gli Async le 1080 vanno meglio delle Fury, poi se tu vedi un altro grafico non lo so.
E che stanno sopra alle rosse SEMPRE (minimo un 9% proprio con gli Async)
Non conta guadagnare o perdere 1 o 2 frame se siamo nei limiti di certi intervalli, i grafici vanno letti per quel che dicono, non per quel che fa comodo vedere e basta.
Le 1080 possono perdere 1 frame in DX12 rispetto alle DX11, cambia poco, ma stanno sempre sopra le rosse.
Questo non esclude che su Vega l'async sia implementato in modo che svernici Pascal ovviamente, ma quel che c'è disponibile ora dice che Nvidia gestisce gli async meglio delle fury stando al grafico.
Il tutto poi su un gioco AMD oriented, non ce lo dimentichiamo
A casa mia dice che con gli Async le 1080 vanno meglio delle Fury, poi se tu vedi un altro grafico non lo so.
E che stanno sopra alle rosse SEMPRE (minimo un 9% proprio con gli Async)
Non conta guadagnare o perdere 2 o 3 frame, i grafici vanno letti per quel che dicono, non per quel che fa comodo vedere e basta.
Le 1080 possono perdere 3 o 4 frame in DX12 rispetto alle DX11, cambia poco, ma stanno sempre sopra le rosse.
Questo non esclude che su Vega l'async sia implementato in modo che svernici Pascal ovviamente, ma quel che c'è disponibile ora dice che Nvidia gestisce gli async meglio delle fury stando al grafico
a casa mia la 1080 va meglio in dx11 che in dx12+async...
illidan2000
07-07-2016, 15:03
A casa mia dice che con gli Async le 1080 vanno meglio delle Fury, poi se tu vedi un altro grafico non lo so.
E che stanno sopra alle rosse SEMPRE (minimo un 9% proprio con gli Async)
Non conta guadagnare o perdere 2 o 3 frame, i grafici vanno letti per quel che dicono, non per quel che fa comodo vedere e basta.
Le 1080 possono perdere 3 o 4 frame in DX12 rispetto alle DX11, cambia poco, ma stanno sempre sopra le rosse.
Questo non esclude che su Vega l'async sia implementato in modo che svernici Pascal ovviamente, ma quel che c'è disponibile ora dice che Nvidia gestisce gli async meglio delle fury stando al grafico
state dicendo le stesse cose. Il grafico messo sopra, dice solamente che in percentuale, abilitando le async le fury-x guadagnano qualcosa, invece le 1080 perdono
che poi in assoluto le 1080 vadano di più, è un'altra cosa. Certo, per quanto costano...
ELGAMOTH
07-07-2016, 15:04
A casa mia dice che con gli Async le 1080 vanno meglio delle Fury, poi se tu vedi un altro grafico non lo so.
E che stanno sopra alle rosse SEMPRE (minimo un 9% proprio con gli Async)
Non conta guadagnare o perdere 2 o 3 frame, i grafici vanno letti per quel che dicono, non per quel che fa comodo vedere e basta.
Le 1080 possono perdere 3 o 4 frame in DX12 rispetto alle DX11, cambia poco, ma stanno sempre sopra le rosse.
Questo non esclude che su Vega l'async sia implementato in modo che svernici Pascal ovviamente, ma quel che c'è disponibile ora dice che Nvidia gestisce gli async meglio delle fury stando al grafico
Scusa, domanda, ma se da dx11 a dx12 a dx12+asyinc la 1080 (contro se stessa) perde rispettivamente 1.2 e 0.1 mentre la fury x da dx11 a dx 12 a dx12+asyinc guadagna rispettivamente 2.9 e 4.1, dove lo vedi il miglioramento?
Ale55andr0
07-07-2016, 15:04
A casa mia dice che con gli Async le 1080 vanno meglio delle Fury, poi se tu vedi un altro grafico non lo so.
:doh:
ovvio, sono più potenti di BASE, che razza di ragionamento è? il punto è che vanno a perdere (in QUEL test almeno) quindi non hanno un supporto ottimale (in base a QUEL test almeno)
killeragosta90
07-07-2016, 15:05
---
notare i due slot mancanti di ram...supporta 8gb/256bit? :confused:
edit: qui altre foto pcb http://videocardz.com/61942/nvidia-pascal-gp106-and-gtx-1060-pcb-pictured-up-close
Non mi aspettavo nulla visto quello dell 1080-70, ma il PCB della FE fa proprio schifo :fagiano:
A casa mia dice che con gli Async le 1080 vanno meglio delle Fury, poi se tu vedi un altro grafico non lo so.
E che stanno sopra alle rosse SEMPRE (minimo un 9% proprio con gli Async)
Non conta guadagnare o perdere 2 o 3 frame, i grafici vanno letti per quel che dicono, non per quel che fa comodo vedere e basta.
Le 1080 possono perdere 3 o 4 frame in DX12 rispetto alle DX11, cambia poco, ma stanno sempre sopra le rosse.
Questo non esclude che su Vega l'async sia implementato in modo che svernici Pascal ovviamente, ma quel che c'è disponibile ora dice che Nvidia gestisce gli async meglio delle fury stando al grafico.
Il tutto poi su un gioco AMD oriented, non ce lo dimentichiamo
No guarda quel grafico dice che pascal su aos è meglio tenerselo dx11 e che gli async non li usa proprio...ma driver nvidia ufficiale pascal? Non è cmq l'implementazione più corretta da testare (ma allora diciamo pure sui titoli gimpworks eh, eh, eh!)...
scorpion73
07-07-2016, 15:06
La discussione verteva solamente sul discorso Async.
Ricordo che il gioco è AMD oriented e ottimizzato per architettura GCN, questo lo sapete si?
Se vi posto Tomb Raider è tutta un'altra cosa....
Quanto andranno bene o male le cose in DX12 con Pascal lo vedremo con il tempo, ma per adesso in DX12 vanno meglio.
Vedremo con Vega quello che succederà ovviamente
ELGAMOTH
07-07-2016, 15:08
La discussione verteva solamente sul discorso Async.
Ricordo che il gioco è AMD oriented e ottimizzato per architettura GCN, questo lo sapete si?
Se vi posto Tomb Raider è tutta un'altra cosa....
Quanto andranno bene o male le cose in DX12 con Pascal lo vedremo con il tempo, ma per adesso in DX12 vanno meglio.
Vedremo con Vega quello che succederà ovviamente
Va meglio perchè la 1080 è più potente di base. Ma se guardi tra dx 11 e dx12 ci perde, invece di guadagnare....
E cmq il grafico lo hai scelto tu...
scorpion73
07-07-2016, 15:08
Scusate ma per me contano i numeri degli FPS, non le percentuali
Di sto momento gli FPS dicono Pascal, poi se volete vedere altro oh, ognuno è libero eh
Qui dice un'altra cosa
http://cdn.wccftech.com/wp-content/uploads/2016/05/GTX-1080-Ashes-Of-The-Singularity-DirectX-12-Async-Compute-Performance-4K-Extreme.jpg
Secondo me non hai capito bene i numeri.. la tabella da te postata dice esattamente quello che dice il grafico di Vul.
Ovvero che Pascal perde qualcosina attivando dx12 (e un piccolissimo soffio attivando async) mentre l'architettura AMD guadagna
ELGAMOTH
07-07-2016, 15:13
Scusate ma per me contano i numeri degli FPS, non le percentuali
Di sto momento gli FPS dicono Pascal, poi se volete vedere altro oh, ognuno è libero eh
:mc: :mc: :mc: :mc: :mc: :mc: :mc: :mc: :mc: :mc: :mc:
Nessuno ha mai detto il contrario.
Abbiamo (tutti) detto che Pascal, come Maxwell, non ha gli async hardware.
:mc: :mc: :mc: :mc: :mc: :mc: :mc: :mc: :mc: :mc: :mc:
Nessuno ha mai detto il contrario.
Abbiamo (tutti) detto che Pascal, come Maxwell, non ha gli async hardware.
Mmm poco sopra hanno postato un pezzo della recensione di Corsini:
"GTX 1080 supporta in maniera esaustiva Asynchronous Compute e gestisce il bilanciamento di carichi di lavoro (ovvero il concetto alla base delle API di nuova generazione, Vulkan e Mantle compresi) in hardware, così come la preemption (prelazione di risorse) a livello dei pixel e delle istruzioni."
Mi state confondendo :D
appleroof
07-07-2016, 15:17
Non mi aspettavo nulla visto quello dell 1080-70, ma il PCB della FE fa proprio schifo :fagiano:
vero :asd:
ELGAMOTH
07-07-2016, 15:19
Mmm poco sopra hanno postato un pezzo della recensione di Corsini:
"GTX 1080 supporta in maniera esaustiva Asynchronous Compute e gestisce il bilanciamento di carichi di lavoro (ovvero il concetto alla base delle API di nuova generazione, Vulkan e Mantle compresi) in hardware, così come la preemption (prelazione di risorse) a livello dei pixel e delle istruzioni."
Mi state confondendo :D
Da quello che si diceva dovrebbe essere un software che gestisce il tutto.
Non si capisce bene dalla frase di corsini se quel supporta è inteso come implementazione hardware o un software che le fa "girare".
Qui dice un'altra cosa
http://cdn.wccftech.com/wp-content/uploads/2016/05/GTX-1080-Ashes-Of-The-Singularity-DirectX-12-Async-Compute-Performance-4K-Extreme.jpg
A meno che tu non sappia leggere un grafico conferma che nvidia perde mediamente prestazioni con async anzichè guadagnarle.
Scusate ma per me contano i numeri degli FPS, non le percentuali
Di sto momento gli FPS dicono Pascal, poi se volete vedere altro oh, ognuno è libero eh
Si ma costa pure il doppio quasi :asd:
E poi sei tu che hai tirato fuori il discorso "passare da 980 a 1060 ha senso per l'async, passare da 390 a 480 per i consumi no".
Madonna quanto ti arrampichi.
Lo sappiamo tutti che amd non ha schede in grado di competere con 980ti e superiore in maniera costante e spesso in nessun test.
Ma c'è anche il prezzo da considerare.
mikael84
07-07-2016, 15:30
mi sa che c'è solo uno qua dentro che può rispondere con sicurezza: mikael84 :stordita:
Nvidia non supporta ACE in hardware come AMD, AMD li ha e li usa.
Nvidia con Pascal non ha stravolto nulla, ha solo aggiunto un advanced rasterization conservative.
In maniera banale, lavora sui pixel, salva il lavoro effettuato a giuste latenze, nano secondi non milli secondi (quindi un vantaggio) e fa in modo di non lasciare mai uno shader in idle in modo da svolgere sempre un lavoro parallelo.
Rispetto a Maxwell si lavora a bassissime latenze per non creare mai ritardi di elaborazione.
Quindi faccio un lavoro, lo stoppo e lo salvo, mi dedico ad altri calcoli e quando serve ho tutto conservato e lo shader lavora sempre al meglio.
illidan2000
07-07-2016, 15:31
vorrei però vedere altri giochi...
Ale55andr0
07-07-2016, 15:35
Nvidia non supporta ACE in hardware come AMD, AMD li ha e li usa.
Nvidia con Pascal non ha stravolto nulla, ha solo aggiunto un advanced rasterization conservative.
In maniera banale, lavora sui pixel, salva il lavoro effettuato a giuste latenze, nano secondi non milli secondi (quindi un vantaggio) e fa in modo di non lasciare mai uno shader in idle in modo da svolgere sempre un lavoro parallelo.
Rispetto a Maxwell si lavora a bassissime latenze per non creare mai ritardi di elaborazione.
Quindi faccio un lavoro, lo stoppo e lo salvo, mi dedico ad altri calcoli e quando serve ho tutto conservato e lo shader lavora sempre al meglio.
ohh, GRAZIE! :) mi chiedo perchè cavolo non te l'ho chiesto prima :asd:
mikael84
07-07-2016, 15:38
quindi dici 4gb/128bit
Collegare la 1050 ad un bus da 192bit è follia perchè lavori su 1 GPC e mezzo, avendone collegati 3.
Quindi l'ideale sarebbe 1024cc /32 rop's (basta collegare 4 SMM a GPC e non viceversa, altrimenti perdi rop's) su un 128bit da 2/4/8gb in base al taglio che decideranno di mettere.:)
Nelson Muntz
07-07-2016, 15:38
ok , ma in sintesi , AMD con le dx12 guadagna (se si sfruttano sti ACE), ma nvidia non e' che va peggio : resta dov'e' . Quindi se andava bene prima , va bene anche dopo (dx11 o 12 alla fine non cambia una mazza) mentre per AMD programmare in dx12 le porta un vantaggio .
Non vedo chissa' quali stravolgimenti insomma .
"Le schede GeForce GTX 1060 saranno in commercio dal 19 Luglio a livello globale, con prezzi per le versioni sviluppate dai partner a partire da 249 dollari di prezzo nel mercato nord americano tasse escluse."
Partiamo bene. Tradotto 300 e passa euro le custom. Pazienza aspettiamo ancora 2-3 mesi e vediamo chi prima arriva sui 250€ con una custom :muro:
mikael84
07-07-2016, 15:50
notare i due slot mancanti di ram...supporta 8gb/256bit? :confused:
edit: qui altre foto pcb http://videocardz.com/61942/nvidia-pascal-gp106-and-gtx-1060-pcb-pictured-up-close
Si Apple ha 8 slot ram ma il 256bit per ora non è utilizzabile
Io l'avevo già visto dal retro pubblicato da tempo ed infatti non è che mi tornasse molto:p
http://cdn.videocardz.com/1/2016/07/nvidia_geforce_gtx_1060_purepc_2-900x437.jpg
Salvo non voler affinare più avanti con qualche rebrand o altro non ne capisco il motivo.
A meno che non si vada di transazione se serva, 8gb collegati ai 192bit, dove il gb extra accede ad un singolo canale aumentando le latenze (canale dove accede anche il canale indipendente). Alias 660ti:)
64bit-2gb + 1gb transazione
64bit-2gb + 1gb transazione
64bit-2gb
mikael84
07-07-2016, 16:04
ma quindi il bus 8gb/256bit per fare più avanti la 1060ti sul gp106?
perché quel pcb senza due banchi così sennò?
La 1060ti è al massimo lo scarto dello scarto di GP104.:)
Per collegare al 256bit ti servono 4 GPC.
Tieni presente che la 1060 può lavorare solo su 2 GPC.
1 GPC è formato da 640cc/ 512kb l2/ 16 rop's/ 8 blending
Un GPC è composto da un MC da 64bit (32bit 1gb---32bit 1gb).
2 GPC fanno 2x64bit (4x32bit /4x1gb)
Un GPC quindi viene collegato spento, per darti 6gb.
Chiaramente le 16 rop's non ci sono perchè non c'è nulla dentro.
1 SMM 4 rop's:)
Avevo contato anche io 8 slot, ma tipo per una ipotetica 1060ti o 1065? Tipo per contrastare una ipotetica 485?
Tipo... Ipotetica... Tipo... Ma come xxx scrivo? :asd:
Mi manca solo "c'è una topa sulla tipo, quasi quasi - ipoteticamente - me la pipo" cit:
Ale55andr0
07-07-2016, 16:17
http://www.hwupgrade.it/news/skvideo/geforce-gtx-1060-preview-la-nuova-scheda-video-nvidia-della-famiglia-pascal_63504.html
Avevo contato anche io 8 slot, ma tipo per una ipotetica 1060ti o 1065? Tipo per contrastare una ipotetica 485?
Tipo... Ipotetica... Tipo... Ma come xxx scrivo? :asd:
Mi manca solo "c'è una topa sulla tipo, quasi quasi - ipoteticamente - me la pipo" cit:
Tipo non ci è dato ancora sapere :D
Le specifiche di 1060ti potrebbero non riguardare una scheda desktop ma mobile nel caso proprio di una 1070m e non è detto che AMD presenti una 485 anche perchè la 480 sembra essere già full e oltre a pompare le frequenze non credo si possa fare più, l'unico modo è con vega che però ancora non ci sono date ufficiali...
Legolas84
07-07-2016, 16:23
Vi rendete conto che state ancora prendendo ashes of The singularity per fare confronti? :asd:
AOS andrà sempre meglio su AMD e metterà sempre in difficoltà le GE Force (nonostante in assoluto vadano comunque di piu). Il motore grafico di AOS è scritto per andare sull'architettura AMD perché il gioco è sovvenzionato da loro. Non capisco perché si continui a farvi riferimento benché la situazione sia questa.
Inviato dal mio ONE A2003 utilizzando Tapatalk
Legolas84
07-07-2016, 16:26
ok , ma in sintesi , AMD con le dx12 guadagna (se si sfruttano sti ACE), ma nvidia non e' che va peggio : resta dov'e' . Quindi se andava bene prima , va bene anche dopo (dx11 o 12 alla fine non cambia una mazza) mentre per AMD programmare in dx12 le porta un vantaggio .
Non vedo chissa' quali stravolgimenti insomma .
Questo perche grazie alle dx12 su AMD vengono mitigati i numerosi stati di idle che colpiscono l'architettura AMD.
Su NVIDIA questi stati di idle sono già pochissimi per via dell'architettura per cui le dx12 non portano grandi benefici.
È AOS esula da questo discorso chiaramente in quanto non è un riferimento imparziale.
Inviato dal mio ONE A2003 utilizzando Tapatalk
Ale55andr0
07-07-2016, 16:35
gli ace sono una caratteristica delle dx 12, non di aos, una risposta possono darla solo altri titoli che supportano tale caratteristica (davvero, non come tomb raider..)
appleroof
07-07-2016, 16:41
Si Apple ha 8 slot ram ma il 256bit per ora non è utilizzabile
Io l'avevo già visto dal retro pubblicato da tempo ed infatti non è che mi tornasse molto:p
Salvo non voler affinare più avanti con qualche rebrand o altro non ne capisco il motivo.
A meno che non si vada di transazione se serva, 8gb collegati ai 192bit, dove il gb extra accede ad un singolo canale aumentando le latenze (canale dove accede anche il canale indipendente). Alias 660ti:)
64bit-2gb + 1gb transazione
64bit-2gb + 1gb transazione
64bit-2gb
Che sia senplicemente un riciclo del pcb delle gp104? Esiste un pcb corto della 1070 sennon sbaglio della giga...
Legolas84
07-07-2016, 16:44
L'async compute è una caratteristica delle dx12. Non i motori di AMD.
Ho già detto sopra perché su architettura AMD le dx12 danno un incremento mentre le NVIDIA vanno tanto uguale.
L'async compute (ovvero il modo in cui si eseguono i calcoli asincroni) su NVIDIA è supportato nel modo in cui ti ha detto Mikael, ma nvidia ha meno bisogno di AMD di usare in modo intensivo i calcoli asincroni per andare bene . Su AMD ci sono dei motori dedicati, anche perché la sua architettura ne ha un bisogno disperato.
Se nvidia avesse dei motori dedicati non cambierebbe una beneamata mazza, perche i suoi shader già sono sfruttati a dovere.
I comportamenti anomali di AOS non sono dovuti ad async compute nello specifico (anche se loro vogliono fartelo furbamente credere), ma al modo in cui è scritto il motore in generale che premia l'architettura AMD (esattamente come The Witcher 3 premia NVIDIA ad esempio).
Il resto è marketing e convizioni dei fanboy derivanti da scarse conoscenze e speranze...
Inviato dal mio ONE A2003 utilizzando Tapatalk
appleroof
07-07-2016, 16:49
L'async compute è una caratteristica delle dx12. Non i motori di AMD.
Ho già detto sopra perché su architettura AMD le dx12 danno un incremento mentre le NVIDIA vanno tanto uguale.
L'async compute (ovvero il modo in cui si eseguono i calcoli asincroni) su NVIDIA è supportato nel modo in cui ti ha detto Mikael, ma nvidia ha meno bisogno di AMD di usare in modo intensivo i calcoli asincroni per andare bene . Su AMD ci sono dei motori dedicati, anche perché la sua architettura ne ha un bisogno disperato.
Se nvidia avesse dei motori dedicati non cambierebbe una beneamata mazza, perche i suoi shader già sono sfruttati a dovere.
I comportamenti anomali di AOS non sono dovuti ad async compute nello specifico (anche se loro vogliono fartelo furbamente credere), ma al modo in cui è scritto il motore in generale che premia l'architettura AMD (esattamente come The Witcher 3 premia NVIDIA ad esempio).
Il resto è marketing e convizioni dei fanboy derivanti da scarse conoscenze e speranze...
Inviato dal mio ONE A2003 utilizzando Tapatalk
Addirittura credo fosse la principale caratteristica di Mantle (spacciata per libreria open volemose bene etc etc in realtà legittimamente introdotta per dare vantaggio alle proprie gpu) poi trasposta nelle dx12... In poche parole amd invece che stravolgere l'architettura ha pensato bene di sfruttarla meglio a livello software, meno costi e risultato uguale mica male
Cmq vedo spesso che c'è l'equivoco ac=dx12 invece le dx12 sono di più
Legolas84
07-07-2016, 16:51
Si esatto, l'async riesce ad aggirare i limiti dell'architettura AMD risolvendo problemi di idle degli shaders che su NVIDIA non si verificano.
Inviato dal mio ONE A2003 utilizzando Tapatalk
Ale55andr0
07-07-2016, 16:57
Su AMD ci sono dei motori dedicati, anche perché la sua architettura ne ha un bisogno disperato.
quindi microsoft ha scritto le dx 12 per fare un favore ad amd :)
Ale55andr0
07-07-2016, 16:58
Addirittura credo fosse la principale caratteristica di Mantle (spacciata per libreria open volemose bene etc etc in realtà legittimamente introdotta per dare vantaggio alle proprie gpu) poi trasposta nelle dx12...
Cmq vedo spesso che c'è l'equivoco ac=dx12 invece le dx12 sono di più
aspè aspè che questa e mitica: quindi adesso dx 12=mantle (nel senso che ne deriva in modo diretto tanto da usare una feature hardware di una determinata architettura), quando invece lo dice un utente rosso che dx12 e/o vulkan usano molto del codice di mantle spunta il consorzio con nvidia, tizio, caio ecc e amd non c'entra niente (nel senso che è solo un ulteriore partner)....
da morire dal ridere :asd:
scorpion73
07-07-2016, 17:14
Nvidia non supporta ACE in hardware come AMD, AMD li ha e li usa.
Nvidia con Pascal non ha stravolto nulla, ha solo aggiunto un advanced rasterization conservative.
In maniera banale, lavora sui pixel, salva il lavoro effettuato a giuste latenze, nano secondi non milli secondi (quindi un vantaggio) e fa in modo di non lasciare mai uno shader in idle in modo da svolgere sempre un lavoro parallelo.
Rispetto a Maxwell si lavora a bassissime latenze per non creare mai ritardi di elaborazione.
Quindi faccio un lavoro, lo stoppo e lo salvo, mi dedico ad altri calcoli e quando serve ho tutto conservato e lo shader lavora sempre al meglio.
Quindi per capire: l'ACE su Nvidia è simulato comunque con delle strutture hardware anche se non espressamente dedicate a lui?
Perché da come dici di fatto Pascal svolge lo stesso lavoro degli ACE hw di AMD attraverso l'utilizzo di altre componenti hw più "generiche" diciamo.
Ho capito male?
E in questo caso, che prestazioni dovremmo aspettarci e che tipo di differenze ci sono rispetto a Maxwell in termini di capacità di utilizzo di questa funzionalità?
mikael84
07-07-2016, 17:16
Che sia senplicemente un riciclo del pcb delle gp104? Esiste un pcb corto della 1070 sennon sbaglio della giga...
Difficile stimare con certezza il perchè di quel design, sopratutto perchè tutto non ritorna con le ram. Potrebbe essere anche una sorta di riciclo.
quindi avrà 32 o 48 rops?
come colleghi i 2GPC se sono 192bit(64*3)?
dicasi lo stesso per la 1070 che è 256bit ma 3GPC invece che 4?
Sono 32 e 48 sulla 1070;)
https://abload.de/img/ropsgtx1060fyje7.png
1709 x32 =55 g.pixel
I GPC sono 3 collegati ma in uno non ci processi nulla.:)
Poi se si inventano qualcos'altro non saprei.
Se ci pensi Nvidia la rilascia a 48 rop's non 32, quindi si presume che un 3° GPC sia per forza collegato :D
Speriamo non legga Frozen perchè non gli piace il sistema rop's di Nvidia
scorpion73
07-07-2016, 17:17
A meno che tu non sappia leggere un grafico conferma che nvidia perde mediamente prestazioni con async anzichè guadagnarle.
Si ma costa pure il doppio quasi :asd:
E poi sei tu che hai tirato fuori il discorso "passare da 980 a 1060 ha senso per l'async, passare da 390 a 480 per i consumi no".
Madonna quanto ti arrampichi.
Lo sappiamo tutti che amd non ha schede in grado di competere con 980ti e superiore in maniera costante e spesso in nessun test.
Ma c'è anche il prezzo da considerare.
Si ma io adesso facevo un discorso solo hardware non di prezzo od opportunità, e non mi arrampico ma indicavo, e ho riportato anche la fonte, quel che ho capito dalla recensione del Corsini, su cui a mio parare c'era un supporto hardware alla cosa, almeno per quel che capivo io.
Che poi tale supporto era fatto con strumenti "generici" e non ace è un'altra cosa, per questo avevo riportato l'esempio del Polymorph di nvidia vs tessellator di AMD, perché anche li' la tessellazione è fatta con un concetto diverso rispetto a quello di AMD.
quindi sempre hw ma in modo differente, più o meno efficiente.
E per il grafico, indicavo che con Async attivi vs Async spenti non c'era perdita sostanziale di performance come accade su maxwell (anche se sul grafico non si evince ma se ne parlava sul forum del demo in questione), anche se non c'è guadagno e andava comunque meglio di AMD... ora è per la potenza hw? può essere non dico mica di no...
Tutto qui...
mirkonorroz
07-07-2016, 17:21
Piu' che altro c'e' una cosa strana...
se gli async sono in HW, FANNO PARTE dell'architettura e quindi e' inutile dire latenze qua latenze la'. Se si usano il problema non dovrebbe esistere, e si dovrebbero usare.
Se un programmatore non vuole (per "qualche" motivo) supportare amd come si deve non le usera'.
Nvidia ha pubblicato questa tabella prestazionale della GTX 1060 vs GTX 960:
http://www.geforce.com/hardware/10series/geforce-gtx-1060#source=pr
ipotizzando il confronto in fullHD, a spanne significherebbe circa 60 fps in The Witcher:WH:
https://tpucdn.com/reviews/AMD/RX_480/images/witcher3_1920_1080.png
e 40 fps in Tomb Raider:
https://tpucdn.com/reviews/AMD/RX_480/images/rottr_1920_1080.png
nel primo caso, un risultato ottimo, nel secondo pessimo.
Ok, meglio aspettare le recensioni :)
xchè 480 239$->260€ e 1060 249$->350€?
le 1070 si trovano a 430 €...
Crysis90
07-07-2016, 18:23
nel primo caso, un risultato ottimo, nel secondo pessimo.
Ok, meglio aspettare le recensioni :)
Stanno semplicemente cercando di confondere la gente più di quanto già questa non lo sia. :asd: :asd: :O
xchè 480 239$->260€ e 1060 249$->350€?
le 1070 si trovano a 430 €...
Probabilmente quella tabella era stata fatta prima dei prezzi ufficiali.
Nvidia ha pubblicato questa tabella prestazionale della GTX 1060 vs GTX 960:
http://www.geforce.com/hardware/10series/geforce-gtx-1060#source=pr
Se và come 2 GTX 960 , piu' o meno và così :
http://www.tomshw.it/data/thumbs/9/0/4/3/05a-tomb-raider-hd-51e43e0cec16bbf76bf513fc1fb58afd4.jpg
.
ma ste recensioni non dovevano uscire oggi?
mi serve una piccolina per il pc da battaglia
è da poco dopo Windows 7 che è partito il progetto DX12, 2010.
Fonte?
La tua fantasia?
Directx 12 è stato annunciato nel 2014, al 2013 Microsoft non aveva in cantiere alcuna versione directx nuova.
E guarda caso DirectX 12 presentava il 90 % di feature già presentate da Mantle.
TigerTank
07-07-2016, 18:51
http://www.pcgameshardware.de/screenshots/1020x/2016/07/GeForce_GTX_1060_Front_PCB-pcgh.jpg
notare i due slot mancanti di ram...supporta 8gb/256bit? :confused:
edit: qui altre foto pcb http://videocardz.com/61942/nvidia-pascal-gp106-and-gtx-1060-pcb-pictured-up-close
mamma mia che meraviglia di pcb......ma vabbè, visto già quello delle 1070/1080 me l'aspettavo che tornasse il modello corto stile gtx970 cheap :sofico:
Bi7hazard
07-07-2016, 18:57
Difficile stimare con certezza il perchè di quel design, sopratutto perchè tutto non ritorna con le ram. Potrebbe essere anche una sorta di riciclo.
Sono 32 e 48 sulla 1070;)
https://abload.de/img/ropsgtx1060fyje7.png
1709 x32 =55 g.pixel
I GPC sono 3 collegati ma in uno non ci processi nulla.:)
Poi se si inventano qualcos'altro non saprei.
Se ci pensi Nvidia la rilascia a 48 rop's non 32, quindi si presume che un 3° GPC sia per forza collegato :D
Speriamo non legga Frozen perchè non gli piace il sistema rop's di Nvidia
quindi alla fine costerà 350 euro? :stordita:
Legolas84
07-07-2016, 19:19
quindi microsoft ha scritto le dx 12 per fare un favore ad amd :)
No affatto. Microsoft ha fatto le DX12 che includono feature suggerite da AMD, NVIDIA e molte più aziende di quanto immagini. Tre queste vi è Async Compute che offre indubbiamente dei vantaggi potenzialmente sfruttabili da chiunque.
Questo in ogni caso porta che allo stato attuale quella specifica features serviva all'architettura AMD mentre quella NVIDIA poteva tranquillamente farne a meno perchè i suo shaders soffrono molto meno di problemi di idle.
aspè aspè che questa e mitica: quindi adesso dx 12=mantle (nel senso che ne deriva in modo diretto tanto da usare una feature hardware di una determinata architettura), quando invece lo dice un utente rosso che dx12 e/o vulkan usano molto del codice di mantle spunta il consorzio con nvidia, tizio, caio ecc e amd non c'entra niente (nel senso che è solo un ulteriore partner)....
da morire dal ridere :asd:
Mantle è una cosa, DX12 è un'altra, Vulkan un'altra ancora.
Questo è più che ovvio che sono cose diverse e che nessuno deriva da niente in modo esplicito.
Mantle funziona solo su AMD allo stesso modo di come GLIDE funzionava solo su 3dfx ed entrambi non hanno niente a che vedere con le API universali.
DX12 e Vulkan sono API universali, che hanno incluso diverse funzioni che sono presenti anche su Mantle e che sono sfruttabili da chiunque.
Il resto sono storielle, o visioni distorte.
Dragon2002
07-07-2016, 19:20
Sul solito videocarz decine e decine di foto di versioni custom che ovviamente usciranno l'anno del mai.
Legolas84
07-07-2016, 19:21
mamma mia che meraviglia di pcb......ma vabbè, visto già quello delle 1070/1080 me l'aspettavo che tornasse il modello corto stile gtx970 cheap :sofico:
Non serve chissà quale PCB per una gpu che consuma nulla come quella ;)
Sono le performance per watt ad essere davvero ottime :)
Probabilmente quella tabella era stata fatta prima dei prezzi ufficiali.
direi..
cercando su trovaprezzi i prezzi sono + bassi (molto nel caso 1080)
alex oceano
07-07-2016, 19:53
in pratica una 1060 va di più di una 980 giusto? che gia la 980 spingeva forte
Dragon2002
07-07-2016, 20:04
in pratica una 1060 va di più di una 980 giusto? che gia la 980 spingeva forte
Al momento so solo chiacchiere,nvidia ha fatto fare le foto alla scheda.
Free Gordon
07-07-2016, 20:32
nel primo caso, un risultato ottimo, nel secondo pessimo.
Ok, meglio aspettare le recensioni :)
Dal sito dichiarano 1,4X sulla 960 in media...
Se così fosse sarebbe dietro alla 480.
Si saranno tenuti stretti..? ;)
Free Gordon
07-07-2016, 20:35
http://www.pcgameshardware.de/screenshots/1020x/2016/07/GeForce_GTX_1060_Front_PCB-pcgh.jpg
A vederlo così non mi pare molto più piccolo di P10..
Dal sito dichiarano 1,4X sulla 960 in media...
Se così fosse sarebbe dietro alla 480.
Si saranno tenuti stretti..? ;)
Io vedo un minimo di 1,8x e più di 2x in dx12 con tomb rider:
https://s32.postimg.org/42qh5rehx/Cattura.jpg
Sicuramente starà davanti la amd480 e consumerà anche meno
.
Dal sito dichiarano 1,4X sulla 960 in media...
Se così fosse sarebbe dietro alla 480.
Si saranno tenuti stretti..? ;)
La rx 480 va circa un 55% di performance rispetto alla 1080. Con i nuovi drivers dovrebbe attestarsi sul 60%.
La 1060 ha meta' cuda core e simili frequenze rispetto alla 1080. Quindi in linea teorica dovrebbe andare la meta' (ovvero offrire il 50% di performances in meno rispetto alla gtx 1080 e quindi andare un 15-20% in meno rispetto alla rx 480).
Rispetto alla 1080 pero' ha piu' rops e piu' bandwith per cc.
Quindi potrebbe pareggiare la rx480 se
1-la gtx 1080 fosse limitata dalla bandwith o se potesse beneficiare da un numero maggiore di rops. Per superare la rx 480 solo se la gtx 1080 fosse significativamente sbilanciata in questo senso.
2-se la gtx 1080 fosse cpu-limited. In questi casi la 1060 potrebbe esprimere potenziale inespresso dalla 1080.
Secondo me sara' molto difficile che possa superare la rx 480
La rx 480 va circa un 55% di performance rispetto alla 1080. Con i nuovi drivers dovrebbe attestarsi sul 60%.
La 1060 ha meta' cuda core e simili frequenze rispetto alla 1080. Quindi in linea teorica dovrebbe andare la meta' (ovvero offrire il 50% di performances in meno rispetto alla gtx 1080 e quindi andare un 15-20% in meno rispetto alla rx 480).
Rispetto alla 1080 pero' ha piu' rops e piu' bandwith per cc.
Quindi potrebbe pareggiare la rx480 se
1-la gtx 1080 fosse limitata dalla bandwith o se potesse beneficiare da un numero maggiore di rops. Per superare la rx 480 solo se la gtx 1080 fosse significativamente sbilanciata in questo senso.
2-se la gtx 1080 fosse cpu-limited. In questi casi la 1060 potrebbe esprimere potenziale inespresso dalla 1080.
Secondo me sara' molto difficile che possa superare la rx 480
zio tom ha scritto che la 1060 va comprata indipendentemente dalle performance, il prezzo poi è senza iva (secondo loro chi prende nvida ha un esenzione particolare) e se andasse meno della 480 fa anche il caffè quindi va comprata :asd: :asd:
p.s. se va meno della 480 è un fail clamoroso :asd: :asd:
zio tom ha scritto che la 1060 va comprata indipendentemente dalle performance, il prezzo poi è senza iva (secondo loro chi prende nvida ha un esenzione particolare) e se andasse meno della 480 fa anche il caffè quindi va comprata :asd: :asd:
p.s. se va meno della 480 è un fail clamoroso :asd: :asd:
Non credo vada meno. Immagino ci siano situazioni in cui la gtx 1080 sia bandwith limited ed in quelle situazioni la 1060 se ne avvantagerebbe avendo maggiore bandwith.
Ma mi sembra difficile possa superare come media la rx 1080.
Penso che staranno appaiate distanziate da un max 5%
Free Gordon
07-07-2016, 21:15
Secondo me sara' molto difficile che possa superare la rx 480
Hmmm mah... boh attendiamo le medie di Techpowerup e vediamo.
Io credo che la 1060 starà leggermente sopra la 480 (ref.vs ref.) ma con le custom la 480 forse le starà davanti...
Ale55andr0
07-07-2016, 21:18
.
Il resto sono storielle, o visioni distorte.
certo, come no :O
deadbeef
07-07-2016, 21:37
Agli aspiranti membri del khronos group e provetti ingegneri del consorzio IEEE.
Quando si dice che Vulkan ha ereditato qualcosa da Mantle, lo si fa in termini di patterns architetturali/di design, paradigmatici, delle best-practices e di altri concetti della ingegneria del software che dopo sublimano in un prodotto finito.
"Mantle girava solo su AMD, Vulkan no, quindi Vulkan non può essere Mantle" è una spiegazione che lascia il tempo che trova.
Vi lascio a futura memoria una slide ufficiale del khronos group, da notare lo pseudo logo di Mantle...il resto sono storielle, o visioni distorte
http://i.imgur.com/z23ptbX.png
Legolas84
07-07-2016, 21:46
Agli aspiranti membri del khronos group e provetti ingegneri del consorzio IEEE.
Quando si dice che Vulkan ha ereditato qualcosa da Mantle, lo si fa in termini di patterns architetturali/di design, paradigmatici, delle best-practices e di altri concetti della ingegneria del software che dopo sublimano in un prodotto finito.
"Mantle girava solo su AMD, Vulkan no, quindi Vulkan non può essere Mantle" è una spiegazione che lascia il tempo che trova.
Vi lascio a futura memoria una slide ufficiale del khronos group, da notare lo pseudo logo di Mantle...il resto sono storielle, o visioni distorte
http://i.imgur.com/z23ptbX.png
la nuova versione di openGL chiamata vulkan utilizza diverse soluzioni concettuali simili a quelle di mantle (da qui i ringraziamenti ad AMD). Tuttavia li rende disponibili e compatibili con qualsiasi piattaforma hardware.
Dici la stessa cosa che dico io, ma vuoi farla apparire come se senza AMD non avremmo mai avuto Vulkan o DX12.... Ma dopo tutto l'utilità dei tuoi post dal 2014 ad oggi (ben 2 anni) è rasente lo zero ;)
deadbeef
07-07-2016, 21:49
;) :O stavolta non sai come girarla la frittata, visto che hai scritto solo cose che fanno ridere a chi il developer lo fa di mestiere.
Casualmente le prime estensioni SPIR-V sono di AMD:
https://www.khronos.org/registry/spir-v/#extensions
Legolas84
07-07-2016, 21:54
;) :O stavolta non sai come girarla la frittata, visto che hai scritto solo cose che fanno ridere a chi il developer lo fa di mestiere
Spero riderai alla grande pensando a come Mantle sia un'api proprietaria mentre Vulkan un'api universale.
Nel documento di cui hai linkato solo l'immagine che ti serviva per farti bello, subito prima ci sono un bel pò di marchi oltre ad AMD.... chissà come mai? :asd:
Ps
Comunque notevole per uno come te avere il coraggio di affrontarmi qui invece di correre a rispondere a quello che scrivo su un altro thread. È perchè ti hanno chiuso l'altro o davvero stai diventando un uomo? ;)
deadbeef
07-07-2016, 21:59
fratello mio, stai delirando oltre a coprirti un pò di ridicolo, tirando in mezzo cose come il diventare uomo, coraggio, ed altri no-sense.
Parli di altri loghi: ovvio direi, altrimenti non sarebbe un consorzio, ma solo per 1 in particolare c'è la slide ad hoc con i ringraziamenti. Che vai blaterando?
Ti lascio perdere perchè oramai è evidente che non sai più cosa scrivere , gg ;) :O
Legolas84
07-07-2016, 22:07
fratello mio, stai delirando oltre a coprirti un pò di ridicolo, tirando in mezzo cose come il diventare uomo, coraggio, ed altri no-sense.
Parli di altri loghi: ovvio direi, altrimenti non sarebbe un consorzio, ma solo per 1 in particolare c'è la slide ad hoc con i ringraziamenti. Che vai blaterando?
Ti lascio perdere perchè oramai è evidente che non sai più cosa scrivere , gg ;) :O
Continui con il tuo grande contributo biennale al forum :asd: (e si che sei durato già tanto eh)....
appleroof
07-07-2016, 22:09
Spero riderai alla grande pensando a come Mantle sia un'api proprietaria mentre Vulkan un'api universale.
Nel documento di cui hai linkato solo l'immagine che ti serviva per farti bello, subito prima ci sono un bel pò di marchi oltre ad AMD.... chissà come mai? :asd:
Ps
Comunque notevole per uno come te avere il coraggio di affrontarmi qui invece di correre a rispondere a quello che scrivo su un altro thread. È perchè ti hanno chiuso l'altro o davvero stai diventando un uomo? ;)
Quando arrivano a frotte rischi di vedere più linee che commenti nei thread, ma come ci stai meglio.... :asd:
Legolas84
07-07-2016, 22:10
Be dai ma è notevole che mi abbia risposto qui invece che su un altro thread... fa passi avanti il ragazzo :asd:
mikael84
07-07-2016, 22:11
e 40 fps in Tomb Raider:
https://tpucdn.com/reviews/AMD/RX_480/images/rottr_1920_1080.png
nel primo caso, un risultato ottimo, nel secondo pessimo.
Ok, meglio aspettare le recensioni :)
Perchè è il modello da 2gb
https://abload.de/img/trjfs80.png
Cmq la 1060 è circa in linea con la 980 reference, utilizzando la stessa architettura andranno quasi sempre alla pari o vicine.;)
mamma mia che meraviglia di pcb......ma vabbè, visto già quello delle 1070/1080 me l'aspettavo che tornasse il modello corto stile gtx970 cheap :sofico:
Ohhhhh ma che c'hai contro le misure "piccole"!?!? Entrano dappertutto, le infili in ogni orif... Dappertutto!!!
Ingombrano poco e non stanno troppo tra le @@
Poi questa c'ha pure il divviaidualleier!!!
Se salta fuori a 300€ e passa, non se ne parla, mi serve l'erede della 750 ti, non che svuoti le mie povere tasche!
killeragosta90
07-07-2016, 23:44
quindi alla fine costerà 350 euro? :stordita:
Allora credo proprio di averlo azzeccato in pieno... :stordita: l'avevo pronosticato una settimanella fa, esagerando un pochetto...e invece...
mikael84
07-07-2016, 23:47
Ohhhhh ma che c'hai contro le misure "piccole"!?!? Entrano dappertutto, le infili in ogni orif... Dappertutto!!!
Ingombrano poco e non stanno troppo tra le @@
Poi questa c'ha pure il divviaidualleier!!!
Se salta fuori a 300€ e passa, non se ne parla, mi serve l'erede della 750 ti, non che svuoti le mie povere tasche!
Devi aspettare GP107, 640cc e 2/4gb, più o meno una 960 (approssimando, quasi precisa):)
Se và come 2 GTX 960 , piu' o meno và così :
.
Quella tabella non è confrontabile, sia perchè ci sono le GTX 960 custom OC ed Nvidia si riferisce alle prestazioni stock (per ovvi motivi), sia perchè 2 schede in SLi non sono quasi mai al livello di una scheda di cui si dichiara circa il doppio delle prestazioni.
I casi di scaling > 90% ci sono, ma sono una minoranza.
Si vabbè pero le prestazioni si sono capite dove si pongono lasciando perdere percentuali del 5-10% che alla fine in frame quanto sono? 4-5? In generale la scheda si pone tra 970 e 980, e in overclock scala piu di una 970 ma meno di una 980 che in OC dati i 2048cc scala di piu...
Quindi la cosa importante sarà solo il prezzo e gli eventuali giochi in bundle che daranno tra qualche mese.
Io comunque venendo da una 970, mi tocca attendere... la 1070 costa troppo come update quindi aspetto l'uscita di Vega e poi valuto il da farsi... O se ho occasione una 980ti usato non la disdegnerei :fagiano:
Cmq la 1060 è circa in linea con la 980 reference, utilizzando la stessa architettura andranno quasi sempre alla pari o vicine.;)
Anche questa però è una scheda overcloccata.
E non so' se Nvidia s'è confrontata con una 2GB o una 4GB reference (sono scritte le modalità di test da qualche parte?)
Ma effettivamente il 2GB vs 4GB incide molto su Tomb Raider.
Io vedo la GTX 1060 reference tra la 970 e la 980 reference, o se si preferisce in linea con la RX 480, con i soliti giochi che favoriscono una o l'altra.
Sulle custom ci sarà da divertirsi di più, sto' vedendo delle belle cosette in giro.
A parte il fatto che le OpenGL esistono dai tempi del T-rex e nonostante la versatilità tra le piattaforme e anche la miglior gestione delle risorse, non sono mai state prese in considerazione su larga scala fatta eccezione per alcuni titoli, ma mi sembra anche scontato il perchè essendo Windows la piattaforma gaming per eccellenza...
Forse in futuro con SteamOS e quindi Linux si smuoveranno sempre più titoli? Difficile dirlo... Ma continuare con le faide, AMD vs Nvidia, OpenGL/Vulkan VS DX e mettiamoci pure Linux vs Windows... Lascia il tempo che trova, tra HW e SW lo prendiamo comunque in quel posto, poi dipende da quanto vanno affondo...
Mantle comunque ha iniziato lo sviluppo dopo le DX12, non confondiamo la pubblicazione e il rilascio al pubblico con i tempi di progettazione.
Sembra l'eterna diatriba tra l'uovo e la gallina. Viva glide forevaaaaaaaaaaaaa!
Legolas84
08-07-2016, 10:00
Sembra l'eterna diatriba tra l'uovo e la gallina. Viva glide forevaaaaaaaaaaaaa!
Indubbiamente quelli di 3dfx e delle glide erano tutt'altri tempi :D
Indimenticabili... ;)
Inviato dal mio ONE A2003 utilizzando Tapatalk
scorpion73
08-07-2016, 10:04
http://cdn.wccftech.com/wp-content/uploads/2016/05/GTX-1080-Ashes-Of-The-Singularity-DirectX-12-Async-Compute-Performance-1440p-Extreme.jpg
Sul tema di ieri: altro grafico con valori leggermente diversi.
Qui la 1080 non perde in DX12 anche se in proporzione guadagna di più la fury e con gli async attivi guadagna 2 frame contro 5 della fury
Sono curioso di capire cosa farà la TI
mikael84
08-07-2016, 11:06
http://cdn.wccftech.com/wp-content/uploads/2016/05/GTX-1080-Ashes-Of-The-Singularity-DirectX-12-Async-Compute-Performance-1440p-Extreme.jpg
Sul tema di ieri: altro grafico con valori leggermente diversi.
Qui la 1080 non perde in DX12 anche se in proporzione guadagna di più la fury e con gli async attivi guadagna 2 frame contro 5 della fury
Sono curioso di capire cosa farà la TI
La fury guadagna sempre di più perchè in dx11 il driver ha prolemi a sfruttare il multi-thread e deve sempre appoggiarsi al core più veloce.
Quando la scena diventa intricata, la cpu prepara più drawcall e di conseguenza AMD ne risente, non Nvidia
Leggi il bench di Hitman e vedi come se la cavano la fury e la maxwell allo scalare delle risoluzioni (dx11-dx12)
http://www.pcgameshardware.de/Hitman-Spiel-6333/Specials/Episode-2-Test-Benchmarks-DirectX-12-1193618/
mikael84
08-07-2016, 11:21
Anche questa però è una scheda overcloccata.
E non so' se Nvidia s'è confrontata con una 2GB o una 4GB reference (sono scritte le modalità di test da qualche parte?)
Ma effettivamente il 2GB vs 4GB incide molto su Tomb Raider.
Io vedo la GTX 1060 reference tra la 970 e la 980 reference, o se si preferisce in linea con la RX 480, con i soliti giochi che favoriscono una o l'altra.
Sulle custom ci sarà da divertirsi di più, sto' vedendo delle belle cosette in giro.
Sono simili, non vedrai mai il gioco dove viene battuta dalla 970 ed altri dove stra vince sulla 980.
Qua ho fatto un riassunto in valori teorici e in linea di massima dipenderà molto dal boost di lancio, che non è 1700 ma sarà circa 1870-1900.
980
Base 1230mhz
computazionale TF. (V.M.) 5,03
Rop's: 78,7 g.p
TMU: 157,4
Geometria: 6500 g.tris/s
2mb l2 / 1,04 g. ist. totali.
1060
B.B.. 1860 (no downclock)
computazionale TF. (V.M.) 4,76
Rop's: 59,6 g.p (potesi 40 rop's: 74,4g.p.
TMU: 148,8
Geometria: 6138 g.tris/s
1,5mb l2 / 650m. ist. totali.
Così impostata non prende a teorici la 980, ma supera la 970 senza problemi.
1060
B.B 2000
computazionale TF. (V.M.) 5,12
Rop's: 64,0 g.p (potesi 40 rop's: 80,0g.p.
TMU: 160
Geometria: 6600 g.tris/s
1,5mb l2 / 650m. ist. totali.
Come vedi in ogni settore sono simili, la 980 ha un vantaggio minimo ma devi tenere in conto anche utilizzo della BW, timing ram, accesso rop's e tmu, grado di compressione.
Stando al 3dmark le schede performano più o meno uguale;)
Legolas84
08-07-2016, 11:28
Si infatti l'obbiettivo che si prefiggono è la 980... Certo però bisogna vedere le review.
Io sono curioso di vedere le performance per watt :)
Inviato dal mio ONE A2003 utilizzando Tapatalk
Lights_n_roses
08-07-2016, 12:59
La fury guadagna sempre di più perchè in dx11 il driver ha prolemi a sfruttare il multi-thread e deve sempre appoggiarsi al core più veloce.
Quando la scena diventa intricata, la cpu prepara più drawcall e di conseguenza AMD ne risente, non Nvidia
Leggi il bench di Hitman e vedi come se la cavano la fury e la maxwell allo scalare delle risoluzioni (dx11-dx12)
http://www.pcgameshardware.de/Hitman-Spiel-6333/Specials/Episode-2-Test-Benchmarks-DirectX-12-1193618/
Qualcuno potrebbe spiegarmi cos'è questo Async e se sarà utile averlo in futuro?
Darrosquall
08-07-2016, 13:08
Qualcuno potrebbe spiegarmi cos'è questo Async e se sarà utile averlo in futuro?
E' una sorta di Pater Familias per chi ha una scheda video AMD, fra 2 3 anni quando usciranno giochi full D12, la 390 umilierà la 970 e loro potranno dirti che 12 anni prima hanno fatto bene a scegliere una rossa :asd:
scorpion73
08-07-2016, 13:35
Quoto dall'altro thread:
Allora ragazza, sorpresona per i possessori di Pascal.
http://wccftech.com/rise-of-the-tomb-raider-pc-patch-dx12-multi-gpu-async-compute-vsync/
E' appena uscita la patch che aggiunge il supporto SLI a tomb raider in dx12.
Aggiunge anche il supporto all'async compute.
Testato col mio sli di 1070, devo dire scettico, e non solo funziona, ma aumenta di brutto le performance.
Ma di brutto proprio.
Geotermal valley, sli di 1070 in 4k a circa 2100mhz, 6600k a 4.5ghz, in dx11 per avere i 60fps dovevo abbassare alcuni dettagli (ombre, rifllessi, purehair, etc).
Provo a lanciare in dx12, fluido, alzo i dettagli, fluido, metto al massimo, fluido.
In buona sostanza, con le dx12 i 60fps si prendono con tutti i dettagli al massimo (tranne riflessi speculari che ho messo medi, per evitare un lieve calo in un punto).
In soldoni, a parità di dettagli (vale a dire tutto al massimo tranne i riflessi speculari, sotto di una tacca) si ottiene [il tutto misurato con afterburner]:
- dx11 40fps
- dx12 60fps
Mi piacerebbe vedere cosa si ottiene con uno sli di 980 ti, sono davvero curioso.
Comunque OTTIME notizie, veramente ottime, sia per il supporto SLI in dx12 (meno male, ero preoccupato), sia per l'async
Mikael84, quindi perdonami, ma mi pare di capire che su sto benedetto async Pascal sia decisamente migliore di maxwell: sarà fatto sfruttando un marchingegno e non una unità dedicata (mi pare di capire però sempre in hw corretto?) però se l'ottimizzazione la mettono solo per Pascal e non funge su Maxwell, un motivo, spero non di marketing come dicono i detrattori, ci sarà, no?
appleroof
08-07-2016, 13:46
E' una sorta di Pater Familias per chi ha una scheda video AMD, fra 2 3 anni quando usciranno giochi full D12, la 390 umilierà la 970 e loro potranno dirti che 12 anni prima hanno fatto bene a scegliere una rossa :asd:
dove umiliare vuol dire 15fps vs. 10, ingiocabile con entrambe :D
Quoto dall'altro thread:
Mikael84, quindi perdonami, ma mi pare di capire che su sto benedetto async Pascal sia decisamente migliore di maxwell: sarà fatto sfruttando un marchingegno e non una unità dedicata (mi pare di capire però sempre in hw corretto?) però se l'ottimizzazione la mettono solo per Pascal e non funge su Maxwell, un motivo, spero non di marketing come dicono i detrattori, ci sarà, no?
qui è spiegato molto bene e credo in maniera semplice:
Async compute basically means working on a graphics workload at the same time as a compute one, making the most of the GPU’s resources. This can work on a number of levels, either at the GPU level or SM/CU level. Maxwell only worked at a GPU level, assigning each SM to either a graphics or compute task. Scheduling was done in the shader and in order add/switch tasks, the previous task had to finish or be preempted/stopped. Furthermore, Maxwell only had static partitioning, so graphics and compute tasks scheduling at the same time had to both finish and weren’t able to dynamically reallocate resources if one task finished first. This led to GCN leading when it came to async compute.
Pascal brings a number of changes. First off, the promised improved preemption has come. Pascal will be able to offer more fine-grained control, entering a new task between pixels or instructions. This will allow for better and likely faster preemption. The next change is dynamic load balancing. This allows Pascal to reallocate resources dedicated to either graphics or compute on the fly. This GPU level means that once a graphics/compute task is finished, the idle SMs can now be added to those working on another graphics/compute task, speeding up completion. This should allow for much better async compute performance compared to Maxwell.
Even with all of these additions, Pascal still won’t quite match GCN. GCN is able to run async compute at the SM/CU level, meaning each SM/CU can work on both graphics and compute at the same time, allowing even better efficiency. Nonetheless, Pascal is finally offering a solution with hardware scheduled async compute, bringing Nvidia closer to AMD. Either way, with both Nvidia and AMD working on async compute, developers are more likely to take notice and make sure our GPUs are fully utilized.
http://www.eteknix.com/pascal-gtx-1080-async-compute-explored/
mikael84
08-07-2016, 14:03
Quoto dall'altro thread:
Mikael84, quindi perdonami, ma mi pare di capire che su sto benedetto async Pascal sia decisamente migliore di maxwell: sarà fatto sfruttando un marchingegno e non una unità dedicata (mi pare di capire però sempre in hw corretto?) però se l'ottimizzazione la mettono solo per Pascal e non funge su Maxwell, un motivo, spero non di marketing come dicono i detrattori, ci sarà, no?
Come spiegato ieri, Pascal ha migliorato alcuni fattori ed aggiunto un advanced rasterization conservative. Crea un lavoro su primitive e pixel, lo stoppa e lo mette in coda a latenze migliori.
Quindi rispetto a maxwell funziona meglio ma non ha unità hardware dedicate come AMD con ACE integrati.
Su AMD, ti faccio un'esempio, devi elaborare 10000 shader, 7500 li eseguono gli shader, 2500 gli async, tutto viene in hardware.
AMD però trae un'enorme vantaggio perchè il driver dx11 non non riesce a sfruttare il multi thread delle CPU e con le dx12 colma questo problema.
Se in 1080 usi un 5960x non hai problemi perchè usi l'IPC migliore a singolo core più 20mb
Se utilizzi un 8370 sei fregato in dx11.
In dx12 no, quindi oltre alla possibilità del calcolo parallelo hai la possibilità di lavorare in asyncrono per evitare di lasciare shader in idle o processare altri dati contemporaneamente.
http://www.hwupgrade.it/articoli/skvideo/4676/ashes_1.png
Tra maxwell e pascal solo i test e giochi nativi potranno dirci la reale differenza, attualmente è incalcolabile, ma chiaramente Pascal è in vantaggio;)
scorpion73
08-07-2016, 14:25
Ora è chiaro, grazie Mikael e appleroof.
Quindi di fatto non mi sbagliavo a dire che Pascal era diverso da Maxwell su questo aspetto e dava una implementazione migliore della funzionalità che l'altra architettura di fatto non aveva
appleroof
08-07-2016, 14:33
Come spiegato ieri, Pascal ha migliorato alcuni fattori ed aggiunto un advanced rasterization conservative. Crea un lavoro su primitive e pixel, lo stoppa e lo mette in coda a latenze migliori.
Quindi rispetto a maxwell funziona meglio ma non ha unità hardware dedicate come AMD con ACE integrati.
cut
Mike stavo leggendo questo:
Async shading itself is a bit of a catch-all term – not unlike calling a CPU/SoC a multi-core CPU – and can mean any number of things depending on the context. Hardware can have a different number of queues, different rules on how resources are shared, different rules on how queues are scheduled, etc. So not all async shading capable hardware is the same, and there will be varying levels of how much work can actually be done concurrently. At the same time from a throughput perspective async shading can only fill ALUs that aren’t already being fully utilized, so the upper limit to its benefits is whatever resources aren't already being used.
http://www.anandtech.com/show/10067/ashes-of-the-singularity-revisited-beta/2
che fa il paio con quanto postavo sopra, in poche parole non esiste una unità "fissa" dedicata all'async compute, ma dipenderebbe dall'archittettura, anandtech letteralmente dice che non tutto l'hardware capace di operare l'async shading è lo stesso...
poi questo:
On a side note, part of the reason for AMD's presentation is to explain their architectural advantages over NVIDIA, so we checked with NVIDIA on queues. Fermi/Kepler/Maxwell 1 can only use a single graphics queue or their complement of compute queues, but not both at once – early implementations of HyperQ cannot be used in conjunction with graphics. Meanwhile Maxwell 2 has 32 queues, composed of 1 graphics queue and 31 compute queues (or 32 compute queues total in pure compute mode). So pre-Maxwell 2 GPUs have to either execute in serial or pre-empt to move tasks ahead of each other, which would indeed give AMD an advantage..
http://i.imgur.com/4HeBrrs.jpg
http://www.anandtech.com/show/9124/amd-dives-deep-on-asynchronous-shading
su beyond 3d hanno sviluppato un tool capace di mostrare le prestazioni della GPU con solo "compute", solo "graphics" ed entrambi, qui il thread con un interessante grafico (più bassa la linea, più è migliore il risultato)
https://forum.beyond3d.com/threads/dx12-performance-discussion-and-analysis-thread.57188/page-9#post-1869058
lo ha notato questo sito http://www.pcgamesn.com/relax-nvidias-maxwell-gpus-can-do-dx12-asynchronous-shading-after-all,
che commenta così:
That's why the world gives us people like MDolenc, a Beyond3D user who took it upon themself to whip up a bespoke DX12 benchmark to test exactly how Maxwell and GCN graphics cards perform when bombarded with 1-128 sequences of code to digest. The idea being that if NVIDIA's cards really aren't capable of async compute/shading in DX12, it would take exponentially longer for that card to process each sequence, from line 1 all the way up to 128. However, if it takes the card the same amount of time to process 31 sequences as just one, that's an indication that it's using async compute/shading.
in tutto questo discorso manca Pascal purtroppo (sono articoli vecchi di qualche mese, quando ha fatto scalpore AOTS etc etc)
la cosa più importante da ricordare sempre però, secondo me è questa (sempre da anand): Like DirectX 12’s other headlining features, async shading is a powerful tool, but it’s one whose potency will depend on the hardware it’s being executed on and what a game is attempting.
cioè dx12 non vuol dire ACE, come credono molti (e infatti la ormai leggenda che "amd supporta meglio le dx12")
appleroof
08-07-2016, 14:41
Ora è chiaro, grazie Mikael e appleroof.
Quindi di fatto non mi sbagliavo a dire che Pascal era diverso da Maxwell su questo aspetto e dava una implementazione migliore della funzionalità che l'altra architettura di fatto non aveva
prego :) ovviamente tieni conto che non sono un tecnico, leggo gli articoli e cerco di capire solo questo
comunque dal link che ti ho dato (e dai grafici dell'unico gioco ad oggi che sfrutta quella funzionalità delle dx12) direi che è proprio il contrario....dall'articolo di anandtech di sopra è evidente che limitatamente al discorso ace kepler<maxwell<pascal, e che nvidia non è che non supporta in hardware, lo fa in modo diverso (meno efficace, più efficace, poi da quanto ho capito dipende dal complesso dell'architettura e da come è scritto il gioco -sotto questo punto di vista aggiungo che non vedo novità rispetto al passato rispetto ad altre feature directx-)
poi come dice Mikael l'architettura nvidia di per sè trae meno beneficio (leggi non è che va peggio) se il gioco sfrutta l'async shading, rispetto a quella Amd
Ma quando sono date le recensioni per la gtx 1060 ? , con questo caldo mi sono scordato .
mikael84
08-07-2016, 14:54
Mike stavo leggendo questo:
Async shading itself is a bit of a catch-all term – not unlike calling a CPU/SoC a multi-core CPU – and can mean any number of things depending on the context. Hardware can have a different number of queues, different rules on how resources are shared, different rules on how queues are scheduled, etc. So not all async shading capable hardware is the same, and there will be varying levels of how much work can actually be done concurrently. At the same time from a throughput perspective async shading can only fill ALUs that aren’t already being fully utilized, so the upper limit to its benefits is whatever resources aren't already being used.
http://www.anandtech.com/show/10067/ashes-of-the-singularity-revisited-beta/2
che fa il paio con quanto postavo sopra, in poche parole non esiste una unità "fissa" dedicata all'async compute, ma dipenderebbe dall'archittettura, anandtech letteralmente dice che non tutto l'hardware capace di operare l'async shading è lo stesso...
poi questo:
On a side note, part of the reason for AMD's presentation is to explain their architectural advantages over NVIDIA, so we checked with NVIDIA on queues. Fermi/Kepler/Maxwell 1 can only use a single graphics queue or their complement of compute queues, but not both at once – early implementations of HyperQ cannot be used in conjunction with graphics. Meanwhile Maxwell 2 has 32 queues, composed of 1 graphics queue and 31 compute queues (or 32 compute queues total in pure compute mode). So pre-Maxwell 2 GPUs have to either execute in serial or pre-empt to move tasks ahead of each other, which would indeed give AMD an advantage..
http://www.anandtech.com/show/9124/amd-dives-deep-on-asynchronous-shading
su beyond 3d hanno sviluppato un tool capace di mostrare le prestazioni della GPU con solo "compute", solo "graphics" ed entrambi, qui il thread con un interessante grafico (più bassa la linea, più è migliore il risultato)
https://forum.beyond3d.com/threads/dx12-performance-discussion-and-analysis-thread.57188/page-9#post-1869058
lo ha notato questo sito http://www.pcgamesn.com/relax-nvidias-maxwell-gpus-can-do-dx12-asynchronous-shading-after-all,
che commenta così:
That's why the world gives us people like MDolenc, a Beyond3D user who took it upon themself to whip up a bespoke DX12 benchmark to test exactly how Maxwell and GCN graphics cards perform when bombarded with 1-128 sequences of code to digest. The idea being that if NVIDIA's cards really aren't capable of async compute/shading in DX12, it would take exponentially longer for that card to process each sequence, from line 1 all the way up to 128. However, if it takes the card the same amount of time to process 31 sequences as just one, that's an indication that it's using async compute/shading.
in tutto questo discorso manca Pascal purtroppo (sono articoli vecchi di qualche mese, quando ha fatto scalpore AOTS etc etc)
la cosa più importante da ricordare sempre però, secondo me è questa (sempre da anand): Like DirectX 12’s other headlining features, async shading is a powerful tool, but it’s one whose potency will depend on the hardware it’s being executed on and what a game is attempting.
cioè dx12 non vuol dire ACE, come credono molti (e infatti la ormai leggenda che "amd supporta meglio le dx12")
Si Apple dici bene ma sono architetture molto diverse.
AMD come sai ha il grosso problema del driver dx11 che riesce a colmare in gran parte con le dx12, più ha acceleratori async, questi li hai e li sfrutti.
Se io ti butto 10000 shader, 7500 li eseguono gli shader, 2500 gli async, ho cmq un vantaggio hardware ma Nvidia non ha una pipeline piena di buchi computazionali.
Nvidia fa in modo di svolgere alcuni lavori come fosse un HT, con Pascal ha migliorato le latenze. Quando la scheda si deve dedicare a ben altri calcoli, ben più complessi, si salva il lavoro fatto e se trova qualche shader poco attivo, quello memorizzato può essere implementato velocemente, cercando di evitare i buchi di calcolo.
Gli acceleratori async sono stati implementati per cercare di tirare fuori qualcosa di più alle console.
http://www.hwupgrade.it/articoli/skvideo/4676/tr_2560.png
Prendendo Hitman si vede come a 1440p Pascal sia in vantaggio su maxwell (leggermente) sulla 1080, ma non succede sulla 1070
http://www.hwupgrade.it/articoli/skvideo/4676/hitman_2560.png
Quando gli shader sono spremuti 4k
http://www.hwupgrade.it/articoli/skvideo/4676/hitman_3840.png
Non si nota alcuna differenza:)
Quindi, parliamo tutto a livello teorico.:)
appleroof
08-07-2016, 15:00
Si Apple dici bene ma sono architetture molto diverse.
AMD come sai ha il grosso problema del driver dx11 che riesce a colmare in gran parte con le dx12, più ha acceleratori asych, questi li hai e li sfrutti.
Se io ti butto 10000 shader, 7500 li eseguono gli shader, 2500 gli async, ho cmq un vantaggio hardware ma Nvidia non ha una pipeline piena di buchi computazionali.
Nvidia fa in modo di svolgere alcuni lavori come fosse un HT, con Pascal ha migliorato le latenze. Quando la scheda si deve dedicare a ben altri calcoli, ben più complessi, si salva il lavoro fatto e se trova qualche shader poco attivo, quello memorizzato può essere implementato velocemente, cercando di evitare i buchi di calcolo.
Gli acceleratori async sono stati implementati per cercare di tirare fuori qualcosa di più alle console.
cut
Prendendo Hitman si vede come a 1440p Pascal sia in vantaggio su maxwell (leggermente) sulla 1080, ma non succede sulla 1070
cut
Quando gli shader sono spremuti 4k
cut
Non si nota alcuna differenza:)
Quindi, parliamo tutto a livello teorico.:)
esatto, mi premeva capire soltanto se per gli Ace occorre un determinato tipo di hw o no...da quei vecchi articoli di anand e il thread di b3d direi come detto di no* e di conseguenza non sarebbe correttissimo dire che nvidia non supporta in hw gli ace (ma sarebbe come dire il supporto alla tasselletion, lo fanno entrambe ma con implementazioni hw diverse), di certo l'implementazione Amd è più congeniale ad essa :D
dipende tutto da come verrà scritto il gioco, come sempre alla fine
*Damien Triolet rimane scettico comunque sulle capacità di maxwell circa gli ace (almeno con riferimento specifico a AOTS) https://translate.googleusercontent.com/translate_c?act=url&depth=1&hl=it&ie=UTF8&prev=_t&rurl=translate.google.it&sl=auto&tl=it&u=http://www.hardware.fr/news/14350/gtx-900-supportent-elles-correctement-directx-12.html&usg=ALkJrhhhNWc0Z43j_9WbEeke6sBM55eHWg
solo per inciso ieri postavo questo http://hwupgrade.it/forum/showpost.php?p=43842645&postcount=29003 e, non per autoesaltarmi :asd: ma proprio Triolet sostiene non smentito la cosa (traduzione pessima dal francese con google traduttore): Khronos e Microsoft su questo articolo ripreso esattamente la struttura che AMD aveva stabilito con la sua API mantello. Una vittoria per AMD ha progettato il motore Multi seguendo i contorni dell'architettura della GPU. ufficio marketing tecnico ha colto l'occasione per comunicare ampiamente sull'argomento evidenziando un miglioramento delle prestazioni sotto la bandiera Async Compute o calcolo asincrono.
https://translate.googleusercontent.com/translate_c?act=url&depth=1&hl=it&ie=UTF8&prev=_t&rurl=translate.google.it&sl=auto&tl=it&u=http://www.hardware.fr/articles/948-3/pascal-async-compute-mieux.html&usg=ALkJrhhDBS0P1MaxcYcloEPfjyYMb9cCCA
mikael84
08-07-2016, 15:22
esatto, mi premeva capire soltanto se per gli Ace occorre un determinato tipo di hw o no...da quei vecchi articoli di anand e il thread di b3d direi come detto di no* e di conseguenza non sarebbe correttissimo dire che nvidia non supporta in hw gli ace (ma sarebbe come dire il supporto alla tasselletion, lo fanno entrambe ma con implementazioni hw diverse), di certo l'implementazione Amd è più congeniale ad essa :D
dipende tutto da come verrà scritto il gioco, come sempre alla fine
*Damien Triolet rimane scettico comunque sulle capacità di maxwell circa gli ace (almeno con riferimento specifico a AOTS) https://translate.googleusercontent.com/translate_c?act=url&depth=1&hl=it&ie=UTF8&prev=_t&rurl=translate.google.it&sl=auto&tl=it&u=http://www.hardware.fr/news/14350/gtx-900-supportent-elles-correctement-directx-12.html&usg=ALkJrhhhNWc0Z43j_9WbEeke6sBM55eHWg
solo per inciso ieri postavo questo http://hwupgrade.it/forum/showpost.php?p=43842645&postcount=29003 e, non per autoesaltarmi :asd: ma proprio Triolet sostiene non smentito la cosa (traduzione pessima dal francese con google traduttore): Khronos e Microsoft su questo articolo ripreso esattamente la struttura che AMD aveva stabilito con la sua API mantello. Una vittoria per AMD ha progettato il motore Multi seguendo i contorni dell'architettura della GPU. ufficio marketing tecnico ha colto l'occasione per comunicare ampiamente sull'argomento evidenziando un miglioramento delle prestazioni sotto la bandiera Async Compute o calcolo asincrono.
https://translate.googleusercontent.com/translate_c?act=url&depth=1&hl=it&ie=UTF8&prev=_t&rurl=translate.google.it&sl=auto&tl=it&u=http://www.hardware.fr/articles/948-3/pascal-async-compute-mieux.html&usg=ALkJrhhDBS0P1MaxcYcloEPfjyYMb9cCCA
Diciamo Apple che tassellation e ACE sono leggermente diversi.:)
La tassellation come con tw3 ed altri è decisa dal programmatore che decide come implementarla e nel caso sia troppo complessa ammazzi le AMD per il rapporto drawn/culling (questo ora migliorato, espulsione micro triangoli).
Gli ACE li hai in hardware e li usi, quindi avendoli, questi calcolano shader parallelamente ma il tutto si ferma qua.:)
Nvidia non ha ACE hardware ma un sistema di code da utilizzare a basse latenze, nel caso qualche shader rimanga in idle, magari alle basse risoluzioni.
E' bene capire che AMD ed nvidia hanno architetture diverse, se serve anche nvidia può lavorare in maniera asyncrona servendosi di code e calcolo parallelo.:)
E' troppo complesso valutare ora come possono reagire le architetture in veri titoli dx12.
Chi veramente ci guadagna è AMD e CPU AMD, per il problema CPU multi-thread dovuto alla loro architettura.
deadbeef
08-07-2016, 15:39
Diciamo che raggiungono lo stesso obiettivo in modo diverso. Un SM nvidia può eseguire una sola tipologia di calcolo, una CU amd può lavorare su carichi eterogenei schedulati ed allocati in parallelo dagli ACE all'interno della stessa CU. La coda maxwell/pascal è unica e serializzata, gli ACE sono multipli e parallelizzati. Pascal aumenta l'efficienza del parallelismo con il dynamic load balancing ed abbassando la latenza della coda, ma non può fare di più perchè gli manca l'hardware per farlo. Gli ACE sono l'implementazione hardware amd per l'esecuzione dell'Async compute, Nvidia 'ricicla' la sua command queue (potenziandola con pascal) per raggiungere lo stesso scopo.
AMD ne guadagna di più perchè è una feature che si è cucita addosso e mitiga il gap causato dalla scarsa efficienza del driver mt in dx11 e dal non perfetto bilanciamento dell'architettura nel suo complesso.
Tutto bello e profumato, sarà da vedere chi si prenderà l'ònere e l'onore di scrivere il codice per ogni iterazione delle diverse architetture.
https://upload.wikimedia.org/wikipedia/commons/thumb/9/99/GCN_command_processing.svg/960px-GCN_command_processing.svg.png
https://developer.nvidia.com/sites/default/files/akamai/gameworks/blog/Vulkan/vulkan_intro_management.png
scorpion73
08-07-2016, 15:51
Non ricordo se era già stato postato sulla nuova Titan
http://vrworld.com/2016/07/05/nvidia-gp100-titan-faster-geforce-1080/
AMD ne guadagna di più perchè è una feature che si è cucita addosso e mitiga il gap causato dalla scarsa efficienza del driver mt in dx11 e dal non perfetto bilanciamento dell'architettura nel suo complesso.
Tutto bello e profumato, sarà da vedere chi si prenderà l'ònere e l'onore di scrivere il codice per ogni iterazione delle diverse architetture.
AMD con Polaris ha introdotto gli HWS che servono proprio per ridurre overhead, allocare CU per audio (hanno tolto il blocco hardware) e VR. Tutto questo senza scomodare gli ACE, ma mettendoci una pezza via driver.
http://cdn.wccftech.com/wp-content/uploads/2016/06/AMD-Radeon-RX-480-Polaris-10_Hardware-Scheduler-HWS.jpg
deadbeef
08-07-2016, 16:17
Diciamo pezza hw+sw :D La possibilità di update del microcode è molto interessante: molto probabilmente dico una castroneria, ma avere la possibilità di ricalibrare l'HWS in base all'engine grafico da eseguire sarebbe una feature non da poco
sembra di si: https://forum.beyond3d.com/threads/can-amd-gpus-implement-hardware-fixed-function-pipelines-through-firmware.58209/
Diciamo pezza hw+sw :D La possibilità di update del microcode è molto interessante: molto probabilmente dico una castroneria, ma avere la possibilità di ricalibrare l'HWS in base all'engine grafico da eseguire sarebbe una feature non da poco
sembra di si: https://forum.beyond3d.com/threads/can-amd-gpus-implement-hardware-fixed-function-pipelines-through-firmware.58209/
Esatto, programmano il microcodice per ridurre overhead o bilanciare il carico per sgravare il command processor ingolfato http://www.mbgraphicsfilm.com/images/Gif_free1/smile_scorreggia_peto_fart.gif
Il problema rimangono i CU troppo general purpose per una GPU.
I prezzi ufficiali di Nvidia per Europa ed Italia delle GTX 1060:
http://www.hwupgrade.it/news/skvideo/i-prezzi-in-euro-per-il-mercato-italiano-di-geforce-gtx-1060_63556.html
319 euro tasse incluso con acquisto diretto dal sito Nvidia.
285 euro minimo suggerito per le custom.
deadbeef
08-07-2016, 16:59
La scheda Founders Edition verrà venduta in Europa unicamente attraverso i siti web NVIDIA di Germania, Francia e UK: il listino in questo caso sarà di 319 Euro, tasse incluse. Le schede Founders Edition non saranno quindi vendute nel mercato italiano in modo diretto da NVIDIA, e a differenza di quanto visto con le schede GeForce GTX 1070 e GeForce GTX 1060 non saranno vendute dai partner.
Con l'iva italiana diventano 327, prendendo come riferimento i 319 in germania con l'iva al 19%
Ale55andr0
08-07-2016, 17:02
E' troppo complesso valutare ora come possono reagire le architetture in veri titoli dx12.
Chi veramente ci guadagna è AMD e CPU AMD, per il problema CPU multi-thread dovuto alla loro architettura.
ma sbaglio o con la nuova 480 in dx11 il problema è stato rintuzzato? o vale lo stesso anche per la 480? perchè pure li c'è chi dice che le magagne sono le stesse mentre altri no :mc: . Altra cosa: facevi notare come la 480avesse migliorato il comportamento con l'haiworks in TW3 rispetto le gcn 1.2, da che dipende visto che è una feature proprietaria e quindi non credo abbiano potuto smanacciare via software a differenza di come si potrebbe con qualcosa di aperto come purehair? quale caratteristica tecniac della gpu può migliorare la performance in quel contesto? :stordita:
Ale55andr0
08-07-2016, 17:05
Tutto bello e profumato, sarà da vedere chi si prenderà l'ònere e l'onore di scrivere il codice per ogni iterazione delle diverse architetture.
..si ma...se nvidia ha l'architettura che "è fatta così di suo" (il modo in cui si "sistema i dati") allora non dipende da nessuno se non dai suoi driver mi par di capire, o no?
e per gli ACE "fisici" di AMD? le software house devono ottimizzare loro o ci pensa AMD coi driver a sfruttarli? su console sono sfruttati sicuro al 100% avendoli sia one, sia ps 4 sia ps4 neo e scorpio..ma cio significa forseche in automatico nei multipiatta saranno implmentati o li potranno "castrare" nella variante PC?
Alla fine sono i soliti 30euro di differenza con prezzi "stabilizzati"(forse anche meno).
..si ma...se nvidia ha l'architettura che "è fatta così di suo" (il modo in cui si "sistema i dati") allora non dipende da nessuno se non dai suoi driver mi par di capire, o no?
e per gli ACE "fisici" di AMD? le software house devono ottimizzare loro o ci pensa AMD coi driver a sfruttarli? su console sono sfruttati sicuro al 100% avendoli sia one, sia ps 4 sia ps4 neo e scorpio..ma cio significa forseche in automatico nei multipiatta saranno implmentati o li potranno "castrare"?
Deve pensarci la software house. Ciaone se non fosse per le console...:sofico:
La scheda Founders Edition verrà venduta in Europa unicamente attraverso i siti web NVIDIA di Germania, Francia e UK: il listino in questo caso sarà di 319 Euro, tasse incluse. Le schede Founders Edition non saranno quindi vendute nel mercato italiano in modo diretto da NVIDIA, e a differenza di quanto visto con le schede GeForce GTX 1070 e GeForce GTX 1060 non saranno vendute dai partner.
Con l'iva italiana diventano 327, prendendo come riferimento i 319 in germania con l'iva al 19%
una volta a questi prezzi ci prendevi una 970 (prima vga della fascia alta), ora la fascia media :stordita:
facevi notare come la 480avesse migliorato il comportamento con l'haiworks in TW3 rispetto le gcn 1.2, da che dipende visto che è una feature proprietaria e quindi non credo abbiano potuto smanacciare via software a differenza di come si potrebbe con qualcosa di aperto come purehair? quale caratteristica tecniac della gpu può migliorare la performance in quel contesto? :stordita:
Gli hairwork usano un tess factor ignobilmente alto per giustificare l'acquisto di schede top. Se ricordi forzando un tessfactor ridotto via driver amd, non cambiava quasi nulla in qualità percepita.
Usando tessfactor esagerati si generano tantissimi micro-triangoli che grazie al primitive discard vengono eliminati, dato che agisce proprio su quest'ultimi.
Ale55andr0
08-07-2016, 17:17
Deve pensarci la software house. Ciaone se non fosse per le console...:sofico:
ma per entrambe (intendo)?
ma per entrambe (intendo)?
spiegati meglio. :confused:
Ale55andr0
08-07-2016, 17:26
spiegati meglio. :confused:
nel senso che: anche per il modo in cui lavora nvidia in dx12 è necessario che siano le software house a intervenire o nvidia lavora così di suo grazie ai driver e quindi non ha bisogno di particolari "attenzioni"?
magari ho parlato con qualcuno che ne sa più di me, di te o altri messi insieme qua dentro che si spacciano per sviluppatori della domenica? :)
io non ne so nulla, ma se mi dicono che lo sviluppo delle dx12 è iniziato prima di mantle, GLI CREDO e vado per logica.
esempio banale, Vulkan che deriva da mantle è uscito dopo le dx12, e stravolgere completamente le dx11 ci vogliono un paio di anni secondo te?
sono progetti pluriannuali dai costi elevati (ed anche per quello li spalmi nel tempo), come sviluppare un'architettura x86 da capo, et similia.
ti ripeto guarda gcn1.0 (7970), è la prova che amd già sapeva quali erano le basi delle dx12 già dal 2010, al massimo 2011.
Ah, tuo cugino.
appleroof
08-07-2016, 17:35
Gli hairwork usano un tess factor ignobilmente alto per giustificare l'acquisto di schede top. Se ricordi forzando un tessfactor ridotto via driver amd, non cambiava quasi nulla in qualità percepita.
Usando tessfactor esagerati si generano tantissimi micro-triangoli che grazie al primitive discard vengono eliminati, dato che agisce proprio su quest'ultimi.
in TW3 hanno introdotto da tempo la possibilità di settarlo fino al minimo con grossi incrementi prestazionali
se non sbaglio poi hairwork usa pure l'msaa sui capelli, ancora più pesante
non so l'ultimo TR se il "purehiar" è proprietario nvidia, ma non pesa molto
Ale55andr0
08-07-2016, 17:37
non so l'ultimo TR se il "purehiar" è proprietario nvidia, ma non pesa molto
pure hair è il nome commerciale che amd ha dato al tress FX2
in TW3 hanno introdotto da tempo la possibilità di settarlo fino al minimo con grossi incrementi prestazionali
se non sbaglio poi hairwork usa pure l'msaa sui capelli, ancora più pesante
non so l'ultimo TR se il "purehiar" è proprietario nvidia, ma non pesa molto
Lo sputtanamento via web funziona allora... ;)
Non so, non ho provato tomb, dato che ho una gpu muletto.
L'eliminazione dei micro-triangoli sgrava anche msaa.
pure hair è il nome commerciale che amd ha dato al tress FX2
In teoria essendo proprietà di AMD non dovrebbe ingolfare eccessivamente le loro gpu di triangoli. Anche se AMD ha un abbonamento alle gaffe da anni...:sofico:
mirkonorroz
08-07-2016, 17:44
Scusate se diventa OT ma io alla fine avrei sempre voluto sapere se:
visto che si parla che sono i drivers dx11 di AMD il problema,
quanto gli sarebbe costato riscriverli (o correggerli)?
Se li avessero riscritti sarebbero automaticamente migliorati anche gli scenari nei giochi scritti per DX11?
E' stato detto, mi sembra, che in parte era stato fatto, ma si sa se era solo una pezzetta o li avevano davvero riscritti da zero?
Cioe' quello che mi pare un po' strano e' che a fronte di nmila giochi dx < 12 e di un problema di drivers che ne limita le prestazioni (ok non in tutti gli scenari, specialmente se si ha una cpu di fascia alta) non si siano detti: "rifacciamo i drivers" (almeno per rispetto degli utenti). Sembra quasi che si pensi solo al gioco di domani e si dimentichi che la gente gioca anche a quelli vecchi. Ovviamente se uno compra hw nuovo il gioco vecchio potra' essere digerito anche senza ottimizzazioni (o magari anche no), ma un TW3 o gli ultimi usciti DX11 che sono pesanti che si fa... si abbandonano? Per fare comprare le nuove schede? Doppio biasimo, nel caso.
Ale55andr0
08-07-2016, 17:46
In teoria essendo proprietà di AMD non dovrebbe ingolfare eccessivamente le loro gpu di triangoli. Anche se AMD ha un abbonamento alle gaffe da anni...:sofico:
non in questo caso, infatti è leggero su ogni vga, a differenza del gameworks non funziona in modo da sputtanare l'architettura avversaria "per caso" :asd:
non in questo caso, infatti è leggero su ogni vga, a differenza del gameworks non funziona in modo da sputtanare l'architettura avversaria "per caso" :asd:
Era una battuta...:ciapet:
Nvidia sa come si inc*la la gente, ehm fanno i soldi. I geni di Gengis Khan sono una garanzia...:sofico:
appleroof
08-07-2016, 18:05
I prezzi ufficiali di Nvidia per Europa ed Italia delle GTX 1060:
http://www.hwupgrade.it/news/skvideo/i-prezzi-in-euro-per-il-mercato-italiano-di-geforce-gtx-1060_63556.html
319 euro tasse incluso con acquisto diretto dal sito Nvidia.
285 euro minimo suggerito per le custom.
non capisco il prezzo di quelle fornite direttamente da nvidia
non capisco il prezzo di quelle fornite direttamente da nvidia
Dopo il successo delle flander ediscion, vogliono fare il bis...:p
appleroof
08-07-2016, 18:10
Era una battuta...:ciapet:
Nvidia sa come si inc*la la gente, ehm fanno i soldi. I geni di Gengis Khan sono una garanzia...:sofico:
infatti Amd se n'è preso uno anni fa, Roy Taylor, quello del TWIMTB e lo stesso che disse "le dx sono morte, il futuro è mantle (aperto, volemose bene, tralasciamo che ci serve a lanciare le nostre gpu desktop perchè non teniamo soldi per rifare l'architettura)"
non ho mai sopportato questa convinzione dei fan rossi di essere dalla parte di una azienda che fà del bene ai suoi utenti, non so se sono più raggirabili loro o gli altri (o forse lo so).
Ale55andr0
08-07-2016, 18:14
i una azienda che fà del bene ai suoi utenti, non so se sono più raggirabili loro o gli altri (o forse lo so).
fare il bene degli utenti è un conto, danneggiarli un'altro, sia i propri (vedasi come vanno le vecchie nvidia...la titan è diventata un fermacarte rispetto a una misera 7970...) sia gli altri con effetti visivi volutamente azzoppanti "agratis" tanto che macinano pure le proprie di vga (ma meno di quelle altrui). Fra "fare beneficienza" e "cagare il c@zzo" ci passa un oceano, e ne prova il fatto che tu puoi usare pure hair (AMD) senza che crollino le prestazioni mentre gli hairworks sputtanano completamente le prestazioni delle altre schede e questo NON perchè non si possa avere la STESSA resa senza agire in quel modo
infatti Amd se n'è preso uno anni fa, Roy Taylor, quello del TWIMTB e lo stesso che disse "le dx sono morte, il futuro è mantle (aperto, volemose bene, tralasciamo che ci serve a lanciare le nostre gpu desktop perchè non teniamo soldi per rifare l'architettura)"
non ho mai sopportato questa convinzione dei fan rossi di essere dalla parte di una azienda che fà del bene ai suoi utenti, non so se sono più raggirabili loro o gli altri (o forse lo so).
Guarda che per me possiamo stendere un velo pietoso su AMD. Da parecchi anni sono allo sbando, senza una guida con le idee chiare.
Rimpiango Ati con Orton al comando...
Huang è un signor CEO.
Le pratiche "scorrette" di Nvidia non mi stupiscono più di tanto, nessuno vieta ad AMD di spendere milioni in supporto agli sviluppatori.
Legolas84
08-07-2016, 18:24
Rimpiango Ati con Orton al comando...
Ti quoto alla grande, me rimpiango anche questi signori qua:
https://www.youtube.com/watch?v=3MghYhf-GhU
Gary Tarolli, Scott Sellers, Gordon Campbell e Ross Smith. Genitori di quello che abbiamo oggi.
Ps
La camcia di Tarolli è spettacolare :D Ora lavora in NVIDIA ed è un ingegnere con i controcaxxi....
Legolas84
08-07-2016, 18:26
cioè dx12 non vuol dire ACE, come credono molti (e infatti la ormai leggenda che "amd supporta meglio le dx12")
Questo pensiero è derivato da chi si è fatto abbindolare dal marketing di Ashes of the Singularity.... ;)
Secondo me vi fate troppi problemi per non dire altro... Sia AMD che Nvidia sono due società che hanno come fine quello di prelevare dal nostro portafoglio quello che possono e ognuna lo fa con eleganza a proprio modo...
La scelta penso sia palese in base alle proprie esigenze, anche perchè a seconda della fascia puo convenire una o l'altra...
Per esempio anche RX 480 vs 1060, gente che a priori boccia la 1060 e dice che va meno, altri l'opposto... mi chiedo... la scheda ancora non è uscita cosi come le custom di 480 come si fa a prendere decisioni o avere un giudizio oggettivo?
Capisco i pronostici teorici che uno fa vedendo l'architettura e ipotizzando ma tra ipotizzare e dare per certo tutto ce ne passa...
Legolas84
08-07-2016, 18:29
non ho mai sopportato questa convinzione dei fan rossi di essere dalla parte di una azienda che fà del bene ai suoi utenti, non so se sono più raggirabili loro o gli altri (o forse lo so).
La convinzione che AMD sia un'azienda "buona" deriva da alcune scelte open che ha fatto dovute soprattutto al fatto di non avere ne una posizione dominante ne una paritaria.
Se AMD fosse al posto di NVIDIA si comporterebbe allo stesso modo dei Verdi.
appleroof
08-07-2016, 18:30
Guarda che per me possiamo stendere un velo pietoso su AMD. Da parecchi anni sono allo sbando, senza una guida con le idee chiare.
Rimpiango Ati con Orton al comando...
Huang è un signor CEO.
Le pratiche "scorrette" di Nvidia non mi stupiscono più di tanto, nessuno vieta ad AMD di spendere milioni in supporto agli sviluppatori.
si ma allora se uno è convinto credo sia giusto evitare certe uscite, come se gli "altri" fossero agnellini, sappiamo che la competizione in questo campo è fortissima, e nessuno risparmia colpi all'avversario, non dico che nvidia è santa, dico che nessuna azienda lo è ma vallo a spiegare ai fan
Ti quoto alla grande, me rimpiango anche questi signori qua:
https://www.youtube.com/watch?v=3MghYhf-GhU
Gary Tarolli, Scott Sellers, Gordon Campbell e Ross Smith. Genitori di quello che abbiamo oggi.
Ps
La camcia di Tarolli è spettacolare :D Ora lavora in NVIDIA ed è un ingegnere con i controcaxxi....
quei tempi sono irripetibili :)
Questo pensiero è derivato da chi si è fatto abbindolare dal marketing di Ashes of the Singularity.... ;)
appunto, marketing :D
Secondo me vi fate troppi problemi per non dire altro... Sia AMD che Nvidia sono due società che hanno come fine quello di prelevare dal nostro portafoglio quello che possono e ognuna lo fa con eleganza a proprio modo...
La scelta penso sia palese in base alle proprie esigenze
cut
amen.
si ma allora se uno è convinto credo sia giusto evitare certe uscite, come se gli "altri" fossero agnellini, sappiamo che la competizione in questo campo è fortissima, e nessuno risparmia colpi all'avversario, non dico che nvidia è santa, dico che nessuna azienda lo è ma vallo a spiegare ai fan
Io smerdo e lodo un pò tutte le aziende, dato che tifo solo per il mio portafogli. Dei fan boccaloni non mi importa nulla...
Legolas84
08-07-2016, 18:48
Io smerdo e lodo un pò tutte le aziende, dato che tifo solo per il mio portafogli. Dei fan boccaloni non mi importa nulla...
Oh, Amen!
Io le odio tutte in modo eguale. Compro di volta in volta chi mi fa ottenere il risultato che desidero :D
(E questo non solo nell'hardware PC).
Oh, Amen!
Io le odio tutte in modo eguale. Compro di volta in volta chi mi fa ottenere il risultato che desidero :D
(E questo non solo nell'hardware PC).
Boccalone !!!!! :asd:
Legolas84
08-07-2016, 18:50
Boccalone !!!!! :asd:
:asd: Per non dire altro :asd:
Boccalone !!!!! :asd:
:asd: Per non dire altro :asd:
Paaaaaaaaaaaaaaaaa paraparaparaaa :p
Siete su
https://fantacalciardo.files.wordpress.com/2010/11/hubble-scherzi-a-parte.jpg
A parte gli scherzi:fagiano: , se amd continua così:doh: siamo tutti inguaiati.:rolleyes:
Altro che flander ediscion...
Il tempo che è uscita la notizia su hwupgrade sulla 1060 e sono partite le palate di merda... Ovviamente da gente che non ha letto i threads ultimamente.
Meno male non posso rispondere perchè sono da tapatalk... Comunque due pagine di boccaloni :asd:
Andate ad aggiornarli su sli e dx12 su tomb e sul flickering del cfx di 480 dell'acqua su crysis 3... Mah vabè poi tanto tra 2-3 anni amd fixerà anche quello :asd:
E lo dico da interessato ad una 480 (a massimo 215€).
Legolas84
08-07-2016, 19:03
Il tempo che è uscita la notizia su hwupgrade sulla 1060 e sono partite le palate di merda... Ovviamente da gente che non ha letto i threads ultimamente.
Meno male non posso rispondere perchè sono da tapatalk... Comunque due pagine di boccaloni :asd:
Andate ad aggiornarli su sli e dx12 su tomb e sul flickering del cfx di 480 dell'acqua su crysis 3... Mah vabè poi tanto tra 2-3 anni amd fixerà anche quello :asd:
E lo dico da interessato ad una 480 (a massimo 215€).
Ma guarda, chi vuole aggiornarsi si aggiorna. Il resto per lo più sono persone che vogliono giustificare i loro acquisti o che sono palesemente in malafede.
Di discutere con persone così ormai non ho più voglia, anche se anni fa mi ci divertivo. :D
mirkonorroz
08-07-2016, 19:14
Oh, Amen!
Io le odio tutte in modo eguale. Compro di Volta in Volta chi mi fa ottenere il risultato che desidero :D
(E questo non solo nell'hardware PC).
Ma vedi che sei un fanboy? :D
Scherzo ovviamente :)
Ma guarda, chi vuole aggiornarsi si aggiorna. Il resto per lo più sono persone che vogliono giustificare i loro acquisti o che sono palesemente in malafede.
Di discutere con persone così ormai non ho più voglia, anche se anni fa mi ci divertivo. :D
Io personalmente ho sempre comprato nvidia, ma essendo uno che cambia tutto il pc ogni 4 anni, il supporto che offre nvidia alle proprie vecchie gen è penoso.
Passiamo da un +30% da una gen all'altra alla release che diventa presto +50,60 addiritturà 100 % (guardate kepler versus fermi...).
Con AMD questa cosa non avviene per cui sono fermamente convinto di comprare una 480 custom o una 490 a questa botta (anche perchè parliamoci chiaro 480 giochi a 1080p a tutto davvero maxato, e io con una vetusta 670 non mi lamento).
107 fps ad arkham knight, 70 a bf4, 42 crysis 3, 90 a fallout 4, 60 far cry, 67 gta 5, 60 hitman, 62 rise of tomb raider e parlo di roba tutta maxata ultra con filtri e super filtri.
Un filo di oc e ulteriori migliorie software questa scheda ti dura finchè non passi a monitor 120hz o 1440p (dove comunque se la caverebbe benissimo abbassando qualche dettaglio invisibile ma performance killer).
Detto questo, non capisco il perchè dover fare queste lotte per i brand, mi pare assurdo e triste.
Legolas84
08-07-2016, 19:17
Ma vedi che sei un fanboy? :D
Scherzo ovviamente :)
:D ;)
Io personalmente ho sempre comprato nvidia, ma essendo uno che cambia tutto il pc ogni 4 anni, il supporto che offre nvidia alle proprie vecchie gen è penoso.
Passiamo da un +30% da una gen all'altra alla release che diventa presto +50,60 addiritturà 100 % (guardate kepler versus fermi...).
Con AMD questa cosa non avviene per cui sono fermamente convinto di comprare una 480 custom o una 490 a questa botta (anche perchè parliamoci chiaro 480 giochi a 1080p a tutto davvero maxato, e io con una vetusta 670 non mi lamento).
Guarda che non è una regola data dal marchio, ma dal architettura. (se vedi cambi imminenti disfatene subito :D )
Se prendi una vliw AMD, puoi far ciao con la manina al supporto driver(performante).
Nvidia può avere delle aggravanti, perchè supporta gli sviluppatori con dollari sonanti al contrario di AMD che li lascia al fate vobis fratelli.
Scegliere una 480 ti garantisce un supporto duraturo per via delle console, quindi è una scelta azzeccata, ma devi sempre guardare il prezzo.
Ale55andr0
08-07-2016, 19:24
se amd continua così:doh: siamo tutti inguaiati.:rolleyes:
Altro che flander ediscion...
siamo gia inguaiati
siamo gia inguaiati
http://www.finanzaonline.com/forum/attachments/messaggi-archiviati-fol/1477291d1315683091-cosa-succede-lunedi-se_qualcosa_ti_va_male.jpg
:sofico: :sofico: :sofico: :sofico:
Ale55andr0
08-07-2016, 19:25
Io personalmente ho sempre comprato nvidia, ma essendo uno che cambia tutto il pc ogni 4 anni,
.
mee too :eek:
e questo sarebbe il periodo del cambio...bella roba per quelli come me, estorsioni da un lato e fermacarte dall'altro :muro:
Ale55andr0
08-07-2016, 19:27
http://www.finanzaonline.com/forum/attachments/messaggi-archiviati-fol/1477291d1315683091-cosa-succede-lunedi-se_qualcosa_ti_va_male.jpg
:sofico: :sofico: :sofico: :sofico:
consolante :asd:
mirkonorroz
08-07-2016, 19:32
Pero' io la storia dei drivers nvidia la capivo cosi':
Io avevo capito che fino ad un certo punto fosse nvidia a supportare (nel senso di fare funzionare) entro i suoi drivers anche schede vecchissime. Poi in tempi piu' recenti si e' messa a tagliare anche lei per non avere pacchetti di mega e mega di roba che si ripeteva uguale perche' non piu' ottimizzabile.
Inoltre il discorso kepler/maxwell da come lo spiega mikael (sperando di non bestemmiare :D) e' una vera svolta e quindi mi sentirei di paragonarlo al discorso dei drivers dx11 amd che ho fatto prima (cui nessuno ha replicato). Cioe' entrambe la case hanno omesso un vero supporto ai loro prodotti anche se in maniera diversa. Nvidia (ma anche gli sviluppatori di VG o dei motori) ha mollato kepler, AMD non ha riscritto i drivers dx11. Che poi sia per interesse economico in senso ragionevole (cioe' troppo oneroso) o per furbizia non giudico. Io da AMD avrei voluto una riscrittura dei drivers dx11.
Ma qui mi aspetterei almeno una conferma o una smentita.
Crysis90
08-07-2016, 19:32
http://www.finanzaonline.com/forum/attachments/messaggi-archiviati-fol/1477291d1315683091-cosa-succede-lunedi-se_qualcosa_ti_va_male.jpg
Al PEGGIO non c'è MAI fine. :O :O :asd:
Pero' io la storia dei drivers nvidia la capivo cosi':
Io avevo capito che fino ad un certo punto fosse nvidia a supportare (nel senso di fare funzionare) entro i suoi drivers anche schede vecchissime. Poi in tempi piu' recenti si e' messa a tagliare anche lei per non avere pacchetti di mega e mega di roba che si ripeteva uguale perche' non piu' ottimizzabile.
Inoltre il discorso kepler/maxwell da come lo spiega mikael (sperando di non bestemmiare :D) e' una vera svolta e quindi mi sentirei di paragonarlo al discorso dei drivers dx11 amd che ho fatto prima (cui nessuno ha replicato). Cioe' entrambe la case hanno omesso un vero supporto ai loro prodotti anche se in maniera diversa. Nvidia (ma anche gli sviluppatori di VG o dei motori) ha mollato kepler, AMD non ha riscritto i drivers dx11. Che poi sia per interesse economico in senso ragionevole (cioe' troppo oneroso) o per furbizia non giudico. Io da AMD avrei voluto una riscrittura dei drivers dx11.
Ma qui mi aspetterei almeno una conferma o una smentita.
AMD con le sue offerte alla "mondial casa":p si è aggiudicata tutto il comparto console, di conseguenza le spese di supporto driver sono scese notevolmente.
Finirà che per non mollare l'osso (cambiare architettura) si giocheranno tutto il settore GPU discete...:doh:
Con quel efficienza, dal mercato notebook già arrivano i primi saluti...:sofico:
Lunar Wolf
08-07-2016, 20:17
AMD con le sue offerte alla "mondial casa":p si è aggiudicata tutto il comparto console, di conseguenza le spese di supporto driver sono scese notevolmente.
Finirà che per non mollare l'osso (cambiare architettura) si giocheranno tutto il settore GPU discete...:doh:
Con quel efficienza, dal mercato notebook già arrivano i primi saluti...:sofico:
:rolleyes:
in casa nvidia sicuramente....
Free Gordon
08-07-2016, 20:21
non ho mai sopportato questa convinzione dei fan rossi di essere dalla parte di una azienda che fà del bene ai suoi utenti, non so se sono più raggirabili loro o gli altri (o forse lo so).
Al di là del marketing puro e semplice (e quì ci possono stare tutti i proclami del mondo), l'azienda che più in assoluto ha cercato di inc.ulare gli avversari e anche gli utenti purtroppo, è da sempre Nvidia...
Anche AMD l'ha fatto ovviamente, ma con un fattore x/10 rispetto ad Nvidia.
La storia è piena delle furbate di Nvidia, chi si ricorda ad es. dei 3dmark tarocchi..? :asd:
L'ultima è stata la panzana dell'errata comunicazione di marketing interna sui 3.5GB di ram sulla 970.. :asd:
Ma ce n'è una sfilza così eh.
Nvidia fa proprio schifo, da sempre.
Ciò non toglie che abbia fatto e faccia ancora schede migliori di AMD, a seconda del caso (per dire una 980Ti è meglio di una FuryX.. ma preferirei una 380X a una 960)
Free Gordon
08-07-2016, 20:32
E' una sorta di Pater Familias per chi ha una scheda video AMD, fra 2 3 anni quando usciranno giochi full D12, la 390 umilierà la 970 e loro potranno dirti che 12 anni prima hanno fatto bene a scegliere una rossa :asd:
Sì, è vero... :asd: fra 2 o 3 anni..
@1080p DX12
http://imgur.com/BjWJE4T
Free Gordon
08-07-2016, 20:40
Il problema rimangono i CU troppo general purpose per una GPU.
Questo credo sia il GROSSO problema di GCN...come architettura pure graphics..
In AMD devono scegliere. O continuare a rincorrere Fusion... (con pochi o nulli risultati per ora), o dare una sterzata forte in una direzione più specialistica.
Sennò coi consumi non ne escono..
Al di là del marketing puro e semplice (e quì ci possono stare tutti i proclami del mondo), l'azienda che più in assoluto ha cercato di inc.ulare gli avversari e anche gli utenti purtroppo, è da sempre Nvidia...
Anche AMD l'ha fatto ovviamente, ma con un fattore x/10 rispetto ad Nvidia.
Verissimo, gengis khan è un artista di iNcool8, stesso corso di thincook...:sofico:
Quando hai una posizione dominante, unita ad un supporto sviluppatori massiccio ti puoi permettere ste merdate.:rolleyes:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.