View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
Debuttando prima di Vega penso che i prezzi non siano poi lontani dai tuoi, ma non è escluso un riposizionamento. La 1080ti potrebbe essere per l'appunto un segno che Vega compete oppure semplicemente hanno molti scarti, tutto qua.
E' una 1080ti un pò monca, siamo ai livelli di un full 5GPC se non fosse per la ram, mi ricorda la 780.
Dopo il lancio di Vega x2 e Vega11, potremmo assistere anche a dei chip affinati, magari con i nuovi MC da 2gb e ddr5x 12gb/s o ddr6 14gb/s.
Ad esempio una 1180TI full 3840cc da 24gb ddr6, affinata elettricamente.
Un lavoro alla Nvidia serie 5xx
Una cosa penso sia chiara, Volta nascerà dal GV110 e prima del 2018 non vedremmo nulla.:)
sono tra i primi a sperare in un riposizionamento della 1080 di un centone pieno e la 1070 di quei 30-40$/€ dalla media che hanno ora, così da piazzare la 1080ti a un possibile 799$ di listino, ma diciamoci la verità che glie lo fa fare? AMD con la concorrenza?
Fino a poco tempo fa ci si aspettava un Vega che in una situazione veramente rosea andava a competere con una 1080 o più verosimilmente posizionandosi a cavallo di 1070 e 1080, oltre al fatto che questa vega uscirà magari in ritardo come sempre in pieno stile AMD e considerando le solite hbm non credo che il prezzo sarà competitivo come i fan rossi si aspetteranno visto che storcono il naso anche con il prezzo della 1070 a 430€ medio considerando le prestazioni che ha. E' cambiato e/o mi sono perso qualcosa da queste voci?
Ignorando anche questo possibile aspetto, che appeal avrebbe una Titan X pascal da 1329€ quando una 1080ti ricalca per il 90-95% le sue prestazioni con una differenza di 480€ di prezzo (ipotizzando 799€ di listino e 850€ medi sul mercato italiano) o 380€ di differenza in caso non riposizionassero 1070 e 1080 come fascia di prezzo?
E' tutta una questione di "equilibri" con i prezzi, non possono esserci delle vere e proprie voragini tra le varie soluzioni offerte
per quel che vale c'è anche questo rumor:
http://wccftech.com/nvidia-pascal-volta-gpu-leaked-2017-2018/
mikael84
28-09-2016, 22:28
Non credo ne sappiano molto piu di noi a meno di non avere le talpe :D
Io penso che gli ingegneri Nvidia siano collegati 24/24 su fudzilla e videocardz, aspettando rumor.:Perfido:
Scherzo, il tutto è basato su stime, che di certo non sono le nostre, pensa che senza conoscere nulla sulla r9 290/x, Nvidia già da tempo aveva selezionato i migliori chip in cui attivare tranquillamente l'ultimo SMX. Quei chip su liquido salivano tutti sui 1300-1350, indipendentemente dal silicio.
In ogni caso dipende anche dagli scarti e Vega non lo regaleranno. Se monta 16gb di HBM la vedo dura:)
sono tra i primi a sperare in un riposizionamento della 1080 di un centone pieno e la 1070 di quei 30-40$/€ dalla media che hanno ora, così da piazzare la 1080ti a un possibile 799$ di listino, ma diciamoci la verità che glie lo fa fare? AMD con la concorrenza?
Fino a poco tempo fa ci si aspettava un Vega che in una situazione veramente rosea andava a competere con una 1080 o più verosimilmente posizionandosi a cavallo di 1070 e 1080, oltre al fatto che questa vega uscirà magari in ritardo come sempre in pieno stile AMD e considerando le solite hbm non credo che il prezzo sarà competitivo come i fan rossi si aspetteranno visto che storcono il naso anche con il prezzo della 1070 a 430€ medio considerando le prestazioni che ha. E' cambiato e/o mi sono perso qualcosa da queste voci?
Ignorando anche questo possibile aspetto, che appeal avrebbe una Titan X pascal da 1329€ quando una 1080ti ricalca per il 90-95% le sue prestazioni con una differenza di 480€ di prezzo (ipotizzando 799€ di listino e 850€ medi sul mercato italiano) o 380€ di differenza in caso non riposizionassero 1070 e 1080 come fascia di prezzo?
E' tutta una questione di "equilibri" con i prezzi, non possono esserci delle vere e proprie voragini tra le varie soluzioni offerte
per quel che vale c'è anche questo rumor:
http://wccftech.com/nvidia-pascal-volta-gpu-leaked-2017-2018/
Su Vega abbiamo dei rumor in FP16, tradotti 2:1 in FP32 ma non funziona così, quindi ancora è tutto un mistero.
La 1080ti dipende principalmente dagli scarti o da Vega. La Titan attuale è venduta giusto ai pochi che, senza badare al prezzo vogliono tutto e subito, senza considerare tutto il resto, visto che ormai già si sa che sul GP102 non sarà la sola.
Il GV110 Volta HBM2 e nvlink darà vita a Volta gaming ma solo nel 2018.
Quello che potrebbe accadere è che come con la TI 780 (magari anche per prova di forza con Vega dual) venga rilasciato il chip full, magari utilizzando i nuovi MC da 2gb e nuove ram.
Questa è piuttosto probabile, perchè se hai tanti chip devi smaltirli.
Il mese prossimo Nvidia debutta sulla 1050ti con il 6° TPC per GPC, chissà che come previsto da me da tempo, non si avveri ed anche le fasce superiori ne beneficiano.
E' una situazione davvero complessa per stimare qualcosa, sopratutto teoricamente non si conosce nulla neppure sulla rivale.
Se la 1050ti avrà 6tpc non sarebbe la prima volta che Nvidia porta qualche novità partendo dalla fascia bassa, lo fece anche con 750 e 750ti, e non sarebbe un male così da verificare il comportamento in game e i reali vantaggi...
Inviato dal mio Nexus 5 utilizzando Tapatalk
Debuttando prima di Vega penso che i prezzi non siano poi lontani dai tuoi, ma non è escluso un riposizionamento. La 1080ti potrebbe essere per l'appunto un segno che Vega compete oppure semplicemente hanno molti scarti, tutto qua.
E' una 1080ti un pò monca, siamo ai livelli di un full 5GPC se non fosse per la ram, mi ricorda la 780.
Dopo il lancio di Vega x2 e Vega11, potremmo assistere anche a dei chip affinati, magari con i nuovi MC da 2gb e ddr5x 12gb/s o ddr6 14gb/s.
Ad esempio una 1180TI full 3840cc da 24gb ddr6, affinata elettricamente.
Un lavoro alla Nvidia serie 5xx
Una cosa penso sia chiara, Volta nascerà dal GV110 e prima del 2018 non vedremmo nulla.:)
con la prossima TI verso gennaio,
anche settembre 2017 non sarebbe male per voltarello :)
intanto l hanno gia piazzato sui soc per auto gv-qualcosa una versione ridotta che punta sui consumi :fagiano:
Ale55andr0
29-09-2016, 11:17
In ogni caso dipende anche dagli scarti e Vega non lo regaleranno. Se monta 16gb di HBM la vedo dura:)
Come detto al momento il problema nemmeno c'è...prima di parlare di costi bisognerebbe almeno avercele queste dannate schede. In ogni caso si farebbero concorrenza uguale che è sempre meglio che non avere alternative, costose o meno. Uscire solo con una vga da 700 euro con sotto solo la 480 sarebbe comunque imbecillità pura, non posso credere che se ne usciranno dopo mesi con un solo prodotto costosissimo. I 16gb comunque sono illazioni al momento...come tutto il resto del resto :D
La 1080ti dipende principalmente dagli scarti o da Vega.
Mah, a me tutto sembra tranne che nvidia stia facendo la sua lineup in base a cio che fa amd. La 1080ti se confermata a dicembre non ha alcun parametro impostato per concorrere con un chip che... non esiste...
athlon xp 2400
29-09-2016, 11:34
http://www.ilsoftware.it/articoli.asp?tag=NVidia-lancera-la-nuova-GTX-1080-Ti-a-gennaio_14429
occhio a chi compra la titan x con la vasellina haha
MrBrillio
29-09-2016, 12:01
Come detto al momento il problema nemmeno c'è...prima di parlare di costi bisognerebbe almeno avercele queste dannate schede. In ogni caso si farebbero concorrenza uguale che è sempre meglio che non avere alternative, costose o meno. Uscire solo con una vga da 700 euro con sotto solo la 480 sarebbe comunque imbecillità pura, non posso credere che se ne usciranno dopo mesi con un solo prodotto costosissimo. I 16gb comunque sono illazioni al momento...come tutto il resto del resto :D
Mah, a me tutto sembra tranne che nvidia stia facendo la sua lineup in base a cio che fa amd. La 1080ti se confermata a dicembre non ha alcun parametro impostato per concorrere con un chip che... non esiste...
Ma fanno bene ad andare avanti non tenendo conto della concorrenza.. Almeno chi compra i loro prodotti sa cosa aspettarsi ad ogni infornata di vga.
Inviato dal mio ONEPLUS A3003 utilizzando Tapatalk
http://www.ilsoftware.it/articoli.asp?tag=NVidia-lancera-la-nuova-GTX-1080-Ti-a-gennaio_14429
occhio a chi compra la titan x con la vasellina haha
Ho fatto bene ad aspettare ...
A Febbraio mi prendo questa 1080ti e aspetto volta inoltrato tanto in 2k aivoglia...
Gia' mi basta la mia 980ti figuriamoci la 1080ti :)
MrBrillio
29-09-2016, 12:24
Ho fatto bene ad aspettare ...
A Febbraio mi prendo questa 1080ti e aspetto volta inoltrato tanto in 2k aivoglia...
Gia' mi basta la mia 980ti figuriamoci la 1080ti :)
Beh ma Alien il discorso che fai vale per tutto.. Tanto vale aspettare na vita ogni volta a sto punto :D
Risparmi da un lato, ma probabilmente dovrai regalare la 980ti... Sempre se non la mandi in qualche muletto eh.
Però si.. La 1080ti potrebbe essere la vga giusta per il mio monitor e le partite in 4k che mi faccio sul tv.
Inviato dal mio ONEPLUS A3003 utilizzando Tapatalk
Giovamas
29-09-2016, 17:28
Ho fatto bene ad aspettare ...
A Febbraio mi prendo questa 1080ti e aspetto volta inoltrato tanto in 2k aivoglia...
Gia' mi basta la mia 980ti figuriamoci la 1080ti :)
Quoto. Una volta tanto ho fatto bene ad accoppare la scimmia
Beh ma Alien il discorso che fai vale per tutto.. Tanto vale aspettare na vita ogni volta a sto punto :D
Risparmi da un lato, ma probabilmente dovrai regalare la 980ti... Sempre se non la mandi in qualche muletto eh.
Però si.. La 1080ti potrebbe essere la vga giusta per il mio monitor e le partite in 4k che mi faccio sul tv.
Inviato dal mio ONEPLUS A3003 utilizzando Tapatalk
Beh' oddio... se avessi preso una 1080 ci avrei perso di piu' secondo me..
Stessa cosa che feci con la Titan vanilla cambiandola per la 980ti ... il salto fu enorme :)
A dirla tutta al momento attuale col monitor in firma non necessito di chissa' quale vga...a 1500/8000 sto facendo girare di tutto ....certo su alcuni titoli abbasso qualche filtro ma visivamente manco me ne accorgo ... boh....
Vediamo Febbraio per il mio compleanno se mi avanzano dindi faccio il cambio....seno' aspetto Volta :)
killeragosta90
29-09-2016, 21:46
Quoto. Una volta tanto ho fatto bene ad accoppare la scimmia
E mi aggiungo pure io al quote!
Devo dire che questa (la 980 Ti) è una delle schede che mi sta durando di più e ne sono soddisfattissimo, al momento non ho necessità di cambiare :)
mikael84
29-09-2016, 23:03
Se la 1050ti avrà 6tpc non sarebbe la prima volta che Nvidia porta qualche novità partendo dalla fascia bassa, lo fece anche con 750 e 750ti, e non sarebbe un male così da verificare il comportamento in game e i reali vantaggi...
Inviato dal mio Nexus 5 utilizzando Tapatalk
Teoricamente non cambia nulla, al massimo maggiori dati per lo Z-cull.
Nvidia ora con le nuove memorie può minimizzare i chip ed evitare rop's e cache a vuoto.
Per dirti, una 1070 poteva essere creata con un core pari a quello di P10 polaris, ma il bus da 192bit poteva venire colmato dalle ddr5x 12gb/s o 14gb/s (chiamate ora ddr6).
Per poter creare un bus da 192bit sulla 1060 hanno dovuto creare un core più grande di ben 43mmq2. Core più grande maggiori spese di realizzo.
con la prossima TI verso gennaio,
anche settembre 2017 non sarebbe male per voltarello :)
intanto l hanno gia piazzato sui soc per auto gv-qualcosa una versione ridotta che punta sui consumi :fagiano:
Penso ci sia una fase simil GF110 e gtx 580.
Ti faccio un esempio. Oggi portare via gaming un full GP102 significherebbe clockarlo ancora meno per stare sui 250watt, ed a momenti usa i clock di maxwell custom.
Cosa si può fare, o meglio cosa hanno fatto. Hanno preso il chip e hanno individuato tutte le connessioni lente, le hanno ri sistemate, ed inserito dei condensatori a bassa perdita migliorando le rese generali.
Con la parola refresh, si può anche ottimizzare le risorse e creare una 1180ti a 3840cc a 2ghz iniziali, meglio della 1080.:)
i chip full ci sono e tanti ma tieni presente che non sono per game perchè non adatti per certi TDP.:)
Come detto al momento il problema nemmeno c'è...prima di parlare di costi bisognerebbe almeno avercele queste dannate schede. In ogni caso si farebbero concorrenza uguale che è sempre meglio che non avere alternative, costose o meno. Uscire solo con una vga da 700 euro con sotto solo la 480 sarebbe comunque imbecillità pura, non posso credere che se ne usciranno dopo mesi con un solo prodotto costosissimo. I 16gb comunque sono illazioni al momento...come tutto il resto del resto :D
Mah, a me tutto sembra tranne che nvidia stia facendo la sua lineup in base a cio che fa amd. La 1080ti se confermata a dicembre non ha alcun parametro impostato per concorrere con un chip che... non esiste...
Può sembrarti strano, ma se lancia questo chip lo fa anche per motivi di concorrenza e leadership. Chiaramente, Nvidia ha i chip ed i relativi scarti, quindi può farne quello che vuole.:)
Ho fatto bene ad aspettare ...
A Febbraio mi prendo questa 1080ti e aspetto volta inoltrato tanto in 2k aivoglia...
Gia' mi basta la mia 980ti figuriamoci la 1080ti :)
Vediamo la convenienza al momento opportuno, ora come ora non te la consiglio perchè Nvidia ci mette pochissimo a farla diventare una scheda da 400 euro.
Chiaramente è un discorso tecnico, non una scelta personale.:)
Quoto. Una volta tanto ho fatto bene ad accoppare la scimmia
Esatto, io salvo prezzi vantaggiosi, farò SLI e aspetto Volta diretto. Così riparto dai mid chip.:)
E mi aggiungo pure io al quote!
Devo dire che questa (la 980 Ti) è una delle schede che mi sta durando di più e ne sono soddisfattissimo, al momento non ho necessità di cambiare :)
Volta potrebbe anche debuttare e sicuramente lo farà nel 2018, la novità saranno gli MC da 2gb, ovvero una 2080 avrà 16gb ddr6:) .
Quindi se non si vuole cambiare, anche uno SLI provvisorio è ottimo (dal mio punto i vista ovviamente).
http://wccftech.com/nvidia-geforce-gtx-1050-ti-specs-performance-leak/
Bingo, senza driver ottimizzati siamo ben sopra alla 960.. Al 3dmark x fa 3867, contro i 3300 della 960 e i 2800 della 950.. La 970 e la 480 fanno 4800.
Per 149€ è bestbuy. :D :D :D Forse.
Teoricamente non cambia nulla, al massimo maggiori dati per lo Z-cull.
Nvidia ora con le nuove memorie può minimizzare i chip ed evitare rop's e cache a vuoto.
Per dirti, una 1070 poteva essere creata con un core pari a quello di P10 polaris, ma il bus da 192bit poteva venire colmato dalle ddr5x 12gb/s o 14gb/s (chiamate ora ddr6).
Per poter creare un bus da 192bit sulla 1060 hanno dovuto creare un core più grande di ben 43mmq2. Core più grande maggiori spese di realizzo.
Da questo punto di vista però con 1060 nvidia ha recuperato spazio e costi rimuovendo il ponticello dello sli, però in senso generale concordo minimizzare i chip è sempre la soluzione migliore, poi c'è anche da dire che nvidia ha notevolmente migliorato la compressione dei dati, quindi avere bandwith particolarmente elevate porta molti meno vantaggi rispetto alle precedente generazioni, ricordo che con kepler ad esempio si avevano piu vantaggi dall'oc delle memorie che del core...
Penso ci sia una fase simil GF110 e gtx 580.
Ti faccio un esempio. Oggi portare via gaming un full GP102 significherebbe clockarlo ancora meno per stare sui 250watt, ed a momenti usa i clock di maxwell custom.
Cosa si può fare, o meglio cosa hanno fatto. Hanno preso il chip e hanno individuato tutte le connessioni lente, le hanno ri sistemate, ed inserito dei condensatori a bassa perdita migliorando le rese generali.
Con la parola refresh, si può anche ottimizzare le risorse e creare una 1180ti a 3840cc a 2ghz iniziali, meglio della 1080.:)
i chip full ci sono e tanti ma tieni presente che non sono per game perchè non adatti per certi TDP.:)
.
la questione mi fa gola non lo nego,
Se penso che la 580 era il top fermi e che con volta oltre a migliorare le perdite si cambia architettura, questa gpu è da non perdere.
A me interessa una sola cosa che gestisca l uhd ad aria in scioltezza, in poche parole quello che fa una kpe in fhd basse temperature e set ultra anche oc :fagiano:
ps peccato che gioco solo in 4k solo texture ultra con i titoli ultimi :mad: :( :(
Come dicevo qualche post fa, oramai conviene aggiornare saltando una gen, in quanto si sta optando per una soluzione:
nuova architettura => refresh ottimizzato
quindi il raddoppio ce l'hai comunque ma per avere una reale differenza, conviene passare da un architettura ad un altra saltando la prima fase o il refresh, per esempio tu avendo una 980ti passare ora ad una titan o 1080ti sia economicamente che come vantaggi reali ne beneficeresti poco rispetto al passaggio a volta allo stesso prezzo...
Giovamas
30-09-2016, 10:52
E mi aggiungo pure io al quote!
Devo dire che questa (la 980 Ti) è una delle schede che mi sta durando di più e ne sono soddisfattissimo, al momento non ho necessità di cambiare :)
Sto giocando a doom a 1500 chiodati ed è uno spettacolo:) davvero una grande acquisto la mia MSI
devil_mcry
30-09-2016, 11:08
http://wccftech.com/nvidia-geforce-gtx-1050-ti-specs-performance-leak/
Bingo, senza driver ottimizzati siamo ben sopra alla 960.. Al 3dmark x fa 3867, contro i 3300 della 960 e i 2800 della 950.. La 970 e la 480 fanno 4800.
Per 149€ è bestbuy. :D :D :D Forse.
Se è così vanno a vincere a mani basse su quella fascia
mikael84
30-09-2016, 11:32
Da questo punto di vista però con 1060 nvidia ha recuperato spazio e costi rimuovendo il ponticello dello sli, però in senso generale concordo minimizzare i chip è sempre la soluzione migliore, poi c'è anche da dire che nvidia ha notevolmente migliorato la compressione dei dati, quindi avere bandwith particolarmente elevate porta molti meno vantaggi rispetto alle precedente generazioni, ricordo che con kepler ad esempio si avevano piu vantaggi dall'oc delle memorie che del core...
Non è tutto oro quello che luccica. La nuova compressione permette di comprimere i valori 2:1 con efficacia, maxwell spesso non riesce a decomprimere questo valore e tale dato viene sparato in banda senza essere decompresso.
Con Pascal anche la 8:1 e 4:1 è migliorata in quanto si possono mischiare anche i colori simili.
Questo naturalmente aiuta anche la cache. Anche AMD ha lavorato su questo.
Il tutto si traduce spesso in un vantaggio del 10/15% medio.
i sono giochi come WD che arrivano sino a 270gb/s con MSAA su una 980ti, altri che pur richiedendo piccole bande con porzioni di 60gb/s aggiuntivi guadagnano anche 10fps su 100.
Quindi avere più larghezza è sempre un bene, sopratutto se come le ddr5x permettono di lavorare bene su bus più piccoli.
Con gli MC da 2gb volendo puoi creare una 1060 con 128bit/8gb di ram ed allo stesso ottenere un BW pari a quello della 1070 o 1080.:)
Kepler è tutto più complesso, ti basta sapere che la banda effettiva della 780ti è pari a quella teorica della 770 e quella della 780 pari alla 680;)
la questione mi fa gola non lo nego,
Se penso che la 580 era il top fermi e che con volta oltre a migliorare le perdite si cambia architettura, questa gpu è da non perdere.
A me interessa una sola cosa che gestisca l uhd ad aria in scioltezza, in poche parole quello che fa una kpe in fhd basse temperature e set ultra anche oc :fagiano:
ps peccato che gioco solo in 4k solo texture ultra con i titoli ultimi :mad: :( :(
Concordo appieno la 580 era davvero una bella scheda. :)
Per Volta quasi sicuramente utilizzano MC da 2gb e quindi il chip medio partirà da 16gb e BW tra i 384gb/s e 448gb/s. Tanta roba.
Leggermente meno della Titan x ma oltre a migliorare ancora la compressione, avrà meno rop's, quindi ottima.
fraussantin
30-09-2016, 11:34
Non è tutto oro quello che luccica. La nuova compressione permette di comprimere i valori 2:1 con efficacia, maxwell spesso non riesce a decomprimere questo valore e tale dato viene sparato in banda senza essere decompresso.
Con Pascal anche la 8:1 e 4:1 è migliorata in quanto si possono mischiare anche i colori simili.
Questo naturalmente aiuta anche la cache. Anche AMD ha lavorato su questo.
Il tutto si traduce spesso in un vantaggio del 10/15% medio.
i sono giochi come WD che arrivano sino a 270gb/s con MSAA su una 980ti, altri che pur richiedendo piccole bande con porzioni di 60gb/s aggiuntivi guadagnano anche 10fps su 100.
Quindi avere più larghezza è sempre un bene, sopratutto se come le ddr5x permettono di lavorare bene su bus più piccoli.
Con gli MC da 2gb volendo puoi creare una 1060 con 128bit/8gb di ram ed allo stesso ottenere un BW pari a quello della 1070 o 1080.:)
Kepler è tutto più complesso, ti basta sapere che la banda effettiva della 780ti è pari a quella teorica della 770 e quella della 780 pari alla 680;)
Come si vede la banda usata da un gioco?
Beseitfia
30-09-2016, 11:39
Io a questo punto aspetto una bella gtx 1080 ti custom per fare il cambio con la mia gtx 980ti che ho sull'altro pc...Cosi' mi tengo gtx 1080 e gtx 1080ti e vivo felice. La 1080 ora la sto usando col rog swift e va da dio (rimpiazzo di due gtx 980 in sli), e la gtx 1080ti la usero' con monitor full hd 144hz (ma qui gia' la 980ti va benone) ma soprattutto con tv 4k a 60hz per giochi da "salotto" con pad alla mano
mikael84
30-09-2016, 11:49
Come si vede la banda usata da un gioco?
Memory controller load, espresso però in percentuali.;)
fraussantin
30-09-2016, 12:19
Grazie
Come dicevo qualche post fa, oramai conviene aggiornare saltando una gen, in quanto si sta optando per una soluzione:
nuova architettura => refresh ottimizzato
quindi il raddoppio ce l'hai comunque ma per avere una reale differenza, conviene passare da un architettura ad un altra saltando la prima fase o il refresh, per esempio tu avendo una 980ti passare ora ad una titan o 1080ti sia economicamente che come vantaggi reali ne beneficeresti poco rispetto al passaggio a volta allo stesso prezzo...
per me la situazione si fa depressiva come tempistiche,
perche vorrei passare dall attuale alla Ti kpe volta qualcosa come giugno 2018 :doh: :doh: :doh:
spero vivamente nvidia si dia una mossa piu 4k oriented come performace, tempi celeri e chiaramente il doppio di quello che fa oggi una titan pascal a 7/800€ :stordita:
Penso ci sia una fase simil GF110 e gtx 580.
Ti faccio un esempio. Oggi portare via gaming un full GP102 significherebbe clockarlo ancora meno per stare sui 250watt, ed a momenti usa i clock di maxwell custom.
Cosa si può fare, o meglio cosa hanno fatto. Hanno preso il chip e hanno individuato tutte le connessioni lente, le hanno ri sistemate, ed inserito dei condensatori a bassa perdita migliorando le rese generali.
Con la parola refresh, si può anche ottimizzare le risorse e creare una 1180ti a 3840cc a 2ghz iniziali, meglio della 1080.:)
i chip full ci sono e tanti ma tieni presente che non sono per game perchè non adatti per certi TDP.:)
accidenti, dici addirittura che sia completamente fattibile un'ottimizzazione di tale livello da riuscire a far rientrare nei canonici 250W un modello di Ti full chip e anche a frequenze nettamente maggiori? Di conseguenza secondo il tuo punto di vista mi pare di capire che identifichi Pascal come uno stato "grezzo" che può essere affinato moltissimo
accidenti, dici addirittura che sia completamente fattibile un'ottimizzazione di tale livello da riuscire a far rientrare nei canonici 250W un modello di Ti full chip e anche a frequenze nettamente maggiori? Di conseguenza secondo il tuo punto di vista mi pare di capire che identifichi Pascal come uno stato "grezzo" che può essere affinato moltissimo
esatto,
è stato detto all uscita paga pegno in quanto nuovo pp tutto da affinare, il contrario di maxwell sui 28 il top della vecchia litografia :)
per me la situazione si fa depressiva come tempistiche,
perche vorrei passare dall attuale alla Ti kpe volta qualcosa come giugno 2018 :doh: :doh: :doh:
spero vivamente nvidia si dia una mossa piu 4k oriented come performace, tempi celeri e chiaramente il doppio di quello che fa oggi una titan pascal a 7/800€ :stordita:
Io se fossi al tuo posto, terrei la 980ti e occhierei il mercatino per un eventuale sli a buon prezzo e aspetterei allegramente volta con calma ;)
esatto,
è stato detto all uscita paga pegno in quanto nuovo pp tutto da affinare, il contrario di maxwell sui 28 il top della vecchia litografia :)
Maxwell è stato quasi un miracolo sui 28nm, nessuno si sarebbe aspettato prestazioni in gaming raddoppiate a parità di consumi senza nuovo pp, AMD pure ha lavorato molto su 390/390x, ma il rapporto consumi/prestazioni di maxwell è riuscita a raggiungerlo solo con Polaris che pero ha un pp a 14nm...
Quindi avere più larghezza è sempre un bene, sopratutto se come le ddr5x permettono di lavorare bene su bus più piccoli.
Con gli MC da 2gb volendo puoi creare una 1060 con 128bit/8gb di ram ed allo stesso ottenere un BW pari a quello della 1070 o 1080.:)
Kepler è tutto più complesso, ti basta sapere che la banda effettiva della 780ti è pari a quella teorica della 770 e quella della 780 pari alla 680;
Si ovviamente avere maggior bw non fa mai male, ma era per incidere come il cambio architettura abbia fortemente ridotto il collo di bottiglia generato dalle memorie e sicuramente Volta porterà diverse rifiniture, maxwell ha gettato le basi per così dire ma era scontato che sui 28nm si sarebbe presentato estremamente grezzo e con un ottimo potenziale...
mikael84
30-09-2016, 17:26
accidenti, dici addirittura che sia completamente fattibile un'ottimizzazione di tale livello da riuscire a far rientrare nei canonici 250W un modello di Ti full chip e anche a frequenze nettamente maggiori? Di conseguenza secondo il tuo punto di vista mi pare di capire che identifichi Pascal come uno stato "grezzo" che può essere affinato moltissimo
Oltre al processo bisogna vedere se rivedono il chip a livello elettrico (connessioni e condensatori). Con la 580 e relativa serie hanno lavorato molto bene, ed a chip completo sono stati in grado di aumentare oltre il 10/15% dei clock e abbassare i consumi.
da cosa ti sembra poco ottimizzato?
a me pascal mi pare viaggi già alla grande, sicuramente ha margini, ma a guardare ciò che ha fatto amd è messo benone.
Penso che si riferisca al fatto che pascal di fatto è Maxwell 1:1, i vantaggi sono pressocchè dati dal nuovo pp che ha permesso di aumentare notevolmente i clock, ma nella sostanza l'architettura non ha avuto cambiamenti drastici ma solo delle rivisitazioni
mikael84
30-09-2016, 17:50
Maxwell è stato quasi un miracolo sui 28nm, nessuno si sarebbe aspettato prestazioni in gaming raddoppiate a parità di consumi senza nuovo pp, AMD pure ha lavorato molto su 390/390x, ma il rapporto consumi/prestazioni di maxwell è riuscita a raggiungerlo solo con Polaris che pero ha un pp a 14nm...
Si ovviamente avere maggior bw non fa mai male, ma era per incidere come il cambio architettura abbia fortemente ridotto il collo di bottiglia generato dalle memorie e sicuramente Volta porterà diverse rifiniture, maxwell ha gettato le basi per così dire ma era scontato che sui 28nm si sarebbe presentato estremamente grezzo e con un ottimo potenziale...
Maxwell è stato il vero salto di Nvidia, però bisogna dire che Kepler era un colabrodo, la bravura è stata più che altro ingegneristica.
C'è anche un altro particolare. Gli SMX di Kepler nel GK110 erano da 256 cc perchè al suo interno 192 erano FP32 e 64 FP64.
In parole semplici, il design è pensato per 3840cc totali su 15SMX.
Pascal è creato in 2 varianti.
Se Kepler fosse stato pensato senza la DP, poteva fare meglio, sopratutto nelle zone carenti (rop's-banda) ma così facendo maxwell non avrebbe inciso inizialmente.:)
da cosa ti sembra poco ottimizzato?
a me pascal mi pare viaggi già alla grande, sicuramente ha margini, ma a guardare ciò che ha fatto amd è messo benone.
Si viaggia benissimo, ma il GP102 per il TDP pensato è costretto a lavorare a clock molto bassi come i 1500 (Titan x).
Se aggiungi altri 2 SMM, le cose peggiorano ancora.
Elevando il TDP a 300watt via PL, la scheda si esprime meglio.
Stiamo parlando di un 471mm2.
Darrosquall
30-09-2016, 21:01
https://www.youtube.com/watch?v=-PK55-kCviA
Questo video è "clamoroso" per i nostri interessi a livello di schede, guardate le performance in D11, Quantum Break rinasce totalmente, soprattutto su schede nvidia, su quelle amd non cambia praticamente nulla.
Ma nvidia non era quella cattiva che programmava scientemente l'obsolescenza delle schede video? :rolleyes:
Oltre al processo bisogna vedere se rivedono il chip a livello elettrico (connessioni e condensatori). Con la 580 e relativa serie hanno lavorato molto bene, ed a chip completo sono stati in grado di aumentare oltre il 10/15% dei clock e abbassare i consumi.
buono a sapersi, avendo saltato la serie 5xx non ero al corrente di queste particolari ottimizzazioni lato "elettrico" anche se ho sempre saputo che era un affinamento decisamente valido per il periodo dai fornetti della serie 4xx, come sempre grazie wiki-mikael84 :D
Io se fossi al tuo posto, terrei la 980ti e occhierei il mercatino per un eventuale sli a buon prezzo e aspetterei allegramente volta con calma ;)
si la tengo perchè gira alla grande e poi ho un certo legame per me è stata la scheda dei sogni ;)
discorso sli lo sto lentamente abbandonando per una semplice riflessione,
la mia scheda va che è una meraviglia perche con la giusta tamb ha temperature da liquido.
Se mettessi una sorella a coprire le ventole in pratica la uccido.
Quindi resterò in singola ancora con questa, salvo scimmie lato nuova kpe ma sarà giugno 2017, e mi sarò goduto 2 anni di garanzia + 1 per la eventuale vendita :)
si la tengo perchè gira alla grande e poi ho un certo legame per me è stata la scheda dei sogni ;)
discorso sli lo sto lentamente abbandonando per una semplice riflessione,
la mia scheda va che è una meraviglia perche con la giusta tamb ha temperature da liquido.
Se mettessi una sorella a coprire le ventole in pratica la uccido.
Quindi resterò in singola ancora con questa, salvo scimmie lato nuova kpe ma sarà giugno 2017, e mi sarò goduto 2 anni di garanzia + 1 per la eventuale vendita :)
Bhè la 980ti non è certo una scheduccia da poco, certo in 4K ha i suoi limiti ma sacrificando qualche dettaglio gira tutto senza problemi anzi proprio per il 4K si possono allegramente ridurre drasticamente i filtri cosa non da poco visto il peso che hanno in game...
E concordo sul tuo ragionamento, ma direi di aspettare senza pensarci volta e lasciar perdere questa gen mettendo da parte la scimmia...
Io pure attualmente sono combattuto se prendere una 1070 o una 980ti usata a buon prezzo per poi aggiornare a Volta, ma credo che alla fine decideranno le varie offerte/occasioni :sofico:
devil_mcry
01-10-2016, 11:20
https://www.youtube.com/watch?v=-PK55-kCviA
Questo video è "clamoroso" per i nostri interessi a livello di schede, guardate le performance in D11, Quantum Break rinasce totalmente, soprattutto su schede nvidia, su quelle amd non cambia praticamente nulla.
Ma nvidia non era quella cattiva che programmava scientemente l'obsolescenza delle schede video? :rolleyes:
Maxwell su DX11 proprio non ce la fa, bisogna essere onesti. Pascal si comporta praticamente come Polaris, tutte le schede Maxwell sucano.
C'è però un'altra cosa che si sta facendo curiosa ed è come le Fury stiano andando a picco
https://uploads.disquscdn.com/images/979609d7a00e2d14b26595637f5a6f2b33a4b4cfc9909774171e06b914073e99.png
Due cose di rilievo in questa immagine, la prima è Maxwell in DX12 come sia al momento inadeguato rispetto a Pascal, la seconda la Fury X che va come una 970 a momenti in DX11 XD
In realtà penso che cmq quel gioco abbia qualcosa di strano, sia per come vanno male le Fury, sia per come va una 980ti rispetto ad una 1080 G1 (che dovrebbe andare più come una 1070)
AMD pure ha lavorato molto su 390/390x, ma il rapporto consumi/prestazioni di maxwell è riuscita a raggiungerlo solo con Polaris che pero ha un pp a 14nm...
Forse volevi dire con le Fury... Perché 390 e 390x oltre ad essere solo delle 290 e 290x overcloccate da 8gb (tra l'altro alcuni modelli come la MSI erano davvero la stessa scheda con le stesse componenti, ICs inclusi), hanno pure di fatto alzato i prezzi...
Cmq per quanto Polaris sia un salto avanti notevole, molto è dovuto al PP se ha quasi raggiunto l'efficienza di Maxwell, ma stiamo sempre confrontando una scheda mid range a 14nm con le top a 28nm.
mikael84
01-10-2016, 11:38
Quello che penso io subito è 480, 780/ti e 1080/titan rispetto i loro predecessori.
Pascal non fa parte di questa lista, che sia a def o in OC migliora Maxwell quasi in modo lineare e che a sua volta migliora Kepler, Maxwell è pressappoco perfetto, ad nvidia è bastato sfruttare il silicio nuovo per Pascal, mentre Fermi V1 era una chiavica e Kepler V2 così così e partiva dal V1 che era un buon inizio.
Per quello penso che a livello "elettrico" c'è ben poco da migliorare, sarà anche che il TDP arriva a 250watt per 1.6ghz ma non vedo che problema ci sia per 470mmq.
Sarà anche che Pascal e 1:1 con Maxwell, ma quanto meno sfrutta tutto il silicio fin da subito, cosa che non avevano fatto la 480 visto poi il risultato della 580 e la 780 anche se non c'era un salto di silicio dalla 680 ed aveva però clock simili.
Certo si può sempre migliorare, ma credo più a livello architetturale che di silicio.
Se conosci il lavoro fatto con la 580 e relativa serie (ma anche la 4890), saprai bene degli ottimi lavori svolti elettricamente.
Attualmente il GP102 per poter lavorare full deve scendere a compromessi per rientrare nei 250watt.
Non a caso il full è montato solo nelle Tesla/quadro dove lavora a clock irrisori.
Architetturalmente, ora come ora, non riesci a farla girare con 6 TPC su 250watt a clock decenti, quindi o hai rese migliori o devi fare ottimi lavori elettricamente, tra connessioni, transistor etc.
Pascal inchioda dopo tot. clock per via di 3 resistenze da caduta.;)
fraussantin
01-10-2016, 11:44
Maxwell su DX11 proprio non ce la fa, bisogna essere onesti. Pascal si comporta praticamente come Polaris, tutte le schede Maxwell sucano.
C'è però un'altra cosa che si sta facendo curiosa ed è come le Fury stiano andando a picco
https://uploads.disquscdn.com/images/979609d7a00e2d14b26595637f5a6f2b33a4b4cfc9909774171e06b914073e99.png
Due cose di rilievo in questa immagine, la prima è Maxwell in DX12 come sia al momento inadeguato rispetto a Pascal, la seconda la Fury X che va come una 970 a momenti in DX11 XD
In realtà penso che cmq quel gioco abbia qualcosa di strano, sia per come vanno male le Fury, sia per come va una 980ti rispetto ad una 1080 G1 (che dovrebbe andare più come una 1070)
Forse volevi dire con le Fury... Perché 390 e 390x oltre ad essere solo delle 290 e 290x overcloccate da 8gb (tra l'altro alcuni modelli come la MSI erano davvero la stessa scheda con le stesse componenti, ICs inclusi), hanno pure di fatto alzato i prezzi...
Cmq per quanto Polaris sia un salto avanti notevole, molto è dovuto al PP se ha quasi raggiunto l'efficienza di Maxwell, ma stiamo sempre confrontando una scheda mid range a 14nm con le top a 28nm.
Che la fury aveva bisogno di driver ottimizzati si sapeva e si era detto più volte.
E che la sua bassa diffusione non avrebbe stimolato amd anche.
Il tutto abbinato a 4 giga di ram su una vga indirizzata a risoluzioni alte.
L'unica speranza per i possessori delle fury sarà vega , sempre che necessiti delle stesse ottimizzazioni visto che di giga ne ha in abbondanza.
Che la fury aveva bisogno di driver ottimizzati si sapeva e si era detto più volte.
E che la sua bassa diffusione non avrebbe stimolato amd anche.
Il tutto abbinato a 4 giga di ram su una vga indirizzata a risoluzioni alte.
L'unica speranza per i possessori delle fury sarà vega , sempre che necessiti delle stesse ottimizzazioni visto che di giga ne ha in abbondanza.
La fury è una kepler durata meno :stordita:
Raven, segna!!! :O
fraussantin
01-10-2016, 11:46
La fury è una kepler durata meno :stordita:
Raven, segna!!! :O
:asd:
Legacy legacy...:asd:
mikael84
01-10-2016, 12:02
Maxwell su DX11 proprio non ce la fa, bisogna essere onesti. Pascal si comporta praticamente come Polaris, tutte le schede Maxwell sucano.
C'è però un'altra cosa che si sta facendo curiosa ed è come le Fury stiano andando a picco
Due cose di rilievo in questa immagine, la prima è Maxwell in DX12 come sia al momento inadeguato rispetto a Pascal, la seconda la Fury X che va come una 970 a momenti in DX11 XD
In realtà penso che cmq quel gioco abbia qualcosa di strano, sia per come vanno male le Fury, sia per come va una 980ti rispetto ad una 1080 G1 (che dovrebbe andare più come una 1070)
Non prendere troppo alla lettera questo gioco, se metti il test 4k vedrai tutt'altri scenari. Quelli sono solo dei minimi calcolati chissà come:)
https://www.youtube.com/watch?v=lnIBkf2n5n0
https://www.youtube.com/watch?v=aFSRVhyXOxM
Maxwell su DX11 proprio non ce la fa, bisogna essere onesti. Pascal si comporta praticamente come Polaris, tutte le schede Maxwell sucano.
C'è però un'altra cosa che si sta facendo curiosa ed è come le Fury stiano andando a picco
Due cose di rilievo in questa immagine, la prima è Maxwell in DX12 come sia al momento inadeguato rispetto a Pascal, la seconda la Fury X che va come una 970 a momenti in DX11 XD
In realtà penso che cmq quel gioco abbia qualcosa di strano, sia per come vanno male le Fury, sia per come va una 980ti rispetto ad una 1080 G1 (che dovrebbe andare più come una 1070)
Forse volevi dire con le Fury... Perché 390 e 390x oltre ad essere solo delle 290 e 290x overcloccate da 8gb (tra l'altro alcuni modelli come la MSI erano davvero la stessa scheda con le stesse componenti, ICs inclusi), hanno pure di fatto alzato i prezzi...
Cmq per quanto Polaris sia un salto avanti notevole, molto è dovuto al PP se ha quasi raggiunto l'efficienza di Maxwell, ma stiamo sempre confrontando una scheda mid range a 14nm con le top a 28nm.
Si infatti mi riferivo alle Fury, piccolo lapsus mentale, sicuramente con forza horizon rilasceranno qualche patch che ci sia qualche problema è sicuro perchè da quell'immagine ci sono troppe ambiguità. Su Polaris sono d'accordo AMD necessitava di qualcosa di competitivo con Maxwell dato che di fatto a parte le fury non ha presentato nulla di nuovo con la serie 3xx, vedremo con vega cosa sia in grado di fare, i presupposti ci sono tutti, ritardi a parte...
Che la fury aveva bisogno di driver ottimizzati si sapeva e si era detto più volte.
E che la sua bassa diffusione non avrebbe stimolato amd anche.
Il tutto abbinato a 4 giga di ram su una vga indirizzata a risoluzioni alte.
L'unica speranza per i possessori delle fury sarà vega , sempre che necessiti delle stesse ottimizzazioni visto che di giga ne ha in abbondanza.
Aspetta pero i 4GB HBM hanno un comportamento diverso dalle normali GDDR potremmo dire che 4GB HBM sono come 6GB GDDR5, quindi il problema delle fury non è certo dovuto ne alla memoria ne al quantitativo... Fatto sta che recentemente sono scese notevolmente di prezzo raggiungendo quasi i 300€ se AMD fa un altro dei suoi miracoli via driver come in passato è sicuramente una proposta interessante paragonata a 1060 e 480 a prezzo quasi analogo...
devil_mcry
01-10-2016, 12:44
Aspetta pero i 4GB HBM hanno un comportamento diverso dalle normali GDDR potremmo dire che 4GB HBM sono come 6GB GDDR5, quindi il problema delle fury non è certo dovuto ne alla memoria ne al quantitativo... Fatto sta che recentemente sono scese notevolmente di prezzo raggiungendo quasi i 300€ se AMD fa un altro dei suoi miracoli via driver come in passato è sicuramente una proposta interessante paragonata a 1060 e 480 a prezzo quasi analogo...
Ma questa cosa chi ve la ha raccontata XD? Perché non è la prima volta che la leggo...
4GB sono 4GB fine della fiera. La differenza tra le GDDR è solo che sono più veloci non hanno di loro nessuna funzionalità di compressione.
Tra l'altro il loro senso è proprio nel fatto che AMD che a livello di ROPs AMD era carente, altrimenti tutta quella banda nemmeno serve
devil_mcry
01-10-2016, 12:51
Non prendere troppo alla lettera questo gioco, se metti il test 4k vedrai tutt'altri scenari. Quelli sono solo dei minimi calcolati chissà come:)
https://www.youtube.com/watch?v=lnIBkf2n5n0
https://www.youtube.com/watch?v=aFSRVhyXOxM
No, certo lo so, fa solo riflettere che ci sono condizioni particolari (quello è un caso ma li ho visti da più fonti) dove le cose non vanno proprio come uno si aspetterebbe.
Anche perché, molte features di rilievo delle DX12 risiedono nel tier 12.1 (Conservative Raster e ROV, che tra l'altro non so se Polaris supporta onestamente ma cambia poco), mentre nelle DX12 molto del focus è concentrato sulle performance dato che alcune features sono in realtà già prese dalle 11.3.
Ora in tutti i giochi, tranne quel RTS solito, in DX12 tutte le schede (AMD o nVidia) vanno peggio che in DX11 con gli stessi potenziali effetti. C'è qualche caso in cui AMD guadagna ma è perché in DX11 andava talmente male che pure con le DX12 va comunque meno di nVidia in DX11...
Insomma, se il target è quello di migliorare le prestazioni stanno sbagliando qualcosa.
fraussantin
01-10-2016, 13:19
Aspetta pero i 4GB HBM hanno un comportamento diverso dalle normali GDDR potremmo dire che 4GB HBM sono come 6GB GDDR5, quindi il problema delle fury non è certo dovuto ne alla memoria ne al quantitativo... Fatto sta che recentemente sono scese notevolmente di prezzo raggiungendo quasi i 300 se AMD fa un altro dei suoi miracoli via driver come in passato è sicuramente una proposta interessante paragonata a 1060 e 480 a prezzo quasi analogo...
4 giga valgono come 6 solo se il gioco e il driver sono ottimizzati ad oc.
Cosa.che non è possibile fare per tutti i game.
Ergo è un pacco. Il fatto che ora costi poco non significa niente. Gente l'ha pagata 600 700 euro al posto della 980ti perchè amd dura a lungo...
lol quindi la fury è andata in legacy perchè su forza horizon 3 (uscito 3 giorni fa) che va di merda su 10 schede video su 10 (perchè al di la dei frames stuttera su tutte) va meno di una 970.
va beh, poi che gli sviluppatori cercano aiuto dagli utenti per risolvere i problemi
https://www.reddit.com/r/forza/comments/551v85/to_those_with_stuttering_on_windows_10/&usg=ALkJrhhT4of3m76vkzDBi0Ne_6gKMIqKCw
e che si potrebbe anche leggerlo un articolo (tradotto alla meno peggio da google) invece che guardare un mero grafico (fcat non lo ho certo inventato io ma serve solo in alcuni casi evidentemente)
https://translate.google.it/translate?sl=de&tl=en&js=y&prev=_t&hl=it&ie=UTF-8&u=http%3A%2F%2Fwww.pcgameshardware.de%2FForza-Horizon-3-Spiel-57343%2FSpecials%2FBenchmarks-Test-DirextX-12-1208835%2F&edit-text=
è un altro discorso, ma se ne siete convinti, ok, la fury è in legacy ed i 4gb hbm non ce la fanno più lol.
Mamma mia come siete. Niente umorismo.
La fury costava il doppio di una 970.
fraussantin
01-10-2016, 14:35
guarda credimi purtroppo l'ignore mi fa leggere lo stesso quello che scrivi e rispondere mi tocca.
è già la seconda volta, dovrei cercare 3/4 pagine fa, dove fai "umorismo" senza faccine (e senza far ridere nessuno) e definisci legacy la fury, sembra quasi una stupida ripicca a tutti quelli che ti dicono che la tua 970 ha 3.5gb di vram ed è in legacy ... sembra però :rolleyes: .
a me onestamente non me ne frega un caxxo di quello che definisci tu (ne del fatto che la fury sia più o meno legacy, ho pure ignorato chi ha linkato le 7970 come legacy senza leggere che il comunicato di AMD parlava di hd7000 series dalla 7600 in giù dicendo "le non GCN"), ma di certo non ho visto umorismo, quanto convinzione.
Se dovessi prendere i grafici di forza horizon 3 direi che una "misera" 470 va meglio di una 970 che costa ancora di più (o uguale), ma questo non fa notizia, almeno non qui dentro.
sul "siete", vedi al contrario tuo, ho appena consigliato sul thread ufficiale della furyx di valutare bene la 1070 piuttosto che la furyx, fatti un pò di conti quando dici "siete" con la solita aria classista che gira su questo forum, tra l'altro come ripeto sempre, di maxwell ne ho avute 3, 970/980/980ti e col senno di poi avrei probabilmente tenuto la 980ti invece che venderla e prendere la furyx dopo 2 mesi senza vga per guadagnare 100€... ma è andata così e va bene lo stesso, non mi pare di essere l'unico che pensava che maxwell, discorso "inutile" del legacy a parte, avesse reso bene ancora per un pò con l'avvento di pascal, anzi si diceva tutto il contrario e lo dicevano anche i guru tecnici del forum. Sbagliare è umano, ognuno ha fatto le sue scelte.
dopo di che se vuoi ridere e scherzare, seppur ci credi (ed a me certo non mi interessa convincerti dell'opposto), prendi esempio da egounix che mi ha preso per il culo con "legacy :O " lo apprezzo molto di più, uno può avere opinioni differenti ed è sacrosanto, farle passare per legge non lo è più.
poi, nel caso specifico del gioco in questione nessuno, nella fretta del "road to glory and furyx legacy posto lo screen per primo ho vinto un premio", ha per lo meno indicato che
1) stuttera con tutte le vga
2) le cpu bestemmiano anche a 6 core in quanto decripta al volo dei file (forse per un drm su UWP)
3) è uscito 3 giorni fa
4) non esiste un gioco dal windows store, tranne forse forza apex 6, che non abbia problemi, vedi lo stesso quantum break, quello in dx12 (non steam), dove le amd vanno meno merda delle nvidia
5) gli sviluppatori chiedono agli utenti aiuto per risolvere problemi al gioco che loro stessi hanno programmato...(cosa da chiedere indietro i soldi e dire vi aiutiamo nel frattempo ridacci il contante)
quindi ricapitolando si, la 970 ad oggi va meno merda di una furyx in questo gioco, me ne farò una ragione lol, andiamo a festeggiare? :O
E va beh prendi i lati positivi almeno non sono nel 3d rosso.
Ps ma se mi hai messo in ignore , come fai a vedere i post se nessuno mi ha quotato?
mikael84
01-10-2016, 14:38
Ma questa cosa chi ve la ha raccontata XD? Perché non è la prima volta che la leggo...
4GB sono 4GB fine della fiera. La differenza tra le GDDR è solo che sono più veloci non hanno di loro nessuna funzionalità di compressione.
Tra l'altro il loro senso è proprio nel fatto che AMD che a livello di ROPs AMD era carente, altrimenti tutta quella banda nemmeno serve
Con la Fury parliamo di 4gb vs 4gb, ma non è proprio uguale, ci sono casi in cui potrebbe fare meglio anche dei 6gb della TI.
Il tutto sta nel software, se il software ha realmente bisogno di più di 4gb è fregata automaticamente.
Sui giochi normali di allocazione, grazie al compilatore, la fury alloca solo quello che serve realmente nel preciso momento e tutto il resto lo mette in ram.
Ricordo che le ram creano un buffer da 2gb, dove vengono memorizzati dei dati, che vengono utilizzati solo per avere un'accesso migliore alle texture in lontananza, con molta vram tali dati vengono mandati in ram per le latenze.
Se ho saturato 6gb, posso trovarmi con memoria che mi serve, e la devo pescare in ram e memoria inutile allocata al quale non ci accedo mai.
La Fury no, perche utilizza sempre solo quello che serve, salvo che realmente non servono più di 4gb, perchè la memoria è quella.
Le HBM hanno anche un altro fattore (purtroppo legato al pci express), possono scrollare la memoria automaticamente sul singolo canale, le ddr no.
Ci sarebbe molto da dire, ma ci vorrebbe un articolo solo per questo.:)
A livello di rop's è diverso.
Nvidia deve caricare lo z-buffer (rop's lente necessitano di 2 cicli).
AMD è ottimizzata per blending ed MSAA (ogni rop's viene accoppiata 4 z-stencil e quindi richiedono molta banda)
Nvidia punta ad avere un fillrate sempre più elevato per riempire lo z-buffer, dove si svolgono operazioni relative allo z-ops e color ops. I dati dello z-buffer sono utilizzati per calcolare la distanza degli oggetti dalla telecamera, quindi, per le operazioni di rimozione dei poligoni nascosti. Ottime per backfaceculling (heaven/valley), grazie al lavoro prima su 5 stadi di pipeline e 3 via raster grazie allo z-cull(codifica e decodifica).
AMD invece invece usa rop's da MSAA, che sono diverse ma molto più potenti di Nvdia in situazioni di blending.
Per farti un esempio, Nvidia peccando di blending, neppure con 128 rop's riesce minimamente a tenere il passo di 64 AMD.
Se fai MSAA 8x, le rop's AMD passano Nvidia in maniera netta.
Quindi ad AMD non servono rop's pari ad Nvidia perchè rischi di sprecare miriadi di transistor a vuoto.
Se metto 128 rop's, supero una Nvidia con 256rop's, ma se non faccio blending fp32-fp64 che me ne faccio.:)
No, certo lo so, fa solo riflettere che ci sono condizioni particolari (quello è un caso ma li ho visti da più fonti) dove le cose non vanno proprio come uno si aspetterebbe.
Anche perché, molte features di rilievo delle DX12 risiedono nel tier 12.1 (Conservative Raster e ROV, che tra l'altro non so se Polaris supporta onestamente ma cambia poco), mentre nelle DX12 molto del focus è concentrato sulle performance dato che alcune features sono in realtà già prese dalle 11.3.
Ora in tutti i giochi, tranne quel RTS solito, in DX12 tutte le schede (AMD o nVidia) vanno peggio che in DX11 con gli stessi potenziali effetti. C'è qualche caso in cui AMD guadagna ma è perché in DX11 andava talmente male che pure con le DX12 va comunque meno di nVidia in DX11...
Insomma, se il target è quello di migliorare le prestazioni stanno sbagliando qualcosa.
No AMD non ha conservative, tutto quello calcolato, viene automaticamente passato sullo shader core che a certe latenze lo elabora.
Nvidia ha un comand processor dove difficilmente trovi shader in idle, al massimo torna utile per la 1080 a basse risoluzioni.
I dati memorizzati in cache pesano e se io non ho bisogno di lavori paralleli rischio solo di perdere tempo in cache, che come un grosso pentolone mi rallenta tutto.
Ogni accesso cache sono 10-12cicli ma possono anche andare a 20 cicli.
Per evitare questo ecco che il mio schema alla Pascal tesla è ottimo anche per game, perchè raddoppi le istruzioni per cuda, ed ogni istruzione può essere schedulata al commando senza andare a pescare in cache.:)
mikael84
01-10-2016, 14:57
tecnicamente non posso dirlo, ma guardo il risultato ed il risultato è che pascal che è 1:1 con maxwell sul nuovo silicio si becca 500/600mhz circa e aumenta l'efficienza, questo conta.
kepler v2 non ha preso nulla al secondo giro dei 28nm e nemmeno in efficienza, maxwell si è preso anche lui 400 mhz buoni e ha guadagnato in efficienza.
paragonare pascal a fermi o a kepler elettricamente per me non ha senso :)
No continuiamo a non capirci, si parlava di fermi non di Kepler.
Kepler non è mai stato affinato elettricamente:)
Con Kepler v2, hanno totalmente cambiato, gli SMX sono diventati da 256 elementi per via della FP64.
Hanno creato un chip a raster bloccati ad 8 pixel capace di ben 3840 elementi totali, totalmente diverso da GK 104 con SMX da 192 FP32.
Kepler GK110 non è stato diviso in FP64 e FP32, ma tutte le schede hanno adottato il core con le attenuanti che sai.
per colpa di questo, non hanno potuto incrementare rop's e banda.
Maxwell non ha preso 400 mhz, e che Kepler downclocava pesante, altrimenti parliamo di 200mhz.
Maxwell ha eliminato le dipendenze, (la 780ti si ritrova range di 1920-2880cc di cui il compilatore deve programmare le istruzioni indipendenti) ed i 2048cc della 980 sono stati fenomenali perchè sempre schedulati a clock più elevato e con il doppio delle istruzioni grazie ad un rapporto LDS-SFU 4:1:1.
Aggiunta compressione rop's per efficienza in banda e migliorato l'accesso cache, la cache con Kepler è costretta ad aumentare i cicli se si satura.
fermi e la 4890 hanno lavorato totalmente differentemente.
Gli ingegneri hanno fatto un'altro stadio a livello finale, ed hanno ricercato le connessioni lente e risistemate, hanno rivisto tutti i condensatori in perdita e sostituiti.
Fatto sta che a pari PP, la 4890 prendeva anche 250mhz in più ed in maniera più efficiente, fermi ha notevolmente migliorato l'efficienza abilitando l'ultimo SMX impensabile qualche mese prima a pari PP.
Come ti sto dicendo, Pascal con un misero 471mmq2 non riesce a chiedere i 6GP full per TDP ad un clock decente. Quindi o cambi architettura o affini al massimo.;)
E va beh prendi i lati positivi almeno non sono nel 3d rosso.
Ps ma se mi hai messo in ignore , come fai a vedere i post se nessuno mi ha quotato?
Sei stato messo in quotacy :O
fraussantin
01-10-2016, 15:14
Sei stato messo in quotacy :O
Edit :
:asd:
L'ho capita tardi !
Edit :
:asd:
L'ho capita tardi !
In pratica è quando l'ignorato non calcolato in pipeline reverta dal front al backculling essendo riportato per terzi in quarti, in quinti e in sesti elaborando così l'ignorante in rop's che reindirizza allo store che la cache è ramata in virtuale potendo quindi sostenere la risposta in fp32 - che altrimenti per multipli di 256, associato in blocchi da 64,3 periodico, non leggerebbe in fp64 - senza tenere in idle la nonna che fa la pasta alla cozzaquadruplicata per il vettore di raster che gratta la parmigèno alla lino banfi.
per pensare una supercazzola così io ci avrei messo minimo mezza giornata :rotfl:
Ho solamente esposto quello che tutti hanno in testa, rispondendo "sì ok e questo l'ho capito", quando mikael spiega :stordita:
killeragosta90
01-10-2016, 16:53
Sei stato messo in quotacy :O
Ok. Questa è epica, punto.
LOL :D :D :D
nicola1283
01-10-2016, 17:02
Ho solamente esposto quello che tutti hanno in testa, rispondendo "sì ok e questo l'ho capito", quando mikael spiega :stordita:
:rotfl:
fraussantin
01-10-2016, 17:06
Ho solamente esposto quello che tutti hanno in testa, rispondendo "sì ok e questo l'ho capito", quando mikael spiega :stordita:
:asd:
In pratica è quando l'ignorato non calcolato in pipeline reverta dal front al backculling essendo riportato per terzi in quarti, in quinti e in sesti elaborando così l'ignorante in rop's che reindirizza allo store che la cache è ramata in virtuale potendo quindi sostenere la risposta in fp32 - che altrimenti per multipli di 256, associato in blocchi da 64,3 periodico, non leggerebbe in fp64 - senza tenere in idle la nonna che fa la pasta alla cozzaquadruplicata per il vettore di raster che gratta la parmigèno alla lino banfi.
Faccio mio il pensiero di Giovannone... :O
https://www.youtube.com/watch?v=s9W6qE19Vvo
In pratica è quando l'ignorato non calcolato in pipeline reverta dal front al backculling essendo riportato per terzi in quarti, in quinti e in sesti elaborando così l'ignorante in rop's che reindirizza allo store che la cache è ramata in virtuale potendo quindi sostenere la risposta in fp32 - che altrimenti per multipli di 256, associato in blocchi da 64,3 periodico, non leggerebbe in fp64 - senza tenere in idle la nonna che fa la pasta alla cozzaquadruplicata per il vettore di raster che gratta la parmigèno alla lino banfi.
Faccio mio il pensiero di Giovannone... :O
https://www.youtube.com/watch?v=s9W6qE19Vvo
Io direi che ci sta pure un...
https://youtu.be/D6TTNZ8jKgA
:asd:
Oirasor_84
01-10-2016, 20:24
No AMD non ha conservative, tutto quello calcolato, viene automaticamente passato sullo shader core che a certe latenze lo elabora.
Nvidia ha un comand processor dove difficilmente trovi shader in idle, al massimo torna utile per la 1080 a basse risoluzioni.
I dati memorizzati in cache pesano e se io non ho bisogno di lavori paralleli rischio solo di perdere tempo in cache, che come un grosso pentolone mi rallenta tutto.
Ogni accesso cache sono 10-12cicli ma possono anche andare a 20 cicli.
Per evitare questo ecco che il mio schema alla Pascal tesla è ottimo anche per game, perchè raddoppi le istruzioni per cuda, ed ogni istruzione può essere schedulata al commando senza andare a pescare in cache.:)
Scusa Mikael84 ma la differenza nel conservative rasterization non sta nel fatto che tramite algoritmo viene processato tutto dalla gpu anzichè la cpu,?
Comunque amd ha detto che probabilmente tale feature verrà supportata su tutte le gcn magari senza una pipeline dedicata semplicemente in gpgpu "fonte mio cuggino":D
fraussantin
01-10-2016, 20:32
Immagino in d12
mikael84
01-10-2016, 22:41
In pratica è quando l'ignorato non calcolato in pipeline reverta dal front al backculling essendo riportato per terzi in quarti, in quinti e in sesti elaborando così l'ignorante in rop's che reindirizza allo store che la cache è ramata in virtuale potendo quindi sostenere la risposta in fp32 - che altrimenti per multipli di 256, associato in blocchi da 64,3 periodico, non leggerebbe in fp64 - senza tenere in idle la nonna che fa la pasta alla cozzaquadruplicata per il vettore di raster che gratta la parmigèno alla lino banfi.
Ho visto che avete apprezzato il mio commento.:p
Se parliamo di hadd-hmul-hfma2 è peggio.:)
Scusa Mikael84 ma la differenza nel conservative rasterization non sta nel fatto che tramite algoritmo viene processato tutto dalla gpu anzichè la cpu,?
Comunque amd ha detto che probabilmente tale feature verrà supportata su tutte le gcn magari senza una pipeline dedicata semplicemente in gpgpu "fonte mio cuggino":D
La CPU non centra nulla, il conservative sta a significare che il lavoro svolto parallelo viene memorizzato ed utilizzato quando serve tramite cache.
Pascal può operare su due fronti contemporaneamente, e stoppare alcuni tipi di lavoro quando serve maggior lavoro sullo shader core primario. Il lavoro svolto viene messo in cache, e messo in coda. Appena lo shader core si libera può essere caricato in ns.
AMD no, il lavoro svolto via ACE va diretto allo shader core ed in elaborazione. Che gli serve intasare la cache, se l'architettura rende al 60/70%.:)
fraussantin
01-10-2016, 22:51
Ho visto che avete apprezzato il mio commento.:p
Se parliamo di hadd-hmul-hfma2 è peggio.:)
Ho provato ad attivarlo su steam ma non è valido .
:sofico:
https://www.youtube.com/watch?v=boiKhFQdLjs
Ho provato ad attivarlo su steam ma non è valido .
:sofico:
Sposami!!! :flower:
No continuiamo a non capirci, si parlava di fermi non di Kepler.
Kepler non è mai stato affinato elettricamente:)
Con Kepler v2, hanno totalmente cambiato, gli SMX sono diventati da 256 elementi per via della FP64.
Hanno creato un chip a raster bloccati ad 8 pixel capace di ben 3840 elementi totali, totalmente diverso da GK 104 con SMX da 192 FP32.
Kepler GK110 non è stato diviso in FP64 e FP32, ma tutte le schede hanno adottato il core con le attenuanti che sai.
per colpa di questo, non hanno potuto incrementare rop's e banda.
Maxwell non ha preso 400 mhz, e che Kepler downclocava pesante, altrimenti parliamo di 200mhz.
Maxwell ha eliminato le dipendenze, (la 780ti si ritrova range di 1920-2880cc di cui il compilatore deve programmare le istruzioni indipendenti) ed i 2048cc della 980 sono stati fenomenali perchè sempre schedulati a clock più elevato e con il doppio delle istruzioni grazie ad un rapporto LDS-SFU 4:1:1.
Aggiunta compressione rop's per efficienza in banda e migliorato l'accesso cache, la cache con Kepler è costretta ad aumentare i cicli se si satura.
fermi e la 4890 hanno lavorato totalmente differentemente.
Gli ingegneri hanno fatto un'altro stadio a livello finale, ed hanno ricercato le connessioni lente e risistemate, hanno rivisto tutti i condensatori in perdita e sostituiti.
Fatto sta che a pari PP, la 4890 prendeva anche 250mhz in più ed in maniera più efficiente, fermi ha notevolmente migliorato l'efficienza abilitando l'ultimo SMX impensabile qualche mese prima a pari PP.
Come ti sto dicendo, Pascal con un misero 471mmq2 non riesce a chiedere i 6GP full per TDP ad un clock decente. Quindi o cambi architettura o affini al massimo.;)
aspè vado un mesetto su google e ti rispondo :Prrr:
scherzi a parte hai mai pensato a "lavora in hwupgrade?" c'è un posto libero magari la smettono di scrivere che per giocare un uhd serve una titanmilletrecentoeuri :asd:
Gtx 1050 a 14nm ?
http://hardware.hdblog.it/2016/10/03/GeForce-GTx-1050-prodotta-da-samsung/
La Ti con prestazioni tra una 960 e una 970 a 160€, non sarebbe male.
Ma ho i miei dubbi...specialmente sul prezzo!
illidan2000
05-10-2016, 15:57
aspè vado un mesetto su google e ti rispondo :Prrr:
scherzi a parte hai mai pensato a "lavora in hwupgrade?" c'è un posto libero magari la smettono di scrivere che per giocare un uhd serve una titanmilletrecentoeuri :asd:
non lo prendono... vale più la forma che la sostanza...
appleroof
05-10-2016, 16:08
In pratica è quando l'ignorato non calcolato in pipeline reverta dal front al backculling essendo riportato per terzi in quarti, in quinti e in sesti elaborando così l'ignorante in rop's che reindirizza allo store che la cache è ramata in virtuale potendo quindi sostenere la risposta in fp32 - che altrimenti per multipli di 256, associato in blocchi da 64,3 periodico, non leggerebbe in fp64 - senza tenere in idle la nonna che fa la pasta alla cozzaquadruplicata per il vettore di raster che gratta la parmigèno alla lino banfi.
:D :D
p.s.: grande Mikael, sei diventato un riferimento tecnico qua ;)
mirkonorroz
05-10-2016, 17:42
[cut]
AMD invece invece usa rop's da MSAA, che sono diverse ma molto più potenti di Nvdia in situazioni di blending.
Per farti un esempio, Nvidia peccando di blending, neppure con 128 rop's riesce minimamente a tenere il passo di 64 AMD.
Se fai MSAA 8x, le rop's AMD passano Nvidia in maniera netta.
Quindi ad AMD non servono rop's pari ad Nvidia perchè rischi di sprecare miriadi di transistor a vuoto.
Se metto 128 rop's, supero una Nvidia con 256rop's, ma se non faccio blending fp32-fp64 che me ne faccio.:)
[cut]
Non so se dico/chiedo una banalita' (di solito si' :D), ma se supponiamo che per un periodo abbastanza lungo ci si assesti a giocare a 4k, con vari polliciaggi di monitor e quindi anche di dimensioni non esagerate e' possibile pensare ad un abbandono di tali tipi di rops "da MSAA" da parte di AMD, in virtu' del fatto che basta la risoluzione nativa per non avere (o quasi) aliasing?
O se non un abbandono una riduzione o una modifica?
O continueranno su quella strada?
Perdonami se non mi ricordo, ma quando dici "da MSAA" ti riferisci sempre e solo ad un uso come antialiasing (sampling) o c'e' qualche altro ambito?
RedPrimula
06-10-2016, 10:12
Benchmark Gears of War 4: http://media.gamersnexus.net/images/media/2016/games/gow/gears-of-war-4-benchmark-1080_2.png
Articolo: http://www.gamersnexus.net/game-bench/2628-gears-of-war-4-gpu-benchmark-on-pc
Estratto dell'articolo completo:
"The latest Gears-ready drivers were used from both companies. NVidia's 373.02 drivers were used and AMD's 16.9.2 drivers were used. The forthcoming 16.10.1 update contains the same GOW4 game optimizations as 16.9.2. Performance has not changed between driver packages."
Alla faccia dei driver "legacy"...
fraussantin
06-10-2016, 10:21
http://uploads.tapatalk-cdn.com/20161006/12f39188054db825bfa56ef9cf6cf445.jpg
Fury 600 euro , 970 300 euro ...
Leggaccyyyy!
Fermi tutti!
C'è un errore!!!
Hanno dimenticato di inserire la 1050ti tra la 970 e la fury!!!
fraussantin
06-10-2016, 10:41
spero ci sia un problema e che lo correggano, a prescindere che sia di amd o dello sviluppatore, perché così è imbarazzante :stordita:
Si fa per scherzare , verrà corretto sicuramente , ma si sapeva che le fury erano un po il kepler di amd. ( forse peggio)
Ma dai su, è palese c'è c'è qualche problema da correggere per AMD :)
Sì, le slide :) :p
Powerpoint userssss!!!!!! Powaaaa!!!!
Si fa per scherzare , verrà corretto sicuramente , ma si sapeva che le fury erano un po il kepler di amd. ( forse peggio)
le hbm non hanno convito nessuno ai tempi,
adesso poi le vedo sempre peggio in pratica senza la giusta architettura montarle è solo sboroneria, all atto pratico i frame latitano
Anche quando le monterà envidia sempre se lo farà a breve, è tutto da capire i benefici per chi una scheda la compra solo ed esclusivamente per giocare.
non a caso si parla di gddr6 ultimamente
fraussantin
06-10-2016, 10:56
le hbm non hanno convito nessuno ai tempi,
adesso poi le vedo sempre peggio in pratica senza la giusta architettura montarle è solo sboroneria, all atto pratico i frame latitano
Anche quando le monterà envidia sempre se lo farà a breve, è tutto da capire i benefici per chi una scheda la compra solo ed esclusivamente per giocare.
non a caso si parla di gddr6 ultimamente
Poi hanno necessità di supporto da parte dei developer di giochi e da parte dei driver .
Inizio a pensare che nvidia non le.metta apposta per evitare che i developer le supportino a.pieno .
fraussantin
06-10-2016, 11:08
:rotfl:
si si mica c'è bisogno di specificarlo, almeno con me :)
...ma il problema, se c'è, non pare essere solo delle fury, hbm, ecc... il resto fa schifo uguale :read:
Si , effettivamente è vero , ma le fury vanno peggio di tutte in proporzione alla potenza che hanno.
appleroof
06-10-2016, 11:36
http://wccftech.com/nvidia-geforce-20-pascal-refresh-gpu-speculation/
Sì, le slide :) :p
Powerpoint userssss!!!!!! Powaaaa!!!!
Jonathan Quayle Higgins III... oggi la trovo invero alquanto sardonico! :O
walter.caorle
06-10-2016, 11:43
http://uploads.tapatalk-cdn.com/20161006/12f39188054db825bfa56ef9cf6cf445.jpg
Fury 600 euro , 970 300 euro ...
Leggaccyyyy!
http://gamegpu.com/images/stories/Test_GPU/Action/Gears_of_War_4/gw4_2560.png
:rolleyes:
si ma.... Neverwinter nights?!?!??!! Scandaloooooo
fraussantin
06-10-2016, 12:21
http://gamegpu.com/images/stories/Test_GPU/Action/Gears_of_War_4/gw4_2560.png
:rolleyes:
Cioè un gigahz in più di processore smuove la fury?
Non ho capito.
Mickeal illuminaci tu !
Ale55andr0
06-10-2016, 12:24
http://wccftech.com/nvidia-geforce-20-pascal-refresh-gpu-speculation/
Quindi tocca aspettare la 2080 12gb a 499...tanto esce prima di vega :asd:
By the way questo perche poi mi danno dell'idiota a considerare la 1080 a 600+ un furto :O
dopo quelle slide i rossi son tornati alla carica,
furyx longeva grande scheda almeno fino al prossimo gioco che l'affossa :asd:
Jonathan Quayle Higgins III... oggi la trovo invero alquanto sardonico! :O
Gotchaaaaaaaa!!! :O
dopo quelle slide i rossi son tornati alla carica,
furyx longeva grande scheda almeno fino al prossimo gioco che l'affossa :asd:
sarà ma chi ne continua a parlare sono i verdi nei thread verdi, che caso eh? :mc: :sofico: nei thread rossi invece la usano per giocare, incredibbbbbile!!!! stile il calabrone, non sa che non può volare ma lo fa :asd:
mikael84
06-10-2016, 13:59
http://wccftech.com/nvidia-geforce-20-pascal-refresh-gpu-speculation/
Si Apple come vi dicevo con il refresh hanno ottimizzato il tutto in stile GF110 e 4890.
La Titan full adotterà sicuramente i nuovi MC da 2gb per un totale di 24gb e le ddr5x a 12gb/s elevano a 576 gb/s totali e teorici.
Purtroppo il 6° TPC non riescono ancora ad includerlo e lo vedremmo con Volta se si rimane su tale PP.
Tieni presente che Volta GV100 tesla se rimane con tale PP, farà da design al prossimo chip gaming, con la possibilità di adottare chip ram a 14 gb/s.
Appena si riusciranno a raggiungere i 10 TPC per GPC, penso riescano finalmente ad elevare i raster a 32 pixel e quindi il GPC passa da 1024/32 rop's.:)
Non so se dico/chiedo una banalita' (di solito si' :D), ma se supponiamo che per un periodo abbastanza lungo ci si assesti a giocare a 4k, con vari polliciaggi di monitor e quindi anche di dimensioni non esagerate e' possibile pensare ad un abbandono di tali tipi di rops "da MSAA" da parte di AMD, in virtu' del fatto che basta la risoluzione nativa per non avere (o quasi) aliasing?
O se non un abbandono una riduzione o una modifica?
O continueranno su quella strada?
Perdonami se non mi ricordo, ma quando dici "da MSAA" ti riferisci sempre e solo ad un uso come antialiasing (sampling) o c'e' qualche altro ambito?
No con MSAA, si intendono delle rop's ottimizzate per il blending. Salire di risoluzione, utilizzare SSAA o DSR fa sempre un alto uso di blending. E' bene sottolineare che le rop's non costituiscono mai un collo di bottiglia, ma se mi trovo in condizione di fare calcoli in FP32 pesanti, le rop's AMD vanno meglio pur con meno unità.
Una potente 1080 in blending FP32 utilizza un clock per SM, e di conseguenza tali calcoli la portano ad utilizzare 1/4 delle rop's, fattore che su AMD non succede. Questo livello di 4:1 si mantiene anche con operazioni a 128bit dove vengono coinvolte 4 FP32.
AMD lavora così, perchè se arrivano meno pixel sullo shader core, stai buttando transistor per nulla(tieni conto anche cha tra shader core e rop's c'è un crossbar che serve a smistare i pixel verso le unità di calcolo libere).
Nvidia punta sulla velocità teorica perchè deve riempire lo z-buffer sul quale svolge lavori di color ops e z-ops.
Se Nvidia avesse le stesse rop's dovrebbe fare 2 cicli per riempire lo z-buffer e perdere notevolmente quando si svolgono operazioni legate la blending.
mikael84
06-10-2016, 14:23
Quindi tocca aspettare la 2080 12gb a 499...tanto esce prima di vega :asd:
By the way questo perche poi mi danno dell'idiota a considerare la 1080 a 600+ un furto :O
No hai capito male:)
Nello schema si intende, una 1080 più clockata con le ddr5x a 12gb/s (ovvero 384gb/s), ma il bus da 256 bit, è sempre legato agli MC da 1gb, quindi 8gb finali.;)
Ale55andr0
06-10-2016, 15:07
No hai capito male:)
Nello schema si intende, una 1080 più clockata con le ddr5x a 12gb/s (ovvero 384gb/s), ma il bus da 256 bit, è sempre legato agli MC da 1gb, quindi 8gb finali.;)
Si, mi sono accorto dopo, ma mi scocciava editare :D. Il discorso però non cambia: piu prestazioni e 499 cartoni sono più che sufficienti come argomenti. Io oramai sicuro che passo alla piattaforma intel di settima generazione, una volta preso procio e mobo posso assemblare il pc completo col resto in firma che gia possiedo. Per la vga si vedrà ma nel frattempo spero proprio che la igp del 7700 sia migliore di quella del 3770 che thief gold con la mod per il 1080p era ingiocabile :asd:
devil_mcry
06-10-2016, 15:17
Oh interessante la 2070... Ma si parla di quando? Perché io a marzo massimo aprile vorrei fare la build nuova sarebbe bello non dover aspettare fino a novembre XD
mikael84
06-10-2016, 15:27
il "256-bit bus interface" che si legge in tabella non è che lasciasse spazio ad altre interpretazioni, magari alessandro sta cercando una giustificazione per il suo mancato acquisto verde :ciapet:
Esatto, cmq piuttosto valido per tale bus.
Si, mi sono accorto dopo, ma mi scocciava editare :D. Il discorso però non cambia: piu prestazioni e 499 cartoni sono più che sufficienti come argomenti. Io oramai sicuro che passo alla piattaforma intel di settima generazione, una volta preso procio e mobo posso assemblare il pc completo col resto in firma che gia possiedo. Per la vga si vedrà ma nel frattempo spero proprio che la igp del 7700 sia migliore di quella del 3770 che thief gold con la mod per il 1080p era ingiocabile :asd:
Ma vai tranquillo:)
Oh interessante la 2070... Ma si parla di quando? Perché io a marzo massimo aprile vorrei fare la build nuova sarebbe bello non dover aspettare fino a novembre XD
Si piuttosto interessante perchè quei dati la collocano in mezzo a 1070-1080.
Inoltre bisogna anche vedere gli SM laserati perchè da quello si vedrà l'accesso rop's.
Un taglio SM per GPC può far lavorare 64 rop's, un taglio netto al GPC, purtroppo ne fa lavorare 48-52.:)
Ale55andr0
06-10-2016, 15:41
500 cartoni sono senza iva quei prezzi...
di questo passo prenderai la vga nel duemilamai, tanto ci sarà sempre "qualcosa di più prestazioni per lo stesso prezzo al prossimo giro"
l'attesa della 2080 tra 9 mesi non giustifica il non comprare una 1080 oggi.
Sempre meno di oltre 600 attuali. Ho il budget contato contato: per procio mobo e vga mi restano 1000 euro tondi, non posso sforare nemmeno di 10 euro. Poi imho escono prima di 9 mesi, per azzaccagnare vega e smutandare a tradimento amd:asd:...dopo tutto parliamo sempre di pascal non di gpu nuove
Ale55andr0
06-10-2016, 15:43
Ma vai tranquillo:)
In che senso, per la igpu del 7700 o la 1080? :D
mikael84
06-10-2016, 15:54
In che senso, per la igpu del 7700 o la 1080? :D
No per l'errore.
Sulle 500-600 una 2080 comincerebbe ad essere allettante, ma anche una 2070 così tagliuzzata, sopratutto sulle 400 euro, visto che si posizionerebbe in mezzo a 1070-1080.:)
La scheda da paura sarà la Titan V2, 3840cc/96 rop's e banda da 576gb/s.
scorpion73
06-10-2016, 16:01
Siamo sicuri che la Titan attuale non diventerà la 2080Ti?
Ovviamente parlo del numero dei cuda...
Potrebbero fare a Gennaio 1080ti con 3328 cuda e poi dopo il lancio della 2080 la 2080Ti con lo stesso numero di cuda della titan attuale
Spider-Mans
06-10-2016, 16:03
http://gamegpu.com/images/stories/Test_GPU/Action/Gears_of_War_4/gw4_2560.png
:rolleyes:
GOMBLOTTO
oh oh oh noooo XD
dopo quelle slide i rossi son tornati alla carica,
furyx longeva grande scheda almeno fino al prossimo gioco che l'affossa :asd:
e pensare che alcuni "utenti" ci passavano le giornate a riempire il thread ufficiale di spot pro fury variegati ecc....anche se si tenevano ben alla larga dall acquistarla ......alla fine non ho capito se nel forum almeno 10 utenti l'hanno comprata :asd: ma il thread raggiunse centinaia di pagine
qualcuno la difende ancora oggi anche se non ne ha mai comprata una :asd:
quanto potente puo essere il lato rosso dello sforzo XD
mikael84
06-10-2016, 16:07
Cioè un gigahz in più di processore smuove la fury?
Non ho capito.
Mickeal illuminaci tu !
Semplicemente dice che su AMD stutterava tutto ed hanno avuto notevoli problemi con i minimi in base alle scene.
Chiaramente i test su un 5960x a 4,6 lasciano il tempo che trovano sia su Nvidia sia su GPU con grossi problemi di drawcall.
I medi di gamegpu sono cmq molto più bassi di quelli dell'altra testata, quindi bisogna valutare un pochino.;)
Siamo sicuri che la Titan attuale non diventerà la 2080Ti?
Ovviamente parlo del numero dei cuda...
Potrebbero fare a Gennaio 1080ti con 3328 cuda e poi dopo il lancio della 2080 la 2080Ti con lo stesso numero di cuda della titan attuale
E' un rumors e come tale va preso, l'unico fattore che direi scontato sono l'utilizzo delle ddr5x 12gb/s.
Le ddr6 14gb/s le vedremmo con volta e più TPC.
In pratica alessandro aveva ragione sulla fury, è questo il punto... E pensare che l'ho sfottuto... Mi dispiace caro, anche io ero appannato dalla bellezza delle bombe di lisa su... Ti chiedo perdono, stasera ti posso mettere in firma?
Sblindi alla supercazzola? Quitana, con scappella snto a destra e a sinistra.
VanCleef
06-10-2016, 17:39
domanda leggermente OT... perchè le chiamate 2080? La prossima non dovrebbe essere la 1180?
Ale55andr0
06-10-2016, 17:41
Siamo sicuri che la Titan attuale non diventerà la 2080Ti?
Ovviamente parlo del numero dei cuda...
Potrebbero fare a Gennaio 1080ti con 3328 cuda e poi dopo il lancio della 2080 la 2080Ti con lo stesso numero di cuda della titan attuale
O magari una bella 2085gtx con 3072/192/96 12gigi :sofico:
Ale55andr0
06-10-2016, 17:43
In pratica alessandro aveva ragione sulla fury, è questo il punto... E pensare che l'ho sfottuto... Mi dispiace caro, anche io ero appannato dalla bellezza delle bombe di lisa su... Ti chiedo perdono, stasera ti posso mettere in firma?
Sblindi alla supercazzola? Quitana, con scappella snto a destra e a sinistra.
Non so perché ma continuo a sentir puzza di sfottimento :asd:
Non so perché ma continuo a sentir puzza di sfottimento :asd:
Ma amico caro!!! Amico di sempre e di mille avventure!!! Io M.A.I. Mi metterei a sfottere un amico... Mai!!!
quintana, osetta
:asd:
allora sta 1080TitanI quando esce? :asd:
allora sta 1080TitanI quando esce? :asd:
prima di Vega, quello è poco ma sicuro :asd:
a parte gli scherzi la notizia precedente sembra davvero interessante e perfettamente plausibile al di là del fatto che per ora è solo un rumor, l'unica cosa magari sono i 499$ di listino della "2080", più facile che siano almeno 549$
fraussantin
06-10-2016, 21:18
domanda leggermente OT... perchè le chiamate 2080? La prossima non dovrebbe essere la 1180?
1180 è brutto come nome e suona male.
Poi son scelte loro.
Scusa ma che ha la fury che non va bene?
Sarò scemo ma in quelle prove mi sembra appena sotto la 980ti come è sempre stata... no?
Cioè a parte in quelle dove anche una 8800gt risulta più veloce di una fury x che ovviamente hanno qualcosa di strano :asd:
Mi chiedo e ti chiedo... Perchè continui ancora a prendermi sul serio?
Faccio di tutto per trollare, l'han capito anche i muri... :muro: :asd:
Ma che ne so, che vuoi che mi xxx della fury, ti dico solo che qua tutto l'anno passano quintali di topine... Non ne ho toccata manco una :cry:
Dai attendo il raspy pi 3 in un tombale silenzio.
:(
Ti dico anche che frozy vuole sapere che lavoro faccio... Regà faccio il garzone!!! Io con l'informatica ci faccio a botte. Se un c'avessi le gui, sarei lì ancora a smoccolare con la net install di debian :asd:
fraussantin
06-10-2016, 21:30
Scusa ma che ha la fury che non va bene?
Sarò scemo ma in quelle prove mi sembra appena sotto la 980ti come è sempre stata... no?
Cioè a parte in quelle dove anche una 8800gt risulta più veloce di una fury x che ovviamente hanno qualcosa di strano :asd:
Non ho capito se sono giochi diversi oppure no . Mai cagata quella serie , ma cmq dovrebbero avere il solito engine oppure no?
http://uploads.tapatalk-cdn.com/20161006/dd33ab72f23df5fae3a448f879fc38a4.jpghttp://uploads.tapatalk-cdn.com/20161006/4ab8e1b54066b0f17d950089493bc009.jpg
Spiegaci questo allora!
https://s17.postimg.org/8q7owf96n/egosearch.png
:asd:
Io sono come il pelo di txxx, trascino tutto e tutti e sono dappertutto, anche nel crodino!
fraussantin
06-10-2016, 21:44
E non ci arrivi da solo che evidentemente c'è qualcosa che non torna?
Magari i driver o che so altro.
Certo questo si era capito , ma il diverbio è nato dallo screen dove va male , e cmq si è detto subito , almeno io ,che era da risolvere.
MrBrillio
06-10-2016, 21:55
Non ho capito se sono giochi diversi oppure no . Mai cagata quella serie , ma cmq dovrebbero avere il solito engine oppure no?
Sì sono 2 giochi diversi. Uno è il primo remastered che è uscito quest'anno qualche mese fa, L'altro è il 4 che esce tra stanotte e il 10.
Il primo è fatto con l'unreal engine 3, questo con il 4 ;)
C'è anche da dire che con le ultime patch anche la ultimate edition è diventata molto più giocabile rispetto alle prime settimane di uscita...gears 4 invece sembra già uscire abbastanza ottimizzato :D
mikael84
06-10-2016, 23:06
Scusa ma che ha la fury che non va bene?
Sarò scemo ma in quelle prove mi sembra appena sotto la 980ti come è sempre stata... no?
Cioè a parte in quelle dove anche una 8800gt risulta più veloce di una fury x che ovviamente hanno qualcosa di strano :asd:
Quella non è una 980ti:p
https://abload.de/img/gggoqsuw.png
Una 980ti (titan nello screen ma è uguale) lavora in base alle custom a 1400 ed in OC tra i 1450-1550.
In 4k ad esempio sale il peso ed aumenta il downclock (si superano i 275watt).
Una 980ti media di pari clock Asic 69% sta sui, poco meno/poco più i 1500mhz.:)
sarà ma chi ne continua a parlare sono i verdi nei thread verdi, che caso eh? :mc: :sofico: nei thread rossi invece la usano per giocare, incredibbbbbile!!!! stile il calabrone, non sa che non può volare ma lo fa :asd:
caro trollare asdasd
disgraziatamente e senza offendere mi sono avventurato nel consigliare una 970 usata in un quesito posto su thread rosso da un tizio confuso; mi hanno affettuosamente linciato settimane or sono.
Oltre ad avere capito che ho davvero poco da dire da quelle parti per quante battute tu possa leggere sulla furia ics da parte mia,
fidati piace infinitamente piu a voi parlare delle verdi in zona rossa :p
fireradeon
07-10-2016, 15:32
Non ho capito se sono giochi diversi oppure no . Mai cagata quella serie , ma cmq dovrebbero avere il solito engine oppure no?
Mah, misteri della fede dell'ottimizzazione! :rolleyes:
appleroof
11-10-2016, 10:41
http://videocardz.com/63764/editorial-nvidia-geforce-20-series
Interessante la 2080 prospettata, con la presenza di Vincent Vega poi potrebbe avere un prezzo "concorrenziale" rispetto a quelli attuali
dejavu fermi refresh,
di solito sono delle bombe atomiche questi affinamenti :fagiano:
mikael84
11-10-2016, 11:29
http://videocardz.com/63764/editorial-nvidia-geforce-20-series
Interessante la 2080 prospettata, con la presenza di Vincent Vega poi potrebbe avere un prezzo "concorrenziale" rispetto a quelli attuali
Ti riferisci a quella su GP102?
Se è quella purtroppo non si può realizzare con quel bus (ancora non riescono ad azzeccare un collegamento nelle stime).
Per collegare il 320bit devi avere o 4 GPC più uno di collegamento (2560cc) o 5 GPC e relativo collegamento (3200cc).
Si potrebbe lavorare meglio sulle fasce inferiori però.:)
fireradeon
11-10-2016, 13:29
Ma quindi per avere le memorie HBM2 dovremo aspettare fine 2017? Per me sarebbe perfetto, perchè pensavo di cambiare fine 2017 inizio 2018.
Le refresh non mi interessano affatto.
Oh maronnO! Ste hbm che patema :asd:
mikael84
11-10-2016, 13:47
Ma quindi per avere le memorie HBM2 dovremo aspettare fine 2017? Per me sarebbe perfetto, perchè pensavo di cambiare fine 2017 inizio 2018.
Le refresh non mi interessano affatto.
Sui chip gaming non ci saranno le HBM ma ddr5x o ddr6 (rispettivamente 12/14 (16) gb/s).;)
fireradeon
11-10-2016, 14:04
Sui chip gaming non ci saranno le HBM ma ddr5x o ddr6 (rispettivamente 12/14 (16) gb/s).;)
Ah vabbè allora amen. :)
Ah vabbè allora amen. :)
non è che queste hbm rivoluzionino chissà cosa, poteva essere qualcosa di estremamente valido e un buon salto di step quando l'unica scelta erano le gddr5 a 7000, sotto ilf attore banda si è fatto già un discreto salto con le attuali gddr5x 10gb/s e con le imminenti ggdr5x/gddr6 a 12-14 e addirittura 16gb/s mi sembra che anche lo step si sia ridotto al nulla cosmico
una cosa che mi sono sempre chiesto: ma le HBM rispetto alle gddr5 o gddr5x al di là della banda offerta, hanno anche una latenza inferiore da poterne vedere l'effetto all'atto rpatcio o siamo sempre nello stesso ordine indicativamente?
appleroof
11-10-2016, 15:56
Ti riferisci a quella su GP102?
Se è quella purtroppo non si può realizzare con quel bus (ancora non riescono ad azzeccare un collegamento nelle stime).
Per collegare il 320bit devi avere o 4 GPC più uno di collegamento (2560cc) o 5 GPC e relativo collegamento (3200cc).
Si potrebbe lavorare meglio sulle fasce inferiori però.:)
si mi riferivo a quella*, ma anche 3200cc non sarebbero male rispetto alla 980ti :)
*la 2080 qui sotto
https://abload.de/img/dcdepfuza.jpg
mikael84
13-10-2016, 13:57
si mi riferivo a quella*, ma anche 3200cc non sarebbero male rispetto alla 980ti :)
*la 2080 qui sotto
La vedo difficile, penso di più ad una ipotesi come la prima, ovvero qualche mhz in più e l'adozione di memorie più spinte 12gb/s. In fin dei conti si spera anche in un abbasso dei prezzi.
Molto dipenderà anche da Volta, se tale chip non cambia il processo produttivo, il chippone arriverà ad includere il 6° TPC (4608cc), ed un GV104 si assesterà sui 3072cc con magari migliorie interne istruzionali e clock.
Purtroppo i chip gaming dipendono dal full.:) :)
La vedo difficile, penso di più ad una ipotesi come la prima, ovvero qualche mhz in più e l'adozione di memorie più spinte 12gb/s. In fin dei conti si spera anche in un abbasso dei prezzi.
Molto dipenderà anche da Volta, se tale chip non cambia il processo produttivo, il chippone arriverà ad includere il 6° TPC (4608cc), ed un GV104 si assesterà sui 3072cc con magari migliorie interne istruzionali e clock.
Purtroppo i chip gaming dipendono dal full.:) :)
3072cc su GV104, già sbavo :asd: era quanto mi aspettavo/speravo succedesse con pascal all'inizio, speriamo che tra un annetto sia la volta buona :fagiano:
mikael84
13-10-2016, 15:31
3072cc su GV104, già sbavo :asd: era quanto mi aspettavo/speravo succedesse con pascal all'inizio, speriamo che tra un annetto sia la volta buona :fagiano:
Teoricamente si può produrre un chip così già ora, ma bisogna tenere conto del chip full ed attualmente non sono riusciti ad andare oltre quella soglia. GP107 sarà già in 6 TPC.
La sola adozione di SM nel GPC non si prende molto spazio, il problema sono altri come cache e rop's.
Il problema sta nell'efficienza e nei clock che devono rientrare sotto certi parametri.
Altrimenti pensa che si potrebbe costruire un 5120cc su un totale di 550mmq2 spaccati.
Praticamente 91mmq2 per GPC, maxwell era sui 100mmq2 a GPC.
Quindi Volta GP104 si assesterà su 3072/3584cc con 16gb di ram 12gb/s o 14 gb/s ma il tutto verrà purtroppo basato su GV110.
Difficile a a pari PP tiri fuori 5120cc, a meno che non levino parte delle TMU solo per quel chip per dedicargli più cuda liberi.:)
VanCleef
18-10-2016, 15:28
comodo fare la slide con il confronto 650 vs 1050 :D
mikael84
19-10-2016, 14:38
:asd:
va beh quella è l'oste ovvio, tutti sparano minkiate.
la 1050ti dovrebbe andare intorno ad un +25~30% dalla 950, circa come la 380.
la 1050 circa come la 950/460.
tom's spara la sfida alla 470, ma direi che la 1050ti è un gradino sotto, da sola.
460~1050 100~120€
1050ti 150~160€
470 190~200€
...
dovrebbe essere così e di fatto i prezzi sono quelli.
sono tutte sovraprezzate di 50€ a mio parere
1050TI/960.
Forse recupera tra compressione 2:1 e miglior gestione dei colori in 8:1 e 4:1, ma a 1600 è in linea di calcolo con una 960 a 1200.
In base ai clock raggiunti la 960 può pure passarla.
Le rop's sono 32 per collegamento e 16 elaborate.
Unica nota positiva è l'utilizzo del 6 TPC.:)
mikael84
19-10-2016, 15:39
1050ti: nvidia e i test leaked dicono +30% dalla 950 e +10% dalla 960, quindi come la 380, la 960 è leggermente sotto, di un 10% infatti anche nella tabella TPU.
1050: nvidia la confronta alla 650, mah... non ci sono leaked, ma dovrebbe essere in linea con la 460, un pelo sopra la 950.
comunque dai clock finali ed il TDP (1050 vs 460 stesso TDP), sopratutto vedremo l'OC che al 99% saranno più bassi di parecchio dalle sorelle maggiori, per davvero il silicio tsmc è superiore a quello samsung/gf...
non capisco tom's come fa a dire che la 1050ti impensierisce la 470, e comunque ci ballano 50€... ma forse lo so
Dipende dai clock finali.
A 1550, valore medio delle 960 devi lavorare a 2050 con la 1050TI e rispetto quest'ultima mantiene anche un valore in rop's ben più elevato (queste 1050 partono molto molto basse).
La differenza saranno i clock, come tra 1070 e 980ti.
Sicuramente parte meglio della 960 default, anche per via della migliore compressione in banda che in alcuni giochi può agevolare.
Cmq non male, ed il bus permette di utilizzare 4gb non 3gb come gli MC da 512 della 1060 cut (uno schifo).:rolleyes:
mikael84
19-10-2016, 16:10
il problema non è che partono basse, è che non saliranno come le altre, vedremo le prove sull'OC ma se quelli sono i clock default...
il silicio come si vede conta, e alla serie 400 mancano appunto quei 200mhz sugli 1~1.1V
ma io credo che la 1050ti supererà in scioltezza la 960.
perché uno schifo?
valore medio per la 960 1550mhz, alla faccia che OC! :sofico:
Le 960 salivano come nulla, 1500-1550 , già le custom come evga boostava a 1450, + altri 100/105 li tiravi fuori, mi hanno benchato nel 3dmark anche a 1580.:)
https://www.techpowerup.com/reviews/EVGA/GTX_960_SSC_ACX_Cooler/33.html
La 1050 batterà la 960 in base ai clock di base, perchè ricordati che la 960 ha molti più stadi moltiplicatori.
Per pareggiare quella EVGA custom servono 1950 mhz, considerando che la prima ha 32 rop's, l'altra 16.
Queste Pascal se la giocano tutto li.
Chiaramente a defaul cambia tutto, perchè la 960 con i downclock sta sui 1150 e l'altra già da soli 1600 la passa, in più aggiungi il fattore banda ed ecco che a default la passi facile.
La memoria di 4gb è ottima, quella che non mi piace è la 1060 da 3gb, meglio utilizzare lo stesso bus ed MC da 1gb e magari levargli qualche CC che lanciarla con soli 3gb.
Oggi minimo 4 servono.;)
come news verde abbia nintendo switch ,
phablet/console con un tegra non specificato con la dock per casa, cartucce, aggeggi estraibili strani bho vedremo :stordita:
come news verde abbia nintendo switch ,
phablet/console con un tegra non specificato con la dock per casa, cartucce, aggeggi estraibili strani bho vedremo :stordita:
Mica caxxi! Pistoni!!!
Io mi sa proprio me la compro, solo perchè c'è nvidia :O
I rumors davano tegra x1, ma sul sito nvidia parla specificatamente di tecnologia derivata da pascal, ergo tegra x2.
Per capirci tegra x1 era a livello di 360 (o poco sopra) come performance, quindi possiamo aspettarci qualcosa di un po più potente di una 360.
Però portatile.
I rumors davano tegra x1, ma sul sito nvidia parla specificatamente di tecnologia derivata da pascal, ergo tegra x2.
Per capirci tegra x1 era a livello di 360 (o poco sopra) come performance, quindi possiamo aspettarci qualcosa di un po più potente di una 360.
Però portatile.
L'X1 asfalta la x360. Parliamo del doppio dei flops su una architettura anni luce avanti, quindi di per se inconfrontabile come numeri.
X2 è un tantino eccessivo come potenza CPU rispetto ad una Xbox One o PS4. Un aumento dei CUDA è auspicabile su una soluzione custom.
Curioso di vedere se hanno adottato soluzioni custom per contenere la BW, come ad esempio l'uso di esram...
Teoricamente con una risoluzione che si vocifera di 720p (tablet mode) raggiungere una Xbox One non è molto difficile...
https://tpucdn.com/reviews/MSI/GTX_1060_Gaming_X_3_GB/images/perfrel_1920_1080.png
1050ti: nvidia e i test leaked dicono +30% dalla 950 e +10% dalla 960, quindi come la 380, la 960 è leggermente sotto, di un 10% infatti anche nella tabella TPU.
1050: nvidia la confronta alla 650, mah... non ci sono leaked, ma dovrebbe essere in linea con la 460, un pelo sopra la 950.
comunque dai clock finali ed il TDP (1050 vs 460 stesso TDP), sopratutto vedremo l'OC che al 99% saranno più bassi di parecchio dalle sorelle maggiori, per davvero il silicio tsmc è superiore a quello samsung/gf...
non capisco tom's come fa a dire che la 1050ti impensierisce la 470 ("GTX 1050 e GTX 1050 Ti sfidano le proposte RX 460 e RX 470 di AMD"), e comunque ci ballano 50€... ma forse lo so
Stai parlando di tomshardware, il sito talmente fanboy verde da essere esagerato per i fanboy verdi stessi
Inviato dal mio XT1092 utilizzando Tapatalk
Foglia Morta
21-10-2016, 09:20
L'X1 asfalta la x360. Parliamo del doppio dei flops su una architettura anni luce avanti, quindi di per se inconfrontabile come numeri.
X2 è un tantino eccessivo come potenza CPU rispetto ad una Xbox One o PS4. Un aumento dei CUDA è auspicabile su una soluzione custom.
Curioso di vedere se hanno adottato soluzioni custom per contenere la BW, come ad esempio l'uso di esram...
Teoricamente con una risoluzione che si vocifera di 720p (tablet mode) raggiungere una Xbox One non è molto difficile...
Chi ci sta lavorando dice diversamente:
https://forums.anandtech.com/threads/nintendo-switch-is-powered-by-nvidia.2481278/page-21#post-38530671
https://forums.anandtech.com/threads/nintendo-switch-is-powered-by-nvidia.2481278/page-21#post-38530689
https://forums.anandtech.com/threads/nintendo-switch-is-powered-by-nvidia.2481278/page-22#post-38530736
https://forums.anandtech.com/threads/nintendo-switch-is-powered-by-nvidia.2481278/page-22#post-38530757
https://forums.anandtech.com/threads/nintendo-switch-is-powered-by-nvidia.2481278/page-22#post-38530784
io vedo gia quei cosi sganciabili nelle mani dei mie nipoti che le fanno volare chi sa dove :doh:
spero siano molto resistenti :asd:
Chi ci sta lavorando dice diversamente:
https://forums.anandtech.com/threads/nintendo-switch-is-powered-by-nvidia.2481278/page-21#post-38530671
https://forums.anandtech.com/threads/nintendo-switch-is-powered-by-nvidia.2481278/page-21#post-38530689
https://forums.anandtech.com/threads/nintendo-switch-is-powered-by-nvidia.2481278/page-22#post-38530736
https://forums.anandtech.com/threads/nintendo-switch-is-powered-by-nvidia.2481278/page-22#post-38530757
https://forums.anandtech.com/threads/nintendo-switch-is-powered-by-nvidia.2481278/page-22#post-38530784
Non è che mi fido molto dei pareri di random users su anandtech.
In ogni caso X1 fa girare hl2 e doom 3 a 1080p, da x2 probabilmente ci si può aspettare qualcosina in più, specie visto che passiamo da 28 a 16 (14?) nm.
Foglia Morta
21-10-2016, 10:39
Non è che mi fido molto dei pareri di random users su anandtech.
In ogni caso X1 fa girare hl2 e doom 3 a 1080p, da x2 probabilmente ci si può aspettare qualcosina in più, specie visto che passiamo da 28 a 16 (14?) nm.
Ma infatti è un game developer quello... credi a ciò che preferisci ;)
Legolas84
21-10-2016, 10:58
In fondo ognuno di noi crede un po' quello che preferisce :asd:
Poi però ci sono i dati oggettivi...
Inviato dal mio ONE A2003 utilizzando Tapatalk
Ma infatti è un game developer quello... credi a ciò che preferisci ;)
Anche io posso dirti di essere un game developer e scriverlo su anandtech.
Anche se fosse vero posso dirti di lavorare su x ed y, e magari non è vero (quanti ex dipendenti valve o rockstar hanno tirato fuori conclusioni poi rivelatesi false)?
In fondo ognuno di noi crede un po' quello che preferisce :asd:
Poi però ci sono i dati oggettivi...
Inviato dal mio ONE A2003 utilizzando Tapatalk
Di cui al momento sappiamo poco e nulla.
Legolas84
21-10-2016, 11:28
Di cui al momento sappiamo poco e nulla.
Esatto, ma sono curioso riguardo la scelta di Nintendo di affidarsi a NVIDIA... Anche perchè dubito che qui chip gli costino poco, visto che NVIDIA non ha mai avuto interesse a vendere a basso margine (piuttosto storicamente non vende).
Inviato dal mio ONE A2003 utilizzando Tapatalk
Foglia Morta
21-10-2016, 12:26
Anche io posso dirti di essere un game developer e scriverlo su anandtech.
Anche se fosse vero posso dirti di lavorare su x ed y, e magari non è vero (quanti ex dipendenti valve o rockstar hanno tirato fuori conclusioni poi rivelatesi false)?
Tu però non puoi dimostrare di aver dato informazioni corrette nel corso degli anni... la reputazione non te la crei con due post scritti a caso.
ci sarà un motivo se risulta credibile e scrive da anni.
comunque vorrei sapere cosa pensano adesso tutti quelli che dicevano che nvidia non voleva entrare nel mercato console, ecc, ecc... :asd:
per citare Veradun:
"Poveri fanboy, anni a dire idiozie e tutto d'un colpo sputtanati per sempre :asd:"
http://www.hwupgrade.it/forum/showpost.php?p=44142233&postcount=3
Tradizionalmente tra i 3 produttori è proprio Nintendo quella con il braccino più corto quando c' è da spendere sull' hardware. Comunque vedendo nintendo switch torna in mente il prototipo di amd project discovery con mullins ( gennaio 2014 ):
http://static.gamespot.com/uploads/original/1156/11564957/2413728-4441099539-BVZ9Y.png
scegliendo nvidia ha scelto arm. secondo me a sto giro amd ha perso o perchè ha posticipato K12 o perchè nvidia ha offerto un pacchetto hardware + software a prezzo più basso... oppure perchè, trattandosi di piattaforma mobile, per raggiungere un certo performance/watt che potesse accontentare nintendo con amd forse c'era d'attendere più tempo ( non si cambia una roadmap per un produttore che vuole spendere molto poco sull' hardware ).
Esatto, ma sono curioso riguardo la scelta di Nintendo di affidarsi a NVIDIA... Anche perchè dubito che qui chip gli costino poco, visto che NVIDIA non ha mai avuto interesse a vendere a basso margine (piuttosto storicamente non vende).
Inviato dal mio ONE A2003 utilizzando Tapatalk
Nvidia offre la soluzione mobile ARM più potente graficamente e con miglior rapporto prestazioni/prezzo. AMD non ne ha nemmeno una, quindi difficile pensare alla concorrenza quando la concorrenza non offre niente del genere.
Similmente la scelta delle APU AMD per One e PS4 era quasi obbligata (per contenere i costi dell'hardware) visto che Nvidia non offre APU.
Legolas84
21-10-2016, 12:33
Nvidia offre la soluzione mobile ARM più potente graficamente e con miglior rapporto prestazioni/prezzo. AMD non ne ha nemmeno una, quindi difficile pensare alla concorrenza quando la concorrenza non offre niente del genere.
Similmente la scelta delle APU AMD per One e PS4 era quasi obbligata (per contenere i costi dell'hardware) visto che Nvidia non offre APU.
Probabilmente un'apu in questo caso non sarebbe stata adeguata per il versante mobile? Non so.... sono curioso di vedere come va a finire :D
E sono anche curioso di vedere che tipo di accordo Nintendo ha siglato con NVIDIA....
due case che fanno la stessa cosa lato gpu,
ma prendono strade diverse per cpu, vedo avvantaggiata la verde con arm
intel ne sa qualcosa su come vada x86 mobile :asd:
potresti essere più preciso? quanti watt ciuccia?
perché arrivare a 1.35TF di potenza complessiva, anche se a 14nm vs 28nm e dopo +3 anni dal lancio (ok la S è shrinkata a 14nm e consuma 40watt meno, circa -45%) mi pare un "bel po'" per un tablet.
ps. confronti arm vs x86, con tutti i pro e contro che ne derivano.
detto questo mi pare un prodotto interessante questo switch!
https://en.wikipedia.org/wiki/Tegra#Tegra_X2
Le specifiche sono ignote. Ho detto solo che potenzialmente è fattibile raggiungere la xbox one su 720p per un chip mobile nvidia Custom, magari con esram.
Il problema è il braccino corto di Nintendo.:sofico:
Più che altro confronto CPU decisamente più wide di un jaguar, come gli a57 ed il nuovo Denver (vliw software OoO).
comunque vorrei sapere cosa pensano adesso tutti quelli che dicevano che nvidia non voleva entrare nel mercato console, ecc, ecc... :asd:
per citare Veradun:
"Poveri fanboy, anni a dire idiozie e tutto d'un colpo sputtanati per sempre :asd:"
http://www.hwupgrade.it/forum/showpost.php?p=44142233&postcount=3
Io sinceramente non ho mai seguito la vicenda, per me le console possono provenire anche dalla fabbrica del cioccolato.
Mi garbano le cose "ganze" e la switch sembra ganza, penso la comprerei anche se dentro ci fosse un pentium 3.
Chi ci sta lavorando dice diversamente:
https://forums.anandtech.com/threads/nintendo-switch-is-powered-by-nvidia.2481278/page-21#post-38530671
https://forums.anandtech.com/threads/nintendo-switch-is-powered-by-nvidia.2481278/page-21#post-38530689
https://forums.anandtech.com/threads/nintendo-switch-is-powered-by-nvidia.2481278/page-22#post-38530736
https://forums.anandtech.com/threads/nintendo-switch-is-powered-by-nvidia.2481278/page-22#post-38530757
https://forums.anandtech.com/threads/nintendo-switch-is-powered-by-nvidia.2481278/page-22#post-38530784
Se hanno risparmiato sulla bw delle memorie stiamo messi bene...:doh:
cmq i numeri delle nvidia non sono confrontabili direttamente con un vecchio GCN1. Le unità specializzate sgravano il lavoro della ALU ed inoltre la compressione della bw è molto spinta.
Esatto, ma sono curioso riguardo la scelta di Nintendo di affidarsi a NVIDIA... Anche perchè dubito che qui chip gli costino poco, visto che NVIDIA non ha mai avuto interesse a vendere a basso margine (piuttosto storicamente non vende).
Inviato dal mio ONE A2003 utilizzando Tapatalk
Se nintendo ha optato per il risparmio assoluto (come fa di solito), possono anche avergli propinato un chippetto ridicolo da 80mm2.
Nvidia offre la soluzione mobile ARM più potente graficamente e con miglior rapporto prestazioni/prezzo. AMD non ne ha nemmeno una, quindi difficile pensare alla concorrenza quando la concorrenza non offre niente del genere.
Similmente la scelta delle APU AMD per One e PS4 era quasi obbligata (per contenere i costi dell'hardware) visto che Nvidia non offre APU.
Nvidia ha soprattutto il miglior rapporto performance/consumi che in una tablet è indispensabile...
http://images.anandtech.com/doci/8811/NVPower2_575px.jpg
Il vecchio X1(downclock) vs powerVR (apple a8x) entrambi con 20nm e medesime performance.
Le specifiche sono ignote. Ho detto solo che potenzialmente è fattibile raggiungere la xbox one su 720p per un chip mobile nvidia Custom, magari con esram.
Il problema è il braccino corto di Nintendo.:sofico:
Più che altro confronto CPU decisamente più wide di un jaguar, come gli a57 ed il nuovo Denver (vliw software OoO).
Che significa raggiungere xbox one a 720p?
Comunque scusa, ma raggiungere one con dispositivi mobile? forse fra 5-6 anni, non meno.
Non scordiamoci che tegra x1 è all'incirca la fusione di un quad core mobile + una "gpu" che è all'incirca un quarto la potenza di una nvidia 950, ma sono calcoli teorici che non tengono conto delle grosse limitazioni lato memoria.
Che significa raggiungere xbox one a 720p?
Comunque scusa, ma raggiungere one con dispositivi mobile? forse fra 5-6 anni, non meno.
Non scordiamoci che tegra x1 è all'incirca la fusione di un quad core mobile + una "gpu" che è all'incirca un quarto la potenza di una nvidia 950, ma sono calcoli teorici che non tengono conto delle grosse limitazioni lato memoria.
Ti dimentichi che la GPU di xbox è una piaga da 1.3teraflops.
Al glbenchmark manhattan/car chase un X1(20nm) fa la metà dei frame di una HD7770 che ha il triplo della BW ed un processore x86(desktop) sotto il cofano. (aggiungo 512gflop vs 1300)
Raggiungere quel livello di performance con Lpddr4 128bit,esram e 384/512 Cuda non mi sembra un traguardo difficile, considerando il balzo offerto dal Finfet.
Il 720p ha un buon 30% di pixel in meno del 900p usato dalla One, quindi serve ancora meno potenza per offrire una resa "comparabile".
Più che altro dubito che Nintendo proponga una soluzione così performante, data la sua nota tirchieria.
Alcuni rumor parlano di specifiche da X1(devkit) con 4GB per andare al risparmio...:doh:
ps. ipad pro è il 50% più veloce del X1 ed usa un powerVR 14nm
Schema inaspettato per la 1050ti.
Rimangono i due GPC della 1060, ma si riducono fortemente i CUDA core.
Per i feticisti del silicio in overclock raggiunge i 1911 mhz . (forse c'è un bug software sul clock massimo ottenibile)
http://cdn.wccftech.com/wp-content/uploads/2016/10/NVIDIA-GP107-GPU-SM.png
mikael84
25-10-2016, 17:08
Schema inaspettato per la 1050ti.
Rimangono i due GPC della 1060, ma si riducono fortemente i CUDA core.
Per i feticisti del silicio in overclock raggiunge i 1911 mhz . (forse c'è un bug software sul clock massimo ottenibile)
Pensavo un 6 TPC diretto via raster più collegamento.
Un lato positivo però c'è, riesce a mantenere 24 rop's, e non 16. Logicamente la 1050 liscia cala a 20 rop's.
Non male, la 1050ti per la fascia è sola.
https://tpucdn.com/reviews/MSI/GTX_1050_Ti_Gaming_X/images/perfrel_1920_1080.png
RedPrimula
25-10-2016, 18:46
Pensavo un 6 TPC diretto via raster più collegamento.
Un lato positivo però c'è, riesce a mantenere 24 rop's, e non 16. Logicamente la 1050 liscia cala a 20 rop's.
Non male, la 1050ti per la fascia è sola.
[IMG]https://tpucdn.com/reviews/MSI/GTX_1050_Ti_Gaming_X/images/perfrel_1920_1080.png[IMG]
Nvidia si ritroverà costretta a rivedere i prezzi delle 1060 da 6/3gb, visto che ad amd basterà, come già annunciato, abbassare il prezzo della 470 per dominare in quella fascia...
Pensavo un 6 TPC diretto via raster più collegamento.
Un lato positivo però c'è, riesce a mantenere 24 rop's, e non 16. Logicamente la 1050 liscia cala a 20 rop's.
Non male, la 1050ti per la fascia è sola.
https://tpucdn.com/reviews/MSI/GTX_1050_Ti_Gaming_X/images/perfrel_1920_1080.png
La scheda (occata) del test, costa quanto una 470 comunque..
C'è un abisso con la 470.
La scheda (occata) del test, costa quanto una 470 comunque..
C'è un abisso con la 470.
Certo nvidia ora si trova accavallata la 1050ti e la 1060 3gb
E ti ritrovi a scegliere "+ potenza o + vramme?"
Estica...
Obbiusliiiii, viulenZZZZ!!!!! https://m.youtube.com/watch?v=RtVzS4FINXo
Certo nvidia ora si trova accavallata la 1050ti e la 1060 3gb
E ti ritrovi a scegliere "+ potenza o + vramme?"
Estica...
Obbiusliiiii, viulenZZZZ!!!!! https://m.youtube.com/watch?v=RtVzS4FINXo
Non ti seguo, constatavo un fatto. MSI ha lanciato questa scheda a 169 dollari che è il prezzo delle 470.
La 1050ti liscia viene 139 dollari (30 dollari in meno della 470), a fronte di una differenza di prestazioni del 30 % circa secondo molte testate.
La 1050 mi piace però, la 460 rimarrà sullo scaffale per parecchio.
Non ti seguo, constatavo un fatto. MSI ha lanciato questa scheda a 169 dollari che è il prezzo delle 470.
La 1050ti liscia viene 139 dollari (30 dollari in meno della 470), a fronte di una differenza di prestazioni del 30 % circa secondo molte testate.
La 1050 mi piace però, la 460 rimarrà sullo scaffale per parecchio.
Ho fatto un giro veloce su trovaprezzi adesso
Senza stare ad aspettare le disponibilità
Prova a fare search con 1060 3gb, la 1050 ti msi gamig x 4g, e la rx 470
La 470 é la reginetta di questa fascia. Purtroppo nvdia non poteva scontrarsi in quel segmento. Perché la 1060 3gb è vicinissima.
Inviato dal mio LG-D802 utilizzando Tapatalk
le nuove 1050,
sono quanto di meglio fatto in passato in questa fascia.
In offerta a 130 la Ti sarebbe da non perdere piu giu per la liscia
la 950 diventa una scheda inutile visto anche il prezzo sopra le 100 al quale è proposta
devil_mcry
26-10-2016, 10:00
La scheda (occata) del test, costa quanto una 470 comunque..
C'è un abisso con la 470.
C'è da dire che paragoni schede nuove contro schede sul mercato da 4-5mesi. Il prezzo credo che si assesterà al ribasso ma certo è che se costano uguale non convengono
Comunque non capisco perché nVidia dovrebbe rivedere i prezzi della 1060 6GB che è più veloce di una 480 8GB e costa meno... se lo fa ben per tutti ma mi sfugge il motivo logico lol
C'è da dire che paragoni schede nuove contro schede sul mercato da 4-5mesi. Il prezzo credo che si assesterà al ribasso ma certo è che se costano uguale non convengono
Comunque non capisco perché nVidia dovrebbe rivedere i prezzi della 1060 6GB che è più veloce di una 480 8GB e costa meno... se lo fa ben per tutti ma mi sfugge il motivo logico lol
Costa meno? Non è che un errore su amazon diventa lo street price ufficiale
Vedo 1060 custom a 330€ eh
OvErClOck82
26-10-2016, 10:34
Alcune costano meno altre di più... In generale le differenze sia prestazionali sia di prezzo sono abbastanza trascurabili.. Le altre affermazioni sono roba da fanboy ("prende gli schiaffoni" :asd: )
Inviato dal mio iPhone utilizzando Tapatalk
maxmix65
26-10-2016, 10:37
Costa meno? Non è che un errore su amazon diventa lo street price ufficiale
Vedo 1060 custom a 330€ eh
Io la vedo a 276€ su amazon it la 6gb GF1060GTX6GEPB
Parlate di tutto ma di prezzi meglio lasciar perdere:D
Oppure non ce' altro di cui parlare???
OvErClOck82
26-10-2016, 11:00
Io la vedo a 276 su amazon it la 6gb GF1060GTX6GEPB
Parlate di tutto ma di prezzi meglio lasciar perdere:D
Oppure non ce' altro di cui parlare???
E quindi ? Io ho preso una 480 8gb a 250, ma mica dico che come scheda costa meno in generale.. A prezzi siamo lì... La 1060 ha un ventaglio maggiore, le 480 son comprese in un Delta euri minore.. Ma non siamo parlando di 300 euro vs 150 :D
Inviato dal mio iPhone utilizzando Tapatalk
devil_mcry
26-10-2016, 11:01
Costa meno? Non è che un errore su amazon diventa lo street price ufficiale
Vedo 1060 custom a 330€ eh
:asd: Su Amazon PNY custom a 276€, Palit Custom 285€, Gigabyte Custom 296€, Asus Custom 303.
E non ho contato la Zotac mini sempre da 6gb a 278.
Su trovaprezzi partono da 250-260. Le 480 8gb costano tutte una ventina di euro in più in media.
devil_mcry
26-10-2016, 11:03
E quindi ? Io ho preso una 480 8gb a 250, ma mica dico che come scheda costa meno in generale.. A prezzi siamo lì... La 1060 ha un ventaglio maggiore, le 480 son comprese in un Delta euri minore.. Ma non siamo parlando di 300 euro vs 150 :D
Inviato dal mio iPhone utilizzando Tapatalk
Il prezzo medio per le custom delle 1060 è di una 20ina di euro a favore della 1060, sulla 480 8gb ovviamente, oltre al fatto che va un pelino di più. Fuori da Amazon i prezzi sono ovviamente più bassi.
Non cambia la vita, ma mi chiedo come mai secondo l'autore del post sopra nVidia dovrebbe abbassare il prezzo di una scheda che non costa più dell'altra e non è meno veloce...
Strix base 1060 330 su eprice
Strix oc 480 313 senpre su eprice
Ergo
Costano uguali, i 10-20€ non li considero un delta prezzo rilevante poi che di nvidia ci siano quattordimila modelli e quindi puoi trovare l'offerta siamo tutti d'accordo (2gb di ddr5 in più costano :ciapet: )
Strix base 1060 330 su eprice
Strix oc 480 313 senpre su eprice
Ergo
Costano uguali, i 10-20 non li considero un delta prezzo rilevante poi che di nvidia ci siano quattordimila modelli e quindi puoi trovare l'offerta siamo tutti d'accordo (2gb di ddr5 in più costano :ciapet: )
Seeee proprio la strix, la scheda + inutile de lu munnu
Mavadavailcu' :O
Tiratela meno!!!
mikael84
26-10-2016, 11:37
La scheda (occata) del test, costa quanto una 470 comunque..
C'è un abisso con la 470.
60mhz di OC su schede da 250/300 mhz facili facili è una bazzecola, le prestazioni sono quelle.;)
Chiaramente non mi riferivo ai prezzi (che neppure conosco) ma al fatto che ad AMD potrebbe tornare utile una scheda a cavalo tra 460/470.
non capisco perché nella tabella consumi non inseriscano la 460 :stordita:
l'unico motivo per cui qualcuno dovrebbe scegliere la 460 sarebbe per i 4GB di ram di alcuni modelli, ma non ne sono sicuro: 2GB di ram ormai non sono troppo pochi anche per queste schede?
180€ per la 1050ti è pura follia, così come 140€ per la 1050 da 2GB... ma sono appena uscite meglio aspettare.
Io che ho certe esigenze non prenderei schede con meno di 4gb. Quasi due anni fa ho dovuto mollare lo SLI di 780 per la ram (io come tanti).
Se si vuole risparmiare le schede da 4gb sono ok, se si vuole spendere qualcosa in più meglio andare direttamente di 1060 6gb o 480 8gb.
2gb sono pochissimi ma parliamo di schede dove i compromessi sono obbligatori. Se la differenza è minima, meglio puntare a modelli con più ram.;)
Seeee proprio la strix, la scheda + inutile de lu munnu
Mavadavailcu' :O
Tiratela meno!!!
Ma se ci piloti due ventole con quella vga, risparmi sul rheobus asdasd
Ma se ci piloti due ventole con quella vga, risparmi sul rheobus asdasd
Sì mo' ci metto due d5 24v in serie! :O
Te capì pirletti!!!!
http://www.trovaprezzi.it/categoria.aspx?id=28&libera=gtx+1060&page=6&sort=Prezzo&sortdir=0
http://www.trovaprezzi.it/categoria.aspx?id=28&libera=gtx+1060&page=6&sort=Prezzo&sortdir=0
Ahahahha ieri le trovavo a 200€ le 3gb auahhahahah
Ahahahha ieri le trovavo a 200€ le 3gb auahhahahah
ti dedico questo modello asdasd
90YV09X3-M0NA00
ti dedico questo modello asdasd
90YV09X3-M0NA00
:asd:
killeragosta90
26-10-2016, 14:40
ti dedico questo modello asdasd
90YV09X3-M0NA00
LOL :sofico:
maxmix65
26-10-2016, 14:41
Ahahahha ieri le trovavo a 200€ le 3gb auahhahahah
costano menooo..
184€ la Inno N1060-2DDN-L5GN
Non sapevo che Eprice era riferimento dei negozi..porcazozza non si finisce mai di imparare ...:cool:
Ma non ho capito, la 1050ti io pensavo andasse vs la 470, ma alla fine è na via di mezzo tra 460 e 470
Però se la vendono a 169 siam al limite, a 189 trovi la 1060 3g e se tagliano la 470... Chi se la :ciapet:?
mikael84
26-10-2016, 15:30
Ma non ho capito, la 1050ti io pensavo andasse vs la 470, ma alla fine è na via di mezzo tra 460 e 470
Però se la vendono a 169 siam al limite, a 189 trovi la 1060 3g e se tagliano la 470... Chi se la :ciapet:?
Sono letteralmente le eredi delle 750 (ti). Non 950 occhio.:)
alla buon ora :D di fatto c'era un rumors che parlava di una ipotetica 470SE per coprire quel buco, ma non si sa bene se solo per alcuni mercati o tutti.
sono appena uscite, dagli un mese e si assesteranno queste 1050/ti
Mi pare di aver letto esclusiva Cina. Cmq è pur sempre troppo potente, ci vorrebbe una scheda con raster in meno.
Sono letteralmente le eredi delle 750 (ti). Non 950 occhio.:)
Mi pare di aver letto esclusiva Cina. Cmq è pur sempre troppo potente, ci vorrebbe una scheda con raster in meno.
Sì ma la 1050ti si trova culo a culo con la 1060 3gb... Cioè con 20€ in + cambiano molto le performance.
Mettendoti dal punto di vista del compratore, la 1050 liscia, erde della 750 liscia, va più che bene, come se al tempo avessero sfornato solo la 750ti con il prezzo della liscia...
Attendiamo la 470S, che anche secondo me uscirà troppo potente.
La cosa strana è che siamo già alla seconda review postata della 1050... Ma sul thread delle rx :stordita:
Non fa "strano"?
mikael84
26-10-2016, 17:39
Sì ma la 1050ti si trova culo a culo con la 1060 3gb... Cioè con 20€ in + cambiano molto le performance.
Mettendoti dal punto di vista del compratore, la 1050 liscia, erde della 750 liscia, va più che bene, come se al tempo avessero sfornato solo la 750ti con il prezzo della liscia...
Attendiamo la 470S, che anche secondo me uscirà troppo potente.
La cosa strana è che siamo già alla seconda review postata della 1050... Ma sul thread delle rx :stordita:
Non fa "strano"?
Bisogna farle assestare almeno un periodo. Chi prende queste schede, guarda anche i 30/40 euro, ma c'è anche chi le acquista come muletto, quindi la 1050 liscia e scrausa in casa verde va benissimo.
Rispetto alla 1050ti perde solo 128 cuda e 4 rop's, ok fa percentuale ma ti cambia poco, dove non ce la fa una non ce la fa l'altra.
Riguardo le review, apritene uno sul GP107 e postate li, in fin dei conti la 1050 è la diretta rivale della 460 (che nel thread si trova anche in una sezione sbagliata).
Bisogna farle assestare almeno un periodo. Chi prende queste schede, guarda anche i 30/40 euro, ma c'è anche chi le acquista come muletto, quindi la 1050 liscia e scrausa in casa verde va benissimo.
Rispetto alla 1050ti perde solo 128 cuda e 4 rop's, ok fa percentuale ma ti cambia poco, dove non ce la fa una non ce la fa l'altra.
Riguardo le review, apritene uno sul GP107 e postate li, in fin dei conti la 1050 è la diretta rivale della 460 [b] (che nel thread si trova anche in una sezione sbagliata).1/b]
"Ti piace vincere facile?" Cit.
:asd:
Free Gordon
26-10-2016, 21:33
Raggiungere quel livello di performance con Lpddr4 128bit,esram e 384/512 Cuda non mi sembra un traguardo difficile, considerando il balzo offerto dal Finfet.
512cuda pascal su un chip che dovrebbe consumare 3W...?? :sofico:
Con la 1050 che ne ha 640 e consuma 15 volte di più? Hmm mah... sei proprio sicuro??
512cuda pascal su un chip che dovrebbe consumare 3W...?? :sofico:
Con la 1050 che ne ha 640 e consuma 15 volte di più? Hmm mah... sei proprio sicuro??
Ben svegliato.:D
Ho parlato di resa "comparabile" ad una One considerando anche la risoluzione inferiore (720p).
Un ipad pro (A9X) al glbench fa più della metà (55 vs 90) dei fps di una gcn da 1.3TF (su intel x86). Una 1050 fa 200+fps.:p
Vuoi dirmi che pascal che è anni luce avanti alle powerVR non può performare abbastanza da far girare i giochi della One alla risoluzione di 720p ?
Sono prodotti molto diversi non devi prendere solo il numero dei cuda core.
Il clock è meno della metà.
Le memorie sono lpddr4 anch'essa alla metà del clock(anche meno).
Il numero di GPC e le rop's sono la metà.
Il supporto dell'esram è indispensabile per limitare il collo di bottiglia della BW.
Guarda una simile bestia è fattibile ma Nintendo ha il braccino talmente tirato che possono benissimo tirar fuori un X1 in versione castrato.:asd:
ps. eccoti lo scarto di efficienza frame to frame tra un Tegra X1 ed A8X entrambi 20nm senza Finfet.
http://images.anandtech.com/doci/8811/NVPower2_575px.jpg
http://images.anandtech.com/doci/8811/NVPower2_575px.jpg
Guarda che un A9x sta di fronte anche ad un i5 6400 montato su Surface Pro 4.
Non so da dove ti venga in mente l'idea che la SoC Nvidia sarà più veloce di A9x (che non a caso costa una valanga).
In parole povere A9X va più di Tegra X1.
Non so da dove ti venga in mente l'idea che la SoC Nvidia sarà più veloce di A9x (che non a caso costa una valanga).
In parole povere A9X va più di Tegra X1.
L'avevo fatto notare io stesso nel vecchio post per indicare i livelli di performance raggiunti dai SOC ;) . E' ovvio che A9X vada più veloce con Finfet 16nm ed il 50% di cluster in più(più mm2) di un vecchio X1 20nm.
Al tegra basta il finfet ed un bus analogo per superare A9X, infatti X2 ha subito solo modifiche minori al comparto GPU. (non ha nulla di custom)
Le GPU nvidia sono molto più efficienti delle PowerVR. A8X che ha lo stesso processo produttivo viene stracciato dal tegra X1.
A9X non è così costoso come credi, dato che conta 150mm2.
cmq ribadisco, non ho detto che Nintendo (l'avara :D ) adotterà una soluzione del genere, ma che è fattibile avvicinarsi al "livello della One" con un tablet Tegra Custom che gira sui 720p.
senza contare che la igpu di apple è a 16bit soltanto :asd:
Ti confondi con la mixed precision.:p Le PVR ha il rate doppio per i calcoli in FP16.
Gli shader unificati devono prevedere FP32 come precisione minima per i calcoli sui vertici.;)
https://imgtec.com/wp-content/uploads/2015/04/series7xt-usc.gif
Anche le nuove ARM vliw "sembrano" interessanti. Sono un ibrido, una sorta amd terascale con unità specializzate alla nvidia...
ah ok come non detto, ma avevo letto questo su novella 2000:
"In pratica il chip grafico integrato a partire dall'Apple A8 sarebbe una soluzione proprietaria di Apple. Kanter ha riscontrato infatti importanti differenze tra le architetture grafiche presenti negli ultimi chip Apple e quelle di Imagination Technologies, storico partner della Mela. L'hardware grafico di Apple sarebbe ad esempio basato su registri a 16-bit half-precision, mentre le architetture PowerVR supportano l'half-precision ma non ne richiedono l'uso.
Il vantaggio nell'usare la precisione a 16 bit non riguarderebbe le prestazioni ma l'efficienza. Con meno dati archiviati in un determinato registro sarebbe necessaria meno energia per spostare quel dato nel chip. All'interno della GPU ci sarebbero comunque proprietà intellettuali di Imagination Technologies, legate ai blocchi a funzione fissa.
"Ciò implica che Apple ha scritto il proprio compilatore Metal e OpenGL ES per le sue GPU e quasi certamente ha scritto anche l'intero driver", aggiunge Kanter. Per Apple realizzare anche la GPU dei propri SoC è un vantaggio perché può controllare appieno l'ecosistema e decidere quando arrivare sul mercato, senza dipendere da altri. Per esempio, qualcuno potrebbe dire, da Intel."
poi chiudiamo l'OT :D
Roba appunto da novella 2000 "fischi per fiaschi"....:sofico:
Fine OT
Roba appunto da novella 2000 "fischi per fiaschi"....:sofico:
Fine OT
Ma novella 2000 è tecnico... Più dei thread amd di sicuro :asd:
E partì il flame :O :asd:
Ma novella 2000 è tecnico... Più dei thread amd di sicuro :asd:
E partì il flame :O :asd:
mentre in quelli nvidia a momenti si consiglia di tornare a Windows XP e DX9 :ciapet:
Free Gordon
28-10-2016, 15:55
Vuoi dirmi che pascal che è anni luce avanti alle powerVR non può performare abbastanza da far girare i giochi della One alla risoluzione di 720p ?
Se proprio devo risponderti... :D direi proprio di no. :sofico:
Perlomeno non con la stessa qualità.
Anche perché, spesso e volentieri, sono i giochi della ONE stessi ad andare a 720p invece che 900... :asd:
Sono prodotti molto diversi non devi prendere solo il numero dei cuda core.
Il clock è meno della metà.
Le memorie sono lpddr4 anch'essa alla metà del clock(anche meno).
Il numero di GPC e le rop's sono la metà.
A maggior ragione vedo allontanarsi sempre più la possibilità che un chip del genere, possa fa viaggiare giochi con la stessa (o simile) qualità della ONE, @720p..
Il supporto dell'esram è indispensabile per limitare il collo di bottiglia della BW.
Mettere sRAM su un chip del genere, significa probabilmente sforare tutti i limiti di budget realistici per un simile prodotto...
Guarda una simile bestia è fattibile ma Nintendo ha il braccino talmente tirato che possono benissimo tirar fuori un X1 in versione castrato.:asd:
Nintendo non insegue le performance, questo è certo.
Piuttosto è interessata ai consumi e ai costi dell'hw... e secondo me è un errore da parte sua.
Rimpiango assai i tempi dell'N64 del GC. :cry:
mentre in quelli nvidia a momenti si consiglia di tornare a Windows XP e DX9 :ciapet:
"dx12 is the future" con tutti gli effetti grafici in più che introducono e il 99% dei giochi che le supprtano o usano nativamente le dx12 sono ormai irrinunciabili, le directx 11 puzzano già di preistorico :sofico:
OvErClOck82
28-10-2016, 23:34
Con questi ragionamenti staremmo fermi alle dx7 :asd:
Inviato dal mio iPhone utilizzando Tapatalk
Con questi ragionamenti staremmo fermi alle dx7 :asd:
Inviato dal mio iPhone utilizzando Tapatalk
se non cambiano nulla su certe accoppiate (prestazioni e/o effetti grafici), sono utilizzate da 2 giochi in croce al momento patchati e non nativi, mi devi dire a che ti servono...ma capisco che sia inutile parlare usando la logica :rolleyes:
se non ti cambino nulla su certe accoppiate (prestazioni e/o performance) e sono utilizzate da 2 giochi in croce al momento, patchati e non nativi, mi devi dire a che ti servono, ma va bhe capisco che sia inutile insistere con la logica :rolleyes:
A qualcuno piace giocare azzoppato, prima si toglie il vsr, e vabè, poi da win8 addio reshade e aspetta aspetta, ma vabè
Poi w10 e i primi imputtxx ma vabè
Msi non va in dx12 ma vabè c'è cosino, non avrà l'osd completo ma fa vedere i numeretti, questo c'è, vabè
Le dx9 sono un bel callo da sventrare... Ah che risate sul thread delle 79 :asd: ricordo qualcuno che ci bestemmiava forte con le dx9
Meglio fare scelte decise ed esserne fermamente convinti, che stare ogni giorno a cercare i numeretti a giro per le testate per dire "ahhh hai visto?! Non ce l'ho piccolo". A questo servono le dx12 :asd:
athlon xp 2400
30-10-2016, 09:05
Ci sono news sul uscita di volta?
appleroof
30-10-2016, 09:31
Ci sono news sul uscita di volta?
nulla, troppo presto, deve prima uscire la 1080ti e se non sbaglio (è parecchio che non seguo Pascal) una revisione di Pascal appunto....imho per Volta tocca mettersi l'anima in pace fino almeno autunno prossimo
aled1974
30-10-2016, 09:38
lo penso anch'io :mano:
a gennaio gengis kan dovrebbe aprire il CES e presentare quindi le 1080ti
credo almeno, anche delle Ti non è che ci siano molti rumors nuovi :stordita:
ciao ciao
mah, imo le 1080ti non esistono.
mah, imo le 1080ti non esistono.
Tutto è possibile, basta immaginarlo. Io ho immaginato due 1080ti in sli sullo stesso pcb... Pensa te!
ringraziamo la nota azienda rossa se non si degnerà nemmeno di fare una Ti envidia
come ci siamo ridotti 480 e 1080 schede enthusiast :asd:
E che ha di male la 1080 ora?
Per AMD competere in certe fasce è palese non convenga, anche quando offre prodotti buoni la gente compra comunque Nvidia, tanto vale si focalizzi ad offrire buone schede sotto i 350.
E che ha di male la 1080 ora?
Per AMD competere in certe fasce è palese non convenga, anche quando offre prodotti buoni la gente compra comunque Nvidia, tanto vale si focalizzi ad offrire buone schede sotto i 350.
ha di male che in 4k va come una 980ti bella pompata scaldando uguale ad esempio :asd:
prodotti buoni ma cari li offrono entrambi se no sarebbero falliti.
Senza considerare che la furyx le prende dalla ti una recensione si e l altra pure costando come se fosse una nuova architettura tutt oggi
A prezzi pure i verdi sono alla pazzia ma il mercato è fatto cosi quando un prodotto non piace è scaffale. che si adegui amd
MrBrillio
01-11-2016, 10:30
ha di male che in 4k va come una 980ti bella pompata scaldando uguale ad esempio :asd:
prodotti buoni ma cari li offrono entrambi se no sarebbero falliti.
Senza considerare che la furyx le prende dalla ti una recensione si e l altra pure costando come se fosse una nuova architettura tutt oggi
A prezzi pure i verdi sono alla pazzia ma il mercato è fatto cosi quando un prodotto non piace è scaffale. che si adegui amd
Fino a che la differenza in 4k sarà nell ordine di 4/5 fps, e soprattutto si parli di 30 fps massimi imho non ha senso parlarne. Poi vediamo presentazioni con grafici che illustrano distacchi allucinanti... Poi vai a vedere e grossomodo in 4k tutte le vga fanno schifo.. Giusto giusto la titan x potrebbe aver senso a quella risoluzione.
Le 1080ti usciranno mai? Ma soprattutto non é che poi nel giro di qualche mese fanno il refresh dell intera linea e lo prendiamo in quel posto? Qui ci vuole una gif di Giacobbo almeno pls :asd:
Inviato dal mio ONEPLUS A3003 utilizzando Tapatalk
ha di male che in 4k va come una 980ti bella pompata scaldando uguale ad esempio :asd:
prodotti buoni ma cari li offrono entrambi se no sarebbero falliti.
Senza considerare che la furyx le prende dalla ti una recensione si e l altra pure costando come se fosse una nuova architettura tutt oggi
A prezzi pure i verdi sono alla pazzia ma il mercato è fatto cosi quando un prodotto non piace è scaffale. che si adegui amd
Puoi anche pompare la 1080 eh.
69 fps medi a Dirt Rally (contro i 55 della 980ti)
60 a Shadow of Mordor (contro i 45 della 980ti)
37 a GTA 5 (contro i 27 della 980ti)
53 a Tomb Raider (contro i 42 della 980ti)
53 contro 39 a Hitman
E tutto questo a settings maxati. Direi che a qualche filtro irrilevante si può rinunciare a quella risoluzione e giocare benissimo (prendiamo The Witcher 3 o Shadow of Mordor o GTA 5 giochi dove tanti settings pesano un sacco ma mostrano alcuna differenza in qualità visiva).
Aggiungerei pure che la 1080 sostituisce in fascia e prezzo la 980, non la 980ti (lanciata a 250 euro in più della 1080 mi pare).
A me pare che nell'arco di nemmeno 12 mesi Nvidia abbia presentato una scheda che costa molto meno, va di più, scalda e consuma meno.
Che poi vi lamentate sempre ma io sti monitor 4k nelle vostre firme non li vedo. La metà di voi cambia gpu per fare 100 anzichè 80 fps a 1080p per pura smania. Ok che siamo su un forum di entusiasti hardware ma la situazione è molto migliore di quella che dipingete.
Se avete tutta sta ossessione per il 4k e non potete rinunciare a qualche effetto assolutamente invisibile o a filtri assolutamente irrilevanti a quella risoluzione (come l'AA) prendetevi una titan x va 25 % più veloce a 4k.
Puoi anche pompare la 1080 eh.
69 fps medi a Dirt Rally (contro i 55 della 980ti)
60 a Shadow of Mordor (contro i 45 della 980ti)
37 a GTA 5 (contro i 27 della 980ti)
53 a Tomb Raider (contro i 42 della 980ti)
53 contro 39 a Hitman
E tutto questo a settings maxati. Direi che a qualche filtro irrilevante si può rinunciare a quella risoluzione e giocare benissimo (prendiamo The Witcher 3 o Shadow of Mordor o GTA 5 giochi dove tanti settings pesano un sacco ma mostrano alcuna differenza in qualità visiva).
Aggiungerei pure che la 1080 sostituisce in fascia e prezzo la 980, non la 980ti (lanciata a 250 euro in più della 1080 mi pare).
A me pare che nell'arco di nemmeno 12 mesi Nvidia abbia presentato una scheda che costa molto meno, va di più, scalda e consuma meno.
Che poi vi lamentate sempre ma io sti monitor 4k nelle vostre firme non li vedo. La metà di voi cambia gpu per fare 100 anzichè 80 fps a 1080p per pura smania. Ok che siamo su un forum di entusiasti hardware ma la situazione è molto migliore di quella che dipingete.
Se avete tutta sta ossessione per il 4k e non potete rinunciare a qualche effetto assolutamente invisibile o a filtri assolutamente irrilevanti a quella risoluzione (come l'AA) prendetevi una titan x va 25 % più veloce a 4k.
e ci mancherebbe che la nuova architettura andasse meno,
una scheda appena uscita ha bisogno dell overclock per distanziare la vecchia con vecchio pp? abbastanza imbarazzante.
Poi se permetti la mia non ha quei gap che hai riportato, non mi converrebbe passare alla 1080 per 5/6 fps e forse nemmeno alla prossima ti.
Ti do un consiglio non parlare di uhd se non sai quel che dici, la discussione scende decisamente di livello.
Un immagine 4k è cosi pulita da permetterti di giocare a set low quindi parlare di filtri ed effetti non ha senso.Il 4k vince facile bastano le texture per fare grande un gioco a quella risoluzione.
Provare per credere gioco in uhd da piu di un anno :)
e ci mancherebbe che la nuova architettura andasse meno,
una scheda appena uscita ha bisogno dell overclock per distanziare la vecchia con vecchio pp? abbastanza imbarazzante.
Poi se permetti la mia non ha quei gap che hai riportato, non mi converrebbe passare alla 1080 per 5/6 fps e forse nemmeno alla prossima ti.
Ti do un consiglio non parlare di uhd se non sai quel che dici, la discussione scende decisamente di livello.
Un immagine 4k è cosi pulita da permetterti di giocare a set low quindi parlare di filtri ed effetti non ha senso.Il 4k vince facile bastano le texture per fare grande un gioco a quella risoluzione.
Provare per credere gioco in uhd da piu di un anno :)
Stai facendo raffronto fra gm200 e gp104 non ha senso, fra l'altro per la prima volta o giu' di li' il chippone vecchio le prende dal medio/alto nuovo quindi hai poco da parlare di scendere livello se non hai chiaro concetti cosi' basilari, senza offesa...
Non c'ho capito una xxxxx :asd:
Perchè vi volete male ragazzi?
Perchè oggi sono "i morti"?
Non c'ho capito una xxxxx :asd:
Perchè vi volete male ragazzi?
Perchè oggi sono "i morti"?
Lolle, li mortacci sono
Stai facendo raffronto fra gm200 e gp104 non ha senso, fra l'altro per la prima volta o giu' di li' il chippone vecchio le prende dal medio/alto nuovo quindi hai poco da parlare di scendere livello se non hai chiaro concetti cosi' basilari, senza offesa...
scendere di livello parlavo dell uhd,
poi che il chippone le prende dal chippino forse ti sei confuso con la 780ti.
La 980ti è una delle migliori e longeve schede mai fatte, ma forse a te interessava solo innescare la ressa quindi passo :)
scendere di livello parlavo dell uhd,
poi che il chippone le prende dal chippino forse ti sei confuso con la 780ti.
La 980ti è una delle migliori e longeve schede mai fatte, ma forse a te interessava solo innescare la ressa quindi passo :)
Parlavo della 3dfx :cry:
e ci mancherebbe che la nuova architettura andasse meno,
una scheda appena uscita ha bisogno dell overclock per distanziare la vecchia con vecchio pp? abbastanza imbarazzante.
Poi se permetti la mia non ha quei gap che hai riportato, non mi converrebbe passare alla 1080 per 5/6 fps e forse nemmeno alla prossima ti.
Ti do un consiglio non parlare di uhd se non sai quel che dici, la discussione scende decisamente di livello.
Un immagine 4k è cosi pulita da permetterti di giocare a set low quindi parlare di filtri ed effetti non ha senso.Il 4k vince facile bastano le texture per fare grande un gioco a quella risoluzione.
Provare per credere gioco in uhd da piu di un anno :)
La 1080 non sostituisce la 980ti, punto. Stai paragonando chip differenti.
ok sono differenti,
ma escludendo la titan xp per via del costo l unica alternativa per chi vuole spendere è la 1080 oggi.
per quello parlavo di schede enthusiast :)
ok sono differenti,
ma escludendo la titan xp per via del costo l unica alternativa per chi vuole spendere è la 1080 oggi.
per quello parlavo di schede enthusiast :)
Oggi... Ma tra 6 mesi escono i refresh quindi obiettivamente la miglior soluzione rimane la 1070 che è gia trovabile poco sotto i 400€ quindi la perdita è minima se si pensa nel caso ad aggiornare a 2080ti ;)
La serie x80 e titan sono quelle in assoluto che perdono valore come se nulla fosse, quindi se mi fai un discorso di prezzo sia 1080 che titan sono soldi buttati, poi se si guardano le prestazioni assolute e i benchmark il discorso è molto diverso e li non c'è un budget di riferimento...
athlon xp 2400
02-11-2016, 17:46
In effetti sulle 1070 comprandole a meno di 400 fra un anno le rivendi a100 euro meno o poco più
Ho dato via le 1080 sarei tentato di prendere 2 1070 per perderci poco poi con volta
Puoi anche pompare la 1080 eh.
69 fps medi a Dirt Rally (contro i 55 della 980ti)
60 a Shadow of Mordor (contro i 45 della 980ti)
37 a GTA 5 (contro i 27 della 980ti)
53 a Tomb Raider (contro i 42 della 980ti)
53 contro 39 a Hitman
E tutto questo a settings maxati. Direi che a qualche filtro irrilevante si può rinunciare a quella risoluzione e giocare benissimo (prendiamo The Witcher 3 o Shadow of Mordor o GTA 5 giochi dove tanti settings pesano un sacco ma mostrano alcuna differenza in qualità visiva).
Aggiungerei pure che la 1080 sostituisce in fascia e prezzo la 980, non la 980ti (lanciata a 250 euro in più della 1080 mi pare).
A me pare che nell'arco di nemmeno 12 mesi Nvidia abbia presentato una scheda che costa molto meno, va di più, scalda e consuma meno.
Che poi vi lamentate sempre ma io sti monitor 4k nelle vostre firme non li vedo. La metà di voi cambia gpu per fare 100 anzichè 80 fps a 1080p per pura smania. Ok che siamo su un forum di entusiasti hardware ma la situazione è molto migliore di quella che dipingete.
Se avete tutta sta ossessione per il 4k e non potete rinunciare a qualche effetto assolutamente invisibile o a filtri assolutamente irrilevanti a quella risoluzione (come l'AA) prendetevi una titan x va 25 % più veloce a 4k.
la 980ti l'avrebbero lanciata a 1050€? direi prio di no.
anzi, la Ti l'hanno lanciata a 50€ in meno della 1080 (750 vs 800).
mikael84
04-11-2016, 00:18
In effetti sulle 1070 comprandole a meno di 400 fra un anno le rivendi a100 euro meno o poco più
Ho dato via le 1080 sarei tentato di prendere 2 1070 per perderci poco poi con volta
Sicuramente i refresh ci saranno. Addirittura abbiamo chip mobili tecnicamente superiori ai desktop.
Volta esordirà dopo il GV100, ovvero il chip che introdurrà Nvlink 2,0.
Tutto è possibile, basta immaginarlo. Io ho immaginato due 1080ti in sli sullo stesso pcb... Pensa te!
Se le tagliassero a 5 GPC, come realmente faranno (salvo un TPC attivo in più), si avrebbe un core più piccolo della 980 e di conseguenza anche 970:)
noccioline per la scimmia
More performance, more money
The GeForce GTX 1080 Ti is expected to be basedn the same GP102 chip that powers NVIDIA's $1,200 Titan X graphics card, as well as the company's Quadro P6000 and Tesla P40 professional graphics and data-center acceleration products, respectively.
The current GeForce GTX 1080 is based on a lower-performance chip known as GP104.
NVIDIA and its board partners should be able to charge more for a potential GeForce GTX 1080 Ti than they currently can for GeForce GTX 1080 products -- higher performance usually translates into higher selling prices in a given generation. It only makes sense, then, for all the parties involved to want to get the GeForce GTX 1080 Ti to market as soon as practicable.
Such a rapid release cadence of high-end GeForce GTX gaming products isn't unheard of, either. Back in May 2013, NVIDIA released the GeForce GTX 780 and then released the more powerful, and more expensive, GeForce GTX 780 Ti in early November of that year.
fonte
http://www.foxbusiness.com/markets/2016/11/04/nvidia-corporation-reportedly-planning-to-launch-geforce-gtx-1080-ti-soon.html
MrBrillio
05-11-2016, 11:50
Speriamo di vedere presto qualcosa di concreto
Inviato dal mio ONEPLUS A3003 utilizzando Tapatalk
Oirasor_84
05-11-2016, 14:08
scendere di livello parlavo dell uhd,
poi che il chippone le prende dal chippino forse ti sei confuso con la 780ti.
La 980ti è una delle migliori e longeve schede mai fatte, ma forse a te interessava solo innescare la ressa quindi passo :)
Hai un concetto di longevità tutto tuo mi pare di capire,perchè se per te un annetto scarso si traduce in longevità allora 7970 e r9 290/x sono eterne :D :sofico:
Legolas84
05-11-2016, 14:17
Più che altro non capisco... GM200 dovrebbe essere meglio di GP104? :fagiano:
In quale film?
fraussantin
05-11-2016, 14:31
Hai un concetto di longevità tutto tuo mi pare di capire,perchè se per te un annetto scarso si traduce in longevità allora 7970 e r9 290/x sono eterne :D :sofico:
La longevità è soggettiva.
Se si guardano le prestazioni di punta laa 290 sta iniziando a funzionare adesso con le dx12 che ancora non "partono ". Quindi è longeva per modo di dire
Se invece si guarda un compromesso tra prestazioni e qualità e prezzo , è vero anche se fino ad oggi è stata sotto alla concorrenza. E ora che è arrivato il momento di cambiarla...
Ma ci sono altre schede che cmq vanno bene.
Oirasor_84
05-11-2016, 14:55
La longevità è soggettiva.
Se si guardano le prestazioni di punta laa 290 sta iniziando a funzionare adesso con le dx12 che ancora non "partono ". Quindi è longeva per modo di dire
Se invece si guarda un compromesso tra prestazioni e qualità e prezzo , è vero anche se fino ad oggi è stata sotto alla concorrenza. E ora che è arrivato il momento di cambiarla...
Ma ci sono altre schede che cmq vanno bene.
Perchè con dx11 era rotta?non mi pare,è stata presentata come risposta a kepler di nvidia facendo meglio di 780 e titan sin da subito con la reference forno edition a 800mhz di core clock,esattamente 2 anni dopo in salsa rebrand se la gioca con maxwell gm204,e adesso con le dx12 si fa valere.
Ma il punto non è questo io rispondevo alla citazione "La 980ti è una delle migliori e longeve schede mai fatte" molto simile alla famosa cit apple" il miglior iphone di sempre" ,io capisco il preferire un brand rispetto ad un altro però leggere certe cose scritte con l'obbiettività di ceccarini in juve-inter del '98 non si può :D :D
killeragosta90
05-11-2016, 14:58
Hai un concetto di longevità tutto tuo mi pare di capire,perchè se per te un annetto scarso si traduce in longevità allora 7970 e r9 290/x sono eterne :D :sofico:
Ma chi ha detto che i possessori della 980 Ti sono costretti al cambio?? Perchè?
Non sei costretto al cambio se le prestazioni sono ancora più che soddisfacenti! Quindi è il tuo concetto di longevità a non avere tanto senso.
EDIT: Letto ora il messaggio sopra, certo prima era ben più equivoco il messaggio, ora ho compreso il senso del discorso.
fraussantin
05-11-2016, 15:33
Perchè con dx11 era rotta?non mi pare,è stata presentata come risposta a kepler di nvidia facendo meglio di 780 e titan sin da subito con la reference forno edition a 800mhz di core clock,esattamente 2 anni dopo in salsa rebrand se la gioca con maxwell gm204,e adesso con le dx12 si fa valere.
Ma il punto non è questo io rispondevo alla citazione "La 980ti è una delle migliori e longeve schede mai fatte" molto simile alla famosa cit apple" il miglior iphone di sempre" ,io capisco il preferire un brand rispetto ad un altro però leggere certe cose scritte con l'obbiettività di ceccarini in juve-inter del '98 non si può :D :D
No ma al top è stata 6,8 mesi.
Poi se guardi nel rapporto prestazioni nel lungo ha tenuto decentemente ma non al top.
Per il discorso longevità la.980 ti è durata pure meno, ma ancora oggi permette di giocare a 1440p tutto. E bene.
Per quello dicevo che è soggettiva.
Sennò è come che l'i7 920 è un processore eterno e immortale.
Sappiamo tutti che stenta su alcuni game, ma ancora oggi molti non sentono il bisogno di cambiarlo.
Se la 980ti sarà longeva lo sapremo tra qualche anno :D
Per me esempi di longevità possono esserlo la 9700pro, la 8800gtx e pure la 7970.
Sennò è come che l'i7 920 è un processore eterno e immortale.
Ma lo è :asd:
fraussantin
05-11-2016, 16:38
Ma lo è :asd:
Sarà ma a me va al 100% x4 core il 4690...
Hai un concetto di longevità tutto tuo mi pare di capire,perchè se per te un annetto scarso si traduce in longevità allora 7970 e r9 290/x sono eterne :D :sofico:
vuoi farti del male :)
ma la 290 non era quella delle bestemmie col termico sotto dimensionato all uscita?
Va bene oggi in dx12 per virtu dello spirito santo non perche fosse previsto ai tempi della guerra con kepler
Perchè con dx11 era rotta?non mi pare,è stata presentata come risposta a kepler di nvidia facendo meglio di 780 e titan sin da subito con la reference forno edition a 800mhz di core clock,esattamente 2 anni dopo in salsa rebrand se la gioca con maxwell gm204,e adesso con le dx12 si fa valere.
Ma il punto non è questo io rispondevo alla citazione "La 980ti è una delle migliori e longeve schede mai fatte" molto simile alla famosa cit apple" il miglior iphone di sempre" ,io capisco il preferire un brand rispetto ad un altro però leggere certe cose scritte con l'obbiettività di ceccarini in juve-inter del '98 non si può :D :D
580 e 980ti sono state le architetture meglio riuscite di envidia secondo me,
sicuramente frutto dei vari affinamenti/refresh come per fermi lo stesso maxwell.
Poi che la butti in farsa citando eppol be li sei piu bravo tu quindi passo :)
fraussantin
06-11-2016, 09:32
vuoi farti del male :)
ma la 290 non era quella delle bestemmie col termico sotto dimensionato all uscita?
Va bene oggi in dx12 per virtu dello spirito santo non perche fosse previsto ai tempi della guerra con kepler
La 290 ha fatto sempre bestemmiare, nella sua vita. Prima i dissi, poi è troppo lunga, poi consuma e fonde gli ali di bassa qualità, poi i driver mai funzionanti.
Ora si puo dire è in una fase stabile, ma appunto è alla fine.
Longeva è longeva, ma dire che è stata sempre al top...
Oirasor_84
06-11-2016, 11:14
vuoi farti del male :)
ma la 290 non era quella delle bestemmie col termico sotto dimensionato all uscita?
Va bene oggi in dx12 per virtu dello spirito santo non perche fosse previsto ai tempi della guerra con kepler
In che senso voglio farmi del male,ma di cosa stai parlando,ma l'itagliano lo capite o no,girate la frittata come conviene a voi un classico da tifoseria,tu hai scritto testuali parole:
scendere di livello parlavo dell uhd,
poi che il chippone le prende dal chippino forse ti sei confuso con la 780ti.
La 980ti è una delle migliori e longeve schede mai fatte, ma forse a te interessava solo innescare la ressa quindi passo :)
Tu hai dichiarato che una vga che ha un anno di vita è una delle schede più longeve e già qui la prima contraddizione ,senza contare che tale scheda è stata già rimpiazzata in perfomance alla metà del prezzo a cui l'hai comprata l'anno prima.
Ho tirato in ballo la 7970 e le 290/x per fare un paragone perchè se tu consideri longeva la 980ti (discorso senza senso è appena passato un annetto) le amd secondo il tuo parametro di longevità son eterne,e il fatto che tu risponda tirando in ballo il dissipatore della 290 la dice lunga visto che non si parlava ne di prestazioni ne di qualità fra i due marchi.
La 290 ha fatto sempre bestemmiare, nella sua vita. Prima i dissi, poi è troppo lunga, poi consuma e fonde gli ali di bassa qualità, poi i driver mai funzionanti.
Ora si puo dire è in una fase stabile, ma appunto è alla fine.
Longeva è longeva, ma dire che è stata sempre al top...
Hai avuto la 290 al day one?
é troppo lunga che vuol dire che difetto sarebbe :D? perchè tu pensi che un 780 ti non fonda un ali di bassa qualità ti ricordo che fra 780ti e 290x passano si e no 30W,driver mai funzionati non mi pare di aver mai messo driver che non hanno fatto funzionare la mia vga e ne ho cambiati di driver:D ma del resto le ultime 3 release di driver nvidia son stai una manna dal cielo mi pare di capire da quello che leggo:D Non facciamo sempre i soliti discorsi tirando acqua al proprio mulino perchè non serve a nessuno,certo se poi non siete in grado di rispondere senza tirare in ballo i soliti luoghi comuni è un altro discorso:D nvidia sempre fidelis;)
Legolas84
06-11-2016, 11:53
Oirasor_84, con tutto il rispetto dai del fanboy NVIDIA agli altri ma anche tu non è che stai messo meglio eh.... ;)
La 980Ti è vero che non sia chissà quale mostro di longevità, anzi.... è nella media di tutte le VGA. Ma da qui a dire che la 290 non abbia avuto i suoi problemi o che i driver AMD siano sempre stati impeccabili ce ne passa di acqua sotto i ponti....
Diciamo che state tirando l'acqua al proprio mulino entrambi e che da ambo due le parti la verità sta nel mezzo....
OvErClOck82
06-11-2016, 11:57
state mettendo in mezzo roba che non c'entra :mbe:
la 980ti è stata un mostro di scheda, ma considerarla longeva dopo poco più di un anno non si può per ovvi motivi. Allo stesso modo non considerare longeve schede come 7970 o 290 è ugualmente da prosciutto sugli occhi, basta vedere con cosa si confrontavano all'uscita e che prestazioni hanno oggi.. è OVVIO che non si parla di prestazioni al top oggi, ma doverlo anche solo precisare è ridicolo :asd: il resto (consumi, driver, dissipatori) è roba che non c'entra una mazza con il discorso longevità
poi, e mi pare abbastanza ovvio pure questo, che amd l'abbia fatto non perché è buona e cara, ma perché senza grande budget gli conveniva ottimizzare gli sforzi su un'architettura sola è fuori dubbio...
Legolas84
06-11-2016, 12:01
Mah, la scheda va considerata interamente... e comprare una scheda per usarla al 100% tra due anni non mi pare una furbata....
Io penso che ormai la filosofia AMD e NVIDIA nonchè gli ecosistemi si siano differenziati talmente tanto da essere destinati proprio a due tipi di utenti differenti.....
OvErClOck82
06-11-2016, 12:03
Mah, la scheda va considerata interamente... e comprare una scheda per usarla al 100% tra due anni non mi pare una furbata....
Io penso che ormai la filosofia AMD e NVIDIA nonchè gli ecosistemi si siano differenziati talmente tanto da essere destinati proprio a due tipi di utenti differenti.....
di base concordo, ma non estremizziamo troppo, ci si giocava bene pure pochi mesi dopo l'uscita :D
Oirasor_84
06-11-2016, 12:25
Oirasor_84, con tutto il rispetto dai del fanboy NVIDIA agli altri ma anche tu non è che stai messo meglio eh.... ;)
La 980Ti è vero che non sia chissà quale mostro di longevità, anzi.... è nella media di tutte le VGA. Ma da qui a dire che la 290 non abbia avuto i suoi problemi o che i driver AMD siano sempre stati impeccabili ce ne passa di acqua sotto i ponti....
Diciamo che state tirando l'acqua al proprio mulino entrambi e che da ambo due le parti la verità sta nel mezzo....Dove ho scritto che i driver amd sono impeccabili che problemi ha avuto la 290 oltre le temp elevate per un dissi reference non all'altezza associato ad un profilo ventola troppo conservativo, ed io ho una reference tenuta un anno col dissi stock.
Ahhahahah
Continuate continuate
Le risate
Due anni
Ahahhaah
In che senso voglio farmi del male,ma di cosa stai parlando,ma l'itagliano lo capite o no,girate la frittata come conviene a voi un classico da tifoseria,tu hai scritto testuali parole:
Tu hai dichiarato che una vga che ha un anno di vita è una delle schede più longeve e già qui la prima contraddizione ,senza contare che tale scheda è stata già rimpiazzata in perfomance alla metà del prezzo a cui l'hai comprata l'anno prima.
Ho tirato in ballo la 7970 e le 290/x per fare un paragone perchè se tu consideri longeva la 980ti (discorso senza senso è appena passato un annetto) le amd secondo il tuo parametro di longevità son eterne,e il fatto che tu risponda tirando in ballo il dissipatore della 290 la dice lunga visto che non si parlava ne di prestazioni ne di qualità fra i due marchi.
cut
confermo la mia opinione,
Eri carente nel comparto audio quando dovetti spiegarti e consigliarti perche non arrivava la codifica multicanale discreta al tuo av receiver.
Volevi buttarlo dalla finestra quando semplicemente non avevi una sound card adatta a quello che ti prefiggevi.
Adesso torni con piu presunzione ma stavolta passo perche vuoi palesemente buttarla in caciara visti i toni.
mettimi pure in ignore se ti infastidisce il mio punto di vista :)
OvErClOck82
06-11-2016, 13:03
perdonami ma avere un punto di vista non vuol dire sparare sentenze random :asd:
la 980ti nessuno la può definire longeva semplicemente perchè è uscita da troppo poco... e lo dicono pure possessori di 980ti, non è che c'è qualche discorso mistico dietro, si chiama logica. Se tra un anno (e io penso di sì) continueranno a rullare di brutto allora si potrà dire che sono state longeve... ad oggi fa quantomeno sorridere la cosa :asd:
perdonami ma avere un punto di vista non vuol dire sparare sentenze random :asd:
la 980ti nessuno la può definire longeva semplicemente perchè è uscita da troppo poco... e lo dicono pure possessori di 980ti, non è che c'è qualche discorso mistico dietro, si chiama logica. Se tra un anno (e io penso di sì) continueranno a rullare di brutto allora si potrà dire che sono state longeve... ad oggi fa quantomeno sorridere la cosa :asd:
gioco in uhd da quando l ho presa con una scheda uscita 1 anno e mezzo fa questo basta e avanza in merito alla bontà e longevità del prodotto
fraussantin
06-11-2016, 13:29
,certo se poi non siete in grado di rispondere senza tirare in ballo i soliti luoghi comuni è un altro discorso:D AMD sempre fidelis;)
Fix
Leggggaccyyy!
Oirasor_84
06-11-2016, 13:38
confermo la mia opinione,
Eri carente nel comparto audio quando dovetti spiegarti e consigliarti perche non arrivava la codifica multicanale discreta al tuo av receiver.
Volevi buttarlo dalla finestra quando semplicemente non avevi una sound card adatta a quello che ti prefiggevi.
Adesso torni con piu presunzione ma stavolta passo perche vuoi palesemente buttarla in caciara visti i toni.
mettimi pure in ignore se ti infastidisce il mio punto di vista :)
Il fatto che io non sapessi che tramite algoritmo le schede audio che supportano il dts connect e il dolby digital live mandano un flusso audio multicanale dall'uscita otticha cosa c'entra con la discussione sulla longevità e cosa ti fa pensare di saperne più di me sulle vga,non ho bisogno di metterti in ignore list perchè il bello dei forum e poter leggere il parere degli altri, confrontarsi ed imparare,ma a quanto pare ti senti un gradino sopra pensando di sapere tutto anche se non ti ho visto scrivere nulla d'interessante sulle gpu se non che la 980 ti è la più longeva vga nvidia e che la evga kingpin ha delle fasi di alimentazione,pcb e dissipatori mai visti prima top del top di sempre anche se i 1500 sul core li tiene uno qualsiasi con la reference liquidata ma va bè.Comunque sempre disponibile per diminuire le mie carenze sul comparto video magari leggendo qualche tuo post costruttivo ;)
CiccoMan
06-11-2016, 13:44
Scusate se interrompo questo simpatico dibattito, ma sono fuori da un po' e stavo cercando di capire se nVidia si degnerà a breve di sostituire quel "catorcio" della 980ti :D
Da quello che leggo in giro mi é sembrato di capire che fin ora si parla solo di rumor e speculazioni basate sul nulla... Riassuntino? :D
:D
athlon xp 2400
06-11-2016, 13:45
1080ti la danno per gennaio
CiccoMan
06-11-2016, 13:48
1080ti la danno per gennaio
Chi la da per gennaio? Nvidia ha annunciato qualche evento o pubblicato qualche photoshoppata?
Certo é che solitamente quando i rumor si fanno insistenti un fondo di verità c'è sempre... :p
athlon xp 2400
06-11-2016, 13:51
https://www.google.it/amp/tech.everyeye.it/amp/articoli/speciale-nvidia-gtx-1080-ti-arrivo-gennaio-con-12-gb-ram-gddr5x-30967.html?client=safari
Il fatto che io non sapessi che tramite algoritmo le schede audio che supportano il dts connect e il dolby digital live mandano un flusso audio multicanale dall'uscita otticha cosa c'entra con la discussione sulla longevità e cosa ti fa pensare di saperne più di me sulle vga,non ho bisogno di metterti in ignore list perchè il bello dei forum e poter leggere il parere degli altri, confrontarsi ed imparare,ma a quanto pare ti senti un gradino sopra pensando di sapere tutto anche se non ti ho visto scrivere nulla d'interessante sulle gpu se non che la 980 ti è la più longeva vga nvidia e che la evga kingpin ha delle fasi di alimentazione,pcb e dissipatori mai visti prima top del top di sempre anche se i 1500 sul core li tiene uno qualsiasi con la reference liquidata ma va bè.Comunque sempre disponibile per diminuire le mie carenze sul comparto video magari leggendo qualche tuo post costruttivo ;)
quello che so oggi di vga lo devo al forum,
al contributo di tutti in particolar modo mikael ma resta di base che se non avessi speso per comprare la scheda oggi non potrei minimamente parlarne.
Un conto è pensare come possa andare un prodotto tutt altro è comprarselo e studiarselo
Non mi sento un gradino piu alto mi hai attaccato dal primo post quindi semplicemente non mi piace il tuo modo di confrontarti visti i toni :)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.