View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
i bench dell'alpha dicono ancora che lo SLI è inutile sull'idTech6. Anche io cmq confido in una versione finale che lo supporti!
Spera spera.... ma se l'engine non è sufficientemente AFR friendly, che significa che il rendering di un frame dovrebbe limitare l'uso di oggetti renderizzati nel frame precedente, allora il multigpu non potrà mai funzionare, a meno di usare l'SFR che sembra una novità delle DX12, ma che invece c'è dagli albori del multigpu e andava così
SFR versus AFR
On the issue of SFR versus AFR, in the three games we tested it seems AFR gave us no problems and provided faster framerates with large increases in performance. With SFR it seems that it can give you a large increase in performance, when it works correctly splitting the load up properly. If it doesn’t however, then you are left with near single card performance if there is no load balancing in the frame.
http://www.hardocp.com/article/2004/11/23/nvidia_sli_upgrade_guide/6#.VtQvI_nhCUk
Assassin creed 5 in 4k... E in 2.5k
Ma anche altri .
Non sono schede per il 1080p...
E il bello è che se efai lo sli perdi tempo.
Ma lo dici perché sulle Ti con ddr5 tradizionali vedi quasi 6gb ALLOCATI? O perché c'è evidenza di stuttering da fb insufficiente?
direi che è il momento peggiore per comprare. tra un paio di mesi, se escono le nuove, i prezzi delle TI crolleranno
cmq le pascaline avranno le GDDR5x, e non le 5 lisce
secondo me tra HBM e 5X non ci sarà chissà quanto divario. E' la GPU che conta, si è sempre saputo
Il confronto con le Titan, sarà di certo impietoso, ma pure là non si capirà se le mem HBM quanto influiranno
Si il problema è che anche la mia 980 scenderebbe di prezzo pertanto sarei costretto a rinvenderla ad un prezzo molto minore rispetto alle 400 che potrei chiedere ora. Si ora gioco su un 2k!
Legolas84
29-02-2016, 12:20
Il punto è che le HBM non fanno andare una gpu il 20% in più..... e probabilmente nemmeno le GDDR5X lo faranno pur fornendo vantaggi simili.
Io non vedo l'uso di HBM o GDDR5X una valida discriminante tra Ti o liscia.... alla fine sarà la gpu a stabilire l'indice prestazionale.
Legolas84
29-02-2016, 12:22
Spera spera.... ma se l'engine non è sufficientemente AFR friendly, che significa che il rendering di un frame dovrebbe limitare l'uso di oggetti renderizzati nel frame precedente, allora il multigpu non potrà mai funzionare, a meno di usare l'SFR che sembra una novità delle DX12, ma che invece c'è dagli albori del multigpu e andava così
Bisogna vedere cosa tirano fuori... certo è che creare un gioco graficamente esoso nel 2016 che non supporta il multigpu la vedo come una sconfitta per i programmatori.
Anche se, ripeto, non credo che GP104 avrà problemi a gestirlo anche in scheda singola....
deadbeef
29-02-2016, 12:23
Le HBM servono anche per avere schede il 20/30% più corte, forse una mossa dettata dalla rinascita del pc gaming per aggredire la fascia htpc
Legolas84
29-02-2016, 12:25
Le HBM servono anche per avere schede il 20/30% più corte, forse una mossa dettata dalla rinascita del pc gaming per aggredire la fascia htpc
Si verissimo, ma questo è un altro aspetto.... ;)
Legolas84
29-02-2016, 12:50
Beh è un aspetto non da poco per noi vecchi giocatori che ormai abbiamo moglie e figli e non avendo più la cameretta con la scrivania dobbiamo inventarci postazioni in sala che però devono mantenere un minimo di eleganza :D
Non posso piazzare in sala un case enorme con lucine, ventole e radiatori :sofico:
Si un bel itek bi-turbo in mezzo al salotto! :yeah:
Mia moglie mi caccia di casa :asd:
Io ho moglie ma non figli..... e il case bellissimo lo ho comunque per il semplice fatto che è una mia passione e guai a chi la tocca, anzi nel rispetto totale tra marito e moglie ognuno ha il diritto di perseguire i suoi hobby nel modo che preferisce :D
Quindi ci do dentro di Phanteks Enthoo Primo full Liquid ;)
Ciò nonostante ho dovuto farmi un PC micro-itx qualche anno fa per via del lavoro usando un case Silverstone e non ho avuto alcuna difficoltà ad integrarci prima una 680 e dopo una 780.... quindi soluzioni anche molto piccole ce ne sono che supportano le normali schede desktop.
Tuttavia è indubbio che in quella particolare nicchia di mercato in cui servono PC piccolissimi ad alte prestazioni le HBM faranno felice più di un giocatore ;)
condivido un pensiero alquanto traumatico in chiave scimmia,
spero non se ne escano a giugno con delle nuove titan magari 20gb hbm2 in versione supercustom
ev*a dovesse tirar fuori una titan kpe potrei seriamente impazzire
ma tanto non lo farà
Giovamas
29-02-2016, 13:42
Beh è un aspetto non da poco per noi vecchi giocatori che ormai abbiamo moglie e figli e non avendo più la cameretta con la scrivania dobbiamo inventarci postazioni in sala che però devono mantenere un minimo di eleganza :D
Non posso piazzare in sala un case enorme con lucine, ventole e radiatori :sofico:
Si un bel itek bi-turbo in mezzo al salotto! :yeah:
Mia moglie mi caccia di casa :asd:
Qua le case sono molto più piccole che in Italia. Io quindi ho inventato una postazione in corridoio con tanto di luci, window etc.. La morosa non ha fatto obiezioni. Posso dirti che il mio case non sfigurerebbe in nessun ambiente, ma comunque lei non ci fa molto caso. Idem come dice Legolas, guai a chi mi tocca la mia passione ed un PC piccolo non lo cosidero proprio. Chiudo il mio contributo all'OT ma mi piaceva il tema affrontato :)
AkiraFudo
29-02-2016, 13:59
direi che è il momento peggiore per comprare. tra un paio di mesi, se escono le nuove, i prezzi delle TI crolleranno
cmq le pascaline avranno le GDDR5x, e non le 5 lisce
secondo me tra HBM e 5X non ci sarà chissà quanto divario. E' la GPU che conta, si è sempre saputo
Il confronto con le Titan, sarà di certo impietoso, ma pure là non si capirà se le mem HBM quanto influiranno
Il punto è che le HBM non fanno andare una gpu il 20% in più..... e probabilmente nemmeno le GDDR5X lo faranno pur fornendo vantaggi simili.
Io non vedo l'uso di HBM o GDDR5X una valida discriminante tra Ti o liscia.... alla fine sarà la gpu a stabilire l'indice prestazionale.
Le hbm sono 20 volte più piccole consumano la metà e hanno un bandwith migliore.
le gddr5 sono a limite della loro evoluzione e l'inteposer ti permette di creare gpu molto più complesse senza quel vecchio bus delle gddr
ovvio che la GPU conta.. ma GPU come le fury e come il futuro GP100 non potrebbero esistere senza hbm.
AMD ci ha studiato per molti anni...almeno qualcosa dovremmo riconoscergli!
fraussantin
29-02-2016, 14:00
Le hbm sono 20 volte più piccole consumano la metà e hanno un bandwith migliore.
le gddr5 sono a limite della loro evoluzione e l'inteposer ti permette di creare gpu molto più complesse senza quel vecchio bus delle gddr
ovvio che la GPU conta.. ma GPU come le fury e come il futuro GP100 non potrebbero esistere senza hbm.
AMD ci ha studiato per molti anni...almeno qualcosa dovremmo riconoscergli!
certo .
ma è in ritardo su tutto , va ad anticipare una cosa che per adesso non serve... BOH!
TigerTank
29-02-2016, 14:17
direi che è il momento peggiore per comprare. tra un paio di mesi, se escono le nuove, i prezzi delle TI crolleranno
cmq le pascaline avranno le GDDR5x, e non le 5 lisce
secondo me tra HBM e 5X non ci sarà chissà quanto divario. E' la GPU che conta, si è sempre saputo
Il confronto con le Titan, sarà di certo impietoso, ma pure là non si capirà se le mem HBM quanto influiranno
Tra 2 mesi non credo proprio Illy, le presentano al Computex(31 maggio-4 giugno) per cui direi come minimo tra 5-6 mesi o forse direttamente il "back to school", quindi tra 7 mesi. Da vedere se lanceranno prima la titan come fatto con le kepler o prima le 1070-1080 come fatto con le maxwell.
Circa le vram vedremo all'atto pratico, le hbm delle amd sono state un "prototipo".
Per le GDDR5X si parla di 320GB/s di banda su bus da 256bit, per le HBM2 di ben 1TB/s di banda su bus da 4096bit. Per cui secondo me qualche differenza la faranno con i titoli ottimizzati a tal scopo...e magari più su 1440p/4K che su fullHD :)
Facile che le 1070-1080 saranno da 8GB(sempre che non si inventino qualche nuovo giochetto sulle 1070) ed imho la Titan da 32GB e la TI da 16GB.
Secondo te un gioco che gira a 60fps 1080p su ps4 avrà problemi a girare a 60fps in 2k su gp104? Senza contare che finché non esce il gioco non si può sapere...
Beh in genere si presuppone che i porting per pc siano appunto arrichiti da effetti vari (gameworks) più esosi di quelli gestibili dall'hardware delle consoles.
Ecco perchè reputo poco entisuasmanti dichiarazioni circa i 60fps in fullHD se parliamo di giochi per pc :D
Per il resto comunque parliamo di 2 differenti scelte d'azione, c'è chi preferisce procedere di Sli di piccoline, chi di vga singola puntando alle Ti e chi poi procede per Sli di queste ultime :)
Anch'io sinceramente sto aspettando di saperne di più per decidere se mi sia conveniente o meno prendere una seconda Ti.
certo .
ma è in ritardo su tutto , va ad anticipare una cosa che per adesso non serve... BOH!
Aridaje
ci rinuncio
fireradeon
29-02-2016, 15:15
Beh è un aspetto non da poco per noi vecchi giocatori che ormai abbiamo moglie e figli e non avendo più la cameretta con la scrivania dobbiamo inventarci postazioni in sala che però devono mantenere un minimo di eleganza :D
Non posso piazzare in sala un case enorme con lucine, ventole e radiatori :sofico:
Si un bel itek bi-turbo in mezzo al salotto! :yeah:
Mia moglie mi caccia di casa :asd:
Io grazie a Dio la "cameretta" la ho e pure con impianto 7.1 e guai a chi entra!! :D
ragazzi secondo voi conviene vendere adesso una 980 per passare subito ad una 980ti?? tanto da quel poco che ho capito nel 2016 non dovrebbero uscire grandi cose
io sto' pensando di fare il contrario :D
Beh è un aspetto non da poco per noi vecchi giocatori che ormai abbiamo moglie e figli e non avendo più la cameretta con la scrivania dobbiamo inventarci postazioni in sala che però devono mantenere un minimo di eleganza :D
Non posso piazzare in sala un case enorme con lucine, ventole e radiatori :sofico:
Si un bel itek bi-turbo in mezzo al salotto! :yeah:
Mia moglie mi caccia di casa :asd:
Basta adibire una stanza a "studio" ... li nessuno entra neanche per fare le pulizie, a cui provvedo io personalmente... :D
fraussantin
01-03-2016, 07:41
Beh è un aspetto non da poco per noi vecchi giocatori che ormai abbiamo moglie e figli e non avendo più la cameretta con la scrivania dobbiamo inventarci postazioni in sala che però devono mantenere un minimo di eleganza :D
Non posso piazzare in sala un case enorme con lucine, ventole e radiatori :sofico:
Si un bel itek bi-turbo in mezzo al salotto! :yeah:
Mia moglie mi caccia di casa :asd:
Tu pensa che io sono stato per 8 anni con dei notebook da gaming.
Poi che dire a me dell'estetica nei pc non frega niente. Ho preso lo spec 3 perche era a 49 euro , ma se mi prende "5 mn" prendo una forbice e cutto i led..
Basta adibire una stanza a "studio" ... li nessuno entra neanche per fare le pulizie, a cui provvedo io personalmente... :D
E si mica tutti han le ville da 10 sale..
illidan2000
01-03-2016, 09:00
Si il problema è che anche la mia 980 scenderebbe di prezzo pertanto sarei costretto a rinvenderla ad un prezzo molto minore rispetto alle 400 che potrei chiedere ora. Si ora gioco su un 2k!
una cosa è perdere 50 euro sulle 980, una cosa è pagarne 200 in meno sulle x70 rispetto alle 980TI. E inoltre hai pure una architettura nuova, con la certezza che nVidia non la castrerà fino a Volta!
Tra 2 mesi non credo proprio Illy, le presentano al Computex(31 maggio-4 giugno) per cui direi come minimo tra 5-6 mesi o forse direttamente il "back to school", quindi tra 7 mesi. Da vedere se lanceranno prima la titan come fatto con le kepler o prima le 1070-1080 come fatto con le maxwell.
Circa le vram vedremo all'atto pratico, le hbm delle amd sono state un "prototipo".
Per le GDDR5X si parla di 320GB/s di banda su bus da 256bit, per le HBM2 di ben 1TB/s di banda su bus da 4096bit. Per cui secondo me qualche differenza la faranno con i titoli ottimizzati a tal scopo...e magari più su 1440p/4K che su fullHD :)
Facile che le 1070-1080 saranno da 8GB(sempre che non si inventino qualche nuovo giochetto sulle 1070) ed imho la Titan da 32GB e la TI da 16GB.
mah, l'impressione è sempre che alleggerire il carro che sta dietro è utilissimo, ma se il bue è lento, benché fatichi di meno, non andrà chissà quanto veloce...
Beh in genere si presuppone che i porting per pc siano appunto arrichiti da effetti vari (gameworks) più esosi di quelli gestibili dall'hardware delle consoles.
Ecco perchè reputo poco entisuasmanti dichiarazioni circa i 60fps in fullHD se parliamo di giochi per pc :D
Per il resto comunque parliamo di 2 differenti scelte d'azione, c'è chi preferisce procedere di Sli di piccoline, chi di vga singola puntando alle Ti e chi poi procede per Sli di queste ultime :)
Anch'io sinceramente sto aspettando di saperne di più per decidere se mi sia conveniente o meno prendere una seconda Ti.
e qui sono indeciso pure io, perché è innegabile che qualche limite lo SLI ce l'ha (es. non funzionano TXAA, DSR abbinato a gsync, non va su idTech). Spero che escano prima le x70/x80, tanto le Titan saranno di sicuro fuori portata di prezzo, a prescindere dalle prestazioni.
Certo è che se una x70 va quanto una 980ti, e costa poco, con 100/200 euro si fa un bell'upgrade
DarkNiko
01-03-2016, 09:07
Buongiorno a tutti. Segnalo che il nuovo NVFlash 5.265.0 aggiunge il supporto al GP1xx, quindi Pascal appare vicino. :D
io sto' pensando di fare il contrario :D
ahaha in che senso il contrario?
una cosa è perdere 50 euro sulle 980, una cosa è pagarne 200 in meno sulle x70 rispetto alle 980TI. E inoltre hai pure una architettura nuova, con la certezza che nVidia non la castrerà fino a Volta!
bè si se le x70 andranno come una 980Ti ad un prezzo minore sarà il best bay però chi può dirlo...pertanto conviene come avete detto voi di aspettare l'uscita e valutare, tutt'alpiù ricaverò meno dalla vendita della mia 980 ma con la consapovolezza di avere effettuato una scelta avendo dati alla mano piuttosto che ora in cui il discorso è basato su ipotesi.
maxmix65
01-03-2016, 10:22
Buongiorno a tutti. Segnalo che il nuovo NVFlash 5.265.0 aggiunge il supporto al GP1xx, quindi Pascal appare vicino. :D
:D :eek: :p ;)
http://s22.postimg.org/a6gwjrxot/yhrryt4eteryt.jpg (http://postimg.org/image/a6gwjrxot/)
fireradeon
01-03-2016, 10:44
:D :eek: :p ;)
http://s22.postimg.org/a6gwjrxot/yhrryt4eteryt.jpg (http://postimg.org/image/a6gwjrxot/)
:D
paolox86
01-03-2016, 10:45
Io pianificavo di cedere la 980 ti un mesetto prima dell'uscita di Pascal visto che si può ancora piazzare a ottimi prezzi, con la 780 riuscii a fare lo stesso e pagai la 970 praticamente la stessa cifra pochi giorni dopo. Questa volta potrei anticipare ancora di più visto che ho tantissimi giochi arretrati per ps4, spero solo che non esca la Titan per prima altrimenti rischierei veramente la follia della scimmia
Inviato dal mio iPad utilizzando Tapatalk
Spider-Mans
01-03-2016, 10:55
Buongiorno a tutti. Segnalo che il nuovo NVFlash 5.265.0 aggiunge il supporto al GP1xx, quindi Pascal appare vicino. :D
ecco susu.. diamoci una mossa :D
Buongiorno a tutti. Segnalo che il nuovo NVFlash 5.265.0 aggiunge il supporto al GP1xx, quindi Pascal appare vicino. :D
https://i.imgflip.com/102l2f.jpg
:D
.
DarkNiko
01-03-2016, 11:18
Se c'era qualcuno che pensava che NVidia non avesse già pronta la scheda, si ricrederà in fretta. Il problema semmai è capire quanto abbia pesato la situazione in Taiwan post terremoto, quale sia la resa attuale del processo Finfet a 16 nm e quali fasce di mercato NVidia intenda coprire inizialmente.
Potrebbe partire prima col GP104 (in pieno stile 680 ai tempi di Kepler) e per i primi del 2017 con la Titan (GP100 o GP110) e successive Ti, oppure fare il contrario. Di solito però (e la storia ce lo insegna) una nuova architettura non ha mai la massima resa all'uscita, ma solo raffinando il processo nel tempo, ecco perché IMHO vedo meglio l'uscita di GP104 (GTX1080 e GTX1070), seguite a distanza di 6 mesi dalla Titan (GP100 o GP110) e dalla successiva GTX 1080 Ti per coprire tutte le fasce di utilizzo (media-alta-enthusiast).
Al Computex se ne saprà di più. Non è escluso che vi sia qualche colpo di scena. :D
fireradeon
01-03-2016, 11:22
Minchia siamo dei drogati raga!! :D
Abbiamo la 980Ti nel case (chi la 980, chi la Titan) e siamo qui a fappare sui rumor delle nuove VGA. :D
deadbeef
01-03-2016, 11:26
Se c'era qualcuno che pensava che NVidia non avesse già pronta la scheda, si ricrederà in fretta. Il problema semmai è capire quanto abbia pesato la situazione in Taiwan post terremoto, quale sia la resa attuale del processo Finfet a 16 nm e quali fasce di mercato NVidia intenda coprire inizialmente.
Potrebbe partire prima col GP104 (in pieno stile 680 ai tempi di Kepler) e per i primi del 2017 con la Titan (GP100 o GP110) e successive Ti, oppure fare il contrario. Di solito però (e la storia ce lo insegna) una nuova architettura non ha mai la massima resa all'uscita, ma solo raffinando il processo nel tempo, ecco perché IMHO vedo meglio l'uscita di GP104 (GTX1080 e GTX1070), seguite a distanza di 6 mesi dalla Titan (GP100 o GP110) e dalla successiva GTX 1080 Ti per coprire tutte le fasce di utilizzo (media-alta-enthusiast).
Al Computex se ne saprà di più. Non è escluso che vi sia qualche colpo di scena. :D
Non sarebbe più logico pensare che Nvidia voglia massimizzare i profitti all'inizio quando la resa non è al top, presentando prima le Titan?
TigerTank
01-03-2016, 11:48
e qui sono indeciso pure io, perché è innegabile che qualche limite lo SLI ce l'ha (es. non funzionano TXAA, DSR abbinato a gsync, non va su idTech). Spero che escano prima le x70/x80, tanto le Titan saranno di sicuro fuori portata di prezzo, a prescindere dalle prestazioni.
Certo è che se una x70 va quanto una 980ti, e costa poco, con 100/200 euro si fa un bell'upgrade
Eh già...il fatto che il dsr non funzioni con lo Sli è un bel paradosso perchè è proprio il caso in cui invece dovrebbe funzionare per sfruttare la potenza del multigpu. :doh:
Sì circa le pascaline come avevo già scritto sarà anche importante vedere l'entità dello stacco in dx12 con laq nuova architettura perchè magari rispetto alla gtx980Ti o va un pò meno con i giochi basati su dx precedenti ma recupera in dx12 o magari va quasi alla pari con le dx precedenti e stacca un pò in dx12. Vedremo...è di sicuro una delle cose su cui attendo di saperne di più insieme ad altre tipo regolatori di voltaggio sbloccati o meno, influenza dell'overvolt sull'oc, ecc... :)
Minchia siamo dei drogati raga!! :D
Abbiamo la 980Ti nel case (chi la 980, chi la Titan) e siamo qui a fappare sui rumor delle nuove VGA. :D
Eheheheh la scimmia c'è sempre ma io sinceramente non mi lancio più nell'acquisto di vga appena uscite. Aspetto almeno quei 2-3 mesi di rodaggio e di uscita dei vari modeli custom.
maxmix65
01-03-2016, 13:00
:D
https://i.imgflip.com/102l2f.jpg
:D
.
Minchia siamo dei drogati raga!! :D
Abbiamo la 980Ti nel case (chi la 980, chi la Titan) e siamo qui a fappare sui rumor delle nuove VGA. :D
:D :p Mi sa che non sono l'unico malato hahahahah
illidan2000
01-03-2016, 13:01
Comunque non si era detto che prima arrivavano le Tesla?
si, infatti penso e spero ci sia questa progressione:
Tesla: Aprile
1080: Giugno
Titan: Natale 2016
1080TI: Aprile 2017
fireradeon
01-03-2016, 13:07
:D :p Mi sa che non sono l'unico malato hahahahah
Aahahahahah io ho lo il gorilla sulle spalle altro che scimmione!!! :D
fireradeon
01-03-2016, 13:08
si, infatti penso e spero ci sia questa progressione:
Tesla: Aprile
1080: Giugno
Titan: Natale 2016
1080TI: Aprile 2017
Se è questa mi sa che faccio prima a prendere un'altra 980Ti e tirare fino al 2017
ahaha in che senso il contrario?
bè si se le x70 andranno come una 980Ti ad un prezzo minore sarà il best bay però chi può dirlo...pertanto conviene come avete detto voi di aspettare l'uscita e valutare, tutt'alpiù ricaverò meno dalla vendita della mia 980 ma con la consapovolezza di avere effettuato una scelta avendo dati alla mano piuttosto che ora in cui il discorso è basato su ipotesi.
nel senso che stavo pensando di vendere o scambiare la mia con una 980 e tenermi il conguaglio come riserva per vga future
illidan2000
01-03-2016, 13:46
So che a te sembrerà una bestemmia ma nelle prima metà 2016 dovrebbe uscire anche il chippone readeon, magari puoi dare un occhio a come va :asd:
purtroppo su AMD non ci puoi contare. Vedremo il chippone dopo le Titan mi sa...
So che a te sembrerà una bestemmia ma nelle prima metà 2016 dovrebbe uscire anche il chippone readeon, magari puoi dare un occhio a come va :asd:
Andrà come al solito, drivers "stabili" ad un anno dall'uscita, e i soliti problemi di sempre, che è stancante elencare ogni volta.
killeragosta90
01-03-2016, 13:59
:D :eek: :p ;)
http://s22.postimg.org/a6gwjrxot/yhrryt4eteryt.jpg (http://postimg.org/image/a6gwjrxot/)
No grazie, si attende la Ti ;)
illidan2000
01-03-2016, 14:03
Beh ma della Titan chissenè :D
Il punto è che io vorrei vedere tutte le portate prima di scegliere quale mangiare, se no poi non mi resta spazio per la torta :asd:
eh, secondo il mio calcolo, le 1080 sarebbero già uscite da un pezzo, rendendo le Fury (Y?) meno appetibili, o sicuramente con situazione di mercato più satura
No grazie, si attende la Ti ;)
https://i.imgflip.com/102tga.jpg
.
Giovamas
01-03-2016, 14:19
si, infatti penso e spero ci sia questa progressione:
Tesla: Aprile
1080: Giugno
Titan: Natale 2016
1080TI: Aprile 2017
Si attende la Ti. Ti + skylake-e
fireradeon
01-03-2016, 14:26
So che a te sembrerà una bestemmia ma nelle prima metà 2016 dovrebbe uscire anche il chippone readeon, magari puoi dare un occhio a come va :asd:
Ormai ho scelto la via verde e difficilmente cambierò, anche perchè avendo 1 (presto 2) monitor Gsynch è una scelta praticamente obbligata.
illidan2000
01-03-2016, 14:50
Ormai ho scelto la via verde e difficilmente cambierò, anche perchè avendo 1 (presto 2) monitor Gsynch è una scelta praticamente obbligata.
mah, pure io ho il monitor gsync, ma se mi gira, potrei pure cambiarlo...
fireradeon
01-03-2016, 15:14
mah, pure io ho il monitor gsync, ma se mi gira, potrei pure cambiarlo...
Ma non è solo per quello, anche per i driver, lo sli etc. ormai mi trovo meglio con Nvidia, anche se rispetto AMD e spero torni presto al top come un tempo.
mi hanno appena attivato un anno di infinity 4k :fagiano:
che spettacolo va da dio con una umile 8 mega, ufficiale 7.
che si sbrighino a fare ste vga 4k ready, mi sento che faranno le titan custom sto giro non so perche
Raga so che centra come i cavoli a merenda ma...
Forza Motorsport 6 su windows 10 con DX12 e risoluzione 4K
http://www.spaziogames.it/notizie_videogiochi/console_multi_piattaforma/230286/forza-motorsport-6-apex-ufficiale-per-pc-nuova-espansione-per-xbox-one.aspx
Ed è pure gratuito! :eek: .
deadbeef
01-03-2016, 15:47
E' uscito anche Gears of War: Ultimate Edition poche ore fa, ma sembra avere grossi problemi di ottimizzazione
Ormai ho scelto la via verde e difficilmente cambierò, anche perchè avendo 1 (presto 2) monitor Gsynch è una scelta praticamente obbligata.
Allora devi cambiare nickname :asd:
killeragosta90
01-03-2016, 17:09
E' uscito anche Gears of War: Ultimate Edition poche ore fa, ma sembra avere grossi problemi di ottimizzazione
Insomma, tanto per cambiare...
illidan2000
01-03-2016, 17:10
E' uscito anche Gears of War: Ultimate Edition poche ore fa, ma sembra avere grossi problemi di ottimizzazione
sarebbe il remake del primo?
dicono che in dx12 su nvidia il framerate sia ballerino..che depressione
athlon xp 2400
01-03-2016, 17:35
Ormai ho scelto la via verde e difficilmente cambierò, anche perchè avendo 1 (presto 2) monitor Gsynch è una scelta praticamente obbligata.
Ecco perché non ho comprato un monitor gsync ma uno " normale "
Spider-Mans
01-03-2016, 18:51
si, infatti penso e spero ci sia questa progressione:
Tesla: Aprile
1080: Giugno
Titan: Natale 2016
1080TI: Aprile 2017
beh questa sarebbe l'ipotesi migliore e ottimistica... prima dell estate i successori di 970 e 980 farebbero il botto di vendite...visto che terminano le scuole e tutti famelici col pc nuovo :asd:
questo darebbe un lasso di tempo maggiore per avere le custom disponibili nei negozi nei mesi estivi o a fine estate ....insomma in ogni caso si dovra attendere la fine delle state realisticamente anche nella migliore ipotesi..perche non credo che le custom usciranno al lancio..o sbaglio? xD poi occorre vedere le vendite e disponibilita...
ecco perche a giorni prendo una 970 evga nuova dall amazzonia ...visto che mi sono stancato di attendere per il pc nuovo che rimando da ottobre xD ...ma sara una scheda pro tempore xD in attesa di 1080 o 1070
poi nel 2017 se la ti sara meritevole di attenzione si upgradera senza fretta
paolox86
01-03-2016, 19:28
Io non escluderei, se davvero ci fossero problemi con la produzione di massa causa terremoto, che a questo giro tirino fuori subito la Titan che come volume di vendita fanno l'1% delle GP104. Ipotesi azzardata, nemmeno io ci credo molto ma non la escluderei
Inviato dal mio iPad utilizzando Tapatalk
si, infatti penso e spero ci sia questa progressione:
Tesla: Aprile
1080: Giugno
Titan: Natale 2016
1080TI: Aprile 2017
ma magari!!
almeno la scimmia addetta alle schede video se ne starebbe in gabbia per un po' ... sta passione (informatica e pc gaming intendo) mi costa una:muro: fortuna
Crysis90
01-03-2016, 20:36
E' uscito anche Gears of War: Ultimate Edition poche ore fa, ma sembra avere grossi problemi di ottimizzazione
Ma pensa te...un gioco uscito 10 anni fa su quel catorcio di Xbox 360, che non riesce a girare decentemente su un hardware 10/20 volte più potente.
Chi l'avrebbe mai detto?!? :D :sofico: :muro: :doh:
Scusate la ripetitività ma....la fascia medio/bassa!!!
Qualcuno pensi alla fascia fascia medio/bassa!!!!!!!!!!!!!!!!!!
Mica tutti abbiamo 400€+ da spendere :cry: :cry:
fraussantin
01-03-2016, 21:06
Scusate la ripetitività ma....la fascia medio/bassa!!!
Qualcuno pensi alla fascia fascia medio/bassa!!!!!!!!!!!!!!!!!!
Mica tutti abbiamo 400+ da spendere :cry: :cry:
Quelle in genere escono in un secondo tempo.
Perchè prima devono smaltire la vecchia serie.
Ma in genere conviene amd.
Quelle in genere escono in un secondo tempo.
Perchè prima devono smaltire la vecchia serie.
Ma in genere conviene amd.
Se escono prima le nuove AMD,chi se le inc**a le 960??Dobbiamo ancora vederle,ma non credo ne valga la pena.A meno che non ne abbattano il prezzo.O le 970 caleranno sulle 220-250€
fireradeon
01-03-2016, 21:17
Allora devi cambiare nickname :asd:
Ma tu lo sai che il mio nick é dovuto proprio alle schede video Radeon? Non ricordo perché misi fire davanti però. :D
Ecco perché non ho comprato un monitor gsync ma uno " normale "
E non sai che ti perdi! ;)
Ma pensa te...un gioco uscito 10 anni fa su quel catorcio di Xbox 360, che non riesce a girare decentemente su un hardware 10/20 volte più potente.
Chi l'avrebbe mai detto?!? :D :sofico: :muro: :doh:
In realtà il gioco è stato migliorato molto graficamente ed è DX12, non è un porting ma un quasi remake. Peccato che abbia dei problemi assurdi di ottimizzazione. http://wccftech.com/amd-nvidia-gears-of-war-ultimate-broken/
paolox86
01-03-2016, 22:23
Veramente un fail che il primo gioco DirectX 12, sviluppato dalla stessa Microsoft sia afflitto da questi problemi
Inviato dal mio iPad utilizzando Tapatalk
Crysis90
01-03-2016, 23:10
In realtà il gioco è stato migliorato molto graficamente ed è DX12, non è un porting ma un quasi remake. Peccato che abbia dei problemi assurdi di ottimizzazione. http://wccftech.com/amd-nvidia-gears-of-war-ultimate-broken/
Si, un remake di un gioco realizzato con un engine che ha 10/12 anni sulle spalle e che non gira su hardware 10/20 volte più potente di quello su cui esordì...:rolleyes: :rolleyes: :rolleyes:
Hanno aggiunto qualche texture al alta risoluzione e "aggiornato" qualche altro effettuccio, non hanno di certo riscritto l'engine e tutto il codice IMHO. ;)
Comunque chiuso OT, quì si parla di altro.
cyberpunk2020
02-03-2016, 06:43
si, infatti penso e spero ci sia questa progressione:
Tesla: Aprile
1080: Giugno
Titan: Natale 2016
1080TI: Aprile 2017
Tanto x rimanere in tema ....... Hai fatto arrabbiare la mia scimmia !!
Inviato dal mio i8086 utilizzando Tapatalk
athlon xp 2400
02-03-2016, 06:57
Ma tu lo sai che il mio nick é dovuto proprio alle schede video Radeon? Non ricordo perché misi fire davanti però. :D
E non sai che ti perdi! ;)
In realtà il gioco è stato migliorato molto graficamente ed è DX12, non è un porting ma un quasi remake. Peccato che abbia dei problemi assurdi di ottimizzazione. http://wccftech.com/amd-nvidia-gears-of-war-ultimate-broken/
A sentire alcuni utenti cambia dal giorno alla notte il gsync, altri che c'è poca differenza Lol per adesso salto più avanti fra 4 o 5 anni vedro'
fireradeon
02-03-2016, 07:09
A sentire alcuni utenti cambia dal giorno alla notte il gsync, altri che c'è poca differenza Lol per adesso salto più avanti fra 4 o 5 anni vedro'
Se giocare senza tearing e fluido anche a 30/40 fps è poca cosa, allora si
TigerTank
02-03-2016, 09:14
A sentire alcuni utenti cambia dal giorno alla notte il gsync, altri che c'è poca differenza Lol per adesso salto più avanti fra 4 o 5 anni vedro'
Io di solito sono piuttosto critico ed ho considerato mezzi fail il physx e il 3dvision, ma il gsync è veramente un passo avanti. Poi certo...con i giochi fatti con i piedi e dotati di motori di gioco male ottimizzati e stutterosi nemmeno lui può fare miracoli e quindi a parte il tearing cambia poco :)
In ogni caso direi che la congiunzione gsync + ips 1440p con frequenze da 100-144-165Hz sia una bella esperienza di gaming(rigiocare qualche vecchio titolo a 144fps+gsync e magari il dsr è una goduria)....e lo sarà ancora di più quando sarà sfruttata dalla potenza superiore delle pascal.
aled1974
02-03-2016, 09:28
concordo ma fino a un certo punto :mano:
il gsync (o il freesync) è meglio se partono da bassi valori in Hz piuttosto che raggiungerne di altissimi, secondo me
se un titolo fa più di 100fps costanti (quindi il minimo è oltre) lo cappi con un programma a 100fps e via (o lo cappi a 60-75fps o quel che è)
ma se un titolo ha dei minimi da 30fps o inferiori, vuoi di suo o per i filtri impostati, e siamo al di fuori dell'adaptive sync è molto peggio, sempre secondo me
meglio un sync 20-90 che uno 60-144 (numeri a caso che non rispecchiano monitor reali, solo per capirci) ;) :mano:
ciao ciao
fireradeon
02-03-2016, 09:30
Io di solito sono piuttosto critico ed ho considerato mezzi fail il physx e il 3dvision, ma il gsync è veramente un passo avanti. Poi certo...con i giochi fatti con i piedi e dotati di motori di gioco male ottimizzati e stutterosi nemmeno lui può fare miracoli e quindi a parte il tearing cambia poco :)
In ogni caso direi che la congiunzione gsync + ips 1440p con frequenze da 100-144-165Hz sia una bella esperienza di gaming(rigiocare qualche vecchio titolo a 144fps+gsync e magari il dsr è una goduria)....e lo sarà ancora di più quando sarà sfruttata dalla potenza superiore delle pascal.
Ma a che serve il dsr su schermi 1440p? Solo per i giochi vecchi ha un senso ma per i nuovi secondo me no. Cmq gsynch forevah una volta provato non si torna indietro, come per i monitor 100-120-144 hz e come la risoluzione 1440p in su etc. Sono nella top list delle cose da avere (dicono anche il 21:9 ma quello lo scoprirò a breve si spera).
TigerTank
02-03-2016, 09:55
concordo ma fino a un certo punto :mano:
il gsync (o il freesync) è meglio se partono da bassi valori in Hz piuttosto che raggiungerne di altissimi, secondo me
se un titolo fa più di 100fps costanti (quindi il minimo è oltre) lo cappi con un programma a 100fps e via (o lo cappi a 60-75fps o quel che è)
ma se un titolo ha dei minimi da 30fps o inferiori, vuoi di suo o per i filtri impostati, e siamo al di fuori dell'adaptive sync è molto peggio, sempre secondo me
meglio un sync 20-90 che uno 60-144 (numeri a caso che non rispecchiano monitor reali, solo per capirci) ;) :mano:
ciao ciao
Ehm...non proprio. Non mi dilungo per non andare OT ma fidati che hai scritto un pò di inesattezze :)
Ma a che serve il dsr su schermi 1440p? Solo per i giochi vecchi ha un senso ma per i nuovi secondo me no. Cmq gsynch forevah una volta provato non si torna indietro, come per i monitor 100-120-144 hz e come la risoluzione 1440p in su etc. Sono nella top list delle cose da avere (dicono anche il 21:9 ma quello lo scoprirò a breve si spera).
21:9 da gaming sono pesanti...pure io ho avuto qualche scimmia ma tra costi, lotteria dei pannelli, certi orrori che si leggono sui nuovi giochi e necessità di aggiungere una seconda Ti, ho lasciato stare. Vedrò nel 2017, con la famiglia pascal al gran completo e magari con qualche notizia in più sugli OLED.
Circa il dsr, è praticamente una tecnica antialiasing che appunto io uso quando c'è margine(e se funziona) perchè agisce su tutto a differenza dei filtri soliti. Poi certo, con i mattoni invece ci si limita all'smaa però man mano che con gli anni aggiorno il pc, è bello riprendere ogni tanto titoli vecchiotti e spararli a livelli allora impensabili.
Tanto per fare un esempio ho appena rigiocato i primi 2 Dead Space con DSR 4K e framerate quasi sempre a 144. Una goduria rispetto al fullHD 60Hz di allora :D
illidan2000
02-03-2016, 09:56
concordo ma fino a un certo punto :mano:
il gsync (o il freesync) è meglio se partono da bassi valori in Hz piuttosto che raggiungerne di altissimi, secondo me
se un titolo fa più di 100fps costanti (quindi il minimo è oltre) lo cappi con un programma a 100fps e via (o lo cappi a 60-75fps o quel che è)
ma se un titolo ha dei minimi da 30fps o inferiori, vuoi di suo o per i filtri impostati, e siamo al di fuori dell'adaptive sync è molto peggio, sempre secondo me
meglio un sync 20-90 che uno 60-144 (numeri a caso che non rispecchiano monitor reali, solo per capirci) ;) :mano:
ciao ciao
il fatto è che si balla, o si cerca di far ballare (modificando i settaggi) il gioco sempre a cavallo dei 60fps (certo sarebbe meglio averne 100, ma con molti giochi non ci arrivi come potenza video).
Quindi il gsync si rivela utilissimo per non dover usare il triple buffer, e quindi laggare. I frame non sono costanti, e spesso scendi sotto i 60. Senza triple buffer e senza vsync hai tearing. Con vsync ti si dimezzano gli fps....
E cmq, è un bel po' di sbattimento che ti eviti, a cercare di fare andare bene tutte queste cose, e sicuramente ci guadagni SEMPRE in input lag di almeno 1 (se non più) fps
aled1974
02-03-2016, 10:02
Ehm...non proprio. Non mi dilungo per non andare OT ma fidati che hai scritto un pò di inesattezze :)
dilungati pure, ho intenzione con Pascal/Polaris di prendere un monitor adaptive sync, mi interessa molto :ave:
il fatto è che si balla, o si cerca di far ballare (modificando i settaggi) il gioco sempre a cavallo dei 60fps (certo sarebbe meglio averne 100, ma con molti giochi non ci arrivi come potenza video).
Quindi il gsync si rivela utilissimo per non dover usare il triple buffer, e quindi laggare. I frame non sono costanti, e spesso scendi sotto i 60. Senza triple buffer e senza vsync hai tearing. Con vsync ti si dimezzano gli fps....
E cmq, è un bel po' di sbattimento che ti eviti, a cercare di fare andare bene tutte queste cose, e sicuramente ci guadagni SEMPRE in input lag di almeno 1 (se non più) fps
io mi accontento di 60fps finchè non si parla di VR ma in quel caso il monitor diventa relativo
appunto quando il framerate è incostante interviene il sync a sincronizzare frames vga con hz monitor, o no? :stordita: Se il framerate, per quanto incostante sia, ricade nel range del sync di tearing neanche l'ombra
ciao ciao
Giovamas
02-03-2016, 10:12
A sentire alcuni utenti cambia dal giorno alla notte il gsync, altri che c'è poca differenza Lol per adesso salto più avanti fra 4 o 5 anni vedro'
A me qui nel thread mi è stato consigliato di non vederlo mai all'opera il gsync, altrimenti cambio monitor. Ad ogni modo quando la Benq lo farà in 2K, valuterò. Purtroppo io no Benq no party
aled1974
02-03-2016, 10:17
Hai le idee un po' confuse perché quello è il lavoro del G-Sync, che elimina di conseguenza tearing e stuttering; il V-Sync ha un'altra funzione, e non possiamo dilungarci qui perché sarebbe OT ;)
aaaah ecco dov'è la confusione
io scrivo sync intendendo adaptive sync (gsync o freesync) e voi intendete V-sync
notare che non ho mai scritto v-sync ;)
fine OT :mano:
ciao ciao
athlon xp 2400
02-03-2016, 10:19
A me qui nel thread mi è stato consigliato di non vederlo mai all'opera il gsync, altrimenti cambio monitor. Ad ogni modo quando la Benq lo farà in 2K, valuterò. Purtroppo io no Benq no party
Mi accontento del 21:9 34" dell
Oggi lo provo e vi dico :)
fireradeon
02-03-2016, 10:53
21:9 da gaming sono pesanti...pure io ho avuto qualche scimmia ma tra costi, lotteria dei pannelli, certi orrori che si leggono sui nuovi giochi e necessità di aggiungere una seconda Ti, ho lasciato stare. Vedrò nel 2017, con la famiglia pascal al gran completo e magari con qualche notizia in più sugli OLED.
Circa il dsr, è praticamente una tecnica antialiasing che appunto io uso quando c'è margine(e se funziona) perchè agisce su tutto a differenza dei filtri soliti. Poi certo, con i mattoni invece ci si limita all'smaa però man mano che con gli anni aggiorno il pc, è bello riprendere ogni tanto titoli vecchiotti e spararli a livelli allora impensabili.
Tanto per fare un esempio ho appena rigiocato i primi 2 Dead Space con DSR 4K e framerate quasi sempre a 144. Una goduria rispetto al fullHD 60Hz di allora :D
Immagino, appena giocherò ad altri titoli vecchi lo uso a che io. Cmq a breve prenderó il 21:9 e aspetto fino a giugno per la vga.
Giovamas
02-03-2016, 11:09
Mi accontento del 21:9 34" dell
Oggi lo provo e vi dico :)
Ok mi interessa
athlon xp 2400
02-03-2016, 14:45
Ok mi interessa
arrivato il dell u3415w ho la mascella in terra
colori e calibrazione di fabbrica gia perfetti nn ho toccato niente.. poco glow in alto a sinistra niente di che mi aspettavo di peggio su sto pannello grosso.. ma sta risoluzione e' una mattonata pazzesca! in tw3 tt al max tranne hair disattivo ombre su alto e fogliame su alto arrivo anche a 45 fps! a 1440 p cosi ero semrpe a 60! ma l'immersione e' una cosa incredibile pare di essere dentro al gioco! tempi di risposta nella norma e input lag buonissimo.. ho lasciato i pixel su normal, c'e anche l'opzione fast...
consigliatissimo
barbara67
02-03-2016, 14:54
arrivato il dell u3415w ho la mascella in terra
colori e calibrazione di fabbrica gia perfetti nn ho toccato niente.. poco glow in alto a sinistra niente di che mi aspettavo di peggio su sto pannello grosso.. ma sta risoluzione e' una mattonata pazzesca! in tw3 tt al max tranne hair disattivo ombre su alto e fogliame su alto arrivo anche a 45 fps! a 1440 p cosi ero semrpe a 60! ma l'immersione e' una cosa incredibile pare di essere dentro al gioco! tempi di risposta nella norma e input lag buonissimo.. ho lasciato i pixel su normal, c'e anche l'opzione fast...
consigliatissimo
:D Non vorrei dire, ma te lo avevo detto ..... ;)
Ci ha ragggggione il metallaro .... a gsync gli do un annetto ....
athlon xp 2400
02-03-2016, 15:41
:D Non vorrei dire, ma te lo avevo detto ..... ;)
Ora ci vuole lo sli lol
fraussantin
02-03-2016, 15:49
Eh se Intel va su AS è una bella sberla per Nvidia.
Il che mi fa rinquorare di aver spettato a buttarmi si quella tecnologia molto costosa
barbara67
02-03-2016, 15:49
Ora ci vuole lo sli lol
:) Si sarebbe l' ideale, ma visto che non lo ho fatto fino ad ora, aspetto l' uscita delle nuove vga per farlo e non è detto che sia uno sli ma potrebbe essere anche un cross .... ;)
athlon xp 2400
02-03-2016, 15:52
:) Si sarebbe l' ideale, ma visto che non lo ho fatto fino ad ora, aspetto l' uscita delle nuove vga per farlo e non è detto che sia uno sli ma potrebbe essere anche un cross .... ;)
Il vantaggio di nn prendere un monitor di parte :) tw3 come lo giochi a che dettagli e che frame
barbara67
02-03-2016, 15:56
Il vantaggio di nn prendere un monitor di parte :) tw3 come lo giochi a che dettagli e che frame
E' un po che non lo avvio ora non ricordo (maledizione a me e alla mia malattia cronica per i Soul) ....
Ma visto che ho anche i DLC da fare questa sera lo riprendo e poi ti dico.
Giovamas
02-03-2016, 16:32
arrivato il dell u3415w ho la mascella in terra
colori e calibrazione di fabbrica gia perfetti nn ho toccato niente.. poco glow in alto a sinistra niente di che mi aspettavo di peggio su sto pannello grosso.. ma sta risoluzione e' una mattonata pazzesca! in tw3 tt al max tranne hair disattivo ombre su alto e fogliame su alto arrivo anche a 45 fps! a 1440 p cosi ero semrpe a 60! ma l'immersione e' una cosa incredibile pare di essere dentro al gioco! tempi di risposta nella norma e input lag buonissimo.. ho lasciato i pixel su normal, c'e anche l'opzione fast...
consigliatissimo
Oh maremma.... aveva ragione Barbara quindi! :cool: bravo complimenti sono contento per te. Ora mi stanno salendo pensieri strani :D
athlon xp 2400
02-03-2016, 16:38
Oh maremma.... aveva ragione Barbara quindi! :cool: bravo complimenti sono contento per te. Ora mi stanno salendo pensieri strani :D
soldi spesi bene
Giovamas
02-03-2016, 17:18
soldi spesi bene
devo dire di si. A parte la spesa però ho anche problemi "fisici" di spazio. Ma è da valutare con Pascal:) veramente da valutare
athlon xp 2400
02-03-2016, 17:21
devo dire di si. A parte la spesa però ho anche problemi "fisici" di spazio. Ma è da valutare con Pascal:) veramente da valutare
Sicuramente per quello che costa li vale tutti anche di piu'
TigerTank
02-03-2016, 17:44
Ora ci vuole lo sli lol
Ahahahah da "torno al fullHD per giocare meglio" al "3440x1440 + voglia di Sli". Una conversione totale! :sofico:
In effetti Nvidia farebbe bene a supportare adaptive sync il prima possibile, tra il fatto che Intel vuole aderire, i produttori di schermi abbiano dedicato più modelli ad adaptive sync rispetto a gsync e le voci (anche se basate solo su speculazioni) di una possibile adozione di adaptive sync da parte di nvidia, potrebbe essere che molti nel dubbio prendano una radeon per non sbagliare (sempre se avranno prestazioni simili, ma non fatemelo scrivere ogni volta).
Personalmente questa faccenda è una cosa che fa pendere molto l'ago della bilancia verso AMD.
Sì ma scrivile nel thread di AMD queste strane supposizioni, non venire a trollare qui :D
Che Intel aderisca non cambia una ceppa, nel senso che di nuovo si avrà il supporto all'adaptive sync delle sue gpu....ma chi è che qui dentro(o nel thread delle amd) ha mai giocato con le integrate Intel?
Certo sarebbe bello un adaptive sync universale, con relativa massima libertà di scegliere vga e monitor futuri...ma allo stato attuale delle cose le ultime schede nvidia sono messe meglio delle ultime schede amd ed il gsync si è rivelato superiore al freesync(i monitor da gaming freesync sono in ritardo rispetto ai gsync). Per cui a meno che le cose cambino con le nuove schede del 2016, è più facile che Nvidia se ne esca con un gsync2 piuttosto che aderire all'adaptive sync :D
E infine mica comprendo la cosa del "prendere le radeon per non sbagliare", se nvidia volesse supportare l'adaptive-sync le basterebbe semplicemente creare dei drivers sbloccati con relativo supporto. ;)
Ahahahah da "torno al fullHD per giocare meglio" al "3440x1440 + voglia di Sli". Una conversione totale! :sofico:
Sì ma scrivetele nel thread di AMD queste strane supposizioni, non venite a trollare qui :D
Che Intel aderisca non cambia una ceppa, nel senso che di nuovo si avrà il supporto all'adaptive sync delle sue gpu....ma chi è che qui dentro ha mai giocato con le integrate Intel?
Certo sarebbe bello un adaptive sync universale, con relativa massima libertà di scegliere vga e monitor futuri...ma allo stato attuale delle cose le ultime schede nvidia sono messe meglio delle ultime schede amd ed il gsync si è rivelato superiore al freesync(i monitor da gaming freesync sono in ritardo rispetto ai gsync). Per cui a meno che le cose cambino con le nuove schede del 2016, è più facile che Nvidia se ne esca con un gsync2 piuttosto che aderire all'adaptive sync :D
E infine mica comprendo la cosa del "prendere le radeon per non sbagliare", se nvidia volesse supportare l'adaptive-sync le basterebbe semplicemente creare dei drivers sbloccati con relativo supporto. ;)
È che si sono stufati di ingraziarsi tra di loro, e vengono a sfogarsi qua.
Legolas84
02-03-2016, 18:26
Ahahahah da "torno al fullHD per giocare meglio" al "3440x1440 + voglia di Sli". Una conversione totale! :sofico:
Sì ma scrivile nel thread di AMD queste strane supposizioni, non venire a trollare qui :D
Che Intel aderisca non cambia una ceppa, nel senso che di nuovo si avrà il supporto all'adaptive sync delle sue gpu....ma chi è che qui dentro(o nel thread delle amd) ha mai giocato con le integrate Intel?
Certo sarebbe bello un adaptive sync universale, con relativa massima libertà di scegliere vga e monitor futuri...ma allo stato attuale delle cose le ultime schede nvidia sono messe meglio delle ultime schede amd ed il gsync si è rivelato superiore al freesync(i monitor da gaming freesync sono in ritardo rispetto ai gsync). Per cui a meno che le cose cambino con le nuove schede del 2016, è più facile che Nvidia se ne esca con un gsync2 piuttosto che aderire all'adaptive sync :D
E infine mica comprendo la cosa del "prendere le radeon per non sbagliare", se nvidia volesse supportare l'adaptive-sync le basterebbe semplicemente creare dei drivers sbloccati con relativo supporto. ;)
Quoto tutto... E aggiungo meno male che nvidia continuerà con il suo standard che garantisce una compatibilità superiore essendo uno standard chiuso unita a prestazioni superiori.
Inviato dal mio ONE A2003 utilizzando Tapatalk
TigerTank
02-03-2016, 18:26
Non ho capito in cosa il gsync sarebbe superiore ad adaptive sync, fanno la stessa identica cosa allo stesso modo.
I monitor da gaming ci sono per l'uno e per l'altro sistema, anzi adaptive sync ci sono più modelli già sul mercato e ci sono più modelli in arrivo.
Il "prendere le radeon per non sbagliare" è ovviamente abbinato ad un monitor adaptive sync e alle voci che vogliono l'adaptive sync anche su nvidia, uno potrebbe prendere un monitor adaptive sync perché in futuro potrebbe essere compatibile con tutte le schede e abbinarlo ad una rossa perché per ora le verdi non sono compatibili.
Nvidia in questo scenario può continuare a forzare per gsync, ma sembra stia perdendo visto l'andazzo, oppure abbracciare lo standard.
Sì, fanno la stessa cosa ma il freesync ha sofferto per un bel pò di problemi di eccessivo ghosting tant'è che se da un lato sono usciti monitor ips da gaming con il gsync, dall'altro c'erano solo freesync da gaming su tn, seguiti da altri con un range di freesync limitato(vedi MG279Q). Tanto per fare un esempio il corrispondente freesync(XF270HU) del mio modello gsync(XB270HU) e dotato di range completo è uscito solo di recente. Ed ora come gsync abbiamo già i 165Hz.
Comunque tornando alle vga, credo che il tutto dipenderà dalle future schede che usciranno. Se nvidia farà uscire schede vincenti così come lo sono oggi le gtx980Ti rispetto alle FuryX, sarà scontato che calcherà ancora la mano sulla tecnologia proprietaria o su un'evoluzione di essa(che scherzosamente ho definito "gsync2") piuttosto che adeguarsi allo standard universale.
Non che la cosa mi piaccia ovviamente, ma a meno appunto di un ribaltone rivoluzionario da parte di amd, vedo dura un'imposizione totale dell'adaptive sync universale.
Quoto tutto... E aggiungo meno male che nvidia continuerà con il suo standard che garantisce una compatibilità superiore essendo uno standard chiuso unita a prestazioni superiori.
Da un lato sì...da un lato come ho scritto qui sopra sono tutte costrizioni che limitano le scelte future...un pò come successo con il physx anche se fortunatamente in modo molto limitato.
Certo uno standard universale valido sarebbe meglio, purtroppo è così che stanno le cose...con relativi pro e contro.
Legolas84
02-03-2016, 18:52
Sì, fanno la stessa cosa ma il freesync ha sofferto per un bel pò di problemi di eccessivo ghosting tant'è che se da un lato sono usciti monitor ips da gaming con il gsync, dall'altro c'erano solo freesync da gaming su tn, seguiti da altri con un range di freesync limitato(vedi MG279Q). Tanto per fare un esempio il corrispondente freesync(XF270HU) del mio modello gsync(XB270HU) e dotato di range completo è uscito solo di recente. Ed ora come gsync abbiamo già i 165Hz.
Comunque tornando alle vga, credo che il tutto dipenderà dalle future schede che usciranno. Se nvidia farà uscire schede vincenti così come lo sono oggi le gtx980Ti rispetto alle FuryX, sarà scontato che calcherà ancora la mano sulla tecnologia proprietaria o su un'evoluzione di essa(che scherzosamente ho definito "gsync2") piuttosto che adeguarsi allo standard universale.
Non che la cosa mi piaccia ovviamente, ma a meno appunto di un ribaltone rivoluzionario da parte di amd, vedo dura un'imposizione totale dell'adaptive sync universale.
Da un lato sì...da un lato come ho scritto qui sopra sono tutte costrizioni che limitano le scelte future...un pò come successo con il physx anche se fortunatamente in modo molto limitato.
Certo uno standard universale valido sarebbe meglio, purtroppo è così che stanno le cose...con relativi pro e contro.
Il punto è che la tecnologia freesync si basa sul driver AMD che deve interfacciarsi con uno scaler di nuova generazione dotato di adaptive sync.... Quello scaler può essere di qualsiasi marchio e tipo... È questo che ha causato e potrà causare problemi...
Il gSync invece vede il driver nvidia interfacciarsi sempre e solo con lo scaler proprietario sviluppato da nvidia (il famoso modulo), cosa che garantisce l'assenza di qualsivoglia incompatibilità o difetto... Senza contare i maggiori margini di apportare correzioni e miglioramenti visto che è tutto fatto in casa...
Il contro della medaglia è che si paga di più ok... Ma per chi non vuole spendere di più basta guardare appunto all'altra soluzione dove tutto costa meno pure le schede....
Inviato dal mio ONE A2003 utilizzando Tapatalk
TigerTank
02-03-2016, 19:17
Il punto è che la tecnologia freesync si basa sul driver AMD che deve interfacciarsi con uno scaler di nuova generazione dotato di adaptive sync.... Quello scaler può essere di qualsiasi marchio e tipo... È questo che ha causato e potrà causare problemi...
Il gSync invece vede il driver nvidia interfacciarsi sempre e solo con lo scaler proprietario sviluppato da nvidia (il famoso modulo), cosa che garantisce l'assenza di qualsivoglia incompatibilità o difetto... Senza contare i maggiori margini di apportare correzioni e miglioramenti visto che è tutto fatto in casa...
Il contro della medaglia è che si paga di più ok... Ma per chi non vuole spendere di più basta guardare appunto all'altra soluzione dove tutto costa meno pure le schede....
Esatto, proprio così. Il vantaggio è quello(anche se imho il fatto che il dsr non funzioni con Sli+gsync è una grave pecca residua), lo svantaggio è appunto che se hai un monitor gsync e per ipotesi escono amd più appetibili(o viceversa), o cambi monitor oppure la scelta resta obbligata...a meno di farsi 2 pc da gaming paralleli :asd:
Legolas84
02-03-2016, 19:22
Nvidia aveva detto che renderà disponibile il dsr anche per SLI + gSync anche se non si sanno i tempi...
Inviato dal mio ONE A2003 utilizzando Tapatalk
Spider-Mans
02-03-2016, 19:46
certo che se vedi i dati di vendita come da news di oggi(share 78-80 %)..ti domandi perche nvidia dovrebbe correre :asd:
barbara67
02-03-2016, 19:49
Il vantaggio di nn prendere un monitor di parte :) tw3 come lo giochi a che dettagli e che frame
Allora le impostazioni che uso sono queste :
https://farm2.staticflickr.com/1653/25353742751_97f76f2f1f_h.jpg
https://farm2.staticflickr.com/1573/25151022840_7cd84c2b27_h.jpg
https://farm2.staticflickr.com/1507/25150968320_1138539096_h.jpg
https://farm2.staticflickr.com/1443/24815950514_1b319c10b0_h.jpg
https://farm2.staticflickr.com/1662/24819737023_2c9613fdcd_h.jpg
Media dei fps 47/50 fps max 60 (ovvio v-sync) fps min 42 .... :)
P.s. Uso Reshade con preset personalizzato da Spartacus (grandissimo utente del forum)
athlon xp 2400
02-03-2016, 19:53
io preferisco togliere gli hair.. tengo tutto maxato tranne ombre alto e vegetazione alto.. le texture non le vorrei diminuire:stordita:
ora mi prostituisco e prendo la seconda ti lol
Crysis90
02-03-2016, 20:01
io preferisco togliere gli hair.. tengo tutto maxato tranne ombre alto e vegetazione alto.. le texture non le vorrei diminuire:stordita:
ora mi prostituisco e prendo la seconda ti lol
Ma infatti non abbassare le Texture. Sono bellissime, alla massima qualità.
Segui le dritte che ti ho dato in PM. ;) :O :D
barbara67
02-03-2016, 20:08
io preferisco togliere gli hair.. tengo tutto maxato tranne ombre alto e vegetazione alto.. le texture non le vorrei diminuire:stordita:
ora mi prostituisco e prendo la seconda ti lol
Come preferisci, l' importante è che uno sia soddisfatto del risultato finale ... ;)
A me così non dispiace :
https://farm2.staticflickr.com/1564/25327992452_ebc95f3666_b.jpg (https://c2.staticflickr.com/2/1564/25327992452_3fe47dbc7d_o.jpg)
https://farm2.staticflickr.com/1557/25150743610_1b6e630252_b.jpg (https://c2.staticflickr.com/2/1557/25150743610_dcea6c9da9_o.jpg)
https://farm2.staticflickr.com/1652/25078679449_25121f7d91_b.jpg (https://c2.staticflickr.com/2/1652/25078679449_aa27f03fbc_o.jpg)
athlon xp 2400
02-03-2016, 20:13
Ora andiamo di sli ?! Lol tanto Pasquale e' lontano :) a trovarla usata quasi quasi
Legolas84
02-03-2016, 20:16
Ora andiamo di sli ?! Lol tanto Pasquale e' lontano :) a trovarla usata quasi quasi
Dai non posso crederci :asd:
Inviato dal mio ONE A2003 utilizzando Tapatalk
barbara67
02-03-2016, 20:16
Altre :
https://farm2.staticflickr.com/1628/25353293151_bd2962e8c0_b.jpg (https://c2.staticflickr.com/2/1628/25353293151_7f41f725ce_o.jpg)
https://farm2.staticflickr.com/1493/25446170375_33a2096c1a_b.jpg (https://c2.staticflickr.com/2/1493/25446170375_caf57de098_o.jpg)
https://farm2.staticflickr.com/1664/25353177711_16f5252827_b.jpg (https://c2.staticflickr.com/2/1664/25353177711_5a2944e32a_o.jpg)
https://farm2.staticflickr.com/1525/24817821734_d31cdcfd26_b.jpg (https://c2.staticflickr.com/2/1525/24817821734_aa2103b6a5_o.jpg)
https://farm2.staticflickr.com/1484/25422000356_d5e58ccbab_b.jpg (https://c2.staticflickr.com/2/1484/25422000356_929d71e3a9_o.jpg)
barbara67
02-03-2016, 20:38
Ora andiamo di sli ?! Lol tanto Pasquale e' lontano :) a trovarla usata quasi quasi
:) Se posso come ti ho consigliato di prendere il monitor ....
Ora ti dico aspetta le nuove vga non ha senso fare uno sli adesso ...
athlon xp 2400
02-03-2016, 20:40
:) Se posso come ti ho consigliato di prendere il monitor ....
Ora ti dico aspetta le nuove vga non ha senso fare uno sli adesso ...
:stordita:
Sì, fanno la stessa cosa ma il freesync ha sofferto per un bel pò di problemi di eccessivo ghosting...
io sono un simpatizzante rosso... :cool:
...ma devo dire che su questo ha ragione...
è l'unica cosa in cui reputo AMD , per il momento , inferiore... ;)
io sono un simpatizzante rosso... :cool:
...ma devo dire che su questo ha ragione...
è l'unica cosa in cui reputo AMD , per il momento , inferiore... ;)
:help:
io sono un simpatizzante rosso... :cool:
...ma devo dire che su questo ha ragione...
è l'unica cosa in cui reputo AMD , per il momento , inferiore... ;)
Modelli con ghosting cerano e sono stati risolti via firmware, non tutti in quanto è chiaramente il produttore che deve mettere una pezza e coi monitor è una giungla per tante ragioni poi la scelta la fate voi, quando esce un modello gsync ne escono due freesync quindi nel 2016 ovvero OGGI ci sono un sacco di alternative
Giovamas
03-03-2016, 07:43
Ora andiamo di sli ?! Lol tanto Pasquale e' lontano :) a trovarla usata quasi quasi
Io rimango in singola :) Poi tanto sicuramente ad aprile sapremo qualcosa di preciso a faremo le nostre considerazioni
Nelson Muntz
03-03-2016, 08:55
Freesync e Gsync fanno esattamente la stessa cosa nello stesso modo, non c'è differenza.
Anzi in realtà Gsync si manga 2-3 fps una cosa irrilevante sia chiaro.
La differenza sta nei monitor compatibili dove per Gsync stanno ben attenti a farlo solo su bei pannelli perché ha un costo mentre Freesync venendo gratis lo montano anche su pannelli un po' meno di qualità.
Il ghosting era un problema dei monitor infatti, testato sullo stesso pannello (acer predator XB270HU e XF270HU) sono identici.
Da possessore di 970 non vedo l'ora che facciano uno standard comune .
O meglio : visto che lo standard gia' c'e' , non vedo l'ora che anche nvidia aderisca all' adaptive sync ! :)
TigerTank
03-03-2016, 09:11
Modelli con ghosting cerano e sono stati risolti via firmware, non tutti in quanto è chiaramente il produttore che deve mettere una pezza e coi monitor è una giungla per tante ragioni poi la scelta la fate voi, quando esce un modello gsync ne escono due freesync quindi nel 2016 ovvero OGGI ci sono un sacco di alternative
Dove? No perchè io in ambito gaming 1440p vedo solo l'Acer XF270HU uscito di recente, l'unico degno di nota in quanto ahva e dotato finalmente di un range completo per il freesync.
E in ambito 21:9 c'è solo l'Acer limitato ai 75Hz. Poi certo tutti i monitor dotati dell'apposita displayport sono in pratica monitor freesync....ma il fatto è che imho sui 60Hz gsync e freesync non sono proprio il massimo. Ce li si gode molto meglio sugli schermi da gaming in congiunzione a pannelli che a frequenze superiori godono del meglio della loro reattività.
Probabile che nel corso del 2016, ora che il fresync ha colmato il gap dal gsync, recuperi il terreno perso ma al momento quello che hai scritto non ha alcun riscontro pratico :D
In ogni caso mi auguro che amd quest'anno faccia un pò meglio che con le Fury, altrimenti hai voglia che la gente scelga il gsync nonostante sovrapprezzi e tecnologie proprietarie.
È proprio quello che sto dicendo, attualmente il gsync è una delle cose che mi rende restio ad acquistare una nvidia perché mi da l'idea di essere transitorio.
A questo punto invece che farti tanti problemi, compra una Fury e un monitor freesync così sei a posto per sempre, no? ;)
Da possessore di 970 non vedo l'ora che facciano uno standard comune .
O meglio : visto che lo standard gia' c'e' , non vedo l'ora che anche nvidia aderisca all' adaptive sync ! :)
Sì sarebbe bello, ma la vedo difficile visto che non lo fece nemmeno per quel mezzo fail di physx, spesso male implementato nei pochi giochi in cui è presente. E ancora più difficile se, come scritto qui sopra, le pascal dovessero rivelarsi più appetibili delle polaris.
Nelson Muntz
03-03-2016, 09:23
Sì sarebbe bello, ma la vedo difficile visto che non lo fece nemmeno per quel mezzo fail di physx, spesso male implementato nei pochi giochi in cui è presente. E ancora più difficile se, come scritto qui sopra, le pascal dovessero rivelarsi più appetibili delle polaris.
Physx e Gameworks e' un altro discorso : utilizzano tecnologie proprietarie (hardware e software) nvidia , quindi ci sta che siano feature "esclusive" .
G-sync e Freesync (adaptive sync) sono invece identici dal punto di vista "tecnico" , ma il primo e' blindato solo per questioni di puro marketing .
Secondo me anche le attuali nvidia andrebbero con l'adaptive sync , se il driver video fosse opportunamente (ri)scritto in tal senso .
Ahva ips tn
Ci sono tante marche che qui non conosciamo ma su oc.net vengono presentati o sul mercato asiatico.... 1300€ di monitor alla rog o x34 non lo tocco nemmeno con un bastone, va bene tutto ma qui ci prendiamo per il culo... Diecimila euri di vga e x99 per poi dover inventare la tecnologia che ti fa andare fluido il monitor a un terzo del cap per il quale l'hardware lo avevi comprato...ma lol ... Ah ovviamente altro grano che in piu ti vincola sul vendor gpu .... Sempre meglio.... Le scatolette diventano sempre più appetibili e infatti le gpu sono anni che calano le vendite.... poi successoni alla gow al day one fanno il resto.... Mah me ne torno alle miniature di warhammer quasi quasi...ego, tiramelo su te .... Il morale :cry:
Physx e Gameworks e' un altro discorso : utilizzano tecnologie proprietarie (hardware e software) nvidia , quindi ci sta che siano feature "esclusive" .
G-sync e Freesync (adaptive sync) sono invece identici dal punto di vista "tecnico" , ma il primo e' blindato solo per questioni di puro marketing .
Secondo me anche le attuali nvidia andrebbero con l'adaptive sync , se il driver video fosse opportunamente (ri)scritto in tal senso .
Su oc.net dicono che alcuni portatili con gpu nvidia e gsync non hanno il modulo nvidia ma prendetela con le pinze
AceGranger
03-03-2016, 09:53
Ahva ips tn
Ci sono tante marche che qui non conosciamo ma su oc.net vengono presentati o sul mercato asiatico.... 1300€ di monitor alla rog o x34 non lo tocco nemmeno con un bastone, va bene tutto ma qui ci prendiamo per il culo... Diecimila euri di vga e x99 per poi dover inventare la tecnologia che ti fa andare fluido il monitor a un terzo del cap per il quale l'hardware lo avevi comprato...ma lol ... Ah ovviamente altro grano che in piu ti vincola sul vendor gpu .... Sempre meglio.... Le scatolette diventano sempre più appetibili e infatti le gpu sono anni che calano le vendite.... poi successoni alla gow al day one fanno il resto.... Mah me ne torno alle miniature di warhammer quasi quasi...ego, tiramelo su te .... Il morale :cry:
negli anni sono calate le vendite solo delle GPU entry lvl e mobile che sono state sostituite dalle GPU integrate nelle CPU e dai tablet.
http://www.hwupgrade.it/news/skvideo/e-il-gaming-per-pc-a-spingere-le-vendite-di-gpu-di-fascia-alta_61323.html
Il mercato delle GPU gaming è piu che florido.
cit.
"il settore delle schede video ha confermato in modo chiaro il successo di mercato delle soluzioni gaming in ambito PC."
athlon xp 2400
03-03-2016, 09:58
Ahva ips tn
Ci sono tante marche che qui non conosciamo ma su oc.net vengono presentati o sul mercato asiatico.... 1300€ di monitor alla rog o x34 non lo tocco nemmeno con un bastone, va bene tutto ma qui ci prendiamo per il culo... Diecimila euri di vga e x99 per poi dover inventare la tecnologia che ti fa andare fluido il monitor a un terzo del cap per il quale l'hardware lo avevi comprato...ma lol ... Ah ovviamente altro grano che in piu ti vincola sul vendor gpu .... Sempre meglio.... Le scatolette diventano sempre più appetibili e infatti le gpu sono anni che calano le vendite.... poi successoni alla gow al day one fanno il resto.... Mah me ne torno alle miniature di warhammer quasi quasi...ego, tiramelo su te .... Il morale :cry:
No questi son prezzi da pazzi poi sta cosa che devi comprare un monitor e rimanere legato alle Nvidia x sfruttarlo e' fuori di testa ..per me fino a che nn diventerà uno standard ne starò alla larga .. Ho perso un monitor nuovo ieri e mi durerà un bel po' più avanti vedrò se la situazione sarà cambiata
TigerTank
03-03-2016, 10:03
Acer: XF240Hbmjdpr, XF270Hbmjdprz, XF270HU, XG270HU, XZ350CU
AOC: G2460PF, G2770PF, C3583FQ
Asus: MG278Q, MG279Q
Benq: XL2730Z
EIZO: FS2735
Iiyama: GB2488HSU-B2, GB2788HS-B1
Nixeus: NX-VUE24
Viewsonic: VX2701mh, XG2401, XG2701, XG2703
E ti ho riportato solo i modelli con pannello 144hz e più, se dovevo mettere anche gli altri stavo qua fino a domani.
Bravo, ora screma i TN(che ormai non consiglierei più a nessuno) e quelli che hanno un range freesync limitato ;)
Poi vabbè io scremerei anche i 60Hz perchè come detto gsync e freesync si godono meglio con monitor da gaming e ancora di più con le future vga più potenti che arriveranno.
Fine OT.
Questi commenti sono inutili, se volevo comprarmi una fury mi compravo una fury.
Pensavo che questo fosse il thread dedicato alle nuove schede nvidia che dovranno uscire quest'anno e visto che sono interessato alle nuove schede e dovrò scegliere tra verde o rosso ne sto valutando i vantaggi e gli svantaggi.
Se si vuole discutere seriamente bene, se volete fare flamare e scrivere cretinate me ne tiro fuori.
Appunto...questo è il thread in cui si aspettano le nuove vga nvidia, non sono io che ho scritto supposizioni strambe circa il gsync transitorio, il scegliere radeon per non sbagliare e compagnia bella.
Per non parlare dell'"essere restìo a prendere una nvidia per il gsync", quando puoi benissimo usarla anche su un monitor che non abbia gsync. C'è gente che gioca con le nvidia, addirittura in Sli, sull'ottimo Dell 21:9 1440p...che non ha ne gsync ne freesync. :)
Ecco perchè ti ho consigliato piuttosto amd+freesync, almeno vivi sereno circa la longevità ;)
Physx e Gameworks e' un altro discorso : utilizzano tecnologie proprietarie (hardware e software) nvidia , quindi ci sta che siano feature "esclusive" .
G-sync e Freesync (adaptive sync) sono invece identici dal punto di vista "tecnico" , ma il primo e' blindato solo per questioni di puro marketing .
Secondo me anche le attuali nvidia andrebbero con l'adaptive sync , se il driver video fosse opportunamente (ri)scritto in tal senso .
Chiaro, mi riferivo più che altro alla tendenza estrema all'usare features proprietarie. Nvidia ha comprato ageia per creare appunto una fisica esclusiva quando in molti speravamo in un havok(o comunque una fisica universale) supportato da entrambi i lati. Che gsync sia esclusivo quando appunto l'adaptive sync è uno standard vesa è cosa che giustamente fa storcere il naso...ma il gsync funziona anche molto bene(per mia esperienza un bel passo in avanti) e di monitor ne hanno venduti molti(complice il successo delle ultime nvidia)...per cui come si dice, cavallo vincente non si cambia.
Auguriamoci che una cosa del genere un domani non succeda con le API di sviluppo dei giochi...ora ci sono le directX di microsoft ma non si sa mai cosa succederà in futuro...e a quel punto scegliere nuove vga diventerebbe davvero un casino.
No questi son prezzi da pazzi poi sta cosa che devi comprare un monitor e rimanere legato alle Nvidia x sfruttarlo e' fuori di testa ..per me fino a che nn diventerà uno standard ne starò alla larga .. Ho perso un monitor nuovo ieri e mi durerà un bel po' più avanti vedrò se la situazione sarà cambiata
Ovvio che al momento sui 21:9 da gaming ci mangiano causa fattore novità. Da entrambe le parti perchè pure 1100€ per un freesync 21:9 1440p da 75Hz è follia quanto il gsync 100Hz da 1300€.
Basta appunto fare come hai fatto tu(però spendi comunque perchè stai valutando lo SLi) o stare sui 16:9 1440p da gaming, che si godranno ancora di più con le pascal/polaris e rinviando 21:9 1440p e 4K da gaming a tempi futuri economicamente più abbordabili ;)
Legolas84
03-03-2016, 10:16
Freesync e Gsync fanno esattamente la stessa cosa nello stesso modo, non c'è differenza.
Anzi in realtà Gsync si manga 2-3 fps una cosa irrilevante sia chiaro.
La differenza sta nei monitor compatibili dove per Gsync stanno ben attenti a farlo solo su bei pannelli perché ha un costo mentre Freesync venendo gratis lo montano anche su pannelli un po' meno di qualità.
Il ghosting era un problema dei monitor infatti, testato sullo stesso pannello (acer predator XB270HU e XF270HU) sono identici.
Già qui c'è una imprecisione ... Il ghosting non è dovuto al pannello ma alla tecnologia di refresh variabile e il modulo g-sync (essendo uno scaler nvidia più avanzato di quelli che montano sui normali monitor) è in grado di eliminare il problema agendo sulla tensione dello schermo di volta in volta quando necessario...
Con il freesync ti può capitare uno scaler qualsiasi buono o no senza che tu lo sappia e devi sempre sperare che non dia problemi... Con il g-sync questo rischio non c'è....
È vero costa di più ma come ho già detto se i problemi sono i soldi in casa AMD tutto costa meno, tutto e aperto ecc... Quindi perché faticare così tanto a voler dire per forza che è anche migliore quando così non è? ;)
Inviato dal mio ONE A2003 utilizzando Tapatalk
Appunto...questo è il thread in cui si aspettano le nuove vga nvidia, non sono io che ho scritto supposizioni strambe circa il gsync transitorio, il scegliere radeon per non sbagliare e compagnia bella.
Per non parlare dell'"essere restìo a prendere una nvidia per il gsync", quando puoi benissimo usarla anche su un monitor che non abbia gsync. C'è gente che gioca con le nvidia, addirittura in Sli, sull'ottimo Dell 21:9 1440p...che non ha ne gsync ne freesync. :)
eccomi vecchia scuola vsych :)
però dai seriamente i radeonari si sfogano qui alcuni mi stanno pure simpatici
ma adesso torniamo in thread pasqua-l è vicina in tutti i sensi
fraussantin
03-03-2016, 10:19
È proprio quello che sto dicendo, attualmente il gsync è una delle cose che mi rende restio ad acquistare una nvidia perché mi da l'idea di essere transitorio.
Il punto è sempre il solito . Nvidia ha l'80% del mercato in mano e può permettersi di fare quello che vuole.
Se però amd esce con una buona vga a un buon prezzo , che non faccia arricchire l'enel e i produttori di alimentatori , non vedo perche non comprarla.
Io per adesso ho la mia 970 e faccio 60 fps quasi ovunque quindi mi tengo il mio monitor economico. ( anche perche non mi va di spendere una barca di soldi per un monitor)
Se ne riparla fra qualche anno.
Legolas84
03-03-2016, 10:28
Forse non hai letto che ho già scremato quelli con range limitato.
Non vedo perché togliere i TN, inoltre ti faccio notare che con gsync non TN ce ne sono soltanto 4.
E aspettare le nuove schede vuol dire solo cantare in coro quanto sono belle o possiamo anche discutere dei possibili pregi e difetti e fare un paragone con al concorrenza?
O forse bisogna aprire un nuovo thread e chiamarlo "In attesa delle nuove VGA, indecisi su quale comprare"?
Perché quando parlo dei difetti delle AMD nel thread delle AMD non c'è mica sto assalto.
Gsync/Freesync per quanto mi riguarda è un fattore abbastanza incisivo, non ho intenzione di fare senza per la prossima vga.
Allora se veramente sei indeciso ( :asd: ) sai già che sia che compri AMD o che compri nvidia dovrai abbinarci un monitor la cui tecnologia di refresh variabile non funzionerà sulle schede dell'altra casa.... Punto.
Quindi dovè il problema? E sta tranquillo che nvidia non abbandonerà il g-sync non solo perché funziona meglio e le da più controllo su tutto il sistema ma anche perché con in mano l'80% del mercato farà ciò che gli pare...
E se per te i prezzi delle tecnologie verdi sono da ladroni ecco che hai già risolto i tuoi dubbi ;)
Inviato dal mio ONE A2003 utilizzando Tapatalk
parlare civilmente di previsioni se scegliere in futuro pascal o polaris anche io sono indeciso
ma non fossilizzatevi sul frame synchronization ognuno compra quello che gli pare, io ho speso non poco senza G/freesynch perche me ne infischio ad esempio
illidan2000
03-03-2016, 10:44
Ahva ips tn
Ci sono tante marche che qui non conosciamo ma su oc.net vengono presentati o sul mercato asiatico.... 1300€ di monitor alla rog o x34 non lo tocco nemmeno con un bastone, va bene tutto ma qui ci prendiamo per il culo... Diecimila euri di vga e x99 per poi dover inventare la tecnologia che ti fa andare fluido il monitor a un terzo del cap per il quale l'hardware lo avevi comprato...ma lol ... Ah ovviamente altro grano che in piu ti vincola sul vendor gpu .... Sempre meglio.... Le scatolette diventano sempre più appetibili e infatti le gpu sono anni che calano le vendite.... poi successoni alla gow al day one fanno il resto.... Mah me ne torno alle miniature di warhammer quasi quasi...ego, tiramelo su te .... Il morale :cry:
non ho capito questo passaggio :(
dici che io compro un monitor a 144hz, e il gsync mi rende fluido a 50hz?
ma pure a 100 vale il discorso, se tu non cappi oltre.
Con il refresh fisso, se scendi sotto quello prefissato, hai gli stessi problemi.
monitor 144hz fissi (no gsyn o freesync), al di sotto dei 144hz hai tearing.
Se imposti refresh a 100hz, ci devi comunque arrivare, con un framerate stabilissimo. Certo, puoi ovviare con triple buffering, ma hai qualche fps (forse trascurabile, ok) di lag. Comunque è sempre una rogna con la quale devi fare i conti.
Diciamo che l'adaptive sync ci rende pure un po' più pigri o comodi, nel non dover andare appresso ad ogni singolo gioco per settare il sync
Questi commenti sono inutili, se volevo comprarmi una fury mi compravo una fury.
Pensavo che questo fosse il thread dedicato alle nuove schede nvidia che dovranno uscire quest'anno e visto che sono interessato alle nuove schede e dovrò scegliere tra verde o rosso ne sto valutando i vantaggi e gli svantaggi.
Se si vuole discutere seriamente bene, se volete fare flamare e scrivere cretinate me ne tiro fuori.
Beh, il suo consiglio non era male invece. Anche io ero tentato dalle fury X, poiché ben raffreddate, e di conseguenza l'avrei abbinate con il predator freesync. Mi hanno solo frenato i 4gb
No questi son prezzi da pazzi poi sta cosa che devi comprare un monitor e rimanere legato alle Nvidia x sfruttarlo e' fuori di testa ..per me fino a che nn diventerà uno standard ne starò alla larga .. Ho perso un monitor nuovo ieri e mi durerà un bel po' più avanti vedrò se la situazione sarà cambiata
hai perfettamente ragione, ma è più o meno lo stesso motivo per il quale stiamo comprando le schede video con tutta questa vram inutile a bordo.
Visto che oramai ci sono più porting che nativi, ci dobbiamo adeguare. Così come ci dobbiamo adeguare a queste altre logiche di mercato...
Già qui c'è una imprecisione ... Il ghosting non è dovuto al pannello ma alla tecnologia di refresh variabile e il modulo g-sync (essendo uno scaler nvidia più avanzato di quelli che montano sui normali monitor) è in grado di eliminare il problema agendo sulla tensione dello schermo di volta in volta quando necessario...
Con il freesync ti può capitare uno scaler qualsiasi buono o no senza che tu lo sappia e devi sempre sperare che non dia problemi... Con il g-sync questo rischio non c'è....
È vero costa di più ma come ho già detto se i problemi sono i soldi in casa AMD tutto costa meno, tutto e aperto ecc... Quindi perché faticare così tanto a voler dire per forza che è anche migliore quando così non è? ;)
Beh, no dai... non è che sia una lotteria. Prima di comprare uno specifico monitor, ti guardi le recensioni e vedi come va, come è lo scaler e/o se ha ghosting!
Forse non hai letto che ho già scremato quelli con range limitato.
Non vedo perché togliere i TN, inoltre ti faccio notare che con gsync non TN ce ne sono soltanto 4.
e si vede che non gli piacciono proprio... è come dire: scarta le donne asiatiche o le donne ricce. Se non piacciono, non piacciono...
Giovamas
03-03-2016, 10:47
Per non parlare dell'"essere restìo a prendere una nvidia per il gsync", quando puoi benissimo usarla anche su un monitor che non abbia gsync. C'è gente che gioca con le nvidia, addirittura in Sli, sull'ottimo Dell 21:9 1440p...che non ha ne gsync ne freesync. :)
O come il sottoscritto che ha nvidia in un BenQ freesinc e si trova benissimo. :)
...Con il freesync ti può capitare uno scaler qualsiasi buono o no senza che tu lo sappia e devi sempre sperare che non dia problemi... Con il g-sync questo rischio non c'è....
...Gsync/Freesync per quanto mi riguarda è un fattore abbastanza incisivo, non ho intenzione di fare senza per la prossima vga.
pienamente d'accordo con entrambi !!!!!
e mò ?! :mc:
e mò bisognerà capire come và lo scaler freesync di quel monitor prima di comprarlo... :stordita: ...
si però che due @@ :stordita:
Spider-Mans
03-03-2016, 11:00
Veramente io mi chiedo come si possa non essere indecisi visto che le schede ancora non si sono viste.
Non nascondo che sono più propenso per AMD ma se esce una scheda fuffa se la tengono.
ma non mi dire...nessuno avrebbe pensato che non propendevi per amd :asd:
se volevi supportare amd con i fatti..ti prendevi una fury...siamo seri..con le reply da forum non si aiuta amd..sono solo parole al vento cmq aspetta pure...magari ti convinci che pascal rulla e sta volta cedi al lato verdognolo..affari tuoi...ma almeno evitaci ot in questo thread dove si parla di nvidia e stop
sul discorso gsync ... guarda vorrei farti/vi notare
che tra freesync e gsync ....chi al momento ha un futuro incerto è il fresync
per una ragione molto semplice ed economica
nvidia da anni ha uno share market tra 75% e 80% del mercato discrete
quindi è facile capire che il gsync ha un futuro molto piu roseo....perche i concorrente di nvidia è in profondo rosso (in tutti i sensi...quindi comprate le fury per garantire un futuro al fresync xD)
detto questo a me del gsync frega nulla cosi come del fresync
Spider-Mans
03-03-2016, 11:03
Allora se veramente sei indeciso ( :asd: ) sai già che sia che compri AMD o che compri nvidia dovrai abbinarci un monitor la cui tecnologia di refresh variabile non funzionerà sulle schede dell'altra casa.... Punto.
Quindi dovè il problema? E sta tranquillo che nvidia non abbandonerà il g-sync non solo perché funziona meglio e le da più controllo su tutto il sistema ma anche perché con in mano l'80% del mercato farà ciò che gli pare...
E se per te i prezzi delle tecnologie verdi sono da ladroni ecco che hai già risolto i tuoi dubbi ;)
Inviato dal mio ONE A2003 utilizzando Tapatalk
guarda per un attimo ho pensato di aver cliccato su aspettando radeon :asd:
le ultime due pagine..poi ho letto bene xD
cmq tornando in tema
l'evento di nvidia ad aprile ha una data certa? :rosik:
Basta evitare di tirare in ballo freesync con le solite informazioni incomplete e terrorismo psicologico voilà il gioco è fatto :read:
illidan2000
03-03-2016, 11:11
Il ghosting con lo scaler non centra nulla, il chip nvidia che regola la tensione è una barzelletta.
Ogni produttore di monitor ha i suoi metodi per il ghosting, Asus lo chiama trace free per esempio, ma sono tutti più o meno la stessa cosa.
Basta leggere una recensione approfondita su tftcentral o prad.de e il funzionamento è abbastanza chiaro.
no, io parlavo dei monitor freesync, e su quanto dichiarava legolas.
Quando vuoi comprare un monitor da gaming e lo vuoi buono devi sempre vedere come funziona, per questo ci sono le recensioni con prove specifiche.
Questo vale sia per freesync, per gsync o per qualsiasi monitor senza nessuno dei due.
Un esempio: http://www.tftcentral.co.uk/reviews/content/acer_xb271hk.htm#response_times
è quello che volevo dire io sopra... forse mi sono espresso male
TigerTank
03-03-2016, 11:12
Il punto è sempre il solito . Nvidia ha l'80% del mercato in mano e può permettersi di fare quello che vuole.
Esatto, quindi non vedo proprio motivi per cui in caso di nuove vga vincenti debba rinunciare al gsync e aprirsi all'adaptive sync.
ANZI direi che sia meglio che non lo faccia perchè cosa succederebbe se delle nuove nvidia pascal vincenti fossero utilizzabili in tutti i casi di adaptive sync? AMD senza eventuali schede vincenti perderebbe ulteriori quote di mercato.
Forse non hai letto che ho già scremato quelli con range limitato.
Non vedo perché togliere i TN, inoltre ti faccio notare che con gsync non TN ce ne sono soltanto 4.
...
Gsync/Freesync per quanto mi riguarda è un fattore abbastanza incisivo, non ho intenzione di fare senza per la prossima vga.
Perchè sinceramente ormai considerato il livello raggiunto dagli ultimi ahva gsync/freesync non consiglierei più dei monitor da gaming con pannelli TN. :)
Circa gli ips togli l'MG279Q, freesync nativo solo fino a 90Hz.
Per il resto mi confermi che faresti meglio a puntare ad una polaris + freesync piuttosto che ad una pascal + gsync, se non digerisci la questione delle tecnologie proprietarie. Oltretutto non è che economicamente tra le 2 ci sia un abisso eh! Tant'è che ad esempio su amazon l'XB270HU sta a 690 mentre il nuovo XF270HU che è l'esatto equivalente freesync sta a 640+ss(654 se amazon diretto ma ora non disponibile) :)
Non credo che i divari cambieranno tanto quando si avranno le polaris e le pascal sul mercato.
Legolas84
03-03-2016, 11:37
Il ghosting con lo scaler non centra nulla, il chip nvidia che regola la tensione è una barzelletta.
Ogni produttore di monitor ha i suoi metodi per il ghosting, Asus lo chiama trace free per esempio, ma sono tutti più o meno la stessa cosa.
Basta leggere una recensione approfondita su tftcentral o prad.de e il funzionamento è abbastanza chiaro.
Che il cuore del funzionamento dell'adaptive sync sia nello scaler, che il g-sync sia un modulo che va a sostituire gli scaler normali e che sia in grado di regolare la tensione dei pixel in base al refresh ( e se vogliamo dirla tutta offre anche un frame buffer in hardware) sono DATI DI FATTO...
Si vede che sei di parte, e se ne sono accorti un po tutti ma definire barzellette dati assodati rende qualsiasi discussione ridicola... Un po come se io mi ostinassi a dire che g-sync costa meno o che è uno standard libero... Finché si cerca di aver ragione non accettando i dati oggettivi è inutile discutere...
Inviato dal mio ONE A2003 utilizzando Tapatalk
illidan2000
03-03-2016, 13:17
ci sta pure un po' di fanboysmo dai...
Io, allo stesso prezzo di scheda e monitor, prenderei cmq nVidia.
Anche se la questione driver non fosse vera
un po' come quelli che comprano solo cellulari samsung (io ne ho comprato un paio, poi ho capito che non facevano per me, per via dei costi), o quelli che comprano solo automobili della BMW (beati loro), o come me che compro solo periferiche I/O logitech (così facendo ho un unico software per tutto)
Legolas84
03-03-2016, 13:21
Basta che ti vai a leggere la rece di hwupgrade... Pensavo lo avessi fatto visto quanto scrivi sul forum....
http://www.hwupgrade.it/articoli/skvideo/4337/recensione-acer-xg270hu-l-eterna-sfida-tra-radeon-e-geforce-si-sposta-sui-monitor_6.html
Sicuramente non ti andrà bene nemmeno questo :asd:
Inviato dal mio ONE A2003 utilizzando Tapatalk
Legolas84
03-03-2016, 13:28
ci sta pure un po' di fanboysmo dai...
Io, allo stesso prezzo di scheda e monitor, prenderei cmq nVidia.
Anche se la questione driver non fosse vera
un po' come quelli che comprano solo cellulari samsung (io ne ho comprato un paio, poi ho capito che non facevano per me, per via dei costi), o quelli che comprano solo automobili della BMW (beati loro), o come me che compro solo periferiche I/O logitech (così facendo ho un unico software per tutto)
Ma ci mancherebbe però non vai a sfondare i cervelli ( per non dire altro :D ) su discussioni di altri marchi innondandole di inesattezze e creando OT e flame ;)
Infatti anche se sul thread di AMD ne scrivono di tutti i colori compresi insulti più o meno velati a chi scrive di qua, mi hai visto andare di la a disturbare o flammare?
È questione di stile....
Inviato dal mio ONE A2003 utilizzando Tapatalk
Legolas84
03-03-2016, 13:55
Nono non manipolare quello che c'è scritto...
"G-Sync previene il problema del ghosting modificando la quantità di tensione dei pixel sulla base del refresh rate abilitato. Questo permette ai pixel di accendersi e spegnersi in maniera differente a seconda della frequenza di aggiornamento del monitor impostata sulla base del frame rate. Come potete vedere dal nostro test, anche in questo caso sembra che il funzionamento di G-Sync sia migliore."
Quindi sorry ma funziona esattamente come ho detto, e sui monitor freesync il ghosting dipende solo dalla qualità del pannello con il malus che l'adaptive sync tende un po ad aumentarlo.
La stessa recensione di hwupgrade conclude così:
"In definitiva, nonostante FreeSync riesca a fornire risultati in molti casi simili a quelli offerti da G-Sync, complessivamente è una tecnologia inferiore rispetto alla corrispondente di NVIDIA."
Possiamo girarci intorno quanto vogliamo ma è così, sorry....
PS
Per rispondere a quanto hai scritto prima in PS... Quella prewiev di anadtech è del 2013 prima che uscisse il modulo definitivo, la conosco molto bene e dice che nonostante vi sia una piccola perdita di prestazioni nvidia stava lavorando (nel 2013 prima che uscisse il modulo) per eliminarla del tutto...
Inviato dal mio ONE A2003 utilizzando Tapatalk
AkiraFudo
03-03-2016, 14:12
@Lego
Per quello stesso monitor (XG270HU) c'è un firmware che abilita appunto l'overdrive. Il firmware è uscito dopo il freesync fix lato driver amd
purtroppo se hai il vecchio firmware l'unica è spedirlo ad Acer per fartelo aggiornare dato che questi monitor sono dei giocattoli e non puoi nemmeno aggiornare il firmware in autonomia.
Quella è una recensione vecchia fatta con due pannelli diversi e la prima revision del XG270HU. E' un test puramente empirico che a mio avviso non può assolutamente dimostrare la superiorità di g-sync o freesync.
Legolas84
03-03-2016, 14:14
Non sto cambiando quello che c'è scritto, il chip nvidia regola la tensione anche se lo fa in modo indiretto (cioè dice a chi la regola fisicamente come deve regolarla) il punto è che qualsiasi monitor fa questa cosa mica solo quelli gsync.
Adaptive sync non aumenta per niente il ghosting, dipende solo ed esclusivamente dal pannello e dall'overdrive del pannello che è slegato da adaptive sync.
Mentre il vantaggio di gsync è che l'overdrive lo fa lui e quindi è sempre ottimale.
La recensione conclude così ma fa riferimento alla pagina intitolata "un problema per freesync" di cui si parla dello sgancio di freesync quando si scende ad una frequenza troppo bassa.
Problema che è stato risolto con la funzione Low Framerate Compensation introdotta con di driver successivi.
È proprio li il vantaggio... La regolazione della tensione gestita dal modulo nvidia offre migliori risultati rispetto a quella fornita di default dai monitor che non lo hanno, e questo ha come effetto una riduzione del gosthing molto più efficace.
E infine sorry di nuovo ma ti invito a rileggere con più attenzione per la seconda volta... Perché quelle ultime parole che ho quotato non sono le conclusioni della pagina che dici tu ma le conclusioni della pagina "conclusioni" ovvero sono le conclusioni finali dell'articolo (ommiodio che giro di parole).
Il vantaggio di freesync in tutto questo è il costo ma il top lo si ottiene pagando un po di più per il g-sync.
Inviato dal mio ONE A2003 utilizzando Tapatalk
Legolas84
03-03-2016, 14:19
@Lego
Per quello stesso monitor (XG270HU) c'è un firmware che abilita appunto l'overdrive. Il firmware è uscito dopo il freesync fix lato driver amd
purtroppo se hai il vecchio firmware l'unica è spedirlo ad Acer per fartelo aggiornare dato che questi monitor sono dei giocattoli e non puoi nemmeno aggiornare il firmware in autonomia.
Quella è una recensione vecchia fatta con due pannelli diversi e la prima revision del XG270HU. E' un test puramente empirico che a mio avviso non può assolutamente dimostrare la superiorità di g-sync o freesync.
Si ma il punto non è quello io non ho preso in considerazione quella rece per dire che quel monitor soffre di ghosting.... Ma per dire che il g-sync offre una migliore gestione di questo aspetto...
Inviato dal mio ONE A2003 utilizzando Tapatalk
paolox86
03-03-2016, 14:24
Per piacere non fatemi venire la scimmia anche per cambiare il monitor, torniamo a parlare delle future Pascal :)
Possibilità che esca un GP106 in anticipo come fu per la 750ti ci sono? È trapelato nulla riguardo questo?
Inviato dal mio iPhone utilizzando Tapatalk
AkiraFudo
03-03-2016, 14:27
Problema che è stato risolto con la funzione Low Framerate Compensation introdotta con di driver successivi.
freesync potrebbe scendere fino a 9hz. In alto il suo limite è 240Hz o meglio è il limite fisico ipotetico di un pannello LCD. Quando il frame è basso se non ricordo male il refresh torna al massimo.
g-sync non scende sotto i 30Hz. E fa un pulldown 1:2 o 1:4 quando il frame rate è basso.
Comunque raga, gli LCD hanno immagini piattissime per via dei loro contrasti pietosi, clouding e uniformità oscene... alla fine tra Free o G che sia ci sono differenze minime...i problemi sono altri e ahime limiti invalicabili per un lcd...non spendete milioni su ste ciofeche!
Legolas84
03-03-2016, 14:29
Mah, tralasciando il discorso che g-sync sia migliore di freesync su questo sono d'accordo gli LCD sono alla fine del loro ciclo vitale... Però il problema è che in ambito monitor dureranno ancora almeno due o tre anni e anche di più se vogliamo aspettare OLED a prezzi onesti... Quindi per ora rimangono valide alternative ;)
Inviato dal mio ONE A2003 utilizzando Tapatalk
L'Oled è un altro mondo per via del nero infinito , ma non è tutto oro quello che luccica , e anche gli Oled hanno altre magagne .
Gli ultimi LCD nonostante i soliti problemi descritti qui sopra , hanno cmq molto migliorato la loro visione complessiva .
Io a casa ho un Oled LG 4K ( 920 ) e devo dire che si vede bene , ma anche il Samsung HU 7500 4K a LCD si vede altrettanto bene pur non avendo un nero da primato , e così si vede molto bene anche il mio Benq BL3200PT LCD che ha un contrasto che fino a qualche anno fà era impensabile e il tutto mantenendo un buon tempo di risposta , un ottima velocità , e nessun problema di ritenzione .
Per l' HDR ci vuole un pannello in grado di sparare 1000nits , un oled attuale ne spara 500 al massimo , in futuro 800 .
1000nits di LCD attualmente mi viene in mente solo il Panasonic DX900 e forse i nuovi Samsung alta gamma , TV da 3000 euro minimo :) .
Un monitor LCD HDR non so quanto convenga .
killeragosta90
03-03-2016, 15:15
Ragazzi potete tornare IT?? Grazie.
AkiraFudo
03-03-2016, 15:18
L'Oled è un altro mondo per via del nero infinito , ma non è tutto oro quello che luccica , e anche gli Oled hanno altre magagne .
Gli ultimi LCD nonostante i soliti problemi descritti qui sopra , hanno cmq molto migliorato la loro visione complessiva .
Io a casa ho un Oled LG 4K ( 920 ) e devo dire che si vede bene , ma anche il Samsung HU 7500 4K a LCD si vede altrettanto bene pur non avendo un nero da primato , e così si vede molto bene anche il mio Benq BL3200PT LCD che ha un contrasto che fino a qualche anno fà era impensabile e il tutto mantenendo un buon tempo di risposta , un ottima velocità , e nessun problema di ritenzione .
che ti appoggio in pieno...son soldi spesi bene...vuoi mettere l'immersione di giocare su un proiettore o tv oled...te ne freghi del g-freesync..
io mi spatolo sulla mia poltrona relax da vecchio xD controller xbox alla mano e gioco su un vt60 con surround a palla.
Legolas84
03-03-2016, 15:23
che ti appoggio in pieno...son soldi spesi bene...vuoi mettere l'immersione di giocare su un proiettore o tv oled...te ne freghi del g-freesync..
io mi spatolo sulla mia poltrona relax da vecchio xD controller xbox alla mano e gioco su un vt60 con surround a palla.
Su questo invece non sono d'accordo per niente... Allora a quel punto ti prendi una ps4...
Inviato dal mio ONE A2003 utilizzando Tapatalk
illidan2000
03-03-2016, 15:46
che ti appoggio in pieno...son soldi spesi bene...vuoi mettere l'immersione di giocare su un proiettore o tv oled...te ne freghi del g-freesync..
io mi spatolo sulla mia poltrona relax da vecchio xD controller xbox alla mano e gioco su un vt60 con surround a palla.
Su questo invece non sono d'accordo per niente... Allora a quel punto ti prendi una ps4...
Inviato dal mio ONE A2003 utilizzando Tapatalk
ok, e a cosa giochi?!?! il mio controller xbox sta prendendo la muffa nel cassetto!!!
tornando IT, la questione HDR ha poco senso finché non si preodora un qualche monitor che la supporti!
Di oled, anche se esosi, se ne è visto uno a 5000euro, ma di HDR, non ci sta nulla, nemmeno rumors
illidan2000
03-03-2016, 16:46
Io avevo letto che entro l'anno erano attesi monitor con 2000nits.
Poi non è detto che arrivino chiaro.
Che poi non ho ancora deciso se è interessante o meno, comprare un monitor da 2000nits e poi dovermi mettere gli occhiali da sole per giocare a giochi ambientati in posti troppo soleggiati come just cause non è che mi attiri più di tanto.
Comunque ho solo chiesto se si sa qualcosa sulla compatibilità, dicevano che serviva la profondità di colore a 10bit e che le nvidia attuali non la supportassero, mi chiedevo se hanno detto qualcosa a riguardo per pascal.
mi pare strano che le nVidia non supportino i 10bit
la 980ti supporta alla grande i 10 bit Ycbcr campionatura totale e parziale 444/422, attivati insieme all ultra color 4k sulla mia tv con risultati a dir poco eccellenti, mai visti colori così supera il plasma sempre samsung che ho in casa.
stessa prova fatta su una hd5450 e gts450 non funziona lo schermo diventa mille righe colorate.
l hdr è ancora piu su non vedo l ora che escano le prime tv avranno dp 1.4 e 8k credo
io non tornerei indietro neanche morto, le tv vanno configurate ma poi sia per quanto riguarda il pc tante soddisfazioni sta scheda
sia per quanto concerne la tv, infinity 4k i film sono una specchio provare per credere
AkiraFudo
03-03-2016, 18:39
Su questo invece non sono d'accordo per niente... Allora a quel punto ti prendi una ps4...
Inviato dal mio ONE A2003 utilizzando Tapatalk
bhe Lego, non c'è da essere d'accordo è una questione di gusti..
io semplicemente tra uno maxi schermo di qualità e un ciofecoso lcd col sync do maggiore valore al primo. Rinuncio al g-sync ma in cambio ho un immersione e immagini innarivabili.
Non capisco perchè devo comprare una ps4...tecnologie come eDP/psr e derivati sono recenti introduzioni quindi prima che uscisse g-sync era d'obbligo giocare con la console? O forse ho capito male?
Se posso 900p e 30fps me li risparmio...tutto qui. :rolleyes:
AkiraFudo
03-03-2016, 18:42
la 980ti supporta alla grande i 10 bit Ycbcr campionatura totale e parziale 444/422, attivati insieme all ultra color 4k sulla mia tv con risultati a dir poco eccellenti, mai visti colori così supera il plasma sempre samsung che ho in casa.
stessa prova fatta su una hd5450 e gts450 non funziona lo schermo diventa mille righe colorate.
l hdr è ancora piu su non vedo l ora che escano le prime tv avranno dp 1.4 e 8k credo
Tv HDR già esistono da un pezzo.
Se parli di lcd samsung il loro marketing se non erro l'ha ribattezzato SUHD (super ultra hd -_-v)
Di oled tutta la lineup 2016 di LG supporta HDR, anche il pana oled cz900.
Le schede video dovranno avere HDMI 2.0a o almeno DP1.3 Polaris è già confermato, pascal non c'è niente di ufficiale ma secondo me sicuramente lo avrà.
Legolas84
03-03-2016, 18:50
bhe Lego, non c'è da essere d'accordo è una questione di gusti..
io semplicemente tra uno maxi schermo di qualità e un ciofecoso lcd col sync do maggiore valore al primo. Rinuncio al g-sync ma in cambio ho un immersione e immagini innarivabili.
Non capisco perchè devo comprare una ps4...tecnologie come eDP/psr e derivati sono recenti introduzioni quindi prima che uscisse g-sync era d'obbligo giocare con la console? O forse ho capito male?
Se posso 900p e 30fps me li risparmio...tutto qui. :rolleyes:
Il punto è che secondo me la potenza dei PC di oggi riesce a sfruttare meglio monitor con refresh più alti delle TV, e non solo anche il g-sync è diventato per me una cosa irrinunciabile...
E poi io sono un PC gamer classico... Per me mouse e tastiera forever :D
L'unico strappo alla regola lo faccio per Pes per il quale uso il pad e ho comprato la steam link apposta per giocarlo sulla TV... ;)
Inviato dal mio ONE A2003 utilizzando Tapatalk
Tv HDR già esistono da un pezzo.
Se parli di lcd samsung il loro marketing se non erro l'ha ribattezzato SUHD (super ultra hd -_-v)
Di oled tutta la lineup 2016 di LG supporta HDR, anche il pana oled cz900.
Le schede video dovranno avere HDMI 2.0a o almeno DP1.3 Polaris è già confermato, pascal non c'è niente di ufficiale ma secondo me sicuramente lo avrà.
si non dici male,
la storia però è contorta samsung ad esempio dice che tutti i suoi pannelli 10 bit saranno hdr compatibili compreso il mio, anche perche è il requisito minimo per far funzionare tale tecnologia.
I suhd sono il top ma non perche hanno l hdr, i pannelli hanno tante piccole migliorie e tecnologie proprietarie come il nano crystal,precision black,led edge, etc .
Sono esclusivamente prodotti da samsung con progetto nativo partito da zero, a differenza dei primi 4k serie HU con molti difetti specie lato software.
Su pascal e polaris potrebbero anche mettere il dp 1.4 hanno tutto il tempo speriamo
AkiraFudo
03-03-2016, 19:26
@lego
Su molte 3D hdtv si può tranquillamente forzare il 120hz.
Provai sul mio vecchio pana vt50 e funzionava, sul vt60 non ho mai sperimentato ma dovrebbe andare.
Ovviamente devi avere una tv decente e che sia nativa 120hz. (si trovano facili le guide)
anche io ho tastiera meccanica e mouse gaming mi sottovaluti!! :asd: a volte è d'obbligo !
@naru
ammetto che non sono informato sulle ultime diavolerie samsung proverò a informarmi meglio, ma qualsiasi cosa tu possa inventare sulle tecnologie passive, anche fossero costossisimi full-led, si porteranno dietro sempre i soliti limiti :(
micronauta1981
03-03-2016, 20:03
@lego
Su molte 3D hdtv si può tranquillamente forzare il 120hz.
Provai sul mio vecchio pana vt50 e funzionava, sul vt60 non ho mai sperimentato ma dovrebbe andare.
Ovviamente devi avere una tv decente e che sia nativa 120hz. (si trovano facili le guide)
anche io ho tastiera meccanica e mouse gaming mi sottovaluti!! :asd: a volte è d'obbligo !
@naru
ammetto che non sono informato sulle ultime diavolerie samsung proverò a informarmi meglio, ma qualsiasi cosa tu possa inventare sulle tecnologie passive, anche fossero costossisimi full-led, si porteranno dietro sempre i soliti limiti :(
Ciao,come hai fatto a forzare i 120hz sul TV?io per il mio samsung (hu7500) non sn mai riuscito...
Facendo chiarezza su alcuni punti:
- Radeon e GeForce supportano i 10bit per colore, ma SOLO su DirectX. Per il supporto su opengl/opencl/qualsiasialtracosa servono schede professionali.
- La qualità dello scaler non incide sul ghosting, ma solo sul range dell'adaptive sync.
- Il ghosting con freesync attivo era dato dall'overdrive che si disattivava con i primi firmware di Acer.
AkiraFudo
03-03-2016, 21:06
Ciao,come hai fatto a forzare i 120hz sul TV?io per il mio samsung (hu7500) non sn mai riuscito...
ma il tuo tv è un active shutter? o passivo?
usai un semplice programmino che forzava uan risoluzione custom. Ce nè più di uno in giro. Li hai già provati tutti? se hai un avr in mezzo prova a staccarlo.
Unico appunto...ricordo che persi un sacco di tempo a smanettare perchè la tv mostrava sulle info 60hz e pensavo non funzionasse, quando in realtà andando a leggere il refresh con la sonda, lavorava correttamente a 120hz. Magari non è il tuo caso ma per sicurezza, se non hai una sonda, cerca qualche test per il blur.
Nel week-end faccio un pò di prove e ti dico.
Scusate ma anche basta parlare di tv e monitor,per favore
killeragosta90
03-03-2016, 21:19
Scusate ma anche basta parlare di tv e monitor,per favore
E' inutile....ho provato a chiedere gentilmente pure io....è da 4-5 pagine che questo non è più il thread di "Aspettando le nuove vga nVidia"....
illidan2000
04-03-2016, 08:06
E' inutile....ho provato a chiedere gentilmente pure io....è da 4-5 pagine che questo non è più il thread di "Aspettando le nuove vga nVidia"....
alcuni post sono pure IT, dai... tipo quelli per i bit di colore delle schede
Il fatto è che tutti stiamo aspettando con ansia, più del solito! e notizie non ne escono :muro:
nuovo avatar? TWD?
fireradeon
04-03-2016, 12:33
Perché le schede video per funzionare hanno bisogno di monitor o tv e perché con questa generazione di schede video (e anche con la precedente in realtà) sono alle porte delle tecnologie che richiedono monitor o tv compatibili e con alcune caratteristiche.
Secondo me non è del tutto OT, se HDR sarà una nuova caratteristica di Pascal è anche lecito parlarne.
In effetti sapere se le pascal supportano l'hdr è importante, perché ormai i contenuti in 4k stanno iniziando a vedersi, lo standard hdr è stato scelto e quindi l'acquisto del tv 4k si avvicina. Io fine anno aggiorno intanto il receiver.
killeragosta90
04-03-2016, 13:26
alcuni post sono pure IT, dai... tipo quelli per i bit di colore delle schede
Il fatto è che tutti stiamo aspettando con ansia, più del solito! e notizie non ne escono :muro:
nuovo avatar? TWD?
Si, e quelli me li sono letti e li trovo pure interessanti ma mooolti sono chiaramente OT, non dico non siano interessanti, ma non è il thread corretto per parlarne :stordita:
Comunque yesss, nuovo avatar! No, si tratta di una scena finale di World War Z, film visto l'altro giorno, caruccio se piace il genere :p
Giovamas
04-03-2016, 13:58
Si, e quelli me li sono letti e li trovo pure interessanti ma mooolti sono chiaramente OT, non dico non siano interessanti, ma non è il thread corretto per parlarne :stordita:
Comunque yesss, nuovo avatar! No, si tratta di una scena finale di World War Z, film visto l'altro giorno, caruccio se piace il genere :p
OT riconosciuto subito. Si è l'immagine di uno "zombi" nella scena del bunker dove ci sono gli scienziati. Leggi il libro Killer è 100 volte meglio. (a parte la soldatessa israeliana che mi piaceva assai..).
Il fatto è che c'è una assenza di rumor piuttosto evidente. Si va a back to school imho.
killeragosta90
04-03-2016, 14:55
OT riconosciuto subito. Si è l'immagine di uno "zombi" nella scena del bunker dove ci sono gli scienziati. Leggi il libro Killer è 100 volte meglio. (a parte la soldatessa israeliana che mi piaceva assai..).
Il fatto è che c'è una assenza di rumor piuttosto evidente. Si va a back to school imho.
Esatto! ;) Grazei per il suggerimento, vedrò di procurarmi il libro, il film è stata una piacevole sorpresa :)
Intanto, rientrando in tema, per il mondo mobile:
NVIDIA Planning GeForce Pascal GPUs For Mobility Lineup For Mid-June – Will Have Notebooks on Display at Computex 2016 (http://wccftech.com/nvidia-pascal-gpus-geforce-mobility-june-2016/#ixzz41wgQop4k)
Legolas84
04-03-2016, 16:12
Ma infatti secondo me il fatto che ci siano pochi rumors non è un problema... Nvidia è sempre stata brava a blindare tutto e quando sarà il momento presenterà tutto ;)
Inviato dal mio ONE A2003 utilizzando Tapatalk
mikael84
04-03-2016, 16:34
alcuni post sono pure IT, dai... tipo quelli per i bit di colore delle schede
Il fatto è che tutti stiamo aspettando con ansia, più del solito! e notizie non ne escono :muro:
nuovo avatar? TWD?
Maxwell GM204 sino ad un mese prima del debutto era data ancora con i nomi 880/870 ed inizialmente doveva debuttare con 2560 shader (i più vecchi la davano per 3200).
A 4/5 gg dal lancio ancora pensavamo che riprendeva lo stesso progetto di GM207 e quindi con 32rops.
Solo a - 3giorni abbiamo saputo le effettive specifiche.
Quindi bisogna ancora mettersi comodi ed aspettare.
Le GP104 avranno anche altri nomi, la serie x1000 non dovrebbe essere confermata in quanto lasciata dopo le 9800gtx.
anche se le notizie di giorni fa rimandavano tutto per l'evento di aprile io continuo a sperare che venga presentato qualcosa al gdc negli ultimi giorni dell'evento tra neanche 2 settimane
presentarle a metà aprile e commercializzarle anche a fine mese o poco dopo, considerando il periodo particolare a ridosso dell'estate (dove tutto si ferma in questo campo), l'arrivo di tutte le varianti costum sul mercato, le recensioni, la disponibilità sul mercato e i prezzi che si sgonfiano almeno un minimo dalle cifre folli in cui le proporranno le prime 2/3 settimane fanno diventare l'attesa davvero troppo lunga visto che la condizione ideale per acquistare diventerebbe davvero settembre/ottobre :mc: :doh:
TigerTank
04-03-2016, 17:41
Tutto può essere, le gtx980Ti sono state lanciate a giugno e nel relativo thread si benchava in pieno agosto :sofico:
Circa i prezzi che si sgonfiano ormai ci spererei poco...visto l'andazzo delle ultime è già tanto se calano di 50€ in 6 mesi.
deadbeef
04-03-2016, 21:27
http://wccftech.com/nvidia-pascal-debut-gtc-2016-launch-june/
Pascal mobile a giugno, per le desktop Sweclockers riporta di problemi nel pp a 16nm FinFet per cui potrebbe essere posticipato il lancio nel Q3/Q4
fireradeon
05-03-2016, 07:23
http://wccftech.com/nvidia-pascal-debut-gtc-2016-launch-june/
Pascal mobile a giugno, per le desktop Sweclockers riporta di problemi nel pp a 16nm FinFet per cui potrebbe essere posticipato il lancio nel Q3/Q4
Ormai è quasi certo che ad Aprile ci sarà il paper launch, quindi appena un mese e si saprà tutto o quasi. Se uscisse a giugno per me sarebbe perfetto. Giusto il tempo di mettere da parte i soldi. ;)
http://wccftech.com/nvidia-pascal-debut-gtc-2016-launch-june/
Pascal mobile a giugno, per le desktop Sweclockers riporta di problemi nel pp a 16nm FinFet per cui potrebbe essere posticipato il lancio nel Q3/Q4
aggiungiamoci vari terremoti/allagamenti direi che ci puo stare un ritardo
TigerTank
05-03-2016, 11:23
Ormai è quasi certo che ad Aprile ci sarà il paper launch, quindi appena un mese e si saprà tutto o quasi. Se uscisse a giugno per me sarebbe perfetto. Giusto il tempo di mettere da parte i soldi. ;)
Ma la Ti che hai in firma non va bene? Perchè sinceramente è una bomba di scheda e non ci vedo tutta questa fame immediata di nuove schede :D
Simedan1985
05-03-2016, 11:40
Se può interessare un famoso sito sta vendendo delle 980 ti ad un prezzo assai inferiore (non è un vat player ma un distributore ufficiale nvidia ) ...sarà il segno che è arrivato il momento di iniziare a svuotare i magazzini??
nicola1283
05-03-2016, 11:43
Se può interessare un famoso sito sta vendendo delle 980 ti ad un prezzo assai inferiore (non è un vat player ma un distributore ufficiale nvidia ) ...sarà il segno che è arrivato il momento di iniziare a svuotare i magazzini??
si si mi interessa :D
Legolas84
05-03-2016, 12:01
Ma la Ti che hai in firma non va bene? Perchè sinceramente è una bomba di scheda e non ci vedo tutta questa fame immediata di nuove schede :D
Il fatto è che quando sono uscite le Ti erano solo un miglioramento della tecnologia di GM204.... ma la base era identica.
Questa volta invece siamo di fronte al cambio di architettura che porterà di sicuro un sacco di novità extra oltre alle prestazioni, quindi un pò di scimmia in più ci sta di sicuro ;)
athlon xp 2400
05-03-2016, 12:52
si si mi interessa :D
su trovaprezzi c'e le reference a 560
premesso che non escludo di comprare pascal subito e magari fare grazie alle dx12 sli ibrido con la 980
tuttora possessore di fermi gts 450 gloriosa e fuzionante sul muletto, questa tecnologia allora fu un passo avanti grazie al nuovo processo produttivo.
Ma cio nonostante me ne ricordo di uova fritte sulle gtx 480, di video del genere il tubo ne era pieno.
Sulla carta doveva tenere temp basse il nuovo processo, ma i progetti possono venir bene come no, maxwell in questo se la cava alla grande
Se può interessare un famoso sito sta vendendo delle 980 ti ad un prezzo assai inferiore (non è un vat player ma un distributore ufficiale nvidia ) ...sarà il segno che è arrivato il momento di iniziare a svuotare i magazzini??
Non credo, sono in offerta solo 2 reference, schede non particolarmente interessanti a meno di liquidarle o per config sli, e una inno3d, mentre i prezzi delle altre mi sembrano invariati.
athlon xp 2400
05-03-2016, 12:59
premesso che non escludo di comprare pascal subito e magari fare grazie alle dx12 sli ibrido con la 980
tuttora possessore di fermi gts 450 gloriosa e fuzionante sul muletto, questa tecnologia allora fu un passo avanti grazie al nuovo processo produttivo.
Ma cio nonostante me ne ricordo di uova fritte sulle gtx 480, di video del genere il tubo ne era pieno.
Sulla carta doveva tenere temp basse il nuovo processo, ma i progetti possono venir bene come no, maxwell in questo se la cava alla grande
per me ste dx e ste menate di somma ram vga sli.. ibridi ecc son tutte minchiate al solito :sofico:
Kingdemon
05-03-2016, 13:25
Ma quindi indicativamente le nuove gtx X70/X80 ci saranno verso settembre/ottobre?
Legolas84
05-03-2016, 13:40
per me ste dx e ste menate di somma ram vga sli.. ibridi ecc son tutte minchiate al solito :sofico:
Io sulla somma della ram ci conto, come anche ad un supporto ancora più grande per il multi-gpu :)
Io credo che a livello tecnologico i tempi sono maturi per queste tecnologie ;)
mikael84
05-03-2016, 13:47
premesso che non escludo di comprare pascal subito e magari fare grazie alle dx12 sli ibrido con la 980
tuttora possessore di fermi gts 450 gloriosa e fuzionante sul muletto, questa tecnologia allora fu un passo avanti grazie al nuovo processo produttivo.
Ma cio nonostante me ne ricordo di uova fritte sulle gtx 480, di video del genere il tubo ne era pieno.
Sulla carta doveva tenere temp basse il nuovo processo, ma i progetti possono venir bene come no, maxwell in questo se la cava alla grande
Le 480 erano veri fornellini almeno con quel dissipatore stock che aveva. Con GF110 (580) hanno migliorato il bandwitch e implementato transistor con minor perdita di corrente, però la 480 aveva un core da 529mm2 su 40nm usciti con rese pessime inizialmente. La 5870 su tale PP aveva un core da soli 334mm2.:)
Con Pascal sembra si punti proprio all'efficienza e core ancora più piccoli di GM204, quindi i fornellini non dovrebbero esserci:p
Legolas84
05-03-2016, 14:03
Le 480 erano veri fornellini almeno con quel dissipatore stock che aveva. Con GF110 (580) hanno migliorato il bandwitch e implementato transistor con minor perdita di corrente, però la 480 aveva un core da 529mm2 su 40nm usciti con rese pessime inizialmente. La 5870 su tale PP aveva un core da soli 334mm2.:)
Con Pascal sembra si punti proprio all'efficienza e core ancora più piccoli di GM204, quindi i fornellini non dovrebbero esserci:p
Sotto questo punto di vista dovrebbe seguire la strada di Kepler e Maxwell... GPU con prestazioni top ma fresche e dai bassi consumi.....
TigerTank
05-03-2016, 14:03
Io sulla somma della ram ci conto, come anche ad un supporto ancora più grande per il multi-gpu :)
Io credo che a livello tecnologico i tempi sono maturi per queste tecnologie ;)
Mah...speriamo. Per rispondere anche all'altro post io non sono così ottimista perchè a fronte di tanta evoluzione tecnologica lato hardware, dal punto di vista del software(che poi è quello che ha il coltello dalla parte del manico) per quello che si vede ultimamente è sempre peggio, non solo per la questione multigpu a volte carente se non completamente assente, ma proprio come ottimizzazioni a livello generale e stato di messa a punto dei titoli all'uscita.
Per cui direi scimmia ma...da scatenare dopo i riscontri pratici :D
Per il resto comprate, gente, scatenate la scimmia e comprate! Così se le pascaline non mi soddisfano al 100%, mi piglio una Ti usata a mercatino e aspetto le Ti pascal :fagiano:
Le 480 erano veri fornellini almeno con quel dissipatore stock che aveva. Con GF110 (580) hanno migliorato il bandwitch e implementato transistor con minor perdita di corrente, però la 480 aveva un core da 529mm2 su 40nm usciti con rese pessime inizialmente. La 5870 su tale PP aveva un core da soli 334mm2.:)
Con Pascal sembra si punti proprio all'efficienza e core ancora più piccoli di GM204, quindi i fornellini non dovrebbero esserci:p
ragionamento identico sul die size gf106 238 mm² meno della metà di gf100
quei transistor avevano seri problemi :)
per farla stare sotto i 50° in idle ho messo su la gelid extreme, la pasta costa piu dalla vga lol
mikael84
05-03-2016, 14:26
Sotto questo punto di vista dovrebbe seguire la strada di Kepler e Maxwell... GPU con prestazioni top ma fresche e dai bassi consumi.....
Dovrebbe migliorare la già ottima architettura maxwell, non ci dovrebbero essere stravolgimenti, se non alcune migliorie interne come un nuovo motore geometrico e così via. Sicuramente ci sarà più cache, rops minimo a 24-32 per BE
ragionamento identico sul die size gf106 238 mm² meno della metà di gf100
quei transistor avevano seri problemi :)
per farla stare sotto i 50° in idle ho messo su la gelid extreme, la pasta costa piu dalla vga lol
Si esatto, anche se GF116 era leggermente più complesso perchè aveva clock ben più elevati e 24 rops.
Anche le 460 stock non erano il top come calore:)
athlon xp 2400
05-03-2016, 15:00
Mah...speriamo. Per rispondere anche all'altro post io non sono così ottimista perchè a fronte di tanta evoluzione tecnologica lato hardware, dal punto di vista del software(che poi è quello che ha il coltello dalla parte del manico) per quello che si vede ultimamente è sempre peggio, non solo per la questione multigpu a volte carente se non completamente assente, ma proprio come ottimizzazioni a livello generale e stato di messa a punto dei titoli all'uscita.
Per cui direi scimmia ma...da scatenare dopo i riscontri pratici :D
Per il resto comprate, gente, scatenate la scimmia e comprate! Così se le pascaline non mi soddisfano al 100%, mi piglio una Ti usata a mercatino e aspetto le Ti pascal :fagiano:
Chi vende una .evga 980ti sc acx2 io son qui lol
Io sulla somma della ram ci conto,
Io no :D
O almeno, non nel senso che la maggior parte si aspetta.
Mi sembra impossibile la somma (totale) della vRAM, perchè significherebbe che una scheda può leggere il framebuffer dell'altra. Troppa latenza, e quindi stuttering.
Vedo invece possibile che vi siano 2 framebuffer separati, uno per ogni scheda, con ogni scheda che renderizza qualcosa di diverso. Però, per quanto si possa ottimizzare il processo, molte informazioni si ripeteranno, quindi alla fine il guadagno di vRAM non sarà così sensibile.
Comunque non sono un programmatore, quindi :D
come anche ad un supporto ancora più grande per il multi-gpu :)Qui sono d'accordo, e credo che l'hybrid ne sia una conferma.
domanda, avranno intenzione in futuro nvidia e company di mettere una specie di "corsair link" per monitorare il wattaggio direttamente da software senza l'ausilio di wattometri e robe varie?
Legolas84
05-03-2016, 16:57
domanda, avranno intenzione in futuro nvidia e company di metter una specie di "corsair link" per monitorare il wattaggio direttamente da software senza l'ausilio di wattometri e robe varie?
Sarebbe bello un software direttamente per l'alimentatore :D
paolox86
05-03-2016, 17:28
domanda, avranno intenzione in futuro nvidia e company di metter una specie di "corsair link" per monitorare il wattaggio direttamente da software senza l'ausilio di wattometri e robe varie?
Una cosa del genere piacerebbe molto anche a me
Inviato dal mio iPhone utilizzando Tapatalk
mirkonorroz
05-03-2016, 17:35
Io no :D
O almeno, non nel senso che la maggior parte si aspetta.
Mi sembra impossibile la somma (totale) della vRAM, perchè significherebbe che una scheda può leggere il framebuffer dell'altra. Troppa latenza, e quindi stuttering.
Vedo invece possibile che vi siano 2 framebuffer separati, uno per ogni scheda, con ogni scheda che renderizza qualcosa di diverso. Però, per quanto si possa ottimizzare il processo, molte informazioni si ripeteranno, quindi alla fine il guadagno di vRAM non sarà così sensibile.
Comunque non sono un programmatore, quindi :D
Qui sono d'accordo, e credo che l'hybrid ne sia una conferma.
Ma in teoria se l'assegnazione delle risorse (tasselli da renderizzare) viene fatto all'inizio, o tramite bench iniziale, probabilmente anche la ram potrebbe sommarsi o e' come se fosse la somma perche' ogni scheda utilizzera al "massimo" (sempre ottimizzazione permettendo) la sua per il suo rendering. (?)
Comunque piu' che i tempi maturi per la tecnologia, sarebbero tempi maturi per l'etica. 'Ste robe, imho, volendo, si sarebbero potute fare anni fa.
mikael84
05-03-2016, 17:35
Interessante articolo sulle HBM
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/High-Bandwidth-Memory-2-4-GiB-Stacks-von-SK-Hynix-ab-Q3-in-Serienfertigung-1188250/
Basta OT:rolleyes: :rolleyes:
>bYeZ<
fireradeon
05-03-2016, 20:51
Ma la Ti che hai in firma non va bene? Perchè sinceramente è una bomba di scheda e non ci vedo tutta questa fame immediata di nuove schede :D
A parte che sto per comprare l'asus 34" 21:9 e mi servirá piú potenza, ormai si intuisce che con i nuovi titoli dx12 la 980ti non basterá piú e di scendere con i dettagli etc. non ho proprio intenzione. Sono punti di vista.
athlon xp 2400
05-03-2016, 20:58
A parte che sto per comprare l'asus 34" 21:9 e mi servirá piú potenza, ormai si intuisce che con i nuovi titoli dx12 la 980ti non basterá piú e di scendere con i dettagli etc. non ho proprio intenzione. Sono punti di vista.
Aspetti Pascal o vai di sli?
TigerTank
05-03-2016, 21:04
A parte che sto per comprare l'asus 34" 21:9 e mi servirá piú potenza, ormai si intuisce che con i nuovi titoli dx12 la 980ti non basterá piú e di scendere con i dettagli etc. non ho proprio intenzione. Sono punti di vista.
Ah beh, in effetti su 34" da gaming ne servono 2 già ora senza le dx12 :)
E di sicuro anche a livello di pascal per gestirlo a dovere serviranno 2 1070/1080 e credo che non basterà nemmeno una sola titan pascal per gestire i giochi più esosi. Comunque ora che ci sarà un parco giochi dx12 che sia un minimo corposo ci vorrà un pò di tempo, direi prima parte del 2017 :)
fireradeon
06-03-2016, 08:28
Aspetti Pascal o vai di sli?
Ah beh, in effetti su 34" da gaming ne servono 2 già ora senza le dx12 :)
E di sicuro anche a livello di pascal per gestirlo a dovere serviranno 2 1070/1080 e credo che non basterà nemmeno una sola titan pascal per gestire i giochi più esosi. Comunque ora che ci sarà un parco giochi dx12 che sia un minimo corposo ci vorrà un pò di tempo, direi prima parte del 2017 :)
Ormai aspetto pascal. Tanto i rumors ormai vanno nella direzione che ad Aprile la presentano e uscirà a giugno. Ovvio che se così non fosse sarei costretto ad andare di sli di 980ti ma in quel caso poi cambio nel 2017.
athlon xp 2400
06-03-2016, 15:06
Ormai aspetto pascal. Tanto i rumors ormai vanno nella direzione che ad Aprile la presentano e uscirà a giugno. Ovvio che se così non fosse sarei costretto ad andare di sli di 980ti ma in quel caso poi cambio nel 2017.
idem
Ah beh, in effetti su 34" da gaming ne servono 2 già ora senza le dx12 :)
E di sicuro anche a livello di pascal per gestirlo a dovere serviranno 2 1070/1080 e credo che non basterà nemmeno una sola titan pascal per gestire i giochi più esosi. Comunque ora che ci sarà un parco giochi dx12 che sia un minimo corposo ci vorrà un pò di tempo, direi prima parte del 2017 :)
Non lo dire che se mi arriva il monitor mi dovrò far bastare la 980ti almeno fino all'uscita di Pascal "non titan"! :asd:
Mercoledì prossimo nVidia annuncerà ufficialmente Pascal. Il lancio avverrà successivamente a Maggio. La commercializzazione effettiva non è stata ancora definita. I benchmark interni (per la versione top) accreditano una velocità di circa l'80% in più di una 980ti (a parità di consumo, stesso tdp: 250w) in condizioni reali e di oltre il doppio in condizioni ottimali (ottimizzazioni specifiche).
CiccoMan
07-03-2016, 12:32
Sappiamo tutti quanto valgano le dichiarazioni/infiscrezioni pre-lancio... Suppongo servano a gonfiare la fiducia degli investitori...
Comunque, se fosse anche solo la metà di quello che si dice è da prendere al volo :D
TigerTank
07-03-2016, 13:02
Mercoledì prossimo nVidia annuncerà ufficialmente Pascal. Il lancio avverrà successivamente a Maggio. La commercializzazione effettiva non è stata ancora definita. I benchmark interni (per la versione top) accreditano una velocità di circa l'80% in più di una 980ti (a parità di consumo, stesso tdp: 250w) in condizioni reali e di oltre il doppio in condizioni ottimali (ottimizzazioni specifiche).
In effetti ci potrebbe anche stare se consideriamo che una gtx980Ti tra hardware in sè ed ottimizzazioni dei drivers e dei motori di gioco va poco meno di uno Sli di gtx780Ti di pari processo produttivo.
Per cui facile che in tali contesti una titan pascal/gtx1080Ti andrà a sua volta poco meno di uno Sli di gtx980Ti, complice anche il nuovo processo produttivo e le nuove features pro dx12.
E considerati i prezzi a cui le faranno sarebbe anche meglio che sia così :D
Legolas84
07-03-2016, 13:04
Mercoledì prossimo nVidia annuncerà ufficialmente Pascal. Il lancio avverrà successivamente a Maggio. La commercializzazione effettiva non è stata ancora definita. I benchmark interni (per la versione top) accreditano una velocità di circa l'80% in più di una 980ti (a parità di consumo, stesso tdp: 250w) in condizioni reali e di oltre il doppio in condizioni ottimali (ottimizzazioni specifiche).
Sorry ma dove le avresti prese queste info??? Hai contatti interni?
Si ma come al solito intendono nel caso migliore, immagino.
Bisogna vedere in che test, a che risoluzione, con quali filtri, ecc.
Relax.... se non c'è una fonte non mi sembra siano info che possiamo considerare attendibili. Quindi per ora non c'è da strapparsi i capelli :)
illidan2000
07-03-2016, 13:07
Mercoledì prossimo nVidia annuncerà ufficialmente Pascal. Il lancio avverrà successivamente a Maggio. La commercializzazione effettiva non è stata ancora definita. I benchmark interni (per la versione top) accreditano una velocità di circa l'80% in più di una 980ti (a parità di consumo, stesso tdp: 250w) in condizioni reali e di oltre il doppio in condizioni ottimali (ottimizzazioni specifiche).
si, penso che ci possa tranquillamente stare. Ovviamente non uscirà subito in versione gaming. Uscità la Titan o Tesla (più quest'ultima secondo me)
paolox86
07-03-2016, 13:22
Fosse così questa volta faccio la pazzia per la titan, a patto che non superi il prezzo attuale per la super top di gamma!
Inviato dal mio iPhone utilizzando Tapatalk
TigerTank
07-03-2016, 13:24
Si chiaro, ma non c'era da strapparsi i capelli manco se era un fonte ufficiale.
Che poi sarebbe l'esatto contrario....ci si strappa i capelli in caso di disperazione ma se tali prestazioni fossero confermate ci sarebbero solo tanta scimmia e intenso giubilo :sofico:
EDIT: a meno che piazzino le titan a 1500€ e le Ti a 1000€ :asd:
paolox86
07-03-2016, 13:34
EDIT: a meno che piazzino le titan a 1500€ e le Ti a 1000€ :asd:
La paura è proprio questa, dio solo sa che prezzi potrebbe fare nvidia nel periodo in cui nemmeno polaris è uscito (se avverrà questo)
Inviato dal mio iPhone utilizzando Tapatalk
mikael84
07-03-2016, 13:39
Mercoledì prossimo nVidia annuncerà ufficialmente Pascal. Il lancio avverrà successivamente a Maggio. La commercializzazione effettiva non è stata ancora definita. I benchmark interni (per la versione top) accreditano una velocità di circa l'80% in più di una 980ti (a parità di consumo, stesso tdp: 250w) in condizioni reali e di oltre il doppio in condizioni ottimali (ottimizzazioni specifiche).
Aspetta, non vorrei innescare polemiche ma voglio vedere le fonti. 80% di una 980ti su che parametro, le HBM2 non sono pronte sino al q4 2016.
Cerchiamo di essere seri e precisi;)
Sorry ma dove le avresti prese queste info??? Hai contatti interni?
Relax.... se non c'è una fonte non mi sembra siano info che possiamo considerare attendibili. Quindi per ora non c'è da strapparsi i capelli :)
Attualmente non c'è nessuna info attendibile
probabile siano info che nvidia rilascia ai suoi partners. Quindi nel web non troverete nessun riscontro finchè non decideranno di renderle pubbliche.
Beh il prezzo delle attuali top, sulle prox, ve lo sognereste... e ci starebbe tutto... Mica sono le cheap-amd... Qui c'è sostanza :O
AragornElessar
07-03-2016, 13:49
Vediamo dai.. Mercoledì è dopodomani..
Spider-Mans
07-03-2016, 13:53
Mercoledì prossimo nVidia annuncerà ufficialmente Pascal. Il lancio avverrà successivamente a Maggio. La commercializzazione effettiva non è stata ancora definita. I benchmark interni (per la versione top) accreditano una velocità di circa l'80% in più di una 980ti (a parità di consumo, stesso tdp: 250w) in condizioni reali e di oltre il doppio in condizioni ottimali (ottimizzazioni specifiche).
:eek:
vabbe ho comprato una 970 nuova perche mi ero stancato di attendere per il pc nuovo....quindi non ho fretta se esce a giugno o settembre
ma se saremo su questi risultati...
appena esce la 1080 o 70 ...instant buy for me....
poi nel 2017 inoltrato valuteremo la ti se meritera l'ulteriore upgrade :stordita:
Spider-Mans
07-03-2016, 13:58
Beh il prezzo delle attuali top, sulle prox, ve lo sognereste... e ci starebbe tutto... Mica sono le cheap-amd... Qui c'è sostanza :O
per me una 1070 la prezzeranno entro i 400 euro
la 1080 sui 500-599 euro
la 1080ti nel 2017 over 700 euro :ciapet:
per me una 1070 la prezzeranno entro i 400 euro
la 1080 sui 500-599 euro
la 1080ti nel 2017 over 700 euro :ciapet:
Non penso. La fascia 480/1060 viaggerà sempre nell'intorno dei 200€. Mettere una 1070 a 400€ sarebbe da scaffale
Inviato dal mio XT1092 utilizzando Tapatalk
Spider-Mans
07-03-2016, 14:08
Non penso. La fascia 480/1060 viaggerà sempre nell'intorno dei 200€. Mettere una 1070 a 400€ sarebbe da scaffale
Inviato dal mio XT1092 utilizzando Tapatalk
ehm una 970 che è tra le vga piu vendute di sempre costa ancora oggi 320-350 euro un buon modello custom (parlo di prezzi amazon..dove per due anni hai una garanzia GRANITICA) ....oramai evito i negozietti dove risparmi un po di piu sul prezzo ma che ti mandano in rma se hai problemi :asd:
eh parlo di versioni custom
se la mettono a 350 euro ..sono ancora piu contento
ma mi cambia poco..altro che scaffale :asd: la 1070 potrebbe avere prestazioni pari o superiori alla 980ti..ma a meta prezzo xD
ehm una 970 che è tra le vga piu vendute di sempre costa ancora oggi 320-350 euro un buon modello custom (parlo di prezzi amazon..dove per due anni hai una garanzia GRANITICA) ....oramai evito i negozietti dove risparmi un po di piu sul prezzo ma che ti mandano in rma se hai problemi :asd:
eh parlo di versioni custom
se la mettono a 350 euro ..sono ancora piu contento
ma mi cambia poco..altro che scaffale :asd: la 1070 potrebbe avere prestazioni pari o superiori alla 980ti..ma a meta prezzo xD
Scusa ma chissene delle prestazioni. A me interessa la fascia di prezzo in relazione alle prestazioni. E la fascia x70/x90 ha sempre viaggiato sui 300/350. Altrimenti secondo il tuo ragionamento in base alle prestazioni, oggi una 950 la pagheresti quanto una 280
Inviato dal mio XT1092 utilizzando Tapatalk
Aspetta, non vorrei innescare polemiche ma voglio vedere le fonti. 80% di una 980ti su che parametro, le HBM2 non sono pronte sino al q4 2016.
Cerchiamo di essere seri e precisi;)
Lo sarei stato se fosse stato possibile.. ma purtroppo sono numeri riportati così come sono stati detti: abbiamo fatto questo, vanno circa il doppio, l'embargo "interno" è finito (oggi) ora potete discuterne con la vostra ragazza fra un reggiseno e una mutanda, perché tanto mercoledì lo diremo al mondo, e a maggio ci sarà il paper launch, la commercializzazione non la sappiamo o se la sappiamo non ve la diciamo (figuriamoci poi se si mettono a parlare di prezzo).
Ora ci si può speculare quanto vuoi... restano speculazioni, quello sopra è invece tecnicamente non è un rumor, ammenoché non abbiano mentito per qualche ragione (in tal caso non me ne assumo la responsabilità). :)
E ho volutamente evitato di citare il soggetto... perché sono un paraculo (e poi che differenza farebbe). ;)
Poi non ci vedo nulla di così eclatante, quanto scritto sopra non è dissimile da molti rumors che circolano già da tempo (anche perché alla fine i rumors vengono sempre da un leak...).
Beh il prezzo delle attuali top, sulle prox, ve lo sognereste... e ci starebbe tutto... Mica sono le cheap-amd... Qui c'è sostanza :O
se mi prezzano una futura 980ti(in termini di prestazioni dico) al costo della 970ti, la prendo al volo
TigerTank
07-03-2016, 19:23
Aspetta, non vorrei innescare polemiche ma voglio vedere le fonti. 80% di una 980ti su che parametro, le HBM2 non sono pronte sino al q4 2016.
Cerchiamo di essere seri e precisi;)
Infatti anch'io sapevo così...e a questo punto per l'estate o il back to school potrebbero apparire giusto le 1070/1080 con le ddr5+ :stordita:
C'e' da dire che la comunicazione riguardava il top di gamma, non specificando se in fascia "Titan" o in fascia "Ti" (ammesso che la differenziazione esista ancora in questi termini).
Per la commercializzazione, io non starei con la scimmia addosso, anche io (pur sapendo che l'ufficializzazione era dietro l'angolo) ho comprato una 980Ti la settimana scorsa.... insomma se stai li ad aspettare il momento giusto, aspetterai in eterno.
maxmix65
07-03-2016, 19:58
C'e' da dire che la comunicazione riguardava il top di gamma, non specificando se in fascia "Titan" o in fascia "Ti" (ammesso che la differenziazione esista ancora in questi termini).
Per la commercializzazione, io non starei con la scimmia addosso, anche io (pur sapendo che l'ufficializzazione era dietro l'angolo) ho comprato una 980Ti la settimana scorsa.... insomma se stai li ad aspettare il momento giusto, aspetterai in eterno.
Infatti se si aspetta mai si acquista...
Comunque come dicevi puo' essere che si riferiscano al chip Full non penso al chip medio... altrimenti.... :sofico:
TigerTank
07-03-2016, 20:11
C'e' da dire che la comunicazione riguardava il top di gamma, non specificando se in fascia "Titan" o in fascia "Ti" (ammesso che la differenziazione esista ancora in questi termini).
Per la commercializzazione, io non starei con la scimmia addosso, anche io (pur sapendo che l'ufficializzazione era dietro l'angolo) ho comprato una 980Ti la settimana scorsa.... insomma se stai li ad aspettare il momento giusto, aspetterai in eterno.
Vedremo...alla fine non c'è nemmeno un ordine preciso.
Nel senso che con le kepler abbiamo avuto Titan-gtx780-gtx780Ti.
Con le mawell gtx970/980 - TitanX - gtx980Ti.
Se parliamo di fascia alta imho di sicuro partiranno con la Titan, se invece vale il discorso delle HBM2 immature sarebbe più logico pensare ad un ordine che parte dalle piccole...
A meno che a sorpresa lancino una titan pascal con le ddr5+ a mò di "tampone"...mentre una successiva versione con le HBM2 uscirà poi nel 2017.
Infatti se si aspetta mai si acquista...
Comunque come dicevi puo' essere che si riferiscano al chip Full non penso al chip medio... altrimenti.... :sofico:
Ma non è che si deve pensare il tutto in funzione dell'acquisto compulsivo.
E' anche semplice passione tecnologica :D
Per dire io sono interessato a saperne di più sulle novità ma al momento non ho scimmie di upgrade, la gtx980Ti va che è una meraviglia e si presume che sfrutterà le dx12 visto che è pure scritto chiaramente sulla scatola :sofico:
E una bella 1060 da 200e che va come una 970?Schifo? :D
CiccoMan
07-03-2016, 20:59
E una bella 1060 da 200e che va come una 970?Schifo? :D
No, ma Gia c'è la 970 :D
Bisogna vedere la top di gamma quanto alzerà l'asticella delle prestazioni... Se è vero che la nuova top andrà quasi il doppio dell'attuale, l'anno prossimo con una 970 ci farai girare giusto spyder e forse mineswiper... Ma senza AA :D
No, ma Gia c'è la 970 :D
Bisogna vedere la top di gamma quanto alzerà l'asticella delle prestazioni... Se è vero che la nuova top andrà quasi il doppio dell'attuale, l'anno prossimo con una 970 ci farai girare giusto spyder e forse mineswiper... Ma senza AA :D
Ma la 970 adesso costa 350€+ :stordita:
CiccoMan
07-03-2016, 21:15
Ma la 970 adesso costa 350€+ :stordita:
E lo so, ma adesso ci giochi a 1080p con dettagli alti sul 99% dei titoli. Con i prossimi titoli che usciranno fine 2016/inizio 2017 magari non sarà più così... E allora le prestazioni dell'attuale 970 saranno roba da fascia medio-bassa ;)
Infatti,ma sulle 200€ va benissimo,per chi ha il portafogli magrolino :D Attendo
Ma quindi tutte le schede video che ci sono adesso saranno spazzate via?
deadbeef
07-03-2016, 21:27
troveranno il modo per farti passare ai nuovi modelli :D :fiufiu:
CiccoMan
07-03-2016, 21:31
Pensate solo che ad Ark ( Unreal engine 4) con una titanx/980ti gold a 1080p e dettagli "epic" faccio tra i 20 e i 50 fps... Se vogliono le attuali le demoliscono :rolleyes:
mikael84
07-03-2016, 21:45
Vedremo...alla fine non c'è nemmeno un ordine preciso.
Nel senso che con le kepler abbiamo avuto Titan-gtx780-gtx780Ti.
Con le mawell gtx970/980 - TitanX - gtx980Ti.
Se parliamo di fascia alta imho di sicuro partiranno con la Titan, se invece vale il discorso delle HBM2 immature sarebbe più logico pensare ad un ordine che parte dalle piccole...
A meno che a sorpresa lancino una titan pascal con le ddr5+ a mò di "tampone"...mentre una successiva versione con le HBM2 uscirà poi nel 2017.
Ma non è che si deve pensare il tutto in funzione dell'acquisto compulsivo.
E' anche semplice passione tecnologica :D
Per dire io sono interessato a saperne di più sulle novità ma al momento non ho scimmie di upgrade, la gtx980Ti va che è una meraviglia e si presume che sfrutterà le dx12 visto che è pure scritto chiaramente sulla scatola :sofico:
Per ora ci sarà Tesla GP100, x70-x80 a giugno-settembre e le versioni TI ancora lontane.
Le hbm2 ancora sono un problema
http://wccftech.com/sk-hynix-hbm2-mass-production-q3-2016/
Tesla gddr5x no, assolutamente:)
La prima versione di Tesla GK110 (k20) tuttavia debuttò con clock molto bassi ed un bus a 320bit (5 canali di memoria) e 5gb, ma subito dopo o quasi nello stesso tempo debutto la versione da Titan con 384bit.
athlon xp 2400
08-03-2016, 05:58
Pensate solo che ad Ark ( Unreal engine 4) con una titanx/980ti gold a 1080p e dettagli "epic" faccio tra i 20 e i 50 fps... Se vogliono le attuali le demoliscono :rolleyes:
Ark è ottimizzato alla cazxo
CiccoMan
08-03-2016, 08:39
Ark è ottimizzato alla cazxo
A me sembra che scali bene invece... Comunque, ottimizzato o meno, con questi giochi dovremo avere a che fare ... Non è che i AAA attuali siano tanto "gentili" con le nostre vga Se attivi filtri, uber texture, haorworks e menate varie... Figuriamoci la prossima stagione :help:
Giovamas
08-03-2016, 08:44
Pensate solo che ad Ark ( Unreal engine 4) con una titanx/980ti gold a 1080p e dettagli "epic" faccio tra i 20 e i 50 fps... Se vogliono le attuali le demoliscono :rolleyes:
Di sicuro. Io aspetto la nuova 980ti con tanto di HBM2 almeno così mi sono promesso. Se poi a giugno / settembre le prestazioni della x80 saranno di brutto superiori alla 980ti valuterò....
mikael84
08-03-2016, 10:54
però c'è anche samsung della partita, chissà loro come sono messi con le hbm2
Bella domanda, Samsung è della partita e dovrebbe essere ben più avanti di Hynix ma ancora non si conosce nulla. Probabile che le prime Tesla debuttino con tale brand. Per la versione TI i tempi ci stanno tutti.
appleroof
08-03-2016, 16:15
http://wccftech.com/nvidia-pascal-graphics-cards-spotted-in-shipping-record/
TigerTank
08-03-2016, 16:47
http://wccftech.com/nvidia-pascal-graphics-cards-spotted-in-shipping-record/
Ipotesi malsana: gtx1070 a $600 e gtx1080 a $900? :eekk: :D
Perchè mi sembrano bassini per Titan e Ti con delle HBM2, salvo forse la solita conversione 1:1 per i references :fagiano:
appleroof
08-03-2016, 17:02
Ipotesi malsana: gtx1070 a $600 e gtx1080 a $900? :eekk: :D
Perchè mi sembrano bassini per Titan e Ti con delle HBM2, salvo forse la solita conversione 1:1 per i references :fagiano:
Come sempre... Tocca vedere le prestazioni e la concorrenza :D
Io se dovessi decidere oggi come oggi direi che aspetto di vedere entrambe all'opera (le nuove AMD e le nuove nvidia intendo) e poi decido con calma... Ma si sa, queste considerazioni fatte con mesi ti anticipo non valgono molto :asd:
Posso dire che vorrei una vga che mi garantisca un buon boost dalla 980ti ma con un tdp abbastanza più basso, credo che a sto giro sarà questa la mia scriminante principale tra rosse e verdi poi vediamo...
TigerTank
08-03-2016, 17:09
Poco ma sicuro Apple, tra sorpresine passate(regolatore bloccato della Ti, vram delle gtx970, ecc...) e cose varie da considerare, col cavolo che compro ancora vga appena uscite. Se poi mi piazzano già una 1070 a 600€, magari con quei bei pcb compressi stile gtx970 reference, cambio direttamente hobby :asd:
Poi beh sono curioso di vedere pure le Polaris anche se con un monitor gsync hai il vantaggio della goduria(perchè va davvero benone) ma lo svantaggio della mancanza di scelta.
mikael84
08-03-2016, 17:24
http://wccftech.com/nvidia-pascal-graphics-cards-spotted-in-shipping-record/
ma.....io rimango con l'idea iniziale di 650-700 per la x80 e 450-500 per la x70, o meglio schede che coprono rispettivamente la 980 e 980ti.
Per ora prendo tutto con le pinze ma la x80 scordiamocela a meno del prezzo della TI attuale
Con due monitor G-Sync, personalmente, punterò su Nvidia, con cui del resto mi sono sempre trovato bene; meglio delle uniche due AMD che ho avuto...
In ogni caso cambierei solo per le HBM2, e se effettivamente le prestazioni saranno almeno il 50% maggiori rispetto alla 980ti in ogni circostanza, e non solo come picco massimo ;)
Inviato dal mio iPhone utilizzando Tapatalk
Anche AMD con le ultime uscite non è che sia proprio economica. Le schede vanno ma per prezzo siamo li. E' la situazione si ripeterà anche a questo giro quasi sicuramente. :)
Spider-Mans
08-03-2016, 17:52
Ipotesi malsana: gtx1070 a $600 e gtx1080 a $900? :eekk: :D
Perchè mi sembrano bassini per Titan e Ti con delle HBM2, salvo forse la solita conversione 1:1 per i references :fagiano:
600 euro l'erede della 970
questa non sarebbe una idea malsana ma blasfemia economica di nvidia :asd:
cmq io sto fissa per le hbm2 non la capisco
si è vissuto senza hbm da sempre...tutto ad un tratto sono "irrinunciabili" ?
le gddr5X raddoppiano mi pare la capacita rispetto alle gddr5 classiche... oggi chi ha un a980ti gioca con le classiche ggdr5 eh
se non vogliono ritardare ....: 1070 e 1080 saranno su gddr5x...le hbm2 le vedremo nel 2017 sulle ti
mi pare la soluzione piu logica e indolore...anche per contenere il prezzo..la 1070 non puo essere prezzata quanto la 980ti attuale...che senso avrebbe? mica andra il 40% in piu XD
TigerTank
08-03-2016, 17:59
ma.....io rimango con l'idea iniziale di 650-700 per la x80 e 450-500 per la x70, o meglio schede che coprono rispettivamente la 980 e 980ti.
Per ora prendo tutto con le pinze ma la x80 scordiamocela a meno del prezzo della TI attuale
Lol speriamo, altrimenti aggiungendo al tutto l'infame conversione 1:1 rispetto ai prezzi americani, mi sa che con delle 1070 a 600€ e delle 1080 a 900€, in molti case le maxwell perdureranno molto più a lungo :D
Una roba del genere vorrebbe dire tagliar fuori una fetta pazzesca di giovani/giovanissimi che magari finora già si è permessa a fatica una x70, oltre che un deciso abbassamento di fascia per molti altri....per cui spero sia almeno come dici tu.
Rimpiango i tempi in cui c'erano le x80 sulle 500€ e molti più giochi pensati per pc invece che meri porting.
EDIT: a meno che quei prezzi si riferiscano rispettivamente a titan e a Ti come base a cui poi sommare l'iva.
In tal caso da noi con il cambio equo sarebbero 545 e 817 + IVA, quindi 665€ e 996€, quasi allineati con i prezzi delle attuali.
Però appunto non mi torna che siano titan e Ti per via della storia delle HBM2....boh :stordita:
mikael84
08-03-2016, 18:18
Lol speriamo, altrimenti aggiungendo al tutto l'infame conversione 1:1 rispetto ai prezzi americani, mi sa che con delle 1070 a 600€ e delle 1080 a 900€, in molti case le maxwell perdureranno molto più a lungo :D
Una roba del genere vorrebbe dire tagliar fuori una fetta pazzesca di giovani/giovanissimi che magari finora già si è permessa a fatica una x70, oltre che un deciso abbassamento di fascia per molti altri....per cui spero sia almeno come dici tu.
Rimpiango i tempi in cui c'erano le x80 sulle 500€ e molti più giochi pensati per pc invece che meri porting.
EDIT: a meno che quei prezzi si riferiscano rispettivamente a titan e a Ti come base a cui poi sommare l'iva.
In tal caso da noi con il cambio equo sarebbero 545 e 817 + IVA, quindi 665€ e 996€, quasi allineati con i prezzi delle attuali.
Però appunto non mi torna che siano titan e Ti per via della storia delle HBM2....boh :stordita:
Pure io la penso così, loro non sanno che chip riguarderà di preciso e non sapendolo hanno incluso anche il GP104 tra i possibili ma non sarà certamente GP104.
Un core da 300/330mm2 non può certo costare quel tanto, sarebbe follia. Inoltre troppa differenza tra x70 e x80.
Io ho sparato quei prezzi ma alla fine vedrai che costeranno pure meno.
fireradeon
08-03-2016, 19:17
Ragazzi se davvero esistono queste due schede allora non potendo essere ddr5x devono essere pascal. Quella da 900 dollari é una titan e quella da 600 potrebbe essere la 1080. Ci sta secondo me. Poi in italia la titan arriverebbe a 1200 euro come fu per l'altra titan partira da 999 dollari e arrivata a 1250 euro.
paolox86
08-03-2016, 19:36
Potrebbe essere effettivamente una Titan e a quel punto una 1080 ti, impossibile che in quei prezzi ci sia il gp104, a meno di follie economiche eclatanti. Nel 2017 uscirà una Titan x con hbm2 e magari gp110 (un big Pascal revisionato). Resterebbe da capire quando uscirebbero 1070 e 1080, le loro galline dalle uova d'oro... Certamente entro fine anno.
Inviato dal mio iPad utilizzando Tapatalk
TigerTank
08-03-2016, 19:57
Pure io la penso così, loro non sanno che chip riguarderà di preciso e non sapendolo hanno incluso anche il GP104 tra i possibili ma non sarà certamente GP104.
Un core da 300/330mm2 non può certo costare quel tanto, sarebbe follia. Inoltre troppa differenza tra x70 e x80.
Io ho sparato quei prezzi ma alla fine vedrai che costeranno pure meno.
Infatti ;)
Ragazzi se davvero esistono queste due schede allora non potendo essere ddr5x devono essere pascal. Quella da 900 dollari é una titan e quella da 600 potrebbe essere la 1080. Ci sta secondo me. Poi in italia la titan arriverebbe a 1200 euro come fu per l'altra titan partira da 999 dollari e arrivata a 1250 euro.
Visto che Nvidia a volte è imprevedibile io sinceramente in ambito gaming non escluderei nemmeno una tornata completa di schede con le GDDR5+ per poi far uscire nel 2017 dei "refresh" almeno delle 2 di punta con le "ritardatarie" HBM2 :sofico:
$900 + tasse di titan ci potrebbero stare appunto con delle DDR5+, andando a sovrapporsi alle attuali...mentre la vedo dura con ben 32GB di costose e novelle HBM2. Vedremo :D
mikael84
08-03-2016, 21:42
Infatti ;)
Visto che Nvidia a volte è imprevedibile io sinceramente in ambito gaming non escluderei nemmeno una tornata completa di schede con le GDDR5+ per poi far uscire nel 2017 dei "refresh" almeno delle 2 di punta con le "ritardatarie" HBM2 :sofico:
$900 + tasse di titan ci potrebbero stare appunto con delle DDR5+, andando a sovrapporsi alle attuali...mentre la vedo dura con ben 32GB di costose e novelle HBM2. Vedremo :D
No Tiger sono due progetti diversi, progettarlo per le gddr5x è totalmente diverso. Per ora debutterà Tesla(HBM), poi GP104(gddr5x) e dopo si parlerà di GP100 gaming o Titan in HBM;)
La versione TI debutterà quasi sicuro nel 2017 con HBM hynix/samsung
Speriamo non si ripeta la storia della serie 8 all'uscita delle dx10, con schede mediocri che costavano un botto.
Anche perché i titoli dx12 che dovrebbero uscire non giustificano la spesa secondo me.
Inviato dal mio SM-G920F utilizzando Tapatalk
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.