View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
mikael84
14-12-2017, 16:24
Si ma questo chip sostituisce GP100, non GP102.
GP100 è molto più veloce di GP102, quello di Titan XP, e una quadro P6000 era già abbondantemente più veloce di titan xp/1080ti nei giochi.
Fra GP100 e questa GV100 ci passa ben meno del 20% nei giochi e ad occhio anche nel rendering.
Per questo ribadisco che i risultati non sono entusiasmanti.
Se fra GP100 e questa padella di GV100 da 5000+ core ci passa si e no nemmeno un 20%, cosa ci possiamo aspettare da GV 102?
Non voglio dire poco, ma ad occhio e croce dubito altamente che fra 2080 e 1080 o 2080ti e 1080ti ci passerà più del 25%, probabilmente qualcosa intorno al 20%.
Poi oh, per carità, magari aggiungono gozziliardi di transistor in più per salire di clock, memorie più veloci, qualche ottimizzazione all'ipc e il salto sarà del 30-35%, ma ho seri dubbi.
Anche e soprattutto perchè non avendo tutta sta competizione fino al 2019, ma chi glie lo fa fare ad Nvidia? Nella fascia sopra i 500 la gente la cambia volentieri la gpu per 20-25% di prestazioni (ad esempio la 680 andava il 19% circa sulla 580, la 980 il 28% in più della 780, a sua volta la 780 andava il 21% in più della 680...).
Nella fascia sotto i 500, la gente solitamente non cambia gpu ad ogni nuova generazione, a meno che non ci sia anche un salto di processo produttivo (dove il salto prestazionale generalmente è superiore), ergo Nvidia venderà comunque tantissime 2070 e 2060 a chi ancora deve upgradare partendo da 10603gb/570 o inferiore, e ne venderà ancora di più a chi ha ancora gpu a 28nm.
Quindi mi chiedo, pensate davvero che ci sarà tutto sto balzo prestazionale da fascia a fascia? Specie dopo aver visto quanto è, relativamente, fiacco GV100 rispetto a GP100?
20-25% sembra la stima più credibile.
Vul, Nvidia scrive i chip prima (con kepler ci passarono 4 anni per riprendere ed ampliare la 460 a dipendenze), poi li scrive via gaming, ovvero leva il superfluo, non è che perchè non c'è concorrenza i chip non li tira fuori, al massimo ci specula su:D e tanto direi:)
Infatti sulle prestazioni, che vi dicevo, GV104, avrà i cc della 1080ti con migliori latenze, i clock sono ancora da vedere, ma non aspettiamoci grossissime migliorie.
Nvidia farà di tutto per spacciare come enthusiast il suo chip di punta, che per l'appunto sarà per quest'anno il GV104 (quello delle 660 di qualche anno fa).
La GV100, serve giusto a far vedere un pochino di potenza brutta, sopratutto a certi clock, vedi in OC, a soli 1700/1800.
guarda che la P6000 monta il GP102 e all'uscita della stessa i bench li fecero contro la Titan X NON al Xp, visto che la Tian Xp non era ancora uscita...
la Titan XP ha il chip Full come la P6000.
Peggio ancora allora, GP100 vs P6000 è circa il 50% più veloce (in applicazioni workstation).
Boh allora ritratto.
Ma rimango dell'opinione che molto difficilmente vedremo 25% stock-stock.
techsaskia
14-12-2017, 19:19
Conclusione ovvia, cioè non spendere $3000 per usarla come scheda da gaming :D
Però prestazionalmente è un bell'antipasto da vedere, in attesa delle nuove vga del prossimo anno.
si ma GV104 non andrà così forte, le prossime Ti non sono roba da 2019?
Ho paura che la mia titan x p rimarrà ancora diversi mesi nel case
TigerTank
14-12-2017, 20:09
si ma GV104 non andrà così forte, le prossime Ti non sono roba da 2019?
Esatto, ma vedrai che le "voltine"(o amperine?) avranno comunque il loro margine calibrato di prestazioni in più. D'altronde dovranno pur venderle. Aggiungici qualche manovrina a livello drivers et voilà! :D
Poi certo, le Ti arriveranno nel 2019 ma può darsi che apriranno le danze con una titan da gaming, magari di nuovo sulle 1300€ e venduta in esclusiva.
mikael84
14-12-2017, 23:18
Ho paura che la mia titan x p rimarrà ancora diversi mesi nel case
Hai la full XP? In tal caso stai tranquillo, salvo svalutazioni, a livello di prestazioni puoi stare davvero sereno.:)
TigerTank
15-12-2017, 09:00
Hai la full XP? In tal caso stai tranquillo, salvo svalutazioni, a livello di prestazioni puoi stare davvero sereno.:)
Anche perchè tolti gli utilizzi di lavoro, l'unica giustificazione al prezzo di quella titan sarebbe proprio uno sfruttamento più longevo rispetto a schede inferiori :D
Imho può tranquillamente arrivare come minimo fino all'uscita delle TI del 2019, salvo avere proprio la scimmia di svenderla per prendere un'eventuale nuova Titan "da gaming" da 1300-1500€.
AceGranger
15-12-2017, 09:31
Peggio ancora allora, GP100 vs P6000 è circa il 50% più veloce (in applicazioni workstation).
Boh allora ritratto.
Ma rimango dell'opinione che molto difficilmente vedremo 25% stock-stock.
continui a scrivere cose senza senso.
la P6000 ha piu CUDA della GP100... la GP100 puo fare cose che la P6000 per la differenza dei chip con l'FP64/FP16 o l'nVlink per la condivisione della memoria, ma in FP32 le prestazioni sono simili, a meno di particolari carichi dove la banda delle HBM2 da un vantaggio.
Ho paura che la mia titan x p rimarrà ancora diversi mesi nel case
Sei un poveraccio (cit.) :O
mikael84
15-12-2017, 14:33
Anche perchè tolti gli utilizzi di lavoro, l'unica giustificazione al prezzo di quella titan sarebbe proprio uno sfruttamento più longevo rispetto a schede inferiori :D
Imho può tranquillamente arrivare come minimo fino all'uscita delle TI del 2019, salvo avere proprio la scimmia di svenderla per prendere un'eventuale nuova Titan "da gaming" da 1300-1500€.
Difficile trovare giustificazioni a questa "Titan":fagiano:
E' solo il chip puro finale, come lo è la vega full 64 (1070ti-1080 FE downclock).
L'unica cosa sicura è che nVidia ci marcerà alla grande.
Chiaramente a livello di prestazioni è una vera bestia, 528gb/s a default + quasi 20gb/s per la compressione delle 8 rop's in più. Se hai fortuna a 13 gb/s ci prendi 624gb/s:eek:
Una 2080ti stock raggiungerà i 672 gb/s, a 14 gb/s ddr6, considerando che avrà un MC più intasato.
Inoltre una Titan xp a liquido con core a 2100 sarà in calcolo equivalente ad una 2080ti a 1580/1600 circa.
Davvero tanta roba, il muscle spesso paga.:p
Bisogna capire quanto può spingere la nuova architettura in termini di clock, se spinge come Pascal o addirittura raggiunge i 2.1-2.2ghz sono belle bestioline...
Anche se la nuova Titan V da quello che vedo in OC sembra recuperare più sull'aumento dei clock delle memorie che del core (QUI (https://www.youtube.com/watch?v=-kHUSRLOeYw))... Probabile comunque che possano anche fare una Titan V gaming (GV102) con GDDR6 e con una banda maggiore, mantenendo i 5120cc ma tagliando le cose inutili come i tensor cores...
mikael84
15-12-2017, 23:31
Bisogna capire quanto può spingere la nuova architettura in termini di clock, se spinge come Pascal o addirittura raggiunge i 2.1-2.2ghz sono belle bestioline...
Anche se la nuova Titan V da quello che vedo in OC sembra recuperare più sull'aumento dei clock delle memorie che del core (QUI (https://www.youtube.com/watch?v=-kHUSRLOeYw))... Probabile comunque che possano anche fare una Titan V gaming (GV102) con GDDR6 e con una banda maggiore, mantenendo i 5120cc ma tagliando le cose inutili come i tensor cores...
Quando si parla di memorie, HBM/2, DDR5/6, il problema alla base è la BW effettiva che tale chip può accedere.
Con le Volta, abbiamo una BW teorica ampia, ma non sappiamo se la compressione è attiva (in tal caso le rop's cominciano a pesare), oppure le HBM costituiscono un collo di bottiglia, come succede con le AMD, che il rapporto effettivo è estremamente basso.
Se la banda è bassa, occare le ram può offrire migliori prestazioni che sul core.
Questo succedeva con le Kepler, dove la sola compressione 8:1 permetteva ad una 780ti da 335gb/s a raggiungere soli 220gb/s (peggio di una 970).
Se rapportiamo i valori di Maxwell, su Volta puoi utilizzare circa 450 gb/s, mentre su Pascal, oltre ad avere valori superiori, puoi contare su delle compressioni assurde (8:1/4:1/2:1 e colori vicini).
Una Pascal con 8 GPC ipotetica ( 5120cc/128 rop's, 512bit /702 gb/s) garantirebbe un + 35% circa su 4k, ma nel reparto memoria avresti un miglioramento drastico tra rop's e BW.
GV100 è solo un'accozzaglia per ora.;)
appleroof
16-12-2017, 07:30
Features dx12 in Volta
https://www.hardwareluxx.de/community/f14/nvidia-titan-v-volta-architektur-im-gaming-test-1185181-4.html#post26022358
Test oc core vs. Mem
https://www.gamersnexus.net/guides/3172-nvidia-titana-v-gpu-core-vs-hbm2-memory-overclocking
Review completa (gaming, mining e compute)
https://hothardware.com/reviews/nvidia-titan-v-volta-gv100-gpu-review
Sei un poveraccio (cit.) :O
#Poveracci
Vi piace la firma........ dedicata a tutti quelli che sul mercatino vogliono fare l'affare, non basta mettere il prezzo sotto a quello di regolamento, ti fanno l'offerta al ribasso e credono che ti fanno pure un favore.......da poveracci insomma.
Tornando a noi e sono serio, attualmente a 1440p 144hz non sento esigenza di cambiare, la titan x 2016 la tengo da giusto un anno e per i miei canoni è un'eternità, la tengo a liquido e senza oc, idem la cpu 7700k forse stà a 4600 o 4700, sono mesi che nemmeno guardo, penso solo a giocare e forse negli ultimi 3 mesi ho giocato più che negli ultimi 5 anni, ho appena preso 8700k con z370g.
XP Fabio+
16-12-2017, 12:25
data presunta di uscita per le geforce secondo voi?
considerando che:
gtx 980 -> 18 settembre 2014
gtx 980 ti -> 2 giugno 2015
gtx 1080 -> 27 maggio 2016
gtx 1080 ti -> 10 marzo 2017
sembra che anticipino sempre di qualche mese dal lancio precedente, verrebbe da dire già a febbraio o marzo...
TigerTank
16-12-2017, 12:42
data presunta di uscita per le geforce secondo voi?
considerando che:
gtx 980 -> 18 settembre 2014
gtx 980 ti -> 2 giugno 2015
gtx 1080 -> 27 maggio 2016
gtx 1080 ti -> 10 marzo 2017
sembra che anticipino sempre di qualche mese dal lancio precedente, verrebbe da dire già a febbraio o marzo...
Quando gli gira a Nvidia, che tanto può fare come gli pare :D
mikael84
16-12-2017, 14:28
Features dx12 in Volta
https://www.hardwareluxx.de/community/f14/nvidia-titan-v-volta-architektur-im-gaming-test-1185181-4.html#post26022358
integrano le stesse feature di Vega.
con i thread indipendenti si eviteranno vari stadi in idle, maggior flessibilità per gli sviluppatori e probabilmente si decideranno a sviluppare con le nuove librerie.
walter.caorle
16-12-2017, 15:13
integrano le stesse feature di Vega.
con i thread indipendenti si eviteranno vari stadi in idle, maggior flessibilità per gli sviluppatori e probabilmente si decideranno a sviluppare con le nuove librerie.
...non voglio entrare in tecnicismi di cui non ho competenze ma con gli a-sync in hardware e quindi una nuova programmazione c'è il "pericolo" che Pascal venga azzoppato in stile Kepler??
...non voglio entrare in tecnicismi di cui non ho competenze ma con gli a-sync in hardware e quindi una nuova programmazione c'è il "pericolo" che Pascal venga azzoppato in stile Kepler??
Azzoppato no, ma perderà terreno con la diffusione di funzioni asincrone.
Com'è giusto che sia, sennò si rimane eternamente fermi a dx11 e maxwell.
techsaskia
17-12-2017, 15:34
data presunta di uscita per le geforce secondo voi?
considerando che:
gtx 980 -> 18 settembre 2014
gtx 980 ti -> 2 giugno 2015
gtx 1080 -> 27 maggio 2016
gtx 1080 ti -> 10 marzo 2017
sembra che anticipino sempre di qualche mese dal lancio precedente, verrebbe da dire già a febbraio o marzo...
io ho due 980 Ti, sono veramente indeciso se prendere le 2080 o aspettare le Ti... voi che dite?
io ho due 980 Ti, sono veramente indeciso se prendere le 2080 o aspettare le Ti... voi che dite?
Di vedere prima la 2080? :asd:
techsaskia
17-12-2017, 15:58
Di vedere prima la 2080? :asd:
la storia si ripete, darà un 20% circa in più di una 1080 Ti... sempre la solita...
ormai fanno sempre le stesse cose.
la storia si ripete, darà un 20% circa in più di una 1080 Ti... sempre la solita...
ormai fanno sempre le stesse cose.
20% più di 1080ti è tantissimo eh.
Un balzo simile c'è stato con Pascal, ma perchè si è passati a 16nm...
io ho due 980 Ti, sono veramente indeciso se prendere le 2080 o aspettare le Ti... voi che dite?
La 2080 credo che andrà al massimo un 20% più dell'attuale 1080ti, quindi prestazioni quasi equivalenti al tuo sli, ma con tutti i vantaggi di una gpu singola, oltre ai consumi di 180-200w contro 550-600w dello sli di 980ti...
Francamente se ti interessa una GPU singola aspetta direttamente la 2080ti...
techsaskia
17-12-2017, 16:16
La 2080 credo che andrà al massimo un 20% più dell'attuale 1080ti, quindi prestazioni quasi equivalenti al tuo sli, ma con tutti i vantaggi di una gpu singola, oltre ai consumi di 180-200w contro 550-600w dello sli di 980ti...
Francamente se ti interessa una GPU singola aspetta direttamente la 2080ti...
in realtà le GPU singole non mi interessano perchè una sola GPU è sempre poco, da sempre (se si vuole il massimo)
techsaskia
17-12-2017, 16:33
20% più della 1080ti significa che già chi viene da una "semplice" 1080 liscia vedrebbe un balzo enorme, immaginate tutti quelli che hanno schede inferiori.
Il dubbio è che se già una 1080ti vuole CPU uber, una eventuale 2080 come la si sfama? O le dx12 implementate meglio di pascal aiuteranno in tal senso?
dalle vecchie Ti alle nuove architetture il balzo va dal 10 al 20%, non è sempre stato così?
20% più della 1080ti significa che già chi viene da una "semplice" 1080 liscia vedrebbe un balzo enorme, immaginate tutti quelli che hanno schede inferiori.
Il dubbio è che se già una 1080ti vuole CPU uber, una eventuale 2080 come la si sfama? O le dx12 implementate meglio di pascal aiuteranno in tal senso?
Ti prendi un pannello 4K o 3440x1440 e giochi tranquillo :D
Non sono schede da 1080p e più sali di risoluzione più l'impatto della cpu va scemando completamente...
Per le prestazioni in se è un normale cambio generazionale, gli incrementi tra ogni generazione sono bene o male gli stessi...
Il vero salto lo ha chi passerà da Maxwell a Volta, tra una 980 e 2080 c'è praticamente un 100% di prestazioni in più a pari consumi, o dimezzamento dei consumi a pari prestazioni, a seconda di come la si vuol vedere...
dalle vecchie Ti alle nuove architetture il balzo va dal 10 al 20%, non è sempre stato così?
Abbiamo solo due precedenti.
980 vs 780ti, la 980 andava solo il 7.5% più veloce.
1080 vs 980ti 37%. Ma qui ci sono due fattori da considerare:
Pascal è molto più spinto di clock di Maxwell e overclocka molto meno. 1080 OC vs 980ti OC la differenza è del 26% non del 37%.
Pascal beneficiava anche di un processo produttivo che riduceva le dimensioni di quasi il 50%.
Ergo, a me 2080 +20% sulla 1080ti sembra estremamente difficile (su una media di giochi, su titoli che beneficiano di feature nuove è più probabile).
Vi piace la firma........ dedicata a tutti quelli che sul mercatino vogliono fare l'affare, non basta mettere il prezzo sotto a quello di regolamento, ti fanno l'offerta al ribasso e credono che ti fanno pure un favore.......da poveracci insomma.
Tornando a noi e sono serio, attualmente a 1440p 144hz non sento esigenza di cambiare, la titan x 2016 la tengo da giusto un anno e per i miei canoni è un'eternità, la tengo a liquido e senza oc, idem la cpu 7700k forse stà a 4600 o 4700, sono mesi che nemmeno guardo, penso solo a giocare e forse negli ultimi 3 mesi ho giocato più che negli ultimi 5 anni, ho appena preso 8700k con z370g.
sbagli tutto
devi riempire le ore a benchare e occare per poi giocare nei ritagli di tempo fra un bsod e l'altro
#machetelodicoafare
sbagli tutto
devi riempire le ore a benchare e occare per poi giocare nei ritagli di tempo fra un bsod e l'altro
#machetelodicoafare
Nooo è finito quel tempo, se pure li faccio li tengo per me, ho capito che dopo anni passati a fare test e aiutare tutti i tipi di utenti, non meritano altro da me, ho capito che puoi fare che vuoi ma il rispetto non lo guadagni nè con la disponibilità, nè con l'esperienza e una volta risolto chi si è visto si è visto.
Nooo è finito quel tempo, se pure li faccio li tengo per me, ho capito che dopo anni passati a fare test e aiutare tutti i tipi di utenti, non meritano altro da me, ho capito che puoi fare che vuoi ma il rispetto non lo guadagni nè con la disponibilità, nè con l'esperienza e una volta risolto chi si è visto si è visto.
Sante parole........
Nooo è finito quel tempo, se pure li faccio li tengo per me, ho capito che dopo anni passati a fare test e aiutare tutti i tipi di utenti, non meritano altro da me, ho capito che puoi fare che vuoi ma il rispetto non lo guadagni nè con la disponibilità, nè con l'esperienza e una volta risolto chi si è visto si è visto.
non vorrei inquinare il thread, volevo solo dirti che in merito al mercatino hai perfettamente ragione e certe volte è davvero squallido. Per il supporto agli utenti, ricorda che i forum dovrebbero servire a questo, al di la della riconoscenza. Ma non è detto che anche se non ti viene scritto esplicitamente, non ci siano utenti che non siano riconoscenti per l'aiuto che dai e date tanti altri di voi di vecchia "data" ;)
ps: spero di aver scritto bene in italiano, oggi è "festa" per me e sto ancora dormendo :asd:
Nooo è finito quel tempo, se pure li faccio li tengo per me, ho capito che dopo anni passati a fare test e aiutare tutti i tipi di utenti, non meritano altro da me, ho capito che puoi fare che vuoi ma il rispetto non lo guadagni nè con la disponibilità, nè con l'esperienza e una volta risolto chi si è visto si è visto.
a chi lo dici
anni a sconsigliare nvidia a tutti e guardate che riconoscenza :cry:
Legolas84
18-12-2017, 08:23
Nooo è finito quel tempo, se pure li faccio li tengo per me, ho capito che dopo anni passati a fare test e aiutare tutti i tipi di utenti, non meritano altro da me, ho capito che puoi fare che vuoi ma il rispetto non lo guadagni nè con la disponibilità, nè con l'esperienza e una volta risolto chi si è visto si è visto.
Purtroppo hai ragione la qualità dell’utenza negli anni è colata a picco :(
Una volta (neanche molto tempo fa in realtà) quando leggevo post pieni di inesattezze perdevo il mio tempo a farle notare in modo da rendere il forum un ottimo luogo dove reperire informazioni. Oggi invece non perdo il minimo tempo, leggo e passo oltre sorridendo tanto è inutile (si vuole aver ragione per partito preso, spesso linkando addirittura cose che contraddicono quanto si afferma, perché tanto il pensiero medio attuale è che tanto la gente nemmeno li controlla i link)...
La mia partecipazione ormai è limitata a reperire le informazioni che mi servono e scambiare due parole con gli utenti storici il cui atteggiamento è di tutt’altro tipo (per fortuna).
Inviato dal mio iPhone utilizzando Tapatalk Pro
Giovamas
18-12-2017, 08:46
Nooo è finito quel tempo, se pure li faccio li tengo per me, ho capito che dopo anni passati a fare test e aiutare tutti i tipi di utenti, non meritano altro da me, ho capito che puoi fare che vuoi ma il rispetto non lo guadagni nè con la disponibilità, nè con l'esperienza e una volta risolto chi si è visto si è visto.
Quoto...
appleroof
18-12-2017, 09:30
integrano le stesse feature di Vega.
con i thread indipendenti si eviteranno vari stadi in idle, maggior flessibilità per gli sviluppatori e probabilmente si decideranno a sviluppare con le nuove librerie.
Ottimo, era previsto fosse più "future proof" ma sempre meglio avere conferme :D
scorpion73
18-12-2017, 10:12
Che Pascal resti indietro sulle funzioni asincrone è da vedere quanto perché in realtà comunque ha un minimo di supporto e rispetto a Maxwell è già parecchio in più.
Quindi sicuramente resterà indietro ma forse grazie alle migliorie rispetto a Maxwell riuscirà un po' a tenere botta, o almeno speriamo.
In ogni caso staremo a vedere quanto effettivamente saranno usate le DX12 e soprattutto "quando" per capire la reale obsolescenza dell'attuale generazione.
C'è poi da vedere anche se volta gaming supporterà lo SLI o no perché se è come la Titan allora lo SLI sarà ufficialmente morto e non solo ufficiosamente
illidan2000
18-12-2017, 10:13
Confermo quanto detto dagli "utenti storici" nei precedenti post. Mi sono preso una sospensione la settimana scorsa x aver fatto notare che un utente diceva cose inesatte. Col cavolo che lo farò di nuovo...
Inviato dal mio SM-G920F utilizzando Tapatalk
me ne sono prese un paio pure io tempo fa, mi pare per OT
a chi lo dici
anni a sconsigliare nvidia a tutti e guardate che riconoscenza :cry:
:asd: mi hai fatto morire lol
suneatshours86
18-12-2017, 12:51
la realtà è che quel tipo di utenza si è spostata sui social. Nei forum ormai rimane poco e comunque l'utenza "nuova" si aspetta dei trattamenti da commenti ai post di Aranzulla
Tornando molto it, iocon questa titan x mi stò trovando benissimo e aspetto che esce il modello che la sostituisce per fare il passo, un anno fà avevo un asus 34" g-sync, poi l'ho venduto per l'attuale freesync 27", ad oggi cambierei solo il monitor con un g-sync 27" perchè il 34" mi stanca troppo la vista, ma chissà, non mi sono aggiornato sui nuovi monitor, potrei fare la pazzia.
https://www.gamersnexus.net/images/media/2017/GPUs/titan-v/clock-vs-hbm/sniper-4-clock-scaling.png
https://www.gamersnexus.net/images/media/2017/GPUs/titan-v/clock-vs-hbm/destiny-2-titan-v-clocks.png
Vedo che è limitata dalla banda passante nelle conversioni console che dipendendo dal color/texel fillrate.
Certo che sono degli artisti :p nel castrare volutamente le loro GPU.:sofico: (quarto stack di hbm2 disabilitato, ma presente nel interposer)
https://www.gamersnexus.net/images/media/2017/GPUs/titan-v/clock-vs-hbm/sniper-4-clock-scaling.png
https://www.gamersnexus.net/images/media/2017/GPUs/titan-v/clock-vs-hbm/destiny-2-titan-v-clocks.png
Vedo che è limitata dalla banda passante nelle conversioni console che dipendendo dal color/texel fillrate.
Certo che sono degli artisti :p nel castrare volutamente le loro GPU.:sofico: (quarto stack di hbm2 disabilitato, ma presente nel interposer)
Se è così hanno altro in progetto ben più potente, evidentemente questa titan v non è la massima espressione di volta, aspettiamo e vediamo, però i test in oc sono imbarazzanti, il 4k sembra ben gestibile.
TigerTank
18-12-2017, 14:03
Personalmente mi aspetto la nuova *80 intorno alla *80Ti precedente (un intorno del 5-10%) e la nuova *80Ti intorno al +25/30%.
No, io non credo. Altrimenti delle 1080Ti ribassate/usate sarebbero ben più appetibili. Secondo me avremo i soliti margini e cioè la 2070 che andrà come la 1080TI o poco meno/poco più(a seconda dei contesti) e una 2080 che avrà il suo plus del 20% circa.
Vedo che è limitata dalla banda passante nelle conversioni console che dipendendo dal color/texel fillrate.
Certo che sono degli artisti :p nel castrare volutamente le loro GPU.:sofico: (quarto stack di hbm2 disabilitato, ma presente nel interposer)
Chiamasi massimizzare i profitti centellinando le prestazioni.
Chi glielo fa fare di dare di più in un colpo solo? :D
Se è così hanno altro in progetto ben più potente, evidentemente questa titan v non è la massima espressione di volta, aspettiamo e vediamo, però i test in oc sono imbarazzanti, il 4k sembra ben gestibile.
Solita politica degli aumenti centellinati in assenza di concorrenza nelle fasce super-top. Possono tirar fuori all'occorrenza una V2 e una V3 (se alzano il TDP sui 300W).
Chiamasi massimizzare i profitti centellinando le prestazioni.
Chi glielo fa fare di dare di più in un colpo solo? :D
Infatti, stavo facendo del ironia...:sofico:
TigerTank
18-12-2017, 14:13
Infatti, stavo facendo del ironia...:sofico:
Eheheh lo so. Ormai son diventati come in ambito smartphones :stordita:
E già lì c'è più concorrenza.
Basta frignare e spendete sti soldi - NVidia's 16-Phase Titan V VRM Analysis & Shunt Mod Guide :
https://www.youtube.com/watch?v=xDJKgarGp6Y
mikael84
18-12-2017, 15:01
...non voglio entrare in tecnicismi di cui non ho competenze ma con gli a-sync in hardware e quindi una nuova programmazione c'è il "pericolo" che Pascal venga azzoppato in stile Kepler??
Non è che vengano castrate, una determinata scheda può andare meglio o molto meglio per varie caratteristiche, e la precedente ne soffre.
Kepler era un colabrodo, una 460 a riempimento con dei colli di bottiglia pazzeschi.
Ottima in culling, backfaceculling, shader e TMU, ma un vero disastro in rop's e BW.
Un warp deve accollarsi 2 chiamate contemporanee, anche in caso di sfruttamento al 100%, perdi in latenze, che diventano elevatissime.
la storia si ripete, darà un 20% circa in più di una 1080 Ti... sempre la solita...
ormai fanno sempre le stesse cose.
La 2080 sarà una 1080ti più future proof e più efficiente, non aspettiamoci grossi stravolgimenti sui primi titoli.
La differenza iniziale la faranno le latenze ed i clock, più qualche gioco che potrà beneficiarne, ricordando che le medie delle testate, sopratutto in dx12, saranno fatte su giochi non ben ottimizzati per Pascal, dove in dx11 va meglio.
20% più di 1080ti è tantissimo eh.
Un balzo simile c'è stato con Pascal, ma perchè si è passati a 16nm...
Esatto.
20% più della 1080ti significa che già chi viene da una "semplice" 1080 liscia vedrebbe un balzo enorme, immaginate tutti quelli che hanno schede inferiori.
Il dubbio è che se già una 1080ti vuole CPU uber, una eventuale 2080 come la si sfama? O le dx12 implementate meglio di pascal aiuteranno in tal senso?
Il problema è sempre quello, chi ha la 1080ti, può passare a Volta per gusto personale, ma il salto vero e giuso lo si fa passando da 1080 a 2080.
Queste sono schede pensate per altissime risoluzioni, ideali i 4k. Se già pensiamo ad un fallout 4 dove non esiste CPU capace di farlo scalare, mentre in 4k la situazione si stravolge:)
https://tpucdn.com/reviews/MSI/GTX_1080_Ti_Gaming_X/images/fallout4_2560_1440.png
https://tpucdn.com/reviews/MSI/GTX_1080_Ti_Gaming_X/images/fallout4_3840_2160.png
quindi ti rifaccio la mia domanda: non è che nvidia nel 2018 potrebbe creare questa ipotetica pascal dai rumors che davano l'avvento di Ampere invece che di Volta l'anno prossimo? ...dopotutto non credo le costi molto farlo in termini di spazio nel gestire 5120cc in 8gpc invece che in 6 ed aumentare le rops da 96 a 128, ma utilizzare le hbm2 invece delle gddr6 per limitare le dimensioni del bus a parità di BW
Non ci sarà alcuna GPU ad 8 GPC.
La CPU di Volta o Ampere sarà solo ritagliata da quello che è il chip HCP scritto.
Piuttosto si spera che con i 7nm si arrivi a chiudere i GPC con 32 rop's per GPC (2x8 rop's), in modo da avere altissimi throughput ed l2 più elevate.
Ottimo, era previsto fosse più "future proof" ma sempre meglio avere conferme :D
Le premesse ci sono, un thread che lavora come un warp è tanta roba, però ora finalmente Vega e Volta possono lavorare a pari condizioni.
Spero abilitino anche le FP16, visto che Vega su alcuni giochi, ad esempio FC può prendere vantaggio.
Vedo che è limitata dalla banda passante nelle conversioni console che dipendendo dal color/texel fillrate.
Certo che sono degli artisti :p nel castrare volutamente le loro GPU.:sofico: (quarto stack di hbm2 disabilitato, ma presente nel interposer)
Io la penso così al momento, non avendo qualcosa di effettivo:)
https://www.hwupgrade.it/forum/showpost.php?p=45244476&postcount=37000
Arrow0309
18-12-2017, 15:12
Basta frignare e spendete sti soldi - NVidia's 16-Phase Titan V VRM Analysis & Shunt Mod Guide :
https://www.youtube.com/watch?v=xDJKgarGp6Y
Hmmmm
Andrebbe quasi a cavallo col mio nuovo Predator Z35P ultrawide 3440x1440 @120hz :asd:
Hmmmm
Andrebbe quasi a cavallo col mio nuovo Predator Z35P ultrawide 3440x1440 @120hz :asd:
Ha il freesync?
TigerTank
18-12-2017, 16:21
Basta frignare e spendete sti soldi - NVidia's 16-Phase Titan V VRM Analysis & Shunt Mod Guide :
https://www.youtube.com/watch?v=xDJKgarGp6Y
Che figata, come se comprassi un'auto e poi mi toccasse andare dal meccanico per far sbloccare la quinta marcia! :sofico:
Arrow0309
18-12-2017, 16:21
Ha il freesync?
G-sync (il Freesync sarebbe OT) :D
appleroof
18-12-2017, 16:31
...non voglio entrare in tecnicismi di cui non ho competenze ma con gli a-sync in hardware e quindi una nuova programmazione c'è il "pericolo" che Pascal venga azzoppato in stile Kepler??
Kepler non è stato azzoppato, è stato il modo di programmare i giochi a mostrarne i limiti, e con Volta/Pascal magari per motivi tecnici diversi temo proprio sarà la stessa cosa (altro motivo per cui ho saltato Pascal), sul medio periodo chiaro non al dayone
cut
Le premesse ci sono, un thread che lavora come un warp è tanta roba, però ora finalmente Vega e Volta possono lavorare a pari condizioni.
Spero abilitino anche le FP16, visto che Vega su alcuni giochi, ad esempio FC può prendere vantaggio.
Io la penso così al momento, non avendo qualcosa di effettivo:)
cut
questo potrebbe essere un vantaggio in generale sempre sul medio periodo, più le architetture sono affini più in teoria i giochi per pc sono più facili da programmare o quantomeno ottimizzati, poi certo, differenze prestazionali rimarranno ora per una ora per l'altra, ma maggiore aderenza a specifiche standard in teoria dovrebbe spingere in quel senso
Vi piace la firma........ dedicata a tutti quelli che sul mercatino vogliono fare l'affare, non basta mettere il prezzo sotto a quello di regolamento, ti fanno l'offerta al ribasso e credono che ti fanno pure un favore.......da poveracci insomma.
Sospeso 10gg per flame e attacchi verso altri utenti del forum
e sign ovviamente editata
Confermo quanto detto dagli "utenti storici" nei precedenti post. Mi sono preso una sospensione la settimana scorsa x aver fatto notare che un utente diceva cose inesatte. Col cavolo che lo farò di nuovo...
Inviato dal mio SM-G920F utilizzando Tapatalk
scusa se mi hanno dato del demente e del perditempo. :)
a) vietato polemizzare sulle sospensioni
b) vietato fare certi giochetti, il motivo non era il far notare qualcosa ma i modi. Fare i furbetti non giova mai.
sospeso 10gg
e ora basta OT
>bYeZ<
Legolas84
18-12-2017, 19:56
Per me se la 2080 va poco più di una 1080Ti fa piacere.... così tiro avanti un altro anno con il mio bel GP102 e quando esce la 2080Ti cambio tutto, VGA, CPU, mobo e ram.... :D
Considerando quanto è indietro AMD tra l'altro in questo scenario si configurerebbe uno spiraglio per poter avere una nuova scheda rossa di prestazioni paragonabili alla prossima 2080.... con sommo beneficio per tutti noi!
Per me se la 2080 va poco più di una 1080Ti fa piacere.... così tiro avanti un altro anno con il mio bel GP102 e quando esce la 2080Ti cambio tutto, VGA, CPU, mobo e ram.... :D
Considerando quanto è indietro AMD tra l'altro in questo scenario si configurerebbe uno spiraglio per poter avere una nuova scheda rossa di prestazioni paragonabili alla prossima 2080.... con sommo beneficio per tutti noi!
Aspetta e spera :asd:
Considerando che la prossima architettura AMD è Navi (due chip su un singolo interposer) ti lascio immaginare da solo quali saranno le prestazioni al di fuori del segmento pro e di quello mining :asd:
Non che Infinity Fabric non possa funzionare in ambito gaming, semplicemente è impossibile avere le latenze di un singolo chip, tutto qui e la latenza è tantissimo per sfornare frame al secondo ;)
E' triste dirlo, ma ormai la competizione in ambito gpu è molto più che morta, AMD nemmeno ci prova. Anche perchè giustamente anche quando sfornava schede da dio (4xxx, 5xxx) Nvidia vendeva a palate g80 riciclato.
Anche quando la 290 liscia competeva con Titan, la 780 che costava 100 euro in più vendeva comunque il doppio.
E' davvero triste ritrovarsi in questa situazione (in cui noi consumatori siamo le vittime, non certo i guadagni stellari di Nvidia che non ha mai fatto così tanti soldi in vita sua).
A sto punto speriamo in Intel fra qualche anno (rido/piango)... :cry:
Onestamente e purtroppo non vedo la luce con navi e quando leggo che la fascia media (polaris) sarà sostituita da versioni più o meno rattoppate di Vega, mi vengono i brividi.
Ad oggi la migliore GPU di AMD è la 580 che però consuma come una 1080ti, mentre Vega sembra più sbilanciata delle fury con prestazioni scostanti, consumi.... Nel pro va forte ma io ci gioco e le valuto in questo...
Polaris "sembra" consumare molto solo perchè esce di fabbrica seriamente overvoltata.
Poichè ogni chip è differente non sai che clock stabili hai per cui prendi quello peggiore possibile come riferimento per tenere i voltaggi.
Ad esempio la mia 580 regge tranquillamente 1380 undervoltata di 120 mV e ci sono 40 Watt di differenza..(il consumo cresce esponenzialmente oltre una certa soglia..).
1380 mhz, sono oltre 114 mhz di overclock, ottenuti undervoltando.
Anche le memorie, mi sembra, escano seriamente overvoltate di 100 mV.
Per non parlare delle memorie. Se la lotteria ti ha dato memorie Samsung (io le ho) puoi tenere 2200 mhz (quindi +10% frequenza) undervoltando le memorie e addirittura tenendo i timings 1750.
Le prestazioni in quel caso volano (faccio quasi 2700 con superposition extreme, circa l'8-9% in più delle migliori 1060 occate). Il tutto ben sotto i 150 watt da muro.
bagnino89
18-12-2017, 21:07
La tecnologia è abbastanza ininfluente oggi come oggi... siete tutti qua a stracciarvi le vesti per i prezzi di nVIDIA, ma le differenze fra una 1060 e polaris non sono percepibili a occhio nudo. Idem quelle fra 1070/Vega56 o 1080/Vega Liquid. Quindi, di che stiamo a parlare?
La guerra di vince sui social network, oggi come oggi, e se volete cercare un colpevole del predominio nvidia... non c'è che da guardarsi allo specchio! :)
Sì vabbè... Stai solo tralasciando un piccolissimo dettaglio: il rapporto performance/watt. Ed il fatto che, tutto sommato, le Nvidia vanno bene sin da subito e non promettano feature esuberanti che poi non arrivano.
Io mi guardo allo specchio, ma vedo un'azienda che sta avanti (e, conscia di esserlo, si fa pagare) ed una che arranca.
bagnino89
18-12-2017, 21:10
Polaris "sembra" consumare molto solo perchè esce di fabbrica seriamente overvoltata.
Poichè ogni chip è differente non sai che clock stabili hai per cui prendi quello peggiore possibile come riferimento per tenere i voltaggi.
Ad esempio la mia 580 regge tranquillamente 1380 undervoltata di 120 mV e ci sono 40 Watt di differenza..(il consumo cresce esponenzialmente oltre una certa soglia..).
1380 mhz, sono oltre 114 mhz di overclock, ottenuti undervoltando.
Anche le memorie, mi sembra, escano seriamente overvoltate di 100 mV.
Per non parlare delle memorie. Se la lotteria ti ha dato memorie Samsung (io le ho) puoi tenere 2200 mhz (quindi +10% frequenza) undervoltando le memorie e addirittura tenendo i timings 1750.
Le prestazioni in quel caso volano (faccio quasi 2700 con superposition extreme, circa l'8-9% in più delle migliori 1060 occate). Il tutto ben sotto i 150 watt da muro.
Sì ma le tensioni giuste le deve applicare di fabbrica AMD, non gli utenti finali... Che poi ad ogni nuova release di driver bestemmiano perché il downvolt gli causa crash, artefatti e quant'altro.
Si ma per la cronaca la mia 1080 stock boosta a 1860 circa a 1.025v ed io la imposto stabile a 1950mhz a 0.925v ed è una founders avendo prestazioni superiori e consumi/calore inferiore... A smanettare possiamo smanettare tutti qua si parla dei progetti di base che sono fallati e non sono certo gli utenti a doverli/poterli rattoppare.
Vega nasce nel pro e si vede, li va forte, nel gaming sembra adattata e onestamente si vede, ha numeri "pazzeschi" non sostenuti da performance congrue..
Poi leggo che la prossima fascia media che sostituisce polaris sarà su base Vega e resto molto perplesso..
Si ma il punto è che tutte le polaris escono seriamente overvoltate.
1.075V a 1360 mhz, ad esempio lo tengono tutte le schede, ma proprio tutte. E i consumi sono qualche decina di watt in meno che fa tanta differenza nei grafici cari alle testate.
Polaris ha perf/watt simili a pascal (sicuramente inferiori) ma di gran lunga più simili di quanto stock/stock facciano sembrare.
bagnino89
18-12-2017, 22:46
Nemmeno quello si nota ad occhio nudo... ;)
Ti assicuro che il mio alimentatore lo nota eccome. :)
Se le hanno annunciate arriveranno. Ma è roba che richiede software sviluppato ad hoc, le vedremo (ad occhio nudo spero!) quando usciranno i giochi che le supporteranno.
Resto convinto cmq che i giochi sviluppati per Volta andranno meglio su Vega che non su Pascal.
Boh, alla fine della fiera non vedo sostanziali motivi per preferire un brand all'altro - 1080ti a parte, che invece è davvero un gran bel giocattolo. Se solo minasse un po' meglio...
Chi visse sperando... I soldi io li tiro fuori subito, e voglio tutto subito. Io la vedo così.
Paga la tua nuova VGA e sii felice allora, che problema c'è? :)
Pagata e soddisfatto, infatti. Non ho alcun problema io.
Di certo non mi dispiacerebbe vedere prezzi più bassi, ma oggi è così. Del resto, non dimentichiamoci che una delle cause principali dei prezzi assurdi che stiamo vedendo in questo periodo per le GPU è dovuta a quella follia chiamata mining. Ma si sa, chi "mina" lo fa per sostenere la blockchain e contribuire al progresso dell'umanità, non per specularci. :)
mikael84
18-12-2017, 23:44
Per me se la 2080 va poco più di una 1080Ti fa piacere.... così tiro avanti un altro anno con il mio bel GP102 e quando esce la 2080Ti cambio tutto, VGA, CPU, mobo e ram.... :D
Considerando quanto è indietro AMD tra l'altro in questo scenario si configurerebbe uno spiraglio per poter avere una nuova scheda rossa di prestazioni paragonabili alla prossima 2080.... con sommo beneficio per tutti noi!
Vega ha molti colli di bottiglia, anzi troppi, uno di questi sono le HBM che in game servono a poco. Per le caratteristiche HBM servirebbe NVLINK in dual GPU.
AMD dovrebbe levare ste memorie, mettere un bus ddr6 384bit che garantirebbe 672gb/s a 14gb/s minimo.
Questo significa garantire almeno 500gb/s puliti, ora non si schiodano da 400gb/s in HBM.
Le funzioni non abilitate di AMD, non sono abilitate effettivamente in quanto massacrerebbero lo shader core, non come nVidia che ha pipeline dedicate. 1° stadio del raster (formato da 3 stadi), di cui backfaceculling (heaven benchmark, dove AMD va malissimo).
nVidia ha le unità funzionali, ed i dati in flops sono quasi perfetti, AMD deve emularle a discapito di uno simd da 16 ALU, questo significa che un chip da 4096 capace di 12tf, in game avrà sempre 9tf, al contrario di nVidia. In alcuni contesti (seno, coseno, etc) spende 2 simd.
Nvidia ha le unità preposte.
Quello che dovrebbe fare AMD, almeno inizialmente, è refreshare il chip, con più clock, mettere le ddr6, ed aumentare la compressione.
L'obbiettivo è raggiungere la 2070 con ogni mezzo, la 2080, si sa costerà un botto.:)
appleroof
19-12-2017, 07:38
Compute, mining e rendering, se dovesse interessare :asd:
https://www.pcper.com/reviews/Graphics-Cards/NVIDIA-TITAN-V-Review-Part-2-Compute-Performance
Lunar Wolf
19-12-2017, 08:21
Ma sti prezzi alti di Nvidia dove li hai visti?
Si le titan certo ma quella è una "fuoriserie" delle vga nata per chi vuole tutto prima e pure troppo.
Confronta vga più normale, la 1060, la 1070.
La 1060 che va come la 580 costa meno, la 3gb la trovi a 200 e la 6gb dai 240, per una 580 invece servono 240 per la 4gb e 270 per una 8gb.
Per equiparare una 1070 che costa dai 420 serve una vega 56 600 anche se va un po' di più c'è da dire, se proprio vuoi stare il più vicino possibile c'è la 1070ti a 460.
Saliamo ancora con la 1080 che parte da 500, qui ci vuole una vega64 da 750.
La 1080ti che comunque è irraggiungibile da AMD costa da 700 a salire, meno di una vega64 ad aria.
Sul serio, mi stai dicendo che Nvidia è cara?
Si si lo so che ci sono dei motivi le polaris vanno via come il pane per colpa del mining e per vega è colpa della disponibilità bassa ma sai a me che mi frega?
Se devo comprare una vga oggi secondo quale logica prendo una AMD?Anche Vega sta andando a ruba per il mining...
Venditori ufficiali iniziano a vendere una vga per scheda ma ci sono alcuni canali che fanno kit regalo da 6.
Con Vega in power safe si tirano su delle belle monetine infatti la mia la acquistati a 399€...ora quasi 600costa.
Ormai il prezzo non è più allineato in base alle prestazioni ma in base ai grossisti che mangiano su (e non sono Amazon e compagnia bella)
G-sync (il Freesync sarebbe OT) :D
Grazie! sono rimasto indietro con i monitor!
Per il mio utilizzo andrò di TV la prossima volta :)
tv tutta la vita. Con hdmi 2.1 alle porte anche le varie sicronizzazioni proprietarie sono al capolinea. Speriamo solo volta esca con l ultima versione integrata vrr. Anche earc sarebbe cosa gradita
Le sicronizzazioni saranno sempre proprietarie, quello che si sperà finirà è il protocollo proprietario con cui Nvidia parla al monitor.
Per fare un paragone anche fastsync è proprietario Nvidia, ma la comunciazione con il monitor avviene secodo standard.
Anche gsync potrebbe funzionare in questo modo adesso che ci sono standard sia DP che HDMI che lo supportano.
"VRR introdotto con HDMI 2.1 è una tecnologia che permette il refresh rate variabile, alla stregua delle soluzioni NVIDIA e AMD, senza il V-Sync tecnica software utilizzata fino ad ora ma che porta con sé diversi limiti. Utilizzando un TV dotato di porta HDMI 2.1, i gamer potranno godere di un'immagine più fluida e di tempi di risposta inferiori, a tutto vantaggio dell'esperienza di gioco"
Era per dire che oggi serve un classico monitor certificato per agganciare il framerate. Rileggi non proclamavo la liberalizzazzione del gsync/freesync
TigerTank
19-12-2017, 11:09
Sì, per il gaming monitor e tv pian piano si stanno fondendo insieme, nel senso che il VRR, orientato principalmente alle consoles, sarebbe l'equivalente del freesync ma su tv, appunto via hdmi 2.1. E in più dovrebbero arrivare le tv HFR, cioè a 120Hz nativi. Cosa interessante a differenza del cosiddetto HDR, di cui mi importa molto meno.
Io ho sentito parlare del VRR da marzo/aprile 2017, quando hanno iniziato a parlare della XBOX One X, che supporta sia VRR che freesync.
bagnino89
19-12-2017, 11:12
Se quello che nvidia ti dà in più ad occhio nudo non si percepisce, però... forse è meglio guardare un po' oltre l'orizzonte e vedere se per caso il futuro porterà di meglio. Tanto, che hai da perdere?
Non c'è niente da perdere, ma Vega, per dire, è uscita ad agosto, e dopo 4 mesi le "uber feature" non si vedono ancora. Un po' mi sa di presa in giro, onestamente. Oltre a tutta la finta campagna di marketing "Poor Volta" che non ha fatto altro che far aspettare per mesi e mesi persone in cerca del "futuro migliore all'orizzonte", e che poi si sono ritrovati con GPU che di fatto vanno come le Nvidia di un anno e più prima.
Non so, qua siete tutti a dire che Vega fa schifo, che AMD è allo sbando, che non c'è concorrenza per colpa di AMD, che i prezzi sono alti perché AMD. Non è vero. Non c'è concorrenza per colpa VOSTRA, che fate da influencer pro-bono a nvidia autoconvincendovi che sia la cosa migliore da comprare perché va il 6% in più, perchè consuma 50W in meno, perchè physx, perchè cuda, perchè sì. Ma se ti serve un benchmark per vedere le differenze, allora vuol dire che la differenza è irrilevante.
Le differenze ci sono, e non è solo questione di performance... Ma anche di stabilità e di avere schede che installate funzionano a dovere rispettando le promesse, senza bestemmie, downvolt, upvolt, BIOS mod, driver mod, ecc. Molti (anche io) danno parecchio peso a queste cose, non sono solo i FPS ed il prezzo a fare la differenza.
Inutile piangere se poi nVIDIA, Intel, Apple o chichessia alzano i prezzi. Non è colpa di AMD, non è colpa di Google, non è colpa di Samsung. E' solo colpa nostra - che compriamo lo stesso. C'è gente pagata apposta per capire fino a che punto si può tirare la corda, prendono il premio di fine anno solo se riescono a fare "un altro piccolo passo avanti".
E' per questo che la 2080 costerà il 20% in più, perchè bisogna fare un altro piccolo passo avanti. Non certo per colpa di AMD, che non è mai stata in grado di essere determinante sul mercato delle GPU. E come avrebbe potuto? Non la compravamo quando andava più forte, perché dovremmo comprarla adesso che va quasi uguale? Solo per risparmiare i 100-150 euro di licenza gsync? :D
Anche il marketing è importante per un'azienda, c'è poco da fare. Puoi avere il prodotto migliore del mondo ma se non sai come venderlo, finisci male. E non è un mero discorso di consumatore consapevole/non consapevole, le dinamiche sono molto più complesse...
Per il discorso G-SYNC, anche se siamo off topic, bisogna fare confronti alla pari... Per dire, un monitor G-SYNC con refresh rate massimo di 144 Hz devi confrontarlo con un monitor FreeSync con range garantito 30-144 Hz, altrimenti il paragone non è alla pari. E guarda caso, oltre a non essere sempre semplice trovare monitor FreeSync che ti garantiscono 30 Hz -> massimo refresh rate del monitor, quelli che lo fanno tendono anche a costare di più, appianando le differenze di costo.
Davano del folle a Cristoforo Colombo, eppure... :)
Non è la blockchain la follia, è il mining e la speculazione che ne consegue.
I minatori sono gente che ha messo soldi subito per avere forse qualcosa di più grande domani. Non c'erano certezze, solo fiducia in una tecnologia promettente e coraggio nel rischiare di perdere quanto investito. Mi dispiace, ma non riuscirai a farmi sentire in colpa per essermi arricchito grazie al fatto che, tuttosommato, qualcosa di tecnologia ancora ne capisco... :)
Così come tu non riuscirai a convincermi che acquistare Nvidia invece che AMD è sbagliato. :)
Questo vuol dire che le tensioni di fabbrica sono giuste.
Allora è sbagliato dire che Polaris sia efficiente quasi quanto Pascal, ma proprio per niente. Non sei stato tu ad averlo detto, eh, parlavo in generale.
Ma sti prezzi alti di Nvidia dove li hai visti?
Si le titan certo ma quella è una "fuoriserie" delle vga nata per chi vuole tutto prima e pure troppo.
Confronta vga più normale, la 1060, la 1070.
La 1060 che va come la 580 costa meno, la 3gb la trovi a 200€ e la 6gb dai 240€, per una 580 invece servono 240€ per la 4gb e 270€ per una 8gb.
Per equiparare una 1070 che costa dai 420€ serve una vega 56 600€ anche se va un po' di più c'è da dire, se proprio vuoi stare il più vicino possibile c'è la 1070ti a 460€.
Saliamo ancora con la 1080 che parte da 500€, qui ci vuole una vega64 da 750€.
La 1080ti che comunque è irraggiungibile da AMD costa da 700€ a salire, meno di una vega64 ad aria.
Sul serio, mi stai dicendo che Nvidia è cara?
Si si lo so che ci sono dei motivi le polaris vanno via come il pane per colpa del mining e per vega è colpa della disponibilità bassa ma sai a me che mi frega?
Se devo comprare una vga oggi secondo quale logica prendo una AMD?
Infatti. Sembra assurdo ma oggi le cose stanno così.
In realtà non sappiamo ancora bene come funzionerà.
Trovo molto difficile che il tutto funzioni senza apposito supporto da parte di schedavideo e driver e tali supporti sono gsync e freesync.
Quel pezzo secondo me è scritto male, non è alla stregua delle soluzioni nvidia e amd... ma ripeto "secondo me".
Il monitor certificato servirà sempre, perchè prima di tutto dovrai prendere un monitor hdmi2.1 e in secondo luogo non sono sicuro che sia mandatorio il vrr, come per l'adaptive sync su DP potrebbe essere opzionale.
EDIT:
Sulla pagina ufficiale delle faq su hdmi 2.1 leggo:
Questo mi fa sempre più pensare che sia una opzione regolamentata ma che non sia mandatorio.
Quindi in sostanza non cambia molto, semplicemente un produttore che vuole fare un monitor o una tv con sync adattivo tramite HDMI ora può farlo rispettando uno standard e non più solo secondo l'implementazione di AMD che è fuori standard (anche se immagino che AMD abbia fatto diventare standard la sua implementazione e quindi sono identici).
E noi acquirenti dovremo accertarci di comprare un monitor hdmi 2.1 con VFF perchè probabilmente ci saranno con VFF e senza VFF proprio come adesso ci sono con adaptive sync e senza adaptive sync.
EDIT 2:
e per nvidia servirà sempre il chippino gsync da 100€+
la sicurezza arriverà quando leggeremo review complete di tv 2.1 su pc.
In teoria anche una 2.0 del gm200 puo interfacciarsi con la nuova revisione. Sta di fatto che le smart tv stanno seppellendo i lillipuziani monitor per rapporto dimensioni/prezzo, per caratteristiche fald/edge e qualità dei pannelli. Come esperieza di gioco in futuro manca solo quella
ancora con sto poor volta :asd: un frame di un rendering mezzo nascosto ma che molti si sono legati la dito ricamandoci sopra il nulla visto che non è mai stato ripreso da una dico una slide o chissachè di amd :asd: il fanboy amd gongolava (per poi prenderla ennesimamente nel didietro), il fanboy nvidia se la prendeva manco avessero offeso la madre :asd:
le uber feature di amd non le deve implementare amd negli engine se no farebbero un altro lavoro, il problema è che le sw grosse sono praticamente delle estensioni di nvidia come sviluppo engine (id a parte) e devi sperare negli indie ma che hanno altri target (fortunatamente) al solo "facciamo la grafica uber per far comprare più vga nuove possibili"
detto questo? bhooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooo
bagnino89
19-12-2017, 11:26
ancora con sto poor volta :asd: un frame di un rendering mezzo nascosto ma che molti si sono legati la dito ricamandoci sopra il nulla visto che non è mai stato ripreso da una dico una slide o chissachè di amd :asd: il fanboy amd gongolava (per poi prenderla ennesimamente nel didietro), il fanboy nvidia se la prendeva manco avessero offeso la madre :asd:
Vabbè, lasciando stare il Poor Volta, vale sempre il discorso che molti, me compreso, si aspettavano ben altro da Vega e hanno atteso inutilmente. Se prendi questo forum, senza avere la pretesa di fare statistiche significative, praticamente le Vega le hanno comprate solo quelli che, per un motivo od un altro, non vogliono comprare Nvidia. Non le hanno comprate per un evidente vantaggio lato prestazioni/prezzo, per dire, c'è gente che nemmeno ha monitor FreeSync e nonostante tutto ha comprato Vega Liquid pagandole più di una 1080 Ti.
le uber feature di amd non le deve implementare amd negli engine se no farebbero un altro lavoro, il problema è che le sw grosse sono praticamente delle estensioni di nvidia come sviluppo engine (id a parte) e devi sperare negli indie ma che hanno altri target (fortunatamente) al solo "facciamo la grafica uber per far comprare più vga nuove possibili"
In questo caso uno dovrebbe proporre un rapporto prezzo/prestazioni migliore della controparte, per colmare il gap e rendersi più appetibile. Ma ultimamente non c'è neanche più questo...
detto questo? bhooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooo
Boh. :asd:
Parlate di Vega come se non fosse uscita 2 anni dopo (ma le custom poi ?) la controparte Nvidia, gran coraggio, comunque tornate in topic, grazie :)
bagnino89
19-12-2017, 13:24
Io ho l'impressione che nVIDIA sia stata pioniera nelle tecniche (oggi ormai diffuse) di astoturfing su internet, usando con successo gli sneezer già ai tempi di newsgroup e forum. Con l'esplosione dei social network avevano quindi tutti i prerequisiti per ritrovarsi con un marketing degno di quello della Apple.
Purtroppo questo però li aiuta anche troppo a volte, hanno una cassa di risonanza per il loro storytelling paurosa. Vedi la storia delle RX480 che bruciano le schede madri uscita qualche giorno prima il lancio di GTX1060...
Non saprei. Secondo me, a livello di marketing, è importante far vedere che non sei secondo alla concorrenza. Finché Nvidia "titaneggia" con le Titan e le GeForce enthusiast, molti consumatori avranno sempre l'impressione che è l'azienda col prodotto migliore, e che quindi AMD è la seconda scelta. Questa è una mia personale visione sociologica della faccenda, ovviamente.
AMD, secondo me, deve presentare un prodotto in grado di rivaleggiare nella fascia enthusiast (gaming, lasciamo stare in questa il pro, che tra l'altro conosco poco e non mi interessa) per poter ribaltare le vendite. Se non ha il know-how e la tecnologia per farlo, allora deve puntare al rapporto qualità/prezzo. Peccato che, anche qui, non sia meglio della controparte, anzi...
Il punto è che in fascia media il gsync ti manda fuori budget... se tu potessi aggiungere 100-150 euro al sistema non compreresti la 1060, andresti sulla 1070. E non te ne avanzerebbero per l'adaptive, quindi finisci col giocare in vsync. Freesync elimina il problema. Speriamo davvero che esca uno standard che permetta di usarli entrambi.
Su questo hai ragione, ma col senno di poi, avendo un monitor G-SYNC, oggi come oggi preferirei 1060 + G-SYNC piuttosto che 1070 + monitor classico.
appleroof
19-12-2017, 13:59
cut
70MH/s sono interessanti con 250W.
Cut
Dal mio punto di vista, spero invece che le gv104 non abbiano in proporzione la stessa resa nel mining, per ovvi motivi...
TigerTank
19-12-2017, 15:32
Per le prestazioni mi fido di Mikael e Ren... per i prezzi immagino sarà un 10-20% in più di quanto costava la 1080 al lancio.
Facile che costeranno sulle 700€ al lancio (e più per le versioni custom pompate) e avranno il loro 20% medio di prestazioni in più rispetto alla 1080Ti.
Dal mio punto di vista, spero invece che le gv104 non abbiano in proporzione la stessa resa nel mining, per ovvi motivi...
Speriamo davvero...e che rivolgano al mining delle soluzioni dedicate.
TigerTank
19-12-2017, 16:22
se la 2080 andasse +20% medio sulla 1080ti vorrebbe dire che rispetto alla 1080 andrebbe:
+45% in FHD
+55% in QHD
+65% in UHD
e sono % presi sulle FE, dove ad esempio la 1080ti in FHD va solo il +20% sulla 1080 dovuto a diversi fattori compreso un downclock piuttosto evidente per la 1080ti...
aspettarsi un +20% MEDIO di 2080 vs 1080ti è un atto di fede più che di stima avrebbe gli stessi effetti di un salto nodo come dai 28 ai 16nm :sofico:
Guarda che sarà proprio così...così come la 1070 è praticamente allineata alla gtx980Ti :)
Ti pare che nvidia nel 2018 metta fuori quella che sarà la vga di punta "per la massa" del prossimo anno, senza un certo stacco dalla 1080Ti?
Si tirerebbe la zappa sui piedi perchè chiaro che il suo scopo sarà anche quello di convincere più inscimmiati possibili a passare da 1080Ti a 2080.
Abbi fede, che se c'è una cosa su cui non avere dubbi è la strategia di marketing di nvidia. :D
Guarda che sarà proprio così...così come la 1070 è praticamente allineata alla gtx980Ti :)
Ti pare che nvidia nel 2018 metta fuori quella che sarà la vga di punta "per la massa" del prossimo anno, senza un certo stacco dalla 1080Ti?
Si tirerebbe la zappa sui piedi perchè chiaro che il suo scopo sarà anche quello di convincere più inscimmiati possibili a passare da 1080Ti a 2080.
Abbi fede, che se c'è una cosa su cui non avere dubbi è la strategia di marketing di nvidia. :D
This.
Come prima piu' di prima....
bagnino89
19-12-2017, 16:36
Ma va?
Guarda quanto costa una 1080 o 1080Ti liquid ;)Il mio ragionamento era: pagare di più una GPU che va meno di un'altra, a prescindere dal sistema di dissipazione.
TigerTank
19-12-2017, 16:39
Non dimenticate anche il potere dei drivers :D
Comunque ora si ipotizza, vedremo poi i fatti concreti.
Per le prestazioni mi fido di Mikael e Ren... per i prezzi immagino sarà un 10-20% in più di quanto costava la 1080 al lancio.
Credo proprio di no.
Ti ricordo che in quel caso sono passati da 28nm a 16nm, in questo passano da 16nm a 16nm rebrandati a 12nm.
E prima hanno ridotto i consumi per watt senza cambiare processo produttivo.
Legolas84
25-12-2017, 06:56
Auguri a tutti gli amici :)
https://uploads.tapatalk-cdn.com/20171225/687c0f7bf3a299943c20a0ba57d5c228.jpg
Inviato dal mio iPhone utilizzando Tapatalk Pro
Legolas84
25-12-2017, 07:36
Allora doppi auguri Growan... io ho lavorato ieri pomeriggio... oggi e domani sono miracolosamente a casa, riprendo mercoledì... :)
Inviato dal mio iPhone utilizzando Tapatalk Pro
Giovamas
25-12-2017, 08:39
Auguri a tutti ragazzi
Lunar Wolf
25-12-2017, 10:05
Auguri anche ai verdi... :)
mikael84
25-12-2017, 14:36
Auguri a tutti. :cincin:
Guarda che sarà proprio così...così come la 1070 è praticamente allineata alla gtx980Ti :)
Ti pare che nvidia nel 2018 metta fuori quella che sarà la vga di punta "per la massa" del prossimo anno, senza un certo stacco dalla 1080Ti?
Si tirerebbe la zappa sui piedi perchè chiaro che il suo scopo sarà anche quello di convincere più inscimmiati possibili a passare da 1080Ti a 2080.
Abbi fede, che se c'è una cosa su cui non avere dubbi è la strategia di marketing di nvidia. :D
Difficilmente la 2080 avrà stacchi così netti dalla 1080ti.
Forse nelle applicazioni che faranno maggior leva su async. DX12 e Vulkan.
Altrove non mi stupirei andasse similmente o più piano.
1080ti è già una "padella" da 472 mm^2. Se 2080 avrà dimensioni simili o maggiori (perchè il clock, gli async, ecc, necessitano di transistor) 2080ti da quanto la fanno? 650 mm^2?
E la 2080 a quanto ve la vendono? 800 euro per un anno? E chi glielo fa fare quando una gpu di fascia media come la 1080 la stan stravendendo a prezzi di fascia alta da un anno e mezzo :asd:
Fate il paragone fra 980ti e pascal, purtroppo dimenticando che pascal è su un processo produttivo che quasi dimezza le dimensioni da maxwell. C'è un abisso fra i due processi produttivi.
Guardate le differenze fra 580-680-780-980. Erano tutte fra il 20 e il 30%.
980 andava solo il 7% più veloce di 780ti e c'erano tantissimissime migliorie lato architetturale e clock molto più spinti.
Insomma, 20 % più di 1080ti per la 2080? Non ci credo nemmeno se lo vedo, soprattutto dopo aver visto la titan volta che non mi pare sto gran chip rispetto alla quadro pascal p6000.
illidan2000
26-12-2017, 18:30
Allora doppi auguri Growan... io ho lavorato ieri pomeriggio... oggi e domani sono miracolosamente a casa, riprendo mercoledì... :)
Inviato dal mio iPhone utilizzando Tapatalk Pro
pure a natale rischiavi di lavorare???
infermiere?
Legolas84
26-12-2017, 19:05
pure a natale rischiavi di lavorare???
infermiere?
No ma è comunque una professione che richiede personale 24/7..... e quindi quando mi tocca si lavora... quest’anno sono molto fortunato perché mi tocca sull’epifania :)
Inviato dal mio iPhone utilizzando Tapatalk Pro
fraussantin
26-12-2017, 19:12
pure a natale rischiavi di lavorare???
infermiere?Sono in tantissimi ormai a lavorare a natale.
Cinema, molti centri commerciali, ristoranti bar negozi, amazon, ecc ecc ..
E di conseguenza anche servizi di assistenza legati al lavoro che fanno.
mikael84
26-12-2017, 23:56
Difficilmente la 2080 avrà stacchi così netti dalla 1080ti.
Forse nelle applicazioni che faranno maggior leva su async. DX12 e Vulkan.
Altrove non mi stupirei andasse similmente o più piano.
Non aspettiamoci stacchi nettissimi, potrebbe anche essere un 10% (-20/25%max in caso di 2070 totalmente decurtata). Giustissimo.
1080ti è già una "padella" da 472 mm^2. Se 2080 avrà dimensioni simili o maggiori (perchè il clock, gli async, ecc, necessitano di transistor) 2080ti da quanto la fanno? 650 mm^2?
E la 2080 a quanto ve la vendono? 800 euro per un anno? E chi glielo fa fare quando una gpu di fascia media come la 1080 la stan stravendendo a prezzi di fascia alta da un anno e mezzo :asd:
Qua fai un piccolo errore, la 2080 non può essere più grande della 1080ti che non è neppure chip full.
La 1080ti è basata su 6 GPC, e 6 raster, quindi 2 GPC sprecano 16 cicli di clock, ed ovviamente sprecano tanto in rop's ed in cache l2.
La 2080, cosa fa, prende il GP104 (314mmq2) ed aggiunge 4 TPC con una grandezza di circa 5mmq2 (stimiamo circa 340mmq2), poi aumenta la l2 da 512kb a 768kb, per migliorare l'operatività dei conservative e cercare di non intasare la l2.
La l1 migliora del 30% circa, in quanto meglio dialogante con gli SMM (haswell in pratica)e con un 360/380mmq2 ti fai la 2080 (in base ai transistor per clock possiamo anche tirarla vicino ai 400mmq2, ma mai superiore di una 6gpc full, con 10 stadi di polymoph e 6 stadi sul raster, di cui fai backfaceculling e z-cull.:)
Sugli Async non cambia nulla, nessun transistor, cambia che il gigathread, prima affidava al warp l'elaborazione dei thread.
Un warp doveva far lavorare tutti i 32 thread del SM, ora il gigathread manda i dati al SM e questo gli invia ai thread che si occupano di tutte le fasi.
Quindi si evitano gli stadi di idle.
Un SM controllato dal warp, lasciava spesso sottogruppi di 4 thread a fare calcoli indipendenti, questi lasciavano blocchi di thread in idle, e quando questi thread facevano lo sporco lavoro, saturavano la l2.
Ora ogni thread può lavorare senza chiamate, anzi se le fa lui.
Naturalmente non servono transistor, ACE o balle varie.:)
Fate il paragone fra 980ti e pascal, purtroppo dimenticando che pascal è su un processo produttivo che quasi dimezza le dimensioni da maxwell. C'è un abisso fra i due processi produttivi.
Guardate le differenze fra 580-680-780-980. Erano tutte fra il 20 e il 30%.
980 andava solo il 7% più veloce di 780ti e c'erano tantissimissime migliorie lato architetturale e clock molto più spinti.
Si qua dici bene, ma ovviamente la 980 è stata una scheda capace di far vedere la potenza delle nuove architetture, sopratutto sul fronte rop's e BW, ed in alcuni giochi ha preso il volo, meno su quelli TMU dipendenti.
Riguardo al rapporto tra schede, c'è qualcosa da segnalare, che vorrei fartelo presente:
La 580 era un chip full di oltre 500mmq2, con un rapporto 1/8 sulle FP64, quindi stiamo parlando dell'ammiraglia Fermi (quella che è oggi la Titan xp, senza FP64).
la 680 è solo il GK104, il successore della 460/560.
Chi succede alla 580 è la 780ti, la 780 liscia è lo stesso chip della 780ti ma con un GPC laserato.
Quindi il chip è tale quale alla 780ti, stessi transistor è stesse DP, quindi è come se parlassimo di una 1080ti decurtata, che niente avrebbe a che vedere con i chip X04.
Per concludere la 980 riprende la 680 (gk104-gm104) non la 780 che era un gk110, e le differenze si notavano:) [/QUOTE]
Insomma, 20 % più di 1080ti per la 2080? Non ci credo nemmeno se lo vedo, soprattutto dopo aver visto la titan volta che non mi pare sto gran chip rispetto alla quadro pascal p6000.
Qua sono pienamente d'accordo con te, le potenzialità vere ancora non le conosciamo, anche io penso che tra latenze e clock, non ci prenderemmo molto, salvo i titoli più future prof.
Mi sa che per gennaio gia vedremo qualcosa , non so perchè ma mi sembra che Nvidia stia accellerando per le 2070/2080 .
Mi sa che per gennaio gia vedremo qualcosa , non so perchè ma mi sembra che Nvidia stia accellerando per le 2070/2080 .
Ti sembra in base a cosa? :asd:
Stanno ancora stravendendo pascal, figurati se hanno tutta 'sta fretta per volta :asd:
Spero entro giugno rilascino qualcosa ad ogni modo.
troppo facile per me cambiare vga guidato dall impeto preso dall emozione di avere solo maggiori performance 3d.
Fatti due conti le stranezze dell evoluzione tecnologica sono molteplici e basate su fatti, cose acquistate personalmente.
2007 laptop asus g2s : vga gt 8600m hdmi
scopro per caso che una scheda di 10 anni fà gestisce h264 compresso. Significa scheda perfettamente compatibile con netflix per il fhd. Ai tempi dell acquisto non esistevano servizi di streaming 1080p compresso credo fino al 2011.
Per fare un ulteriore esempio il nexus 6 del 2014 gestice h265 4k compresso ma la gtx 980ti del 2015 no. Posso affermare che un chip nvidia del 2015 per certi aspetti è fermo a 10 anni prima 8600m.
La confusione aumenta se come lecito si guardano le caratteristiche audio.
Dove persino le future gtx gv/ga rischiano di essere come tutte le schede fino ad oggi 8ch lossy/eac3 vecchio 7.1 e prive di supporto nativo audio a oggetti 11/13ch.
Se non tramite app esterne come avviane oggi su w10 tramite dolby acces. Limitando il supporto via software perche via hardware non si va oltre i lossless di passata generazione.
mikael84
28-12-2017, 14:35
Hanno appena rilasciato la 1060 5GB (160bit) per il mercato cinese, semmai sembra che stiano rallentando :>
Esiste già da tempo, la quadro P2000:)
Praticamente hanno laserato un MC e relativa l2, naturalmente anche 4 rop's.
Rispetto la 1060 3gb è un pò più scarsa, ma io la preferirei alla 1060 3gb, che non si può vedere nel 2017 una scheda simile.
SUNDAY, JANUARY 7, 2018
8 P.M. PST
.
SUNDAY, JANUARY 7, 2018
8 P.M. PST
.
:yeah: :yeah: :yeah:
fabietto27
29-12-2017, 14:24
SUNDAY, JANUARY 7, 2018
8 P.M. PST
.Befana in ritardo?🤔
Inviato dal vivavoce della mia Daf Variomatic
SUNDAY, JANUARY 7, 2018
8 P.M. PST
.
Calendario di Frate Indovino ?
Giovamas
29-12-2017, 16:28
Secondo me ne parleranno al gtc2018. quindi fine marzo. Sembra anche a me che abbiano poca voglia di presentare nuove cose. morale: la mia starà nel case per tutto o quasi il 2018. e non mi dispiace come cosa.
Legolas84
29-12-2017, 16:32
Secondo me ne parleranno al gtc2018. quindi fine marzo. Sembra anche a me che abbiano poca voglia di presentare nuove cose. morale: la mia starà nel case per tutto o quasi il 2018. e non mi dispiace come cosa.
Ti quoto... io aspetto la Ti Volta a meno di sorprese dell’ultimo minuto riguardo Gv104; e soprattutto aspetto di vedere Ryzen 2 per decidere come aggiornare x99....
Inviato dal mio iPhone utilizzando Tapatalk Pro
Ti quoto... io aspetto la Ti Volta a meno di sorprese dell’ultimo minuto riguardo Gv104; e soprattutto aspetto di vedere Ryzen 2 per decidere come aggiornare x99....
Inviato dal mio iPhone utilizzando Tapatalk Pro
Qual è l'utilizzo principale che fai del pc?
Perchè se le risorse ti servono per giocare credo che ce ne vorranno parecchi di anni prima che tu abbia scuse per aggiornare.
Ryzen 2 tra l'altro dovrebbe essere solo uno shrink, quindi tutt'al più vedremo qualcosina in più di clock, ma nessun guadagno in ipc single core.
Ciao e auguri a tutti.!
Ad oggi quale puo' essere la data piu' probabile di presentazione della serie 2xxx ? Grazie
Ciao e auguri a tutti.!
Ad oggi quale puo' essere la data piu' probabile di presentazione della serie 2xxx ? Grazie
Io credo senza fretta giugno
Legolas84
01-01-2018, 19:36
Io credo senza fretta giugno
Quoto penso anche io che non ci sia nessuna fretta... :)
Inviato dal mio iPhone utilizzando Tapatalk Pro
Ma se hanno presentato la titan Volta a Dicembre 2017... Come potete pensare che faranno uscire le 2070/2080 Volta a Giugno 2018 :) ...
Sempre che le 2070/2080 siano basate su Volta e non su Ampere io penso che per Marzo/Aprile gia vedremo qualche recensione .
Fossi in nvidia aspetterei prima amd con una proposta decente e poi farei uscire la nuove volta, non ha senso far uscire vga top quando il top sei già tu
sickofitall
02-01-2018, 09:33
Secondo me aspetteranno più possibile, per presentare qualcosa verso l'estate
Ma è esattamente quello che fanno, bene o male :asd:
Il problema è che AMD non prevede nulla per il 2018 tranne FORSE Polaris 3 (ovvero polaris 2 ovvero polaris 1 su un pp più piccolo, ma stessi numeri, frequenze a parte). Nel 2019 forse si potrebbe parlare di navi, ma onestamente non credo uscirà nulla prima del 2020.
Comunque piccolo teaser di Nvidia sulla loro pagina facebook:
https://i.redd.it/x8up0ct1li701.jpg
[QUOTE=Vul;45274453]Ma è esattamente quello che fanno, bene o male :asd:
Comunque piccolo teaser di Nvidia sulla loro pagina facebook:
sono 200 fps in 8k?
TigerTank
02-01-2018, 09:44
Imho per il 2018 l'unica spinta propulsiva alla necessità di più prestazioni saranno i 4K da gaming...che però saranno molto di nicchia causa costi parecchio alti(considerati anche i rincari degli ultimi mesi).
Per cui a parte il fatto che amd purtroppo non riesce a stare al passo sulle vga, credo che sia l'unico motivo per cui nvidia possa avere fretta di fare uscire vga più performanti, altrimenti la 1080Ti imho potrà starsene sul podio ancora per parecchio tempo.
L'altra spinta propulsiva sarebbero delle nuove consoles che impongano nuovi parametri che facciano salire la media dei requisiti dei giochi, ma siamo ad un livello già gestibile da pc. Non come quando ci fu il fenomeno della vram fobìa con i 4GB :D
Io più che altro per il 2018 spero in 2 cose: ottimizzazioni maggiori per più di 4 cores e l'evoluzione delle tecniche "adaptive sync" sulle TV (VRR).
sono 200 fps in 8k?
E che ne so :asd:
Non credo avrebbe senso però quel titolo altrimenti. :rolleyes:
In ogni caso il discorso del "eh ma tanto AMD dorme" lascia (un poco) il tempo che trova. Sono tanti anni ormai che Nvidia vende gpu principalmente ad utenti Nvidia, non a quelli della concorrenza.
Se le vendite di Pascal rallentassero allora forse avrebbero più fretta. Ma stanno una vagonata di soldi con Pascal (almeno nel 2016 e nel 2017).
Giovamas
02-01-2018, 09:49
Secondo me aspetteranno più possibile, per presentare qualcosa verso l'estate
ti quoto. Infatti per il gaming si parla di Ampere e non più Volta. Poi chissà...
nico88desmo
02-01-2018, 09:56
Nessuna novità secondo me per il gaming, bisognerà attendere il GTC di Marzo.
Invece, andando un po OT, penso che quest'anno il CES sia una bella vetrina per i monitor 4k con specifiche HDR Vesa (quel monitor Dell non l'avevo visto prima di oggi a ricordi)
Ma è esattamente quello che fanno, bene o male :asd:
Il problema è che AMD non prevede nulla per il 2018 tranne FORSE Polaris 3 (ovvero polaris 2 ovvero polaris 1 su un pp più piccolo, ma stessi numeri, frequenze a parte). Nel 2019 forse si potrebbe parlare di navi, ma onestamente non credo uscirà nulla prima del 2020.
Comunque piccolo teaser di Nvidia sulla loro pagina facebook:
cut
Al giocatore non far sapere quante è bona l'nvidia con l'ampere 😂😂😂
mikael84
02-01-2018, 15:09
Secondo me ne parleranno al gtc2018. quindi fine marzo. Sembra anche a me che abbiano poca voglia di presentare nuove cose. morale: la mia starà nel case per tutto o quasi il 2018. e non mi dispiace come cosa.
Fossi in nvidia aspetterei prima amd con una proposta decente e poi farei uscire la nuove volta, non ha senso far uscire vga top quando il top sei già tu
Secondo me aspetteranno più possibile, per presentare qualcosa verso l'estate
Nvidia lavora sui chip anni prima. Tra scriverli (fare codice) e tutto ci passano circa 2/4 anni. Non è che sta a guardare quello che fa il rivale, anzi lo fa su speculazioni, ma se il rivale non rilascia nulla, il suo lavoro va avanti.
Avendoci lavorato su, non è che stoppa la produzione, anzi continua ad andare avanti. Si comincia dal layout, place and route (fabbricazione chip di elettronica), invio in fonderia, produzione, debug del silicio, ed infine lavoro driver.
Sento spesso, nVidia non lavora perchè la 1080ti non ha concorrenza, ma non è così, nVidia ha il suo ciclo di lavoro e se prevede di lanciare un prodotto a maggio lo lancia.
In nVidia stanno ultimando ormai questa generazione, ma già ora, hanno scritto il post Volta-Ampere, non è che fanno un chip in 5 minuti in base a come gli gira, ma hanno dei tempi da rispettare per ogni fase.:)
ultimate trip
02-01-2018, 16:19
...Io più che altro per il 2018 spero in ... evoluzione delle tecniche "adaptive sync" sulle TV (VRR).
mi sa che bisogna attendere il 2019
http://www.hdtvtest.co.uk/news/hdmi-tv-201712194520.htm
La confusione aumenta se come lecito si guardano le caratteristiche audio.
Dove persino le future gtx gv/ga rischiano di essere come tutte le schede fino ad oggi 8ch lossy/eac3 vecchio 7.1 e prive di supporto nativo audio a oggetti 11/13ch.
Se non tramite app esterne come avviane oggi su w10 tramite dolby acces. Limitando il supporto via software perche via hardware non si va oltre i lossless di passata generazione.
Ciao.
Quindi la codifica ad oggetti avviene tramite Software(Win 10 e Dolby access) piuttosto che Hardware?
Se si riproduce una traccia inglese in Dolby Atmos credi che quella riprodotta dal Pc sia diversa (come di tipo simulato) da quella proveniente da un lettore 4K e fedele al master audio originale?
Ti ringrazio ;)
Centordicesima volta che viene scritto, da te, me, altri, ma è una bufala ormai talmente radicata che nutro pochissime speranze che si possa riuscire a debunkare.
E' tutto verissimo e sacrosanto, per carità... però se per caso ci sono problemi o ritardi vari (anche lato driver), nvidia non deve strafare per risolvere nel più breve tempo possibile, non deve limare i periodi di testing.. insomma, il fatto di avere il vantaggio gli permette di rilassare un po i tempi. Non di un anno ovviamente, quello sarebbe follia, ma uno o due mesi non sarebbero un problema per il lancio secondo me
Arrow0309
02-01-2018, 19:13
E che ne so :asd:
Non credo avrebbe senso però quel titolo altrimenti. :rolleyes:
In ogni caso il discorso del "eh ma tanto AMD dorme" lascia (un poco) il tempo che trova. Sono tanti anni ormai che Nvidia vende gpu principalmente ad utenti Nvidia, non a quelli della concorrenza.
Se le vendite di Pascal rallentassero allora forse avrebbero più fretta. Ma stanno una vagonata di soldi con Pascal (almeno nel 2016 e nel 2017).
Nessuna novità secondo me per il gaming, bisognerà attendere il GTC di Marzo.
Invece, andando un po OT, penso che quest'anno il CES sia una bella vetrina per i monitor 4k con specifiche HDR Vesa (quel monitor Dell non l'avevo visto prima di oggi a ricordi)
200 fps si, ma nel menu :p
Il monitor e' cmq il 8K della Dell:
http://www.dell.com/en-us/shop/dell-ultrasharp-32-8k-monitor-up3218k/apd/210-alez/monitors-monitor-accessories
Sicuramente "bolle" qualcosa, la mia Txp occata bene (quindi più di una 1080ti OC) mi basta appena per un uw 3440x1440 :fagiano:
Nvidia lavora sui chip anni prima. Tra scriverli (fare codice) e tutto ci passano circa 2/4 anni. Non è che sta a guardare quello che fa il rivale, anzi lo fa su speculazioni, ma se il rivale non rilascia nulla, il suo lavoro va avanti.
Avendoci lavorato su, non è che stoppa la produzione, anzi continua ad andare avanti. Si comincia dal layout, place and route (fabbricazione chip di elettronica), invio in fonderia, produzione, debug del silicio, ed infine lavoro driver.
Sento spesso, nVidia non lavora perchè la 1080ti non ha concorrenza, ma non è così, nVidia ha il suo ciclo di lavoro e se prevede di lanciare un prodotto a maggio lo lancia.
In nVidia stanno ultimando ormai questa generazione, ma già ora, hanno scritto il post Volta-Ampere, non è che fanno un chip in 5 minuti in base a come gli gira, ma hanno dei tempi da rispettare per ogni fase.:)
Ma infatti, è una situazione analoga a quella di Intel.
La pianificazione avviene con largo anticipo, al massimo possono rilassare le tempistiche in situazioni particolarmente favorevoli o accelerare (con i conseguenti rischi) se le cose vanno male...ma le roadmap quelle sono.
Nvidia lavora sui chip anni prima. Tra scriverli (fare codice) e tutto ci passano circa 2/4 anni. Non è che sta a guardare quello che fa il rivale, anzi lo fa su speculazioni, ma se il rivale non rilascia nulla, il suo lavoro va avanti.
Avendoci lavorato su, non è che stoppa la produzione, anzi continua ad andare avanti. Si comincia dal layout, place and route (fabbricazione chip di elettronica), invio in fonderia, produzione, debug del silicio, ed infine lavoro driver.
Sento spesso, nVidia non lavora perchè la 1080ti non ha concorrenza, ma non è così, nVidia ha il suo ciclo di lavoro e se prevede di lanciare un prodotto a maggio lo lancia.
In nVidia stanno ultimando ormai questa generazione, ma già ora, hanno scritto il post Volta-Ampere, non è che fanno un chip in 5 minuti in base a come gli gira, ma hanno dei tempi da rispettare per ogni fase.:)
Quello che dici è vero solo lato architetturale.
Dal punto di vista commerciale, non è proprio così e i prodotti si possono anticipare o ritardare anche di sei mesi in base al mercato.
Si possono rilasciare chip in fretta e furia (fondamentalmente tutto fermi, ma anche la 1060, la 780ti o quell'orrore di kaby lake-x). Ma vedi anche Coffee Lake, lanciato prematuramente in commercio di 6 mesi abbondanti, in piena mancanza di modelli e di chipset a causa della pressione di Ryzen.
Una volta che la scheda è ultimata da un punto di vista architetturale si tratta di mettersi d'accordo con le fonderie e i produttori di ram.
Ma gli ordini alle fonderie sono spesso molto elevati e si fa la fila. Ad esempio un produttore che ha fretta di rilasciare un prodotto può pagare un bonus a chi c'è prima il quale ottiene praticamente uno sconto.
Il resto della componentistica elettronica fondamentalmente non richiede granchè di anticipo. Il costo di un pcb difficilmente supera i 10 $. I cooler son fondamentalmente sempre gli stessi.
Ergo se Nvidia ha ancora 1-2-3-5 milioni o più di gpu pascal da vendere e le sta vendendo bene non ha alcun beneficio a non ritardare di qualche mese e lo può fare benissimo. Stai pure tranquillo che se Vega avesse aperto Nvidia in due Volta era già sugli scaffali :asd:Magari solo con il chippone, magari a prezzi esorbitanti fonders edition, ma c'era.
TigerTank
03-01-2018, 08:44
mi sa che bisogna attendere il 2019
http://www.hdtvtest.co.uk/news/hdmi-tv-201712194520.htm
Vedremo un pò, sinceramente non mi dispiacerebbe che in futuro si arrivi finalmente ad uno standard universale di base sfruttabile da tutti.
Nel senso che se uno vuole proprio lo specifico a massima resa punta al gsync, altrimenti potrebbe comunque sfruttare le altre forme di adaptive sync su dispositivi per cui non è previsto il gsync, come ad esempio sulle tv...ormai sempre più allineate ai monitor in quanto a gaming.
In ogni caso il discorso del "eh ma tanto AMD dorme" lascia (un poco) il tempo che trova. Sono tanti anni ormai che Nvidia vende gpu principalmente ad utenti Nvidia, non a quelli della concorrenza.
Non ne ha bisogno, anche perchè ora potrà far leva sul peso di gestione a 4K sui nuovi titoli, che si tratti di TV 4K o schermi, con il plus di quelli da gaming a refresh maggiorato.
Situazioni potenziali per cui possano necessitare vga più prestanti con i nuovi mattoni di turno. A partire appunto da una nuova fascia di chippini.
Scusate ragazzi una domanda, non sono molto aggiornato in ambito vga. Per quando sono previste le prossime schede Nvidia?
Scusate ragazzi una domanda, non sono molto aggiornato in ambito vga. Per quando sono previste le prossime schede Nvidia?
Aggiornati leggendo 1/2 pagine indietro
Aggiornati leggendo 1/2 pagine indietro
Capito, quindi penso sia più reale ipotizzare un'uscita intorno a giugno. Valutavo in quanto vorrei cambiare la mia GTX 970 che ormai fa fatica e sono indeciso se passare a una GTX 1080 Ti o aspettare queste nuove schede...
Capito, quindi penso sia più reale ipotizzare un'uscita intorno a giugno. Valutavo in quanto vorrei cambiare la mia GTX 970 che ormai fa fatica e sono indeciso se passare a una GTX 1080 Ti o aspettare queste nuove schede...
Esatto, io aspetterei, ma dipende dalle tue esigenze ;)
Esatto, io aspetterei, ma dipende dalle tue esigenze ;)
È che ultimamente gioco molto a PUBG e va uno schifo, intorno i 20 fps col sistema in firma... devo resistere :cry:
Cambia gioco :asd:
E qui ti do ragione, è fatto veramente coi piedi, però il fatto di giocare con altre persone in team su discord mi sta prendendo veramente tanto e quindi, da buon masochista, continuo a giocarci :D
È che ultimamente gioco molto a PUBG e va uno schifo, intorno i 20 fps col sistema in firma... devo resistere :cry:
Siamo OT ma ho sistemato diversi PC con configurazioni inferiori alla tua che facevano sui 100fps a PUBG, soprattutto post 1.0.
PS Puoi sempre prenderti una 1070 usata al giusto prezzo altrimenti ;)
PaolinoB
03-01-2018, 23:28
Capito, quindi penso sia più reale ipotizzare un'uscita intorno a giugno. Valutavo in quanto vorrei cambiare la mia GTX 970 che ormai fa fatica e sono indeciso se passare a una GTX 1080 Ti o aspettare queste nuove schede...
ho fatto il cambio dalla 970 alla 1080ti, veramente tutto un altro mondo!
con alcuni giochi in fullhd la 970 fa ancora la sua figura, a 1440p comincia a arrancare. Certo che però non è un cambio molto economico, ma aspettati almeno il doppio delle prestazioni
Ciao.
Quindi la codifica ad oggetti avviene tramite Software(Win 10 e Dolby access) piuttosto che Hardware?
Se si riproduce una traccia inglese in Dolby Atmos credi che quella riprodotta dal Pc sia diversa (come di tipo simulato) da quella proveniente da un lettore 4K e fedele al master audio originale?
Ti ringrazio ;)
Ciao avvengono entrambe le cose .
Nel caso specifico dell atmos se veicolato su passthrough, quindi vga to avr diretto fuziona con i dovuti limiti.Cioe entro gli 8ch che sono il limite fisico lfe/lpf compreso.
Avendo Access installato stiamo parlando di un 7.1 che tramite dd+ diventa atmos purtroppo lossy.
Il dd+ è in hw nativo nelle vga ma ha un grosso limite è lossy.
L app access è molto utile invece in upmix/direct da stereo ad ds/dtsxn perche invia anche in pure direct i canali ad oggetti all avr. Cosa che non avviene se si disistalla l app.
Ad oggi l unico modo di avere un 9/11ch nativo è tramite earc con le nuove tv hdmi 2.1 che a breve verranno presentate. Oppure come giustamente dicevi tramite lettore bluray .
Da qui nasce la mia riflessione sulle vga. Non bisogna solo cambiare tv se non si vuole usare il pc, ma si corre il rischio di spendere migliaia di euro per una ammiraglia dalle ottime performace 3d che però non supporta audio lossless ad oggetti in hw.
techsaskia
04-01-2018, 19:27
Ma se hanno presentato la titan Volta a Dicembre 2017... Come potete pensare che faranno uscire le 2070/2080 Volta a Giugno 2018 :) ...
Sempre che le 2070/2080 siano basate su Volta e non su Ampere io penso che per Marzo/Aprile gia vedremo qualche recensione .
infatti dubito che ci vorrà molto per vedere volta ormai.
chi non ha comprato Pascal di certo non lo farà adesso in attesa delle prossime GPU, questo per nvidia è un periodo "morto".
io stesso devo cambiare GPU e di certo non prendo una 1080 Ti adesso.
Per essere un periodo morto continuano a vendere gpu come mai prima d'adesso.
infatti, immagino quando debbano essere contenti a sbarazzarsi del magazzino agli stressi prezzi del day1 o quasi. Porca eva che soldi che fanno
infatti, immagino quando debbano essere contenti a sbarazzarsi del magazzino agli stressi prezzi del day1 o quasi. Porca eva che soldi che fanno
Raga manca concorrenza cosa dovrebbero tagliare? Pensate che la titan xp viene venduta a 1.150€ e un anno fà la titan x pascal la vendevano 1.259€ e diverse 1080ti costano sopra i 1.000€.
Simedan1985
05-01-2018, 16:26
Raga manca concorrenza cosa dovrebbero tagliare? Pensate che la titan xp viene venduta a 1.150€ e un anno fà la titan x pascal la vendevano 1.259€ e diverse 1080ti costano sopra i 1.000€.
infatti , negli ultimi anni ho sempre detto e pensato che l'unico grande concorrente di nvidia è nvidia stessa .
Nel senso che per vendere nuovi prodotti doveva convincere i suoi clienti a dar via i vecchi per prendere i nuovi !! ...visto il pietoso stato dei prodotti concorrenti
infatti , negli ultimi anni ho sempre detto e pensato che l'unico grande concorrente di nvidia è nvidia stessa .
Nel senso che per vendere nuovi prodotti doveva convincere i suoi clienti a dar via i vecchi per prendere i nuovi !! ...visto il pietoso stato dei prodotti concorrenti
E i concorrenti cosa possono farci?
Anche quando producono gpu valide vendono sempre un sesto.
AMD è "morta" da g80 in poi. Anche quando ha offerto gpu di gran lunga migliori (4xxx, 5xxx), sia in prezzo che prestazioni, ha venduto una frazione di ciofeche come la gtx 260.
Per carità, magari le abbiamo comprate noi sui forum e noi che seguiamo l'hardware.
Ma aldifuori di questo target, moltissimi compravano Nvidia e basta. Idem gli OEM che ti bundlavano g90 e g100 e g200 a manetta.
Un po deluso da questo CES per invidia, non so voi..
Speravo venissero almeno menzionate le nuove gpu
illidan2000
09-01-2018, 13:10
E i concorrenti cosa possono farci?
Anche quando producono gpu valide vendono sempre un sesto.
AMD è "morta" da g80 in poi. Anche quando ha offerto gpu di gran lunga migliori (4xxx, 5xxx), sia in prezzo che prestazioni, ha venduto una frazione di ciofeche come la gtx 260.
Per carità, magari le abbiamo comprate noi sui forum e noi che seguiamo l'hardware.
Ma aldifuori di questo target, moltissimi compravano Nvidia e basta. Idem gli OEM che ti bundlavano g90 e g100 e g200 a manetta.
si, io ho comprato la 4870x2 (turboreattore, tenuta a basa con dissipatore aftermarket) e la 5870 (usata), poi solo nVidia, poiché non ha più proposto nulla di convincente in fascia alta
Tipo la HD7970?
Ma anche la 290/290x (custom ovviamente) non era affatto male, si avvicinava alla titan kepler costando la metà.
Però bisogna guardare avanti e cambiare architettura, GCN ormai deve essere completamente rivista...non regge più il passo.
Il CES inizia domani
mi sa che fai confusione, è dal 7 al 12, e nvidia credo abbia presentato tutto il 7... http://www.nvidia.com/object/ces-2018.html
Spero comunque che possa ancora uscire qualche info aggiuntiva...
XP Fabio+
09-01-2018, 19:30
GTC 2018 Marzo 26-29
-76 giorni
(appena lasciata andare una gtx 1080 ti evga a 560+13 su ebay)
techsaskia
09-01-2018, 19:54
GTC 2018 Marzo 26-29
-76 giorni
(appena lasciata andare una gtx 1080 ti evga a 560+13 su ebay)
che succede tra 76 giorni?
McRooster23
09-01-2018, 20:21
che succede tra 76 giorni?
Nvidia dovrebbe presentare le nuove schede video in occasione del GPUTecnologyCongress.
Ma tipo si ha la certezza assoluta di sta cosa o sono ancora rumours?
saccia92
10-01-2018, 17:46
Eddai muovetevi con queste nuove schede. Non ne posso più delle mie 2 680 2gb!!
Avrei bisogno di almeno 2 2070. Eh si, una volta provato lo sli non si torna indietro. Per fortuna non ho avuto grossi problemi finora.
TigerTank
10-01-2018, 21:54
Eddai muovetevi con queste nuove schede. Non ne posso più delle mie 2 680 2gb!!
Avrei bisogno di almeno 2 2070. Eh si, una volta provato lo sli non si torna indietro. Per fortuna non ho avuto grossi problemi finora.
Piglia una 1080Ti che fai prima...e te la tieni come minimo fino alla 2080Ti :)
mikael84
10-01-2018, 23:41
Centordicesima volta che viene scritto, da te, me, altri, ma è una bufala ormai talmente radicata che nutro pochissime speranze che si possa riuscire a debunkare.
Ma infatti, è una situazione analoga a quella di Intel.
La pianificazione avviene con largo anticipo, al massimo possono rilassare le tempistiche in situazioni particolarmente favorevoli o accelerare (con i conseguenti rischi) se le cose vanno male...ma le roadmap quelle sono.
Esatto
Quello che dici è vero solo lato architetturale.
Dal punto di vista commerciale, non è proprio così e i prodotti si possono anticipare o ritardare anche di sei mesi in base al mercato.
Si possono rilasciare chip in fretta e furia (fondamentalmente tutto fermi, ma anche la 1060, la 780ti o quell'orrore di kaby lake-x). Ma vedi anche Coffee Lake, lanciato prematuramente in commercio di 6 mesi abbondanti, in piena mancanza di modelli e di chipset a causa della pressione di Ryzen.
Una volta che la scheda è ultimata da un punto di vista architetturale si tratta di mettersi d'accordo con le fonderie e i produttori di ram.
Ma gli ordini alle fonderie sono spesso molto elevati e si fa la fila. Ad esempio un produttore che ha fretta di rilasciare un prodotto può pagare un bonus a chi c'è prima il quale ottiene praticamente uno sconto.
Il resto della componentistica elettronica fondamentalmente non richiede granchè di anticipo. Il costo di un pcb difficilmente supera i 10 $. I cooler son fondamentalmente sempre gli stessi.
Ergo se Nvidia ha ancora 1-2-3-5 milioni o più di gpu pascal da vendere e le sta vendendo bene non ha alcun beneficio a non ritardare di qualche mese e lo può fare benissimo. Stai pure tranquillo che se Vega avesse aperto Nvidia in due Volta era già sugli scaffali :asd:Magari solo con il chippone, magari a prezzi esorbitanti fonders edition, ma c'era.
Si, ci può essere qualche variazione(ritardi sopratutto), ma in base alle roadmap stabilite fanno uscire i propri prodotti.
Intel sarebbe ferma 10 anni.
Nvidia con le Maxwell, ha lanciato le 970 a partire da 3/400 euro, alcuni shop le vendevano a prezzi stracciatissimi, tanto che alcuni le hanno prese a 280 euro (manli).
Le 780ti, sino al giorno prima vendevano a 550 euro e le 290 neppure a 250 euro le prendevano.
Quindi a che pro fare uscire maxwell?
Riguardo le 780ti, sono chip selezionati per girare a 2880cc, altrimenti non uscivano. La concorrenza fa bene. L'ultimo SMX attivabile.
Se a giugno o maggio devono uscire, escono.:) :p
mircocatta
11-01-2018, 08:01
Eddai muovetevi con queste nuove schede. Non ne posso più delle mie 2 680 2gb!!
Avrei bisogno di almeno 2 2070. Eh si, una volta provato lo sli non si torna indietro. Per fortuna non ho avuto grossi problemi finora.
a memoria non è che con pascal lo sli sia funzionato molto bene, ti conviene pensare ( finchè sei in tempo) a una config single gpu
TigerTank
11-01-2018, 08:11
a memoria non è che con pascal lo sli sia funzionato molto bene, ti conviene pensare ( finchè sei in tempo) a una config single gpu
Dipende dai giochi, io invece posso dire di aver avuto 3 Sli in vita mia e questo è stato il più appagante, anche perchè non l'ho ancora cambiato per la disperazione visti anche i prezzi attuali delle 1080Ti...che ora sono ulteriormente aumentati.
Ma se uno viene da una situazione ormai vecchia come l'utente sopra e ora ha proprio voglia di cambiare, visto che ancora non si sa proprio nulla delle future schede, non vedo scelte alternative ad una 1080Ti o volendo anche a una 1080.
Lo stacco prestazionale sarebbe comunque bello corposo e al momento quest'ultima ha un rapporto prezzo-prestazioni migliore.
illidan2000
11-01-2018, 09:45
Sono daccordo
quoto. niente più SLI, il vento è cambiato
tra qualche anno forse vedremo implementato per bene il multi gpu in modo nativo su directx (12?) e forse varrà nuovamente la pena
TigerTank
11-01-2018, 09:55
quoto. niente più SLI, il vento è cambiato
tra qualche anno forse vedremo implementato per bene il multi gpu in modo nativo su directx (12?) e forse varrà nuovamente la pena
Sinceramente spero che tra qualche anno, accanto a Vulkan o evoluzione di esse, ci sia qualcosa di meglio delle dx12 perchè finora non è che abbiano fatto gridare al miracolo :)
Imho le migliori sono state le dx9 e le dx11.
Circa lo Sli, a meno di una morte definitiva, credo che ci saranno sempre giochi dotati di supporto ottimo/buono e altri che proprio non lo integrano.
AceGranger
11-01-2018, 10:43
Esatto
Si, ci può essere qualche variazione(ritardi sopratutto), ma in base alle roadmap stabilite fanno uscire i propri prodotti.
Intel sarebbe ferma 10 anni.
Nvidia con le Maxwell, ha lanciato le 970 a partire da 3/400 euro, alcuni shop le vendevano a prezzi stracciatissimi, tanto che alcuni le hanno prese a 280 euro (manli).
Le 780ti, sino al giorno prima vendevano a 550 euro e le 290 neppure a 250 euro le prendevano.
Quindi a che pro fare uscire maxwell?
Riguardo le 780ti, sono chip selezionati per girare a 2880cc, altrimenti non uscivano. La concorrenza fa bene. L'ultimo SMX attivabile.
Se a giugno o maggio devono uscire, escono.:) :p
anche perchè la gente normale vede solo AMD come rivale, in realta nVidia ha rivali ben piu temibili e se vuole mantenere il dominio e aggredire nuovi mercati non puo certo dormire aspettando AMD; fra AI, Deep Learning, Computing e ora anche guida autonoma, deve necessariamente avere un piano aggressivo di rilascio delle nuove architetture.
.... le divisioni Pro di nVidia fatturano piu di tutta la divisione grafica + Ryzen di AMD.... la sola divisione Automotive di nVidia fattura 144 milioni, che a naso sara la meta dell'intera divisione Graphyx di AMD ( non rilascia i fatturati separati, ma quello accorpato di Ryzen + GPU che è intorno agli 800 Milioni, e credo che siano ripartiti in un 450-500 Milioni Ryzen e un 300-350 Milioni GPU ) , ed è un mercato agli albori....
Secondo me stanno tardando ad uscire solo per colpa dell'hdmi 2.1 visto che anche le nuove tv sono nella stessa situazione, anzi c'è chi ha anche rinunciato a metterla nel 2018.
Inviato dal mio SM-G950F utilizzando Tapatalk
Secondo me stanno tardando ad uscire solo per colpa dell'hdmi 2.1 visto che anche le nuove tv sono nella stessa situazione, anzi c'è chi ha anche rinunciato a metterla nel 2018.
Inviato dal mio SM-G950F utilizzando Tapatalk
Ma lol a Nvidia non gliene frega un cazzo dell'hdmi 2.1 e ribadiamo per l'ennesima volta che non fino a prova contraria non c'e' nessun ritardo
esatto. Ormai fare uscire prodotti senza nuova revisione hw non ha senso.
Che sia una vga, un avr, o una tv ci sarà un calo dei prezzi in corrispondenza all uscita dei nuovi modelli.
Perche sta volta non si tratta solo di avercelo piu lungo, l hdmi 2.1 è uno stravolgimento che non si vedeva dai tempi della 1.4 tocca tutto dall audio al video. Secondo me avrebbero dovuto chimarla 3.0
Secondo me stanno tardando ad uscire solo per colpa dell'hdmi 2.1 visto che anche le nuove tv sono nella stessa situazione, anzi c'è chi ha anche rinunciato a metterla nel 2018.
Inviato dal mio SM-G950F utilizzando Tapatalk
di ritardi proprio da parte di nvidia non ne vedo
TigerTank
11-01-2018, 13:05
Fin'ora ne hanno usato il 10%. Il mGPU esplicito è una delle feature più interessanti, fra l'altro, visto che la miniaturizzazione del silicio non è esattamente in condizioni di continuare per sempre e la "modularità" che quella soluzione consente è una via alternativa decisamente interessante.
Speriamo :)
Secondo me stanno tardando ad uscire solo per colpa dell'hdmi 2.1 visto che anche le nuove tv sono nella stessa situazione, anzi c'è chi ha anche rinunciato a metterla nel 2018.
No, a parte il fatto che probabilmente la questione hdmi 2.1 slitta al 2019, il VRR purtroppo imho sarà più cosa da console. Non credo che sia così determinante per le roadmap nvidia, soprattutto se vorrà portare avanti il gsync o sua eventuale evoluzione proprietaria.
Speriamo :)
No, a parte il fatto che probabilmente la questione hdmi 2.1 slitta al 2019, il VRR purtroppo imho sarà più cosa da console. Non credo che sia così determinante per le roadmap nvidia, soprattutto se vorrà portare avanti il gsync o sua eventuale evoluzione proprietaria.
Più che altro la nuova hdmi serve per avere il 4k rbg con l'hdr.
Inviato dal mio SM-G950F utilizzando Tapatalk
TigerTank
11-01-2018, 14:25
Il sync adattivo su displayport c'è da una vita, se a nVidia interessava poteva usare già quello, se non lo ha fatto fin'ora non lo farà mai (o solo obtorto collo nel caso in cui gsync fallisse, cosa che non mi sembra nemmeno vicina, o che un adaptive sync standard venisse inserito in specifiche obbligatorie directX)
Sì, infatti(purtroppo)...che poi io non sarà molto avanti ma concepisco l'HDMI come connessione multimediale :D
O magari chissà...nvidia prima o poi concederà supporto a quei sync adaptive se si considera che molti vorrebbero usare delle tv come monitor(visto che comunque i divari tra tv e monitor si stanno assottigliando), cioè sfruttare delle vga nvidia su contesti dove non c'è il gsync.
Più che altro la nuova hdmi serve per avere il 4k rbg con l'hdr.
Hdr non mi importa più di tanto o perlomeno finora non mi ha entusiasmato. Diciamo che l'hdmi 2.1 penso sarà interessante(quando sarà sfruttabile al 100%) per i 4K a 120Hz, il VRR e il Quick Media Switching.
Per me l'hdr è la novità più bella degli ultimi anni, poi su pc è ancora latente, ma per le cose che la sfruttano è spettacolare.
Inviato dal mio SM-G950F utilizzando Tapatalk
TigerTank
11-01-2018, 16:07
Per me l'hdr è la novità più bella degli ultimi anni, poi su pc è ancora latente, ma per le cose che la sfruttano è spettacolare.
Inviato dal mio SM-G950F utilizzando Tapatalk
Eh appunto, qui il contesto è principalmente il gaming su pc :)
Per me l'hdr è la novità più bella degli ultimi anni, poi su pc è ancora latente, ma per le cose che la sfruttano è spettacolare.
Inviato dal mio SM-G950F utilizzando Tapatalk
Anche per me ma su pc è un gran caos, non si capisce nulla, i giochi si imballano i colori sfarfallano. Non ci siamo. Pensa che un rip in 4k HDR, lo vedo in hdr sulla tv, lo vedo in HDR sul Lettore BD, non lo vedo sul Samsung Note 8, non lo vedo sul pc collegato alla tv. Eppure è sempre lo stesso file...
https://wccftech.com/nvidia-next-generation-ampere-gpu-rumor/
Ampere .
Anche per me ma su pc è un gran caos, non si capisce nulla, i giochi si imballano i colori sfarfallano. Non ci siamo. Pensa che un rip in 4k HDR, lo vedo in hdr sulla tv, lo vedo in HDR sul Lettore BD, non lo vedo sul Samsung Note 8, non lo vedo sul pc collegato alla tv. Eppure è sempre lo stesso file...Se il pc è collegato tramite hdmi ad una tv 4k il problema è sicuramente il limite di banda che non supporta l'hdr rgb con il 4k@60hz, per questo servirà l'hdmi 2.1... L'unico modo al momento per usare l'hdr è passare da rgb a yuv, oppure da 60hz a 30hz.
Inviato dal mio SM-T705 utilizzando Tapatalk
techsaskia
15-01-2018, 19:19
https://wccftech.com/nvidia-next-generation-ampere-gpu-rumor/
Ampere .
sinceramente lo spero perchè una possibile GTX2080 con Volta non mi basta.
Ho un paio di 980Ti e non mi bastano per il 4K, comprare una 2080 non mi basterebbe. datemi di + :D
sinceramente lo spero perchè una possibile GTX2080 con Volta non mi basta.
Ho un paio di 980Ti e non mi bastano per il 4K, comprare una 2080 non mi basterebbe. datemi di + :D
Probabilmente la 2080TI sarà la prima scheda capace di gestire concretamente il 4K, poi sono sempre dell'idea che upgrade va fatto da ti a ti...
Tu avendo uno sli di 980ti sei vicino o poco oltre a una 1080ti OC quindi il naturale upgrade è per il chippone volta a meno che tu non voglia fare un sistema compatto è togliere i 600w delle 980ti per una soluzione sui 180w come la 2080 decisamente più fresca a pari prestazioni :sofico:
techsaskia
15-01-2018, 22:28
Probabilmente la 2080TI sarà la prima scheda capace di gestire concretamente il 4K, poi sono sempre dell'idea che upgrade va fatto da ti a ti...
Tu avendo uno sli di 980ti sei vicino o poco oltre a una 1080ti OC quindi il naturale upgrade è per il chippone volta a meno che tu non voglia fare un sistema compatto è togliere i 600w delle 980ti per una soluzione sui 180w come la 2080 decisamente più fresca a pari prestazioni :sofico:
si hai ragione... probabilmente abbandonerò lo SLI e una singola 2080 sarebbe un upgrade troppo piccolo... aspetterò le TI sperando che lo SLI torni in voga.
fino ad adesso mi aveva dato belle soddisfazioni ma negli ultimi 6 mesi terra bruciata.
Non ci pensare, SLI e CF sono morti e sepolti. L'unica cosa che potrebbe tornare in voga è il mGPU esplicito di DX12/Vulkan, ma ho i miei dubbi che sia una cosa che possa affermarsi a breve termine, anche se lo facesse.
E' anche decisamente fico, visto che puoi fare il mGPU con marche diverse, tipo RX580+GTX1060 (e la 1060 non ha nemmeno il supporto SLI), però conosco UN gioco che ad oggi lo supporta, quindi l'outlook al momento è davvero negativo.
Più che altro ci vorrebbero giochi innanzitutto in DX12, per ora è tutto DX11 e persino DX10, quindi ci vorrà qualche anno prima che queste si diffondino per bene e quindi anche tutte le varie features vengano sfruttate, non sarebbe neanche male sfruttare la scheda video integrata nelle CPU da abbinare a quella dedicata.
In passato già ci provarono con Virtu, e devo dire che il boost prestazionale in termini di fps c'era anche se a scapito dei tempi di risposta che invece rendevano il gioco molto meno fluido...
TigerTank
16-01-2018, 08:03
si hai ragione... probabilmente abbandonerò lo SLI e una singola 2080 sarebbe un upgrade troppo piccolo... aspetterò le TI sperando che lo SLI torni in voga.
fino ad adesso mi aveva dato belle soddisfazioni ma negli ultimi 6 mesi terra bruciata.
Lo Sli non è ne morto ne vivo, nel senso che dipende dai giochi. Come tecnologia è validissima e funziona benone...ma dipende appunto dall'inclusione o meno del supporto nei giochi. Il resto dipende dai titoli a cui uno gioca.
Tanto per dire, il mese prossimo esce il nuovo FarCry...di sicuro uno dei titoli principali dell'anno...e se è come i predecessori di sicuro lo Sli girerà a meraviglia :)
L'importante comunque è non fare una configurazione in cui un livello minimo accettabile di gaming sia troppo dipendente dal funzionamento dello Sli.
AceGranger
16-01-2018, 08:49
Non ci pensare, SLI e CF sono morti e sepolti. L'unica cosa che potrebbe tornare in voga è il mGPU esplicito di DX12/Vulkan, ma ho i miei dubbi che sia una cosa che possa affermarsi a breve termine, anche se lo facesse.
E' anche decisamente fico, visto che puoi fare il mGPU con marche diverse, tipo RX580+GTX1060 (e la 1060 non ha nemmeno il supporto SLI), però conosco UN gioco che ad oggi lo supporta, quindi l'outlook al momento è davvero negativo.
imho non prendera mai piede; saranno pochissimi gli sviluppatore che impiegheranno tempo e risorse per programmare mGPU in giochi che vengono al 99% pensati per essere multi piattaforma, dove il mGPU è la nicchia della nicchia nel mercato PC che raramente è il mercato principale di riferimento dello sviluppo di un gioco....
illidan2000
16-01-2018, 11:14
si hai ragione... probabilmente abbandonerò lo SLI e una singola 2080 sarebbe un upgrade troppo piccolo... aspetterò le TI sperando che lo SLI torni in voga.
fino ad adesso mi aveva dato belle soddisfazioni ma negli ultimi 6 mesi terra bruciata.
secondo me ti conviene comunque, poiché nel 50% dei casi lo SLI non è supportato o non è ben supportato....
AceGranger
16-01-2018, 11:24
La frase che hai evidenziato finiva con "anche se lo facesse". Mi pare chiaro che la penso proprio come te.
In un mondo senza console ci potrebbe stare, in quello in cui viviamo no.
si si era per sottolineare appunto che la pensiamo uguale :).
Difficili farsi piacere lo sli anche quando va bene fra prezzi, consumi, latenze, spreco di vram etc
Io con la 1080ti e l'i7 8700k con 16 gb ddr4 3ghz , faccio i 60 fissi a Ultra 3840x2160 tutto a default su star wars battlefront 2 .
illidan2000
16-01-2018, 13:13
Io con la 1080ti e l'i7 8700k con 16 gb ddr4 3ghz , faccio i 60 fissi a Ultra 3840x2160 tutto a default su star wars battlefront 2 .
tutto a default, intendi processore e scheda video?
e come imposti il gioco? con che settaggi video?
techfede
16-01-2018, 14:03
Scusate, è un po' che non seguo le novità in campo verde. Cosa sappiamo di Volta "consumer/gaming"?
Secondo Guru3D una Ti fa 66 medi su un Intel 8c @ 4.2GHz.
Le prestazioni di quel gioco dipendono molto da dove ti trovi, con quali condizioni climatiche, ma 60fps minimi ovunque in 4K@ultra non li fai su tutto il gioco con nessun hardware.
Si li faccio ce lo sotto il naso , tutto a default sia processore che scheda video .
Campagna Single Player , 3840x2160 tutto su Ultra mai sceso a 59 fps , sempre 60 ( ho finito ieri il gioco ) .
Probabilmente chi fa le recensioni sui siti di hardware è stato sfortunato.
O piu' probabilmente le varie patch uscite insieme agli ultimi driver nvidia lo permettono .
Assassin creed origin invece è un mattone in 4k per i 60 fissi devo mettere dettagli medi , e guai ad accendere la torcia :D , appena lo si fà subito 30 fps .
TigerTank
17-01-2018, 07:58
è perchè i nuovi AC, come altri giochi, fanno parte di quella famiglia che "giochi bene con la generazione successiva di vga" :D
fraussantin
17-01-2018, 08:05
Gli AC non è che siano mai stati proprio pregevoli dal punto di vista tecnico. :>
Onestamente ho giocato il primo per un pezzetto su X360, poi mi sono annoiato a morte, il secondo su PC un po' meglio, ma l'ho finito a fatica e probabilmente solo perché in quel periodo lavoravo in centro a Firenze e quindi oltre a giocarlo vivevo nell'ambientazione :D
Ora ho black flag installato solo perché sotto natale l'hanno regalato, ma mi ha annoiato subito anche questo.
Il lato tecnico è secondario quando un gioco è noioso :>Cmq non sottovalutate questo origin che é tutto meno che noioso.
E l'ambientazione é curata in maniera sublime.
Poi purtroppo serve un ryzen 1800x solo per il drm
Magari ci gioco fra 2 anni comprandolo a 3€, di più a Ubisoft non gli do :D
Aspetta 4 anni e UBI te lo regala direttamente come fatto per AC3 e AC4 :sofico:
appleroof
17-01-2018, 15:11
è perchè i nuovi AC, come altri giochi, fanno parte di quella famiglia che "giochi bene con la generazione successiva di vga" :D
AC Origins è stata una sorpresa anche (ma per fortuna soprattutto non solo) lato tecnico: già al dayone nessun bug importante, grafica davvero molto molto piacevole, e ci facevo 50fps medi con impo tra ultra e high a 3440 più una passata di Reshade, davvero non male
appleroof
17-01-2018, 15:15
Mi state facendo venire voglia di prenderlo a 10€ fra un anno :sofico:
prendilo, non te ne pentirai (però prima perché merita, vai a 20€ tra 6 mesi :D)
TigerTank
17-01-2018, 20:50
AC Origins è stata una sorpresa anche (ma per fortuna soprattutto non solo) lato tecnico: già al dayone nessun bug importante, grafica davvero molto molto piacevole, e ci facevo 50fps medi con impo tra ultra e high a 3440 più una passata di Reshade, davvero non male
Grazie apple ;)
appleroof
18-01-2018, 12:32
Grazie apple ;)
Di cosa? :p nel dubbio cmq di nulla :)
techfede
18-01-2018, 12:37
Io provo a chiederlo di nuovo: che sappiamo fin ora delle Volta "gaming/consumer"? :asd: io tra un po' dovrò proprio cambiarla sta 7950 :asd:
McRooster23
18-01-2018, 13:28
Io provo a chiederlo di nuovo: che sappiamo fin ora delle Volta "gaming/consumer"? :asd: io tra un po' dovrò proprio cambiarla sta 7950 :asd:
Che forse saranno presentate al GTC 2018 :asd:
fraussantin
18-01-2018, 13:38
Mi son flippato su Watchdogs (il primo, era gratis e non l'avevo mai provato, ed è stato una piacevole sorpresa) ma soprattutto ho installato Shadow of War che non ho ancora iniziato e finché non cambio SSD non ho spazio per mettere altra roba grossa :>
Appena ho un po' di tempo da perderci (fine marzo) studio le opzioni 1TB M.2 così mi sblocco la possibilità di comprare giochi :D
se ti è piaciuto WD , con questo ti ci flashi..
non dico per dire è.. cmq se va di questo passo veramente tra 6 mesi lo becchi a meno di 20 euro..
giusto perchè l'ho già comprato XD .. quella cagata di primal che volevo provarlo , non cala manco a piagne ..XD
29Leonardo
18-01-2018, 13:59
Mi state facendo venire voglia di prenderlo a 10€ fra un anno :sofico:
se ne aspetti il doppio te lo regalano direttamente :asd:
TigerTank
18-01-2018, 14:23
Di cosa? :p nel dubbio cmq di nulla :)
Del giudizio post-gaming :D
appleroof
18-01-2018, 16:32
Del giudizio post-gaming :D
ah ok :D ;)
Se per una volta imparassimo a non comprare i loro prossimi prodotti che avranno, imho, un 20 % di scarto nel migliore delle ipotesi a prezzi assurdi si impegnerebbero anche ad alzare l'asta e a produrre prodotti migliori (o almeno a tagliare i prezzi).
Se per una volta imparassimo a non comprare i loro prossimi prodotti che avranno, imho, un 20 % di scarto nel migliore delle ipotesi a prezzi assurdi si impegnerebbero anche ad alzare l'asta e a produrre prodotti migliori (o almeno a tagliare i prezzi).
LoL mi hai convinto.
E' ciò che abbiamo fondamentalmente fatto tutto da Sandy Bridge in poi in ambito cpu eh.
Il 20% di 60 fps sono 72 fps eh. o 48 fps partendo da 40.
In condizioni normali c'è poca o nessuna differenza per un misero 20% eppure stiamo lì a dargli i soliti 700 euro per vedere quel filtro in più a 1440p o 4k.
E poi ci lamentiamo se non rilasciano di meglio, ci credo, stiamo sempre a comprare gpu che manco usiamo a volte :asd:.
Conto ben più di una persona in questo forum che compra una gpu, perde un centinaio di ore fra overclock e bios mod e poi gioca a CS:GO, LoL, Hearthstone.
Anzi, gioca pure una 20ina d'ore a The Witcher 3 per giustificare l'acquisto della gpu che non gli serviva.
Io ho giocato tutto witcher3 con la mia 970.
MrBrillio
19-01-2018, 06:30
A sto giro mi interessano solo le nuove Gpu di fascia bassa... Devo farmi un rig per minare un po'.. Ma mi sa che la 1080ti nel mio pc ci resterà un bel po' a meno di non beccare qualche super offerta, ma la vedo dura :D
Inviato dal mio SM-G955F utilizzando Tapatalk
OvErClOck82
19-01-2018, 07:17
E' ciò che abbiamo fondamentalmente fatto tutto da Sandy Bridge in poi in ambito cpu eh.
Il 20% di 60 fps sono 72 fps eh. o 48 fps partendo da 40.
In condizioni normali c'è poca o nessuna differenza per un misero 20% eppure stiamo lì a dargli i soliti 700 euro per vedere quel filtro in più a 1440p o 4k.
E poi ci lamentiamo se non rilasciano di meglio, ci credo, stiamo sempre a comprare gpu che manco usiamo a volte :asd:.
Conto ben più di una persona in questo forum che compra una gpu, perde un centinaio di ore fra overclock e bios mod e poi gioca a CS:GO, LoL, Hearthstone.
Anzi, gioca pure una 20ina d'ore a The Witcher 3 per giustificare l'acquisto della gpu che non gli serviva.
Concordo, ma alla fine l'essere appassionati porta a questo :D
Sent from my iPhone using Tapatalk
techfede
19-01-2018, 08:55
Io provo a rispondere di nuovo: niente
Se avevi già risposto scusa, non avevo visto :asd:
Speravo si potesse avere un'idea di cosa avrebbe portato la prossima generazione, mi sa che sarà una scelta difficile stavolta.
Se nvidia ci mette uno scheduler hw che si rivela davvero utile potrei farci un pensierino serio, dipende anche come bilanciano il resto dei componenti. Certo, mi spiacerebbe perdermi il freesync, visto che un monitor g-sync mi costerebbe troppo (e me lo devo prendere nuovo, il monitor).
Boh, brutta situazione :(
illidan2000
19-01-2018, 09:01
Se avevi già risposto scusa, non avevo visto :asd:
Speravo si potesse avere un'idea di cosa avrebbe portato la prossima generazione, mi sa che sarà una scelta difficile stavolta.
Se nvidia ci mette uno scheduler hw che si rivela davvero utile potrei farci un pensierino serio, dipende anche come bilanciano il resto dei componenti. Certo, mi spiacerebbe perdermi il freesync, visto che un monitor g-sync mi costerebbe troppo (e me lo devo prendere nuovo, il monitor).
Boh, brutta situazione :(
scheduler hw ? Per fare cosa???
McRooster23
19-01-2018, 09:33
E' ciò che abbiamo fondamentalmente fatto tutto da Sandy Bridge in poi in ambito cpu eh.
Il 20% di 60 fps sono 72 fps eh. o 48 fps partendo da 40.
In condizioni normali c'è poca o nessuna differenza per un misero 20% eppure stiamo lì a dargli i soliti 700 euro per vedere quel filtro in più a 1440p o 4k.
E poi ci lamentiamo se non rilasciano di meglio, ci credo, stiamo sempre a comprare gpu che manco usiamo a volte :asd:.
Conto ben più di una persona in questo forum che compra una gpu, perde un centinaio di ore fra overclock e bios mod e poi gioca a CS:GO, LoL, Hearthstone.
Anzi, gioca pure una 20ina d'ore a The Witcher 3 per giustificare l'acquisto della gpu che non gli serviva.
Questo post andrebbe scolpito nella roccia e posto ben in vista all'ingresso della sezione "Schede Video" :asd:
Questo post andrebbe scolpito nella roccia e posto ben in vista all'ingresso della sezione "Schede Video" :asd:
Meglio di no... Altrimenti non si trovano più ottime occasioni nell'usato...:stordita:
techfede
19-01-2018, 09:47
scheduler hw ? Per fare cosa???
Forse ricordo male, ma mi sembrava si parlasse di una implementazione sempre più verso le dx12 non solo come features, ma come supporto hardware.
Ripeto, è tanto che non seguo la discussione, ma quando si parlava di volta tempo fa' mi sembrava se ne parlasse.
fraussantin
19-01-2018, 09:58
E' ciò che abbiamo fondamentalmente fatto tutto da Sandy Bridge in poi in ambito cpu eh.
Il 20% di 60 fps sono 72 fps eh. o 48 fps partendo da 40.
In condizioni normali c'è poca o nessuna differenza per un misero 20% eppure stiamo lì a dargli i soliti 700 euro per vedere quel filtro in più a 1440p o 4k.
E poi ci lamentiamo se non rilasciano di meglio, ci credo, stiamo sempre a comprare gpu che manco usiamo a volte :asd:.
Conto ben più di una persona in questo forum che compra una gpu, perde un centinaio di ore fra overclock e bios mod e poi gioca a CS:GO, LoL, Hearthstone.
Anzi, gioca pure una 20ina d'ore a The Witcher 3 per giustificare l'acquisto della gpu che non gli serviva.Potrei anche essere d'accordo , ma si generalizza un po troppo.
Il 20 % é anche tra 50 fps e 60 , e spesso fa la differenza.
Poi si ci sono anche casi come descrivi tu . Ma non tutti.
Oppure oppure (la butto li') si puo' vivere facendosi i cazzi propri, fregandosi di chi compra cosa, per cosa la usa come quando e perche', non usare il pluralis maiestatis e non pensare che tre tre stronzi su un forum possano influenzare il mercato mondiale.
(Detto da uno che cambia vga ogni 2/4 anni a seconda delle proprie esigenze, ma che non rosica se c'e' qualcuno che la cambia ogni 2 mesi)
fraussantin
19-01-2018, 10:34
Non fa nessuna differenza... è una scusa per l'hobbysta di qualunque tipo, come quelli che cambiano le reflex e fanno 100-1000 foto all'anno, per fare un esempio...
Lo si fa perché può permetterselo e sta tutto qua il concetto, si cambia vga o reflex perchè si ha la possibilità economica da investire in un hobby, ma di certo non è una necessità fare 60fps invece di 50fps come non lo è cambiare reflex perché ha quella features in più che non userai mai se non 3 volte...
il 20% è una soglia limite che sta tutta nella testa e se proprio vuoi fare 60fps basta togliere qualche minimo effetto grafico che non lo percepisci nemmeno mentre giochi.
Io non dico di fare come faccio io che ho aspettato troppo, ma diciamo che aspettare un 2x (+100) è una soglia consigliabile per chi deve pensare anche al lato economico.Certo che é uno lo fa se può. Ma se appunto uno ha la passione per i game , e esce il gioco che gli gira a 50 fps se non gli mancano 2 lire é portato ad upgradare.
Per dire io facevo 50 ad assassin creed origin e più di una volta ho pensato di buttare quel cesso di i5 e magari prendermi un i7 haswell ..
Poi non l'ho fatto perchè sono tirchio peggio di uno scozzese a genova , ma di certo a trovarlo usato il change sarebbe meritato.
Di certo mi sono pentito più di una volta di non averci buttato 100 euro in più.
Certo che é uno lo fa se può. Ma se appunto uno ha la passione per i game , e esce il gioco che gli gira a 50 fps se non gli mancano 2 lire é portato ad upgradare.
Per dire io facevo 50 ad assassin creed origin e più di una volta ho pensato di buttare quel cesso di i5 e magari prendermi un i7 haswell ..
Poi non l'ho fatto perchè sono tirchio peggio di uno scozzese a genova , ma di certo a trovarlo usato il change sarebbe meritato.
Di certo mi sono pentito più di una volta di non averci buttato 100 euro in più.
Vabbè con la 970 al quanto, con il 2500k non avevo il benchè minimo collo a 2560x1080 anche nei titoli cpu dipendenti la gpu era sempre sfruttata al massimo...
Ora con la 980ti, il collo lo sento tutto, ho un pò arginato tra DSR e ram portate da 1600 a 2230mhz... Però globalmente nonostante la cpu, comunque la 980ti tira molto e dove prima con la 970 rimanevo sotto i 50 fps ora sto a 75 fissi quindi non mi lamento poi dipende dal titolo AC origin non l'ho ancora provato e sono curioso di farlo anche perchè molti dicono che non è malaccio e vale la pena giocarci :fagiano:
Però oramai il mio sandy ha dato il suo, aspetto ryzen 12nm e poi valuto l'upgrade :)
fraussantin
19-01-2018, 11:10
Vabbè con la 970 al quanto, con il 2500k non avevo il benchè minimo collo a 2560x1080 anche nei titoli cpu dipendenti la gpu era sempre sfruttata al massimo...
Ora con la 980ti, il collo lo sento tutto, ho un pò arginato tra DSR e ram portate da 1600 a 2230mhz... Però globalmente nonostante la cpu, comunque la 980ti tira molto e dove prima con la 970 rimanevo sotto i 50 fps ora sto a 75 fissi quindi non mi lamento poi dipende dal titolo AC origin non l'ho ancora provato e sono curioso di farlo anche perchè molti dicono che non è malaccio e vale la pena giocarci :fagiano:
Però oramai il mio sandy ha dato il suo, aspetto ryzen 12nm e poi valuto l'upgrade :)Ma guarda io ho sempre la 970 e forse la terrò finché con 300 350 euro non avrò un upgrade meritevole.
Anche perchè in 1080p basta togliere 2 cavolate e va libera.( Ottimo acquisto sta scheda in culo alle critiche)
Ma se incolla la cpu non hai via di scampo.
A memoria il 4690 é limited con ac5 , aco, wd , f4 ( non andava al 100% ma rallentava la gpu . Test fatto su un pc simile al mio ma con i7) mafia 3 , e anche qualche altra schifezza di porting.
Sono anche titoli ottimizzati alla cane, comunque sono d'accordo che investire sulla CPU non è male considerando che è l'upgrade più duraturo nel tempo ...
Io nel passaggio da 970 a 980ti ci ho perso 20€ acquistando e vendendo al momento opportuno anche se tra vendita e acquisto sono passati quasi 7 mesi se non più però dato che per gli esami e altro non giocavo neanche in quel periodo non ci ho perso nulla e nella pratica l'upgrade ne ha valsi tutti soprattutto con i mod mi sto divertendo molto dove prima con 970 dovevo limitare...
fraussantin
19-01-2018, 11:42
Fa la differenza se sei senza gsync/freesync, altrimenti non cambia nulla :>Se lo dici tu ...
la scheda la tieni quanto vuoi.
quasi 5 anni con la gts 450 che non resterà negli annali per prestazioni ma a me stava bene all epoca. Oggi mi sta bene l attule che durerà forse piu della 450.
Però a differenza della precendente questa è una grande scheda che continua a dare prestazioni decenti nel tempo.
TigerTank
19-01-2018, 21:21
Certo che é uno lo fa se può. Ma se appunto uno ha la passione per i game , e esce il gioco che gli gira a 50 fps se non gli mancano 2 lire é portato ad upgradare.
Per dire io facevo 50 ad assassin creed origin e più di una volta ho pensato di buttare quel cesso di i5 e magari prendermi un i7 haswell ..
Poi non l'ho fatto perchè sono tirchio peggio di uno scozzese a genova , ma di certo a trovarlo usato il change sarebbe meritato.
Di certo mi sono pentito più di una volta di non averci buttato 100 euro in più.
Ma sì...dai che magari adesso il mining crolla e passa di moda, così in occasione dell'uscita delle nuove vga(e magari di altro hardware) si ridimensionano un pò i prezzi :sofico:
mikael84
19-01-2018, 23:38
Ma sì...dai che magari adesso il mining crolla e passa di moda, così in occasione dell'uscita delle nuove vga(e magari di altro hardware) si ridimensionano un pò i prezzi :sofico:
Un best sicuro sarà la 2070 per quest'anno, e le 1080ti che potrebbero crollare con i prezzi dopo l'uscita di Volta-Ampere.
fraussantin
20-01-2018, 05:58
Se il mining crollasse davvero il mercato sarebbe talmente invaso da usati che sarebbe difficilissimo vendere i prodotti nuovi.Sarebbe un sogno !
Ma non crolla. Anzi...
avalon75
20-01-2018, 07:03
quando uscirà la serie 2xxx?
Un best sicuro sarà la 2070 per quest'anno, e le 1080ti che potrebbero crollare con i prezzi dopo l'uscita di Volta-Ampere.
Mikael pensi che le 2070 avranno 16 gb di gddr6 ? .
Mikael pensi che le 2070 avranno 16 gb di gddr6 ? .
Di solito x70 e x80 hanno lo stesso quantitativo di memoria dati i collegamenti, fatta eccezione nel caso di tagli radicali e considerando che una 2080 dovrebbe andare un 15% più di una 1080ti sarebbe un controsenso mettere 8GB contro gli 11GB della 1080ti (commercialmente parlando non fisicamente anche se sarebbe anche logico data la maggior densità delle GDDR6 rispetto GDDR5/X)...
Secondo me è probabile facciano 16GB per la 2080 e a seconda del cut della 2070 potrebbe avere un quantitativo che oscilla tra 12 e 16GB
fraussantin
20-01-2018, 08:54
Di solito x70 e x80 hanno lo stesso quantitativo di memoria dati i collegamenti, fatta eccezione nel caso di tagli radicali e considerando che una 2080 dovrebbe andare un 15% più di una 1080ti sarebbe un controsenso mettere 8GB contro gli 11GB della 1080ti (commercialmente parlando non fisicamente anche se sarebbe anche logico data la maggior densità delle GDDR6 rispetto GDDR5/X)...
Secondo me è probabile facciano 16GB per la 2080 e a seconda del cut della 2070 potrebbe avere un quantitativo che oscilla tra 12 e 16GB
io ho una grand paura per il prezzo
ps : ma poi anche in 4k , ma servono davvero + di 8 gb?
io ho una grand paura per il prezzo
ps : ma poi anche in 4k , ma servono davvero + di 8 gb?
Stai sicuro che la 2070 a meno di 500€ non la vedi neanche dal telescopio, stessa cosa per 2080 che sarà over 750-800€... :(
Invece per la 1080ti è probabile si vedrà qualche offerta decente sui 450-500€ e ovviamente qualche occasione ghiotta nell'usato :D
Per la VRAM direi di no, almeno per i giochi attuali, però in futuro chissà, sicuramente quando il 4K diventerà come l'attuale FHD e quindi si va di texture pack a manetta potrebbero essere utili più di 8GB di vram...
Per esempio con Skyrim iper-moddato saturo completamente tutti e 6GB della 980ti :sofico:
fraussantin
20-01-2018, 09:17
Stai sicuro che la 2070 a meno di 500€ non la vedi neanche dal telescopio, stessa cosa per 2080 che sarà over 750-800€... :(
Invece per la 1080ti è probabile si vedrà qualche offerta decente sui 450-500€ e ovviamente qualche occasione ghiotta nell'usato :D
Per la VRAM direi di no, almeno per i giochi attuali, però in futuro chissà, sicuramente quando il 4K diventerà come l'attuale FHD e quindi si va di texture pack a manetta potrebbero essere utili più di 8GB di vram...
Per esempio con Skyrim iper-moddato saturo completamente tutti e 6GB della 980ti :sofico:Rimarrà da capire le differenze di prezzo e di prestazioni tra una 2060 e una 1080ti..
Direi che a sto punto si aspetta quella.
Rimarrà da capire le differenze di prezzo e di prestazioni tra una 2060 e una 1080ti..
Direi che a sto punto si aspetta quella.
2070?
La 2060 io credo andrà più o meno come una 1070Ti quindi a cavallo tra 1070 e 1080
fraussantin
20-01-2018, 09:53
2070?
La 2060 io credo andrà più o meno come una 1070Ti quindi a cavallo tra 1070 e 1080
in effetti cmq se costasse poco ( 300- 350 euro ) cosa che dubito fortemente vista la totale assenza di concorrenza potrebbe essere un buon upgrade
in effetti cmq se costasse poco ( 300- 350 euro ) cosa che dubito fortemente vista la totale assenza di concorrenza potrebbe essere un buon upgrade
Sicuramente interessante, anche perchè parliamo di una scheda con un tdp estremamente contenuto e consumi sui 120-130w, ovviamente avendo 1792cc sarà una scheda che difficilmente raggiungerebbe una 1080 def in OC sarà molto vicina alla 1070 un pò come l'attuale 1060 vs 980 ma nel target in cui si pone avrebbe prestazioni estremamente interessanti sopratutto se si rimane in FHD dove maxi qualunque cosa...
Il mio dubbio è che la 2060 molto probabilmente non avrà GDDR6 ma monterà o delle GDDR5 o GDDR5X mantenendo l'attuale layout di 6GB e banda a 192bit, a meno che data la compressione, le minori latenze e clock più alti non ripropongano una configurazione a 128bit e montando 8GB di vram GDDR6
fraussantin
20-01-2018, 10:27
Posto anche quì
https://www.tomshw.it/gpu-introvabili-mining-nvidia-medita-soluzioni-90942*
Secondo me L'unica strada percorribile imho é creare 2 prodotti .
Uno cuttato di tutta la roba initile per il mining come eccessi di vram uscite video e altre cavolate e con un bios impostato sul risparmio energetico e dissipatori economici , e però da vendere con un buon margine di gusdagno . Dall'altro lato la linea gforce con blocchi bios e hw ai calcoli che di solito fa il mining.
Ad nvidia deve convenire altrimenti non si muoverà mai
mikael84
20-01-2018, 11:26
Mikael pensi che le 2070 avranno 16 gb di gddr6 ? .
Mi viene piuttosto difficile immaginare che Nvidia lancia un modello da 8gb, sopratutto considerando che la banda delle ddr5 è ormai insufficiente.
I livelli di ram saranno simili, salvo cut sugli MC sul chip finale.
Potrebbe però avere delle ram meno spinte.
Il mio dubbio è che la 2060 molto probabilmente non avrà GDDR6 ma monterà o delle GDDR5 o GDDR5X mantenendo l'attuale layout di 6GB e banda a 192bit, a meno che data la compressione, le minori latenze e clock più alti non ripropongano una configurazione a 128bit e montando 8GB di vram GDDR6
Diciamo che su questa tipologia di scheda, è difficile ipotizzarne il rapporto fisso.
Utilizzare un 128 bit semplificherebbe non poco il chip (la 1060 passa da 157 a 200mmq2 per il collegamento aggiuntivo), però dovresti utilizzare ddr6 molto spinte da almeno 16gb/s per garantire almeno 256 gb/s. In questo modo sarebbe bilanciatissima, con 8gb di ram.
Con il bus 192bit hai la possibilità di utilizzare ram molto meno spinte, ad esempio con 14gb/s più compressione, vai ben sopra il bus della 1080.
Le ddr5 ormai, salvo clock importanti non offrirebbero molto.
I 6gb infine stanno cominciando a stare stretti.
L'ideale per costi è la prima opzione, ma ne dubito.
29Leonardo
20-01-2018, 11:34
Posto anche quì
https://www.tomshw.it/gpu-introvabili-mining-nvidia-medita-soluzioni-90942*
Secondo me L'unica strada percorribile imho é creare 2 prodotti .
Uno cuttato di tutta la roba initile per il mining come eccessi di vram uscite video e altre cavolate e con un bios impostato sul risparmio energetico e dissipatori economici , e però da vendere con un buon margine di gusdagno . Dall'altro lato la linea gforce con blocchi bios e hw ai calcoli che di solito fa il mining.
Ad nvidia deve convenire altrimenti non si muoverà mai
A meno che ci sia una forte differenza prestazionale dubito che se piazzino ad un prezzo elevato quelle dedicate al mining i minatori non si buttino in massa sulle piu economiche gpu da gaming.
Se il mining crollasse davvero il mercato sarebbe talmente invaso da usati che sarebbe difficilissimo vendere i prodotti nuovi.
Dubito, quanti comprerebbero dell'usato sapendo che erano gpu ultrastressate con il mining?
fraussantin
20-01-2018, 11:39
A meno che ci sia una forte differenza prestazionale dubito che se piazzino ad un prezzo elevato quelle dedicate al mining i minatori non si buttino in massa sulle piu economiche gpu da gaming.
Teoricamente si dovrebbero livellare a pari prestazioni tra gpu mining e gpu gaming ma più guadagno su quelle mining perchè più economiche , ma allo stesso tempo più ottimizzate sui consumi.
Poi se castrano il mining sulle gforce diventa scelta obbligata.
Un po come hanno fatto con le gforce e le quadro.
Mi viene piuttosto difficile immaginare che Nvidia lancia un modello da 8gb, sopratutto considerando che la banda delle ddr5 è ormai insufficiente.
I livelli di ram saranno simili, salvo cut sugli MC sul chip finale.
Potrebbe però avere delle ram meno spinte.
Micron e Hynix hanno in produzione modelli GDDR6 da 1GB (32bit bus), quindi dal punto di vista tecnico sono coperti.
Se poi per motivi di marketing vogliono svenarsi è un altro discorso.
Andrebbero fatti degli asic per minare (come per bitcoin) allora li puoi fare tranquillamente con processi produttivi meno affinati e scaricare le linee nuove per gpu.
Gli ASIC sono già disponibili per una moltitudine di algoritmi. (trovarne uno ad un prezzo dignitoso è un impresa senza un pre-ordine di mesi)
Rimangono fuori tutti gli algoritmi volutamente resi inefficienti per evitare la costruzione di ASIC. (dipendono dalla memoria per quantità\bw\latenza e burst).
mikael84
20-01-2018, 14:19
Micron e Hynix hanno in produzione modelli GDDR6 da 1GB (32bit bus), quindi dal punto di vista tecnico sono coperti.
Se poi per motivi di marketing vogliono svenarsi è un altro discorso.
Ma Nvidia non rilascerà mai una 2080 da 8gb, su via:p
Via BW ok, ma nVidia cercherà di far colpo anche su chi possiede 1080ti, e già 8gb non è che siano il massimo su grossi pannelli.
Il mining non spacca le schede, lavorano undervoltate a temperatura costante... hanno un'aspettativa di vita maggiore delle schede gaming overcloccate in realtà.
Io ne ho avute più di una ventina ormai, fin'ora sono a tre schede guaste, sempre nei primi tre mesi di vita (=difetto di produzione). Le ho rimpiazzate senza problemi in garanzia ovviamente.
Post del tipo "che sfiga mi si è rotta un'altra scheda" non ne ho ancora letti nei vari forum/gruppi che frequento. Al massimo gente che ha brickato la scheda col bios mod fatto male... :)
Che dire, le mie 20 VGA non fanno statistica ovviamente... ma se trovate una scheda minatrice in vendita che ha almeno 6 mesi di garanzia secondo me non dovreste farvi troppi problemi IMHO.
Ma tanto non ve le vendono :D
Ma se non si usurano allora perché le schede mining nvidia sono garantite solo 3 mesi ? https://www.gigabyte.com/Graphics-Card/GV-NP106D5-6G-rev-11-12-13#kf
Ma Nvidia non rilascerà mai una 2080 da 8gb, su via:p
Via BW ok, ma nVidia cercherà di far colpo anche su chi possiede 1080ti, e già 8gb non è che siano il massimo su grossi pannelli.
Hai ragione, bisogna attivare le fuffa texture Ultra 8K di cui i teenager vanno matti (cit.)...:sofico:
la nuova titan volta quanto va rispetto una 1080ti? il 25/30% in più?
come farà una 2070 ad andare come una 1080ti? vuol dire che la 2080 andrà come una scheda video da 3000 euro?
non voglio essere polemico, vorrei capire cosa ci aspettiamo dalle prossime nvidia, visto che le amd sono fuori gioco al momento..
mikael84
20-01-2018, 14:44
Hai ragione, bisogna attivare le fuffa texture Ultra 8K di cui i teenager vanno matti (cit.)...:sofico:
Potenza del marketing, devi far colpo su chi deve cambiare da TI a 2080 (quelli che la comprano a prezzi folli).
Inoltre 8gb bastano ed avanzano, ma già qualche gioco alloca un botto di ram, vedi shadow of war e si fa qualche stutterata.
8gb ci potrebbero pure stare, ma onestamente conoscendo nVidia ci specula, sapendo che sarà la scheda "enthusiast" di quest'anno:p
walter.caorle
20-01-2018, 14:46
la nuova titan volta quanto va rispetto una 1080ti? il 25/30% in più?
come farà una 2070 ad andare come una 1080ti? vuol dire che la 2080 andrà come una scheda video da 3000 euro?
non voglio essere polemico, vorrei capire cosa ci aspettiamo dalle prossime nvidia, visto che le amd sono fuori gioco al momento..
Così quando le piazzeranno a 1000, potranno dirti che é un affare comunque...
mikael84
20-01-2018, 15:10
la nuova titan volta quanto va rispetto una 1080ti? il 25/30% in più?
come farà una 2070 ad andare come una 1080ti? vuol dire che la 2080 andrà come una scheda video da 3000 euro?
non voglio essere polemico, vorrei capire cosa ci aspettiamo dalle prossime nvidia, visto che le amd sono fuori gioco al momento..
La Titan Volta non guardarla proprio, non è una scheda puramente da gaming, è solo un momentaneo ce l'ho più lungo.
Clock e memorie sono troppo bassi (core in oc sui 1700).
La 2080 sarà un chip leggermente più grande della 1080, forse a cavallo tra 1080 e 1080ti, e potrebbe avere un prezzo leggermente più elevato rispetto a quest'ultima, ma niente che vada sulle 3000 euro:fagiano:
La Titan V, oltre ad offrire qualcosa in più nei game, offre nvlink, FP64 etc.
Un chip mastodontico che ha dei numeri anche in gaming, ma acquistarla per giocare è pura follia.:)
appleroof
20-01-2018, 15:13
Ma Nvidia non rilascerà mai una 2080 da 8gb, su via:p
Via BW ok, ma nVidia cercherà di far colpo anche su chi possiede 1080ti, e già 8gb non è che siano il massimo su grossi pannelli.
non ho ancora visto i 6gb saturati a 3440 + filtri però....
edit: forse Andromeda unico caso se ricordo bene, ma senza stuttering o problemi simili
mikael84
20-01-2018, 15:20
non ho ancora visto i 6gb saturati a 3440 + filtri però....
edit: forse Andromeda unico caso se ricordo bene, ma senza stuttering o problemi simili
Tomb raider, valle geotermica, se li beve, shadow of war è pure problematico con 6gb, tanto che Pascal ha un buon margine su maxwell. COD ww2, li allocca in 1 minuto, ed in alcune scene stuttera non poco (tutti questi problemi risolti con 8gb).:)
maik a prestazione come sarà? solito 10/15% sopra la ti?
mikael84
20-01-2018, 15:32
maik a prestazione come sarà? solito 10/15% sopra la ti?
Difficile valutare le possibili prestazioni, ancora non si conoscono i clock e la BW.
Potrebbe anche essere che inizialmente, le prestazioni siano molto vicine con la TI, magari la differenza la faranno le review con giochi dx12.
Scordiamoci +30%, o valori simili, un 10/15% potrebbe anche starci a default, in base al clock, un pò come la 1070 dalla 980ti, dove c'è molta apparenza e marketing, visto che la 980ti è più muscle.:)
Sicuramente i veri vantaggi, ci saranno con titoli favorevoli.
ma data di uscita? marzo??
anche perchè credo che chi la voglia la debba preordinare subito senza nemmeno aspettare i bench :mc: :mc:
Ormai le schede o le prendi al day1 con una parvenza di msrp o non le prendi più :|
:(
appleroof
20-01-2018, 16:53
Tomb raider, valle geotermica, se li beve, shadow of war è pure problematico con 6gb, tanto che Pascal ha un buon margine su maxwell. COD ww2, li allocca in 1 minuto, ed in alcune scene stuttera non poco (tutti questi problemi risolti con 8gb).:)
SoW e COd non li ho giocati, TR roba vecchia, ma a che ris.? Cmq credo siano più pecche di programmazione che reale esigenza
Difficile valutare le possibili prestazioni, ancora non si conoscono i clock e la BW.
Potrebbe anche essere che inizialmente, le prestazioni siano molto vicine con la TI, magari la differenza la faranno le review con giochi dx12.
Scordiamoci +30%, o valori simili, un 10/15% potrebbe anche starci a default, in base al clock, un pò come la 1070 dalla 980ti, dove c'è molta apparenza e marketing, visto che la 980ti è più muscle.:)
Sicuramente i veri vantaggi, ci saranno con titoli favorevoli.
parli della ipotetica 2070? Se così fosse, sarebbe un ottimo salto dalla 980ti, ci risparmio pure 100w che di questi tempi male non fa :D
SoW e COd non li ho giocati, TR roba vecchia, ma a che ris.? Cmq credo siano più pecche di programmazione che reale esigenza
parli della ipotetica 2070? Se così fosse, sarebbe un ottimo salto dalla 980ti, ci risparmio pure 100w che di questi tempi male non fa :D
parla della 2080.
la 2070 stara sotto a questo giro sulla 1080ti. almeno all'inizio, poi bisogna vedere i risultati sul campo.
parla della 2080.
la 2070 stara sotto a questo giro sulla 1080ti. almeno all'inizio, poi bisogna vedere i risultati sul campo.
Non credo .
La 2070 andrà pari in alcuni giochi e poco sotto la 1080ti su altri , ma la 2080 sicuramente sarà un +15% almeno sulla 1080ti attuale .
Per caso ci sono info riguardo l'encoding in hevc nvidia delle prossime schede? Io ho una Maxwell e non posso encodare in 10 bit, a differenza delle Pascal che possono, delle prossime si sa niente? Mi interesserebbe saperlo visto che ogni tanto encodo.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.