View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
Legolas84
12-03-2016, 12:11
ho preso circa 10fps medi in tomb raider tra dx11 e dx12 a parità di impostazioni e frequenze (qui devo vedere il log di AB se funzia, perchè l'OSD non funzia in gioco con le dx12), se il buongiorno si vede dal mattino mi sà che la 980ti la sfrutto più a lungo, altro che Pascale :D
Ottima notizia ;)
Darrosquall
12-03-2016, 12:12
Quello che dicevo ieri, se le nVidia le sistemano con i driver e ci associ le DX12, potenzialmente si può tirare per più tempo oppure passare ora allo SLI e poi cambiare tutto nel 2017.
Io in attesa che arrivi il monitor 21:9 aspetto Maggio/Giugno che ormai sicuro esce qualcosa, poi decido, anche perchè poi si passa direttamente al back to school (quindi settembre/ottobre) e non vale più la pena cambiare, arrivato a fine anno tiri ormai inizio 2017 e sei sicuro di non fare caxxate.
Quindi Maggio/Giugno per me ultima finestra, poi o nuova VGA o SLI di 980Ti G1 Gaming OC e full WB EK.
una curiosità, a cosa giochi?
ho preso circa 10fps medi in tomb raider tra dx11 e dx12 a parità di impostazioni e frequenze (qui devo vedere il log di AB se funzia, perchè l'OSD non funzia in gioco con le dx12), se il buongiorno si vede dal mattino mi sà che la 980ti la sfrutto più a lungo, altro che Pascale :D
Ottimo, riesci a testarlo nelle stesse condizioni di questo articolo http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/38457-rise-of-the-tomb-raider-unter-directx-12-und-mit-vxao-amd-und-nvidia-verlieren-leistung.html così da avere un quadro della situazione più chiaro ?
appleroof
12-03-2016, 12:17
Quello che dicevo ieri, se le nVidia le sistemano con i driver e ci associ le DX12, potenzialmente si può tirare per più tempo oppure passare ora allo SLI e poi cambiare tutto nel 2017.
Io in attesa che arrivi il monitor 21:9 aspetto Maggio/Giugno che ormai sicuro esce qualcosa, poi decido, anche perchè poi si passa direttamente al back to school (quindi settembre/ottobre) e non vale più la pena cambiare, arrivato a fine anno tiri ormai inizio 2017 e sei sicuro di non fare caxxate.
Quindi Maggio/Giugno per me ultima finestra, poi o nuova VGA o SLI di 980Ti G1 Gaming OC e full WB EK.
un'idea potrebbe pure essere aspettare con la 980ti la prossima top (l'omologa di gm200 insomma, se nvidia continua con la politica del chippino seguito dal chippone), e vedere pure le polaris, nel frattempo monitorare la situazione driver di entrambe e inoltre valutare con un parco giochi dx12 che diano una media più credibile
Ottima notizia ;)
infatti sono proprio contento del risultato di TR :D :)
inoltre così ad occhi il VXAO è una tecnica eccellente come resa visiva rispetto ad hbao+ che già era buona, magari per sfizio proverò a vedere quanto pesa in termini prestazionali pure
appleroof
12-03-2016, 12:18
Ottimo, riesci a testarlo nelle stesse condizioni di questo articolo http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/38457-rise-of-the-tomb-raider-unter-directx-12-und-mit-vxao-amd-und-nvidia-verlieren-leistung.html così da avere un quadro della situazione più chiaro ?
Exes questo è il mio bench con le impo http://hwupgrade.it/forum/showpost.php?p=43468557&postcount=17261
se vuoi altre prove vieni nel thread della 980ti che le facciamo :)
appleroof
12-03-2016, 13:00
come non detto http://hwupgrade.it/forum/showpost.php?p=43468800&postcount=17273 :fagiano:
appleroof
12-03-2016, 13:17
I vantaggi delle dx12 non saranno mai apprezzabili in un titolo che è pensato per dx11 e poi patchato per dx12.
Le dx12 non permettono prestazioni maggiori in quello che già si fa in dx11, le dx12 permettono di fare quello che prima non si poteva fare.
Probabilmente è così, per esempio negli rts puoi avere decine di migliaia di unità a schermo e tenere un fr giocabile laddove a parità di condizioni in dx11 sarebbe uno slide show...
ecco il problema :D
oramai è abbastanza diffuso il pensiero che amd sia un brand al quale rivolgersi per risparmiare a differenza di intel e nvidia
chi compra cpu amd lo fa per spendere meno..è palese da anni... peccato che consumino un botto di watt in piu e alla lunga ..il risparmio lo ocnsumi in bollette piu salate xD
sulle gpu il trend è sempre piu simile
ne è la riprova le fury..top di gamme snobbate dagli stessi fan di amd
qui i fan di amd non mancano eppure il thread delle fury è una desolazione rispetto a quello delle 980ti
e allora di cosa parliamo se..ci si limita a chiacchierare nei forum e poi non si comprano le fury?
per invertire il trend amd dovrebbe riuscire nella impresa di convincere gli utenti che oggi comprano nvidia... ma se nvidia non floppa in qualche sua uscita la vedo molto difficile...perche se amd spera di stravendere con i suoi "fan" di vecchia data...mission impossible
In qualsiasi negozio di informatica entrerai e chiederai una scheda, l'omino ti dirà : Nvidia! Sono le più potenti, senza nemmeno dirti il modello, il mercato è questo, se c'è un prodotto che tira di più e mi concede margini migliori, non mi preoccupo di certo che un eventuale marchio fallisca. Ormai è molto tempo che esiste il luogo comune che tutte le nvidia vanno meglio delle amd, la fetta della clientela che porta i veri guadagni è informaticamente analfabeta e si ciuccia qualsiasi cosa. Se amd tirasse fuori il prodotto perfetto al prezzo perfetto comunque non riuscirebbe a salire la china velocemente, mancherebbero le quantità perché questo avvenga. L'unica speranza che possiamo nutrire noi acquirenti pro, è quello che amd la prenda un colosso mondiale.
Darrosquall
12-03-2016, 13:33
Il discorso è che a parità di prezzo e performance, io scelgo nvidia, c'è poco da fare. E' una questione di opportunità, alla fine i giochi sono ottimizzati maggiormente su nvidia e sono più celeri coi driver, in più hanno sviluppato tecnologie che sono "proprietarie" e amen, se compri amd non le trovi.
Ero indeciso tra la 970 e la 390, ma alla fine ho giusto sacrificato forse un paio di frame in più sui giochi, in cambio di consumi di un 50 per cento più bassi, e di temp nettamente migliori...
fraussantin
12-03-2016, 14:08
Il discorso è che a parità di prezzo e performance, io scelgo nvidia, c'è poco da fare. E' una questione di opportunità, alla fine i giochi sono ottimizzati maggiormente su nvidia e sono più celeri coi driver, in più hanno sviluppato tecnologie che sono "proprietarie" e amen, se compri amd non le trovi.
Ero indeciso tra la 970 e la 390, ma alla fine ho giusto sacrificato forse un paio di frame in più sui giochi, in cambio di consumi di un 50 per cento più bassi, e di temp nettamente migliori...
Esatto . Poi la 390 "forse" partirà tra un paio di anni col l'uso massiccio delle dx12. Ma ad oggi non vale il gioco.
Poi non costa mica meno anzi vogliono più soldi ...
fireradeon
12-03-2016, 14:14
una curiosità, a cosa giochi?
Attualmente Divinity original sin, ma ho da parte TW3 che voglio giocare in 21.9 con mod grafiche etc., poi ho da parte anche Fallout 4 (stesso discorso per tw3)., TR di cui si parlava prima anche quello da parte fino alle modifiche appena uscite, poi Quantum Break vediamo le rece day one (altro mattone grafico) etc etc fini al prossimo BF5 di fine anno visto che adoro gli fps e li vorrei i 100 fissi 21.9. Mi serve la potenza o no prof? ;)
Bartsimpson
12-03-2016, 14:16
Anche io ero indeciso tra le 2 ma, nel mio ragionamento, ho incluso anche la vram che nella 390 era 8gb. Oramai i giochi nuovi tendono a divorare la vram come popcorn al cinema! Alla fine ho comunque combattuto la scimmia e ho deciso di aspettare la prossima generazione. Vorrei anche acquistare un monitor 2k e non ho alcuna voglia di andare di SLI/Crossfire
aled1974
12-03-2016, 14:52
Le tecnologie proprietarie non sono da strapparsi i capelli al momento, physix non le sento più nominare, cos'è rimasto?
http://images.nvidia.com/products/geforce_3d_vision2_glasses_kit/geforce-3d-vision2-glasses-kit-low-3qtr.png
:asd:
tornando a noi, novità concrete su Pascal? qualche data, rumor, foto, altro?
ciao ciao
mikael84
12-03-2016, 15:01
Esatto, proprio quello di cui parlavo qualche post indietro.
Mi sembrano un sacco di luoghi comuni messi insieme.
Di driver ultimamente nvidia meglio non parlarne e con questo non voglio fare il fanboy che dice che gli altri sono meglio, anzi voglio essere realista ed evidenziare che i pasticci li fanno tutti.
Le tecnologie proprietarie non sono da strapparsi i capelli al momento, physix non le sento più nominare, cos'è rimasto?
No parliamone, la stabilità di questo driver è eccezionale, mai e dico mai un problema. Lato driver non cambierei con nulla. Però sulle mie esigenze, W7 e single monitor.
Supporto SLI quasi sempre al d1, o poco dopo, male andando lo forzi da inspector e dormi tranquillo.
Physx non ha ultimamente molto supporto ma è stato molto utile vedi Mafia 2 /batman, un qualcosa di aggiunto e non da buttare di certo.
Lato driver, Nvidia è superiore e te lo dico obbiettivamente, provando le varie AMD di cui ho ottimi ricordi come le 7970;)
illidan2000
12-03-2016, 15:08
Ieri ho imprecato un po' io invece, per i driver. Schermate blu in fase di installazione. Come non ne vedevo da anni... Al quinto tentativo ci sono riuscito
Tapatalked
Bartsimpson
12-03-2016, 15:08
Saranno stati questi rumor sulle nuove uscite... intanto poco fa sul mercatino è già apparsa una 980 a 200 Euro... ok reference ma fino a poco fa gli utenti vendevano le 970 a 270 Euro... :doh:
amon.akira
12-03-2016, 15:11
ieri ho aggiornato ai 364.51whql per provare tomb raider dx12, dopo 5ore ho dovuto fare il rollback ai 362.00 poichè mi sono beccato 2blackscreen in idle...nel parlano anche sul forum ufficiale ma sembra che non capita a tutti, quindi aspetto i prox.
però per dire con amd non mi è mai capitato un rollback...anche perchè uscivano ogni tot mesi :P
DarkNiko
12-03-2016, 15:22
Ho già pronta la lista in Excel dei polli che prenderanno GP104 al lancio per poi cambiarlo per GP100 6 mesi dopo. Chi si iscrive per primo ? :asd:
amon.akira
12-03-2016, 15:29
ovviamente tu prenderai la Titan Y :D
CiccoMan
12-03-2016, 15:29
Ho già pronta la lista in Excel dei polli che prenderanno GP104 al lancio per poi cambiarlo per GP100 6 mesi dopo. Chi si iscrive per primo ? :asd:
Vale ache se invece di cambiarla le tengo entrambe? Casomai il mio nome puoi segnarcelo già da ora...
Kingdemon
12-03-2016, 15:44
Saranno stati questi rumor sulle nuove uscite... intanto poco fa sul mercatino è già apparsa una 980 a 200 Euro... ok reference ma fino a poco fa gli utenti vendevano le 970 a 270 Euro... :doh:
Secondo me è un errore di valutazione.. mi sono messo in coda ma tardi. Tra l'altro consegna a mano e sono della zona.
Però ho notato che molti vendono 980 custom sui 400. Ce ne sono parecchie..
Scarseggiano invece le 970 e sono sovrapprezzate. E' già tanto che tolgono tutta l'iva.
L'altro giorno ne ho mancata una phantom a 250 spedita.. non mal. L'unica che ho visto a prezzo giusto.
La 670 con The Division fa fatica e se trovo un buon usato lo prendo.
Avrei la possibilità di prendere una 290 liscia a 180 ma non mi convince molto per il discorso calore e consumi visto che al momento gioco con l'htpc.
TigerTank
12-03-2016, 16:01
Le tecnologie proprietarie non sono da strapparsi i capelli al momento, physix non le sento più nominare, cos'è rimasto?
Beh dici poco, il gsync è una meraviglia ed il dsr ha soppiantato alla grande il precedente downsampling manuale che comportava casini spesso e volentieri.
Ma d'altronde c'è gente a cui vien facile criticare e parlare a vanvera senza avere la minima esperienza pratica di ciò di cui parla :D
Comunque mi chiedo il perchè continui a dire che stai valutando le nuove nvidia quando stai continuando volutamente a denigrare le nvidia e ad incensare le amd...nel thread sbagliato :sofico:
Beh dici poco, il gsync è una meraviglia ed il dsr ha soppiantato alla grande il precedente downsampling manuale che comportava casini spesso e volentieri.
Ma d'altronde c'è gente a cui vien facile criticare e parlare a vanvera senza avere la minima esperienza pratica di ciò di cui parla :D
Comunque mi chiedo il perchè continui a dire che stai valutando le nuove nvidia quando stai continuando volutamente a denigrare le nvidia e ad incensare le amd...nel thread sbagliato :sofico:
Perchè si so stancati di darsi le pacche sulle spalle tra loro :asd:
Spider-Mans
12-03-2016, 16:13
Beh dici poco, il gsync è una meraviglia ed il dsr ha soppiantato alla grande il precedente downsampling manuale che comportava casini spesso e volentieri.
Ma d'altronde c'è gente a cui vien facile criticare e parlare a vanvera senza avere la minima esperienza pratica di ciò di cui parla :D
Comunque mi chiedo il perchè continui a dire che stai valutando le nuove nvidia quando stai continuando volutamente a denigrare le nvidia e ad incensare le amd...nel thread sbagliato :sofico:
ma dai...è cosi palese il perche :asd:
Perchè si so stancati di darsi le pacche sulle spalle tra loro :asd:
e spesso senza comprare le nuove schede amd uscite nell ultimo anno..ribadiamolo eh
perfetti user amd dal 20% di share market :stordita: che poi quando escono i dati di vendita se la prendono col marketing..con le congiunture astrali e con nvidia che è brutta e cattiva :asd:
Ho già pronta la lista in Excel dei polli che prenderanno GP104 al lancio per poi cambiarlo per GP100 6 mesi dopo. Chi si iscrive per primo ? :asd:
vale anche se in un anno solare ne cambi tre? :asd:
970 appena presa da amazon (marzo 2016) -> pascal 1080 (settembre 2016) -> pascal_TI (q2 2017)
purche la pascal x80/x70 meriti e quindi vada di piu di una 980ti e costi meno della attuale 980ti
..altrimenti aspettero la pascal_TI direttamente
vediamo
Spider-Mans
12-03-2016, 16:24
era stato gia postato?
http://wccftech.com/nvidia-pascal-gtx-1080-8gb-1070-launching-summer-debut-april-gtc-2016/
That is Pascal will debut at GTC and launch at Computex. Interestingly, we’ve also just received another report indicating that a GTX 1070 launch will accompany the GTX 1080 and will be available in Q3 2016 this summer.
insomma estate (inizio o fine cambia poco)
fraussantin
12-03-2016, 16:25
Esatto, proprio quello di cui parlavo qualche post indietro.
Mi sembrano un sacco di luoghi comuni messi insieme.
Di driver ultimamente nvidia meglio non parlarne e con questo non voglio fare il fanboy che dice che gli altri sono meglio, anzi voglio essere realista ed evidenziare che i pasticci li fanno tutti.
Le tecnologie proprietarie non sono da strapparsi i capelli al momento, physix non le sento più nominare, cos'è rimasto?
Obbiettivamente le twcnologie proprietarie per quanto siano da boicottare sono una realtà.
Fisica capelli gameworks , prima o poi veranno sostituiti , ma nei game dove sono implementate ci resteranno a vita.
Sui titoli nuovo ci saranno tecnologie nuove e ci vorranno vga nuove.
E sono state queste tecnologie assieme ai loghi pre game a portare nvida al successo.
Io ancora devo trovare un retsil che consiglia le verdi. Tutti consigliano le rosse , addirittura qualcuno ( e non pochi ) consigliano gli fx.
Dalle mie parti. Inutile da fare ci marginano sopra.
Poi è l'utente che vede loghi intel e nvidia ovunque e non vuole amd.
DarkNiko
12-03-2016, 16:31
ovviamente tu prenderai la Titan Y :D
Infatti aspetto, GP104 per me rimane sullo scaffale, fermo restando che gioco divinamente a tutto già con la scheda in firma. :p
Goofy Goober
12-03-2016, 16:32
era stato gia postato?
http://wccftech.com/nvidia-pascal-gtx-1080-8gb-1070-launching-summer-debut-april-gtc-2016/
That is Pascal will debut at GTC and launch at Computex. Interestingly, we’ve also just received another report indicating that a GTX 1070 launch will accompany the GTX 1080 and will be available in Q3 2016 this summer.
insomma estate (inizio o fine cambia poco)
quindi classico lancio con X80 e X70 come avvenuto da.... un sacco di anni :asd:
e ne parlano come se fosse una "novità" :fagiano: "interestingly...." ma cosa su....
sarebbe stato interessante se fosse uscita da sola la 1070, o direttamente la 1080ti...
invece si ipotizza tramite rumor il solito tran-tran.
Spider-Mans
12-03-2016, 16:34
quindi classico lancio con X80 e X70 come avvenuto da.... un sacco di anni :asd:
e ne parlano come se fosse una "novità" :fagiano: "interestingly...." ma cosa su....
sarebbe stato interessante se fosse uscita da sola la 1070, o direttamente la 1080ti...
invece si ipotizza tramite rumor il solito tran-tran.
vapor rumor :asd:
Goofy Goober
12-03-2016, 16:36
vapor rumor :asd:
vapor rumor for paper launch of same overpriced midrange chip.
e caghiamoci tutti addosso dall'emozione :asd:
Legolas84
12-03-2016, 16:50
e spesso senza comprare le nuove schede amd uscite nell ultimo anno..ribadiamolo eh
perfetti user amd dal 20% di share market :stordita: che poi quando escono i dati di vendita se la prendono col marketing..con le congiunture astrali e con nvidia che è brutta e cattiva :asd:
È perchè vogliono convincere noi a comprarle così poi loro si prendono una GeForce :asd:
Legolas84
12-03-2016, 16:55
Invece io non capisco perché ogni tanto venite fuori con queste uscite flammose e inventate.
Io non ho assolutamente denigrato o incensato nulla.
Forse è perchè dopo un pò ci stufiamo? ;)
TigerTank
12-03-2016, 17:01
Ho già pronta la lista in Excel dei polli che prenderanno GP104 al lancio per poi cambiarlo per GP100 6 mesi dopo. Chi si iscrive per primo ? :asd:
Con molta riserva e mai più al lancio.
Viste le "furbatine" del passato ormai ho una checklist pre-upgrade che comprende cose tipo "regolatore di voltaggio non bloccato", "resa overclock/overvolt", "prezzo decente", "vram effettiva" e con le pascal anche "vediamo se con le dx12 native staccano o anche le gtx980Ti ne beneficiano così tiro idealmente fino alla 1080Ti".
Poi beh...contrariamente al fatto che il mio post sopra mi faccia sembrare un fanboy, sono anche molto interessato a vedere le Polaris vista la collaborazione AMD-Samsung sulle gpu con relativo balzo ai 14nm.
quindi classico lancio con X80 e X70 come avvenuto da.... un sacco di anni :asd:
e ne parlano come se fosse una "novità" :fagiano: "interestingly...." ma cosa su....
sarebbe stato interessante se fosse uscita da sola la 1070, o direttamente la 1080ti...
invece si ipotizza tramite rumor il solito tran-tran.
Secondo me seguirà lo stesso andazzo delle maxwell(gtx970/gtx980 estate/autunno 2014 - titanX primavera 2015 - Ti estate 2015), complice anche il fatto che le HBM2 saranno pronte in volumi più avanti mentre le GDDR5X tra estate e back to school.
:rotfl:
Si sono tecnologie proprietarie ma non sono limitanti perché amd ha un'equivalente.
Invece io non capisco perché ogni tanto venite fuori con queste uscite flammose e inventate.
Io non ho assolutamente denigrato o incensato nulla.
Praticamente il tuo quote è una contraddizione con autogol. Se non te n'accorgi da solo... :flower:
:asd:
killeragosta90
12-03-2016, 17:13
Questo è l'anno della SCIMMIA..........e io NON DEVO PIU' ENTRARE IN QUESTO THREAD....
.....NON DEVO PIU' ENTRARE IN QUESTO THREAD....NON DEVO PIU' ENTRARE IN QUESTO THREAD....NON DEVO PIU' ENTRARE IN QUESTO THREAD....NON DEVO PIU' ENTRARE IN QUESTO THREAD....NON DEVO PIU' ENTRARE IN QUESTO THREAD....NON DEVO PIU' ENTRARE IN QUESTO THREAD....NON DEVO PIU' ENTRARE IN QUESTO THREAD....NON DEVO PIU' ENTRARE IN QUESTO THREAD....NON DEVO PIU' ENTRARE IN QUESTO THREAD....NON DEVO PIU' ENTRARE IN QUESTO THREAD....NON DEVO PIU' ENTRARE IN QUESTO THREAD....NON DEVO PIU' ENTRARE IN QUESTO THREAD....NON DEVO PIU' ENTRARE IN QUESTO THREAD....NON DEVO PIU' ENTRARE IN QUESTO THREAD....NON DEVO PIU' ENTRARE IN QUESTO THREAD....NON DEVO PIU' ENTRARE IN QUESTO THREAD....NON DEVO PIU' ENTRARE IN QUESTO THREAD....NON DEVO PIU' ENTRARE IN QUESTO THREAD....NON DEVO PIU' ENTRARE IN QUESTO THREAD....NON DEVO PIU' ENTRARE IN QUESTO THREAD.........
..............aiutoooo non funziona, lo controllo ogni 2-3 nuovi post :cry: :cry: :cry:
Obrigado
12-03-2016, 17:29
Scusa perché per te se dico che amd ha tecnologie equivalenti a gsync e dsr sto denigrando nvidia e decantando amd?
Ah scusa allora se la metti così hai ragione... solo nel tuo mondo, però hai ragione.
hai l'esperienza enthusiast delle figurine panini e vieni a parlare di hardware e tecnologie con gente che ha speso in hardware l'equivalente di un monolocale in via monte napoleone......
ma per favore....
Oirasor_84
12-03-2016, 17:44
hai l'esperienza enthusiast delle figurine panini e vieni a parlare di hardware e tecnologie con gente che ha speso in hardware l'equivalente di un monolocale in via monte napoleone......
ma per favore....
Perchè adesso uno per poter postare da appassionato deve per forza aver speso migliaia di euro in hardware,della serie che se non hai un 5960k e 2 titanx non se degno di commentare e il tuo sapere vale come il 2 coppe quando la briscola è a mazze... complimenti per il post
Goofy Goober
12-03-2016, 18:01
Perchè adesso uno per poter postare da appassionato deve per forza aver speso migliaia di euro in hardware,della serie che se non hai un 5960k e 2 titanx non se degno di commentare e il tuo sapere vale come il 2 coppe quando la briscola e mazze... complimenti per il post
hai colto allo 0% il post di obrigado.
non c'entra una sega aver comprato 24 Titan e 14 Fury X, c'entra quanto hardware tocchi, provi, cambi...
uno può spendere l'equivalente di 5 Titan e 5 5960X solo cambiando hardware che costa 1/5 di quella cpu e gpu, e alla fine chi ha "più esperienza"?
quello col 4way di Titan nuove di pacca? :stordita:
Obrigado
12-03-2016, 18:07
bla bla bla
parlate al vento senza cognizione di causa...
chi ha portato la sincronizzazione variabile sui monitor?
nvidia
chi ha seguito?
amd
chi ha integrato un modulo hardware in grado di replicare i frame sotto 30/45?
risposta: nvidia
chi ha seguito?
amd sui monitor con freesync, andando sotto il minimo del refresh consentito si sottoponeva l'utente a flicker e stutter + tearing
cosa risolta con i driver di dicembre 2015 con un mezzo hack da verificare se funzionante con tutti i giochi aka: Low Framerate Compensation
chi ha la migliore gestione refresh variabile con annessa gestione dell'overdrive?
nvidia! grazie a refresh da 10 fino a 144hz e overdrive sempre abilitato.
chi ha problemi?
amd! visto che i monitor non sempre hanno il freesync funzionante nel range massimo e overdrive spesso non funzionante.
https://www.youtube.com/watch?v=VkrJU5d2RfA
ps: ho avuto tutti i monitor g-sync in commercio e i seguenti freesync: asus mg279q benq xl2730z e samsung U32E850R
quindi basta sparare minchiate e tornatevene nei thread aspettando i miracoli di amd
nelle vostre stupide critiche siete informativi e utili come un ombrello durante un uragano.....
Obrigado
12-03-2016, 18:16
OMG ancora il video di quello con l'oscilloscopio :rotfl:
Seriamente... gsync è un sistema a livello più user friendly.
I monitor sono certificati da nvidia ed è un sistema più plug and play.
I monitor compatibili con freesync hanno in vasta gamma, dai fuffa agli equivalenti gsync e l'overdrive che in gsync viene fatto dal modulo nvidia viene fatto da un modulo separato, quindi altro fattore da verificare.
Io mi sto interessando per un monitor e visto che i gsync sono fuori budget ho guardato quelli freesync, bisogna stare attenti e leggere bene recensioni approfondite perchè uno ha un range schifoso, uno ha un overdrive penoso e via dicendo.
Certo se dici "spendo" ci sono monitor con i controcazzi an che freesync, se no ti informi come si è sempre fatto.
allora sai che devi fare?
leggere tanto e scrivere poco.
perche' fino ad ora hai fatto disinformazione.
chiuso argomento.
tornate piuttosto a parlare di gpu e quelle maledette gdrr5x
A costo di farmi bannare dall'uomo col piede di porco, lo ripeto: internet sta rovinando le persone.
Postare e seguire i thread sulle VGA sta diventando ogni giorno più difficile...ti fa scemare la passione.
Io passo...tornerò, forse, quando usciranno Pascal e Polaris. FORSE.
Mi manca Halduemilauno e ho detto tutto.
Oirasor_84
12-03-2016, 18:24
hai colto allo 0% il post di obrigado.
non c'entra una sega aver comprato 24 Titan e 14 Fury X, c'entra quanto hardware tocchi, provi, cambi...
uno può spendere l'equivalente di 5 Titan e 5 5960X solo cambiando hardware che costa 1/5 di quella cpu e gpu, e alla fine chi ha "più esperienza"?
quello col 4way di Titan nuove di pacca? :stordita:
No l'ho colto per quello che ha scritto ne più ne meno è chiaro e limpido quello che ha lasciato intendere con il post scritto "e vieni a parlare di hardware e tecnologie con gente che ha speso in hardware l'equivalente di un monolocale in via monte napoleone" con questa frase esattamente cosa si vuole far capire? Considerando il fatto che non conosce l'esperienza dell'altro utente e basa tutto il suo sapere dai pc in firma,deduco che il suo post è frutto di fanboysmo,almeno io la vedo così poi posso anche sbagliarmi.
Legolas84
12-03-2016, 18:27
Mi manca Halduemilauno e ho detto tutto.
Quello si che era un utente preparato.... ma che fine ha fatto?
Comunque in 14 anni ne ho visti utenti competenti passare per questa sezione, come ad esempio Yagami, Pandyno ecc.... purtroppo però ora la situazione è questa :(
Quello si che era un utente preparato.... ma che fine ha fatto?
Comunque in 14 anni ne ho visti utenti competenti passare per questa sezione, come ad esempio Yagami, Pandyno ecc.... purtroppo però ora la situazione è questa :(Halduemilauno, anche se con una spiccata natura verde, era molto ben preparato e sapeva come far valere i suoi punti di vista in modo civile ed educato. Ora posta in altre sezioni.
Ti sei dimenticato l'intramontabile Yossarian...un concentrato di conoscenze come ne ho visti pochi.
Ma almeno è ritornato Bjt2, dai...sta dando un grandissimo contributo sul thread di Zen.
Comunque, se non verrò bannato per l'intervento di prima, ci sarò nei thread non legati alle VGA. Un saluto a tutti. :)
Obrigado
12-03-2016, 18:36
No l'ho colto per quello che ha scritto ne più ne meno è chiaro e limpido quello che ha lasciato intendere con il post scritto "e vieni a parlare di hardware e tecnologie con gente che ha speso in hardware l'equivalente di un monolocale in via monte napoleone" con questa frase esattamente cosa si vuole far capire? Considerando il fatto che non conosce l'esperienza dell'altro utente e basa tutto il suo sapere dai pc in firma,deduco che il suo post è frutto di fanboysmo,almeno io la vedo così poi posso anche sbagliarmi.
e ti sbagli alla grande.
se nella tua vita hai comprato 3 vga e 3 mobo non puoi essere lucido e affidabile nei giudizi, ne tantomeno autorevole.
se provi tutto e magari lo fai pure di mestiere.... hai tutta un'altra visione.
capisci che se viene bivvoz a dire che i monitor freesync sono superiori e non ne possiede uno, ne freesync e ne g-sync.... capisci capisci cavolo!!!! e' come se io ti dicessi che la ferrari e' inferiore o superiore ad una mclaren p1.... che valore ha se non ne ho mai guidata una?
ribadisco, stop a questi ot amd da parte di te e l'altro e torniamo a parlare di GPU in maniera costruttiva e oggettiva.
Obrigado
12-03-2016, 18:47
capisco che chi lo fa di mestiere sa bene di cosa parla o come anche gli appassionati, ma non può passare il concetto di san Tommaso.
chi non può cosa fa? il solo modo è informarsi in rete per quel che riesce o trova, però non mi pare ci sia scritto che per far parte di un forum si debba essere utenti laureati in informatica o ingegneria elettronica...
ps. e poi ci sono modi e modi di porsi a prescindere da tutto, dopotutto si sta parlando soltanto di schede video...
si ma esiste "chiedere un parere" e non predicare cose che non si sanno.
esiste l'umilta.....cosa che negli ultimi anni e' svanita in favore del fanboysmo cieco.
ma tu cosa credi che io compro solo nvidia e intel?
tu non puoi neanche immaginare quanto hardware ho avuto.... e ci sono stati periodi in cui per me esisteva solo amd e ati.
Spider-Mans
12-03-2016, 18:48
e ti sbagli alla grande.
se nella tua vita hai comprato 3 vga e 3 mobo non puoi essere lucido e affidabile nei giudizi, ne tantomeno autorevole.
se provi tutto e magari lo fai pure di mestiere.... hai tutta un'altra visione.
capisci che se viene bivvoz a dire che i monitor freesync sono superiori e non ne possiede uno, ne freesync e ne g-sync.... capisci capisci cavolo!!!! e' come se io ti dicessi che la ferrari e' inferiore o superiore ad una mclaren p1.... che valore ha se non ne ho mai guidata una?
ribadisco, stop a questi ot amd da parte di te e l'altro e torniamo a parlare di GPU in maniera costruttiva e oggettiva.
limpido
ma poi io non capisco una cosa che mi pare abbastanza semplice
questo thread non si chiama "nvidia vs amd: divertitevi"
si chiama semplicemente " Aspettando le nuove vga nVidia"
se io sono interessato ad acquistare nvidia..posto..altrimenti evito..o quantomeno evito di fare vga wars da 4 soldi
ad esempio al moemnto evito il thread radeon...perche non mi interessa..ma in passato ho comprato vga ati..
è tanto difficile capirlo?
altri utenti che postano qui per caso vanno nel thread radeon a stuzzicare o evidenziare i fallimenti di amd? non mi pare
invece qui..è un via vai di fan rossocrociati :asd:
sembra che vogliano convincerci che sia meglio amd..pero non danno il buon esempio acquistando in massa le fury
qualcosa non mi torna xD
Spider-Mans
12-03-2016, 18:55
ps. e poi ci sono modi e modi di porsi a prescindere da tutto, dopotutto si sta parlando soltanto di schede video...
ma vuoi parlare di amd? farlo nel thread di amd?
no? ah ecco
Oirasor_84
12-03-2016, 19:02
e ti sbagli alla grande.
se nella tua vita hai comprato 3 vga e 3 mobo non puoi essere lucido e affidabile nei giudizi, ne tantomeno autorevole.
se provi tutto e magari lo fai pure di mestiere.... hai tutta un'altra visione.
capisci che se viene bivvoz a dire che i monitor freesync sono superiori e non ne possiede uno, ne freesync e ne g-sync.... capisci capisci cavolo!!!! e' come se io ti dicessi che la ferrari e' inferiore o superiore ad una mclaren p1.... che valore ha se non ne ho mai guidata una?
ribadisco, stop a questi ot amd da parte di te e l'altro e torniamo a parlare di GPU in maniera costruttiva e oggettiva.
Ma il punto non è quanta esperienza abbia l'utente bivvoz,non ti seccare se te lo ripeto tu avrai le tue buone ragioni il tuo bagaglio di esperienze che ti porta a fare determinate scelte hardware,ma quel post per come lo hai scritto è il risultato di uno che parte prevenuto visto che l'utente bivvoz non ha scritto da nessuna parte che freesync sia migliore e che sia uscito prima di gsync,ma solo che amd ha tale feature punto.
Obrigado
12-03-2016, 19:12
Ma il punto non è quanta esperienza abbia l'utente bivvoz,non ti seccare se te lo ripeto tu avrai le tue buone ragioni il tuo bagaglio di esperienze che ti porta a fare determinate scelte hardware,ma quel post per come lo hai scritto è il risultato di uno che parte prevenuto visto che l'utente bivvoz non ha scritto da nessuna parte che freesync sia migliore e che sia uscito prima di gsync,ma solo che amd ha tale feature punto.
lo ha scritto nei thread dei monitor, nei thread amd con chiaro sfotto' per gli utenti nvidia e lo ha detto qui.
siccome non ne potevo piu' di sentire cose devianti, mi sono sentito in dovere di parlare, visto che cercavo info su 1070 e 1080 e ho trovato strofe di poesie che mi logoravano
ribadisco.
STOP A QUESTO OT!
Obrigado
12-03-2016, 19:20
riassumendo i rumor:
GTX 1080/1070:
paper launch in April
physical launch in May 27th
GP104 Pascal GPU
16nm FinFET process
8GB GDDR5X memory
256Bit memory interface
352GB/s of bandwidth
one 8pin power connector
maximum power consumption 225W
1x DVI, 1x HDMI, 2x DisplayPort
escluderei le memorie gddr5x prodotte da micron, visto che ha chiaramente detto di riuscire a produrle in volumi solo a fine estate.
pertanto o i rumor sulle gddr5x sono sbagliati oppure samsung e sk hynix sono avanti con la produzione.
altrimenti, se nessuno ha gddr5x al momento, dovranno avere le hbm2....
info: http://www.anandtech.com/show/10017/micron-reports-on-gddr5x-progress
dopo lo scandalo gtx 970 non so se la 1070 avra' semplicemente uno shader cut/down e 8gb full oppure sia shader cut/down che 6gb(ma qui non avendo info sull'architettura e sulle rop rimane difficile fare previsioni)
TigerTank
12-03-2016, 19:42
Lascia perdere, io ho detto le cose come stanno anzi ho parlato delle minchiate di amd tralasciando quelle di nvidia onde evitare flame.
Ho parlato del pessimo marketing di amd, del fatto che gsync è più user friendly e l'ho fatto solo perchè è vero e mi reputo obbiettivo
Ma se vedono "amd" in un post vedono rosso e partono alla carica come i tori senza manco leggere il contenuto del post.
Tuo post (http://www.hwupgrade.it/forum/showpost.php?p=43436429&postcount=21869) del 2 marzo, ti contraddici da solo :doh:
riassumendo i rumor:
GTX 1080/1070:
paper launch in April
physical launch in May 27th
GP104 Pascal GPU
16nm FinFET process
8GB GDDR5X memory
256Bit memory interface
352GB/s of bandwidth
one 8pin power connector
maximum power consumption 225W
1x DVI, 1x HDMI, 2x DisplayPort
escluderei le memorie gddr5x prodotte da micron, visto che ha chiaramente detto di riuscire a produrle in volumi solo a fine estate.
pertanto o i rumor sulle gddr5x sono sbagliati oppure samsung e sk hynix sono avanti con la produzione.
altrimenti, se nessuno ha gddr5x al momento, dovranno avere le hbm2....
info: http://www.anandtech.com/show/10017/micron-reports-on-gddr5x-progress
dopo lo scandalo gtx 970 non so se la 1070 avra' semplicemente uno shader cut/down e 8gb full oppure sia shader cut/down che 6gb(ma qui non avendo info sull'architettura e sulle rop rimane difficile fare previsioni)
O magari si avranno dei piccoli lotti iniziali e poi il grosso arriverà ad esempio con il back to school. Cosa già successa in passato.
Di sicuro imho avremo 1070/1080 con le GDDR5X e Titan/Ti con le HBM2. Difficilmente vedrei le prime con delle HBM2 e le seconde con delle GDDR5X.
fireradeon
12-03-2016, 19:44
Le 1080 e 1070 avranno semplicemente 16nm e 8gb ddr5 non x a meno di miracoli. Basandoci solo su questo e il bandwidth secondo voi l'incremento massimo quale potrebbe essere rispetto alla Ti?
So che chiedo molto.
TigerTank
12-03-2016, 19:47
Le 1080 e 1070 avranno semplicemente 16nm e 8gb ddr5 non x a meno di miracoli. Basandoci solo su questo e il bandwidth secondo voi l'incremento massimo quale potrebbe essere rispetto alla Ti.
Imho credo che ormai le ddr5 classiche al massimo le ritroveremo sulle 1060 e modelli inferiori.
killeragosta90
12-03-2016, 19:51
UPDATE di queso pomeriggio in una precedente news di Wccftech:
"We’ve reported recently that Nvidia’s CEO Jen-Hsun Huang is planning to unveil the first ever Pascal graphics card at next month’s upcoming GPU Technology Conference. With a plan to launch the first line-up of Pascal graphics cards at Computex this summer. Today, according to a report from benchlife, the graphics card in question to be unveiled next month is the GTX 1080. Based on the GP104 Pascal GPU, boasting 8GB of GDDR5/GDDR5X memory and a single 8-pin connector.
The report indicates that indeed, the rumors that have been floating around in the past couple of weeks seem to be accurate. That is Pascal will debut at GTC and launch at Computex. Interestingly, we’ve also just received another report indicating that a GTX 1070 launch will accompany the GTX 1080 and will be available in Q3 2016 this summer."
Nulla di particolare, riporto per completezza.
EDIT: Bah! L'hanno messa in rilievo tra le notizie più recenti, ma è di ieri, mi son accorto ora, scusate!
Legolas84
12-03-2016, 20:00
GP104 avrà le hbm2 non avrò davvero nessun dubbio a farmi uno SLI e andare avanti fino a volta :D
Inviato dal mio ONE A2003 utilizzando Tapatalk
fireradeon
12-03-2016, 20:12
Imho credo che ormai le ddr5 classiche al massimo le ritroveremo sulle 1060 e modelli inferiori.
Oh decidiamoci se dicono che non saranno prodotte in massa in estate, le hbm2 piú avanti non restano che le ddr5. Facciamo peró finta siano ddr5x ci sta il discorso 256bit? In tal caso possiamo ipotizzare massimo un 15%?
mikael84
12-03-2016, 20:13
riassumendo i rumor:
GTX 1080/1070:
paper launch in April
physical launch in May 27th
GP104 Pascal GPU
16nm FinFET process
8GB GDDR5X memory
256Bit memory interface
352GB/s of bandwidth
one 8pin power connector
maximum power consumption 225W
1x DVI, 1x HDMI, 2x DisplayPort
escluderei le memorie gddr5x prodotte da micron, visto che ha chiaramente detto di riuscire a produrle in volumi solo a fine estate.
pertanto o i rumor sulle gddr5x sono sbagliati oppure samsung e sk hynix sono avanti con la produzione.
altrimenti, se nessuno ha gddr5x al momento, dovranno avere le hbm2....
info: http://www.anandtech.com/show/10017/micron-reports-on-gddr5x-progress
dopo lo scandalo gtx 970 non so se la 1070 avra' semplicemente uno shader cut/down e 8gb full oppure sia shader cut/down che 6gb(ma qui non avendo info sull'architettura e sulle rop rimane difficile fare previsioni)
Obri le GDDR5X attualmente sono solo della Microm (elpida). Questa azienda momentaneamente vuole spingere ancora con tali memorie, mentre samsung ed hynix oltre alle ddr5 punteranno sopratutto sulle HBM/2.
Secondo quanto riportato, loro hanno già pronte tali memorie ma solo la produzione di massa inizierà in estate, ovviamente con qualche obbiettivo.
Con i 20nm solo aumentando il prefetch a 16n potrebbero raggiungere l'ampiezza di 512gb/s su un 256bit dialogante con 8gb.
Non vedo bene come dicevo anche in altri post le classiche gddr5.
Se progetti un 4 canali a 256bit ti ritrovi una banda tra le 224gb/s/256gb/s, decisamente troppo piccola per tale scheda.
Non vedo bene lo stesso le gddr5x su chip GP106/107 perchè se disegni un 128bit ti ritroveresti la stessa ampiezza di GP104, quindi vedo più probabile che si continui qua con le gddr5 classiche, che verranno elevate a 16g/8ghz.
Io almeno continuo a vederla cosi.
Tesla/GP100= 32/16gb HBM (4x256gb/1TB)
GP104= 256 bit a 4 canali (448gb/s/512gb/s, l'equivalente di un 512bit base ddr5) su un 330/350mm2
GP106= 4/6gb ddr5 su un 128/192(possibile)
Discorso rops ancora è dura prevedere. Io continuo a ipotizzare 3072cuda.
Conoscendo i possibili 4 canali (salvo bus che spiazzante da 5/10gb), potrebbero esserci 6 SMM su GPC con relative 24rops.
768cc su 4 GPC (3072cuda x 96rops)
Oppure puntare a SMX da 192 x4 su ogni GPC dialogante con 64 rops ed anche questo lo escludo, visto che con l'ampiezza molto elevata serviranno anche rops capienti e veloci.
Questo è il mio punto di vista per ora.
Sulla decurtazione, bel problema, le 970 avevano una parte di cache fallata, da li la decurtazione ma attualmente Nvidia non sta più decurtando, neppure sulla fascia bassa. Questo ovviamente è tutto da vedere, come da vedere sarà la quantità di rops finale
TigerTank
12-03-2016, 20:17
Oh decidiamoci se dicono che non saranno prodotte in massa in estate, le hbm2 piú avanti non restano che le ddr5. Facciamo peró finta siano ddr5x ci sta il discorso 256bit? In tal caso possiamo ipotizzare massimo un 15%?
Considerato che di mezzo c'è un nuovo processo produttivo e appunto nuove vram è difficile ipotizzare le prestazioni...mi sa che si vedranno solo nei primi test attendibili.
Circa le vram, GDDR5X (http://wccftech.com/micron-gddr5x-memory-mass-production/) e HBM2 (http://wccftech.com/sk-hynix-hbm2-mass-production-q3-2016/).
Goofy Goober
12-03-2016, 20:30
purtroppo però ora la situazione è questa :(
A dire così sembra che sottintendi che chiunque scriva qui oggi sia una capra. :asd:
Non mi offendo eh, però mi sento chiamato in causa :D
mikael84
12-03-2016, 20:35
Oh decidiamoci se dicono che non saranno prodotte in massa in estate, le hbm2 piú avanti non restano che le ddr5. Facciamo peró finta siano ddr5x ci sta il discorso 256bit? In tal caso possiamo ipotizzare massimo un 15%?
Se il bus sarà gddr5 base su un 256bit, significa che l'ampiezza di banda sarà la stessa della 980. Onestamente mi pare impossibile.
Per ottenere 4/8gb la strada è un'altra ovvero i 512bit.
Con le ddr5 base spunta anche il problema nelle fasce inferiori, perchè in caso di bus a 192bit in gddr5x la X60 avrebbe più banda della x80.
Queste ddr5x dovranno pur utilizzarle.;)
Imho credo che ormai le ddr5 classiche al massimo le ritroveremo sulle 1060 e modelli inferiori.
Quoto
A dire così sembra che sottintendi che chiunque scriva qui oggi sia una capra. :asd:
Non mi offendo eh, però mi sento chiamato in causa :D
Effettivamente :D
Dai dai una 1060 con 6gb di gddr5x,16nm a 200-250€ massimo. Si può fare :sperem:
Spider-Mans
12-03-2016, 21:50
Imho credo che ormai le ddr5 classiche al massimo le ritroveremo sulle 1060 e modelli inferiori.
le ggdr5x per cosa le stanno producendo? immagino per x80 e x70
almeno che non utilizzano hbm2 gia su x80 e x70...ma sai che prezzi xD
illidan2000
12-03-2016, 21:58
Se il bus sarà gddr5 base su un 256bit, significa che l'ampiezza di banda sarà la stessa della 980. Onestamente mi pare impossibile.
Per ottenere 4/8gb la strada è un'altra ovvero i 512bit.
Con le ddr5 base spunta anche il problema nelle fasce inferiori, perchè in caso di bus a 192bit in gddr5x la X60 avrebbe più banda della x80.
Queste ddr5x dovranno pur utilizzarle.;)
non trovi percorribile avere ddr5 a 512bit?
DarkNiko
12-03-2016, 22:24
Ragazzi buonasera.
Vi chiedo scusa ma pongo al thread la seguente domanda. Capisco che il titolo è "Aspettando le nuove VGA NVidia" e che volenti o nolenti si debba parlare di questo, ma è mai possibile inondare le pagine e soprattutto scaldare gli animi sparando sentenze o opinioni basate sul nulla e solo su voci di corridoio peraltro lungi dall'essere confermate ????
Cerchiamo di mantenere il giusto clima di attesa, chiedo troppo ??? :)
TigerTank
12-03-2016, 22:33
le ggdr5x per cosa le stanno producendo? immagino per x80 e x70
almeno che non utilizzano hbm2 gia su x80 e x70...ma sai che prezzi xD
Diciamo che a parte le tempistiche delle HBM2 vedrei un pò difficile avere delle 1070 con HBM2 costose e nuove fiammanti a tipo 400-450€ :D
No secondo me 1070 e 1080 con le GDDR5X ed imho facile che anche AMD segua la stessa strada (http://www.tweaktown.com/news/49694/amd-confirms-use-both-hbm-gddr5-next-gen-polaris-gpus/index.html).
mikael84
12-03-2016, 22:40
non trovi percorribile avere ddr5 a 512bit?
No un bus da 512bit non lo vedo bene, rimango assolutamente dell'idea di un 4 canali 256bit/8g gddr5x.
Ho ipotizzato anche 3072cuda con 6 SMM e 24 rops (6SMMx 4 rops) per GPC.
Anche in rete si ipotizza un tale quantitativo su un presumo 330/350mm2
http://www.3dcenter.org/news/nvidias-gp104-chip-tritt-form-der-geforce-gtx-1080-angeblich-schon-ende-mai
Ecco anche l'ipotesi del bus.
Scarto a priori anche un 384bit su GP104
illidan2000
12-03-2016, 22:56
No un bus da 512bit non lo vedo bene, rimango assolutamente dell'idea di un 4 canali 256bit/8g gddr5x.
Ho ipotizzato anche 3072cuda con 6 SMM e 24 rops (6SMMx 4 rops) per GPC.
Anche in rete si ipotizza un tale quantitativo su un presumo 330/350mm2
http://www.3dcenter.org/news/nvidias-gp104-chip-tritt-form-der-geforce-gtx-1080-angeblich-schon-ende-mai
Ecco anche l'ipotesi del bus.
Scarto a priori anche un 384bit su GP104
384bit ->6gb.... e tutti i rumors dicono 8gb, non mi pare nemmeno a me il caso...
a 3072 cuda, e ddr5x, andrebbe 20-25% in più della 980ti. (550 o 600 euro, tipo la 980 all'uscita)
Ci starebbe una 1070 con un po' meno cuda, e 5-10% più performante della 980ti, sperando di stare nelle 400 euro
killeragosta90
12-03-2016, 23:05
A dire così sembra che sottintendi che chiunque scriva qui oggi sia una capra. :asd:
Non mi offendo eh, però mi sento chiamato in causa :D
Eh! quoto....non dico di non esserlo :stordita: ....ma si può discutere anche senza essere troppo tecnici, non per questo una discussione è per forza di cose meno interessante, basta tener vivo il thread con notizie e rumors, magari senza andare troppo spesso OT....
mikael84
12-03-2016, 23:19
384bit ->6gb.... e tutti i rumors dicono 8gb, non mi pare nemmeno a me il caso...
a 3072 cuda, e ddr5x, andrebbe 20-25% in più della 980ti. (550 o 600 euro, tipo la 980 all'uscita)
Ci starebbe una 1070 con un po' meno cuda, e 5-10% più performante della 980ti, sperando di stare nelle 400 euro
C'è anche un'altro fattore, oltre ai dati puramente tecnici. I boost operativi che tale PP permetterà.
Per ora si presumono 12TF+, questo può significare 1ghz classico su 6k cuda o 1200 su 5144 (che vedo più probabile).
Questo significherebbe avere un margine tra base ed OC più elevato.
Pensa solo che 3072 cuda con 1200mhz producono 7,37TF. 3584cuda con base boost da 980ti(1ghz) produce 7,16TF
Tenendo presente i 2816 cuda di una TI, la futura x80 con tale boost avrebbe già un discreto vantaggio. A tutto ciò si accumula, rops più veloci ed efficienti in decompressione, TMU più veloci, cache sicuramente più ampia(4mb) e banda più elevata, magari smontata leggermente con la x70.
Da tenere presente che gli SMM sul chippone potrebbero essere in stile Kepler con 64 cuda attivi per FP64.
Obrigado
12-03-2016, 23:55
Curioso di capire quanto vantaggio porteranno le hbm2 su una stessa architettura....
Cmq se le gddr5x sono solo micron.... qualcosa non torna sulle date....
Poi chissà se dopo anni di sli classico (afr) non facciano la somma degli shader via nvlink (cosa che aspetto da 10 anni)https://devblogs.nvidia.com/parallelforall/how-nvlink-will-enable-faster-easier-multi-gpu-computing/
Legolas84
13-03-2016, 00:03
A dire così sembra che sottintendi che chiunque scriva qui oggi sia una capra. :asd:
Non mi offendo eh, però mi sento chiamato in causa :D
No goofy... Non è affatto quello che intendevo!
Quello che volevo dire è che anni fa le discussioni erano molto più tranquille e serene, mentre ora a causa di ben noti elementi la situazione è questa... Ma ovviamente non mi riferivo ne a te, ne a mikael, ne a killeraragosta...
Perché ovviamente non siamo tutti onniscenti ci mancherebbe ma penso che il minimo sia contribuire al thread in modo costruttivo mantenendo un clima sereno e cordiale senza fare disinformazione, tifo o ripetere castronerie ad oltranza, se no si crea questo clima in cui anche uno scherzo può venire mal interpretato ;)
E con questo chiudo l'OT solo per spiegare il mio post che poteva essere mal interpretato...
Inviato dal mio ONE A2003 utilizzando Tapatalk
killeragosta90
13-03-2016, 00:19
Perché ovviamente non siamo tutti onniscenti ci mancherebbe ma penso che il minimo sia contribuire al thread in modo costruttivo mantenendo un clima sereno e cordiale senza fare disinformazione, tifo o ripetere castronerie ad oltranza, se no si crea questo clima in cui anche uno scherzo può venire mal interpretato ;)
E' su questo non ci piove, perfettamente d'accordo :)
illidan2000
13-03-2016, 00:41
C'è anche un'altro fattore, oltre ai dati puramente tecnici. I boost operativi che tale PP permetterà.
Per ora si presumono 12TF+, questo può significare 1ghz classico su 6k cuda o 1200 su 5144 (che vedo più probabile).
Questo significherebbe avere un margine tra base ed OC più elevato.
Pensa solo che 3072 cuda con 1200mhz producono 7,37TF. 3584cuda con base boost da 980ti(1ghz) produce 7,16TF
Tenendo presente i 2816 cuda di una TI, la futura x80 con tale boost avrebbe già un discreto vantaggio. A tutto ciò si accumula, rops più veloci ed efficienti in decompressione, TMU più veloci, cache sicuramente più ampia(4mb) e banda più elevata, magari smontata leggermente con la x70.
Da tenere presente che gli SMM sul chippone potrebbero essere in stile Kepler con 64 cuda attivi per FP64.
beh, sì... altrimenti
2816 -> 3072 ci sarebbe solo un 5%, ragionando solo in termini di CUDA... penso che ad un 25% si arrivi, proprio per il ragionamento di cui sopra.
Se riescono a fare anche di meglio, tanto di cappello!
Legolas84
13-03-2016, 09:14
Obri le GDDR5X attualmente sono solo della Microm (elpida). Questa azienda momentaneamente vuole spingere ancora con tali memorie, mentre samsung ed hynix oltre alle ddr5 punteranno sopratutto sulle HBM/2.
Secondo quanto riportato, loro hanno già pronte tali memorie ma solo la produzione di massa inizierà in estate, ovviamente con qualche obbiettivo.
Se questo è vero spero che GP104 esca direttamente a Settembre... in fondo anche GM204 è uscito a settembre :)
mikael84
13-03-2016, 15:01
Curioso di capire quanto vantaggio porteranno le hbm2 su una stessa architettura....
Cmq se le gddr5x sono solo micron.... qualcosa non torna sulle date....
Poi chissà se dopo anni di sli classico (afr) non facciano la somma degli shader via nvlink (cosa che aspetto da 10 anni)https://devblogs.nvidia.com/parallelforall/how-nvlink-will-enable-faster-easier-multi-gpu-computing/
Inizialmente, considerando i tagli previsti (16-32gb) le migliorie saranno solo teoriche con un 256"4=1TB di banda. Attualmente in 1440p il massimo utilizzo di banda è intorno ai 250gb ma in media si sta sui 150/200gb/s, quindi elevare da 448/512 a 1TB/s cambia poco sotto questo aspetto. Salvo bench ovviamente.
Nvlink per ora sarà aperto solo alle GPU (Pascal) e non leva il collo di bottiglia della CPU ma in SLI la situazione sarà decisamente migliore. Ogni linea Nvlink fornisce 20gb su 4 corsie. Dopo overhead sono ben 64gb. Il pci e 16x fornisce 16 linee da 800 mb dopo overhead e 12gb finali. In SLI quindi passando ad 8x la situazione si complica.
Nvlink dovrebbe drasticamente migliorare con volta, dove si spera che anche le CPU intel ed i 200gb/s di volta siamo completamente collegate senza passare sul pci e.:)
Dai dai una 1060 con 6gb di gddr5x,16nm a 200-250€ massimo. Si può fare :sperem:
La x60 molto probabilmente in base ai clock si allineerà con la 970-980.
1536shader su un bus 128bit gddr5x e due canali da 6 SMM.
Oppure utilizzano il classico 4 SMM su 3 canali. E' quindi 1536shader su 3 canali. Ogni canale con 4 SMM e 16 rops può fornire 1536 shader, 48rops e 192bit ddr5 (magari ad 8ghz).
Se il bus è da 192 bit come ultima ipotesi, le schede avranno 3/6gb di vram e prestazioni da 970.
beh, sì... altrimenti
2816 -> 3072 ci sarebbe solo un 5%, ragionando solo in termini di CUDA... penso che ad un 25% si arrivi, proprio per il ragionamento di cui sopra.
Se riescono a fare anche di meglio, tanto di cappello!
Si in base al clock e memorie dovrebbe andare più veloce, tralasciando migliorie varie.
Integrare 3584 cuda la vedo difficile su 4 canali, perchè in questo caso ogni GPC avrebbe 896cuda e non corrisponderebbe nessun SMM.
Con 8 SMM per GPC arrivi a 3584 cuda e 128rops ma questi dovrebbero essere di 112 elementi (quindi escludo) e di conseguenza perderà 4 load store.
Con 6 SMM non trovano proprio spazio, mentre con 4 gli SMM sarebbero da 224 elementi e 64rops (escludo anche questa al momento).
killeragosta90
13-03-2016, 16:28
Nvlink per ora sarà aperto solo alle GPU (Pascal) e non leva il collo di bottiglia della CPU ma in SLI la situazione sarà decisamente migliore. Ogni linea Nvlink fornisce 20gb su 4 corsie. Dopo overhead sono ben 64gb. Il pci e 16x fornisce 16 linee da 800 mb dopo overhead e 12gb finali. In SLI quindi passando ad 8x la situazione si complica.
Nvlink dovrebbe drasticamente migliorare con volta, dove si spera che anche le CPU intel ed i 200gb/s di volta siamo completamente collegate senza passare sul pci e.:)
Ottimo! Magari sarà la volta buona che riprenderò a fare uno SLI con Pascal, viste le teoriche premesse :)
AragornElessar
13-03-2016, 18:43
Inizialmente, considerando i tagli previsti (16-32gb) le migliorie saranno solo teoriche con un 256"4=1TB di banda. Attualmente in 1440p il massimo utilizzo di banda è intorno ai 250gb ma in media si sta sui 150/200gb/s, quindi elevare da 448/512 a 1TB/s cambia poco sotto questo aspetto. Salvo bench ovviamente.
per me che uso il 7680x1440 tanto inutile non è..
hellkitchen
14-03-2016, 15:49
per me che uso il 7680x1440 tanto inutile non è..
:stordita: non sapevo manco esistesse una risoluzione del genere :sofico:
Legolas84
14-03-2016, 15:50
È in triple monitor ;)
hellkitchen
14-03-2016, 15:51
È in triple monitor ;)
ahah certo :D però fa ridere a leggerlo, considerando che io sono a 1080p e ormai si parla di 4k e oltre :D
Spider-Mans
14-03-2016, 16:40
Se questo è vero spero che GP104 esca direttamente a Settembre... in fondo anche GM204 è uscito a settembre :)
se le gddr5x saranno disponibili dall estate per la produzione di massa ...le tempistiche potrebbero essere coincidenti con il lancio in massa delle pascal da fine estate
è impensabile che facciano uscire x80 e x70 con le vecchie gddr5...
che x80 e x70 escano gia con le hbm2 ?
non so quanto possa convenire ...visto che costerebbero di piu delle ggd5x penso... e non vedo quali vantaggi potrebbero apportare rispetto alle gddr5x su questa fascia medio-alta...non saranno le ggdr5x a fare da collo di bottiglia...vero mikael? XD
barbara67
14-03-2016, 16:46
Premessa io non mi sento una capra, ma sono una capra in informatica .... :)
Visto che le date di rilascio non coincidono con i tempi di produzione delle memorie, non può essere che escano 1070/1080 con gddr5 e poi 1080Ti/Titan con le gddr5x e in seguito fanno un refresh con 1070/1080 con gddr5x e piazzando le Hbm2 sulle 1080Ti/Titan.
illidan2000
14-03-2016, 17:04
sul refresh delle 70/80 sarebbe possibile, sulle ti/titan no perché l'imc ed i bus/piste sono studiate in maniera completamente differente
si, ma per i discorsi che facevamo nel fine settimana, avrebbe la stessa banda delle 980, con le gddr5. Tranne se le facessero a 512bit... Ma non mi ricordo per quale motivo è una ipotesi poco percorribile
TigerTank
14-03-2016, 17:15
ahah certo :D però fa ridere a leggerlo, considerando che io sono a 1080p e ormai si parla di 4k e oltre :D
COn l'andazzo dei giochi attuali altro che 4K, bisogna già sperare di avere i 60fps in 1440p(o addirittura in fullHD)...con una vga di punta e i giochi contemporanei :stordita: :D
E penso che purtroppo la storia si ripeterà anche con le pascal + relativi giochi.
illidan2000
14-03-2016, 17:22
COn l'andazzo dei giochi attuali altro che 4K, bisogna già sperare di avere i 60fps in 1440p(o addirittura in fullHD)...con una vga di punta e i giochi contemporanei :stordita: :D
E penso che purtroppo la storia si ripeterà anche con le pascal + relativi giochi.
quoto... anche per questo motivo il gsync o freesync è fondamentale!
Spider-Mans
14-03-2016, 17:33
COn l'andazzo dei giochi attuali altro che 4K, bisogna già sperare di avere i 60fps in 1440p(o addirittura in fullHD)...con una vga di punta e i giochi contemporanei :stordita: :D
E penso che purtroppo la storia si ripeterà anche con le pascal + relativi giochi.
ARK riuscira a girare a 60 frame granitici maxed in fhd con una x80? :stordita: :ciapet:
mikael84
14-03-2016, 18:30
se le gddr5x saranno disponibili dall estate per la produzione di massa ...le tempistiche potrebbero essere coincidenti con il lancio in massa delle pascal da fine estate
è impensabile che facciano uscire x80 e x70 con le vecchie gddr5...
che x80 e x70 escano gia con le hbm2 ?
non so quanto possa convenire ...visto che costerebbero di piu delle ggd5x penso... e non vedo quali vantaggi potrebbero apportare rispetto alle gddr5x su questa fascia medio-alta...non saranno le ggdr5x a fare da collo di bottiglia...vero mikael? XD
Nessun collo di bottiglia.
Le HBM2 almeno nel GP104 porterebbero un'ampiezza di 512gb/s massimi. Il problema è che salvo samsung, la hynix comincerà a produrre in massa nel Q3. Quindi potrebbe esserci abbastanza carenza inizialmente.
Schede come la x70 almeno devono vendere a vagonate
Chiaramente i chip sono già disegnati e non puoi neppure cambiare in corsa.
GP100 sarà completamente pensato per le HBM2 (4x256gb/s), questa è l'unica cosa che al 98% sarà sicura.
Premessa io non mi sento una capra, ma sono una capra in informatica .... :)
Visto che le date di rilascio non coincidono con i tempi di produzione delle memorie, non può essere che escano 1070/1080 con gddr5 e poi 1080Ti/Titan con le gddr5x e in seguito fanno un refresh con 1070/1080 con gddr5x e piazzando le Hbm2 sulle 1080Ti/Titan.
No, GP100 sarà completamente in HBM2, così le varie Tesla ed eventuali Titan.
Legolas84
14-03-2016, 18:40
Io a sto punto mi auguro GP104 a Settembre e GP100 a Giugno 17....
fireradeon
14-03-2016, 19:19
Io a sto punto mi auguro GP104 a Settembre e GP100 a Giugno 17....
Io veramente mi auguro a Giugno 16!
Io ormai sto mettendo i soldi da parte apposta, speriamo che il 27 Maggio mi facciano questo regalo di compleanno! ;)
fireradeon
14-03-2016, 19:20
COn l'andazzo dei giochi attuali altro che 4K, bisogna già sperare di avere i 60fps in 1440p(o addirittura in fullHD)...con una vga di punta e i giochi contemporanei :stordita: :D
E penso che purtroppo la storia si ripeterà anche con le pascal + relativi giochi.
Basta giocare i giochi con 6/12 mesi di ritardo e tutto cambia, sia perchè ottimizzano e sia perchè ti aggiorni l'hw per farli girare! :D Io tieni conto che The Witcher 3 l'ho messo da parte per giocarlo al massimo e con le mod grafiche. NON MI ACCONTENTO!!! ;)
Io veramente mi auguro a Giugno 16!
Io ormai sto mettendo i soldi da parte apposta, speriamo che il 27 Maggio mi facciano questo regalo di compleanno! ;)
Pure io li compio il 27 maggio :asd:
Speriamo di sapere qualcosa nel GDC
TigerTank
14-03-2016, 19:39
Io a sto punto mi auguro GP104 a Settembre e GP100 a Giugno 17....
Secondo me seguiranno grossomodo l'ordine di uscita delle maxwell :)
Basta giocare i giochi con 6/12 mesi di ritardo e tutto cambia, sia perchè ottimizzano e sia perchè ti aggiorni l'hw per farli girare! :D Io tieni conto che The Witcher 3 l'ho messo da parte per giocarlo al massimo e con le mod grafiche. NON MI ACCONTENTO!!! ;)
Bravo, quello che faccio anch'io nella maggioranza dei casi :D
Spider-Mans
14-03-2016, 19:53
Io a sto punto mi auguro GP104 a Settembre e GP100 a Giugno 17....
l'ipotesi piu probabile
se merita...a settembre si compra la x70/x80 e la si sfrutta per quasi un anno .... e si aspetta con tranquillita la ti
scimmie pascali :asd:
fireradeon
14-03-2016, 20:01
l'ipotesi piu probabile
se merita...a settembre si compra la x70/x80 e la si sfrutta per quasi un anno .... e si aspetta con tranquillita la ti
scimmie pascali :asd:
Ma scusa perché pensate che a fine Maggio non esca niente?
Pure io li compio il 27 maggio :asd:
Speriamo di sapere qualcosa nel GDC
Io poco prima ma siamo sempre lì. :)
Secondo me seguiranno grossomodo l'ordine di uscita delle maxwell :)
Bravo, quello che faccio anch'io nella maggioranza dei casi :D
Se non esce nulla di grosso a Maggio allora pure io penso fine anno la pasquale e poi inizio 2017 la nuova Ti
Darrosquall
14-03-2016, 20:12
The Witcher 3 moddato è un gran bel rischio, visto che nel gioco base ci sono più di 100 tod che variano in base alle situazioni meteo, mentre le varie mod non fanno altro che rendere più sharp un determinato tod, eliminando di fatto la grande varietà di situazioni che si susseguono e che CPR ha pensato per il suo gioco.
TigerTank
14-03-2016, 20:27
Se non esce nulla di grosso a Maggio allora pure io penso fine anno la pasquale e poi inizio 2017 la nuova Ti
Secondo me è impossibile perchè appunto Micron parte con la produzione di massa delle gddr5X solo in estate, per cui imho al massimo qualche piccolo lotto a fine estate ed il grosso a settembre-ottobre come successo con le maxwell.
Circa le HBM2 si parla di Q3 e Q4 2016 per cui a parte le Tesla credo si andrà a 2017 inoltrato...tanto si sa comunque che alla fine quella che farà più numeri e utili di vendita sarà la 1070 :)
Legolas84
14-03-2016, 20:40
l'ipotesi piu probabile
se merita...a settembre si compra la x70/x80 e la si sfrutta per quasi un anno .... e si aspetta con tranquillita la ti
scimmie pascali :asd:
io spero che tra GP104 e GP100 ci sia la stessa differenza prestazionale che c'è tra GM204 e GM200.... così mi faccio uno SLI appena esce GP104 e campo fino a Volta ;)
athlon xp 2400
14-03-2016, 20:44
Io spero di tirare fino a volta con le titan x sempre se Nvidia nn castra tutto come kepler Lol
Obrigado
14-03-2016, 20:51
io spero che tra GP104 e GP100 ci sia la stessa differenza prestazionale che c'è tra GM204 e GM200.... così mi faccio uno SLI appena esce GP104 e campo fino a Volta ;)
:D
appleroof
14-03-2016, 21:21
Basta giocare i giochi con 6/12 mesi di ritardo e tutto cambia, sia perchè ottimizzano e sia perchè ti aggiorni l'hw per farli girare! :D Io tieni conto che The Witcher 3 l'ho messo da parte per giocarlo al massimo e con le mod grafiche. NON MI ACCONTENTO!!! ;)
Tw3 maxato (solo un tweak all'aa dell'hairworks ricordo) e con sweetfx a 1440p (tanta, tanta roba :D) tanta la 980ti già lo tiene alla grande, già la 980 lo teneva più che degnamente
deadbeef
14-03-2016, 21:23
Io spero di tirare fino a volta con le titan x sempre se Nvidia nn castra tutto come kepler Lol
Mi piace il fatto che tu rida quando parli di 2 schede che costano 1000 euro l'una e potrebbero essere castrate appositamente
TigerTank
14-03-2016, 21:29
Mi piace il fatto che tu rida quando parli di 2 schede che costano 1000 euro l'una e potrebbero essere castrate appositamente
Ecco perchè invece che fare Sli mi sa che farò 1070/1080 singola(se staccano bene la gtx980Ti) e 1080Ti nel 2017 :D
Ormai tra ottimizzazioni pro nuova architettura ed eventuali castrature della vecchia lo Sli di fullGPU ci rimette sempre un pò.
Spider-Mans
14-03-2016, 21:33
Ma scusa perché pensate che a fine Maggio non esca niente?
perche devi fare i conti con la disponibilita delle nuove vram (gddr5x e hbm2)
se anticipano a giugno...e perche potranno disporre prima delle gddr5x....ma a gennaio si parlava di gddr5x per l'estate come produzione di massa..quindi dipende dalle memorie :D
la situazione è abbastanza semplice
Ecco perchè invece che fare Sli mi sa che farò 1070/1080 singola(se staccano bene la gtx980Ti) e 1080Ti nel 2017 :D
stesso programma for me :oink:
x70/x80 :
-superiore alla 980ti
-prezzo inferiore
instant buy (versione custom) :D
athlon xp 2400
14-03-2016, 21:42
Mi piace il fatto che tu rida quando parli di 2 schede che costano 1000 euro l'una e potrebbero essere castrate appositamente
Le ho prese usate :) cosa bisogna fare piangere lol
Per ora me le godo dopo si vedrà .. Se uno pensa sempre al futuro manco vive
Le ho prese usate :) cosa bisogna fare piangere lol
Per ora me le godo dopo si vedrà .. Se uno pensa sempre al futuro manco vive
Grande, se non fosse per te io nemmeno ce l'avrei una Titan X! E comunque ora ho Godzilla che tiene in braccio KingKong sulle spalle per la nuova GP100 :fagiano:
barbara67
15-03-2016, 07:19
Nessun collo di bottiglia.
Le HBM2 almeno nel GP104 porterebbero un'ampiezza di 512gb/s massimi. Il problema è che salvo samsung, la hynix comincerà a produrre in massa nel Q3. Quindi potrebbe esserci abbastanza carenza inizialmente.
Schede come la x70 almeno devono vendere a vagonate
Chiaramente i chip sono già disegnati e non puoi neppure cambiare in corsa.
GP100 sarà completamente pensato per le HBM2 (4x256gb/s), questa è l'unica cosa che al 98% sarà sicura.
No, GP100 sarà completamente in HBM2, così le varie Tesla ed eventuali Titan.
Ok capito Mike .....
Allora visto che GP100 non esce prima del 2017 (vedi anche roadmap AMD, Polaris solo su HBM1 nel 2016) l' ipotesi più probabile è quella che faceva Tiger 1070/1080 a settembre e 1080Ti/Titan nel 2017 ..... :)
Crysis90
15-03-2016, 09:12
http://wccftech.com/amd-vega-navi-gpu-hbm2-2017-2018/
http://wccftech.com/amd-vega-gpu-navi-hbm2-2017-2018/
Intanto AMD ha vuotato il sacco. Con una bella presentazione, devo dire (NVidia -style).
Adesso tocca ad NVidia. ;)
Che bella la concorrenza!!! Forse è l'anno buono, anche con Zen! :D :D
AceGranger
15-03-2016, 09:25
Ok capito Mike .....
Allora visto che GP100 non esce prima del 2017 (vedi anche roadmap AMD, Polaris solo su HBM1 nel 2016) l' ipotesi più probabile è quella che faceva Tiger 1070/1080 a settembre e 1080Ti/Titan nel 2017 ..... :)
secondo wccftech GP100 in variante TESLA arrivera nel 2016 perchè Samsung è piu avanti degli altri nella produzione di HBM2; non è da escludere che arrivi anche la Titan.
Giovamas
15-03-2016, 09:32
l'ipotesi piu probabile
se merita...a settembre si compra la x70/x80 e la si sfrutta per quasi un anno .... e si aspetta con tranquillita la ti
scimmie pascali :asd:
Se ci sarà un bel boost rispetto alla 980ti sarà un opzione. E francamente spero che ci sia quest'opzione :)
AceGranger
15-03-2016, 09:47
ma se è così avanti samsung perché amd ha dichiarato le hbm2 nel 2017 con Vega quando produce pure ste gpu a 14nm col suo silicio? :stordita:
perchè evidentemente hanno accordi differenti per le memorie.
The GPUs arriving in 2017 will also be the first to deploy HBM2 memory which means that current GPUs will have to stick with either GDDR5/GDDR5X or HBM1 solutions. Knowing that one of the two Polaris GPUs uses GDDR5 memory, it is possible that AMD is reserving HBM2 for their compute oriented cards and makes sense since their collaborative partner, SK Hynix, also plans to begin HBM2 memory production in Q3 2016. NVIDIA on the other hand is expected to release their Pascal GPUs for the supercomputer and HPC market with HBM2 in 2016 since they are said to partner with Samsung to deploy HBM2 memory on their GPUs. Samsung initiated mass production of their 4 GB HBM2 chips in early Q1 2016.
illidan2000
15-03-2016, 10:00
perchè evidentemente hanno accordi differenti per le memorie.
The GPUs arriving in 2017 will also be the first to deploy HBM2 memory which means that current GPUs will have to stick with either GDDR5/GDDR5X or HBM1 solutions. Knowing that one of the two Polaris GPUs uses GDDR5 memory, it is possible that AMD is reserving HBM2 for their compute oriented cards and makes sense since their collaborative partner, SK Hynix, also plans to begin HBM2 memory production in Q3 2016. NVIDIA on the other hand is expected to release their Pascal GPUs for the supercomputer and HPC market with HBM2 in 2016 since they are said to partner with Samsung to deploy HBM2 memory on their GPUs. Samsung initiated mass production of their 4 GB HBM2 chips in early Q1 2016.
quindi può esser che polaris metta le GDDR5 e non le X.
bello pure questo passaggio:
What’s more interesting about Navi GPU is that it will deploy a completely new memory standard which AMD refers to as Nextgen memory. There are no hints to what this memory type would be but just like AMD, NVIDIA also believes that HBM2 is not here to stay for much long. As bandwidth demand increases in the professional and HPC market where Vega and Navi are definitely being pointed towards, there exists a looming memory crisis which was discussed by NVIDIA at SC15.
KingArthas94
15-03-2016, 10:36
Bhe se presentassero e mettessero in commercio tutte le schede in una sola botta perderebbero tutto il mercato dei fan che comprano le X80 e sono pronti a sganciare altri soldi appena esce la Ti/Titan di turno.
AceGranger
15-03-2016, 10:40
mi ero perso questo passaggio/notizia allora :)
quindi perché nvidia non dovrebbe già produrre le titan/ti nel 2016? sarebbe solo una scelta commerciale?
credo che inizialmente dipendera dal volume delle Tesla e dal rateo di GPU non consone la mercato GPGPU; poi ovviamente le lanceranno quando gli fara piu comodo economicamente.
Sempre ammesso che lanceranno veramente le Tesla nel 2016.
barbara67
15-03-2016, 10:44
perchè evidentemente hanno accordi differenti per le memorie.
The GPUs arriving in 2017 will also be the first to deploy HBM2 memory which means that current GPUs will have to stick with either GDDR5/GDDR5X or HBM1 solutions. Knowing that one of the two Polaris GPUs uses GDDR5 memory, it is possible that AMD is reserving HBM2 for their compute oriented cards and makes sense since their collaborative partner, SK Hynix, also plans to begin HBM2 memory production in Q3 2016. NVIDIA on the other hand is expected to release their Pascal GPUs for the supercomputer and HPC market with HBM2 in 2016 since they are said to partner with Samsung to deploy HBM2 memory on their GPUs. Samsung initiated mass production of their 4 GB HBM2 chips in early Q1 2016.
Allora a questo punto visto che sembrerebbero essere più avanti le HBM2 rispetto alle Gddr5x per nvidia.
Ci potrebbe essere un lancio in stile Kepler e cioè prima la Titan con HBM2 poche e a un prezzo esagerato, a seguire 1070/1080 su Gddr5x e nel 2017 la 980Ti sempre su HBM2, o non lo ritenete possibile .....
AceGranger
15-03-2016, 10:52
Allora a questo punto visto che sembrerebbero essere più avanti le HBM2 rispetto alle Gddr5x per nvidia.
Ci potrebbe essere un lancio in stile Kepler e cioè prima la Titan con HBM2 poche e a un prezzo esagerato, a seguire 1070/1080 su Gddr5x e nel 2017 la 980Ti sempre su HBM2, o non lo ritenete possibile .....
allo stato attuale di quello che si conosce credo che tutto sia possibile; mi sa che dovremo aspettare almeno 1/2 mesi per sapere di che morte morire.
mikael84
15-03-2016, 11:37
Ok capito Mike .....
Allora visto che GP100 non esce prima del 2017 (vedi anche roadmap AMD, Polaris solo su HBM1 nel 2016) l' ipotesi più probabile è quella che faceva Tiger 1070/1080 a settembre e 1080Ti/Titan nel 2017 ..... :)
GP100 almeno in versione game (TI) uscirà sicuro nel 2017 con le HBM2(Hynix/samsung) (16gb/4x4gb con rispettivamente 256/4=1TB/s di banda)
Sul TB di banda ci fermeremmo perchè anche le HBM superata tale soglia non saranno più molto convenienti tanto da richiedere tanta corrente.
La versione Tesla sarà quasi sicuramente il primo vero chippone pro con GP100 e memorie Samsung HBM2 di cui potrebbero affiancarci fino a 32gb ma sempre con la stessa ampiezza di banda.
GP104 credo che per ora debutti solo in gddr5x, la microm ha già pronti molti campioni ma la produzione massiccia comincerà in estate.
Con le HBM2 dovrà attenersi al solo samsung inizialmente perchè molto probabilmente la hynix prima di settembre non avrà memorie sufficienti.
Bisogna accentuare una cosa. Noi non conosciamo ancora minimamente il design e le schede sono già disegnate da un pezzo. Non è che metti le HBM2 o le gddr5x in base all'evenienza perchè richiedono 2 chip ben distinti.
Stando anche agli ultimi rumors sembra sempre più evidente l'adozione di un bus a 256bit che decurteranno nei modelli inferiori.:)
Allora a questo punto visto che sembrerebbero essere più avanti le HBM2 rispetto alle Gddr5x per nvidia.
Ci potrebbe essere un lancio in stile Kepler e cioè prima la Titan con HBM2 poche e a un prezzo esagerato, a seguire 1070/1080 su Gddr5x e nel 2017 la 980Ti sempre su HBM2, o non lo ritenete possibile .....
Della Titan ancora non si sa nulla ma è piuttosto scontato che la rilascino, ma secondo me solo dopo le GPU di fascia media (x70-x80). Come Kepler e maxwell.
intanto le rosse pare siano in procinto di lanciare il dual gpu,
cosi fosse anche le verdi potrebbero lanciare una doppia tx/ti
intanto le rosse pare siano in procinto di lanciare il dual gpu,
cosi fosse anche le verdi potrebbero lanciare una doppia tx/ti
L'AMD è la Radeon Pro Duo con due GPU Fiji sullo stesso PCB e 8 GB di memoria HBM.
Non credo che Nvidia rilasci una Dual 980TI , ma direttamente le 1070/1080 :) .
Legolas84
15-03-2016, 11:55
intanto le rosse pare siano in procinto di lanciare il dual gpu,
cosi fosse anche le verdi potrebbero lanciare una doppia tx/ti
Mah.... a questo punto insistere ancora su Maxwell con Pascal in uscita quest'anno (almeno in declinazione GP104) sarebbe inutile secondo me.... Ormai gli Enthusiast aspettano Pascal...
La dual AMD arriva con un ritardo mostruoso.... doveva uscire con le Fury per avere un senso.... ormai resterà schiacciata dalle nuove schede e venderà ancora meno di quel poco che avrebbe venduto se fosse uscita per tempo (le soluzioni dual hanno un mercato molto ristretto già di loro).
TigerTank
15-03-2016, 12:45
Mah.... a questo punto insistere ancora su Maxwell con Pascal in uscita quest'anno (almeno in declinazione GP104) sarebbe inutile secondo me.... Ormai gli Enthusiast aspettano Pascal...
La dual AMD arriva con un ritardo mostruoso.... doveva uscire con le Fury per avere un senso.... ormai resterà schiacciata dalle nuove schede e venderà ancora meno di quel poco che avrebbe venduto se fosse uscita per tempo (le soluzioni dual hanno un mercato molto ristretto già di loro).
A me le dual gpu non hanno mai convinto a prescindere :D
Legolas84
15-03-2016, 12:51
Ma sai in determinati contesti in cui non si riesce a fare uno SLI possono essere ottime... Ci sono case mini-itx in cui c'è spazio per un solo slot pci-ex nel quale però si possono montare schede anche molto grandi... Ecco che li una dual GPU diventa fantastica.
Il problema però di questa specifica scheda AMD dual fury è il ritardo incredibile con cui esce.
Se nvidia risponderà con una dual Maxwell (ma spero di no) sarà solo perché la ha già pronta e vuol far vedere che non è da meno a livello di immagine... Non certo perché è una scheda di cui ha bisogno il mercato in questo momento...
Inviato dal mio ONE A2003 utilizzando Tapatalk
Obrigado
15-03-2016, 13:40
Bene.... la roadmap amd ci dice che le polaris non utilizzeranno le hbm2...
Quindi...
1080/70 a giugno con le semplici gddr5 e refresh con le gddr5x in concomitanza con la presentazione della titan y che avrà le hbm2?
Spider-Mans
15-03-2016, 13:51
le hbm2 nel 2017 inoltrato.. come si prospettava....bene
ben vengano le gddr5x a fine estate
fireradeon
15-03-2016, 13:53
Allora a questo punto visto che sembrerebbero essere più avanti le HBM2 rispetto alle Gddr5x per nvidia.
Ci potrebbe essere un lancio in stile Kepler e cioè prima la Titan con HBM2 poche e a un prezzo esagerato, a seguire 1070/1080 su Gddr5x e nel 2017 la 980Ti sempre su HBM2, o non lo ritenete possibile .....
In effetti pare di si da quello che scrivono, io lo spero francamente.
Legolas84
15-03-2016, 13:56
Ma per NVIDIA è previsto un evento simile a quello che c'è stato ieri per AMD?
fireradeon
15-03-2016, 14:10
Ma per NVIDIA è previsto un evento simile a quello che c'è stato ieri per AMD?
Si, dal 4 al 7 Aprile. Per quello si dice che forse presentano la Pascal con paper launch e reale release a fine Maggio/ Inizio Giugno.
Se quello che è scritto è vero, cioè che Nvidia è più avanti grazie a Samsung sulle HBM2 (dicono 1Q 2016 che vuol dire Gennaio/Marzo), ci potrebbe stare qualche Titan a fine maggio inizio giugno secondo voi? Ovviamente quantità limitate e poi il grosso a settembre/ottobre?
NVIDIA on the other hand is expected to release their Pascal GPUs for the supercomputer and HPC market with HBM2 in 2016 since they are said to partner with Samsung to deploy HBM2 memory on their GPUs. Samsung initiated mass production of their 4 GB HBM2 chips in early Q1 2016.
Nelson Muntz
15-03-2016, 14:11
le hbm2 nel 2017 inoltrato.. come si prospettava....bene
Quindi le nuove TOP rosse ( Vega? ) e verdi ( GP100 ) si avranno solo dopo , nel tardo 2017 .
Sono rimasto " spiazzato " dal fatto che Polaris non sara' quindi una scheda top di gamma , ma sara' sul piano del GP104 . Spero solo che le diano almeno 6 / 8 Gb di ram altrimenti ciao !
Spider-Mans
15-03-2016, 14:14
Quindi le nuove TOP rosse ( Vega? ) e verdi ( GP100 ) si avranno solo dopo , nel tardo 2017 .
Sono rimasto " spiazzato " dal fatto che Polaris non sara' quindi una scheda top di gamma , ma sara' sul piano del GP104 . Spero solo che le diano almeno 6 / 8 Gb di ram altrimenti ciao !
la pascal ti è sempre stata rumoreggiata nel 2017
cmq x80 e x70 se vanno piu di una 980ti..saranno di fatto le nuove top come prestazioni singola scheda.....in attesa di pascal_ti nel 2017 inoltrato (giugno 2017?)
TigerTank
15-03-2016, 14:21
Bene.... la roadmap amd ci dice che le polaris non utilizzeranno le hbm2...
Quindi...
1080/70 a giugno con le semplici gddr5 e refresh con le gddr5x in concomitanza con la presentazione della titan y che avrà le hbm2?
Imho 1070/1080 con gddr5X forse con qualche lotto estivo ma boom sul mercato in autunno, nuove titan con HMB2 nel tardo primo trimestre 2017 e TI nel tardo secondo trimestre 2017 ;)
Con le GDDR5 imho usciranno le 1060 e le 1050.
Legolas84
15-03-2016, 14:25
È solo la nomenclatura a cambiare....
Prima era ad esempio così:
NV20 GeForce 3 --> Nuova architettura
NV25 GeForce 4 --> Potenziamento NV20
Oggi avremo
GP104 --> Nuova architettura
GP100 --> Potenziamento GP104
Secondo me sempre una scheda top all'anno esce.... saltare oggi GP104 per aspettare il 100 sarebbe come se ai tempi si fosse saltata la GeForce 3 per prendere direttamente la 4....
Legolas84
15-03-2016, 14:27
PS
In questo ci sono due anomalie.... la Titan che con le GeForce imho non ha niente a che fare... e la 980 liscia il cui incremento rispetto alla 780Ti è stato risicato per colpa del limite del processo produttivo.
TigerTank
15-03-2016, 14:28
Massimizzano gli utili...con questa successione procedono per balzelli prestazionali così per un buon 6-8 mesi anche la cosiddetta fascia "medio-alta castrata" diventa il top :)
Legolas84
15-03-2016, 14:35
Massimizzano gli utili...con questa successione procedono per balzelli prestazionali così per un buon 6-8 mesi anche la cosiddetta fascia "medio-alta castrata" diventa il top :)
Se tu parli di fascia alta castrata riferendoti ai chip con declinazione odierna 104 o 204 allora devi parlare di fascia alta castrata anche per questi chip: NV20, NV30, NV40, G80, GF100.
Il fatto è che è sempre stato così.... quando usciva una nuova architettura l'anno successivo usciva sempre un affinamento potenziato con questi accoppiamenti:
NV20 --> NV25
NV30 --> NV35
NV40 --> NV45
G80 --> G92
Poi da fermi:
GF100 --> GF110
Con Kepler è uscita una scheda in più che è effettivamente una anomalia.... ovvero GK104 --> GK110 e poi un GK110 ancora più tirato che è diventato la Ti.
Poi
GM204 --> GM200
E ora sarà uguale a come è sempre stato:
GP104 --> GP100
Prima tutti i chip con numero finale 0 erano una nuova architettura, quelli con numero finale 5 erano affinamenti e potenziamenti.
Poi è cambiato e i chip 100 erano nuove architetture e i 110 i potenziamenti.
Poi arriviamo ad oggi dove i 104 sono le nuove architetture e i 100 sono i potenziamenti.
Ma non è mai cambiato nulla.
DarkNiko
15-03-2016, 14:53
Secondo me sempre una scheda top all'anno esce.... saltare oggi GP104 per aspettare il 100 sarebbe come se ai tempi si fosse saltata la GeForce 3 per prendere direttamente la 4....
Sempre ? Ma quando ? In quale realtà ?
Proprio perché hai tirato fuori i paragoni col passato, con Kepler, Fermi e Maxwell, dal cosiddetto chip "castrato" al chip "full" sono trascorsi sempre dai 6 agli 8 mesi massimo, mai 1 anno. Vedasi 980 -> Titan X -> 980 Ti per prendere l'esempio più recente, ma anche 680 -> Titan -> 780 -> 780 Ti.
Anche se i rumors tracciano solo una tendenza e non corrispondono di certo a verità oggettive, prendendo per buono il mese di Maggio per la disponibilità sul mercato dei primi esemplari con GP104, l'ammiraglia (alias GP100) di casa NVidia vedrebbe la luce intorno a Novembre-Dicembre, cioè 6-7 mesi dopo e comunque mal che vada verrà presentata entro il 2016, poi felice di essere smentito.
Secondo me il paragone che fai tra GP104 e GP100 come tra GF3 o GF4 non mi trova d'accordo per la semplice ragione che in questo caso aspettare premia di più, visto che poi dopo il GP100 per un anno e mezzo buono non uscirà nient'altro, come del resto è ora per Maxwell. Tra una generazione e l'altra di VGA (alias Volta) deve passare un bel pò di tempo !!! :)
Legolas84
15-03-2016, 15:05
Sempre ? Ma quando ? In quale realtà ?
Proprio perché hai tirato fuori i paragoni col passato, con Kepler, Fermi e Maxwell, dal cosiddetto chip "castrato" al chip "full" sono trascorsi sempre dai 6 agli 8 mesi massimo, mai 1 anno. Vedasi 980 -> Titan X -> 980 Ti per prendere l'esempio più recente, ma anche 680 -> Titan -> 780 -> 780 Ti.
Anche se i rumors tracciano solo una tendenza e non corrispondono di certo a verità oggettive, prendendo per buono il mese di Maggio per la disponibilità sul mercato dei primi esemplari con GP104, l'ammiraglia (alias GP100) di casa NVidia vedrebbe la luce intorno a Novembre-Dicembre, cioè 6-7 mesi dopo e comunque mal che vada verrà presentata entro il 2016, poi felice di essere smentito.
Secondo me il paragone che fai tra GP104 e GP100 come tra GF3 o GF4 non mi trova d'accordo per la semplice ragione che in questo caso aspettare premia di più, visto che poi dopo il GP100 per un anno e mezzo buono non uscirà nient'altro, come del resto è ora per Maxwell. Tra una generazione e l'altra di VGA (alias Volta) deve passare un bel pò di tempo !!! :)
Non è come dici tu. La Titan non la puoi inserire in questo contesto in quanto ha una fascia di prezzo semi-pro non certo da target GeForce. Non per niente ci sono molti utenti che le Titan non le considerano per nulla. il vero refresh è la Ti non la Titan.
Detto questo se analizziamo un attimo la situazione abbiamo:
NV20 uscito a Febbraio 2001
NV25 uscito a Febbraio 2002 come refresh di NV20
Da qui saltiamo a Kepler con:
GK104 uscito a Marzo 2012
GK110 uscito a Maggio 2013 come refresh di GK104 (poi qui c'è la vera prima anomalia rappresentata dalla 780Ti uscita poco dopo ma è sempre GK110. In più ci va aggiunta la Titan uscita a Febbraio 2013 ma comunque su una fascia di prezzo non GeForce e destinata ad un pubblico semi-pro).
Ora Maxwell:
GM204 uscito a Settembre 2014.
GM200 uscito a Giugno 2015 come refresh di GM204... dopo 10 mesi.
Come vedi la situazione è ciclica, hanno cambiato i nomi ma non la sostanza.
PS Riguardo la parte in neretto ti pregherei di usare un tono un pò più amichevole e meno saccente :)
mikael84
15-03-2016, 15:11
Se tu parli di fascia alta castrata riferendoti ai chip con declinazione odierna 104 o 204 allora devi parlare di fascia alta castrata anche per questi chip: NV20, NV30, NV40, G80, GF100.
Il fatto è che è sempre stato così.... quando usciva una nuova architettura l'anno successivo usciva sempre un affinamento potenziato con questi accoppiamenti:
NV20 --> NV25
NV30 --> NV35
NV40 --> NV45
G80 --> G92
Poi da fermi:
GF100 --> GF110
Con Kepler è uscita una scheda in più che è effettivamente una anomalia.... ovvero GK104 --> GK110 e poi un GK110 ancora più tirato che è diventato la Ti.
Poi
GM204 --> GM200
E ora sarà uguale a come è sempre stato:
GP104 --> GP100
Prima tutti i chip con numero finale 0 erano una nuova architettura, quelli con numero finale 5 erano affinamenti e potenziamenti.
Poi è cambiato e i chip 100 erano nuove architetture e i 110 i potenziamenti.
Poi arriviamo ad oggi dove i 104 sono le nuove architetture e i 100 sono i potenziamenti.
Ma non è mai cambiato nulla.
La 780ti non è proprio un'anomalia ma la versione completa del chip. Per problemi di rese alla prima Titan le hanno decurtato un SMX. Nvidia sapendo dell'arrivo delle nuove AMD ha selezionato i migliori GK110B e gli ha attivato l'ultimo SMX. In questo modo ha tirato fuori il limite di Kepler, 2880 cuda dialoganti completamente con 48 rops (ogni GPC accede ad 8 rops).
Con Maxwell la Titan era già full e altro non poteva fare che decurtare.
Sinceramente mi aspettavo una versione ancora più decurtata della 980TI per rivaleggiare con la Fury liscia (VGA che avrebbe sostituito la 780 GK110 base).
Legolas84
15-03-2016, 15:15
La 780ti non è proprio un'anomalia ma la versione completa del chip. Per problemi di rese alla prima Titan le hanno decurtato un SMX. Nvidia sapendo dell'arrivo delle nuove AMD ha selezionato i migliori GK110B e gli ha attivato l'ultimo SMX. In questo modo ha tirato fuori il limite di Kepler, 2880 cuda dialoganti completamente con 48 rops (ogni GPC accede ad 8 rops).
Con Maxwell la Titan era già full e altro non poteva fare che decurtare.
Sinceramente mi aspettavo una versione ancora più decurtata della 980TI per rivaleggiare con la Fury liscia (VGA che avrebbe sostituito la 780 GK110 base).
È una anomalia rispetto alle roadmap che ha sempre fatto NVIDIA.... dopo la 680 doveva esserci un solo top di gamma invece in un paio di mesi ne sono usciti due...
Lasciando stare la Titan che ripeto ha senso solo per chi usa il PC sia per giochi che per usi professionali. Prendere una Titan per giocare è uno spreco di euro imho...
mikael84
15-03-2016, 15:42
È una anomalia rispetto alle roadmap che ha sempre fatto NVIDIA.... dopo la 680 doveva esserci un solo top di gamma invece in un paio di mesi ne sono usciti due...
Lasciando stare la Titan che ripeto ha senso solo per chi usa il PC sia per giochi che per usi professionali. Prendere una Titan per giocare è uno spreco di euro imho...
Il chip iniziale prevedeva già un GK110 full solo che per vari motivi l'ha dovuto rilasciare a tempi.
Nvidia ha cambiato politica proprio con Kepler, rilasciando il chip medio che altro non faceva che riprendere prima GF104 poi GF114(460/560).
Con GF110 Nvidia ha rilasciato 3 schede e 3 con GF100.
Se AMD non debuttava così in ritardo, Nvidia avrebbe fatto uscire prima i due chip ma complice il ritardo, Nvidia ha avuto tutto il tempo di selezionarsi i GK110b e offrire una proposta valida alla 290x e quindi rilasciare molto prima una versione a soli 2304cuda per rese.
290-780
290x-780ti
780ti e 780 sarebbero in linea di massima i rimpiazzi di 570-580.
Chiaramente Nvidia ha giocato come potuto, se non fosse stata costretta non avrebbe tirato fuori la versione full.
Con fermi Nvidia ha dovuto rivedere il chip per renderlo completo e più efficiente(580), implementando transistor più lenti e con meno perdite di corrente.
Legolas84
15-03-2016, 15:52
Il chip iniziale prevedeva già un GK110 full solo che per vari motivi l'ha dovuto rilasciare a tempi.
Nvidia ha cambiato politica proprio con Kepler, rilasciando il chip medio che altro non faceva che riprendere prima GF104 poi GF114(460/560).
Con GF110 Nvidia ha rilasciato 3 schede e 3 con GF100.
Se AMD non debuttava così in ritardo, Nvidia avrebbe fatto uscire prima i due chip ma complice il ritardo, Nvidia ha avuto tutto il tempo di selezionarsi i GK110b e offrire una proposta valida alla 290x e quindi rilasciare molto prima una versione a soli 2304cuda per rese.
290-780
290x-780ti
780ti e 780 sarebbero in linea di massima i rimpiazzi di 570-580.
Chiaramente Nvidia ha giocato come potuto, se non fosse stata costretta non avrebbe tirato fuori la versione full.
Con fermi Nvidia ha dovuto rivedere il chip per renderlo completo e più efficiente(580), implementando transistor più lenti e con meno perdite di corrente.
Esatto è proprio quello che intendo.... in una situazione normale sarebbe uscito un solo GK110.... non due.
Per il resto cambiano solo le nomenclature ma la situazione è sempre la stessa mikael....
Prima esce la nuova architettura (e la puoi chiamare NV20, GF100, GK104, GM204, o pinocchio). L'anno dopo esce l'affinamento (NV25, GF110, GK110, GM200, o geppetto). L'anno ancora successivo si ripete il ciclo nuova architettura / affinamento.
Solo questo sto dicendo, cambiano i nomi ma non la sostanza.
La GeForce 3 sta alla GeForce 4 come la GTX980 sta alla GTX 980Ti
illidan2000
15-03-2016, 15:58
A me le dual gpu non hanno mai convinto a prescindere :D
io ho avuto sia la 4870x2 (dissipatore cambiato dopo un anno di tortura acustica con un accelero), che la gtx590 (sli di 580 con freq più basse).
In entrambi i casi, OTTIMA esperienza!
Legolas84
15-03-2016, 16:00
io ho avuto sia la 4870x2 (dissipatore cambiato dopo un anno di tortura acustica con un accelero), che la gtx590 (sli di 580 con freq più basse).
In entrambi i casi, OTTIMA esperienza!
Eh ma tu sei un rodato dello SLI :D
mikael84
15-03-2016, 16:09
Altro rumors, sembrano sempre più confermate le gddr5x su gp104
http://wccftech.com/amds-greenland-vega-10-flagship-gpu-hbm2-launching-2017/
illidan2000
15-03-2016, 16:14
Eh ma tu sei un rodato dello SLI :D
più che rodato, direi succube :D
cmq, una altra cosa da notare, è che nVidia è sempre stata costretta a ricorrere alle schede dual, in tempi precedenti (295, 590, 690). Nelle ultime, causa scarsa concorrenza ha potuto bellamente saltare le 790 e 990... Non so se chiamarla pure questa anomalia... Le cose sono andate così però :)
Spider-Mans
15-03-2016, 16:20
Altro rumors, sembrano sempre più confermate le gddr5x su gp104
ho sempre pensato che fosse la soluzione ideale e logica :D
amon.akira
15-03-2016, 16:21
titan z?
mikael84
15-03-2016, 16:24
Esatto è proprio quello che intendo.... in una situazione normale sarebbe uscito un solo GK110.... non due.
Per il resto cambiano solo le nomenclature ma la situazione è sempre la stessa mikael....
Prima esce la nuova architettura (e la puoi chiamare NV20, GF100, GK104, GM204, o pinocchio). L'anno dopo esce l'affinamento (NV25, GF110, GK110, GM200, o geppetto). L'anno ancora successivo si ripete il ciclo nuova architettura / affinamento.
Solo questo sto dicendo, cambiano i nomi ma non la sostanza.
La GeForce 3 sta alla GeForce 4 come la GTX980 sta alla GTX 980Ti
Diciamo che il termine più giusto per affinamento è tra GF100 e GF110(dove in effetti hanno affinato le rese, ma solo quelle), GK110 è il chip grande di GK104 non un'affinamento:)
GK104 si doveva chiamare 660 e GK110 680 in pratica.
Mio punto di vista ovviamente.
illidan2000
15-03-2016, 16:30
titan z?
me la scordo sempre.... sarebbe una 790(TI), in effetti... Ma dal prezzo non proprio da dual classico
Legolas84
15-03-2016, 16:49
Diciamo che il termine più giusto per affinamento è tra GF100 e GF110(dove in effetti hanno affinato le rese, ma solo quelle), GK110 è il chip grande di GK104 non un'affinamento:)
GK104 si doveva chiamare 660 e GK110 680 in pratica.
Mio punto di vista ovviamente.
Se anche fosse uscito subito GK104 come 660 e GK110 come 680, l'anno dopo avrebbero migliorato comunque il GK110 per tirare fuori la 780 più veloce della 680 e andare avanti con il loro ciclo.
Probabilmente ora come ora NVIDIA non ha bisogno di procedere come in passato ma può semplicemente agire come GK104 e GK110 perchè la concorrenza le consente di dominare il mercato senza un grosso sforzo tecnologico. In passato usciva già con un chip full che l'anno dopo veniva migliorato.
Appurato questo, quello che voglio intendere io con i miei post precedenti è che la situazione che ci troviamo di fronte oggi non è diversa da quella di 15 anni fa.... GP104 sarà il top per un anno, dopo arriverà GP100 esattamente come NV20 fu il top del 2001 e nel 2002 arrivò NV25.... l'unica differenza la ha NVIDIA dove probabilmente lo sforzo tecnologico per passare da NV20 a NV25 è stato molto più grande rispetto a GP104 e GP100....
mikael84
15-03-2016, 16:52
ma anche no :rolleyes:
la Titan Z dal costo ridicolo sono due GK110 rivale della R9 295x2, e ora amd ha buttato fuori la fijix2 un po aspettando la VR un po per "boh è amd e non si sa bene cosa facciano a volte" :D e la 295x2 rulla ancora forte
nvidia non ha mai saltato una dual-gpu, solo con GM200 e cioè maxwell non l'ha fatto
ps. sarà la vittoria di pirro ma dalla serie 3000/4000 hanno sempre avuto la dual-gpu più veloce
Anche se la Titan Z rappresenta una fascia leggermente a se stante.
E'una dual GPU con 1920cuda FP64, quasi 1000 in più rispetto alla tesla K80.
E'anche una scheda da gioco ma non è che sia proprio una versione game.
Le versioni game classiche erano la 780-780ti.
La Titan black non era la diretta concorrente della 290 ma una fascia a se stante.
Anche Tesla monta 2 GPU GM204 (teoricamente una 980x2 da 2x8gb) ma lato game non è uscito niente di simile.
La 295 è una classica GPU su PLX8747 con 2 290x.
La 690 era una scheda con 2 680, quindi direi che fosse una Dual gpu totalmente votata al game
CiccoMan
15-03-2016, 16:59
più che rodato, direi succube :D
cmq, una altra cosa da notare, è che nVidia è sempre stata costretta a ricorrere alle schede dual, in tempi precedenti (295, 590, 690). Nelle ultime, causa scarsa concorrenza ha potuto bellamente saltare le 790 e 990... Non so se chiamarla pure questa anomalia... Le cose sono andate così però :)
In pratica, hanno sostituito le dual con le titan... Escludendo la titan z hanno interrotto la commercializzazione delle dual gpu inserendo i prodotti titan nelle stassa fascia di prezzo... Il doppio della ram vs il doppio delle gpu :D
mikael84
15-03-2016, 18:48
la Titan Z è esattamente il doppio della Titan black aka 780ti con 6gb invece che 3gb e la doppia precisione non tagliata, certo...
ma il senso era per dire che le dual nvidia ne ha sempre fatte tante quante ati/amd, se non consideriamo la fiji-duo annunciata ieri, e che la concorrenza non c'entra nulla, anzi, sta di fatto che in questa nicchia le ati/amd sono state 9 volte su 10 superiori alle nvidia da che io ricordi.
e da li la citazione della vittoria di pirro :read:
Nvidia ne ha fatto e ne fa tante anche su altre fasce come appunto, Titan-tesla-quadro.
La prima dual GPU game era Nvidia, la 7950gx2.
Sulla superiorità non proprio, qua non è solo questione di numeri medi, pensa che la 7990 volevano ritirarla inizialmente poi tra driver con il framepacing e i miglioramenti hanno fatto volare questa scheda.
Senza e con framepacing
http://www.hwupgrade.it/articoli/skvideo/3722/amd-radeon-hd-7990-ora-con-nuovi-driver-per-frame-pacing_5.html
Tecnicamente era
3870x2-9800gx2 , netta vittoria della Nvidia (la 3870x2 era pari la single Nvidia)
4870x2-295, vittoria verde ma non di tanto
5870, sola
6990-590 pari (tecnicamente 2 6970-2 570 in prestazioni)
7990-690, prima la 690 poi la 7990
Le prime x2 AMD le aveva lanciate perchè non aveva una single al top.
Vedi 3870-9800gtx o 4870(260)-280
Per questioni di prezzo era come una top in pratica.
Scusate l'ot:)
Legolas84
15-03-2016, 19:06
Figurati mikael sono cose che è sempre meglio precisare ;)
Inviato dal mio ONE A2003 utilizzando Tapatalk
deadbeef
15-03-2016, 19:07
Prima della 7950gx2 ci sono almeno la Rage Fury Maxx e la Voodoo 5 5500
Legolas84
15-03-2016, 19:12
Va be se vogliamo andare nel neolitico c'è anche la Quantum3D Obsidian 2 (2 Voodoo 2 in SLI).
Vediamo se qualcuno ne scova una più vecchia :asd:
CiccoMan
15-03-2016, 19:25
Va be se vogliamo andare nel neolitico c'è anche la Quantum3D Obsidian 2 (2 Voodoo 2 in SLI).
Vediamo se qualcuno ne scova una più vecchia :asd:
La voodoo2 è stata la prima dual gpu :stordita:
mikael84
15-03-2016, 19:36
Prima della 7950gx2 ci sono almeno la Rage Fury Maxx e la Voodoo 5 5500
La 7950gx2 inizia la serie di dual gpu-tra Ati-Nvidia, continuata nel tempo.
Quelle che citi su sono schede a se stanti e abbandonate li per anni, dopo il nulla se non con appunto la 7950gx2 a seguire.
Almeno io volevo dire questo
illidan2000
15-03-2016, 19:54
Nvidia ne ha fatto e ne fa tante anche su altre fasce come appunto, Titan-tesla-quadro.
La prima dual GPU game era Nvidia, la 7950gx2.
Sulla superiorità non proprio, qua non è solo questione di numeri medi, pensa che la 7990 volevano ritirarla inizialmente poi tra driver con il framepacing e i miglioramenti hanno fatto volare questa scheda.
Senza e con framepacing
http://www.hwupgrade.it/articoli/skvideo/3722/amd-radeon-hd-7990-ora-con-nuovi-driver-per-frame-pacing_5.html
Tecnicamente era
3870x2-9800gx2 , netta vittoria della Nvidia (la 3870x2 era pari la single Nvidia)
4870x2-295, vittoria verde ma non di tanto
5870, sola
6990-590 pari (tecnicamente 2 6970-2 570 in prestazioni)
7990-690, prima la 690 poi la 7990
Le prime x2 AMD le aveva lanciate perchè non aveva una single al top.
Vedi 3870-9800gtx o 4870(260)-280
Per questioni di prezzo era come una top in pratica.
Scusate l'ot:)
5990?
illidan2000
16-03-2016, 10:05
esattamente la 5970
già... vero :)
cmq la mia 4870x2 è stata una delle schede più longeve che ho avuto. A parte qualche problemino iniziale, poi si è sempre comportata bene, anche lato driver. Più o meno come ora con lo sli nvidia.
Certo, c'è sempre qualche gioco che "scappa"
TigerTank
16-03-2016, 10:48
...
adesso esce la Pro Duo e sembra in ritardo soprattutto dato il passaggio ad un processo produttivo più raffinato
ma sai qual'è il punto, è che ogni volta che sento la barzelletta della mancanza di concorrenza mi parte l'embolo :D
a parte che non mi sono mai piaciute queste soluzioni sia per un fatto di costo proibitivo che di sfruttamente reale dell'hardware con driver "ad hoc", ma non sbaglio di certo se dico che è stata praticamente sempre avanti ati/amd sulle dual-gpu :)
Sì ma stiamo parlando quasi del nulla visto che le dual-gpu hanno una quota di mercato che pure la titan a confronto si vende a vagonate. Quindi magrissima consolazione in ogni caso.
E' tutto il resto il problema, a parte cose che incidono come il fatto che spesso i grafici del frametime (http://www.guru3d.com/articles_pages/the_division_pc_graphics_performance_benchmark_review,8.html) delle AMD sembrino dei terremoti di proporzioni catastrofiche( = microstuttering a iosa), se i pro-amd che vengono pure in questo thread a scrivere in favore delle rosse poi non comprano le nuove vga rosse(tipo le Fury e varrà pure per la Pro Duo)...è chiaro il perchè nonostante tutto poi ci si trovi ad avere uno dei 2 produttori che detiene l'80% delle quote di mercato. :stordita:
Legolas84
16-03-2016, 10:55
Sì ma stiamo parlando quasi del nulla visto che le dual-gpu hanno una quota di mercato che pure la titan a confronto si vende a vagonate. Quindi magrissima consolazione in ogni caso.
E' tutto il resto il problema, a parte cose che incidono come il fatto che spesso i grafici del frametime (http://www.guru3d.com/articles_pages/the_division_pc_graphics_performance_benchmark_review,8.html) delle AMD sembrino dei terremoti di proporzioni catastrofiche( = microstuttering a iosa), se i pro-amd che vengono pure in questo thread a scrivere in favore delle rosse poi non comprano le nuove vga rosse(tipo le Fury e varrà pure la Pro Duo)...è chiaro il perchè nonostante tutto poi ci si trovi ad avere uno dei 2 produttori che detiene l'80% delle quote di mercato. :stordita:
Esatto... e la nuova Duo è un non sense completo..... uscita con un ritardo talmente grande che siamo ormai in procinto di vedere le nuove architetture su ambo i lati basate su un nuovo processo produttivo. In pratica un Fail purtroppo. Se fosse uscita per tempo avrebbe avuto una sua collocazione in quella microscopica fascia di mercato di cui ti parlavo prima, ma così non se la filerà davvero nessuno.
ho notato anche io,
chi ne parla bene al 99% non ha una furyx, anomalia mica da ridere.
Io parlo bene della Ti perche ho un 980ti, ma a questa cosa i soliti noti redpower sembrano non fare caso
Non mi sognerei nemmeno di consigliare una vga solo perche simpatizzo
alex oceano
16-03-2016, 11:04
quindi alla luce di oggi merita prendere una 980 ti o conviene aspettare?
vga sotto il cofano motore msi gaming gtx 970
risoluzione full hd @ 60 hz
pareri??
Legolas84
16-03-2016, 11:09
Aspetta Gp104.... ;)
le offerte si trovano anche ottime,
dalla 970 che io avevo c'è una netta differenza, oggi inseguo i rumor solo perche sono in 4k e anche se sotto i 60 mi permette di giocare bene strizzo l occhio al futuro.
1920x1080 la 980ti distrugge tutto
Legolas84
16-03-2016, 11:19
le offerte si trovano anche ottime,
dalla 970 che io avevo c'è una netta differenza, oggi inseguo i rumor solo perche sono in 4k e anche se sotto i 60 mi permette di giocare bene strizzo l occhio al futuro.
1920x1080 la 980ti distrugge tutto
Si ma imho non ha senso comprare oggi un'architettura che verrà sostituita tra 3 massimo 6 mesi..... la 970 è una grandissima scheda che lo può trainare tranquillamente fino a GP104 in 1080p@60hz.... :)
fireradeon
16-03-2016, 11:26
quindi alla luce di oggi merita prendere una 980 ti o conviene aspettare?
vga sotto il cofano motore msi gaming gtx 970
risoluzione full hd @ 60 hz
pareri??
Per ora aspetta fine maggio/giugno che qualcosa pare debba uscire. Se poi non esce niente valuta, ma più tempo passa e meno conviene secondo me.
Giovamas
16-03-2016, 11:38
ho notato anche io,
chi ne parla bene al 99% non ha una furyx, anomalia mica da ridere.
Io parlo bene della Ti perche ho un 980ti, ma a questa cosa i soliti noti redpower sembrano non fare caso
Non mi sognerei nemmeno di consigliare una vga solo perche simpatizzo
Quoto al 100%. Io consiglio solo la mia 980Ti e parlo bene del custom MSI perchè ce l'ho e mi trovo molto bene. Delle altre sto zitto e mi limito a leggere.
TigerTank
16-03-2016, 11:49
Si ma imho non ha senso comprare oggi un'architettura che verrà sostituita tra 3 massimo 6 mesi..... la 970 è una grandissima scheda che lo può trainare tranquillamente fino a GP104 in 1080p@60hz.... :)
Però dipende...è molto personale come discorso e ci sono più alternative d'azione possibili.
Potrebbe essere come dici ma se ha fame di più prestazioni potrebbe anche prendere subito la Ti con relativo salto prestazionale(vista la resa di certi mattoni maxati o quasi già in fullHD...) e poi aggiornare con molta calma con una nuova TI pascal nel 2017. Avrebbe in ogni caso come minimo un anno abbondante di sfruttamento se proprio non vuole aspettare l'autunno per una 1070/1080 :)
chiaramente, ed infatti la mia era solo una precisazione perché sono fatto così.
non posso parlare per altri, ma dal canto mio non ho aggiornato vga perché non ne ho avuto bisogno e nemmeno attualmente e non faccio beneficenza :read: in più aspetto le 14/16nm
l'80% sono anche utenti rossi passati al verde e conta che molti rossi con le 7000/200 non hanno aggiornato per vari motivi, primo motivo perché kepler v1/v2 è scaduto prima delle 7000/200 e secondo perché le 7000/200 danno ancora degne prestazioni.
quindi come fai a dire che ci sono pro-amd se poi questo non comprano in assoluto schede amd? semplice, è una visione che alcuni hanno in testa tutta loro ed il mercato mica lo facciamo noi 4 gatti da forum :O
E allora in tal caso povera AMD, hai voglia ad aumentare le quote di mercato se anche la clientela più affezionata e votata al gaming di un certo livello aggiorna la vga solo ad ogni morte di papa :D
il discorso attesa/scimmia vale sempre per carità,
ma è oggettivo anche che se un utente è soddisfatto delle prestazioni di una 970, facendo il salto alla 980ti puo solo che andare in orgasmo :)
mikael84
16-03-2016, 11:52
5990?
5970
2 core da 1600sp vliw5
di nulla anche a me piace precisare :)
ovviamente dicendo 9 su 10 era un modo di dire, non mi sembra siano arrivati a 10 dual-gpu
in realtà sarebbe:
7950gx2 pochi mesi prima della 1900xtx che era singola gpu :read:
3870x2, poi 2 mesi dopo la 9800gx2 che era superiore ma solo per 4 mesi dato che è esordì la 4870x2 (gddr5) e non c'era nemmeno confronto, solo la 295 4 mesi dopo mise una pezza ancora con gddr3 ed erano pari altro che vittoria verde
fine 2009 esce la 5970 e nvidia preferisce saltare la serie 400 per ovvi motivi strutturali del primo Fermi
nello stesso mese del 2011 escono la 590 e la 6990 ed è pareggio
la 690 esce in anticipo sui tempi o sarebbe meglio dire che la 7990 è in ritardo e i motivi si vedono ma amd ci mette la pezza che hai citato e la 690 sta sotto la 7990 e non di poco
titan Z e 295x2 sarebbero pari, ma nelle review la titan Z non si vede praticamente mai :stordita:
adesso esce la Pro Duo e sembra in ritardo soprattutto dato il passaggio ad un processo produttivo più raffinato
ma sai qual'è il punto, è che ogni volta che sento la barzelletta della mancanza di concorrenza mi parte l'embolo :D
a parte che non mi sono mai piaciute queste soluzioni sia per un fatto di costo proibitivo che di sfruttamente reale dell'hardware con driver "ad hoc", ma non sbaglio di certo se dico che è stata praticamente sempre avanti ati/amd sulle dual-gpu :)
Devi sempre fare i paragoni per fascia, serie per serie.
Sulla mancanza di concorrenza siamo su 2 aspetti totalmente diversi, la concorrenza c'è sempre stata, anzi non ti immagini le ATI-AMD che ho avuto.
Chi segue le VGA da tempo sa bene la situazione, quello che sicuramente molti rimproverano è l'assoluto ritardo delle ultime AMD che praticamente danno tutto lo spazio ad Nvidia di fare e gestire il mercato come meglio crede.:)
Legolas84
16-03-2016, 11:53
Però dipende...è molto personale come discorso e ci sono più alternative d'azione possibili.
Potrebbe essere come dici ma se ha fame di più prestazioni potrebbe anche prendere subito la Ti con relativo salto prestazionale e poi aggiornare con molta calma con una nuova TI pascal nel 2017. Avrebbe in ogni caso come minimo un anno abbondante di sfruttamento se proprio non vuole aspettare l'autunno per una 1070/1080 :)
Si, però prenderebbe la nuova architettura con tutte le novità che porterà con un anno di ritardo.... :)
deadbeef
16-03-2016, 11:56
prendere una 980Ti, ultima scheda sul pp 28nm, per giocare a 1080p@60hz mi sembra un attimo overkill
E allora in tal caso povera AMD, hai voglia ad aumentare le quote di mercato se anche la clientela più affezionata e votata al gaming di un certo livello aggiorna la vga solo ad ogni morte di papa :D
esatto,
bello avere schede robuste che durano in prestazioni, ma che diamine se non invogli la tua utenza ad upgradare ci credo cha la concorrenza fa i miliardi e le rosse stanno al palo.
In poche parole fanno sfoggio del motivo per cui stanno fallendo : le passate gen pompano ancora bene oggi che motivo ho di acquistare una furyx?
ed infatti non se ne vendono lol
deadbeef
16-03-2016, 12:04
AMD facci i driver che si "dimenticano di ottimizzare" per le architetture precedenti così ci invogli a cambiare scheda :O
alex oceano
16-03-2016, 12:07
Aspetta Gp104.... ;)
chiaramente, ed infatti la mia era solo una precisazione perché sono fatto così.
non posso parlare per altri, ma dal canto mio non ho aggiornato vga perché non ne ho avuto bisogno e nemmeno attualmente e non faccio beneficenza :read: in più aspetto le 14/16nm
l'80% sono anche utenti rossi passati al verde e conta che molti rossi con le 7000/200 non hanno aggiornato per vari motivi, primo motivo perché kepler v1/v2 è scaduto prima delle 7000/200 e secondo perché le 7000/200 danno ancora degne prestazioni.
quindi come fai a dire che ci sono pro-amd se poi questo non comprano in assoluto schede amd? semplice, è una visione che alcuni hanno in testa tutta loro ed il mercato mica lo facciamo noi 4 gatti da forum :O
aspetterei le 14/16 nm ;)
Per ora aspetta fine maggio/giugno che qualcosa pare debba uscire. Se poi non esce niente valuta, ma più tempo passa e meno conviene secondo me.
prendere una 980Ti, ultima scheda sul pp 28nm, per giocare a 1080p@60hz mi sembra un attimo overkill
mi interessava pareri di esperti in materia
vi ringrazio tutti .
al momento aspetto , mi avete convinto magari può capitare una ipotetica 1070 /1080 ad un ottimo prezzo /prestazioni
TigerTank
16-03-2016, 12:13
Si, però prenderebbe la nuova architettura con tutte le novità che porterà con un anno di ritardo.... :)
Esatto, questo è vero però appunto il tutto diventa una scelta personale in base a necessità "urgenti" o tranquillamente rinviabili ;)
C'è anche l'opzione dell'eventuale Ti usata a mercatino :)
prendere una 980Ti, ultima scheda sul pp 28nm, per giocare a 1080p@60hz mi sembra un attimo overkill
Eh....con certi mattoni che escono ormai direi di no, se vuoi usare cose tipo HBAO+, ombre PCSS e quant'altro. Pesano un casino tant'è che a leggere in giro molte calibrazioni sono ancora basate sull'avere i 60fps in fullHD...
esatto,
bello avere schede robuste che durano in prestazioni, ma che diamine se non invogli la tua utenza ad upgradare ci credo cha la concorrenza fa i miliardi e le rosse stanno al palo.
In poche parole fanno sfoggio del motivo per cui stanno fallendo : le passate gen pompano ancora bene oggi che motivo ho di acquistare una furyx?
ed infatti non se ne vendono lol
Esatto....perchè ad esempio anche io o Mike a priori avevamo più volte fatto considerazioni + relative aspettative circa le Fury, tra HBM e quant'altro.
Ora vediamo un pò cosa succederà con le pascal GDDR5X da un lato e le Polaris HBM(il discorso sarà già diverso con 8GB invece degli attuali 4) dall'altro...e poi tra Pascal full e Vega con HBM2 vs HBM2 (imho).
Nvidia, nuovi effetti GameWorks e PhysX per giochi migliori :
http://www.tomshw.it/news/nvidia-nuovi-effetti-gameworks-e-physx-per-giochi-migliori-75234
.
deadbeef
16-03-2016, 12:22
Se non sbaglio sta anche rilasciando il codice sorgente di alcune librerie GameWorks su Github (effetto DICE?)
AMD facci i driver che si "dimenticano di ottimizzare" per le architetture precedenti così ci invogli a cambiare scheda :O
parlo del futuro e la cosa è soggettiva,
oltre alle prestazioni devo stuzzicare la mia voglia di rispendere una barca di soldi per una nuova vga, come per i telefonini guardo :
materiali,cura estetica,bundle,garanzia,progettazione/design per gli spazi occupati,led,multibios,sonde temperatura e qualsiasi altra diavoleria custom
tutto questo in amd sembra ridursi in abbiamo la gpu piu veloce, cosa che ne giro di mesi rimbalza da verde a rosso e viceversa.
Oggi non acquisterei amd in primis per estetica poi perche loro stessi non sanno bene perche acquistare una furyx, domani tutto puo cambiare spero.
AMD facci i driver che si "dimenticano di ottimizzare" per le architetture precedenti così ci invogli a cambiare scheda :O
Amd facci drivers che rispettino quello che "prometti", che tutti i cosi ganzi che dici di supportare non vedono mai la luce.
Prenditi due plasmon stasera e vai a letto tranquillo.
Sei divertente quanto una intervista della marini.
deadbeef
16-03-2016, 12:44
Te la sei presa a male eh :asd: per fortuna che il problema era mio.
Per la cronaca, bada bene a quello che scrivi perchè a me di plasmon e cazzate varie con quel tono non ci parli
Se le reazioni sono queste, si vede che ho fatto centro :O
Quello che se ne esce con interventi senza senso non sono io... Si infatti ho visto quanto sei calmo. Se vuoi ti passo l'indirizzo in pvt.
deadbeef
16-03-2016, 12:56
se famo na grigliata, tu porti un paio di 480 io un paio di X1900XTX
se famo na grigliata, tu porti un paio di 480 io un paio di X1900XTX
Basta che stacco i due 240 dal 4790k e dalle 780 che ci cociamo anche le pizze delle tartarughe ninja.
Quanto mi piaceva quel forno... Comunque ammetto che ho fatto dei pensierini erotici anche sul dolce forno.
Legolas84
16-03-2016, 13:08
ho fatto dei pensierini erotici anche sul dolce forno.
roba sexy :asd:
amon.akira
16-03-2016, 13:15
prendere una 980Ti, ultima scheda sul pp 28nm, per giocare a 1080p@60hz mi sembra un attimo overkill
rise of tomb raider 1080p maxed con vxao, alcune zone da 50fps.
AkiraFudo
16-03-2016, 14:15
parlo del futuro e la cosa è soggettiva,
oltre alle prestazioni devo stuzzicare la mia voglia di rispendere una barca di soldi per una nuova vga, come per i telefonini guardo :
materiali,cura estetica,bundle,garanzia,progettazione/design per gli spazi occupati,led,multibios,sonde temperatura e qualsiasi altra diavoleria custom
tutto questo in amd sembra ridursi in abbiamo la gpu piu veloce, cosa che ne giro di mesi rimbalza da verde a rosso e viceversa.
Oggi non acquisterei amd in primis per estetica poi perche loro stessi non sanno bene perche acquistare una furyx, domani tutto puo cambiare spero.
in che senso narubsa?
io ho una fury liscia (sapphire trix.) ha doppio bios, uno già impostato di default senza power limit; ha led rossi e blu che si illuminano in base all'assorbimento, ha diodo anche per i VRM cosa che AMD ha quasi sempre al contrario di nVidia.
Poi vabbe il dissipatore è abnorme e al posto della pasta c'è della calce... ma son dettagli! :p
Per estetica la furyx aio non mi sembra brutta, se poi metti un wb custom è ancora più bella. Un pò come erano le piccole 670/680.
in che senso narubsa?
io ho una fury liscia (sapphire trix.) ha doppio bios, uno già impostato di default senza power limit; ha led rossi e blu che si illuminano in base all'assorbimento, ha diodo anche per i VRM cosa che AMD ha quasi sempre al contrario di nVidia.
Poi vabbe il dissipatore è abnorme e al posto della pasta c'è della calce... ma son dettagli! :p
Per estetica la furyx aio non mi sembra brutta, se poi metti un wb custom è ancora più bella. Un pò come erano le piccole 670/680.
le custom vanno per gusti sia chiaro,
quando acquistai la mia avevo una bella scelta ma solo per una è stato amore.
Senza per questo denigrare la tua a me sapphire proprio come marchio non piace, le sue custom non mi dicono nulla in termini estetici.
Mi fa piacere che abbia tutta una serie di optional come led quant altro, quando acquistai la kpe cercavo un progetto simile amd.
Voglio dire compatto dual slot,dual fan, e non ho trovato nulla perche non esiste un livello di cura simile lato amd.
Venivo da una g1 970 quindi cosa sia una vga ingombrante lo ricordo bene
è nurabsa :)
Nelson Muntz
16-03-2016, 14:44
E allora in tal caso povera AMD, hai voglia ad aumentare le quote di mercato se anche la clientela più affezionata e votata al gaming di un certo livello aggiorna la vga solo ad ogni morte di papa
esatto,
bello avere schede robuste che durano in prestazioni, ma che diamine se non invogli la tua utenza ad upgradare ci credo cha la concorrenza fa i miliardi e le rosse stanno al palo.
In poche parole fanno sfoggio del motivo per cui stanno fallendo : le passate gen pompano ancora bene oggi che motivo ho di acquistare una furyx?
ed infatti non se ne vendono lol
Cioe' , adesso nvidia e' preferibile a AMD perche' le sue schede invecchiano prima invogliando l'utenza ad un upgrade ?!?! Della serie : cornuti & contenti !
Io ho una 970 , ma il livello di tifo che si legge ogni tanto qua dentro e' a livelli che sfiorano l'assurdo , eh !
Spider-Mans
16-03-2016, 14:48
Eh....con certi mattoni che escono ormai direi di no, se vuoi usare cose tipo HBAO+, ombre PCSS e quant'altro. Pesano un casino tant'è che a leggere in giro molte calibrazioni sono ancora basate sull'avere i 60fps in fullHD...
oramai manco mi meraviglio piu di questa filastrocca da forum... che le top di gamma su fhd sono sprecate
ma dove? :asd:
se ti accontenti di non maxare tutto o di giocare a frame rate bassi...affari tuoi..
oggi con una 980ti in fhd ....NON puoi giocare a tutto maxato sempre a 60 frame e oltre...ci sono giochi troppo pesanti (mal ottimizzati) gia ora...figuriamoci con i primi giochi nextgen fra un anno
ma che pensate che cyberpunk 2077 potrete giocare a 60 frame con una 970/980/390 in fhd ? :asd:
ma se gia witcher3 è pesantissimo...ed è stato downgradato rispetto ai primi video dell e3 di qualche anno fa...
figuriamoci con i titoli futuri
per me la x80 ma sorpatutto pascal ti sara stra perfetta proprio in fhd..sara l'unica risoluzione dove forse si potra giocare (titoli nextgen) tutto maxato a 60 frame senza dover ricorre allo sli che ha vari svantaggi...altro che spreco :asd:
aspetta non sono fanatico dei 144hz...perche per quelli ci vuole lo sli in fullhd
Spider-Mans
16-03-2016, 15:03
Nvidia, nuovi effetti GameWorks e PhysX per giochi migliori :
http://www.tomshw.it/news/nvidia-nuovi-effetti-gameworks-e-physx-per-giochi-migliori-75234
.
Nvidia Voxel Accelerated Ambient Occlusion (VXAO)
:oink:
rispetto ad hbao+ mi pare un bel miglioramento...ho visto alcuni confronti immagini
Nvidia Voxel Accelerated Ambient Occlusion (VXAO)
:oink:
rispetto ad hbao+ mi pare un bel miglioramento...ho visto alcuni confronti immagini
Ecco i nuovi ammazza-frames ...
hai capito il contrario,
è solo positivo che la vecchia vga vada ancora bene, ma le aziende stanno in piedi nel tempo con chi acquisterà domani se i nuovi prodotti meritano, non con chi ha gia acquistato ieri.
Poi parlando di me come potenziale nuovo cliente il messaggio era :
amd fai le nuove piu appetibili perche non ti regalo 1000€ solo parlando di ottime prestazioni.
saranno mesi che scrivo che tifo per chi sforna la vga migliore sotto tutti i punti di vista non solo prestazionale, ma mi rendo conto che l eterna diatriba rossoverde va di moda :)
AkiraFudo
16-03-2016, 15:10
@nurabsa
scusami per il typo :D
beh si..la kpe è una categoria proprio a parte... non mi viene in mente partner di amd che abbia sponsor di quel tipo.
illidan2000
16-03-2016, 15:11
oramai manco mi meraviglio piu di questa filastrocca da forum... che le top di gamma su fhd sono sprecate
ma dove? :asd:
se ti accontenti di non maxare tutto o di giocare a frame rate bassi...affari tuoi..
oggi con una 980ti in fhd ....NON puoi giocare a tutto maxato sempre a 60 frame e oltre...ci sono giochi troppo pesanti (mal ottimizzati) gia ora...figuriamoci con i primi giochi nextgen fra un anno
ma che pensate che cyberpunk 2077 potrete giocare a 60 frame con una 970/980/390 in fhd ? :asd:
ma se gia witcher3 è pesantissimo...ed è stato downgradato rispetto ai primi video dell e3 di qualche anno fa...
figuriamoci con i titoli futuri
per me la x80 ma sorpatutto pascal ti sara stra perfetta proprio in fhd..sara l'unica risoluzione dove forse si potra giocare (titoli nextgen) tutto maxato a 60 frame senza dover ricorre allo sli che ha vari svantaggi...altro che spreco :asd:
aspetta non sono fanatico dei 144hz...perche per quelli ci vuole lo sli in fullhd
quoto. Una 980ti non è sufficiente per il 1440p, nemmeno a 60hz
quoto. Una 980ti non è sufficiente per il 1440p, nemmeno a 60hz
Per un 1440 (magari allargato a 3440 diciamo) a 60hz lo SLI di ti serve .. se non si vuole scendere a compromessi..
io attualmente a 3440x1440 con lo SLI di ti ho la pace dei sensi .. se verranno titoli più esosi saranno cavoli :D
Spider-Mans
16-03-2016, 15:18
Per un 1440 (magari allargato a 3440 diciamo) a 60hz lo SLI di ti serve .. se non si vuole scendere a compromessi..
io attualmente a 3440x1440 con lo SLI di ti ho la pace dei sensi .. se verranno titoli più esosi saranno cavoli :D
hai la pace dei sensi se non devi mettere su un titolo bethesda o id ..et similia :p
TigerTank
16-03-2016, 15:19
oramai manco mi meraviglio piu di questa filastrocca da forum... che le top di gamma su fhd sono sprecate
...
Sì purtroppo se si vuole tutto maxato è così...oltretutto in fullHD pure un filtro AA è praticamente d'obbligo così il peso aumenta considerevolmente.
Poi certo...c'è chi vuole o tutto maxato o niente mentre c'è invece chi scala a seconda delle situazioni.
http://images.nvidia.com/geforce-com/international/images/tom-clancys-the-division/tom-clancys-the-division-shadow-quality-performance.png
HTFS e VXAO, PCSS e HBAO+ sono filtri migliorativi ma mattonazzi pazzeschi per i quali vale la formula "li attiverò tutti quando riprenderò il titolo tra un paio di generazioni di vga" :sofico:
Per quel che mi riguarda finchè si tratta di ombre e altri aspetti "secondari" scalo di settaggio senza problemi recuperando molto in framerate...tanto giocando poi finisce che nemmeno ti accorgi delle differenze :)
L'andazzo comunque è che un nuovo titolo che esce contemporaneamente ad una generazione X di vga difficilmente te lo godi maxato con quest'ultima, occorre aspettare le vga future, farsi uno Sli o appunto ottimizzare con intelligenza sulla base dei rapporti qualità-peso.
Spider-Mans
16-03-2016, 15:25
ma the division è persino "leggero" :asd:
mettiamo in campo IL mattone :
https://www.youtube.com/watch?v=g6v1b6HDVj0
a dettagli epic.. 30-35 frame :asd:
(male ottimizzato...ovvio...ma una idea te la fai xD è pur sempre un gioco ue4 fatto da terzi...e non da epic)
prendetelo come esempio per la pesantezza dei vari cyberpunk 2077 e macigni futuri..perche siamo li eh... anzi mi auguro che prima o poi rilascino witcher3 enanched..ossia ocme era ai tempi dell e3 su pc e non come è ora (downgradato)
e allora ci sara da ridere...
mikael84
16-03-2016, 15:32
Cioe' , adesso nvidia e' preferibile a AMD perche' le sue schede invecchiano prima invogliando l'utenza ad un upgrade ?!?! Della serie : cornuti & contenti !
Io ho una 970 , ma il livello di tifo che si legge ogni tanto qua dentro e' a livelli che sfiorano l'assurdo , eh !
Il problema e che spesso si affronta una discussione senza sapere bene la situazione o non averla vissuta.;)
Oggi si incolpa ad Nvidia che sta rallentando con Kepler (vero architettura vecchia fronte TMU e scarsa con le rops ma ci dimentichiamo i vari vliw 5-4)
Quando sento dire che una 7970 è più longeva di una 680 è si vero (sono entrambe obsolete) ma non si conosce per niente la situazione iniziale delle prime.
Parto dicendo che io GK104 l'ho saltato per un cross di 7970 ed una 7950 per un 3vie ma tutte utilizzate anche in single.
hd 7970 scheda uscita il 22/dicembre 2011
http://www.hwupgrade.it/articoli/skvideo/3084/amd-radeon-hd-7970-per-la-prima-volta-a-28-nanometri_index.html
Situazione multi gpu drammatica, risolta in parte solo dopo luglio 2013 con il frame pacing e latenze assurde
http://www.tomshw.it/articoli/recensione-amd-radeon-hd-7990-due-gpu-1000-euro-e-otto-giochi-in-bundle-47252-p5
http://www.hwupgrade.it/articoli/skvideo/3722/amd-radeon-hd-7990-ora-con-nuovi-driver-per-frame-pacing_4.html
nel 2013 a distanza di oltre un'anno, finalmente AMD si accorge delle latenze
http://www.tomshw.it/news/amd-radeon-problemi-di-latenza-risolti-con-update-in-serie-44264
Latenze dopo un'anno
http://techreport.com/review/24218/a-driver-update-to-reduce-radeon-frame-times/2
Con i 13.2 AMD migliora le latenze in single con i 13.2
http://www.tomshw.it/news/radeon-e-problemi-di-latenza-amd-fa-dei-netti-passi-avanti-44563
Ora AMD ha finalmente migliorato il tutto ed è risultata più longeva (salvo i primi 2 anni e qua bisogna chiederlo a chi ha speso 4/500 euro al dayone) per un'architettura di base molto superiore utilizzate in maniera migliore.
AMD inizialmente era talmente malandata che veniva superata da chip come la 670 con quasi 1000 shader in meno e banda molto minore;)
TigerTank
16-03-2016, 15:35
ma the division è persino "leggero" :asd:
mettiamo in campo IL mattone :
https://www.youtube.com/watch?v=g6v1b6HDVj0
a dettagli epic.. 30-35 frame :asd:
(male ottimizzato...ovvio...ma una idea te la fai xD è pur sempre un gioco ue4 fatto da terzi...e non da epic)
prendetelo come esempio per la pesantezza dei vari cyberpunk 2077 e macigni futuri..perche siamo li eh... anzi mi auguro che prima o poi rilascino witcher3 enanched..ossia ocme era ai tempi dell e3 su pc e non come è ora (downgradato)
e allora ci sara da ridere...
Ah beh ma quello è proprio ottimizzato con i piedi :sofico:
Più che altro intendevo proprio l'impatto dei singoli filtri gameworks nel determinare se valga la pena usarli e quindi upgradare il comparto video o di farne tranquillamente a meno favorendo un framerate migliore :)
Per quel che riguarda le ombre io vado decisamente sulla seconda mentre l'HBAO+ lo attivo se ho margine :D
oramai manco mi meraviglio piu di questa filastrocca da forum... che le top di gamma su fhd sono sprecate
ma dove? :asd:
se ti accontenti di non maxare tutto o di giocare a frame rate bassi...affari tuoi..
oggi con una 980ti in fhd ....NON puoi giocare a tutto maxato sempre a 60 frame e oltre...ci sono giochi troppo pesanti (mal ottimizzati) gia ora...figuriamoci con i primi giochi nextgen fra un anno
ma che pensate che cyberpunk 2077 potrete giocare a 60 frame con una 970/980/390 in fhd ? :asd:
ma se gia witcher3 è pesantissimo...ed è stato downgradato rispetto ai primi video dell e3 di qualche anno fa...
figuriamoci con i titoli futuri
per me la x80 ma sorpatutto pascal ti sara stra perfetta proprio in fhd..sara l'unica risoluzione dove forse si potra giocare (titoli nextgen) tutto maxato a 60 frame senza dover ricorre allo sli che ha vari svantaggi...altro che spreco :asd:
aspetta non sono fanatico dei 144hz...perche per quelli ci vuole lo sli in fullhd
vai in consigli per gli acquisti, prova a scriverlo, vedrai come ti insulteranno :asd:
Spider-Mans
16-03-2016, 16:01
Ah beh ma quello è proprio ottimizzato con i piedi :sofico:
Più che altro intendevo proprio l'impatto dei singoli filtri gameworks nel determinare se valga la pena usarli e quindi upgradare il comparto video o di farne tranquillamente a meno favorendo un framerate migliore :)
Per quel che riguarda le ombre io vado decisamente sulla seconda mentre l'HBAO+ lo attivo se ho margine :D
è ottimizzato da schifo vero
ma ti da una idea di come potra essere pesante ad esempio un cyberpunk 2077 (che sara "n volte" piu pesante di witcher3 attuale)
eh ovviamente so benissimo che basta poco nelle impostazioni per alleggerire e aumentare il frame rate...e i filtri gameworks vano usati solo se hai margine....ci mancherebbe
ma non è questo il punto su cui spesso discuto con chi se ne esce con la frase ironica.. 980ti = fhd = spreco
trovo assurdo il concetto che se compri una top di gamma devi "sfruttarla" solo con 1440p 2k o 4k
e che se giochi in fhd basta una media/alta...
ma basta cosa? :D basta per giocare in modalita console
la differenza tra pc e console sta proprio nel fatto che su pc puoi spingerti oltre i canonici 30 frame senza dover sacrificare i dettagli grafici...se per giocare a 60 frame su witcher3 devo sacrificare i dettagli alunga distanza o le ombre...beh sto giocando con dettagli quasi simili a quelli per la versione ps4 (ma a frame rate doppio ovviamente)
pienamente d accordo col pensiero di spider,
fhd tutto ultra vuole il cippone se parliamo solo di performace.
mikael84
16-03-2016, 16:41
è ottimizzato da schifo vero
ma ti da una idea di come potra essere pesante ad esempio un cyberpunk 2077 (che sara "n volte" piu pesante di witcher3 attuale)
eh ovviamente so benissimo che basta poco nelle impostazioni per alleggerire e aumentare il frame rate...e i filtri gameworks vano usati solo se hai margine....ci mancherebbe
ma non è questo il punto su cui spesso discuto con chi se ne esce con la frase ironica.. 980ti = fhd = spreco
trovo assurdo il concetto che se compri una top di gamma devi "sfruttarla" solo con 1440p 2k o 4k
e che se giochi in fhd basta una media/alta...
ma basta cosa? :D basta per giocare in modalita console
la differenza tra pc e console sta proprio nel fatto che su pc puoi spingerti oltre i canonici 30 frame senza dover sacrificare i dettagli grafici...se per giocare a 60 frame su witcher3 devo sacrificare i dettagli alunga distanza o le ombre...beh sto giocando con dettagli quasi simili a quelli per la versione ps4 (ma a frame rate doppio ovviamente)
La soluzione sta sempre nel mezzo:)
Oggi riesci volendo ad appesantire un 1080p attivando questi (di cui sfido a trovare differenze)
http://images.nvidia.com/geforce-com/international/images/fallout-4/fallout-4-god-rays-quality-performance.png
o queste, campionate all'ennesima potenza
http://images.nvidia.com/geforce-com/international/images/tom-clancys-the-division/tom-clancys-the-division-shadow-quality-performance.png
http://images.nvidia.com/geforce-com/international/images/assassins-creed-syndicate/assassins-creed-syndicate-shadow-quality-performance.png
ma nello stesso tempo ti ritrovi 8 giochi su 10 che in 1440p (3,7mpixel) volano e fanno dormire la GPU tanto che andrebbero pure in 4k.
Mad max ha un' usage maxato di effettini che in 1440p non supera il 50/60% di usage, DL mi sta sul 60/70% + sweetfx e AA.
Il termine sprecata per il 1080p almeno io lo interpreto che, 700 euro per una scheda che spesso dorme in 1440, abbinarla ad un 1080p da 150-200 euro sia buttare soldi, quando tale scheda è in grado di pilotare molti giochi in 4k e la maggior su un buon pannello a 1440p.
Chiaramente volendo puoi rendere obsoleto anche un 900p, basta volerlo:)
Per un 1440 (magari allargato a 3440 diciamo) a 60hz lo SLI di ti serve .. se non si vuole scendere a compromessi..
io attualmente a 3440x1440 con lo SLI di ti ho la pace dei sensi .. se verranno titoli più esosi saranno cavoli :D
Ma i 3440*1440 (21:9 suppongo?) sono supportati da tutti i giochi?
Ma i 3440*1440 (21:9 suppongo?) sono supportati da tutti i giochi?
Tutti non credo ma esistono metodi per farli andare .. i più recenti credo la supportino tutti comunque ed eventuali problemi si possono incontrare con giochi non recentissimi. Sono passato a questa risoluzione da poco e non ho molta esperienza comunque ..
fireradeon
17-03-2016, 09:00
http://www.guru3d.com/news-story/nvidia-geforce-x80-and-x80-ti-pascal-specs.html
Beccatevi questa.... secondo voi quanto si accostano alla realtà?
Se sono vere e a Maggio Giugno escono le X80 vado di SLI e amen fino al 2017
Cmq la Titan Pascal sarà un mostro!! Diciamoci la verità, pure troppo potente per qualsiasi gioco in uscita per i prossimi 12 mesi e per far andare in 4K a 60fissi (e forse più) i vecchi e forse anche i nuovi giochi.
A questo punto mio pronostico finale: Maggio/Giugno X80 - Settembre/Dicembre X80Ti - Inizio 2017 Titan UBBA
Giovamas
17-03-2016, 09:15
http://www.guru3d.com/news-story/nvidia-geforce-x80-and-x80-ti-pascal-specs.html
Beccatevi questa.... secondo voi quanto si accostano alla realtà?
Se sono vere e a Maggio Giugno escono le X80 vado di SLI e amen fino al 2017
Cmq la Titan Pascal sarà un mostro!! Diciamoci la verità, pure troppo potente per qualsiasi gioco in uscita per i prossimi 12 mesi e per far andare in 4K a 60fissi (e forse più) i vecchi e forse anche i nuovi giochi.
A questo punto mio pronostico finale: Maggio/Giugno X80 - Settembre/Dicembre X80Ti - Inizio 2017 Titan UBBA
ci fosse davvero la x80ti al back to school:) ... ma è molto sensato come scenario
TigerTank
17-03-2016, 09:46
A questo punto mio pronostico finale: Maggio/Giugno X80 - Settembre/Dicembre X80Ti - Inizio 2017 Titan UBBA
agosto-settembre 1070/1080, titan e Ti 2017. La Ti di sicuro esce per ultima altrimenti venderebbero molte meno titan.
Se Micron parte con la produzione di massa delle GDDR5X in estate, è impossibile che escano a maggio-giugno.
Imho ;)
fireradeon si sulla carta è potente,
ma vedrai che basta un po di occlusione ambientale qualche effetto volumetrico e fine dei 60fps in uhd .
il compromesso è sempre dietro l angolo purtroppo nessuna vga ne sara mai esclusa.
Spero la 1080 avra almeno 8gb gddrx il minimo per stuzzicare la mia fantasia
@bivvoz
quando giocherò a vsynch fisso, iniziero a credere alla possibilita di superare i 60.
Oggi per me è gia un lusso vedere i nuovi giochi sopra i 50fps 4k.
Mancano cosi tanti frame dal giocare bene, che l overclock fa il solletico servirebbero 10 generazioni di vga 4k 120hz
illidan2000
17-03-2016, 10:33
Non è che c'è qualcuno con la frusta che ti obbliga ad attivare hbao+ o cose simili :D
Sono bei effetti e quando guardi le immagini si vede la differenza, ma mentre giochi a parer mio manco ti accorgi della differenza.
Noti invece se hai frame più bassi :)
Ieri sera, giocando a Far Cry Primal, volevo ottenere il massimo di fps possibili, mantenendo solo la risoluzione a quella nativa del Predator x34 (3440x1440).
Il risultato è che:
- Tutto su ultra: 50-55 fps
- Togliendo le ombre e abbassando su Alto le nubi: 70 fps
- Mettendo tutto al minimo: 70fps
Processore con un core sempre al 100%, gli altri dormienti. Nonostante un 5820k @4.2ghz, sono cpu limited in questo gioco...
Grazie al gsync, sempre fluido, in ogni situazione
scusate da profano non ho capito una cosa, il salto di prestazioni da tempo annunciato si avrà grazie al nuovo processo produttivo o grazie all'utilizzo di queste nuove memorie HBM2? se fosse il secondo caso forse prendere le prime pascal in uscita avrebbe poco senso, o sbaglio? grazie
illidan2000
17-03-2016, 10:55
scusate da profano non ho capito una cosa, il salto di prestazioni da tempo annunciato si avrà grazie al nuovo processo produttivo o grazie all'utilizzo di queste nuove memorie HBM2? se fosse il secondo caso forse prendere le prime pascal in uscita avrebbe poco senso, o sbaglio? grazie
principalmente per il processo produttivo, poiché infilano dentro il doppio dei "transistor", nel chip completo. Le memorie però serviranno a "sostenere" tutto ciò.
Io sono dell'idea, che anche le gddr5x possano andare più che bene invece
principalmente per il processo produttivo, poiché infilano dentro il doppio dei "transistor", nel chip completo. Le memorie però serviranno a "sostenere" tutto ciò.
Io sono dell'idea, che anche le gddr5x possano andare più che bene invece
ti ringrazio, ero orientato a prendere una pascal appena possibile perché avendo un monitor 2k 144hz volevo sfruttarlo per bene prima che diventi obsoleto, però avevo paura che il grosso delle prestazioni le facessero appunto le memorie HBM2
mikael84
17-03-2016, 11:33
http://www.guru3d.com/news-story/nvidia-geforce-x80-and-x80-ti-pascal-specs.html
Beccatevi questa.... secondo voi quanto si accostano alla realtà?
Se sono vere e a Maggio Giugno escono le X80 vado di SLI e amen fino al 2017
Cmq la Titan Pascal sarà un mostro!! Diciamoci la verità, pure troppo potente per qualsiasi gioco in uscita per i prossimi 12 mesi e per far andare in 4K a 60fissi (e forse più) i vecchi e forse anche i nuovi giochi.
A questo punto mio pronostico finale: Maggio/Giugno X80 - Settembre/Dicembre X80Ti - Inizio 2017 Titan UBBA
E' sicuramente fake
1) la memoria da 384bit e 6gb(8ghz) mi sembra davvero fuori luogo (anche se l'unica ad avere tali memorie o almeno doveva produrle era la Micron (elpida)
http://www.techpowerup.com/213901/micron-begins-shipping-its-first-20-nm-class-gddr5-dram-chips.html
2) richiederebbe un core da almeno 400mm2, quando si stima un 300/330mm2 max un 350mm2
3) non torna la predisposizione cuda-rops, 4096 cuda su 6 canali sono 682,2 cuda per canale:confused: e 21,3 rops per canale.
4) il core clock è troppo basso per essere un chippino sui 16nm, visto che già la 980 era sopra i 1100
5) avrebbe un distacco tra 970/980ti, Nvidia difficilmente ti darà un simile boost, senza contare che la x70 in barba alle specifiche si ritroverebbe 1000 cuda in più della 980ti, altro che prestazioni simili, la straccerebbe
nervoteso
17-03-2016, 13:17
sapete quando esce pascal 1080?
Crysis90
17-03-2016, 13:39
sapete quando esce pascal 1080?
Si vocifera fine Maggio.
AkiraFudo
17-03-2016, 13:40
3) non torna la predisposizione cuda-rops, 4096 cuda su 6 canali sono 682,2 cuda per canale:confused: e 21,3 rops per canale.
magari è la barbatrucco edition..970 style :asd:
Goofy Goober
17-03-2016, 13:56
magari è la barbatrucco edition..970 style :asd:
sento puzza di 7.5gb di VRAM
Bartsimpson
17-03-2016, 13:56
Se fossero veri questi dati (non ci credo ma lo spero) la X70 potrebbe avere un consumo molto basso con prestazioni tipo la attuale 980TI e con una singola alimentazione da 6 pin... proprio quello che cerco! :D
sento puzza di 7.5gb di VRAM
Ma stavolta sono 7,5 lenti e 0,5 così veloci da eliminare qualsiasi bottiglia, fiasco o bottiglione di mezzo :stordita:
Goofy Goober
17-03-2016, 14:16
Ma stavolta sono 7,5 lenti e 0,5 così veloci da eliminare qualsiasi bottiglia, fiasco o bottiglione di mezzo :stordita:
per me ci sta tutta.
tanto saranno 7,5gb allocati e 0,5gb utilizzati.
TigerTank
17-03-2016, 14:17
sento puzza di 7.5gb di VRAM
Credo che sarà una delle cose che molti vorranno appurare prima di lanciarsi all'acquisto, insieme ad altre cose tipo regolatori di voltaggio bloccati, ecc... :sofico:
No dai...basta ddr5, sarebbe assurdo dalle 1070 in su ora che si parla di gddr5x e hbm2.
In caso contrario Goofy, ci lanciamo con la macchinina giù per il pendio :D
Goofy Goober
17-03-2016, 14:25
In caso contrario Goofy, ci lanciamo con la macchinina giù per il pendio :D
http://img.memecdn.com/Kill-Your-Little-Brother_o_113985.gif
:asd:
no, ci lancio una 1070 e faccio la nuova gif più cliccata del web: "kill your vramfake 1070" :sofico:
mikael84
17-03-2016, 14:33
magari è la barbatrucco edition..970 style :asd:
Oltre ad essere fake (in primis la x80ti in gddr5) non conoscono per niente l'architettura interna. E guru 3d un sito serio non si accorge neppure di nulla. La mette come ipotesi.:mc:
sento puzza di 7.5gb di VRAM
Questo è possibilissimo.:)
Ma stavolta sono 7,5 lenti e 0,5 così veloci da eliminare qualsiasi bottiglia, fiasco o bottiglione di mezzo :stordita:
X70 turbocache:asd: :asd:
TigerTank
17-03-2016, 14:39
http://img.memecdn.com/Kill-Your-Little-Brother_o_113985.gif
:asd:
no, ci lancio una 1070 e faccio la nuova gif più cliccata del web: "kill your vramfake 1070" :sofico:
Eccola! :sofico:
Questo è possibilissimo.:)
Ah sì? E allora scarto l'opzione Sli di 1070 :D
Legolas84
17-03-2016, 14:48
Credo che sarà una delle cose che molti vorranno appurare prima di lanciarsi all'acquisto, insieme ad altre cose tipo regolatori di voltaggio bloccati, ecc... :sofico:
No dai...basta ddr5, sarebbe assurdo dalle 1070 in su ora che si parla di gddr5x e hbm2.
In caso contrario Goofy, ci lanciamo con la macchinina giù per il pendio :D
Se la scheda va bene come la 970 a me non interesserebbe... ;) alla fine sono le prestazioni che contano e nvidia con la 970 ha fatto un lavoro egregio.
Inoltre in realtà la 970 non è neanche la prima scheda che usa questo sistema di gestione della memoria.
Comunque per chi ha ancora dubbi a riguardo consiglio sempre di leggere l'articolo tecnico di anadtech a riguardo che è molto esaustivo :)
Inviato dal mio ONE A2003 utilizzando Tapatalk
illidan2000
17-03-2016, 15:09
Ma stavolta sono 7,5 lenti e 0,5 così veloci da eliminare qualsiasi bottiglia, fiasco o bottiglione di mezzo :stordita:
più probabile 7+1. Ma pure in questo caso, sarebbe sempre uno in più della 980Ti. un affarone. Magari fosse così...
mikael84
17-03-2016, 15:14
Se la scheda va bene come la 970 a me non interesserebbe... ;) alla fine sono le prestazioni che contano e nvidia con la 970 ha fatto un lavoro egregio.
Inoltre in realtà la 970 non è neanche la prima scheda che usa questo sistema di gestione della memoria.
Comunque per chi ha ancora dubbi a riguardo consiglio sempre di leggere l'articolo tecnico di anadtech a riguardo che è molto esaustivo :)
Inviato dal mio ONE A2003 utilizzando Tapatalk
E'un tantino diverso ma neppure tanto.
Le schede a cui ti riferisci sono le 660/660ti.
Per collegarle a 2gb hanno dovuto mischiare la densità dei chip.
3 canali di memoria collegati a 512mb di ram. Quindi l'accesso è di 1,5gb su un 192bit lineare.
Tuttavia l'ultimo controller si appoggia ad un' unico dei 3 controller 64bit, quindi i 512mb finali possono avere notevoli problemi di latenze.
killeragosta90
17-03-2016, 16:12
http://img.memecdn.com/Kill-Your-Little-Brother_o_113985.gif
:asd:
no, ci lancio una 1070 e faccio la nuova gif più cliccata del web: "kill your vramfake 1070" :sofico:
E' da un po' che non la vedevo più questa :asd: :asd:
Spider-Mans
17-03-2016, 16:46
Se la scheda va bene come la 970 a me non interesserebbe... ;) alla fine sono le prestazioni che contano e nvidia con la 970 ha fatto un lavoro egregio.
Inoltre in realtà la 970 non è neanche la prima scheda che usa questo sistema di gestione della memoria.
Comunque per chi ha ancora dubbi a riguardo consiglio sempre di leggere l'articolo tecnico di anadtech a riguardo che è molto esaustivo :)
Inviato dal mio ONE A2003 utilizzando Tapatalk
per non dimenticare
ci sono esaurienti articoli che dimostrano che il problema nella pratica..in game... non c'è:
eng:
http://www.eurogamer.net/articles/digitalfoundry-2015-nvidia-geforce-gtx-970-revisited
ita:
http://www.eurogamer.it/articles/digitalfoundry-2015-nvidia-geforce-gtx-970-nuova-analisi
In conclusione, le abbiamo davvero provate tutte per mettere in crisi la GTX 970 e non ci siamo riusciti, non nella configurazione a scheda singola e senza incorrere in tetti di compute o di bandwidth irragionevoli, tali da portare la performance a livelli ingiocabili. Nei nostri test più verosimili, non abbiamo notato alcuno stutter che non fosse presente anche su GTX 980,
pensare che lo slogan 3,5+0,5 oramai è una loro bandiera :asd: che poi manco hanno mai visto una 970 da vicino..
perche chi ha una 970..sa bene che non c'è alcun problema di vram
andiamo avanti xD
illidan2000
17-03-2016, 16:59
vero. io ne ho due, e la mia (iniziale) frustrazione era solo per aver occultato questo aspetto implementativo.
Poi, con senno di adesso, si vede che 3.5gb cominciano a stare strettini con due schede, laddove via driver non dovesse andare. Ma fino ad ora, non ho riscontrato casi, quindi non ce l'ho nemmeno poi più così tanto con nVidia.
ps. su overclock.net hanno messo un thread dove fanno a gara gli utenti possessori di nVidia e AMD; L'hanno chiamato Fanboy thread!
In realtà, la sfida è a colpi di benchmark
Spider-Mans
17-03-2016, 17:02
ma non ti riesce proprio di non flammare sempre?
per la 100esima volta: nvidia ha dichiarato la cosa e messo a posto il problema via driver solo dopo numerose lamentele sul suo forum... non è la bandiera di nulla
non si tratta solo di prestazioni e che la schede è ottima, ma di trasparenza: avesse dichiarato subito le specifiche giuste tutto sto polverone non sarebbe emerso ;)
qualcuno ti ha chiamato in ballo?
non mi pare... è piu forte di te.. :asd:
tieniti la trasparenza..io mi tengo le prestazioni
Spider-Mans
17-03-2016, 17:11
ma che risposta eh? :mbe: ennesimo flame tuo ed il bello è che dai del fanboy agli altri...
hai detto una cosa non vera e mi sentivo di scrivere come sono andate davvero le cose, sono FATTI ma da una disinformazione sei riuscito a tirare fuori l'ennesimo flame verso la vga-war
guarda @illidan2000 come ha risposto poco prima di te...
disinformazione? flame?
stai facendo tutto tu
io ho replicato ad un altro utente che sottolineava che il rpoblema in prestazioni non c'è
ho linkato un famoso articolo che dimostra quanto detto
sei tu che sei partito in quinta....
senti lasciamo perdere..evita...get a life
qui si parla di nvidia..te lo dimentichi sempre
Legolas84
17-03-2016, 18:36
per non dimenticare
ci sono esaurienti articoli che dimostrano che il problema nella pratica..in game... non c'è:
eng:
http://www.eurogamer.net/articles/digitalfoundry-2015-nvidia-geforce-gtx-970-revisited
ita:
http://www.eurogamer.it/articles/digitalfoundry-2015-nvidia-geforce-gtx-970-nuova-analisi
In conclusione, le abbiamo davvero provate tutte per mettere in crisi la GTX 970 e non ci siamo riusciti, non nella configurazione a scheda singola e senza incorrere in tetti di compute o di bandwidth irragionevoli, tali da portare la performance a livelli ingiocabili. Nei nostri test più verosimili, non abbiamo notato alcuno stutter che non fosse presente anche su GTX 980,
pensare che lo slogan 3,5+0,5 oramai è una loro bandiera :asd: che poi manco hanno mai visto una 970 da vicino..
perche chi ha una 970..sa bene che non c'è alcun problema di vram
andiamo avanti xD
Esatto.... di articoli che hanno analizzato a fondo la questione ce ne sono molti e quello di anandtech è uno dei più autorevoli e tecnici disponibili.
Il problema non esiste, le schede hanno prestazioni ottime esattamente come il giorno in cui sono uscite. Chiunque non ha secondi fini sa che è così ;)
Quindi se anche su una eventuale Pascal adotteranno questa soluzione per me non ci saranno problemi :)
mikael84
17-03-2016, 23:16
E' qualcosa di incredibile:eek:
http://wccftech.com/nvidia-pascal-specs/
http://videocardz.com/58625/nvidia-geforce-x80ti-and-geforce-x80-titan-specs-hit-the-web-or-do-they
Un fake di neogaf, fatto da un utente che non conosce minimamente l'architettura in questione ha fatto il giro di tutte le testate, che le hanno passate come possibili.:confused:
Incredibile come grandi testate non si accorgano dei clamorosi fail e sembra che nessuno conosca la micro architettura.:eek:
Senza parole:doh:
°Phenom°
17-03-2016, 23:27
Più che altro già da dire che probabilmente neanche visionano ciò che scrivono o per meglio dire copiano/incollano :asd:
Inviato dal mio SM-G925F utilizzando Tapatalk
TigerTank
17-03-2016, 23:27
E' qualcosa di incredibile:eek:
http://wccftech.com/nvidia-pascal-specs/
http://videocardz.com/58625/nvidia-geforce-x80ti-and-geforce-x80-titan-specs-hit-the-web-or-do-they
Un fake di neogaf, fatto da un utente che non conosce minimamente l'architettura in questione ha fatto il giro di tutte le testate, che le hanno passate come possibili.:confused:
Incredibile come grandi testate non si accorgano dei clamorosi fail e sembra che nessuno conosca la micro architettura.:eek:
Senza parole:doh:
Sì ma veramente....cioè persino io che non sono un guru in ambito tecnico ho capito che era un fake un nanosecondo dopo aver visto la tabella postata da thunder :doh:
Ma poi ti pare che con le produzioni Micron e Hynix/Samsung in avvio per le GDDR5X e le HBM2 facciano ancora schede di fascia alta con le gddr5? Lol...
mikael84
17-03-2016, 23:39
Più che altro già da dire che probabilmente neanche visionano ciò che scrivono o per meglio dire copiano/incollano :asd:
Inviato dal mio SM-G925F utilizzando Tapatalk
Sì ma veramente....cioè persino io che non sono un guru in ambito tecnico ho capito che era un fake un nanosecondo dopo aver visto la tabella postata da thunder :doh:
Ma poi ti pare che con le produzioni Micron e Hynix/Samsung in avvio per le GDDR5X e le HBM2 facciano ancora schede di fascia alta con le gddr5? Lol...
Anche tralasciando eventuali bus, memorie(totalmente sparate), non ti fai due domande.
4096 cuda e 128rops, ok, come le metti, che core usi, che SMM e rops usi per tale rapporto, quello 0,01
Io appena letta la news ho visto subito che non tornava nulla ma proprio nulla, però che grandi testate facessero copia-incolla senza controllare sta a significare molte cose.:rolleyes:
Speriamo che le nostre testate (italiane) non cadano in questo mostruoso fake.:rolleyes:
Tiger, ok il rapporto sballato con x80 ma lo stesso bus su x80ti e HBM2 sulla Titan/tesla è tutto un programma (stesso chip)
illidan2000
17-03-2016, 23:49
buontemponi... ognuno si diverte come può/vuole... eheh
maxmix65
18-03-2016, 00:01
E' qualcosa di incredibile:eek:
http://wccftech.com/nvidia-pascal-specs/
http://videocardz.com/58625/nvidia-geforce-x80ti-and-geforce-x80-titan-specs-hit-the-web-or-do-they
Un fake di neogaf, fatto da un utente che non conosce minimamente l'architettura in questione ha fatto il giro di tutte le testate, che le hanno passate come possibili.:confused:
Incredibile come grandi testate non si accorgano dei clamorosi fail e sembra che nessuno conosca la micro architettura.:eek:
Senza parole:doh:
Apposta dico sempre che fidarsi e' bene ma non fidarsi e' meglio hahahha
Spider-Mans
18-03-2016, 00:17
Sì ma veramente....cioè persino io che non sono un guru in ambito tecnico ho capito che era un fake un nanosecondo dopo aver visto la tabella postata da thunder :doh:
Ma poi ti pare che con le produzioni Micron e Hynix/Samsung in avvio per le GDDR5X e le HBM2 facciano ancora schede di fascia alta con le gddr5? Lol...
piu che altro 6gb vram
basta XD
8gb è il target "minimo" ..si spera gddr5x
maurilio968
18-03-2016, 09:59
Anche tralasciando eventuali bus, memorie(totalmente sparate), non ti fai due domande.
4096 cuda e 128rops, ok, come le metti, che core usi, che SMM e rops usi per tale rapporto, quello 0,01
Io appena letta la news ho visto subito che non tornava nulla ma proprio nulla, però che grandi testate facessero copia-incolla senza controllare sta a significare molte cose.:rolleyes:
la prima cosa, ovvia, è la ricerca spasmodica del click a tutti i costi.
E va bene, lo sappiamo.
Però non viene anche a te questa domanda: se avessero un minimo di informazioni certe, non smentirebbero almeno gli sfondoni più clamorosi?
Possibile che almeno la base della nuova architettura sia così ignota?
C'è qualcosa sotto che nessuno sa?
Viceversa le tue speculazioni sono logiche, perchè si basano su una analisi coerente delle informazioni trapelate sino ad ora.
E sul fatto che parliamo di evoluzioni e non stravolgimenti.
Ti invito a fare una tua tabella coerente con quanto hai detto sin qui e poi a pubblicarla e postarla in giro.
Vediamo se anche la tua fa il giro delle testate. Almeno sarebbe sensata.
barbara67
18-03-2016, 10:25
Non so se già postato :
http://techreport.com/news/27978/nvidia-pascal-to-feature-mixed-precision-mode-up-to-32gb-of-ram
illidan2000
18-03-2016, 10:33
Non so se già postato :
http://techreport.com/news/27978/nvidia-pascal-to-feature-mixed-precision-mode-up-to-32gb-of-ram
Nvidia's current-gen GPU architecture, Maxwell, is limited to fp32 operation, meaning that int8, fp16, and fp32 operations are all processed internally at the same rate. The Maxwell GPU in the Tegra X1 SoC adds the abillity to operate in fp16 mode, which can effectively double its throughput .... That big number might be explained by the addition of an int8 mode along with fp16 and fp32. Pascal also promises better performance simply due to the inherent architectural improvements in its design.
detta così, sembra l'uovo di Colombo
newss ravvivo un pò visto il mortorio :)
non si chiamera 1080 a quanto pare ma GeForce X80
notizia (http://www.tomshw.it/news/geforce-x80-un-nuovo-nome-per-le-top-di-gamma-nvidia-75323)
se confermate con quelle caratteristiche la scimmia ha deciso vuole la titan
Legolas84
18-03-2016, 11:14
newss ravvivo un pò visto il mortorio :)
non si chiamera 1080 a quanto pare ma GeForce X80
notizia (http://www.tomshw.it/news/geforce-x80-un-nuovo-nome-per-le-top-di-gamma-nvidia-75323)
Sinceramente spero di no.... richiamerebbe troppo le vecchie serie ATi....
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.